Ver Fonte

llama : deci : support ffn-free with attention (#13296)

Sigbjørn Skjæret há 8 meses atrás
pai
commit
bc4e1128f7
1 ficheiros alterados com 1 adições e 1 exclusões
  1. 1 1
      src/llama-model.cpp

+ 1 - 1
src/llama-model.cpp

@@ -4792,7 +4792,7 @@ struct llm_build_deci : public llm_graph_context {
             }
 
             // FFN-free layer of Llama-3_1-Nemotron-Ultra-253B
-            if (n_head == 0 && n_ff == 0) {
+            if (n_ff == 0) {
                 continue;
             }