Просмотр исходного кода

chore: fix typo in llama.cpp (#7032)

Co-authored-by: Jared Van Bortel <jared@nomic.ai>
alwqx 1 год назад
Родитель
Сommit
6ecf3189e0
1 измененных файлов с 1 добавлено и 1 удалено
  1. 1 1
      llama.cpp

+ 1 - 1
llama.cpp

@@ -2359,7 +2359,7 @@ static bool llama_kv_cache_init(
     cache.recurrent = model.arch == LLM_ARCH_MAMBA;
     cache.recurrent = model.arch == LLM_ARCH_MAMBA;
     cache.v_trans   = !cparams.flash_attn;
     cache.v_trans   = !cparams.flash_attn;
 
 
-    // TODO: support mixed reccurent Transformer architectues
+    // TODO: support mixed recurrent Transformer architectures
     // NOTE: (!a || b) is a logical implication (a -> b)
     // NOTE: (!a || b) is a logical implication (a -> b)
     GGML_ASSERT(!cache.recurrent || n_embd_k_gqa == hparams.n_embd_k_s());
     GGML_ASSERT(!cache.recurrent || n_embd_k_gqa == hparams.n_embd_k_s());
     GGML_ASSERT(!cache.recurrent || n_embd_v_gqa == hparams.n_embd_v_s());
     GGML_ASSERT(!cache.recurrent || n_embd_v_gqa == hparams.n_embd_v_s());