Răsfoiți Sursa

convert.py : fix llama/llama2 conversion due to vocab_size=-1 (#4258)

slaren 2 ani în urmă
părinte
comite
f4d973cecb
1 a modificat fișierele cu 1 adăugiri și 1 ștergeri
  1. 1 1
      convert.py

+ 1 - 1
convert.py

@@ -267,7 +267,7 @@ class Params:
             n_ctx = 2048
 
         return Params(
-            n_vocab          = config.get("vocab_size", model["tok_embeddings.weight"].shape[0]),
+            n_vocab          = model["tok_embeddings.weight"].shape[0],
             n_embd           = config["dim"],
             n_layer          = config["n_layers"],
             n_ctx            = n_ctx,