Просмотр исходного кода

llama : fix comment for "output.weight" tensor

Georgi Gerganov 2 лет назад
Родитель
Сommit
d40fded93e
1 измененных файлов с 2 добавлено и 2 удалено
  1. 2 2
      llama.cpp

+ 2 - 2
llama.cpp

@@ -1618,8 +1618,8 @@ static void llama_model_quantize_internal(const std::string & fname_inp, const s
         // quantize only 2D tensors
         // quantize only 2D tensors
         quantize &= (tensor.ne.size() == 2);
         quantize &= (tensor.ne.size() == 2);
 
 
-        // GG: uncomment this to keep the output layer in FP16
-        //if (tensor.name.rfind("output")) {
+        // uncomment this to keep the output layer in FP16
+        //if (tensor.name == "output.weight") {
         //    quantize = false;
         //    quantize = false;
         //}
         //}