Преглед изворни кода

llama : fix comment for "output.weight" tensor

Georgi Gerganov пре 2 година
родитељ
комит
d40fded93e
1 измењених фајлова са 2 додато и 2 уклоњено
  1. 2 2
      llama.cpp

+ 2 - 2
llama.cpp

@@ -1618,8 +1618,8 @@ static void llama_model_quantize_internal(const std::string & fname_inp, const s
         // quantize only 2D tensors
         quantize &= (tensor.ne.size() == 2);
 
-        // GG: uncomment this to keep the output layer in FP16
-        //if (tensor.name.rfind("output")) {
+        // uncomment this to keep the output layer in FP16
+        //if (tensor.name == "output.weight") {
         //    quantize = false;
         //}