Explorar el Código

llama : fix comment for "output.weight" tensor

Georgi Gerganov hace 2 años
padre
commit
d40fded93e
Se han modificado 1 ficheros con 2 adiciones y 2 borrados
  1. 2 2
      llama.cpp

+ 2 - 2
llama.cpp

@@ -1618,8 +1618,8 @@ static void llama_model_quantize_internal(const std::string & fname_inp, const s
         // quantize only 2D tensors
         quantize &= (tensor.ne.size() == 2);
 
-        // GG: uncomment this to keep the output layer in FP16
-        //if (tensor.name.rfind("output")) {
+        // uncomment this to keep the output layer in FP16
+        //if (tensor.name == "output.weight") {
         //    quantize = false;
         //}