Explorar el Código

llama : fix unused warning

Georgi Gerganov hace 2 años
padre
commit
5a5aeb1e91
Se han modificado 1 ficheros con 2 adiciones y 0 borrados
  1. 2 0
      llama.cpp

+ 2 - 0
llama.cpp

@@ -1053,6 +1053,8 @@ static void llama_model_load_internal(
 
 
         fprintf(stderr, "%s: [cublas] total VRAM used: %zu MB\n", __func__, vram_total / 1024 / 1024);
         fprintf(stderr, "%s: [cublas] total VRAM used: %zu MB\n", __func__, vram_total / 1024 / 1024);
     }
     }
+#else
+    (void) n_gpu_layers;
 #endif
 #endif
 
 
     // loading time will be recalculate after the first eval, so
     // loading time will be recalculate after the first eval, so