Просмотр исходного кода

Honor -ngl option for Cuda offloading in llava (#3621)

M. Yusuf Sarıgöz 2 лет назад
Родитель
Сommit
11dc1091f6
1 измененных файлов с 7 добавлено и 1 удалено
  1. 7 1
      examples/llava/llava.cpp

+ 7 - 1
examples/llava/llava.cpp

@@ -79,7 +79,13 @@ int main(int argc, char ** argv) {
 
     llama_backend_init(params.numa);
 
-    llama_model_params model_params = llama_model_default_params();
+    llama_model_params model_params              = llama_model_default_params();
+                       model_params.n_gpu_layers = params.n_gpu_layers;
+                       model_params.main_gpu     = params.main_gpu;
+                       model_params.tensor_split = params.tensor_split;
+                       model_params.use_mmap     = params.use_mmap;
+                       model_params.use_mlock    = params.use_mlock;
+
     llama_model * model = llama_load_model_from_file(params.model.c_str(), model_params);
     if (model == NULL) {
         fprintf(stderr , "%s: error: unable to load model\n" , __func__);