Просмотр исходного кода

server : fix local model name in server (#4420)

Vladimir Zorin 2 лет назад
Родитель
Сommit
d9d4cfef64
1 измененных файлов с 1 добавлено и 0 удалено
  1. 1 0
      examples/server/server.cpp

+ 1 - 0
examples/server/server.cpp

@@ -2382,6 +2382,7 @@ json oaicompat_completion_params_parse(
     llama_params["__oaicompat"] = true;
 
     // Map OpenAI parameters to llama.cpp parameters
+    llama_params["model"]             = json_value(body, "model", std::string("uknown"));
     llama_params["prompt"]            = format_chatml(body["messages"]); // OpenAI 'messages' to llama.cpp 'prompt'
     llama_params["cache_prompt"]      = json_value(body, "cache_prompt", false);
     llama_params["temperature"]       = json_value(body, "temperature", 0.8);