//
// https://platform.openai.com/docs/api-reference/chat/create
llama_sampling_params default_sparams;
- llama_params["model"] = json_value(body, "model", std::string("uknown"));
+ llama_params["model"] = json_value(body, "model", std::string("unknown"));
llama_params["prompt"] = format_chatml(body["messages"]); // OpenAI 'messages' to llama.cpp 'prompt'
llama_params["cache_prompt"] = json_value(body, "cache_prompt", false);
llama_params["temperature"] = json_value(body, "temperature", 0.0);