]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : update outdated comment in llama.h (#19428)
authorChristian Schmitz <redacted>
Thu, 12 Feb 2026 14:52:57 +0000 (15:52 +0100)
committerGitHub <redacted>
Thu, 12 Feb 2026 14:52:57 +0000 (15:52 +0100)
* Updated documentation

Model is no longer a parameter

* llama : fix trailing whitespace in comment

---------

Co-authored-by: Daniel Bevenius <redacted>
include/llama.h

index 46c3672e983379960cfdca0d1fd480f7a0c803dc..305623127cb6d4ce20430a9f5a96a1a664df9ffe 100644 (file)
@@ -1150,9 +1150,9 @@ extern "C" {
     //
 
     /// Apply chat template. Inspired by hf apply_chat_template() on python.
-    /// Both "model" and "custom_template" are optional, but at least one is required. "custom_template" has higher precedence than "model"
+    ///
     /// NOTE: This function does not use a jinja parser. It only support a pre-defined list of template. See more: https://github.com/ggml-org/llama.cpp/wiki/Templates-supported-by-llama_chat_apply_template
-    /// @param tmpl A Jinja template to use for this chat. If this is nullptr, the model’s default chat template will be used instead.
+    /// @param tmpl A Jinja template to use for this chat.
     /// @param chat Pointer to a list of multiple llama_chat_message
     /// @param n_msg Number of llama_chat_message in this chat
     /// @param add_ass Whether to end the prompt with the token(s) that indicate the start of an assistant message.