]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : return mistral-v7-tekken as default template only (#14390)
authorSigbjørn Skjæret <redacted>
Thu, 26 Jun 2025 13:01:14 +0000 (15:01 +0200)
committerGitHub <redacted>
Thu, 26 Jun 2025 13:01:14 +0000 (15:01 +0200)
src/llama-model.cpp

index 9b19da984081eeeb621ced55f4d1a5e8a987086f..c2835ce67a88d6fc5a2577495a0a4f20714ddf1e 100644 (file)
@@ -14377,7 +14377,7 @@ const char * llama_model_chat_template(const llama_model * model, const char * n
         // do not extend this list unless absolutely necessary
         // Mistral-Small-2503 does not have built-in chat template
         llama_vocab_pre_type pre_type = model->vocab.get_pre_type();
-        if (pre_type == LLAMA_VOCAB_PRE_TYPE_TEKKEN && model->layers.size() == 40) {
+        if (!name && pre_type == LLAMA_VOCAB_PRE_TYPE_TEKKEN && model->layers.size() == 40) {
             return "mistral-v7-tekken";
         }