]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : clarify deprecation message (#13794)
authorGeorgi Gerganov <redacted>
Mon, 26 May 2025 09:57:50 +0000 (12:57 +0300)
committerGitHub <redacted>
Mon, 26 May 2025 09:57:50 +0000 (12:57 +0300)
include/llama.h

index eafab7323d9bf9be18c2a1cdc885698272348840..01762bea2bf962c33d30c4b72da6c05ce4bbf26f 100644 (file)
@@ -612,11 +612,11 @@ extern "C" {
     // Returns the number of tokens in the KV cache (slow, use only for debug)
     // If a KV cell has multiple sequences assigned to it, it will be counted multiple times
     DEPRECATED(LLAMA_API int32_t llama_kv_self_n_tokens(const struct llama_context * ctx),
-               "Use llama_kv_self_seq_pos_max() instead");
+               "Use llama_kv_self_seq_pos_max() and llama_kv_self_seq_pos_min() instead (https://github.com/ggml-org/llama.cpp/issues/13793)");
 
     // Returns the number of used KV cells (i.e. have at least one sequence assigned to them)
     DEPRECATED(LLAMA_API int32_t llama_kv_self_used_cells(const struct llama_context * ctx),
-               "Use llama_kv_self_seq_pos_max() instead");
+               "Use llama_kv_self_seq_pos_max() and llama_kv_self_seq_pos_min() instead (https://github.com/ggml-org/llama.cpp/issues/13793)");
 
     // Clear the KV cache - both cell info is erased and KV data is zeroed
     LLAMA_API void llama_kv_self_clear(