]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : update llama_decode_internal ref [no ci] (#11840)
authorDaniel Bevenius <redacted>
Thu, 13 Feb 2025 06:07:51 +0000 (07:07 +0100)
committerGitHub <redacted>
Thu, 13 Feb 2025 06:07:51 +0000 (08:07 +0200)
This commit updates the comment in llama_kv_cache.h to reflect the
change of the function name from llama_decode_internal to
llama_decode_impl.

src/llama-kv-cache.h

index dca6f3998c645ad16fb56ba372bd5c9cbb2f5231..1ed688e3b5b7e913c85f83e834c925283f9c7171 100644 (file)
@@ -37,7 +37,7 @@ struct llama_kv_cache {
     bool can_shift = false;
 
     // Note: The value of head isn't only used to optimize searching
-    // for a free KV slot. llama_decode_internal also uses it, so it
+    // for a free KV slot. llama_decode_impl also uses it, so it
     // cannot be freely changed after a slot has been allocated.
     uint32_t head = 0;
     uint32_t size = 0;