]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : remove n_threads from llama_decode_internal (#3614)
authorDaniel Bevenius <redacted>
Fri, 13 Oct 2023 10:33:16 +0000 (12:33 +0200)
committerGitHub <redacted>
Fri, 13 Oct 2023 10:33:16 +0000 (13:33 +0300)
This commit removes `n_threads` from the `llama_decode_internal`
functions doc comment as it does not exist anymore.

It looks like this parameter was removed in
Commit 16bc66d9479edd5ee12ec734973554d4493c5dfa ("llama.cpp : split
llama_context_params into model and context params").

Signed-off-by: Daniel Bevenius <redacted>
llama.cpp

index 7ed8722376d2df6397a4f339915b1fd115669599..2cd2dad7f3bb0f1a883af6d7af18a86814749255 100644 (file)
--- a/llama.cpp
+++ b/llama.cpp
@@ -5721,7 +5721,6 @@ static struct ggml_cgraph * llama_build_graph(
 //
 //   - lctx:      llama context
 //   - batch:     batch to evaluate
-//   - n_threads: number of threads to use
 //
 // return 0 on success
 // return positive int on warning