]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
llama : remove n_threads from llama_decode_internal (#3614)
authorDaniel Bevenius <redacted>
Fri, 13 Oct 2023 10:33:16 +0000 (12:33 +0200)
committerGitHub <redacted>
Fri, 13 Oct 2023 10:33:16 +0000 (13:33 +0300)
commit2a4bcbacead886996f175f33479d1d874a3e577f
tree2f4360333d472e1fd90b1fa5d82d9ca73d6f1436
parent424b6381c4daeed62e6600e0402e72f39845b58d
llama : remove n_threads from llama_decode_internal (#3614)

This commit removes `n_threads` from the `llama_decode_internal`
functions doc comment as it does not exist anymore.

It looks like this parameter was removed in
Commit 16bc66d9479edd5ee12ec734973554d4493c5dfa ("llama.cpp : split
llama_context_params into model and context params").

Signed-off-by: Daniel Bevenius <redacted>
llama.cpp