]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
Fix typo in llama_set_embeddings comment (#8077)
authorDaniel Bevenius <redacted>
Sun, 23 Jun 2024 13:39:45 +0000 (15:39 +0200)
committerGitHub <redacted>
Sun, 23 Jun 2024 13:39:45 +0000 (15:39 +0200)
llama.h

diff --git a/llama.h b/llama.h
index 05d8b092b42a4ec375e1fe28c44e642a89ad3b7f..53e06d9db52733d1c779a77b7b2d9e348e58d610 100644 (file)
--- a/llama.h
+++ b/llama.h
@@ -786,7 +786,7 @@ extern "C" {
     // Get the number of threads used for prompt and batch processing (multiple token).
     LLAMA_API uint32_t llama_n_threads_batch(struct llama_context * ctx);
 
-    // Set whether the model is in embeddings model or not
+    // Set whether the model is in embeddings mode or not
     // If true, embeddings will be returned but logits will not
     LLAMA_API void llama_set_embeddings(struct llama_context * ctx, bool embeddings);