]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
server: remove the verbose_prompt parameter (#21059)
authorAN Long <redacted>
Fri, 27 Mar 2026 11:36:13 +0000 (19:36 +0800)
committerGitHub <redacted>
Fri, 27 Mar 2026 11:36:13 +0000 (13:36 +0200)
* server: respect the verbose_prompt parameter

* Revert "server: respect the verbose_prompt parameter"

This reverts commit 8ed885cf375b2c8ba641c661f3667df70b9797f4.

* Remove --verbose-prompt parameter from llama-server

* Using set_examples instead of set_excludes

common/arg.cpp
tools/server/README.md

index 32d8e69f96e7af79f97c94ecefd9e71160a870c9..5bab9abc77e115279c18014c2118c983cf1b57ef 100644 (file)
@@ -1079,7 +1079,7 @@ common_params_context common_params_parser_init(common_params & params, llama_ex
         [](common_params & params) {
             params.verbose_prompt = true;
         }
-    ));
+    ).set_examples({LLAMA_EXAMPLE_COMPLETION, LLAMA_EXAMPLE_CLI, LLAMA_EXAMPLE_EMBEDDING, LLAMA_EXAMPLE_RETRIEVAL}));
     add_opt(common_arg(
         {"--display-prompt"},
         {"--no-display-prompt"},
index cb53678416f7462269fe8b42f35a321799aa94ce..f99103a58430bd75a78ae3427dd3c965b40c4407 100644 (file)
@@ -36,7 +36,6 @@ For the full list of features, please refer to [server's changelog](https://gith
 | `--license` | show source code license and dependencies |
 | `-cl, --cache-list` | show list of models in cache |
 | `--completion-bash` | print source-able bash completion script for llama.cpp |
-| `--verbose-prompt` | print a verbose prompt before generation (default: false) |
 | `-t, --threads N` | number of CPU threads to use during generation (default: -1)<br/>(env: LLAMA_ARG_THREADS) |
 | `-tb, --threads-batch N` | number of threads to use during batch and prompt processing (default: same as --threads) |
 | `-C, --cpu-mask M` | CPU affinity mask: arbitrarily long hex. Complements cpu-range (default: "") |