]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
arg : add env variable for parallel (#9513)
authorBert Wagner <redacted>
Tue, 17 Sep 2024 13:35:38 +0000 (09:35 -0400)
committerGitHub <redacted>
Tue, 17 Sep 2024 13:35:38 +0000 (16:35 +0300)
* add env variable for parallel

* Update README.md with env:  LLAMA_ARG_N_PARALLEL

common/arg.cpp
examples/server/README.md

index 60e37a89a68e8599e124181fe9dff948c9ce47b4..922391069d32aa56646d3754e7d309809d498627 100644 (file)
@@ -1312,7 +1312,7 @@ gpt_params_context gpt_params_parser_init(gpt_params & params, llama_example ex,
         [](gpt_params & params, int value) {
             params.n_parallel = value;
         }
-    ));
+    ).set_env("LLAMA_ARG_N_PARALLEL"));
     add_opt(llama_arg(
         {"-ns", "--sequences"}, "N",
         format("number of sequences to decode (default: %d)", params.n_sequences),
index 168e14a9908d8230e82ba9e1f57be87b2b8f5f9e..7a5d26ca08ba3ceb8a91abc5da8ab92c85abfbed 100644 (file)
@@ -87,7 +87,7 @@ The project is under active development, and we are [looking for feedback and co
 | `-ctk, --cache-type-k TYPE` | KV cache data type for K (default: f16) |
 | `-ctv, --cache-type-v TYPE` | KV cache data type for V (default: f16) |
 | `-dt, --defrag-thold N` | KV cache defragmentation threshold (default: -1.0, < 0 - disabled)<br/>(env: LLAMA_ARG_DEFRAG_THOLD) |
-| `-np, --parallel N` | number of parallel sequences to decode (default: 1) |
+| `-np, --parallel N` | number of parallel sequences to decode (default: 1)<br/>(env:  LLAMA_ARG_N_PARALLEL) |
 | `-cb, --cont-batching` | enable continuous batching (a.k.a dynamic batching) (default: enabled)<br/>(env: LLAMA_ARG_CONT_BATCHING) |
 | `-nocb, --no-cont-batching` | disable continuous batching<br/>(env: LLAMA_ARG_NO_CONT_BATCHING) |
 | `--mlock` | force system to keep model in RAM rather than swapping or compressing |