]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
examples : add -kvu to batched usage example [no ci] (#17469)
authorDaniel Bevenius <redacted>
Mon, 24 Nov 2025 13:38:45 +0000 (14:38 +0100)
committerGitHub <redacted>
Mon, 24 Nov 2025 13:38:45 +0000 (15:38 +0200)
This commit adds the --kv-unified flag to the usage example
in the README.md file for the batched example.

The motivation for this is that without this flag the example will fail
with the following error:
```console
Hello my name is
split_equal: sequential split is not supported when there are coupled
sequences in the input batch (you may need to use the -kvu flag)
decode: failed to find a memory slot for batch of size 4
main: llama_decode() failed
```

examples/batched/README.md

index 6013aab01fddc2866283e577e90b8f06dbacc770..8cde35dd644dcb68080cbb54dcd28580399afe88 100644 (file)
@@ -3,7 +3,7 @@
 The example demonstrates batched generation from a given prompt
 
 ```bash
-./llama-batched -m ./models/llama-7b-v2/ggml-model-f16.gguf -p "Hello my name is" -np 4
+./llama-batched -m ./models/llama-7b-v2/ggml-model-f16.gguf -p "Hello my name is" -np 4 --kv-unified
 
 ...