]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
examples : add -kvu to batched usage example [no ci] (#17469)
authorDaniel Bevenius <redacted>
Mon, 24 Nov 2025 13:38:45 +0000 (14:38 +0100)
committerGitHub <redacted>
Mon, 24 Nov 2025 13:38:45 +0000 (15:38 +0200)
commit6ab8eacddf50cda653b1e27521bd88945c41df1b
treeac52587460460e13c5992e9d5a13fec3968c5321
parent2d50b9d8cb6b6c0ef935809af61ad4958be47648
examples : add -kvu to batched usage example [no ci] (#17469)

This commit adds the --kv-unified flag to the usage example
in the README.md file for the batched example.

The motivation for this is that without this flag the example will fail
with the following error:
```console
Hello my name is
split_equal: sequential split is not supported when there are coupled
sequences in the input batch (you may need to use the -kvu flag)
decode: failed to find a memory slot for batch of size 4
main: llama_decode() failed
```
examples/batched/README.md