]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
examples : add --kv-unified to batched example (#18774)
authorDaniel Bevenius <redacted>
Mon, 12 Jan 2026 12:47:58 +0000 (13:47 +0100)
committerGitHub <redacted>
Mon, 12 Jan 2026 12:47:58 +0000 (13:47 +0100)
commit4150da9a956d0587a3e8a08e69940f9a27f88e5c
tree6581fafca064734534fb41edc1f4ebf82b81774d
parent8e2da778dab89990590c68c69db06208a9c11e31
examples : add --kv-unified to batched example (#18774)

This commit adds the --kv-unified flag to the batched example. This flag
is currently specified in the README.md as required, but is currently
not available as a command line option for the batched example.

The motivation for this is that specifying this flag as the README
instructs, will lead to an error about the flag not being recognized,
and without this option the example fail with the following error:
```console
split_equal: sequential split is not supported when there are coupled
sequences in the input batch (you may need to use the -kvu flag)
decode: failed to find a memory slot for batch of size 4
main: llama_decode() failed
```
common/arg.cpp
common/common.h
examples/batched/batched.cpp