]> git.djapps.eu Git - pkg/ggml/sources/whisper.cpp/commit
whisper : add batched decoding (#1486)
authorGeorgi Gerganov <redacted>
Wed, 15 Nov 2023 14:12:52 +0000 (16:12 +0200)
committerGitHub <redacted>
Wed, 15 Nov 2023 14:12:52 +0000 (16:12 +0200)
commitb6c5f49b78b214b7b4aa7392a8ba489c78b7382a
tree5c5c454252dc3ff168632d6c656d9ff6705ba38b
parentd4231649e62d274fee9c6938cd8badae31627e4e
whisper : add batched decoding (#1486)

* whisper : add whisper_batch

* whisper : move kv_self to whisper_state

* whisper : full batched decoding support

* whisper : fix memory leak in whisper_batch

* whisper : fix mem leak again + remove oboslete function

* whisper : clear kv cache when using whisper_decode API

* whisper : speed-up sampling

* whisper : fix decoders initializer

* bench : add batch size 5 bench

* whisper : add comment about the KV cache size

* whisper : add check for max number of decoders

* whisper : avoid starting sampling threads with bs=1

* whisper : enable beam-search by default

* cuda : sync llama.cpp fixes
examples/bench/bench.cpp
examples/main/main.cpp
extra/bench-all.sh
ggml-cuda.cu
ggml-cuda.h
whisper.cpp
whisper.h