]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
main: add the possibility to open the prompt cache read-only (#1640)
authorWilly Tarreau <redacted>
Wed, 7 Jun 2023 02:10:17 +0000 (04:10 +0200)
committerGitHub <redacted>
Wed, 7 Jun 2023 02:10:17 +0000 (22:10 -0400)
commit35a84916fb029905c44746127026079268216e7a
treee7baab7b8c74528460690694902eb7d79bae8c24
parent2d7bf110edd8c49209401a16132052cba706ffd0
main: add the possibility to open the prompt cache read-only (#1640)

The prompt cache constitutes a nice speed up when using the same prompt
prefix across multiple evaluations, but when using it, it will also be
updated, which is not always desirable. One use case is to have a large
prompt containing some context and usage rules, and a second part
containing variable data of the problem being studied. In this case it's
desirable to be able to save the first part once, and to always reuse it
as-is without updating it with the second part.

The new argument --prompt-cache-ro enables this read-only mode on the
prompt cache. The prompt's contents that match the cache are loaded
from the cache but the rest is not modified. This allowed to reduce a
total analysis time from 112s to 49.7s here, without having to backup
and restore a copy of the prompt, which takes significant time at 500
MB.

Signed-off-by: Willy Tarreau <redacted>
examples/common.cpp
examples/common.h
examples/main/main.cpp