]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
llama : clarify comment about pp and tg graphs [no ci] (#14895)
authorDaniel Bevenius <redacted>
Sun, 27 Jul 2025 10:10:51 +0000 (12:10 +0200)
committerGitHub <redacted>
Sun, 27 Jul 2025 10:10:51 +0000 (12:10 +0200)
commitca0ef2dddb022cb1337d775cd05cd27d7808aff4
treed5f179b2581172798fa4317d0bcc4fd1f333b5a6
parent89d1029559bd2968f76db854f9f113d73e34527c
llama : clarify comment about pp and tg graphs [no ci] (#14895)

* llama : clarify comment about pp and tg graphs [no ci]

This commit clarifies the comment in `llama-context.cpp` regarding the
prefill prompt (pp), and token generation (tg) graphs.

The motivation for this is that I've struggled to remember these and had
to look them up more than once, so I thought it would be helpful to add
a comment that makes it clear what these stand for.

* squash! llama : clarify comment about pp and tg graphs [no ci]

Change "pp" to "prompt processing".
src/llama-context.cpp