]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
context : allow cache-less context for embeddings (#13108)
authorGeorgi Gerganov <redacted>
Thu, 8 May 2025 11:28:33 +0000 (14:28 +0300)
committerGitHub <redacted>
Thu, 8 May 2025 11:28:33 +0000 (14:28 +0300)
commit6562e5a4d6c58326dcd79002ea396d4141f1b18e
tree9591e273151fe33a258b908134ef72606da2ac81
parent51fb96b1ff2e1cc98b2492a012b7d93531a6a9a8
context : allow cache-less context for embeddings (#13108)

* context : allow cache-less context for embeddings

ggml-ci

* context : enable reranking with encode()

ggml-ci

* context : encode() clears embd_seq

ggml-ci

* examples : use llama_encode() when appropriate

ggml-ci

* models : nomic bert moe does not require KV cache

* llama : update comments for llama_decode/llama_encode

ggml-ci

* context : update warning log [no ci]
examples/embedding/embedding.cpp
include/llama.h
src/llama-context.cpp
src/llama-model.cpp
tools/server/server.cpp