]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
rpc : report actual free memory (#16616)
authorRadoslav Gerganov <redacted>
Fri, 17 Oct 2025 15:02:52 +0000 (18:02 +0300)
committerGitHub <redacted>
Fri, 17 Oct 2025 15:02:52 +0000 (18:02 +0300)
commit41386cf365d894134ee0813d15e2f5d76f6a4d8e
tree6b1a887a7d6ca182f829e9beafbdf8d2d40e098b
parent3d4e86bbeb15f487d6da6174ba6191b7c212cc25
rpc : report actual free memory (#16616)

* rpc : report actual free memory

Start reporting the free memory on every device instead of using
fixed values. Now llama-cli users can get a nice memory breakdown
when using RPC devices.

* drop --mem in rpc-server
ggml/include/ggml-rpc.h
ggml/src/ggml-rpc/ggml-rpc.cpp
tools/rpc/rpc-server.cpp