]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
Only show -ngl option when relevant + other doc/arg handling updates (#1625)
authorKerfuffle <redacted>
Sun, 28 May 2023 17:48:57 +0000 (11:48 -0600)
committerGitHub <redacted>
Sun, 28 May 2023 17:48:57 +0000 (11:48 -0600)
commit1b78ed20818b72306edc7208b9bfb69a1a0d3297
tree8c72e202378906da0cf7559755356e16f22d27c0
parent337aea11390221bc925e4acb1f603f1649af2735
Only show -ngl option when relevant + other doc/arg handling updates (#1625)

1. Add a `LLAMA_SUPPORTS_GPU_OFFLOAD` define to `llama.h` (defined when compiled with CLBlast or cuBLAS)
2. Update the argument handling in the common example code to only show the `-ngl`, `--n-gpu-layers` option when GPU offload is possible.
3. Add an entry for the `-ngl`, `--n-gpu-layers` option to the `main` and `server` examples documentation
4. Update `main` and `server` examples documentation to use the new style dash separator argument format
5. Update the `server` example to use dash separators for its arguments and adds `-ngl` to `--help` (only shown when compiled with appropriate support). It will still support `--memory_f32` and `--ctx_size` for compatibility.
6. Add a warning discouraging use of `--memory-f32` for the `main` and `server` examples `--help` text as well as documentation. Rationale: https://github.com/ggerganov/llama.cpp/discussions/1593#discussioncomment-6004356
examples/common.cpp
examples/main/README.md
examples/server/README.md
examples/server/server.cpp
llama.h