]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
typo : it is `--n-gpu-layers` not `--gpu-layers` (#3592)
authorIan Scrivener <redacted>
Thu, 12 Oct 2023 11:10:50 +0000 (22:10 +1100)
committerGitHub <redacted>
Thu, 12 Oct 2023 11:10:50 +0000 (14:10 +0300)
fixed a typo in the MacOS Metal run doco

README.md

index 0f1fd7565692693dcb4f604e158250fa847b91e5..60f14a1fbf58548d00d5a7670071f164bca56e59 100644 (file)
--- a/README.md
+++ b/README.md
@@ -279,7 +279,7 @@ In order to build llama.cpp you have three different options.
 On MacOS, Metal is enabled by default. Using Metal makes the computation run on the GPU.
 To disable the Metal build at compile time use the `LLAMA_NO_METAL=1` flag or the `LLAMA_METAL=OFF` cmake option.
 
-When built with Metal support, you can explicitly disable GPU inference with the `--gpu-layers|-ngl 0` command-line
+When built with Metal support, you can explicitly disable GPU inference with the `--n-gpu-layers|-ngl 0` command-line
 argument.
 
 ### MPI Build