]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : fix typo [no ci]
authorGeorgi Gerganov <redacted>
Sun, 6 Oct 2024 10:49:41 +0000 (13:49 +0300)
committerGitHub <redacted>
Sun, 6 Oct 2024 10:49:41 +0000 (13:49 +0300)
examples/main/README.md

index 6730effdf2d661d070254cbdc8e07d83bb7693c4..f0c3031ab130e395fbb2e8f0334b77b7e25cbb14 100644 (file)
@@ -69,7 +69,7 @@ In this section, we cover the most commonly used options for running the `llama-
 -   `-c N, --ctx-size N`: Set the size of the prompt context. The default is 512, but LLaMA models were built with a context of 2048, which will provide better results for longer input/inference.
 -   `-mli, --multiline-input`: Allows you to write or paste multiple lines without ending each in '\'
 -   `-t N, --threads N`: Set the number of threads to use during generation. For optimal performance, it is recommended to set this value to the number of physical CPU cores your system has.
--   -   `-ngl N, --n-gpu-layers N`: When compiled with GPU support, this option allows offloading some layers to the GPU for computation. Generally results in increased performance.
+-   `-ngl N, --n-gpu-layers N`: When compiled with GPU support, this option allows offloading some layers to the GPU for computation. Generally results in increased performance.
 
 ## Input Prompts