]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
doc: fix outdated default value of batch size (#6336)
authorTing Sun <redacted>
Thu, 28 Mar 2024 08:51:06 +0000 (16:51 +0800)
committerGitHub <redacted>
Thu, 28 Mar 2024 08:51:06 +0000 (09:51 +0100)
* doc: fix outdated default value of batch size

* doc: add doc for ubatch-size

examples/main/README.md

index 9c83fd3bf5b05d68acf89f446695409388d6efee..bb696b562019861470c156c6242efd9dd4bcfd97 100644 (file)
@@ -296,7 +296,9 @@ These options help improve the performance and memory usage of the LLaMA models.
 
 ### Batch Size
 
--   `-b N, --batch-size N`: Set the batch size for prompt processing (default: 512). This large batch size benefits users who have BLAS installed and enabled it during the build. If you don't have BLAS enabled ("BLAS=0"), you can use a smaller number, such as 8, to see the prompt progress as it's evaluated in some situations.
+-   `-b N, --batch-size N`: Set the batch size for prompt processing (default: `2048`). This large batch size benefits users who have BLAS installed and enabled it during the build. If you don't have BLAS enabled ("BLAS=0"), you can use a smaller number, such as 8, to see the prompt progress as it's evaluated in some situations.
+
+- `-ub N`, `--ubatch-size N`: physical maximum batch size. This is for pipeline parallelization. Default: `512`.
 
 ### Prompt Caching