]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : fix (#4135)
authorvodkaslime <redacted>
Thu, 30 Nov 2023 21:49:21 +0000 (05:49 +0800)
committerGitHub <redacted>
Thu, 30 Nov 2023 21:49:21 +0000 (23:49 +0200)
* fix: readme

* chore: resolve comments

* chore: resolve comments

README.md

index b89ba73aa359d1cedb16a4a493ccfebbd4b9e494..dac971ae5dfe56171d487a99f371e51fd3d4cd1e 100644 (file)
--- a/README.md
+++ b/README.md
@@ -324,7 +324,7 @@ mpirun -hostfile hostfile -n 3 ./main -m ./models/7B/ggml-model-q4_0.gguf -n 128
 
 ### BLAS Build
 
-Building the program with BLAS support may lead to some performance improvements in prompt processing using batch sizes higher than 32 (the default is 512). BLAS doesn't affect the normal generation performance. There are currently three different implementations of it:
+Building the program with BLAS support may lead to some performance improvements in prompt processing using batch sizes higher than 32 (the default is 512). Support with CPU-only BLAS implementations doesn't affect the normal generation performance. We may see generation performance improvements with GPU-involved BLAS implementations, e.g. cuBLAS, hipBLAS and CLBlast. There are currently several different BLAS implementations available for build and use:
 
 - #### Accelerate Framework: