]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme: add missing info (#1324)
authorPavol Rusnak <redacted>
Fri, 5 May 2023 14:43:36 +0000 (16:43 +0200)
committerGitHub <redacted>
Fri, 5 May 2023 14:43:36 +0000 (16:43 +0200)
README.md

index f1fa63542ae939b1bfe8d966bdc8659c617b3116..233c5c5e1e19c4e82ce5b05f79f268038cf3a01c 100644 (file)
--- a/README.md
+++ b/README.md
@@ -18,10 +18,12 @@ The main goal of `llama.cpp` is to run the LLaMA model using 4-bit integer quant
 
 - Plain C/C++ implementation without dependencies
 - Apple silicon first-class citizen - optimized via ARM NEON and Accelerate framework
-- AVX2 support for x86 architectures
+- AVX, AVX2 and AVX512 support for x86 architectures
 - Mixed F16 / F32 precision
-- 4-bit integer quantization support
+- 4-bit, 5-bit and 8-bit integer quantization support
 - Runs on the CPU
+- OpenBLAS support
+- cuBLAS and CLBlast support
 
 The original implementation of `llama.cpp` was [hacked in an evening](https://github.com/ggerganov/llama.cpp/issues/33#issuecomment-1465108022).
 Since then, the project has improved significantly thanks to many contributions. This project is for educational purposes and serves