]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : add RVV,ZVFH,ZFH,ZICBOP support for RISC-V (#17259)
authorixgbe <redacted>
Fri, 14 Nov 2025 07:12:56 +0000 (15:12 +0800)
committerGitHub <redacted>
Fri, 14 Nov 2025 07:12:56 +0000 (09:12 +0200)
Signed-off-by: Wang Yang <redacted>
.github/copilot-instructions.md
README.md

index 3250e3279ecb6f48ce987653cb3f48bc24abc1d1..ad13c6ea8d168b14da7dbad82fbbabb939db8527 100644 (file)
@@ -9,7 +9,7 @@ llama.cpp is a large-scale C/C++ project for efficient LLM (Large Language Model
 - **Size**: ~200k+ lines of code across 1000+ files
 - **Architecture**: Modular design with main library (`libllama`) and 40+ executable tools/examples
 - **Core dependency**: ggml tensor library (vendored in `ggml/` directory)
-- **Backends supported**: CPU (AVX/NEON optimized), CUDA, Metal, Vulkan, SYCL, ROCm, MUSA
+- **Backends supported**: CPU (AVX/NEON/RVV optimized), CUDA, Metal, Vulkan, SYCL, ROCm, MUSA
 - **License**: MIT
 
 ## Build Instructions
index 258963ac16d7c0f5a3753bde9694e467280acdb9..296278358532faf13658269c4fa114137a4da8cb 100644 (file)
--- a/README.md
+++ b/README.md
@@ -61,6 +61,7 @@ range of hardware - locally and in the cloud.
 - Plain C/C++ implementation without any dependencies
 - Apple silicon is a first-class citizen - optimized via ARM NEON, Accelerate and Metal frameworks
 - AVX, AVX2, AVX512 and AMX support for x86 architectures
+- RVV, ZVFH, ZFH and ZICBOP support for RISC-V architectures
 - 1.5-bit, 2-bit, 3-bit, 4-bit, 5-bit, 6-bit, and 8-bit integer quantization for faster inference and reduced memory use
 - Custom CUDA kernels for running LLMs on NVIDIA GPUs (support for AMD GPUs via HIP and Moore Threads GPUs via MUSA)
 - Vulkan and SYCL backend support