]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
docs : Quantum -> Quantized (#8666)
authorUjjawal Panchal <redacted>
Thu, 25 Jul 2024 08:13:27 +0000 (13:43 +0530)
committerGitHub <redacted>
Thu, 25 Jul 2024 08:13:27 +0000 (11:13 +0300)
* docfix: imatrix readme, quantum models -> quantized models.

* docfix: server readme: quantum models -> quantized models.

examples/imatrix/README.md
examples/server/README.md

index 29602881a0d210f07d8a050ee7298272d0530ed4..bb5faec94c20a6e6820c7c6921494fb5aaa94c4c 100644 (file)
@@ -1,6 +1,6 @@
 # llama.cpp/examples/imatrix
 
-Compute an importance matrix for a model and given text dataset. Can be used during quantization to enchance the quality of the quantum models.
+Compute an importance matrix for a model and given text dataset. Can be used during quantization to enchance the quality of the quantized models.
 More information is available here: https://github.com/ggerganov/llama.cpp/pull/4861
 
 ## Usage
index ff4074517f9f551cdfe9de827d5ae783892ddf88..33a2b95cc0edb5a23ed78d720d5fd04aece900f0 100644 (file)
@@ -5,7 +5,7 @@ Fast, lightweight, pure C/C++ HTTP server based on [httplib](https://github.com/
 Set of LLM REST APIs and a simple web front end to interact with llama.cpp.
 
 **Features:**
- * LLM inference of F16 and quantum models on GPU and CPU
+ * LLM inference of F16 and quantized models on GPU and CPU
  * [OpenAI API](https://github.com/openai/openai-openapi) compatible chat completions and embeddings routes
  * Parallel decoding with multi-user support
  * Continuous batching