]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
Improve Debian packaging documentation
authorMathieu Baudier <redacted>
Sun, 23 Feb 2025 11:16:31 +0000 (12:16 +0100)
committerMathieu Baudier <redacted>
Sun, 23 Feb 2025 11:16:31 +0000 (12:16 +0100)
debian/control
debian/not-installed

index ed76d2eb6d9078fd6efbdfc8a767cac86dab9901..4602b51f66cfd587a00a81ba55886eba5786a12a 100644 (file)
@@ -24,16 +24,17 @@ Description: Inference of large language models in pure C/C++ (shared library)
  llama.cpp leverages the ggml tensor library in order to run
  large language models (LLMs) provided in the GGUF file format.
 
+# We only distribute a few very useful tools, with stable CLI options
 Package: llama-cpp-tools
 Architecture: any
 Depends: ${misc:Depends}, ${shlibs:Depends},
  libllama0, ggml, curl
 Description: Inference of large language models in pure C/C++ (tools)
- llama-cli: utility tool wrapping most features provided by libllama.
+ llama-cli: versatile tool wrapping most features provided by libllama.
  It typically allows one to run one-shot prompts or to "chat"
  with a large language model.
  .
- llama-quantize: utility tool to "quantize" a large language model
+ llama-quantize: utility to "quantize" a large language model
  GGUF file. Quantizing is the process of reducing the precision of
  the underlying neural-network at  aminimal cost to its accuracy.
  .
index e03f0328f8ab6fa3b84627b2577a09af8e0ec001..c02e7addfc49a6eb00f9de4e3649fd2195f9f102 100644 (file)
@@ -1,6 +1,10 @@
+# Most executables produced are not stable enough to be distributed
 /usr/bin/llama-*
 /usr/libexec/*/ggml/llama-*
 
+# Python is not supported
+/usr/bin/*.py
+
+# Test executables are not distributed
 /usr/bin/test-*
 
-/usr/bin/*.py