]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
Improve Debian build based on lintian feedback
authorMathieu Baudier <redacted>
Tue, 21 Jan 2025 11:10:08 +0000 (12:10 +0100)
committerMathieu Baudier <redacted>
Tue, 21 Jan 2025 11:10:08 +0000 (12:10 +0100)
debian/control
debian/copyright
debian/rules

index aa8e5189734710f0cc03f3f56d725d401b49f3a3..7fbd6928247bded26f3be4139ef538e5e6135f25 100644 (file)
@@ -2,7 +2,7 @@ Source: llama-cpp
 Section: science
 Priority: optional
 Maintainer: Mathieu Baudier <mbaudier@argeo.org>
-Build-Depends: debhelper-compat (= 13), pkg-config, cmake-data, cmake, cpio, curl, libcurl4-openssl-dev, file, git,
+Build-Depends: debhelper-compat (= 13), pkg-config, cmake-data, cmake, cpio, curl, openssl, libcurl4-openssl-dev, file, git,
        ggml-dev
 Standards-Version: 4.5.1
 Homepage: https://github.com/ggerganov/llama.cpp
@@ -11,24 +11,25 @@ Rules-Requires-Root: binary-targets
 Package: libllama
 Priority: optional
 Architecture: any
-Depends: ${shlibs:Depends},
+Multi-Arch: same
+Pre-Depends: ${misc:Pre-Depends}
+Depends: ${misc:Depends}, ${shlibs:Depends},
  libggml
-Recommends: curl
 Description: Inference of LLMs in pure C/C++ (shared library)
  Llama.cpp inference of LLMs in pure C/C++ (shared library).
 
 Package: llama-cpp-cli
 Architecture: any
 Priority: optional
-Depends: ${shlibs:Depends},
- libllama
+Depends: ${misc:Depends}, ${shlibs:Depends},
+ libllama, curl
 Description: Inference of LLMs in pure C/C++ (CLI)
  Llama.cpp inference of LLMs in pure C/C++ (CLI).
 
 Package: llama-cpp-server
 Architecture: any
 Priority: optional
-Depends: ${shlibs:Depends},
+Depends: ${misc:Depends}, ${shlibs:Depends},
  libllama, curl, openssl
 Description: Inference of LLMs in pure C/C++ (CLI)
  Llama.cpp inference of LLMs in pure C/C++ (CLI).
@@ -36,14 +37,15 @@ Description: Inference of LLMs in pure C/C++ (CLI)
 Package: libllama-dev
 Architecture: any
 Priority: optional
-Depends: ggml-dev, libllama
+Depends: ${misc:Depends},
+ ggml-dev, libllama
 Description: Inference of LLMs in pure C/C++ (development files)
  Llama.cpp inference of LLMs in pure C/C++ (development files).
 
 Package: llama-cpp-dev
 Architecture: any
 Priority: optional
-Depends: libllama-dev
-Description: Inference of LLMs in pure C/C++ (common development files)
- Llama.cpp inference of LLMs in pure C/C++ (common development files).
\ No newline at end of file
+Depends: ${misc:Depends},
+ libllama-dev
+Description: Inference of LLMs in pure C/C++ (common static library)
+ Llama.cpp inference of LLMs in pure C/C++ (common static library).
index 7c923453a1ef1dc2da79bb07358268628c1834bc..d690de2991b3f162bfd7719fd04c9f4146b7f676 100644 (file)
@@ -4,7 +4,7 @@ Upstream-Contact: https://github.com/ggerganov/llama.cpp/issues
 Source: https://github.com/ggerganov/llama.cpp
 
 Files: *
-Copyright: Copyright (c) 2023-2024 The llama.cpp authors
+Copyright: Copyright (c) 2023-2025 The llama.cpp authors
 License: MIT 
  Permission is hereby granted, free of charge, to any person obtaining a copy
  of this software and associated documentation files (the "Software"), to deal
@@ -12,10 +12,10 @@ License: MIT
  to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
  copies of the Software, and to permit persons to whom the Software is
  furnished to do so, subject to the following conditions:
+ .
  The above copyright notice and this permission notice shall be included in all
  copies or substantial portions of the Software.
+ .
  THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
@@ -25,7 +25,7 @@ License: MIT
  SOFTWARE.
 
 Files: debian/*
-Copyright: 2024 Mathieu Baudier <mbaudier@argeo.org>
+Copyright: 2024-2025 Mathieu Baudier <mbaudier@argeo.org>
 License: GPL-2+
  This package is free software; you can redistribute it and/or modify
  it under the terms of the GNU General Public License as published by
index 1277119c5fc2a3a3fd93929c5bbb6a579ceff53d..6509421bd33cf05dbc7a06626d0cb8129faa4f2d 100755 (executable)
@@ -25,9 +25,9 @@ override_dh_auto_configure:
        -DLLAMA_ALL_WARNINGS=OFF \
        -DLLAMA_BUILD_TESTS=OFF \
        -DLLAMA_BUILD_SERVER=ON \
+       -DLLAMA_USE_CURL=ON \
        -DLLAMA_SERVER_SSL=ON \
 
-
 # FIXME we disable LLAMA_ALL_WARNINGS so that ggml_get_flags() CMake function do not get called
 # as it is available deep in GGML and not properly published