]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : fix typo (#4253)
authorDawid Wysocki <redacted>
Thu, 30 Nov 2023 21:43:32 +0000 (22:43 +0100)
committerGitHub <redacted>
Thu, 30 Nov 2023 21:43:32 +0000 (23:43 +0200)
llama.cpp uses GitHub Actions, not Gitlab Actions.

README.md

index 44cc940930e8984b9a8ffbb77fba13b25cefaded..b89ba73aa359d1cedb16a4a493ccfebbd4b9e494 100644 (file)
--- a/README.md
+++ b/README.md
@@ -896,7 +896,7 @@ Additionally, there the following images, similar to the above:
 - `ghcr.io/ggerganov/llama.cpp:full-rocm`: Same as `full` but compiled with ROCm support. (platforms: `linux/amd64`, `linux/arm64`)
 - `ghcr.io/ggerganov/llama.cpp:light-rocm`: Same as `light` but compiled with ROCm support. (platforms: `linux/amd64`, `linux/arm64`)
 
-The GPU enabled images are not currently tested by CI beyond being built. They are not built with any variation from the ones in the Dockerfiles defined in [.devops/](.devops/) and the Gitlab Action defined in [.github/workflows/docker.yml](.github/workflows/docker.yml). If you need different settings (for example, a different CUDA or ROCm library, you'll need to build the images locally for now).
+The GPU enabled images are not currently tested by CI beyond being built. They are not built with any variation from the ones in the Dockerfiles defined in [.devops/](.devops/) and the GitHub Action defined in [.github/workflows/docker.yml](.github/workflows/docker.yml). If you need different settings (for example, a different CUDA or ROCm library, you'll need to build the images locally for now).
 
 #### Usage