]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : server compile flag (#1874)
authorSrinivas Billa <redacted>
Thu, 15 Jun 2023 17:36:38 +0000 (18:36 +0100)
committerGitHub <redacted>
Thu, 15 Jun 2023 17:36:38 +0000 (20:36 +0300)
Explicitly include the server make instructions for C++ noobsl like me ;)

examples/server/README.md

index 7dabac9cf675b7a9ec777c46d22dd68e02e634bc..3b111655a84de5065f879fe09c8712aae47867bd 100644 (file)
@@ -16,6 +16,10 @@ This example allow you to have a llama.cpp http server to interact from a web pa
 To get started right away, run the following command, making sure to use the correct path for the model you have:
 
 #### Unix-based systems (Linux, macOS, etc.):
+Make sure to build with the server option on
+```bash
+LLAMA_BUILD_SERVER=1 make
+```
 
 ```bash
 ./server -m models/7B/ggml-model.bin --ctx_size 2048