]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
Update Server Instructions (#2113)
authorJesse Jojo Johnson <redacted>
Wed, 5 Jul 2023 18:03:19 +0000 (18:03 +0000)
committerGitHub <redacted>
Wed, 5 Jul 2023 18:03:19 +0000 (21:03 +0300)
* Update server instructions for web front end
* Update server README
* Remove duplicate OAI instructions
* Fix duplicate text

---------

Co-authored-by: Jesse Johnson <redacted>
examples/server/README.md

index 160614ba81895808249bb126877ec9d7f9fec3a9..037412d7634c85ba2f6618e3d011ee5ff5f4ab87 100644 (file)
@@ -21,7 +21,7 @@ Command line options:
 -   `-to N`, `--timeout N`: Server read/write timeout in seconds. Default `600`.
 -   `--host`: Set the hostname or ip address to listen. Default `127.0.0.1`.
 -   `--port`: Set the port to listen. Default: `8080`.
--   `--public`: path from which to serve static files (default examples/server/public)
+-   `--path`: path from which to serve static files (default examples/server/public)
 -   `--embedding`: Enable embedding extraction, Default: disabled.
 
 ## Build
@@ -207,3 +207,27 @@ openai.api_base = "http://<Your api-server IP>:port"
 ```
 
 Then you can utilize llama.cpp as an OpenAI's **chat.completion** or **text_completion** API
+
+### Extending the Web Front End
+
+The default location for the static files is `examples/server/public`. You can extend the front end by running the server binary with `--path` set to `./your-directory` and importing `/completion.js` to get access to the llamaComplete() method. A simple example is below:
+
+```
+<html>
+  <body>
+    <pre>
+      <script type="module">
+        import { llamaComplete } from '/completion.js'
+
+        llamaComplete({
+            prompt: "### Instruction:\nWrite dad jokes, each one paragraph. You can use html formatting if needed.\n\n### Response:",
+            n_predict: 1024,
+          },
+          null,
+          (chunk) => document.write(chunk.data.content)
+        )
+      </script>
+    </pre>
+  </body>
+</html>
+```