]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : add LLMUnity to UI projects (#9381)
authorAntonis Makropoulos <redacted>
Mon, 9 Sep 2024 11:21:38 +0000 (14:21 +0300)
committerGitHub <redacted>
Mon, 9 Sep 2024 11:21:38 +0000 (14:21 +0300)
* add LLMUnity to UI projects

* add newline to examples/rpc/README.md to fix editorconfig-checker unit test

README.md
examples/rpc/README.md

index e30ab0c8c40d0900538b318569a1ba38d5292ad6..8cbfdda6b94e34afb791d33924c25a1b02ae5002 100644 (file)
--- a/README.md
+++ b/README.md
@@ -163,6 +163,7 @@ Unless otherwise noted these projects are open-source with permissive licensing:
 - [AI Sublime Text plugin](https://github.com/yaroslavyaroslav/OpenAI-sublime-text) (MIT)
 - [AIKit](https://github.com/sozercan/aikit) (MIT)
 - [LARS - The LLM & Advanced Referencing Solution](https://github.com/abgulati/LARS) (AGPL)
+- [LLMUnity](https://github.com/undreamai/LLMUnity) (MIT)
 
 *(to have a project listed here, it should clearly state that it depends on `llama.cpp`)*
 
index 36ff4a330974aa440ace9fc888c07293bd32a92b..312bb634dc9200e28b434cf466010e4cab37c7c3 100644 (file)
@@ -70,4 +70,5 @@ Finally, when running `llama-cli`, use the `--rpc` option to specify the host an
 $ bin/llama-cli -m ../models/tinyllama-1b/ggml-model-f16.gguf -p "Hello, my name is" --repeat-penalty 1.0 -n 64 --rpc 192.168.88.10:50052,192.168.88.11:50052 -ngl 99
 ```
 
-This way you can offload model layers to both local and remote devices.
\ No newline at end of file
+This way you can offload model layers to both local and remote devices.
+