]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
llama : add PLM GGUF Conversion & Inference Support (#12457)
authorSi1w <redacted>
Thu, 27 Mar 2025 10:49:15 +0000 (10:49 +0000)
committerGitHub <redacted>
Thu, 27 Mar 2025 10:49:15 +0000 (12:49 +0200)
commitf125b8dccff34439a26bf750c9edef358c48c1f8
tree31ef0b0be03aa4acc875be73bddf54953c8e2f8d
parent953c2a62cf487e618140f3ea18d94e3b0257af93
llama : add PLM GGUF Conversion & Inference Support (#12457)

* add edgellm model arch[conversation feature doesn't work]

* remove output.weight layer for edgellm arch

* [Model] update the name of the model

* update the name of model arch in convert gguf

* [Model] Refarctor the model arch into llama-model

* [Bug] Fix the bug in create attn kv

* [Code] Fix editorconfig erros

* [Code] Remove Trailing whitespace

* [Code] Remove Trailing whitespace

* [Code] Change the order of model arch in list

* [Code] Fix flake8 Lint errors

* Remove trailing white space

* [Code] Remove  call in model arch
convert_hf_to_gguf.py
gguf-py/gguf/constants.py
src/llama-arch.cpp
src/llama-arch.h
src/llama-model.cpp
src/llama-model.h