]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
ggml : add ggml_cpu_has_avx_vnni() (#4589)
authorautomaticcat <redacted>
Sat, 30 Dec 2023 08:07:48 +0000 (15:07 +0700)
committerGitHub <redacted>
Sat, 30 Dec 2023 08:07:48 +0000 (10:07 +0200)
commit24a447e20af425fa44cf10feaa632b6bb596c80f
tree66612870e12dd4be3b05f47371c3a0c5e8346da7
parenta20f3c7465d6d1b33767757c2760643b799a81bf
ggml : add ggml_cpu_has_avx_vnni() (#4589)

* feat: add avx_vnni based on intel documents

* ggml: add avx vnni based on intel document

* llama: add avx vnni information display

* docs: add more details about using oneMKL and oneAPI for intel processors

* docs: add more details about using oneMKL and oneAPI for intel processors

* docs: add more details about using oneMKL and oneAPI for intel processors

* docs: add more details about using oneMKL and oneAPI for intel processors

* docs: add more details about using oneMKL and oneAPI for intel processors

* Update ggml.c

Fix indentation upgate

Co-authored-by: Georgi Gerganov <redacted>
---------

Co-authored-by: Georgi Gerganov <redacted>
README.md
common/common.cpp
ggml.c
ggml.h
llama.cpp