]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
ggml : add Q8_0 quantization format (rename the old one to Q8_1) (ARM NEON) (#1179)
authorGeorgi Gerganov <redacted>
Tue, 25 Apr 2023 20:40:51 +0000 (23:40 +0300)
committerGitHub <redacted>
Tue, 25 Apr 2023 20:40:51 +0000 (23:40 +0300)
commit7a32fcb3b29f4db8aed8a85dc58eb958fb118153
treeb363c851cead2b5d6efced33cc461e37d8ed6bf8
parentdd0eabc049fb1efc631cab8eb0a646808d704e18
ggml : add Q8_0 quantization format (rename the old one to Q8_1) (ARM NEON) (#1179)

* ggml : add Q8_0 quantization format (rename the old one to Q8_1)

* tests : fix test-quantize-fns

* ggml : finalize Q8_0 implementation

* ggml : use q4_0_q8_0 and q4_2_q8_0

* ggml : fix Q8_0 dot product bug (ARM)

* ggml : Q8_0 unroll x2

* ggml : fix bug - using wrong block type

* ggml : extend quantize_fns_t with "vec_dot_type"

* ggml : fix Q8_0 to use 255 values out of 256

* ggml : fix assert using wrong QK4_2 instead of QK4_3
examples/quantize/quantize.cpp
ggml-cuda.cu
ggml-cuda.h
ggml.c
ggml.h
llama.cpp
llama.h
tests/test-quantize-fns.cpp