]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
IQ4_XS: a 4.25 bpw quantization (#5747)
authorKawrakow <redacted>
Tue, 27 Feb 2024 14:34:24 +0000 (16:34 +0200)
committerGitHub <redacted>
Tue, 27 Feb 2024 14:34:24 +0000 (16:34 +0200)
commit0becb22ac05b6542bd9d5f2235691aa1d3d4d307
tree17d2a402b346779a611e917a71ce5b84e1aa43e8
parentc24a2a6e6005e5d424301525a42ba45a4a362d30
IQ4_XS: a 4.25 bpw quantization (#5747)

* Try IQ4_NL with blocks of 64 - does not look good

* iq4_xs: go to super-blocks of 256 and 6-bit scales for blocks of 32

* iq4_xs: CUDA works - 133.2 t/s

* iq4_xs: AVX2 dot product

* iq4_xs: ARM_NEON dot product

* iq4_nl: Metal implementation

As usual, Metal / Apple Silicon don't like my quants.

* iq3_xs: minor fix

* iq4_xs: shrink by using IQ3_S for attn_k and attn_q

* iq4_xs: revert using IQ3_S for attn_k and attn_v

PPL vs size is good, but CPU performance suffers: on M2 Max
TG-128 drops to 21.7 t/s from 28.8, and on a Ryzen-7950X
to 14.5 t/s from 15.8 t/s. On CUDA we have 135 t/s when
using IQ3_S vs 133 t/s with pure IQ4_XS.

* Fix CI

* iq4_xs: Added forgotten check for 256 divisibility

---------

Co-authored-by: Iwan Kawrakow <redacted>
examples/quantize/quantize.cpp
ggml-cuda.cu
ggml-metal.m
ggml-metal.metal
ggml-quants.c
ggml-quants.h
ggml.c
ggml.h
llama.cpp
llama.h
tests/test-backend-ops.cpp