]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
ggml : remove bit shuffling (#1405)
authorGeorgi Gerganov <redacted>
Thu, 11 May 2023 21:23:08 +0000 (00:23 +0300)
committerGitHub <redacted>
Thu, 11 May 2023 21:23:08 +0000 (00:23 +0300)
commitb9fd7eee57df101d4a3e3eabc9fd6c2cb13c9ca1
treebbc617734354146eeffed3ba58cd1b4cfebb4aa6
parentb608b55a3ea8e4760c617418538465449175bdb8
ggml : remove bit shuffling (#1405)

* ggml : remove Q4_0 bit shufling (ARM NEON)

* ggml : remove Q4_1 bit shuffling (ARM NEON + reference)

* ggml : nibbles_from_floats() + bytes_from_nibbles() (ARM NEON)

* ggml : remove Q4_2 bit shuffling (WIP, BROKEN)

* ggml : remove Q5_0 bit shuffling (ARM NEON)

* ggml : 2x faster scalar implementations

* ggml : remove Q5_1 bit shuffling (ARM NEON + scalar)

* ggml : simplify scalar dot

* ggml : remove WASM SIMD bit shuffling + remove vzip for ARM 32-bit

* ggml : fix Q4_1 quantization

* ggml : update cuBLAS + normalize variable names

* ggml : remove Q4_2 mode

* ggml : minor formatting

* ggml : fix Q5_0 quantization

* scripts : add script for measuring the time per token

* AVX implementations (#1370)

* ggml : uniform 5th bit extraction

* llama : produce error upon loading old model files

* llama : fix model magic/version write

* ggml : speed-up Q5_0 + Q5_1 at 4 threads

* ggml : preserve old Q4 and Q5 formats

* ggml : simplify Q8_1 - no need for low / high sums anymore

* ggml : fix Q8_0 and Q8_1 rounding

* Revert "AVX implementations (#1370)"

This reverts commit 948d124837f9d287d8490f41338e0e4cceb0814f.

* ggml : fix AVX2 implementation

* sha : update hashes for 7B and 13B

* readme : update timings + remove warning banner

* llama : update v2 PR number to 1405

* ggml : fix WASM comments

* ggml : back to original bit order

* readme : add note that Q4 and Q5 have been changed

* llama : fix return for unknown version

---------

Co-authored-by: Stephan Walter <redacted>
12 files changed:
.gitignore
README.md
SHA256SUMS
examples/quantize/quantize.cpp
ggml-cuda.cu
ggml-opencl.c
ggml.c
ggml.h
llama.cpp
llama.h
scripts/perf-run-all.sh [new file with mode: 0755]
scripts/ppl-run-all.sh