]> git.djapps.eu Git - pkg/ggml/sources/ggml/commit
ggml : mul_mat_id use the same tensor for all the experts (llama/6387)
authorslaren <redacted>
Wed, 3 Apr 2024 13:07:05 +0000 (15:07 +0200)
committerGeorgi Gerganov <redacted>
Sat, 6 Apr 2024 15:27:03 +0000 (18:27 +0300)
commit907531fbcca7cb21f2d9de1ca00fe30f0b0e80a1
tree2ff2f7f2d7c3f251d93cbacd3f25e86626251181
parent062fb6ca44d0e2e728338adfab760b25640c39a5
ggml : mul_mat_id use the same tensor for all the experts (llama/6387)

* ggml : update mul_mat_id to use the same tensor for all the experts

* update cuda

* minor

* update metal

* update test-backend-ops

* fix cuda

* Update ggml-metal.m

Co-authored-by: Georgi Gerganov <redacted>
* update convert.py

* update convert-hf-to-gguf.py

* update convert.py for mixtral hf models

* Update convert-hf-to-gguf.py

Co-authored-by: Georgi Gerganov <redacted>
* cuda : support non-pow-2 number of experts

* allow quantize to work for split and merged experts models in the same way

* cleanup + disable mmap automatically with split tensors models

* update imatrix

* test-backend-ops : test qwen argsort

* update grok model loading

* llama : add merged experts tensors to the grok tensor map

* minor

* gguf : bump version

* fix quantizing of merged experts

* convert-hf-to-gguf.py : update grok (untested)

* make linter happy

* cuda/argsort : use shared memory instead of pool memory

* convert : fix grok tensor names

* metal : add support for non-pow-2 argsort

* llama : more loader cleanup, better error checking

* cuda : fix warning

* llama : still use mmap for loading old models, but copy the data to a host buffer

* add review note

* llama : remove ffn tensor counting + add sanity check

ggml-ci

* convert : fix handling of n_experts == None

ggml-ci

* imatrix : fix ncall counters

* llama : produce error if imatrix size does not match

* quantize : terminate on errors + trace logs

ggml-ci

* metal : pad shared memory to 16 bytes

---------

Co-authored-by: Georgi Gerganov <redacted>
include/ggml/ggml.h
src/ggml-cuda.cu
src/ggml-cuda/argsort.cu
src/ggml-metal.m
src/ggml-metal.metal
src/ggml.c
tests/test-backend-ops.cpp