]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
Vulkan Improvements (#5835)
author0cc4m <redacted>
Tue, 5 Mar 2024 12:33:42 +0000 (13:33 +0100)
committerGitHub <redacted>
Tue, 5 Mar 2024 12:33:42 +0000 (13:33 +0100)
commit61d1c88e155515dd03940913a5707ea84a8b119b
treec2c7de9900b33a73a6fba4299523b54528676e1f
parent21b08674331e1ea1b599f17c5ca91f0ed173be31
Vulkan Improvements (#5835)

* Improve dequant shaders, add fast q4_0 dequant

* Optimize dmmv non-kquants for GCN

Remove unnecessary SPIR-V shader duplication

* Fix q4_0 dequant dispatch sizes

Fix backend free bug

* Optimize dequant shaders for q4_1, q5_0, q5_1 and q8_0

* Add unary and binary op shader templates

* Fix Vulkan check results

* Enable non-contiguous support for simple ops

* Add argsort

Basic q4_0 mmq shader and unit test

* Speed up q4_0 dequant code, enable mmq for q4_0

* Rework matmul pipeline selection

* Add soft_max alibi support

* Add q4_1, q5_0, q5_1 and q8_0 dequant mat mat mul shaders

* Add environment variable GGML_VK_FORCE_MAX_ALLOCATION_SIZE to limit max buffer size

Rename GGML_VULKAN_DISABLE_F16 to GGML_VK_DISABLE_F16 for consistency
ggml-vulkan-shaders.hpp
ggml-vulkan.cpp
ggml-vulkan.h
ggml_vk_generate_shaders.py
llama.cpp