]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
metal : optimize FA kernels (#10171)
authorGeorgi Gerganov <redacted>
Fri, 8 Nov 2024 11:47:22 +0000 (13:47 +0200)
committerGitHub <redacted>
Fri, 8 Nov 2024 11:47:22 +0000 (13:47 +0200)
commit841f27abdbbcecc9daac14dc540ba6202e4ffe40
treee730910e0d5b9db2926ab8ff415d1034897f5103
parentd05b3127bd30515955aa4ee2bacdb68ebafe88f4
metal : optimize FA kernels (#10171)

* ggml : add ggml_flash_attn_ext_get_prec

* metal : use F16 precision in FA kernels

ggml-ci

* metal : minor clean-up

* metal : compile-guard bf16 FA kernels

ggml-ci

* build : remove obsolete compile flag [no ci]

* metal : prevent int overflows [no ci]

* cuda : disable BF16 FA

ggml-ci

* metal : fix BF16 requirement for FA kernels

ggml-ci

* make : clean-up [no ci]
examples/llama-bench/llama-bench.cpp
ggml/include/ggml.h
ggml/src/ggml-cuda.cu
ggml/src/ggml-cuda/fattn.cu
ggml/src/ggml-metal.m
ggml/src/ggml-metal.metal
ggml/src/ggml.c
tests/test-backend-ops.cpp