]> git.djapps.eu Git - pkg/ggml/sources/whisper.cpp/commit
ggml : Enable MMA for BF16 in llamafile_sgemm (llama/13148)
authorshalinib-ibm <redacted>
Fri, 2 May 2025 16:53:12 +0000 (22:23 +0530)
committerGeorgi Gerganov <redacted>
Wed, 7 May 2025 12:39:32 +0000 (15:39 +0300)
commit42938398f90bdd23d5797c6189663b46b80d3ab1
tree337be544d46103e9a310c4074b4f164a1e1192bf
parenta8fe90ae158f8c573fb14f4b530c5d62f96ae391
ggml : Enable MMA for BF16 in llamafile_sgemm (llama/13148)

This patch upstreams llamafile's cpu matrix multiplication kernels for ppc64le using MMA builtins for BF16 data type.

This change results in 9x - 40x gains
in total speed S t/s (ie all tokens/total time), across various batch sizes tested using llama-batched-bench benchmark.

The patch is tested with Meta-Lllama-3-8B,
and Mistral-7B models (BF16 models generated by using llama-quantize from corresponding FP32 models) on an IBM POWER10 machine.

Signed-off-by: Shalini Salomi Bodapati <redacted>
ggml/src/ggml-cpu/llamafile/sgemm.cpp