]> git.djapps.eu Git - pkg/ggml/sources/whisper.cpp/commit
whisper : add full CUDA and Metal offloading (#1472)
authorGeorgi Gerganov <redacted>
Sun, 12 Nov 2023 13:31:08 +0000 (15:31 +0200)
committerGitHub <redacted>
Sun, 12 Nov 2023 13:31:08 +0000 (15:31 +0200)
commitb0502836b82944d444f30ea1b5217f69ff6da71b
tree309534de2dd5b28ee8a21bc808a6f05535f81c45
parentec7a6f04f9c32adec2e6b0995b8c728c5bf56f35
whisper : add full CUDA and Metal offloading (#1472)

* whisper : migrate to ggml-backend

* whisper : fix logit reading

* whisper : fix tensor allocation during load

* whisper : fix beam-search with CUDA

* whisper : free backends + fix compile warning

* whisper : print when CUDA is enabled

* whisper : fix CoreML

* make : clean-up

* talk : fix compile warning

* whisper : support ggml_conv with CUDA and Metal (#1473)

* ggml : add CUDA support for ggml_conv

* whisper : remove ggml_repeat for conv bias + single backend

* cuda : fix im2col kernel

* metal : add im2col support + mul mat-vec f16 x f16

* bench-all : add q4 models

* whisper : clean-up

* quantize-all : fix

* ggml : im2col opts

* whisper : avoid whisper_model_data wrapper

* whisper : add note that ggml_mul_mat_pad does not work with CUDA

* whisper : factor out graph compute in common function

* whisper : fixes

* whisper : fix UB with measure buffers

* whisper : try to fix the parallel whisper_state functionality (#1479)

* whisper : try to fix the parallel whisper_state functionality

* whisper : fix multi-state Metal

* whisper : free backend instances in whisper_state
14 files changed:
.gitignore
Makefile
examples/common.h
examples/talk/gpt-2.cpp
extra/bench-all.sh
extra/quantize-all.sh
ggml-cuda.cu
ggml-metal.h
ggml-metal.m
ggml-metal.metal
ggml.c
ggml.h
whisper.cpp
whisper.h