]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
refact : fix convert script + zero out KV cache to avoid nans (#3523)
authorGeorgi Gerganov <redacted>
Mon, 9 Oct 2023 11:32:17 +0000 (14:32 +0300)
committerGitHub <redacted>
Mon, 9 Oct 2023 11:32:17 +0000 (14:32 +0300)
commitfcca0a700487999d52a525c96d6661e9f6a8703a
treeedf07ca2f40aa95e40b5f6863322ea0293467592
parentdcc09d25961c5d0626bc148e558ee841141748f7
refact : fix convert script + zero out KV cache to avoid nans (#3523)

* refact : fix convert script + zero out KV cache to avoid nans

* ggml : silu(-inf) should never happen

* metal : assert various kernel requirements
convert-refact-hf-to-gguf.py
examples/parallel/parallel.cpp
ggml-metal.m
ggml-metal.metal
ggml.c
llama.cpp