]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
llm : add Falcon support (#2717)
authorGeorgi Gerganov <redacted>
Wed, 23 Aug 2023 20:08:04 +0000 (23:08 +0300)
committerGitHub <redacted>
Wed, 23 Aug 2023 20:08:04 +0000 (23:08 +0300)
commitcf658adc832badaaa2ca119fe86070e5a830f8f6
treee314db2fb18676067ddbc5cde0cf7f73c417af29
parenta192860cfec89a38d59a943623bf595b1fe4495b
llm : add Falcon support (#2717)

* llama : refactor GGUF constants into static maps

* llama : check if model architecture is known

* llama : refactor llama_model_load_internal()

* gguf : add KV constant maps

* llm : read arch-specific KVs

* convert : add dummy scores + types

* falcon : load tensor data (CPU only)

* llama : fix loading progress bar

* llama : add arch member to llama_model

* falcon : CPU inference working

* falcon : support non-40B models

* falcon : minor

* llama : minor updates

ggml-ci

* convert-falcon-hf-to-gguf.py : fix special token mapping

* llama.cpp : llama default UNK token = id 0

* llama.cpp : fix bpe tokenizer

* llama.cpp : fix the fix of bpe tokenizer

* ggml : pass eps to ggml_norm

* metal : implement RoPE (mode = 2) + avoid ggml_repeat

* ggml : ggml_repeat always creates new tensor

* falcon : copy-paste self-attention from LLaMA

* metal : print extra compute pipeline info

* falcon : minor changes (still chasing the Metal problem)

* llama.cpp : fix linefeed token

* metal : fix GELU kernel numerical stability by using precise::tanh

* metal : temporary workaround for the concurrency optimization bug

* falcon : add CUDA offloading (#2739)

* llama : better model naming and size reporting

* llama : prep new tokenizer support

* llama : advanced BPE tokenizer based on ggllm.cpp imlpementation

* llama : remove oboslete comment

ggml-ci

* common : remove obsolete BPE API + disable test-tokenizer-1

* llama : revert BPE special-case in llama_byte_to_token()

* cuda : add TODOs for RoPE NeoX implementation

* llama : default special tokens based on vocab type

* perplexity : add log for start of tokenization

---------

Co-authored-by: klosax <redacted>
Co-authored-by: slaren <redacted>
18 files changed:
common/common.cpp
common/common.h
convert-falcon-hf-to-gguf.py
convert.py
examples/main/main.cpp
examples/perplexity/perplexity.cpp
ggml-alloc.c
ggml-alloc.h
ggml-cuda.cu
ggml-metal.m
ggml-metal.metal
ggml.c
ggml.h
gguf.py
llama.cpp
llama.h
tests/CMakeLists.txt
tests/test-tokenizer-1.cpp