]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
gguf : add support for I64 and F64 arrays (#6062)
authorOndřej Čertík <redacted>
Fri, 15 Mar 2024 08:46:51 +0000 (02:46 -0600)
committerGitHub <redacted>
Fri, 15 Mar 2024 08:46:51 +0000 (10:46 +0200)
commit7ce2c77f88e1ca66ec48417e56f91746bac018c2
treeb6f35f35a17641d7665799deb55ed3f9f59a116a
parentaab606a11fc0a9740a7f297521c3eef851dfb351
gguf : add support for I64 and F64 arrays (#6062)

* gguf : add support for I64 and F64 arrays

GGML currently does not support I64 or F64 arrays and they are not often
used in machine learning, however if in the future the need arises, it
would be nice to add them now, so that the types are next to the other
types I8, I16, I32 in the enums, and it also reserves their type number.

Furthermore, with this addition the GGUF format becomes very usable for
most computational applications of NumPy (being compatible with the most
common NumPy dtypes: i8, i16, i32, i64, f32, f64), providing a faster,
and more versatile alternative to the `npz` format, and a simpler
alternative to the `hdf5` format.

The change in this PR seems small, not significantly increasing the
maintenance burden. I tested this from Python using GGUFWriter/Reader
and `gguf-dump`, as well as from C, everything seems to work.

* Fix compiler warnings
ggml.c
ggml.h
gguf-py/gguf/constants.py
gguf-py/gguf/gguf_reader.py
gguf-py/gguf/gguf_writer.py