]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
cmake : don't force -mcpu=native on aarch64 (#2063)
authorDaniel Drake <redacted>
Sat, 1 Jul 2023 18:31:44 +0000 (20:31 +0200)
committerGitHub <redacted>
Sat, 1 Jul 2023 18:31:44 +0000 (21:31 +0300)
commitb2132270678c473f7cd9ba871b03d694126bc33a
tree2261f5cc594fc57b1b341e21cb7c38ae7ea8d76d
parent2f8cd979ecd1fa582852e7136e92ff8990b98fd8
cmake : don't force -mcpu=native on aarch64 (#2063)

It's currently not possible to cross-compile llama.cpp for aarch64
because CMakeLists.txt forces -mcpu=native for that target.

-mcpu=native doesn't make sense if your build host is not the
target architecture, and clang rejects it for that reason, aborting the
build. This can be easily reproduced using the current Android NDK to build
for aarch64 on an x86_64 host.

If there is not a specific CPU-tuning target for aarch64 then -mcpu
should be omitted completely. I think that makes sense, there is not
enough variance in the aarch64 instruction set to warrant a fixed -mcpu
optimization at this point. And if someone is building natively and wishes
to enable any possible optimizations for the host device, then there is
already the LLAMA_NATIVE option available.

Fixes #495.
CMakeLists.txt