]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
impl : use 6 digits for tensor dims (#20094)
authorddh0 <redacted>
Wed, 4 Mar 2026 08:53:38 +0000 (02:53 -0600)
committerGitHub <redacted>
Wed, 4 Mar 2026 08:53:38 +0000 (09:53 +0100)
Many models have vocabulary sizes, and thus tensor shapes, with more
than 5 digits (ex: Gemma 3's vocab size is 262,208).

I already fixed this for `llama_format_tensor_shape` but missed it for
`llama_format_tensor_shape` until now. Oops.

src/llama-impl.cpp

index 710a5a1e08d3675dbd96ff12c5bd0694ceefa9cb..4c0188ee7226014883d176a354a912589c5b6ce5 100644 (file)
@@ -100,9 +100,9 @@ std::string format(const char * fmt, ...) {
 
 std::string llama_format_tensor_shape(const std::vector<int64_t> & ne) {
     char buf[256];
-    snprintf(buf, sizeof(buf), "%5" PRId64, ne.at(0));
+    snprintf(buf, sizeof(buf), "%6" PRId64, ne.at(0));
     for (size_t i = 1; i < ne.size(); i++) {
-        snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), ", %5" PRId64, ne.at(i));
+        snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), ", %6" PRId64, ne.at(i));
     }
     return buf;
 }