]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
llama : fix vram_scratch var
authorGeorgi Gerganov <redacted>
Tue, 6 Jun 2023 19:54:39 +0000 (22:54 +0300)
committerGeorgi Gerganov <redacted>
Tue, 6 Jun 2023 19:54:39 +0000 (22:54 +0300)
llama.cpp

index cf512ccdd53009ff681c6fe70d35a30b8e9f679f..16d6f6ef1c68c9b3d9ec31496a710f1c6d806df3 100644 (file)
--- a/llama.cpp
+++ b/llama.cpp
@@ -1076,6 +1076,7 @@ static void llama_model_load_internal(
 
     // prepare memory for the weights
     size_t vram_weights = 0;
+    size_t vram_scratch = 0;
     {
         const uint32_t n_embd  = hparams.n_embd;
         const uint32_t n_layer = hparams.n_layer;
@@ -1152,8 +1153,9 @@ static void llama_model_load_internal(
         fprintf(stderr, "%s: mem required  = %7.2f MB (+ %7.2f MB per state)\n", __func__,
                 mem_required / 1024.0 / 1024.0, mem_required_state / 1024.0 / 1024.0);
 
+        (void) vram_scratch;
 #ifdef GGML_USE_CUBLAS
-        const size_t vram_scratch = n_batch * MB;
+        vram_scratch = n_batch * MB;
         ggml_cuda_set_scratch_size(vram_scratch);
         if (n_gpu_layers > 0) {
             fprintf(stderr, "%s: allocating batch_size x 1 MB = %ld MB VRAM for the scratch buffer\n",