]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
server : free llama_batch on exit (#7212)
authorSteve Grubb <redacted>
Sat, 11 May 2024 08:13:02 +0000 (04:13 -0400)
committerGitHub <redacted>
Sat, 11 May 2024 08:13:02 +0000 (11:13 +0300)
* [server] Cleanup a memory leak on exit

There are a couple memory leaks on exit of the server. This hides others.
After cleaning this up, you can see leaks on slots. But that is another
patch to be sent after this.

* make tab into spaces

examples/server/server.cpp

index 2bf4026d5084234c739adbcc4cc1f0651a72d40d..55c1d41298cd662b6b9a546654ffab3b29bc15d8 100644 (file)
@@ -673,6 +673,8 @@ struct server_context {
             llama_free_model(model);
             model = nullptr;
         }
+
+        llama_batch_free(batch);
     }
 
     bool load_model(const gpt_params & params_) {