]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
ggml, llama : use defaulted constructors/destructors (#17649)
authorHerman Semenoff <redacted>
Wed, 3 Dec 2025 06:12:18 +0000 (09:12 +0300)
committerGitHub <redacted>
Wed, 3 Dec 2025 06:12:18 +0000 (07:12 +0100)
ggml/src/gguf.cpp
src/llama-impl.h
src/llama-model.cpp
src/llama-vocab.cpp

index 8cc4ef1cf4435cbb8ad2a602d70b106fa50b3542..b165d8bdc62f64d5a4bca8f963632e632c375d50 100644 (file)
@@ -1169,7 +1169,7 @@ void gguf_set_tensor_data(struct gguf_context * ctx, const char * name, const vo
 struct gguf_writer_base {
     size_t written_bytes {0u};
 
-    ~gguf_writer_base(void) {}
+    ~gguf_writer_base(void) = default;
 
     // we bet on devirtualization
     virtual void write(int8_t val) = 0;
index c5163e9225a5e04ee38c426aad139bf15ddc9a90..c3391e79f51662cd9efd6805e70c2c7b0ca2ccd8 100644 (file)
@@ -37,7 +37,7 @@ void llama_log_callback_default(ggml_log_level level, const char * text, void *
 template <typename T>
 struct no_init {
     T value;
-    no_init() { /* do nothing */ }
+    no_init() = default;
 };
 
 struct time_meas {
index e281dc760bdfacd04ce1a9fc196597ac5b6281cb..c3675dbdc414853aff2c03ecd96c3aab69c9b0c7 100644 (file)
@@ -423,8 +423,8 @@ static buft_list_t make_gpu_buft_list(ggml_backend_dev_t dev, llama_split_mode s
 }
 
 struct llama_model::impl {
-    impl() {}
-    ~impl() {}
+    impl() = default;
+    ~impl() = default;
 
     uint64_t n_elements = 0;
 
@@ -461,7 +461,7 @@ llama_model::llama_model(const llama_model_params & params) : params(params), pi
     pimpl->has_tensor_overrides = params.tensor_buft_overrides && params.tensor_buft_overrides[0].pattern;
 }
 
-llama_model::~llama_model() {}
+llama_model::~llama_model() = default;
 
 void llama_model::load_stats(llama_model_loader & ml) {
     pimpl->n_elements = ml.n_elements;
index a73c4c448ba536fd75aec4e4c67c1de08602c686..e2cca66e48fe7f75620f1528d030f222ba6946b6 100644 (file)
@@ -3253,8 +3253,7 @@ void llama_vocab::impl::print_info() const {
 llama_vocab::llama_vocab() : pimpl(new impl(*this)) {
 }
 
-llama_vocab::~llama_vocab() {
-}
+llama_vocab::~llama_vocab() = default;
 
 void llama_vocab::load(llama_model_loader & ml, const LLM_KV & kv) {
     pimpl->load(ml, kv);