]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
define default model path once, sync path with readme (#1366)
authorAndrĂ¡s Salamon <redacted>
Tue, 16 May 2023 15:46:34 +0000 (16:46 +0100)
committerGitHub <redacted>
Tue, 16 May 2023 15:46:34 +0000 (17:46 +0200)
examples/common.h
examples/embedding/embedding.cpp
examples/main/main.cpp
examples/perplexity/perplexity.cpp
examples/save-load-state/save-load-state.cpp

index 717838f06e0641f81a1e367a5a7f5188987efabd..f4e07a25257238f2f8b0e95df983e11865b65950 100644 (file)
@@ -45,7 +45,7 @@ struct gpt_params {
     float   mirostat_tau      = 5.00f; // target entropy
     float   mirostat_eta      = 0.10f; // learning rate
 
-    std::string model  = "models/lamma-7B/ggml-model.bin"; // model path
+    std::string model  = "models/7B/ggml-model.bin"; // model path
     std::string prompt = "";
     std::string path_prompt_cache = "";  // path to file for saving/loading prompt eval state
     std::string input_prefix      = "";  // string to prefix user inputs with
index bb3fd50a9f9818ef74874910d0e5bc2ec2858429..c24f7f82071579dfba8f8cfdac05fbca4a6c1e85 100644 (file)
@@ -6,7 +6,6 @@
 
 int main(int argc, char ** argv) {
     gpt_params params;
-    params.model = "models/llama-7B/ggml-model.bin";
 
     if (gpt_params_parse(argc, argv, params) == false) {
         return 1;
index 8543414dd0fbb35d130e9f97804cfa8fee55ed84..fe1c847a7f4904601868fbd40269fb2e23cc2494 100644 (file)
@@ -50,7 +50,6 @@ void sigint_handler(int signo) {
 
 int main(int argc, char ** argv) {
     gpt_params params;
-    params.model = "models/llama-7B/ggml-model.bin";
 
     if (gpt_params_parse(argc, argv, params) == false) {
         return 1;
index 9212dee5c086855cdfa2cf121e1d3026995e31bc..9d38626cbd4f4db97ec8eaa1dcbe270ce3e0cdbf 100644 (file)
@@ -116,7 +116,6 @@ void perplexity(llama_context * ctx, const gpt_params & params) {
 
 int main(int argc, char ** argv) {
     gpt_params params;
-    params.model = "models/llama-7B/ggml-model.bin";
 
     params.n_batch = 512;
     if (gpt_params_parse(argc, argv, params) == false) {
index ea0a984d93816942a0efb3215a0c24e40fec51b4..35596957974cadf942fb9f5d63eafc0c62a708a7 100644 (file)
@@ -8,7 +8,6 @@
 
 int main(int argc, char ** argv) {
     gpt_params params;
-    params.model = "models/llama-7B/ggml-model.bin";
     params.seed = 42;
     params.n_threads = 4;
     params.repeat_last_n = 64;