]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
examples : add --alias option to gpt_params to set use friendly model name (#1614)
authorVladimir Zorin <redacted>
Sun, 28 May 2023 17:14:24 +0000 (20:14 +0300)
committerGitHub <redacted>
Sun, 28 May 2023 17:14:24 +0000 (20:14 +0300)
examples/common.cpp
examples/common.h
examples/server/server.cpp

index 1308f84109519e88b3e4b86dd16cf280a64db6a8..478dbafcf3c73418e252ddbfde3b0b98f1e8c5dc 100644 (file)
@@ -251,6 +251,12 @@ bool gpt_params_parse(int argc, char ** argv, gpt_params & params) {
                 break;
             }
             params.model = argv[i];
+        } else if (arg == "-a" || arg == "--alias") {
+            if (++i >= argc) {
+                invalid_param = true;
+                break;
+            }
+            params.model_alias = argv[i];
         } else if (arg == "--lora") {
             if (++i >= argc) {
                 invalid_param = true;
index 2b66382a6a5e0fdba4569f44d9123cb789477a86..fea9aa81a355a4985b38bb7b7ca23649c751db3d 100644 (file)
@@ -45,6 +45,7 @@ struct gpt_params {
     float   mirostat_eta      = 0.10f; // learning rate
 
     std::string model             = "models/7B/ggml-model.bin"; // model path
+    std::string model_alias       = "unknown"; // model alias
     std::string prompt            = "";
     std::string path_prompt_cache = "";  // path to file for saving/loading prompt eval state
     std::string input_prefix      = "";  // string to prefix user inputs with
index 3904412cb932d8a78df54e989bccbc85667e6781..9eacc929fbaa8cc62b02f0ce4c1d841b198339ca 100644 (file)
@@ -400,8 +400,10 @@ void server_print_usage(int /*argc*/, char **argv, const gpt_params &params)
   fprintf(stderr, "                        number of layers to store in VRAM\n");
   fprintf(stderr, "  -m FNAME, --model FNAME\n");
   fprintf(stderr, "                        model path (default: %s)\n", params.model.c_str());
-  fprintf(stderr, "  -host                 ip address to listen (default 127.0.0.1)\n");
-  fprintf(stderr, "  -port PORT            port to listen (default 8080)\n");
+  fprintf(stderr, "  -a ALIAS, --alias ALIAS\n");
+  fprintf(stderr, "                        set an alias for the model, will be added as `model` field in completion response\n");
+  fprintf(stderr, "  --host                ip address to listen (default 127.0.0.1)\n");
+  fprintf(stderr, "  --port PORT           port to listen (default 8080)\n");
   fprintf(stderr, "\n");
 }
 
@@ -453,6 +455,15 @@ bool server_params_parse(int argc, char **argv, server_params &sparams, gpt_para
       }
       params.model = argv[i];
     }
+    else if (arg == "-a" || arg == "--alias")
+    {
+      if (++i >= argc)
+      {
+        invalid_param = true;
+        break;
+      }
+      params.model_alias = argv[i];
+    }
     else if (arg == "--embedding")
     {
       params.embedding = true;
@@ -645,6 +656,7 @@ int main(int argc, char **argv)
                 try
                 {
                   json data = {
+                      {"model", llama.params.model_alias },
                       {"content", llama.generated_text },
                       {"tokens_predicted", llama.num_tokens_predicted}};
                   return res.set_content(data.dump(), "application/json");