]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
Docker: change to calling convert.py (#1641)
authorJiří Podivín <redacted>
Sat, 3 Jun 2023 12:11:53 +0000 (14:11 +0200)
committerGitHub <redacted>
Sat, 3 Jun 2023 12:11:53 +0000 (15:11 +0300)
Deprecation disclaimer was added to convert-pth-to-ggml.py

.devops/tools.sh
convert-pth-to-ggml.py

index ece9e4efa6a09fbef977e4cbf6f151171db57e5b..860a7e8913f1c2e68965a302ca7b73e2cfd1bbc9 100755 (executable)
@@ -11,7 +11,7 @@ shift
 arg2="$@"
 
 if [[ $arg1 == '--convert' || $arg1 == '-c' ]]; then
-    python3 ./convert-pth-to-ggml.py $arg2
+    python3 ./convert.py $arg2
 elif [[ $arg1 == '--quantize' || $arg1 == '-q' ]]; then
     ./quantize $arg2
 elif [[ $arg1 == '--run' || $arg1 == '-r' ]]; then
@@ -32,7 +32,7 @@ else
     echo "  --run (-r): Run a model previously converted into ggml"
     echo "              ex: -m /models/7B/ggml-model-q4_0.bin -p \"Building a website can be done in 10 simple steps:\" -n 512"
     echo "  --convert (-c): Convert a llama model into ggml"
-    echo "              ex: \"/models/7B/\" 1"
+    echo "              ex: --outtype f16 \"/models/7B/\" "
     echo "  --quantize (-q): Optimize with quantization process ggml"
     echo "              ex: \"/models/7B/ggml-model-f16.bin\" \"/models/7B/ggml-model-q4_0.bin\" 2"
     echo "  --all-in-one (-a): Execute --convert & --quantize"
index f87ac270cd91d67cd98dcecc4ca50014f7d9bb06..dd15393c3fe45d47c2a3737103d4ed02e0a7a50c 100644 (file)
@@ -4,7 +4,9 @@ import argparse
 
 import convert
 
-parser = argparse.ArgumentParser(description='Convert a LLaMA model checkpoint to a ggml compatible file')
+parser = argparse.ArgumentParser(
+    description="""[DEPRECATED - use `convert.py` instead]
+    Convert a LLaMA model checkpoint to a ggml compatible file""")
 parser.add_argument('dir_model',  help='directory containing the model checkpoint')
 parser.add_argument('ftype',      help='file type (0: float32, 1: float16)', type=int, choices=[0, 1], default=1)
 args = parser.parse_args()