]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
finetune : readme fix typo (#3465)
authorMerrick Christensen <redacted>
Wed, 4 Oct 2023 06:33:13 +0000 (00:33 -0600)
committerGitHub <redacted>
Wed, 4 Oct 2023 06:33:13 +0000 (09:33 +0300)
Fix small typo

examples/finetune/README.md

index b7347c20ca0ab40c18c496addbb9b1d8d574a042..36e62578c9527354b4e34c48bf30ef92708ab415 100644 (file)
@@ -61,7 +61,7 @@ For example to apply 40% of the 'shakespeare' LORA adapter, 80% of the 'bible' L
   --lora lora-open-llama-3b-v2-q8_0-yet-another-one-LATEST.bin
 ```
 
-The scale numbers don't need to add up to one, and you can also use numbers creater than 1 to further increase the influence of an adapter. But making the values to big will sometimes result in worse output. Play around to find good values.
+The scale numbers don't need to add up to one, and you can also use numbers greater than 1 to further increase the influence of an adapter. But making the values to big will sometimes result in worse output. Play around to find good values.
 
 Gradient checkpointing reduces the memory requirements by ~50% but increases the runtime.
 If you have enough RAM, you can make finetuning a bit faster by disabling checkpointing with `--no-checkpointing`.