]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commitdiff
readme : update coding guidelines
authorGeorgi Gerganov <redacted>
Thu, 21 Dec 2023 17:27:14 +0000 (19:27 +0200)
committerGitHub <redacted>
Thu, 21 Dec 2023 17:27:14 +0000 (19:27 +0200)
README.md

index 01aef2afc36ae8b60a16a4e9e5b264ca9c1e9371..80ce194ca91de294dc5381fa952dc1668e7d1291 100644 (file)
--- a/README.md
+++ b/README.md
@@ -982,6 +982,8 @@ docker run --gpus all -v /path/to/models:/models local/llama.cpp:light-cuda -m /
 - There are no strict rules for the code style, but try to follow the patterns in the code (indentation, spaces, etc.). Vertical alignment makes things more readable and easier to batch edit
 - Clean-up any trailing whitespaces, use 4 spaces for indentation, brackets on the same line, `void * ptr`, `int & a`
 - See [good first issues](https://github.com/ggerganov/llama.cpp/issues?q=is%3Aissue+is%3Aopen+label%3A%22good+first+issue%22) for tasks suitable for first contributions
+- Tensors store data in row-major order. We refer to dimension 0 as columns, 1 as rows, 2 as matrices
+- Matrix multiplication is unconventional: [`z = ggml_mul_mat(ctx, x, y)`](https://github.com/ggerganov/llama.cpp/blob/880e352277fc017df4d5794f0c21c44e1eae2b84/ggml.h#L1058-L1064) means `zT = x @ yT`
 
 ### Docs