]> git.djapps.eu Git - pkg/ggml/sources/ggml/commitdiff
examples : more CUDA leftovers (#0)
authorGeorgi Gerganov <redacted>
Wed, 27 Mar 2024 11:10:13 +0000 (13:10 +0200)
committerGeorgi Gerganov <redacted>
Wed, 27 Mar 2024 11:20:00 +0000 (13:20 +0200)
examples/magika/CMakeLists.txt
examples/python/ggml/__init__.pyi
examples/simple/CMakeLists.txt
examples/simple/simple-backend.cpp

index 5543237b4fc7500b7d4e0d80f01a4ea0d3aa0208..b0529f6ff90207003ddf4d555559f92d4b16b322 100644 (file)
@@ -8,8 +8,8 @@ target_link_libraries(${TEST_TARGET} PRIVATE ggml common common-ggml)
 #
 # For GPU offloading
 
-if (GGML_CUBLAS)
-    add_compile_definitions(GGML_USE_CUBLAS)
+if (GGML_CUDA)
+    add_compile_definitions(GGML_USE_CUDA)
 endif()
 
 if (GGML_CLBLAST)
index b08ed40f99828d05a1927d77f64ae5b984ef993a..0c2770982da2624cb5c3bb51e8b021cef0bd52f7 100644 (file)
@@ -568,8 +568,8 @@ class lib:
   def ggml_cpu_has_clblast() -> int:
     """    GGML_API int ggml_cpu_has_clblast    (void);"""
     ...
-  def ggml_cpu_has_cublas() -> int:
-    """    GGML_API int ggml_cpu_has_cublas     (void);"""
+  def ggml_cpu_has_cuda() -> int:
+    """    GGML_API int ggml_cpu_has_cuda       (void);"""
     ...
   def ggml_cpu_has_f16c() -> int:
     """    GGML_API int ggml_cpu_has_f16c       (void);"""
@@ -967,8 +967,8 @@ class lib:
   def ggml_init(params: ffi.CData) -> ffi.CData:
     """    GGML_API struct ggml_context * ggml_init(struct ggml_init_params params);"""
     ...
-  def ggml_init_cublas() -> None:
-    """GGML_API void   ggml_init_cublas(void);"""
+  def ggml_init_cuda() -> None:
+    """GGML_API void   ggml_init_cuda(void);"""
     ...
   def ggml_internal_get_type_traits(type: int) -> ffi.CData:
     """    ggml_type_traits_t ggml_internal_get_type_traits(enum ggml_type type);"""
index 4fbdf0f5517f2bc505453ab22a35a6d0f7bb82b4..7d3aae02d6e3f57f661e766bbd32321d1aba5e90 100644 (file)
@@ -12,8 +12,8 @@ set(TEST_TARGET simple-backend)
 add_executable(${TEST_TARGET} simple-backend.cpp)
 target_link_libraries(${TEST_TARGET} PRIVATE ggml)
 
-if (GGML_CUBLAS)
-    add_compile_definitions(GGML_USE_CUBLAS)
+if (GGML_CUDA)
+    add_compile_definitions(GGML_USE_CUDA)
 endif()
 
 if (GGML_METAL)
index fbda1ff8d512282adf51306c4ec44db0e20618ac..4ae6f3c8e64756788d4e6d420db641958e02327a 100644 (file)
@@ -2,7 +2,7 @@
 #include "ggml/ggml-alloc.h"
 #include "ggml/ggml-backend.h"
 
-#ifdef GGML_USE_CUBLAS
+#ifdef GGML_USE_CUDA
 #include "ggml-cuda.h"
 #endif
 
@@ -44,7 +44,7 @@ struct simple_model {
 // initialize the tensors of the model in this case two matrices 2x2
 void load_model(simple_model & model, float * a, float * b, int rows_A, int cols_A, int rows_B, int cols_B) {
     // initialize the backend
-#ifdef GGML_USE_CUBLAS
+#ifdef GGML_USE_CUDA
     fprintf(stderr, "%s: using CUDA backend\n", __func__);
     model.backend = ggml_backend_cuda_init(0); // init device 0
     if (!model.backend) {