|
|
@@ -73,7 +73,7 @@ set(LLAMA_CUDA_MMQ_Y "64" CACHE STRING "llama: y tile size for mmq CUDA ke
|
|
|
option(LLAMA_CUDA_FORCE_DMMV "llama: use dmmv instead of mmvq CUDA kernels" OFF)
|
|
|
set(LLAMA_CUDA_DMMV_X "32" CACHE STRING "llama: x stride for dmmv CUDA kernels")
|
|
|
set(LLAMA_CUDA_MMV_Y "1" CACHE STRING "llama: y block size for mmv CUDA kernels")
|
|
|
-option(LLAMA_CUDA_DMMV_F16 "llama: use 16 bit floats for dmmv CUDA kernels" OFF)
|
|
|
+option(LLAMA_CUDA_F16 "llama: use 16 bit floats for some calculations" OFF)
|
|
|
set(LLAMA_CUDA_KQUANTS_ITER "2" CACHE STRING "llama: iters./thread per block for Q2_K/Q6_K")
|
|
|
option(LLAMA_CLBLAST "llama: use CLBlast" OFF)
|
|
|
option(LLAMA_METAL "llama: use Metal" OFF)
|
|
|
@@ -265,8 +265,8 @@ if (LLAMA_CUBLAS)
|
|
|
if (DEFINED LLAMA_CUDA_DMMV_Y)
|
|
|
add_compile_definitions(GGML_CUDA_MMV_Y=${LLAMA_CUDA_DMMV_Y}) # for backwards compatibility
|
|
|
endif()
|
|
|
- if (LLAMA_CUDA_DMMV_F16)
|
|
|
- add_compile_definitions(GGML_CUDA_DMMV_F16)
|
|
|
+ if (LLAMA_CUDA_F16 OR LLAMA_CUDA_DMMV_F16)
|
|
|
+ add_compile_definitions(GGML_CUDA_F16)
|
|
|
endif()
|
|
|
add_compile_definitions(K_QUANTS_PER_ITERATION=${LLAMA_CUDA_KQUANTS_ITER})
|
|
|
|