Просмотр исходного кода

CUDA: fix typo in FlashAttention code (#13926)

Johannes Gäßler 7 месяцев назад
Родитель
Сommit
e562eece7c
1 измененных файлов с 1 добавлено и 1 удалено
  1. 1 1
      ggml/src/ggml-cuda/fattn-mma-f16.cuh

+ 1 - 1
ggml/src/ggml-cuda/fattn-mma-f16.cuh

@@ -1246,7 +1246,7 @@ static __global__ void flash_attn_ext_f16(
         NO_DEVICE_CODE;
         return;
     }
-#endif __CUDA_ARCH__ == GGML_CUDA_CC_TURING
+#endif // __CUDA_ARCH__ == GGML_CUDA_CC_TURING
 
     static_assert(!mla || DKQ >= DV, "MLA needs DKQ >= DV");