Calvin Laurenson 43b35e38ba Add support for sqrt on CUDA (#7953) há 1 ano atrás
..
template-instances 7d1a378b8f CUDA: refactor mmq, dmmv, mmvq (#7716) há 1 ano atrás
acc.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
acc.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
arange.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
arange.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
argsort.cu 76d66ee0be CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921) há 1 ano atrás
argsort.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
binbcast.cu 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) há 1 ano atrás
binbcast.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
clamp.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) há 1 ano atrás
clamp.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
common.cuh 76d66ee0be CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921) há 1 ano atrás
concat.cu cce3dcffc5 cuda : non-cont concat support (#7610) há 1 ano atrás
concat.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
convert.cu e84b71c2c6 ggml : drop support for QK_K=64 (#7473) há 1 ano atrás
convert.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) há 1 ano atrás
cpy.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) há 1 ano atrás
cpy.cuh bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) há 1 ano atrás
dequantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) há 1 ano atrás
diagmask.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
diagmask.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
dmmv.cu 7d1a378b8f CUDA: refactor mmq, dmmv, mmvq (#7716) há 1 ano atrás
dmmv.cuh d48ccf3ad4 sync : ggml (#6351) há 1 ano atrás
fattn-common.cuh 1f0dabda8d CUDA: use tensor cores for MMQ (#7676) há 1 ano atrás
fattn-tile-f16.cu 1f0dabda8d CUDA: use tensor cores for MMQ (#7676) há 1 ano atrás
fattn-tile-f16.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) há 1 ano atrás
fattn-tile-f32.cu 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) há 1 ano atrás
fattn-tile-f32.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) há 1 ano atrás
fattn-vec-f16.cuh 1f0dabda8d CUDA: use tensor cores for MMQ (#7676) há 1 ano atrás
fattn-vec-f32.cuh 963552903f CUDA: fix broken oob check for FA vec f32 kernel (#7904) há 1 ano atrás
fattn-wmma-f16.cuh 1f0dabda8d CUDA: use tensor cores for MMQ (#7676) há 1 ano atrás
fattn.cu 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) há 1 ano atrás
fattn.cuh 9c67c2773d ggml : add Flash Attention (#5021) há 1 ano atrás
getrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
getrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
im2col.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
im2col.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
mma.cuh bdcb8f4222 CUDA: int8 tensor cores for MMQ (q4_K, q5_K, q6_K) (#7860) há 1 ano atrás
mmq.cu 42b53d192f CUDA: revise q8_1 data layout for mul_mat_q (#7824) há 1 ano atrás
mmq.cuh 76d66ee0be CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921) há 1 ano atrás
mmvq.cu 19b7a836f6 cuda : fix bounds check for src0 rows in MMVQ kernel (whisper/2231) há 1 ano atrás
mmvq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
norm.cu fb76ec31a9 ggml : fix YARN + add tests + add asserts (#7617) há 1 ano atrás
norm.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
pad.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
pad.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
pool2d.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
pool2d.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
quantize.cu 42b53d192f CUDA: revise q8_1 data layout for mul_mat_q (#7824) há 1 ano atrás
quantize.cuh 42b53d192f CUDA: revise q8_1 data layout for mul_mat_q (#7824) há 1 ano atrás
rope.cu 2b3389677a ggml : refactor rope norm/neox (#7634) há 1 ano atrás
rope.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
scale.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) há 1 ano atrás
scale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
softmax.cu 76d66ee0be CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921) há 1 ano atrás
softmax.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
sumrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
sumrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
tsembd.cu ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
tsembd.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
unary.cu 43b35e38ba Add support for sqrt on CUDA (#7953) há 1 ano atrás
unary.cuh 43b35e38ba Add support for sqrt on CUDA (#7953) há 1 ano atrás
upscale.cu 48aa8fd1f2 ggml : add `ggml_upscale_ext` (ggml/814) há 1 ano atrás
upscale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) há 1 ano atrás
vecdotq.cuh 76d66ee0be CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921) há 1 ano atrás