Johannes Gäßler e141ce624a Fix FlashAttention debug test, FP32 assert (#7684) před 1 rokem
..
template-instances 9b596417af CUDA: quantized KV support for FA vec (#7527) před 1 rokem
acc.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
acc.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
arange.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
arange.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
argsort.cu 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) před 1 rokem
argsort.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
binbcast.cu 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) před 1 rokem
binbcast.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
clamp.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
clamp.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
common.cuh 852aafb163 update HIP_UMA #7399 (#7414) před 1 rokem
concat.cu cce3dcffc5 cuda : non-cont concat support (#7610) před 1 rokem
concat.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
convert.cu e84b71c2c6 ggml : drop support for QK_K=64 (#7473) před 1 rokem
convert.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
cpy.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
cpy.cuh bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
dequantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
diagmask.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
diagmask.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
dmmv.cu e84b71c2c6 ggml : drop support for QK_K=64 (#7473) před 1 rokem
dmmv.cuh d48ccf3ad4 sync : ggml (#6351) před 1 rokem
fattn-common.cuh 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn-tile-f16.cu 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn-tile-f16.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) před 1 rokem
fattn-tile-f32.cu 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn-tile-f32.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) před 1 rokem
fattn-vec-f16.cuh 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn-vec-f32.cuh e141ce624a Fix FlashAttention debug test, FP32 assert (#7684) před 1 rokem
fattn-wmma-f16.cuh 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn.cu 750f60c03e CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681) před 1 rokem
fattn.cuh 9c67c2773d ggml : add Flash Attention (#5021) před 1 rokem
getrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
getrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
im2col.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
im2col.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
mmq.cu 9b596417af CUDA: quantized KV support for FA vec (#7527) před 1 rokem
mmq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
mmvq.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
mmvq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
norm.cu fb76ec31a9 ggml : fix YARN + add tests + add asserts (#7617) před 1 rokem
norm.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
pad.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
pad.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
pool2d.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
pool2d.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
quantize.cu 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
quantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
rope.cu fb76ec31a9 ggml : fix YARN + add tests + add asserts (#7617) před 1 rokem
rope.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
scale.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
scale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
softmax.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) před 1 rokem
softmax.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
sumrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
sumrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
tsembd.cu ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
tsembd.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
unary.cu f5ef34e428 feat: implemented sigmoid function (ggml/806) před 1 rokem
unary.cuh f5ef34e428 feat: implemented sigmoid function (ggml/806) před 1 rokem
upscale.cu 48aa8fd1f2 ggml : add `ggml_upscale_ext` (ggml/814) před 1 rokem
upscale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
vecdotq.cuh 9b596417af CUDA: quantized KV support for FA vec (#7527) před 1 rokem