Johannes Gäßler dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
..
acc.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
acc.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
arange.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
arange.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
argsort.cu 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) vor 1 Jahr
argsort.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
binbcast.cu 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) vor 1 Jahr
binbcast.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
clamp.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
clamp.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
common.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
concat.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
concat.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
convert.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
convert.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) vor 1 Jahr
cpy.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
cpy.cuh bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
dequantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) vor 1 Jahr
diagmask.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
diagmask.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
dmmv.cu 5dc9dd7152 llama : add Command R Plus support (#6491) vor 1 Jahr
dmmv.cuh d48ccf3ad4 sync : ggml (#6351) vor 1 Jahr
fattn-common.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn-vec-f16.cu dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn-vec-f16.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn-vec-f32.cu dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn-vec-f32.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn.cu dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) vor 1 Jahr
fattn.cuh 9c67c2773d ggml : add Flash Attention (#5021) vor 1 Jahr
getrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
getrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
im2col.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
im2col.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
mmq.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
mmq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
mmvq.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
mmvq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
norm.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
norm.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
pad.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
pad.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
pool2d.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
pool2d.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
quantize.cu 5dc9dd7152 llama : add Command R Plus support (#6491) vor 1 Jahr
quantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) vor 1 Jahr
rope.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
rope.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
scale.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) vor 1 Jahr
scale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
softmax.cu 9cb317f77e ggml : full ALiBi support (#7192) vor 1 Jahr
softmax.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
sumrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
sumrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
tsembd.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
tsembd.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
unary.cu f5ef34e428 feat: implemented sigmoid function (ggml/806) vor 1 Jahr
unary.cuh f5ef34e428 feat: implemented sigmoid function (ggml/806) vor 1 Jahr
upscale.cu ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
upscale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) vor 1 Jahr
vecdotq.cuh 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) vor 1 Jahr