Johannes Gäßler 95fb0aefab CUDA: remove incorrect precision check (#7454) 1 năm trước cách đây
..
acc.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
acc.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
arange.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
arange.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
argsort.cu 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) 1 năm trước cách đây
argsort.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
binbcast.cu 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) 1 năm trước cách đây
binbcast.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
clamp.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
clamp.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
common.cuh 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
concat.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
concat.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
convert.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
convert.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) 1 năm trước cách đây
cpy.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
cpy.cuh bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
dequantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) 1 năm trước cách đây
diagmask.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
diagmask.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
dmmv.cu 5dc9dd7152 llama : add Command R Plus support (#6491) 1 năm trước cách đây
dmmv.cuh d48ccf3ad4 sync : ggml (#6351) 1 năm trước cách đây
fattn-common.cuh 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
fattn-tile-f16.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
fattn-tile-f16.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) 1 năm trước cách đây
fattn-tile-f32.cu 95fb0aefab CUDA: remove incorrect precision check (#7454) 1 năm trước cách đây
fattn-tile-f32.cuh 0fc1e820a9 CUDA: faster large batch FA without tensor cores (#7314) 1 năm trước cách đây
fattn-vec-f16.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
fattn-vec-f16.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) 1 năm trước cách đây
fattn-vec-f32.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
fattn-vec-f32.cuh dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) 1 năm trước cách đây
fattn.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
fattn.cuh 9c67c2773d ggml : add Flash Attention (#5021) 1 năm trước cách đây
getrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
getrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
im2col.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
im2col.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
mmq.cu fcf6538ba6 CUDA: fix unused warning in mmq.cu (#7442) 1 năm trước cách đây
mmq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
mmvq.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
mmvq.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
norm.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
norm.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
pad.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
pad.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
pool2d.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
pool2d.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
quantize.cu 5dc9dd7152 llama : add Command R Plus support (#6491) 1 năm trước cách đây
quantize.cuh 5dc9dd7152 llama : add Command R Plus support (#6491) 1 năm trước cách đây
rope.cu 3e5faa8503 cuda : fix rope + add tests (#7452) 1 năm trước cách đây
rope.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
scale.cu bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) 1 năm trước cách đây
scale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
softmax.cu 133d99c599 CUDA: deduplicate FlashAttention code (#7352) 1 năm trước cách đây
softmax.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
sumrows.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
sumrows.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
tsembd.cu ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
tsembd.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
unary.cu f5ef34e428 feat: implemented sigmoid function (ggml/806) 1 năm trước cách đây
unary.cuh f5ef34e428 feat: implemented sigmoid function (ggml/806) 1 năm trước cách đây
upscale.cu 48aa8fd1f2 ggml : add `ggml_upscale_ext` (ggml/814) 1 năm trước cách đây
upscale.cuh ae1f211ce2 cuda : refactor into multiple files (#6269) 1 năm trước cách đây
vecdotq.cuh 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) 1 năm trước cách đây