| .. |
|
template-instances
|
7d1a378b8f
CUDA: refactor mmq, dmmv, mmvq (#7716)
|
1 год назад |
|
acc.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
acc.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
arange.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
arange.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
argsort.cu
|
76d66ee0be
CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921)
|
1 год назад |
|
argsort.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
binbcast.cu
|
0d56246f4b
ggml : group all experts in a single ggml_mul_mat_id (#6505)
|
1 год назад |
|
binbcast.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
clamp.cu
|
bc4bba364f
Introduction of CUDA Graphs to LLama.cpp (#6766)
|
1 год назад |
|
clamp.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
common.cuh
|
76d66ee0be
CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921)
|
1 год назад |
|
concat.cu
|
cce3dcffc5
cuda : non-cont concat support (#7610)
|
1 год назад |
|
concat.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
convert.cu
|
e84b71c2c6
ggml : drop support for QK_K=64 (#7473)
|
1 год назад |
|
convert.cuh
|
5dc9dd7152
llama : add Command R Plus support (#6491)
|
1 год назад |
|
cpy.cu
|
bc4bba364f
Introduction of CUDA Graphs to LLama.cpp (#6766)
|
1 год назад |
|
cpy.cuh
|
bc4bba364f
Introduction of CUDA Graphs to LLama.cpp (#6766)
|
1 год назад |
|
dequantize.cuh
|
5dc9dd7152
llama : add Command R Plus support (#6491)
|
1 год назад |
|
diagmask.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
diagmask.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
dmmv.cu
|
7d1a378b8f
CUDA: refactor mmq, dmmv, mmvq (#7716)
|
1 год назад |
|
dmmv.cuh
|
d48ccf3ad4
sync : ggml (#6351)
|
1 год назад |
|
fattn-common.cuh
|
1f0dabda8d
CUDA: use tensor cores for MMQ (#7676)
|
1 год назад |
|
fattn-tile-f16.cu
|
1f0dabda8d
CUDA: use tensor cores for MMQ (#7676)
|
1 год назад |
|
fattn-tile-f16.cuh
|
0fc1e820a9
CUDA: faster large batch FA without tensor cores (#7314)
|
1 год назад |
|
fattn-tile-f32.cu
|
750f60c03e
CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681)
|
1 год назад |
|
fattn-tile-f32.cuh
|
0fc1e820a9
CUDA: faster large batch FA without tensor cores (#7314)
|
1 год назад |
|
fattn-vec-f16.cuh
|
1f0dabda8d
CUDA: use tensor cores for MMQ (#7676)
|
1 год назад |
|
fattn-vec-f32.cuh
|
963552903f
CUDA: fix broken oob check for FA vec f32 kernel (#7904)
|
1 год назад |
|
fattn-wmma-f16.cuh
|
1f0dabda8d
CUDA: use tensor cores for MMQ (#7676)
|
1 год назад |
|
fattn.cu
|
750f60c03e
CUDA: fix Pascal FA, deq. KV to FP16 for batch > 8 (#7681)
|
1 год назад |
|
fattn.cuh
|
9c67c2773d
ggml : add Flash Attention (#5021)
|
1 год назад |
|
getrows.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
getrows.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
im2col.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
im2col.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
mma.cuh
|
bdcb8f4222
CUDA: int8 tensor cores for MMQ (q4_K, q5_K, q6_K) (#7860)
|
1 год назад |
|
mmq.cu
|
42b53d192f
CUDA: revise q8_1 data layout for mul_mat_q (#7824)
|
1 год назад |
|
mmq.cuh
|
76d66ee0be
CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921)
|
1 год назад |
|
mmvq.cu
|
7d1a378b8f
CUDA: refactor mmq, dmmv, mmvq (#7716)
|
1 год назад |
|
mmvq.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
norm.cu
|
fb76ec31a9
ggml : fix YARN + add tests + add asserts (#7617)
|
1 год назад |
|
norm.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
pad.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
pad.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
pool2d.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
pool2d.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
quantize.cu
|
42b53d192f
CUDA: revise q8_1 data layout for mul_mat_q (#7824)
|
1 год назад |
|
quantize.cuh
|
42b53d192f
CUDA: revise q8_1 data layout for mul_mat_q (#7824)
|
1 год назад |
|
rope.cu
|
2b3389677a
ggml : refactor rope norm/neox (#7634)
|
1 год назад |
|
rope.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
scale.cu
|
bc4bba364f
Introduction of CUDA Graphs to LLama.cpp (#6766)
|
1 год назад |
|
scale.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
softmax.cu
|
76d66ee0be
CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921)
|
1 год назад |
|
softmax.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
sumrows.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
sumrows.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
tsembd.cu
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
tsembd.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
unary.cu
|
a9cae48003
tests : add non-cont unary tests (#7857)
|
1 год назад |
|
unary.cuh
|
f5ef34e428
feat: implemented sigmoid function (ggml/806)
|
1 год назад |
|
upscale.cu
|
48aa8fd1f2
ggml : add `ggml_upscale_ext` (ggml/814)
|
1 год назад |
|
upscale.cuh
|
ae1f211ce2
cuda : refactor into multiple files (#6269)
|
1 год назад |
|
vecdotq.cuh
|
76d66ee0be
CUDA: faster q2_K, q3_K MMQ + int8 tensor cores (#7921)
|
1 год назад |