| .. |
|
.gitignore
|
2c4f566c88
tests : gitignore ggml-common.h
|
há 1 ano atrás |
|
CMakeLists.txt
|
5b7b0ac8df
json-schema-to-grammar improvements (+ added to server) (#5978)
|
há 1 ano atrás |
|
get-model.cpp
|
413e7b0559
ci : add model tests + script wrapper (#4586)
|
há 2 anos atrás |
|
get-model.h
|
413e7b0559
ci : add model tests + script wrapper (#4586)
|
há 2 anos atrás |
|
run-json-schema-to-grammar.mjs
|
5b7b0ac8df
json-schema-to-grammar improvements (+ added to server) (#5978)
|
há 1 ano atrás |
|
test-autorelease.cpp
|
f486f6e1e5
ggml : add numa options (#5377)
|
há 1 ano atrás |
|
test-backend-ops.cpp
|
55c1b2a3bb
IQ1_M: 1.75 bpw quantization (#6302)
|
há 1 ano atrás |
|
test-c.c
|
fbf1ddec69
Nomic Vulkan backend (#4456)
|
há 1 ano atrás |
|
test-chat-template.cpp
|
aab606a11f
llama : add Orion chat template (#6066)
|
há 1 ano atrás |
|
test-double-float.cpp
|
207b51900e
ggml : move FP16 <-> FP32 code to ggml-impl.h (#3861)
|
há 2 anos atrás |
|
test-grad0.cpp
|
5bf3953d7e
cuda : improve cuda pool efficiency using virtual memory (#4606)
|
há 2 anos atrás |
|
test-grammar-parser.cpp
|
5d3de51f97
ggml, common, examples, tests : fixed type arguments in printf (#5528)
|
há 1 ano atrás |
|
test-json-schema-to-grammar.cpp
|
f77a8ffd3b
tests : conditional python & node json schema tests (#6207)
|
há 1 ano atrás |
|
test-llama-grammar.cpp
|
5d3de51f97
ggml, common, examples, tests : fixed type arguments in printf (#5528)
|
há 1 ano atrás |
|
test-model-load-cancel.cpp
|
f486f6e1e5
ggml : add numa options (#5377)
|
há 1 ano atrás |
|
test-opt.cpp
|
ab336a9d5e
code : normalize enum names (#5697)
|
há 1 ano atrás |
|
test-quantize-fns.cpp
|
1f2fd4e727
tests : include IQ2_XXS and IQ2_XS in test-quantize-fns (#6303)
|
há 1 ano atrás |
|
test-quantize-perf.cpp
|
a07d0fee1f
ggml : add mmla kernels for quantized GEMM (#4966)
|
há 1 ano atrás |
|
test-rope.cpp
|
ec893798b7
llama : custom attention mask + parallel decoding + no context swaps (#3228)
|
há 2 anos atrás |
|
test-sampling.cpp
|
26d4efd11e
sampling: fix top_k <= 0 (#5388)
|
há 1 ano atrás |
|
test-tokenizer-0-falcon.cpp
|
f486f6e1e5
ggml : add numa options (#5377)
|
há 1 ano atrás |
|
test-tokenizer-0-falcon.py
|
f23c0359a3
ci : add flake8 to github actions (python linting) (#4129)
|
há 2 anos atrás |
|
test-tokenizer-0-llama.cpp
|
f486f6e1e5
ggml : add numa options (#5377)
|
há 1 ano atrás |
|
test-tokenizer-0-llama.py
|
f23c0359a3
ci : add flake8 to github actions (python linting) (#4129)
|
há 2 anos atrás |
|
test-tokenizer-1-bpe.cpp
|
83796e62bc
llama : refactor unicode stuff (#5992)
|
há 1 ano atrás |
|
test-tokenizer-1-llama.cpp
|
83796e62bc
llama : refactor unicode stuff (#5992)
|
há 1 ano atrás |