| .. |
|
CMakeLists.txt
|
edc4a29eff
memory : Hybrid recurrent cache (#13979)
|
před 7 měsíci |
|
llama-adapter.cpp
|
27ebfcacba
llama : do not crash if there is no CPU backend (#13395)
|
před 8 měsíci |
|
llama-adapter.h
|
e0dbec0bc6
llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181)
|
před 10 měsíci |
|
llama-arch.cpp
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-arch.h
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-batch.cpp
|
810b9fc8b9
perplexity : provide a helpful hint for has_cpl case in split_equal error. (#15304)
|
před 5 měsíci |
|
llama-batch.h
|
01612b7409
llama : reuse compute graphs (#14482)
|
před 6 měsíci |
|
llama-chat.cpp
|
65c797c4fa
chat : fix yandex chat template (#15116)
|
před 5 měsíci |
|
llama-chat.h
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-context.cpp
|
9d262f4bad
server : remove swa_full warning (#15399)
|
před 5 měsíci |
|
llama-context.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-cparams.cpp
|
c311ac664d
cparams : rename LLAMA_MAX_PARALLEL_SEQUENCES to LLAMA_MAX_SEQ (#14188)
|
před 7 měsíci |
|
llama-cparams.h
|
225e7a1438
llama : add high-throughput mode (#14363)
|
před 6 měsíci |
|
llama-grammar.cpp
|
f5cd27b71d
`server`: streaming of tool calls and thoughts when `--jinja` is on (#12379)
|
před 7 měsíci |
|
llama-grammar.h
|
669912d9a5
`tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034)
|
před 10 měsíci |
|
llama-graph.cpp
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-graph.h
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-hparams.cpp
|
6c6e397aff
model : add support for SmallThinker series (#14898)
|
před 5 měsíci |
|
llama-hparams.h
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-impl.cpp
|
53ff6b9b9f
GGUF: C++ refactor, backend support, misc fixes (#11030)
|
před 1 rokem |
|
llama-impl.h
|
fef0cbeadf
cleanup: fix compile warnings associated with gnu_printf (#11811)
|
před 11 měsíci |
|
llama-io.cpp
|
e0dbec0bc6
llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181)
|
před 10 měsíci |
|
llama-io.h
|
e0dbec0bc6
llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181)
|
před 10 měsíci |
|
llama-kv-cache-unified-iswa.cpp
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-kv-cache-unified-iswa.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-kv-cache-unified.cpp
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-kv-cache-unified.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-kv-cells.h
|
a70c8a0c4b
kv-cache : use ggml_set_rows (#14285)
|
před 6 měsíci |
|
llama-memory-hybrid.cpp
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-memory-hybrid.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-memory-recurrent.cpp
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-memory-recurrent.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-memory.cpp
|
745f11fed0
memory : correctly handle failure in apply() (#14438)
|
před 6 měsíci |
|
llama-memory.h
|
d32e03f449
server : add SWA checkpoints (#15293)
|
před 5 měsíci |
|
llama-mmap.cpp
|
3a077146a4
llama : allow using mmap without PrefetchVirtualMemory, apply GGML_WIN_VER to llama.cpp sources (#14013)
|
před 7 měsíci |
|
llama-mmap.h
|
19b392d58d
llama-mmap: fix missing include (#11796)
|
před 11 měsíci |
|
llama-model-loader.cpp
|
fd1234cb46
llama : add gpt-oss (#15091)
|
před 5 měsíci |
|
llama-model-loader.h
|
ef0144c087
model: support GLM 4.5 family of models (#14939)
|
před 5 měsíci |
|
llama-model-saver.cpp
|
88fc854b4b
llama : improve sep token handling (#14272)
|
před 7 měsíci |
|
llama-model-saver.h
|
10d2af0eaa
llama/ggml: add LLM training support (#10544)
|
před 8 měsíci |
|
llama-model.cpp
|
9ef6b0b835
model : add gpt-oss type strings (#15424)
|
před 5 měsíci |
|
llama-model.h
|
9ef6b0b835
model : add gpt-oss type strings (#15424)
|
před 5 měsíci |
|
llama-quant.cpp
|
50aa938901
convert : support non-mxfp4 HF model (#15153)
|
před 5 měsíci |
|
llama-quant.h
|
f66f582927
llama : refactor `src/llama.cpp` (#10902)
|
před 1 rokem |
|
llama-sampling.cpp
|
f9cd68398b
sampling : make sure samplers return at least 1 token (#13822)
|
před 7 měsíci |
|
llama-sampling.h
|
afa8a9ec9b
llama : add `llama_vocab`, functions -> methods, naming (#11110)
|
před 1 rokem |
|
llama-vocab.cpp
|
b204a5a234
gpt-oss: implement harmony parsing (#15181)
|
před 5 měsíci |
|
llama-vocab.h
|
0f5ccd6fd1
model : add hunyuan dense (#14878)
|
před 5 měsíci |
|
llama.cpp
|
6adc3c3ebc
llama : add thread safety test (#14035)
|
před 7 měsíci |
|
unicode-data.cpp
|
458367a906
server : better security control for public deployments (#9776)
|
před 1 rokem |
|
unicode-data.h
|
a39ab216aa
llama : reduce compile time and binary size (#9712)
|
před 1 rokem |
|
unicode.cpp
|
4a4f426944
model : add Kimi-K2 support (#14654)
|
před 6 měsíci |
|
unicode.h
|
4a4f426944
model : add Kimi-K2 support (#14654)
|
před 6 měsíci |