Diego Devesa f061021206 llama : print size and type of overridden tensors (#13364) 8 luni în urmă
..
CMakeLists.txt 13b4548877 cmake : do not include ./src as public for libllama (#13062) 8 luni în urmă
llama-adapter.cpp f28bc4c286 llama : make loras compatible with repacking (#12593) 9 luni în urmă
llama-adapter.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 luni în urmă
llama-arch.cpp 5f5e39e1ba model : Nomic Embed Text V2 with Mixture-of-Experts (MoE) architecture (#12466) 8 luni în urmă
llama-arch.h 5f5e39e1ba model : Nomic Embed Text V2 with Mixture-of-Experts (MoE) architecture (#12466) 8 luni în urmă
llama-batch.cpp c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-batch.h c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-chat.cpp 2af6880178 llama-chat : reset glmedge chat template (#13253) 8 luni în urmă
llama-chat.h e5d6c2554e llama-chat : fix typo GML --> GLM (#13143) 8 luni în urmă
llama-context.cpp a75cb30dc9 context : fix reorder logic (#13267) 8 luni în urmă
llama-context.h c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-cparams.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 an în urmă
llama-cparams.h 8fcb563613 Load all MoE experts during warmup (#11571) 10 luni în urmă
llama-grammar.cpp 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) 10 luni în urmă
llama-grammar.h 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) 10 luni în urmă
llama-graph.cpp 2f54e348ad llama : fix build_ffn without gate (#13336) 8 luni în urmă
llama-graph.h c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-hparams.cpp 081bee8c64 hparams : add SWA rope parameters (#12374) 10 luni în urmă
llama-hparams.h 5f5e39e1ba model : Nomic Embed Text V2 with Mixture-of-Experts (MoE) architecture (#12466) 8 luni în urmă
llama-impl.cpp 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) 1 an în urmă
llama-impl.h fef0cbeadf cleanup: fix compile warnings associated with gnu_printf (#11811) 11 luni în urmă
llama-io.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 luni în urmă
llama-io.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 luni în urmă
llama-kv-cache.cpp c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-kv-cache.h c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-memory.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 luni în urmă
llama-memory.h c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 luni în urmă
llama-mmap.cpp c54f6b7988 mmap : skip resource limit checks on AIX (#12541) 9 luni în urmă
llama-mmap.h 19b392d58d llama-mmap: fix missing include (#11796) 11 luni în urmă
llama-model-loader.cpp 833e2b7409 model : print tensor size during load (#12711) 9 luni în urmă
llama-model-loader.h e0e912f49b llama : add option to override model tensor buffers (#11397) 9 luni în urmă
llama-model.cpp f061021206 llama : print size and type of overridden tensors (#13364) 8 luni în urmă
llama-model.h 3bf785f3ef llama : Llama-3_1-Nemotron-Ultra-253B-v1 support (#12843) 8 luni în urmă
llama-quant.cpp 71e90e8813 quantize: Handle user-defined quantization levels for additional tensors (#12511) 9 luni în urmă
llama-quant.h f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 an în urmă
llama-sampling.cpp ffc727203a sampling : make top_n_sigma no-op at <=0 or a single candidate (#13345) 8 luni în urmă
llama-sampling.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 an în urmă
llama-vocab.cpp ecda2ec4b3 mtmd : Support Pixtral 12B (#13065) 8 luni în urmă
llama-vocab.h 08f10f69c3 llama : remove notion of CLS token (#11064) 1 an în urmă
llama.cpp e0e912f49b llama : add option to override model tensor buffers (#11397) 9 luni în urmă
unicode-data.cpp 458367a906 server : better security control for public deployments (#9776) 1 an în urmă
unicode-data.h a39ab216aa llama : reduce compile time and binary size (#9712) 1 an în urmă
unicode.cpp 68ff663a04 repo : update links to new url (#11886) 11 luni în urmă
unicode.h 08ea539df2 unicode : improve naming style (#10838) 1 an în urmă