Daniel Bevenius 9626d9351a llama : fix indentation in llama-grammar [no ci] (#11943) 11 месяцев назад
..
CMakeLists.txt 6171c9d258 Add Jinja template support (#11016) 1 год назад
llama-adapter.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-adapter.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-arch.cpp 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) 11 месяцев назад
llama-arch.h 6171c9d258 Add Jinja template support (#11016) 1 год назад
llama-batch.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 год назад
llama-batch.h f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 год назад
llama-chat.cpp 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) 11 месяцев назад
llama-chat.h 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) 11 месяцев назад
llama-context.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-context.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-cparams.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 год назад
llama-cparams.h f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 год назад
llama-grammar.cpp 9626d9351a llama : fix indentation in llama-grammar [no ci] (#11943) 11 месяцев назад
llama-grammar.h 369be5598a llama : fix typo in llama-grammar.h [no ci] (#11816) 11 месяцев назад
llama-hparams.cpp ee7136c6d1 llama: add support for QRWKV6 model architecture (#11001) 1 год назад
llama-hparams.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-impl.cpp 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) 1 год назад
llama-impl.h fef0cbeadf cleanup: fix compile warnings associated with gnu_printf (#11811) 11 месяцев назад
llama-kv-cache.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-kv-cache.h 3e69319772 llama : update llama_decode_internal ref [no ci] (#11840) 11 месяцев назад
llama-mmap.cpp 90d987b105 mmap: add include for cerrno (#11296) 1 год назад
llama-mmap.h 19b392d58d llama-mmap: fix missing include (#11796) 11 месяцев назад
llama-model-loader.cpp a5203b4465 llama : minor fixes for up llama load model speed (#11448) 11 месяцев назад
llama-model-loader.h 681149ced2 llama : add `llama_model_load_from_splits` (#11255) 1 год назад
llama-model.cpp bdcf8b6a56 cont : fix mmap flag print (#11699) 11 месяцев назад
llama-model.h 667d72846c rpc : early register backend devices (#11262) 1 год назад
llama-quant.cpp 681149ced2 llama : add `llama_model_load_from_splits` (#11255) 1 год назад
llama-quant.h f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 год назад
llama-sampling.cpp 27e8a23300 sampling: add Top-nσ sampler (#11223) 11 месяцев назад
llama-sampling.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 год назад
llama-vocab.cpp ffd0821c57 vocab : correctly identify LF token for GPT-2 style BPE tokenizer (#11496) 11 месяцев назад
llama-vocab.h 08f10f69c3 llama : remove notion of CLS token (#11064) 1 год назад
llama.cpp bdcf8b6a56 cont : fix mmap flag print (#11699) 11 месяцев назад
unicode-data.cpp 458367a906 server : better security control for public deployments (#9776) 1 год назад
unicode-data.h a39ab216aa llama : reduce compile time and binary size (#9712) 1 год назад
unicode.cpp 68ff663a04 repo : update links to new url (#11886) 11 месяцев назад
unicode.h 08ea539df2 unicode : improve naming style (#10838) 1 год назад