magicse 333820d749 llama : fix progress dots (#11730) před 11 měsíci
..
CMakeLists.txt 6171c9d258 Add Jinja template support (#11016) před 1 rokem
llama-adapter.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-adapter.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-arch.cpp 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llama-arch.h 6171c9d258 Add Jinja template support (#11016) před 1 rokem
llama-batch.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-batch.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-chat.cpp 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llama-chat.h 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llama-context.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-context.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-cparams.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-cparams.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-grammar.cpp 90f9b88afb nit: more informative crash when grammar sampler fails (#11593) před 11 měsíci
llama-grammar.h 8b576b6c55 Tool call support (generic + native for Llama, Functionary, Hermes, Mistral, Firefunction, DeepSeek) w/ lazy grammars (#9639) před 11 měsíci
llama-hparams.cpp ee7136c6d1 llama: add support for QRWKV6 model architecture (#11001) před 1 rokem
llama-hparams.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-impl.cpp 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
llama-impl.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-kv-cache.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-kv-cache.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-mmap.cpp 90d987b105 mmap: add include for cerrno (#11296) před 1 rokem
llama-mmap.h ae2f606bb5 mmap : fix fileno macro clash (#11076) před 1 rokem
llama-model-loader.cpp a5203b4465 llama : minor fixes for up llama load model speed (#11448) před 11 měsíci
llama-model-loader.h 681149ced2 llama : add `llama_model_load_from_splits` (#11255) před 1 rokem
llama-model.cpp 9dd7a0390f llama : add log about loading model tensors (#11699) před 11 měsíci
llama-model.h 667d72846c rpc : early register backend devices (#11262) před 1 rokem
llama-quant.cpp 681149ced2 llama : add `llama_model_load_from_splits` (#11255) před 1 rokem
llama-quant.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-sampling.cpp 7ee953a64a llama : add llama_sampler_init for safe usage of llama_sampler_free (#11727) před 11 měsíci
llama-sampling.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-vocab.cpp ffd0821c57 vocab : correctly identify LF token for GPT-2 style BPE tokenizer (#11496) před 11 měsíci
llama-vocab.h 08f10f69c3 llama : remove notion of CLS token (#11064) před 1 rokem
llama.cpp 333820d749 llama : fix progress dots (#11730) před 11 měsíci
unicode-data.cpp 458367a906 server : better security control for public deployments (#9776) před 1 rokem
unicode-data.h a39ab216aa llama : reduce compile time and binary size (#9712) před 1 rokem
unicode.cpp 4dd34ff831 cmake : add sanitizer flags for llama.cpp (#11279) před 1 rokem
unicode.h 08ea539df2 unicode : improve naming style (#10838) před 1 rokem