compilade 00d53800e0 llama-vocab : add SuperBPE pre-tokenizer (#12532) před 9 měsíci
..
CMakeLists.txt e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-adapter.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-adapter.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-arch.cpp fbdfefe74e llama : gemma3 : use output tensor if it exists in model weight (#12506) před 10 měsíci
llama-arch.h 7dfad387e3 llama: Add support for RWKV v7 architecture (#12412) před 10 měsíci
llama-batch.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-batch.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-chat.cpp 5bbe6a9fe9 ggml : portability fixes for VS 2017 (#12150) před 10 měsíci
llama-chat.h 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llama-context.cpp 568013d0cd context : clear sets containing encoder output sequence ids before storing new values (#12470) před 10 měsíci
llama-context.h 8fcb563613 Load all MoE experts during warmup (#11571) před 10 měsíci
llama-cparams.cpp f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-cparams.h 8fcb563613 Load all MoE experts during warmup (#11571) před 10 měsíci
llama-grammar.cpp 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) před 10 měsíci
llama-grammar.h 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) před 10 měsíci
llama-graph.cpp 75422e8bc4 graph : normalize Q, K, V shapes + sync cross attention (#12449) před 10 měsíci
llama-graph.h 75422e8bc4 graph : normalize Q, K, V shapes + sync cross attention (#12449) před 10 měsíci
llama-hparams.cpp 081bee8c64 hparams : add SWA rope parameters (#12374) před 10 měsíci
llama-hparams.h 7dfad387e3 llama: Add support for RWKV v7 architecture (#12412) před 10 měsíci
llama-impl.cpp 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
llama-impl.h fef0cbeadf cleanup: fix compile warnings associated with gnu_printf (#11811) před 11 měsíci
llama-io.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-io.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-kv-cache.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-kv-cache.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-memory.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-memory.h e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
llama-mmap.cpp c54f6b7988 mmap : skip resource limit checks on AIX (#12541) před 9 měsíci
llama-mmap.h 19b392d58d llama-mmap: fix missing include (#11796) před 11 měsíci
llama-model-loader.cpp a5203b4465 llama : minor fixes for up llama load model speed (#11448) před 11 měsíci
llama-model-loader.h 681149ced2 llama : add `llama_model_load_from_splits` (#11255) před 1 rokem
llama-model.cpp fbdfefe74e llama : gemma3 : use output tensor if it exists in model weight (#12506) před 10 měsíci
llama-model.h 7dfad387e3 llama: Add support for RWKV v7 architecture (#12412) před 10 měsíci
llama-quant.cpp 7dfad387e3 llama: Add support for RWKV v7 architecture (#12412) před 10 měsíci
llama-quant.h f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
llama-sampling.cpp 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) před 10 měsíci
llama-sampling.h afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llama-vocab.cpp 00d53800e0 llama-vocab : add SuperBPE pre-tokenizer (#12532) před 9 měsíci
llama-vocab.h 08f10f69c3 llama : remove notion of CLS token (#11064) před 1 rokem
llama.cpp e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) před 10 měsíci
unicode-data.cpp 458367a906 server : better security control for public deployments (#9776) před 1 rokem
unicode-data.h a39ab216aa llama : reduce compile time and binary size (#9712) před 1 rokem
unicode.cpp 68ff663a04 repo : update links to new url (#11886) před 11 měsíci
unicode.h 08ea539df2 unicode : improve naming style (#10838) před 1 rokem