Xuan-Son Nguyen 7c727fbe39 arg : add --no-mmproj-offload (#13093) 8 ヶ月 前
..
batched 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
batched-bench 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
batched.swift e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
convert-llama2c-to-ggml afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 年間 前
cvector-generator e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
deprecation-warning f112d198cd Update deprecation-warning.cpp (#10619) 1 年間 前
embedding e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
eval-callback afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 年間 前
export-lora 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
gbnf-validator 8b576b6c55 Tool call support (generic + native for Llama, Functionary, Hermes, Mistral, Firefunction, DeepSeek) w/ lazy grammars (#9639) 11 ヶ月 前
gen-docs 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) 1 年間 前
gguf 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) 1 年間 前
gguf-hash 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) 1 年間 前
gguf-split 23106f94ea gguf-split : --merge now respects --dry-run option (#12681) 9 ヶ月 前
gritlm 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
imatrix e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
infill e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
jeopardy 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
llama-bench e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
llama.android bd3f59f812 cmake : enable curl by default (#12761) 9 ヶ月 前
llama.swiftui e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
llava 7c727fbe39 arg : add --no-mmproj-offload (#13093) 8 ヶ月 前
lookahead e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
lookup e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
main 6408210082 main : Fix Ctrl+D/newline handling (#12951) 9 ヶ月 前
parallel a10b36c91a llama : refactor kv cache guard (#12695) 9 ヶ月 前
passkey 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
perplexity 4ccea213bc hellaswag: display estimated score confidence interval (#12797) 9 ヶ月 前
quantize 71e90e8813 quantize: Handle user-defined quantization levels for additional tensors (#12511) 9 ヶ月 前
quantize-stats e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
retrieval e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
rpc 2cca6c01e4 rpc : add command line option for number of threads for the CPU backend (#13060) 8 ヶ月 前
run b2034c2b55 contrib: support modelscope community (#12664) 9 ヶ月 前
save-load-state e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
server 35370ba945 server : use std::move whenever possible (#12936) 9 ヶ月 前
simple afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 年間 前
simple-chat e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) 10 ヶ月 前
simple-cmake-pkg 68ff663a04 repo : update links to new url (#11886) 11 ヶ月 前
speculative 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
speculative-simple 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
sycl 81c7e64fc2 dsiable curl lib check, this action is missed by commit bd3f59f81289b920bcc597a208c14f55e39ed37e (#12761) (#12937) 9 ヶ月 前
tokenize afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 年間 前
tts 267c1399f1 common : refactor downloading system, handle mmproj with -hf option (#12694) 9 ヶ月 前
CMakeLists.txt 0bf2d10c55 tts : add OuteTTS support (#10784) 1 年間 前
Miku.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) 2 年 前
chat-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
chat-persistent.sh 8fc393f246 scripts : fix pattern and get n_tokens in one go (#10221) 1 年間 前
chat-vicuna.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
chat.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
convert_legacy_llama.py a0ec17b32e metadata: Detailed Dataset Authorship Metadata (#8875) 1 年間 前
json_schema_pydantic_example.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) 1 年間 前
json_schema_to_grammar.py 669912d9a5 `tool-call`: fix Qwen 2.5 Coder support, add micro benchmarks, support trigger patterns for lazy grammars (#12034) 10 ヶ月 前
llama.vim 68ff663a04 repo : update links to new url (#11886) 11 ヶ月 前
llm.vim ad9ddcff6e llm.vim : stop generation at multiple linebreaks, bind to <F2> (#2879) 2 年 前
pydantic_models_to_grammar.py 090fca7a07 pydantic : replace uses of __annotations__ with get_type_hints (#8474) 1 年間 前
pydantic_models_to_grammar_examples.py 68ff663a04 repo : update links to new url (#11886) 11 ヶ月 前
reason-act.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
regex_to_grammar.py e235b267a2 py : switch to snake_case (#8305) 1 年間 前
server-llama2-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 年間 前
server_embd.py a19b5cef16 llama : fix FA when KV cache is not used (i.e. embeddings) (#12825) 9 ヶ月 前
ts-type-to-grammar.sh ab9a3240a9 JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555) 1 年間 前