Johannes Gäßler 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
..
batched 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
batched-bench 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
batched.swift 0abc6a2c25 llama : llama_perf + option to disable timings during decode (#9355) před 1 rokem
convert-llama2c-to-ggml 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
cvector-generator 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
deprecation-warning f112d198cd Update deprecation-warning.cpp (#10619) před 1 rokem
embedding f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
eval-callback f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
export-lora 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
gbnf-validator 5cab3e4aaa llama : minor grammar refactor (#10897) před 1 rokem
gen-docs 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) před 1 rokem
gguf 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
gguf-hash 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
gguf-split 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
gritlm 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
imatrix f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
infill f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
jeopardy 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
llama-bench 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
llama.android c250ecb315 android : fix llama_batch free (#11014) před 1 rokem
llama.swiftui 43ed389a3f llama : use cmake for swift build (#10525) před 1 rokem
llava 53ff6b9b9f GGUF: C++ refactor, backend support, misc fixes (#11030) před 1 rokem
lookahead f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
lookup f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
main 727368c60f llama : use LLAMA_TOKEN_NULL (#11062) před 1 rokem
main-cmake-pkg 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) před 1 rokem
parallel f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
passkey 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
perplexity f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
quantize 1a31d0dc00 Update README.md (#10772) před 1 rokem
quantize-stats 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
retrieval f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
rpc 86bf31cfe6 rpc-server : add support for the SYCL backend (#10934) před 1 rokem
run dc7cef9f37 llama-run : fix context size (#11094) před 1 rokem
save-load-state f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
server e6e7c75d94 server : fix extra BOS in infill endpoint (#11106) před 1 rokem
simple 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
simple-chat 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
speculative f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
speculative-simple f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
sycl faf67b3de4 [SYCL]set context default value to avoid memory issue, update guide (#9476) před 1 rokem
tokenize 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
tts f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
CMakeLists.txt 0bf2d10c55 tts : add OuteTTS support (#10784) před 1 rokem
Miku.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) před 2 roky
chat-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
chat-persistent.sh 8fc393f246 scripts : fix pattern and get n_tokens in one go (#10221) před 1 rokem
chat-vicuna.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
chat.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
convert_legacy_llama.py a0ec17b32e metadata: Detailed Dataset Authorship Metadata (#8875) před 1 rokem
json_schema_pydantic_example.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) před 1 rokem
json_schema_to_grammar.py 66c2c93082 grammar : fix JSON Schema for string regex with top-level alt. (#9903) před 1 rokem
llama.vim 2d3aba9ee8 llama.vim : bump generation time limit to 3s [no ci] před 1 rokem
llm.vim ad9ddcff6e llm.vim : stop generation at multiple linebreaks, bind to <F2> (#2879) před 2 roky
pydantic_models_to_grammar.py 090fca7a07 pydantic : replace uses of __annotations__ with get_type_hints (#8474) před 1 rokem
pydantic_models_to_grammar_examples.py 22f281aa16 examples : Rewrite pydantic_models_to_grammar_examples.py (#8493) před 1 rokem
reason-act.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
regex_to_grammar.py e235b267a2 py : switch to snake_case (#8305) před 1 rokem
server-llama2-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
server_embd.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) před 1 rokem
ts-type-to-grammar.sh ab9a3240a9 JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555) před 1 rokem