Xuan Son Nguyen 3573fa8e7b server : (refactor) no more json in server_task input (#10691) há 1 ano atrás
..
batched 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
batched-bench 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
batched.swift 0abc6a2c25 llama : llama_perf + option to disable timings during decode (#9355) há 1 ano atrás
convert-llama2c-to-ggml 8648c52101 make : deprecate (#10514) há 1 ano atrás
cvector-generator 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
deprecation-warning f112d198cd Update deprecation-warning.cpp (#10619) há 1 ano atrás
embedding 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
eval-callback 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
export-lora 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gbnf-validator 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gen-docs 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gguf 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gguf-hash 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gguf-split 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
gritlm 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
imatrix 8648c52101 make : deprecate (#10514) há 1 ano atrás
infill 82bca2257b readme : add option, update default value, fix formatting (#10271) há 1 ano atrás
jeopardy 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
llama-bench 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
llama.android cda0e4b648 llama : remove all_pos_0, all_pos_1, all_seq_id from llama_batch (#9745) há 1 ano atrás
llama.swiftui 55e47786e3 llama : default sampling changes + greedy update (#9897) há 1 ano atrás
llava 01e6d9bb71 clip : add sycl support (#10574) há 1 ano atrás
lookahead 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
lookup 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
main 82bca2257b readme : add option, update default value, fix formatting (#10271) há 1 ano atrás
main-cmake-pkg 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
parallel 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
passkey 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
perplexity 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
quantize 19d8762ab6 ggml : refactor online repacking (#10446) há 1 ano atrás
quantize-stats 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
retrieval 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
rpc 9f40989351 ggml : move CPU backend to a separate file (#10144) há 1 ano atrás
run 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
save-load-state 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
server 3573fa8e7b server : (refactor) no more json in server_task input (#10691) há 1 ano atrás
simple 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
simple-chat 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
speculative 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
speculative-simple 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
sycl faf67b3de4 [SYCL]set context default value to avoid memory issue, update guide (#9476) há 1 ano atrás
tokenize 7cc2d2c889 ggml : move AMX to the CPU backend (#10570) há 1 ano atrás
CMakeLists.txt ab96610b1e cmake : enable warnings in llama (#10474) há 1 ano atrás
Miku.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) há 2 anos atrás
chat-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
chat-persistent.sh 8fc393f246 scripts : fix pattern and get n_tokens in one go (#10221) há 1 ano atrás
chat-vicuna.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
chat.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
convert_legacy_llama.py a0ec17b32e metadata: Detailed Dataset Authorship Metadata (#8875) há 1 ano atrás
json_schema_pydantic_example.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) há 1 ano atrás
json_schema_to_grammar.py 66c2c93082 grammar : fix JSON Schema for string regex with top-level alt. (#9903) há 1 ano atrás
llama.vim 2d3aba9ee8 llama.vim : bump generation time limit to 3s [no ci] há 1 ano atrás
llm.vim ad9ddcff6e llm.vim : stop generation at multiple linebreaks, bind to <F2> (#2879) há 2 anos atrás
pydantic_models_to_grammar.py 090fca7a07 pydantic : replace uses of __annotations__ with get_type_hints (#8474) há 1 ano atrás
pydantic_models_to_grammar_examples.py 22f281aa16 examples : Rewrite pydantic_models_to_grammar_examples.py (#8493) há 1 ano atrás
reason-act.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
regex_to_grammar.py e235b267a2 py : switch to snake_case (#8305) há 1 ano atrás
server-llama2-13B.sh 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
server_embd.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) há 1 ano atrás
ts-type-to-grammar.sh ab9a3240a9 JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555) há 1 ano atrás