Cebtenzzre ebcee207b6 quantize : make output filename optional again (#2823) 2 ani în urmă
..
baby-llama eb542d3932 Add LLAMA_DEFAULT_RMS_EPS so we can change the default (#2384) 2 ani în urmă
beam_search edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
benchmark b1f4290953 cmake : install targets (#2256) 2 ani în urmă
convert-llama2c-to-ggml 230d46c723 examples : update llama2.c converter to read vocab and write models in GGUF format (#2751) 2 ani în urmă
embd-input edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
embedding edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
gguf d0cee0d36d gguf : add 64-bit support (GGUF v2) (#2821) 2 ani în urmă
gptneox-wip 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
jeopardy 7c2227a197 chmod : make scripts executable (#2675) 2 ani în urmă
llama-bench 154725c543 llama-bench : add model sizes (#2771) 2 ani în urmă
main edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
metal 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
perplexity 463173a6c0 llama : speedup tokenization (#2831) 2 ani în urmă
quantize ebcee207b6 quantize : make output filename optional again (#2823) 2 ani în urmă
quantize-stats 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
save-load-state edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
server edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
simple edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
train-text-from-scratch edd4c14817 llama : more tokenizer fixes (#2810) 2 ani în urmă
CMakeLists.txt c82742ac9c llama : add llama_beam_search() (#2267) 2 ani în urmă
Miku.sh 019fe257bb MIKU MAYHEM: Upgrading the Default Model for Maximum Fun 🎉 (#2287) 2 ani în urmă
alpaca.sh a17a2683d8 alpaca.sh : update model file name (#2074) 2 ani în urmă
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) 2 ani în urmă
chat-13B.sh 6daa09d879 examples : read chat prompts from a template file (#1196) 2 ani în urmă
chat-persistent.sh 1359b6aba5 chat-persistent.sh : use bracket expressions in grep (#1564) 2 ani în urmă
chat-vicuna.sh c36e81da62 examples : add chat-vicuna.sh (#1854) 2 ani în urmă
chat.sh 79b2b266db If n_predict == -1, generate forever 2 ani în urmă
gpt4all.sh 107980d970 examples : add -n to alpaca and gpt4all scripts (#706) 2 ani în urmă
json-schema-to-grammar.py 7c2227a197 chmod : make scripts executable (#2675) 2 ani în urmă
llama.vim 2d7baaf50f vim : streaming and more (#2495) 2 ani în urmă
llama2-13b.sh 73643f5fb1 gitignore : changes for Poetry users + chat examples (#2284) 2 ani în urmă
llama2.sh 73643f5fb1 gitignore : changes for Poetry users + chat examples (#2284) 2 ani în urmă
llm.vim 7ed8d1fe7f llm.vim : multiline autocompletion, get rid of "^@" (#2543) 2 ani în urmă
make-ggml.py 7c2227a197 chmod : make scripts executable (#2675) 2 ani în urmă
reason-act.sh 7c2227a197 chmod : make scripts executable (#2675) 2 ani în urmă
server-llama2-13B.sh 7c2227a197 chmod : make scripts executable (#2675) 2 ani în urmă