| .. |
|
baby-llama
|
ab336a9d5e
code : normalize enum names (#5697)
|
hace 1 año |
|
batched
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
batched-bench
|
9c67c2773d
ggml : add Flash Attention (#5021)
|
hace 1 año |
|
batched.swift
|
40f74e4d73
llama : add option to render special/control tokens (#6807)
|
hace 1 año |
|
beam-search
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
benchmark
|
5b09797321
ggml : remove old quantization functions (#5942)
|
hace 1 año |
|
convert-llama2c-to-ggml
|
07cd41d096
TypoFix (#7162)
|
hace 1 año |
|
embedding
|
ea3b0590ee
embedding : free the batch after execution (#7297)
|
hace 1 año |
|
eval-callback
|
eaf4bd8b39
eval-callback : fix conversion to float (#7184)
|
hace 1 año |
|
export-lora
|
6e4e973b26
ci : add an option to fail on compile warning (#3952)
|
hace 1 año |
|
finetune
|
3855416027
ggml : introduce bfloat16 support (#6412)
|
hace 1 año |
|
gbnf-validator
|
cbaadc9294
grammars: 1.5x faster inference w/ complex grammars (vector reserves / reuses) (#6609)
|
hace 1 año |
|
gguf
|
8228b66dbc
gguf : add option to not check tensor data (#6582)
|
hace 1 año |
|
gguf-split
|
842500144e
gguf-split: add --no-tensor-first-split (#7072)
|
hace 1 año |
|
gritlm
|
8a56075b07
gritlm : add --outdir option to hf.sh script (#6699)
|
hace 1 año |
|
imatrix
|
48b2f9c1fc
Fixed save_imatrix to match old behaviour for MoE (#7099)
|
hace 1 año |
|
infill
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
jeopardy
|
a8777ad84e
parallel : add option to load external prompt file (#3416)
|
hace 2 años |
|
llama-bench
|
e849648888
llama-bench : add pp+tg test type (#7199)
|
hace 1 año |
|
llama.android
|
1265c670fd
Revert "move ndk code to a new library (#6951)" (#7282)
|
hace 1 año |
|
llama.swiftui
|
40f74e4d73
llama : add option to render special/control tokens (#6807)
|
hace 1 año |
|
llava
|
344f9126cc
ggml : tag ggml_tensor::backend as deprecated (#7290)
|
hace 1 año |
|
lookahead
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
lookup
|
28103f4832
Server: fix seed for multiple slots (#6835)
|
hace 1 año |
|
main
|
4e3880978f
Fix memory bug in grammar parser (#7194)
|
hace 1 año |
|
main-cmake-pkg
|
b8a7a5a90f
build(cmake): simplify instructions (`cmake -B build && cmake --build build ...`) (#6964)
|
hace 1 año |
|
parallel
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
passkey
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
perplexity
|
1c570d8bee
perplexity: add BF16 vs. FP16 results (#7150)
|
hace 1 año |
|
quantize
|
ad52d5c259
doc: add references to hugging face GGUF-my-repo quantisation web tool. (#7288)
|
hace 1 año |
|
quantize-stats
|
8843a98c2b
Improve usability of --model-url & related flags (#6930)
|
hace 1 año |
|
retrieval
|
64e7b47c69
examples : add "retrieval" (#6193)
|
hace 1 año |
|
rpc
|
9afdffe70e
rpc : get available mem for the CPU backend
|
hace 1 año |
|
save-load-state
|
beea6e1b16
llama : save and restore kv cache for single seq id (#6341)
|
hace 1 año |
|
server
|
ee94172d33
server : add support for the RPC backend (#7305)
|
hace 1 año |
|
simple
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
speculative
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
hace 1 año |
|
sycl
|
04976db7a8
docs: fix typos (#7124)
|
hace 1 año |
|
tokenize
|
1b67731e18
BERT tokenizer fixes (#6498)
|
hace 1 año |
|
train-text-from-scratch
|
8b1b1f4982
train : add general name (#6752)
|
hace 1 año |
|
CMakeLists.txt
|
5e31828d3e
ggml : add RPC backend (#6829)
|
hace 1 año |
|
Miku.sh
|
019fe257bb
MIKU MAYHEM: Upgrading the Default Model for Maximum Fun 🎉 (#2287)
|
hace 2 años |
|
alpaca.sh
|
a17a2683d8
alpaca.sh : update model file name (#2074)
|
hace 2 años |
|
base-translate.sh
|
96e80dabc6
examples : improve base-translate.sh script (#4783)
|
hace 2 años |
|
chat-13B.bat
|
d9ad104440
Create chat-13B.bat (#592)
|
hace 2 años |
|
chat-13B.sh
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
hace 2 años |
|
chat-persistent.sh
|
ac2219fef3
llama : fix session saving/loading (#3400)
|
hace 2 años |
|
chat-vicuna.sh
|
c36e81da62
examples : add chat-vicuna.sh (#1854)
|
hace 2 años |
|
chat.sh
|
8341a25957
main : log file (#2748)
|
hace 2 años |
|
gpt4all.sh
|
107980d970
examples : add -n to alpaca and gpt4all scripts (#706)
|
hace 2 años |
|
json-schema-pydantic-example.py
|
5b7b0ac8df
json-schema-to-grammar improvements (+ added to server) (#5978)
|
hace 1 año |
|
json_schema_to_grammar.py
|
ab9a3240a9
JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555)
|
hace 1 año |
|
llama.vim
|
125d03a503
llama.vim : added api key support (#5090)
|
hace 2 años |
|
llama2-13b.sh
|
73643f5fb1
gitignore : changes for Poetry users + chat examples (#2284)
|
hace 2 años |
|
llama2.sh
|
73643f5fb1
gitignore : changes for Poetry users + chat examples (#2284)
|
hace 2 años |
|
llm.vim
|
ad9ddcff6e
llm.vim : stop generation at multiple linebreaks, bind to <F2> (#2879)
|
hace 2 años |
|
make-ggml.py
|
ac43576124
make-ggml.py : compatibility with more models and GGUF (#3290)
|
hace 2 años |
|
pydantic-models-to-grammar-examples.py
|
d292f4f204
examples : make pydantic scripts pass mypy and support py3.8 (#5099)
|
hace 2 años |
|
pydantic_models_to_grammar.py
|
d292f4f204
examples : make pydantic scripts pass mypy and support py3.8 (#5099)
|
hace 2 años |
|
reason-act.sh
|
7c2227a197
chmod : make scripts executable (#2675)
|
hace 2 años |
|
regex-to-grammar.py
|
ab9a3240a9
JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555)
|
hace 1 año |
|
server-embd.py
|
2002bc96bf
server : refactor (#5882)
|
hace 1 año |
|
server-llama2-13B.sh
|
7c2227a197
chmod : make scripts executable (#2675)
|
hace 2 años |
|
ts-type-to-grammar.sh
|
ab9a3240a9
JSON schema conversion: ⚡️ faster repetitions, min/maxLength for strings, cap number length (#6555)
|
hace 1 año |