| .. |
|
baby-llama
|
ab336a9d5e
code : normalize enum names (#5697)
|
преди 1 година |
|
batched
|
05b06210c9
llama : more consistent names of count variables (#5994)
|
преди 1 година |
|
batched-bench
|
f30ea47a87
llama : add pipeline parallelism support (#6017)
|
преди 1 година |
|
batched.swift
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
beam-search
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
benchmark
|
5b09797321
ggml : remove old quantization functions (#5942)
|
преди 1 година |
|
convert-llama2c-to-ggml
|
5d3de51f97
ggml, common, examples, tests : fixed type arguments in printf (#5528)
|
преди 1 година |
|
embedding
|
044ec4b2a5
embedding : add EOS token if not present (#899)
|
преди 1 година |
|
export-lora
|
6e4e973b26
ci : add an option to fail on compile warning (#3952)
|
преди 1 година |
|
finetune
|
ab336a9d5e
code : normalize enum names (#5697)
|
преди 1 година |
|
gguf
|
6e0438da3c
gguf : fix resource leaks (#6061)
|
преди 1 година |
|
gritlm
|
0fd6c1f015
embedding : print cosine similarity (#899)
|
преди 1 година |
|
imatrix
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
infill
|
4d4d2366fc
convert : automatically fall back to HfVocab if tokenizer.model doesn't exist (#5821)
|
преди 1 година |
|
jeopardy
|
a8777ad84e
parallel : add option to load external prompt file (#3416)
|
преди 2 години |
|
llama-bench
|
b0bc9f4a9d
llama-bench : use random tokens to improve accuracy with mixtral (#6069)
|
преди 1 година |
|
llama.android
|
7ab7b733bb
android : fix utf8 decoding error (#5935)
|
преди 1 година |
|
llama.swiftui
|
f30ea47a87
llama : add pipeline parallelism support (#6017)
|
преди 1 година |
|
llava
|
4e9a7f7f7f
llava : change API to pure C style for Rust FFI bindgen (#6079)
|
преди 1 година |
|
lookahead
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
lookup
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
main
|
05b06210c9
llama : more consistent names of count variables (#5994)
|
преди 1 година |
|
main-cmake-pkg
|
82d6eab224
main-cmake-pkg : fix build issue (#4665)
|
преди 2 години |
|
parallel
|
c2101a2e90
llama : support Mamba Selective State Space Models (#5328)
|
преди 1 година |
|
passkey
|
9d533a77d0
llama : fix defrag bugs + add parameter (#5735)
|
преди 1 година |
|
perplexity
|
f30ea47a87
llama : add pipeline parallelism support (#6017)
|
преди 1 година |
|
quantize
|
0becb22ac0
IQ4_XS: a 4.25 bpw quantization (#5747)
|
преди 1 година |
|
quantize-stats
|
52bb63c708
refactor : switch to emplace_back to avoid extra object (#5291)
|
преди 1 година |
|
save-load-state
|
df845cc982
llama : minimize size used for state save/load (#4820)
|
преди 2 години |
|
server
|
43241adf22
server: disable debug release type sanitizer, simplify trigger (#6047)
|
преди 1 година |
|
simple
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
speculative
|
29eee40474
fix speculative decoding build on windows (#5874)
|
преди 1 година |
|
sycl
|
46acb36767
fix set main gpu error (#6073)
|
преди 1 година |
|
tokenize
|
f486f6e1e5
ggml : add numa options (#5377)
|
преди 1 година |
|
train-text-from-scratch
|
6e0438da3c
gguf : fix resource leaks (#6061)
|
преди 1 година |
|
CMakeLists.txt
|
bcebd7dbf6
llama : add support for GritLM (#5959)
|
преди 1 година |
|
Miku.sh
|
019fe257bb
MIKU MAYHEM: Upgrading the Default Model for Maximum Fun 🎉 (#2287)
|
преди 2 години |
|
alpaca.sh
|
a17a2683d8
alpaca.sh : update model file name (#2074)
|
преди 2 години |
|
base-translate.sh
|
96e80dabc6
examples : improve base-translate.sh script (#4783)
|
преди 2 години |
|
chat-13B.bat
|
d9ad104440
Create chat-13B.bat (#592)
|
преди 2 години |
|
chat-13B.sh
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
преди 2 години |
|
chat-persistent.sh
|
ac2219fef3
llama : fix session saving/loading (#3400)
|
преди 2 години |
|
chat-vicuna.sh
|
c36e81da62
examples : add chat-vicuna.sh (#1854)
|
преди 2 години |
|
chat.sh
|
8341a25957
main : log file (#2748)
|
преди 2 години |
|
gpt4all.sh
|
107980d970
examples : add -n to alpaca and gpt4all scripts (#706)
|
преди 2 години |
|
json-schema-to-grammar.py
|
9d679f0fcc
examples : support minItems/maxItems in JSON grammar converter (#5039)
|
преди 1 година |
|
llama.vim
|
125d03a503
llama.vim : added api key support (#5090)
|
преди 2 години |
|
llama2-13b.sh
|
73643f5fb1
gitignore : changes for Poetry users + chat examples (#2284)
|
преди 2 години |
|
llama2.sh
|
73643f5fb1
gitignore : changes for Poetry users + chat examples (#2284)
|
преди 2 години |
|
llm.vim
|
ad9ddcff6e
llm.vim : stop generation at multiple linebreaks, bind to <F2> (#2879)
|
преди 2 години |
|
make-ggml.py
|
ac43576124
make-ggml.py : compatibility with more models and GGUF (#3290)
|
преди 2 години |
|
pydantic-models-to-grammar-examples.py
|
d292f4f204
examples : make pydantic scripts pass mypy and support py3.8 (#5099)
|
преди 2 години |
|
pydantic_models_to_grammar.py
|
d292f4f204
examples : make pydantic scripts pass mypy and support py3.8 (#5099)
|
преди 2 години |
|
reason-act.sh
|
7c2227a197
chmod : make scripts executable (#2675)
|
преди 2 години |
|
server-embd.py
|
2002bc96bf
server : refactor (#5882)
|
преди 1 година |
|
server-llama2-13B.sh
|
7c2227a197
chmod : make scripts executable (#2675)
|
преди 2 години |