| .. |
|
baby-llama
|
f954edda93
ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360)
|
2 лет назад |
|
benchmark
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 лет назад |
|
embedding
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 лет назад |
|
jeopardy
|
5fba3c016b
examples : add Jeopardy example (#1168)
|
2 лет назад |
|
main
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 лет назад |
|
perplexity
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 лет назад |
|
quantize
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 лет назад |
|
quantize-stats
|
dc271c52ed
Remove unused n_parts parameter (#1509)
|
2 лет назад |
|
save-load-state
|
dc271c52ed
Remove unused n_parts parameter (#1509)
|
2 лет назад |
|
CMakeLists.txt
|
f954edda93
ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360)
|
2 лет назад |
|
Miku.sh
|
a8a2efdc81
examples : various prompt and example fixes (#1298)
|
2 лет назад |
|
alpaca.sh
|
e9a9cb0c54
examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107)
|
2 лет назад |
|
chat-13B.bat
|
d9ad104440
Create chat-13B.bat (#592)
|
2 лет назад |
|
chat-13B.sh
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 лет назад |
|
chat-persistent.sh
|
943e6081cc
examples : add persistent chat (#1495)
|
2 лет назад |
|
chat.sh
|
79b2b266db
If n_predict == -1, generate forever
|
2 лет назад |
|
common.cpp
|
d2c59b8ba4
Fix for mingw (#1462)
|
2 лет назад |
|
common.h
|
4b7e245adf
minor : fix compile warnings
|
2 лет назад |
|
gpt4all.sh
|
107980d970
examples : add -n to alpaca and gpt4all scripts (#706)
|
2 лет назад |
|
reason-act.sh
|
a6956b25a1
add example of re-act pattern (#583)
|
2 лет назад |