| .. |
|
baby-llama
|
f954edda93
ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360)
|
2 년 전 |
|
benchmark
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 년 전 |
|
embedding
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 년 전 |
|
jeopardy
|
5fba3c016b
examples : add Jeopardy example (#1168)
|
2 년 전 |
|
main
|
fa84c4b3e8
Fix issue where interactive mode crashes when input exceeds ctx size (#1789)
|
2 년 전 |
|
metal
|
ecb217db4f
llama : Metal inference (#1642)
|
2 년 전 |
|
perplexity
|
ec2e10c444
llama : add llama_init_backend() API (close #1527)
|
2 년 전 |
|
quantize
|
74d4cfa343
Allow "quantizing" to f16 and f32 (#1787)
|
2 년 전 |
|
quantize-stats
|
99009e72f8
ggml : add SOTA 2,3,4,5,6 bit k-quantizations (#1684)
|
2 년 전 |
|
save-load-state
|
dc271c52ed
Remove unused n_parts parameter (#1509)
|
2 년 전 |
|
server
|
17366df842
Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703)
|
2 년 전 |
|
CMakeLists.txt
|
ecb217db4f
llama : Metal inference (#1642)
|
2 년 전 |
|
Miku.sh
|
a8a2efdc81
examples : various prompt and example fixes (#1298)
|
2 년 전 |
|
alpaca.sh
|
e9a9cb0c54
examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107)
|
2 년 전 |
|
chat-13B.bat
|
d9ad104440
Create chat-13B.bat (#592)
|
2 년 전 |
|
chat-13B.sh
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 년 전 |
|
chat-persistent.sh
|
1359b6aba5
chat-persistent.sh : use bracket expressions in grep (#1564)
|
2 년 전 |
|
chat.sh
|
79b2b266db
If n_predict == -1, generate forever
|
2 년 전 |
|
common.cpp
|
fa84c4b3e8
Fix issue where interactive mode crashes when input exceeds ctx size (#1789)
|
2 년 전 |
|
common.h
|
fa84c4b3e8
Fix issue where interactive mode crashes when input exceeds ctx size (#1789)
|
2 년 전 |
|
gpt4all.sh
|
107980d970
examples : add -n to alpaca and gpt4all scripts (#706)
|
2 년 전 |
|
reason-act.sh
|
a6956b25a1
add example of re-act pattern (#583)
|
2 년 전 |