| .. |
|
benchmark
|
0e6cbff1b7
llama : fix compile warnings
|
2 tahun lalu |
|
embedding
|
67c77799e0
examples : add llama_init_from_gpt_params() common function (#1290)
|
2 tahun lalu |
|
jeopardy
|
5fba3c016b
examples : add Jeopardy example (#1168)
|
2 tahun lalu |
|
main
|
13b0c68ed7
Handle signals properly on Windows (#1123)
|
2 tahun lalu |
|
perplexity
|
67c77799e0
examples : add llama_init_from_gpt_params() common function (#1290)
|
2 tahun lalu |
|
quantize
|
f4cef87edf
Add git-based build information for better issue tracking (#1232)
|
2 tahun lalu |
|
quantize-stats
|
f4cef87edf
Add git-based build information for better issue tracking (#1232)
|
2 tahun lalu |
|
save-load-state
|
f4cef87edf
Add git-based build information for better issue tracking (#1232)
|
2 tahun lalu |
|
CMakeLists.txt
|
f0d70f147d
Various fixes to mat_mul benchmark (#1253)
|
2 tahun lalu |
|
Miku.sh
|
a8a2efdc81
examples : various prompt and example fixes (#1298)
|
2 tahun lalu |
|
alpaca.sh
|
e9a9cb0c54
examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107)
|
2 tahun lalu |
|
chat-13B.bat
|
d9ad104440
Create chat-13B.bat (#592)
|
2 tahun lalu |
|
chat-13B.sh
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 tahun lalu |
|
chat.sh
|
79b2b266db
If n_predict == -1, generate forever
|
2 tahun lalu |
|
common.cpp
|
2485d7a4d3
Process escape sequences given in prompts (#1173)
|
2 tahun lalu |
|
common.h
|
67c77799e0
examples : add llama_init_from_gpt_params() common function (#1290)
|
2 tahun lalu |
|
gpt4all.sh
|
107980d970
examples : add -n to alpaca and gpt4all scripts (#706)
|
2 tahun lalu |
|
reason-act.sh
|
a6956b25a1
add example of re-act pattern (#583)
|
2 tahun lalu |