Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) vor 2 Jahren
..
baby-llama f954edda93 ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360) vor 2 Jahren
benchmark 0e6cbff1b7 llama : fix compile warnings vor 2 Jahren
embedding 6456a4eb9f embedding : remove unused code (#1426) vor 2 Jahren
jeopardy 5fba3c016b examples : add Jeopardy example (#1168) vor 2 Jahren
main fb62f92433 llama : fix --mtest option (close #1414) vor 2 Jahren
perplexity f9a6364912 llama : require first token to be BOS (#1303) vor 2 Jahren
quantize b9fd7eee57 ggml : remove bit shuffling (#1405) vor 2 Jahren
quantize-stats f4cef87edf Add git-based build information for better issue tracking (#1232) vor 2 Jahren
save-load-state f4cef87edf Add git-based build information for better issue tracking (#1232) vor 2 Jahren
CMakeLists.txt f954edda93 ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360) vor 2 Jahren
Miku.sh a8a2efdc81 examples : various prompt and example fixes (#1298) vor 2 Jahren
alpaca.sh e9a9cb0c54 examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107) vor 2 Jahren
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) vor 2 Jahren
chat-13B.sh 6daa09d879 examples : read chat prompts from a template file (#1196) vor 2 Jahren
chat.sh 79b2b266db If n_predict == -1, generate forever vor 2 Jahren
common.cpp 905d87b70a ggml : GPU-accelerated token generation (#1412) vor 2 Jahren
common.h 905d87b70a ggml : GPU-accelerated token generation (#1412) vor 2 Jahren
gpt4all.sh 107980d970 examples : add -n to alpaca and gpt4all scripts (#706) vor 2 Jahren
reason-act.sh a6956b25a1 add example of re-act pattern (#583) vor 2 Jahren