Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) před 2 roky
..
baby-llama f954edda93 ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360) před 2 roky
benchmark 0e6cbff1b7 llama : fix compile warnings před 2 roky
embedding 6456a4eb9f embedding : remove unused code (#1426) před 2 roky
jeopardy 5fba3c016b examples : add Jeopardy example (#1168) před 2 roky
main fb62f92433 llama : fix --mtest option (close #1414) před 2 roky
perplexity f9a6364912 llama : require first token to be BOS (#1303) před 2 roky
quantize b9fd7eee57 ggml : remove bit shuffling (#1405) před 2 roky
quantize-stats f4cef87edf Add git-based build information for better issue tracking (#1232) před 2 roky
save-load-state f4cef87edf Add git-based build information for better issue tracking (#1232) před 2 roky
CMakeLists.txt f954edda93 ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360) před 2 roky
Miku.sh a8a2efdc81 examples : various prompt and example fixes (#1298) před 2 roky
alpaca.sh e9a9cb0c54 examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107) před 2 roky
chat-13B.bat d9ad104440 Create chat-13B.bat (#592) před 2 roky
chat-13B.sh 6daa09d879 examples : read chat prompts from a template file (#1196) před 2 roky
chat.sh 79b2b266db If n_predict == -1, generate forever před 2 roky
common.cpp 905d87b70a ggml : GPU-accelerated token generation (#1412) před 2 roky
common.h 905d87b70a ggml : GPU-accelerated token generation (#1412) před 2 roky
gpt4all.sh 107980d970 examples : add -n to alpaca and gpt4all scripts (#706) před 2 roky
reason-act.sh a6956b25a1 add example of re-act pattern (#583) před 2 roky