| .. |
|
LLM-questions.txt
|
a8777ad84e
parallel : add option to load external prompt file (#3416)
|
2 ani în urmă |
|
alpaca.txt
|
c85e03d12e
Revert "main : alternative instruct mode (Vicuna support, etc.) (#863)" (#982)
|
2 ani în urmă |
|
assistant.txt
|
0e89203b51
speculative : add tree-based sampling example (#3624)
|
2 ani în urmă |
|
chat-with-baichuan.txt
|
4c8643dd6e
feature : support Baichuan serial models (#3009)
|
2 ani în urmă |
|
chat-with-bob.txt
|
c85e03d12e
Revert "main : alternative instruct mode (Vicuna support, etc.) (#863)" (#982)
|
2 ani în urmă |
|
chat-with-qwen.txt
|
37c746d687
llama : add Qwen support (#4281)
|
2 ani în urmă |
|
chat-with-vicuna-v0.txt
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 ani în urmă |
|
chat-with-vicuna-v1.txt
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 ani în urmă |
|
chat.txt
|
6daa09d879
examples : read chat prompts from a template file (#1196)
|
2 ani în urmă |
|
dan-modified.txt
|
b608b55a3e
prompts : model agnostic DAN (#1304)
|
2 ani în urmă |
|
dan.txt
|
b608b55a3e
prompts : model agnostic DAN (#1304)
|
2 ani în urmă |
|
mnemonics.txt
|
6b3ae4da92
prompts : add mnemonics.txt
|
2 ani în urmă |
|
parallel-questions.txt
|
0c731ca403
prompts : fix editorconfig checks after #3416
|
2 ani în urmă |
|
reason-act.txt
|
82d146df9b
do not force the prompt file to end with a new line (#908)
|
2 ani în urmă |