Georgi Gerganov
|
dae06c06e5
Revert "finetune : add --n-gpu-layers flag info to --help (#4128)"
|
2 лет назад |
Clark Saben
|
05e8301e45
finetune : add --n-gpu-layers flag info to --help (#4128)
|
2 лет назад |
Jiří Podivín
|
ba4cf5c0bf
train : move number of gpu layers argument parsing to common/train.cpp (#4074)
|
2 лет назад |
Andrew Godfrey
|
947f64f163
finetune : zero the loraB initial vectors (#4082)
|
2 лет назад |
Georgi Gerganov
|
4760e7cc0b
sync : ggml (backend v2) (#3912)
|
2 лет назад |
xaedes
|
e9c1cecb9d
ggml : fix backward rope after YaRN (#3974)
|
2 лет назад |
cebtenzzre
|
898aeca90a
llama : implement YaRN RoPE scaling (#2268)
|
2 лет назад |
Andrew Godfrey
|
73bdcb395e
finetune : add -ngl parameter (#3762)
|
2 лет назад |
slaren
|
424b6381c4
ggml : add context enumeration functions (#3605)
|
2 лет назад |
xaedes
|
a03ce38455
finetune : fix #3404 (#3437)
|
2 лет назад |
Georgi Gerganov
|
bc34dd4f5b
train : fix KQ_pos allocation (#3392)
|
2 лет назад |
slaren
|
16bc66d947
llama.cpp : split llama_context_params into model and context params (#3301)
|
2 лет назад |
xaedes
|
0e76a8992c
train : finetune LORA (#2632)
|
2 лет назад |