Georgi Gerganov
|
ab336a9d5e
code : normalize enum names (#5697)
|
1 год назад |
Daniel Bevenius
|
263978904c
finetune : rename feed-forward tensors (w1/w2/w3) (#4839)
|
1 год назад |
Georgi Gerganov
|
3b169441df
sync : ggml (#5452)
|
1 год назад |
Daniel Bevenius
|
152d9d05e0
finetune : print sample-start/include-sample-start (#5072)
|
2 лет назад |
Daniel Bevenius
|
cec8a48470
finetune : add training data file to log message (#4979)
|
2 лет назад |
Daniel Bevenius
|
d75c232e1d
finetune : use LLAMA_FILE_MAGIC_GGLA (#4961)
|
2 лет назад |
Daniel Bevenius
|
b3a7c20b5c
finetune : remove unused includes (#4756)
|
2 лет назад |
Daniel Bevenius
|
879b690a9e
finetune : fix output formatting in print_params (#4653)
|
2 лет назад |
Georgi Gerganov
|
afefa319f1
ggml : change ggml_scale to take a float instead of tensor (#4573)
|
2 лет назад |
slaren
|
45668633fd
finetune : keep allocs alive until all allocations are done (#4486)
|
2 лет назад |
slaren
|
cafcd4f895
ggml : remove n_dims from ggml_tensor (#4469)
|
2 лет назад |
Georgi Gerganov
|
dae06c06e5
Revert "finetune : add --n-gpu-layers flag info to --help (#4128)"
|
2 лет назад |
Clark Saben
|
05e8301e45
finetune : add --n-gpu-layers flag info to --help (#4128)
|
2 лет назад |
Jiří Podivín
|
ba4cf5c0bf
train : move number of gpu layers argument parsing to common/train.cpp (#4074)
|
2 лет назад |
Andrew Godfrey
|
947f64f163
finetune : zero the loraB initial vectors (#4082)
|
2 лет назад |
Georgi Gerganov
|
4760e7cc0b
sync : ggml (backend v2) (#3912)
|
2 лет назад |
xaedes
|
e9c1cecb9d
ggml : fix backward rope after YaRN (#3974)
|
2 лет назад |
cebtenzzre
|
898aeca90a
llama : implement YaRN RoPE scaling (#2268)
|
2 лет назад |
Andrew Godfrey
|
73bdcb395e
finetune : add -ngl parameter (#3762)
|
2 лет назад |
slaren
|
424b6381c4
ggml : add context enumeration functions (#3605)
|
2 лет назад |
xaedes
|
a03ce38455
finetune : fix #3404 (#3437)
|
2 лет назад |
Georgi Gerganov
|
bc34dd4f5b
train : fix KQ_pos allocation (#3392)
|
2 лет назад |
slaren
|
16bc66d947
llama.cpp : split llama_context_params into model and context params (#3301)
|
2 лет назад |
xaedes
|
0e76a8992c
train : finetune LORA (#2632)
|
2 лет назад |