История коммитов

Автор SHA1 Сообщение Дата
  Georgi Gerganov ab336a9d5e code : normalize enum names (#5697) 1 год назад
  Daniel Bevenius 263978904c finetune : rename feed-forward tensors (w1/w2/w3) (#4839) 1 год назад
  Georgi Gerganov 3b169441df sync : ggml (#5452) 1 год назад
  Daniel Bevenius 152d9d05e0 finetune : print sample-start/include-sample-start (#5072) 2 лет назад
  Daniel Bevenius cec8a48470 finetune : add training data file to log message (#4979) 2 лет назад
  Daniel Bevenius d75c232e1d finetune : use LLAMA_FILE_MAGIC_GGLA (#4961) 2 лет назад
  Daniel Bevenius b3a7c20b5c finetune : remove unused includes (#4756) 2 лет назад
  Daniel Bevenius 879b690a9e finetune : fix output formatting in print_params (#4653) 2 лет назад
  Georgi Gerganov afefa319f1 ggml : change ggml_scale to take a float instead of tensor (#4573) 2 лет назад
  slaren 45668633fd finetune : keep allocs alive until all allocations are done (#4486) 2 лет назад
  slaren cafcd4f895 ggml : remove n_dims from ggml_tensor (#4469) 2 лет назад
  Georgi Gerganov dae06c06e5 Revert "finetune : add --n-gpu-layers flag info to --help (#4128)" 2 лет назад
  Clark Saben 05e8301e45 finetune : add --n-gpu-layers flag info to --help (#4128) 2 лет назад
  Jiří Podivín ba4cf5c0bf train : move number of gpu layers argument parsing to common/train.cpp (#4074) 2 лет назад
  Andrew Godfrey 947f64f163 finetune : zero the loraB initial vectors (#4082) 2 лет назад
  Georgi Gerganov 4760e7cc0b sync : ggml (backend v2) (#3912) 2 лет назад
  xaedes e9c1cecb9d ggml : fix backward rope after YaRN (#3974) 2 лет назад
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) 2 лет назад
  Andrew Godfrey 73bdcb395e finetune : add -ngl parameter (#3762) 2 лет назад
  slaren 424b6381c4 ggml : add context enumeration functions (#3605) 2 лет назад
  xaedes a03ce38455 finetune : fix #3404 (#3437) 2 лет назад
  Georgi Gerganov bc34dd4f5b train : fix KQ_pos allocation (#3392) 2 лет назад
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) 2 лет назад
  xaedes 0e76a8992c train : finetune LORA (#2632) 2 лет назад