Commit Verlauf

Autor SHA1 Nachricht Datum
  Stephan Walter dc271c52ed Remove unused n_parts parameter (#1509) vor 2 Jahren
  Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) vor 2 Jahren
  Georgi Gerganov 738ace394a llama : free ggml context in set / copy state data (close #1425) vor 2 Jahren
  Georgi Gerganov b9fd7eee57 ggml : remove bit shuffling (#1405) vor 2 Jahren
  Jed Fox 3924088512 Remove default arguments from sampling functions (#1343) vor 2 Jahren
  Evan Jones e216aa0463 llama : only copy used KV cache in get / set state (#1272) vor 2 Jahren
  Georgi Gerganov 0e6cbff1b7 llama : fix compile warnings vor 2 Jahren
  Robert Brisita 2bb992f034 llama : allow 0 as a seed number. (#1275) vor 2 Jahren
  Georgi Gerganov 70269cae37 llama : fix session load / save (#1263) vor 2 Jahren
  Alex Klinkhamer 90b19bd6ee llama : let context be const when accessing const data (#1261) vor 2 Jahren
  Ivan Stepanov dd7eff57d8 llama : new sampling algorithms (#1126) vor 2 Jahren
  Stephan Walter 36d19a603b Remove Q4_3 which is no better than Q5 (#1218) vor 2 Jahren
  Evan Jones 1481a9cf25 llama : add session file format and saved sessions in main (#1169) vor 2 Jahren
  Georgi Gerganov 574406dc7e ggml : add Q5_0 and Q5_1 quantization (#1187) vor 2 Jahren
  Ásgeir Bjarni Ingvarsson 87a6f846d3 Allow setting the rng seed after initialization. (#1184) vor 2 Jahren
  Georgi Gerganov 7a32fcb3b2 ggml : add Q8_0 quantization format (rename the old one to Q8_1) (ARM NEON) (#1179) vor 2 Jahren
  Georgi Gerganov c4fe84fb0d llama : refactor get / set state + remove redundant kv cache API (#1143) vor 2 Jahren
  xaedes b6e7f9b09e llama : add api for getting/setting the complete state: rng, logits, embedding and kv_cache (#1105) vor 2 Jahren
  Kawrakow 38de86a711 llama : multi-threaded quantization (#1075) vor 2 Jahren
  Georgi Gerganov e0305ead3a ggml : add Q4_3 quantization (#1082) vor 2 Jahren
  Georgi Gerganov 77a73403ca ggml : add new Q4_2 quantization (ARM only) (#1046) vor 2 Jahren
  slaren 315a95a4d3 Add LoRA support (#820) vor 2 Jahren
  Georgi Gerganov 9190e8eac8 llama : merge llama_internal.h into llama.h vor 2 Jahren
  Stephan Walter e7f6997f89 Don't crash on ftype (formerly f16) == 4 (#917) vor 2 Jahren
  Stephan Walter 3e6e70d8e8 Add enum llama_ftype, sync ggml_type to model files (#709) vor 2 Jahren
  comex f963b63afa Rewrite loading code to try to satisfy everyone: vor 2 Jahren
  unbounded 62cfc54f77 Add quantize-stats command for testing quantization (#728) vor 2 Jahren
  Christian Falch e986f94829 Added api for getting/setting the kv_cache (#685) vor 2 Jahren
  Justine Tunney 78ca9838ee Make loading weights 10-100x faster vor 2 Jahren
  anzz1 a5c42c4b13 Fix typo in llama.h (#593) vor 2 Jahren