История коммитов

Автор SHA1 Сообщение Дата
  katsu560 5743ca8092 k-quants : add AVX support to dot functions (#1916) 2 лет назад
  Georgi Gerganov 412c60e473 readme : add link to new k-quants for visibility 2 лет назад
  Kawrakow 6769e944c7 k-quants : support for super-block size of 64 (#2001) 2 лет назад
  Howard Su cbebf61ca7 Fix assert when free invalid cuda pointer (#2005) 2 лет назад
  Georgi Gerganov 447ccbe8c3 readme : add new roadmap + manifesto 2 лет назад
  Georgi Gerganov bd34cdde38 ggml : sync latest ggml (custom operators) 2 лет назад
  anon998 c2a08f87b8 fix server sampling: top k sampler first (#1977) 2 лет назад
  Georgi Gerganov 66a2555ba6 readme : add Azure CI discussion link 2 лет назад
  sjinzh e65ca7e14a zig : upgrade build system support (#1981) 2 лет назад
  Robyn 5ec8dd5a3c #1869 Fix null reference errors when training from scratch with CUDA (#1907) 2 лет назад
  Georgi Gerganov 65bdd52a86 tests : sync test-grad0 from ggml 2 лет назад
  Rowan Hart fdd1860911 flake : fix ggml-metal.metal path and run nixfmt (#1974) 2 лет назад
  AN Long c943d823c1 convert : fix invalid params in write_vocab_only (#1975) 2 лет назад
  slaren f2c754e1c3 ggml : improve ggml_graph_dump_dot, add ggml_format_name (#1978) 2 лет назад
  Georgi Gerganov 11da1a85cd readme : fix whitespaces 2 лет назад
  Alberto 235b610d65 readme : fixed termux instructions (#1973) 2 лет назад
  Alex Renda b061ba9e2a llama : fix top-p sampling to match the canonical definition (#1953) 2 лет назад
  Didzis Gosko 527b6fba1d llama : make model stateless and context stateful (llama_state) (#1797) 2 лет назад
  eiery d7b7484f74 Add OpenLLaMA instructions to the README (#1954) 2 лет назад
  Erik Scholz 7487137227 rework convert.py to read hyper-parameters from config.json (#1958) 2 лет назад
  Johannes Gäßler bbca06e269 cmake: revert CUDA arch default to 52, 61 if f16 (#1959) 2 лет назад
  Rahul Vivek Nair fb98254f99 Fix typo in README.md (#1961) 2 лет назад
  Georgi Gerganov 049aa16b8c readme : add link to p1 2 лет назад
  Xiake Sun 2322ec223a Fix typo (#1949) 2 лет назад
  Ettore Di Giacinto aacdbd4056 llama : fix params struct slignment (#1936) 2 лет назад
  Henri Vasserman 20568fe60f [Fix] Reenable server embedding endpoint (#1937) 2 лет назад
  Georgi Gerganov 18b35625c3 ggml : fix bug in LBFGS optimizer (found by ggml tests) 2 лет назад
  l3utterfly ba4e85a833 llama : use aligned memory during ggml_init call from loading saved sessions (#1934) 2 лет назад
  Georgi Gerganov 23fc5c219a cmake : fix trailing whitespaces 2 лет назад
  Kawrakow cb40dfca69 llama : only use Q6_K for output weights if tensor size is multiple of 256 (#1932) 2 лет назад