История коммитов

Автор SHA1 Сообщение Дата
  Georgi Gerganov c3ee46fab4 batch : remove logits_all flag (#14141) 7 месяцев назад
  Georgi Gerganov 9596506965 kv-cache : fix split_equal handling in unified implementation (#14130) 7 месяцев назад
  compilade a20b2b05bc context : round n_tokens to next multiple of n_seqs when reserving (#14140) 7 месяцев назад
  Georgi Gerganov 745aa5319b llama : deprecate llama_kv_self_ API (#14030) 7 месяцев назад
  Georgi Gerganov 487a5e0401 context : fix SWA-related warning for multiple sequences (#14045) 7 месяцев назад
  Sigbjørn Skjæret d17a809ef0 llama : support multiple classifier outputs and labels (#13940) 7 месяцев назад
  Georgi Gerganov 7f37b6cf1e memory : migrate from llama_kv_cache to more generic llama_memory (#14006) 7 месяцев назад
  Georgi Gerganov 9e31bec4fd context : fix pos_min initialization upon error decode (#14008) 7 месяцев назад
  Georgi Gerganov 3e63a58ef7 kv-cache : refactor the update/defrag mechanism (#13988) 7 месяцев назад
  Georgi Gerganov 803f8baf4f llama : deprecate explicit kv_self defrag/update calls (#13921) 7 месяцев назад
  Georgi Gerganov 3600cc2886 llama : use n_swa + n_ubatch cells for SWA cache (#13833) 7 месяцев назад
  Georgi Gerganov 3f55f781f1 llama : auto-batch preparation (#13845) 7 месяцев назад
  Georgi Gerganov 12d0188c0d kv-cache : refactor + add llama_memory_state_i (#13746) 7 месяцев назад
  Georgi Gerganov 4f81b33e32 llama : validate seq id batch input (#13809) 7 месяцев назад
  Georgi Gerganov 79c137f776 examples : allow extracting embeddings from decoder contexts (#13797) 7 месяцев назад
  Georgi Gerganov de2ef53a4b kv-cache : rework kv_cell (#13706) 7 месяцев назад
  Georgi Gerganov 797f2ac062 kv-cache : simplify the interface (#13660) 8 месяцев назад
  Georgi Gerganov a4090d1174 llama : remove llama_kv_cache_view API + remove deprecated (#13653) 8 месяцев назад
  Georgi Gerganov e298d2fbd0 kv-cache : add SWA support (#13194) 8 месяцев назад
  Sigbjørn Skjæret f5170c1d7a editorconfig : fix trailing whitespace from #13542 (#13546) 8 месяцев назад
  Gilad S. 017f10b5fa fix: crash when calling `llama_state_get_size` on a context without a KV cache (#13542) 8 месяцев назад
  Johannes Gäßler 10d2af0eaa llama/ggml: add LLM training support (#10544) 8 месяцев назад
  Georgi Gerganov 064cc596ac context : fix state io for memory-less contexts (#13470) 8 месяцев назад
  David Huang 7f323a589f Add `--no-op-offload` to improve `-ot` pp perf in MoE models like llama4 400B (#13386) 8 месяцев назад
  Georgi Gerganov 6562e5a4d6 context : allow cache-less context for embeddings (#13108) 8 месяцев назад
  Georgi Gerganov 51fb96b1ff context : remove logits_all flag (#13284) 8 месяцев назад
  Georgi Gerganov a75cb30dc9 context : fix reorder logic (#13267) 8 месяцев назад
  Georgi Gerganov c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) 8 месяцев назад
  ddh0 16a457facd fix typo: `n_ctx_pre_seq` -> `n_ctx_per_seq` (#13221) 8 месяцев назад
  pockers21 fb0471d175 context : do not clear output buffer on reserve (#13152) 8 месяцев назад