Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Xuan-Son Nguyen cd3c118908 model: support Ministral3 (#17644) 1 lună în urmă
  Aman Gupta 6eea666912 llama-graph: avoid expand_forward for fusion (#17633) 1 lună în urmă
  Georgi Gerganov 583cb83416 ggml : add ggml_top_k (#17365) 2 luni în urmă
  Aman Gupta a90eb94ca9 CUDA: fuse rope + set_rows (#16884) 2 luni în urmă
  Sigbjørn Skjæret 9008027aa3 hparams : add n_embd_inp() to support extended embed (#16928) 2 luni în urmă
  Jan Boon d7395115ba llama : use std::abs instead of abs (#16853) 3 luni în urmă
  Sigbjørn Skjæret f696428ce8 graph : add clamping to ffn_moe_weights_sum to avoid div-by-zero (#16655) 3 luni în urmă
  Aman Gupta f77c13b91f CUDA: General GEMV fusion (#16715) 3 luni în urmă
  Sigbjørn Skjæret 84bf3c6778 model : add BailingMoeV2 support (#16063) 3 luni în urmă
  Georgi Gerganov e60f241eac metal : FA support F32 K and V and head size = 32 (#16531) 3 luni în urmă
  Georgi Gerganov e38b7c6e9e graph : support cacheless embeddings with FA and iSWA (#16528) 3 luni în urmă
  Saba Fallah e08db42595 model: EmbeddingGemma Adding Support for SentenceTransformers Dense Modules (#16367) 3 luni în urmă
  Sigbjørn Skjæret 835b2b915c model : add GroveMoE support (#15510) 4 luni în urmă
  Aman Gupta 077c94d0ca CUDA: add a fused top-K MoE kernel (#16130) 4 luni în urmă
  Douglas Hanley b5bd037832 llama : add support for qwen3 reranker (#15824) 4 luni în urmă
  Sigbjørn Skjæret b8e09f08b9 model : add grok-2 support (#15539) 4 luni în urmă
  Sigbjørn Skjæret 6ab397e12b graph : support non-contiguous Q in build_attn_mha (#15908) 4 luni în urmă
  Georgi Gerganov 663027fd54 context : fix n_outputs during reserve (#15858) 4 luni în urmă
  Georgi Gerganov c610b6c11b kv-cache : fix SWA checks + disable cacheless iSWA (#15811) 4 luni în urmă
  Daniel Bevenius fb15d649ed llama : add support for EmbeddingGemma 300m (#15798) 4 luni în urmă
  Johannes Gäßler e81b8e4b7f llama: use FA + max. GPU layers by default (#15434) 5 luni în urmă
  Georgi Gerganov 8a4280ce43 kv-cache : remove LLAMA_SET_ROWS checks (#15505) 5 luni în urmă
  Georgi Gerganov 0373486dbc graph : fix assert in memory-less build_attn (#15590) 5 luni în urmă
  Georgi Gerganov 3f196be84b graph : remove build_attn_with_sinks overload (#15469) 5 luni în urmă
  Georgi Gerganov 715a6db02c kv-cache : drop the "unified" prefix (#15467) 5 luni în urmă
  Georgi Gerganov fd1234cb46 llama : add gpt-oss (#15091) 5 luni în urmă
  Sam ef0144c087 model: support GLM 4.5 family of models (#14939) 5 luni în urmă
  Dongliang Wei c1dacaa99b llama : merge build_moe_ffn_from_probs function into build_moe_ffn (#14968) 6 luni în urmă
  compilade 66625a59a5 graph : reduce splits for recurrent and hybrid models (#14825) 6 luni în urmă
  Douglas Hanley a118d80233 embeddings: fix extraction of CLS pooling results (#14927) 6 luni în urmă