Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Georgi Gerganov cf0e3ba150 model : avoid ggml_cont_3d for fused QKV weights (#15662) 4 luni în urmă
  Georgi Gerganov c610b6c11b kv-cache : fix SWA checks + disable cacheless iSWA (#15811) 4 luni în urmă
  Daniel Bevenius fb15d649ed llama : add support for EmbeddingGemma 300m (#15798) 4 luni în urmă
  Daniel Bevenius 2c8dac72eb llama : fix incorrect model type for Gemma 270M (#15764) 4 luni în urmă
  Johannes Gäßler e81b8e4b7f llama: use FA + max. GPU layers by default (#15434) 4 luni în urmă
  Gabe Goodhart e8d99dd0b6 nvidia nemotron nano v2 (nemotronh) (#15507) 4 luni în urmă
  Sigbjørn Skjæret 84ab83cc0b model : jina-embeddings-v3 support (#13693) 4 luni în urmă
  Georgi Gerganov b730706a49 kv-cache : support layer reuse (#15504) 4 luni în urmă
  Piotr Wilkin (ilintar) b1afcab804 model : add support for Seed-OSS (#15490) 4 luni în urmă
  Tarek Dakhran e288693669 readme : model : mtdm : lfm2 improvements (#15476) 5 luni în urmă
  Georgi Gerganov 3f196be84b graph : remove build_attn_with_sinks overload (#15469) 5 luni în urmă
  Georgi Gerganov 715a6db02c kv-cache : drop the "unified" prefix (#15467) 5 luni în urmă
  Georgi Gerganov 9ef6b0b835 model : add gpt-oss type strings (#15424) 5 luni în urmă
  Sigbjørn Skjæret baa9255a45 llama : merge conts and reshapes and remove unnecessary cont (#15380) 5 luni în urmă
  Daniel Bevenius 7a0de96045 llama : add 18-layer model type for Gemma 3-270m (#15319) 5 luni în urmă
  Georgi Gerganov fd1234cb46 llama : add gpt-oss (#15091) 5 luni în urmă
  Juk Armstrong c81de6e107 Fix `glm4moe` bug (#15088) 5 luni în urmă
  Sam ef0144c087 model: support GLM 4.5 family of models (#14939) 5 luni în urmă
  compilade 11a3811164 memory : handle kv_unified for hybrid models (#15050) 5 luni în urmă
  Douglas Hanley 339bd0268c model : support Qwen3-Embedding (#15023) 5 luni în urmă
  stevenkuang 0f5ccd6fd1 model : add hunyuan dense (#14878) 5 luni în urmă
  Diego Devesa d6818d06a6 llama : allow other bufts when overriding to CPU, add --no-repack option (#14990) 5 luni în urmă
  Dongliang Wei c1dacaa99b llama : merge build_moe_ffn_from_probs function into build_moe_ffn (#14968) 5 luni în urmă
  Aman Gupta 8a4a856277 Add LLaDA 8b Diffusion model (#14771) 5 luni în urmă
  Dongliang Wei 6c6e397aff model : add support for SmallThinker series (#14898) 5 luni în urmă
  Gabriel Larson 4762ad7316 model : make rope_yarn_log_mul optional for deepseek2 (#14896) 5 luni în urmă
  Shunta Saito 1dc9614e06 llama : fix kq_scale for the attention layers of PLaMo2 (#14892) 5 luni în urmă
  yummy 86f5623d90 llama : fix MiniCPM inference after Granite Four changes (#14850) 5 luni în urmă
  Molly Sophia d4d1522b20 llama : add model type detection for rwkv7 7B&14B (#14816) 6 luni în urmă
  Georgi Gerganov eacdeb5bfc model : fix build after merge conflict (#14754) 6 luni în urmă