Историја ревизија

Аутор SHA1 Порука Датум
  Georgi Gerganov 0fc16b42e8 kv-cache : split implementation in separate sources (#13920) пре 7 месеци
  Georgi Gerganov 12d0188c0d kv-cache : refactor + add llama_memory_state_i (#13746) пре 7 месеци
  Xuan-Son Nguyen 763d06edb7 llama : fix KV shift for qwen2vl (#13870) пре 7 месеци
  Đinh Trọng Huy e0e3aa231d llama : add support for BertForSequenceClassification reranker (#13858) пре 7 месеци
  0cc4m 259469c4b5 Move GLM4 f32 attention fix to the correct function (#13750) пре 7 месеци
  Georgi Gerganov b44890df2e model : disable SWA for Phi models (#13676) пре 8 месеци
  0cc4m c9c64dee57 Set GLM4 blk.*.attn_output.weight, kqv_out-* matmul to GGML_PREC_F32 to fix infinity values in output (#13639) пре 8 месеци
  Georgi Gerganov e298d2fbd0 kv-cache : add SWA support (#13194) пре 8 месеци
  Johannes Gäßler 10d2af0eaa llama/ggml: add LLM training support (#10544) пре 8 месеци
  Johannes Gäßler 0cf6725e9f CUDA: FA support for Deepseek (Ampere or newer) (#13306) пре 8 месеци
  Xuan-Son Nguyen 2f54e348ad llama : fix build_ffn without gate (#13336) пре 8 месеци
  Georgi Gerganov c642bc014c kv-cache : separate recurrent vs non-recurrent impl (#12799) пре 8 месеци
  Xuan-Son Nguyen b6ce7430b7 llama-graph : fix text position for mrope (#13159) пре 8 месеци
  AT 5f5e39e1ba model : Nomic Embed Text V2 with Mixture-of-Experts (MoE) architecture (#12466) пре 8 месеци
  Xuan-Son Nguyen d2b2031e5f llama : (mrope) allow using normal 1D position for text token (#13138) пре 8 месеци
  City 558a764713 Force FP32 compute in GLM4 FFN Down (#13101) пре 8 месеци
  Georgi Gerganov 2f74c354c0 graph : make FA compatible with MLA + add initial Metal kernels (#12953) пре 9 месеци
  Juk Armstrong daa422881a llama : DeepSeek V2/V3 MLA implementation (#12801) пре 9 месеци
  Georgi Gerganov a19b5cef16 llama : fix FA when KV cache is not used (i.e. embeddings) (#12825) пре 9 месеци
  Xuan-Son Nguyen 1466621e73 llama : Support llama 4 text-only (#12791) пре 9 месеци
  Xuan-Son Nguyen af6ae1efb2 llama : fix non-causal mask for gemma 3 (#12615) пре 9 месеци
  Georgi Gerganov 75422e8bc4 graph : normalize Q, K, V shapes + sync cross attention (#12449) пре 10 месеци
  fairydreaming 8fcb563613 Load all MoE experts during warmup (#11571) пре 10 месеци
  Georgi Gerganov c522ce4143 graph : simplify attn input build for unified KV cache (#12381) пре 10 месеци
  Georgi Gerganov 081bee8c64 hparams : add SWA rope parameters (#12374) пре 10 месеци
  Georgi Gerganov 84d5475541 llama : fix Gemma3 SWA KV cache shift (#12373) пре 10 месеци
  Georgi Gerganov e0dbec0bc6 llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181) пре 10 месеци