Историја ревизија

Аутор SHA1 Порука Датум
  Piotr Wilkin 0dd6110fdc v1.0 пре 3 месеци
  Piotr Wilkin 32dcee47ef Some attempts to get the convolution input right. пре 4 месеци
  Piotr Wilkin 7bedf4c66c Refactor llama-model.cpp пре 4 месеци
  Piotr Wilkin 9014feadfa Change RoPE to NeoX пре 4 месеци
  Piotr Wilkin f020baa466 Normal attention: apply gate before output пре 4 месеци
  Piotr Wilkin 27fa5f335d Correct convolution state dimension calculations пре 4 месеци
  Piotr Wilkin e24c9dfa60 Remove OP_DELTA_NET, fix flake8 and editorchecker because why not пре 4 месеци
  Piotr Wilkin 43eb7a7757 Now that eval's running move delta net stuff back to llama-model, add cbs пре 4 месеци
  Piotr Wilkin 890fa2c1e3 WE HAVE OUTPUT! пре 4 месеци
  Piotr Wilkin e590a75905 Cleanup complete, now for the recurrent memory management... пре 4 месеци
  Piotr Wilkin (ilintar) 72c98b0c7d Merge pull request #1 from ggml-org/xsn/qwen3next_experiment пре 4 месеци
  Xuan Son Nguyen e83ef74733 one less magic number пре 4 месеци
  Xuan Son Nguyen f643b957f4 refactor softplus fn пре 4 месеци
  Xuan Son Nguyen 46110e0630 split q_proj/gate пре 4 месеци
  Piotr Wilkin 8152df60f3 Getting closer (graph builds for bs=1 but tensor shaping is still wrong for bigger sizes) пре 4 месеци
  Piotr Wilkin e0c5dff2a7 Rewrite to tensor ops пре 4 месеци
  Piotr Wilkin 178230ee21 Getting to decode stage... пре 4 месеци
  Piotr Wilkin (ilintar) c78f9fce68 Merge branch 'ggml-org:master' into qwen3_next пре 4 месеци
  Piotr Wilkin 344331c2b6 First draft пре 4 месеци
  Xuan-Son Nguyen 8f8f2274ee convert : add Llama4ForCausalLM (#16042) пре 4 месеци
  Shane A 85286f3548 model : add OLMo3 support (#16015) пре 4 месеци
  Aman Gupta 6d758839ff Add LLaDA-7b-MoE diffusion model (#16003) пре 4 месеци
  Sigbjørn Skjæret b8e09f08b9 model : add grok-2 support (#15539) пре 4 месеци
  Jie Fu (傅杰) 4f658855fa llama : support T5 models with unequal number of encoder-decoder layers (#15909) пре 4 месеци
  Georgi Gerganov cf0e3ba150 model : avoid ggml_cont_3d for fused QKV weights (#15662) пре 4 месеци
  Georgi Gerganov c610b6c11b kv-cache : fix SWA checks + disable cacheless iSWA (#15811) пре 4 месеци
  Daniel Bevenius fb15d649ed llama : add support for EmbeddingGemma 300m (#15798) пре 4 месеци
  Daniel Bevenius 2c8dac72eb llama : fix incorrect model type for Gemma 270M (#15764) пре 4 месеци
  Johannes Gäßler e81b8e4b7f llama: use FA + max. GPU layers by default (#15434) пре 5 месеци
  Gabe Goodhart e8d99dd0b6 nvidia nemotron nano v2 (nemotronh) (#15507) пре 5 месеци