Mikko Juola
|
9ae4143bc6
model : add dots.llm1 architecture support (#14044) (#14118)
|
7 månader sedan |
compilade
|
dad5c44398
kv-cache : avoid modifying recurrent cells when setting inputs (#13834)
|
7 månader sedan |
Sigbjørn Skjæret
|
3678b838bb
llama : support GEGLU for jina-bert-v2 (#14090)
|
7 månader sedan |
Sigbjørn Skjæret
|
0974ad7a7c
llama : fix llama_model_chat_template with template name (LLM_KV with suffix) (#14050)
|
7 månader sedan |
Sigbjørn Skjæret
|
d17a809ef0
llama : support multiple classifier outputs and labels (#13940)
|
7 månader sedan |
Georgi Gerganov
|
5582c49c39
gemma : more consistent attention scaling for v2 and v3 (#13951)
|
7 månader sedan |
Georgi Gerganov
|
0fc16b42e8
kv-cache : split implementation in separate sources (#13920)
|
7 månader sedan |
Georgi Gerganov
|
3600cc2886
llama : use n_swa + n_ubatch cells for SWA cache (#13833)
|
7 månader sedan |
Georgi Gerganov
|
12d0188c0d
kv-cache : refactor + add llama_memory_state_i (#13746)
|
7 månader sedan |
Đinh Trọng Huy
|
291f2b6913
llama : add support for DistilBert (#13907)
|
7 månader sedan |
zhangkaihuo
|
2c90da4c7e
llama : use llm_build_granite for minicpm (#13911)
|
7 månader sedan |
Sigbjørn Skjæret
|
e83ba3e460
llama : add support for jina-reranker-v2 (#13900)
|
7 månader sedan |
Sigbjørn Skjæret
|
6385b843a8
llama : add RobertaForSequenceClassification reranker support (#13875)
|
7 månader sedan |
Piotr Jasiukajtis
|
4032ca4066
llama : add support for Qwen3 MoE tied word embeddings (#13768)
|
7 månader sedan |
Georgi Gerganov
|
d13d0f6135
hparams : initialize arrays (#13728)
|
7 månader sedan |
Xuan-Son Nguyen
|
8a2afb7520
llama : allow custom list of swa_layers (#13726)
|
7 månader sedan |
Georgi Gerganov
|
8a1d206f1d
tts : fix n_ubatch + make WavTokenizer cache-less (#13713)
|
8 månader sedan |
Georgi Gerganov
|
797f2ac062
kv-cache : simplify the interface (#13660)
|
8 månader sedan |
Georgi Gerganov
|
b44890df2e
model : disable SWA for Phi models (#13676)
|
8 månader sedan |
Georgi Gerganov
|
be0239693c
model : fix llama4 graph (#13663)
|
8 månader sedan |
Georgi Gerganov
|
e298d2fbd0
kv-cache : add SWA support (#13194)
|
8 månader sedan |
Gabe Goodhart
|
5e7d95e22e
fix: Move build_inp_pos to the top of the graph section for build_granite (#13538)
|
8 månader sedan |
Gabe Goodhart
|
d590cd4c24
model : Granite MoE shared (#13269)
|
8 månader sedan |
Johannes Gäßler
|
10d2af0eaa
llama/ggml: add LLM training support (#10544)
|
8 månader sedan |
Diego Devesa
|
27ebfcacba
llama : do not crash if there is no CPU backend (#13395)
|
8 månader sedan |
Xuan-Son Nguyen
|
3f96aeff39
llama : one-off chat template fix for Mistral-Small-2503 (#13398)
|
8 månader sedan |
Georgi Gerganov
|
6562e5a4d6
context : allow cache-less context for embeddings (#13108)
|
8 månader sedan |
Diego Devesa
|
f061021206
llama : print size and type of overridden tensors (#13364)
|
8 månader sedan |
Sigbjørn Skjæret
|
bc4e1128f7
llama : deci : support ffn-free with attention (#13296)
|
8 månader sedan |
piDack
|
6c7fd67b64
llama : support tie embedding for chatglm models (#13328)
|
8 månader sedan |