This website works better with JavaScript
Kezdőlap
Felfedezés
Súgó
Bejelentkezés
cturan
/
llama.cpp
tükrözi:
https://github.com/cturan/llama.cpp
Figyelés
1
Kedvenc
0
Másolás
0
Fájlok
Problémák
0
Wiki
Fa:
test
Branch-ok
Tag-ek
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Commit történet
Keresés
Szerző
SHA1
Üzenet
Dátum
Sachin Desai
3db4da56a5
chat : support Granite model reasoning and tool call (
#14864
)
5 hónapja
Piotr
3cb203c89f
llama-chat : Do not throw when tool parsing fails (
#14012
)
7 hónapja
Olivier Chafik
e15898d1c7
server: allow unclosed thinking tags (
#13931
)
7 hónapja
Olivier Chafik
03f582ae8f
server: fix streaming crashes (
#13786
)
7 hónapja
Olivier Chafik
f5cd27b71d
`server`: streaming of tool calls and thoughts when `--jinja` is on (
#12379
)
7 hónapja