This website works better with JavaScript
Начало
Каталог
Помощ
Вход
cturan
/
llama.cpp
огледало от
https://github.com/cturan/llama.cpp
Наблюдаван
1
Харесван
0
Разклонения
0
Файлове
Задачи
0
Уики
ИН на ревизия:
6a746cf9c4
Клонове
Маркери
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Commit History
Намери
Автор
SHA1
Съобщение
Дата
Piotr
3cb203c89f
llama-chat : Do not throw when tool parsing fails (
#14012
)
преди 7 месеца
Olivier Chafik
e15898d1c7
server: allow unclosed thinking tags (
#13931
)
преди 7 месеца
Olivier Chafik
03f582ae8f
server: fix streaming crashes (
#13786
)
преди 7 месеца
Olivier Chafik
f5cd27b71d
`server`: streaming of tool calls and thoughts when `--jinja` is on (
#12379
)
преди 7 месеца