This website works better with JavaScript
Начало
Каталог
Помощ
Вход
cturan
/
llama.cpp
огледало от
https://github.com/cturan/llama.cpp
Наблюдаван
1
Харесван
0
Разклонения
0
Файлове
Задачи
0
Уики
ИН на ревизия:
d7e852c1bc
Клонове
Маркери
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Commit History
Намери
Автор
SHA1
Съобщение
Дата
0cc4m
ba0c7c70ab
Vulkan k-quant mmq and ggml-backend offload functionality (
#6155
)
преди 1 година
0cc4m
61d1c88e15
Vulkan Improvements (
#5835
)
преди 1 година
0cc4m
ee1628bdfe
Basic Vulkan Multi-GPU implementation (
#5321
)
преди 2 години
0cc4m
2307523d32
ggml : add Vulkan backend (
#2059
)
преди 2 години