This website works better with JavaScript
Начало
Каталог
Помощ
Вход
cturan
/
llama.cpp
огледало от
https://github.com/cturan/llama.cpp
Наблюдаван
1
Харесван
0
Разклонения
0
Файлове
Задачи
0
Уики
ИН на ревизия:
86aeb27734
Клонове
Маркери
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Commit History
Намери
Автор
SHA1
Съобщение
Дата
Georgi Gerganov
5b2b2dc6ae
ggml : sync (unary ops refactor, static-correctness) (
#2370
)
преди 2 години
Georgi Gerganov
20d7740a9b
ggml : sync (abort callback, mul / add broadcast, fix alibi) (
#2183
)
преди 2 години
Qingyou Meng
1d656d6360
ggml : change ggml_graph_compute() API to not require context (
#1999
)
преди 2 години
xaedes
f954edda93
ggml : implement backward pass for llama + small training-llama-from-scratch example (
#1360
)
преди 2 години