This website works better with JavaScript
Inicio
Explorar
Ayuda
Iniciar sesión
cturan
/
llama.cpp
espejo de
https://github.com/cturan/llama.cpp
Seguir
1
Destacar
0
Fork
0
Archivos
Incidencias
0
Wiki
Árbol:
e689fc4e91
Ramas
Etiquetas
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Historial de Commits
Buscar
Autor
SHA1
Mensaje
Fecha
Xuan Son Nguyen
f7fc5f6c6f
split: allow --split-max-size option (
#6343
)
hace 1 año
Pierrick Hymbert
f482bb2e49
common: llama_load_model_from_url split support (
#6192
)
hace 1 año
Pierrick Hymbert
dba1af6129
llama_model_loader: support multiple split/shard GGUFs (
#6187
)
hace 1 año
DAN™
d8b009a945
Remove undeed header file. (
#6158
)
hace 1 año
Pierrick Hymbert
d0d5de42e5
gguf-split: split and merge gguf per batch of tensors (
#6135
)
hace 1 año