This website works better with JavaScript
首頁
探索
說明
登入
cturan
/
llama.cpp
镜像来自
https://github.com/cturan/llama.cpp
關註
1
讚好
0
複刻
0
Files
問題管理
0
Wiki
目錄樹:
3ea0d36000
分支列表
標籤列表
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Commit History
查找
作者
SHA1
備註
提交日期
Sigbjørn Skjæret
8800226d65
Fix --split-max-size (
#6655
)
1 年之前
Xuan Son Nguyen
f7fc5f6c6f
split: allow --split-max-size option (
#6343
)
1 年之前
Pierrick Hymbert
f482bb2e49
common: llama_load_model_from_url split support (
#6192
)
1 年之前
Pierrick Hymbert
dba1af6129
llama_model_loader: support multiple split/shard GGUFs (
#6187
)
1 年之前
DAN™
d8b009a945
Remove undeed header file. (
#6158
)
1 年之前
Pierrick Hymbert
d0d5de42e5
gguf-split: split and merge gguf per batch of tensors (
#6135
)
1 年之前