This website works better with JavaScript
首頁
探索
說明
登入
cturan
/
llama.cpp
镜像来自
https://github.com/cturan/llama.cpp
關注
1
讚好
0
複刻
0
檔案
問題管理
0
Wiki
目錄樹:
4cdd0bb453
分支列表
標籤列表
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
提交歷史
查找
作者
SHA1
備註
提交日期
Radoslav Gerganov
918b26f197
rpc : fix regression when --device is used (
#15981
)
4 月之前
Diego Devesa
50f4281a6f
llama : allow using iGPUs with --device (
#15951
)
4 月之前
Percy Piper
c508256db2
rpc : Fix build on OpenBSD (
#13541
)
7 月之前
Diego Devesa
27ebfcacba
llama : do not crash if there is no CPU backend (
#13395
)
8 月之前
Diego Devesa
9fdfcdaedd
rpc : use backend registry, support dl backends (
#13304
)
8 月之前
Diego Devesa
1d36b3670b
llama : move end-user examples to tools directory (
#13249
)
8 月之前