This website works better with JavaScript
首页
发现
帮助
登录
cturan
/
llama.cpp
镜像自地址
https://github.com/cturan/llama.cpp
关注
1
点赞
0
派生
0
文件
工单管理
0
Wiki
目录树:
bfaa676b08
分支列表
标签列表
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
提交历史
查找
作者
SHA1
备注
提交日期
Radoslav Gerganov
bde7cd3cd9
llama : offload to RPC in addition to other backends (
#7640
)
1 年之前
Radoslav Gerganov
2b737caae1
rpc : resource management rework (
#7562
)
1 年之前
Radoslav Gerganov
db10f01310
rpc : track allocated buffers (
#7411
)
1 年之前
Radoslav Gerganov
f4bd8b3d26
rpc : set SO_REUSEADDR for the server socket (
#7320
)
1 年之前
Radoslav Gerganov
3b3963c55c
rpc : add command line arg for specifying backend memory
1 年之前
Radoslav Gerganov
5e31828d3e
ggml : add RPC backend (
#6829
)
1 年之前