This website works better with JavaScript
首页
发现
帮助
登录
cturan
/
llama.cpp
镜像自地址
https://github.com/cturan/llama.cpp
关注
1
点赞
0
派生
0
文件
工单管理
0
Wiki
目录树:
7a11eb3a26
分支列表
标签列表
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
提交历史
查找
作者
SHA1
备注
提交日期
R0CKSTAR
e54c35e4fb
feat: Support Moore Threads GPU (
#8383
)
1 年之前
Andreas (Andi) Kunar
bf5a81df37
ggml : fix build on Windows with Snapdragon X (
#8531
)
1 年之前
bandoti
17eb6aa8a9
vulkan : cmake integration (
#8119
)
1 年之前
Dibakar Gope
0f1a39f343
ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (
#5780
)
1 年之前
Xuan Son Nguyen
60d83a0149
update main readme (
#8333
)
1 年之前
Xuan Son Nguyen
be20e7f49d
Reorganize documentation pages (
#8325
)
1 年之前