This website works better with JavaScript
首页
发现
帮助
登录
cturan
/
llama.cpp
镜像自地址
https://github.com/cturan/llama.cpp
关注
1
点赞
0
派生
0
文件
工单管理
0
Wiki
目录树:
3f460a2b72
分支列表
标签列表
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
提交历史
查找
作者
SHA1
备注
提交日期
Georgi Gerganov
6381d4e110
gguf : new file format with flexible meta data (beta) (
#2398
)
2 年之前
Borislav Stanimirov
ff966e7ca6
build : fix several cast and printf warnings (
#2499
)
2 年之前
Evan Miller
5656d10599
mpi : add support for distributed inference via MPI (
#2099
)
2 年之前
zrm
b853d45601
ggml : add NUMA support (
#1556
)
2 年之前
Didzis Gosko
527b6fba1d
llama : make model stateless and context stateful (llama_state) (
#1797
)
2 年之前
SuperUserNameMan
b41b4cad6f
examples : add "simple" (
#1840
)
2 年之前