This website works better with JavaScript
صفحهٔ اصلی
گشتوگذار
راهنما
ورود
cturan
/
llama.cpp
mirrorاز
https://github.com/cturan/llama.cpp
دنبال کردن
1
ستاره دار
0
انشعاب
0
پروندهها
مشکلات
0
ویکی
درخت:
b5a5f34efa
شاخهها
تگها
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
تاریخچه Commit ها
یافتن
نویسنده
SHA1
پیام
تاریخ
Georgi Gerganov
554c247caf
ggml : remove OpenCL (
#7735
)
1 سال پیش
slaren
d359f30921
llama : remove MPI backend (
#7395
)
1 سال پیش
slaren
280345968d
cuda : rename build flag to LLAMA_CUDA (
#6299
)
1 سال پیش
bandoti
095231dfd3
cmake : fix transient definitions in find pkg (
#3411
)
2 سال پیش
bandoti
990a5e226a
cmake : add relocatable Llama package (
#2960
)
2 سال پیش