This website works better with JavaScript
صفحهٔ اصلی
گشتوگذار
راهنما
ورود
cturan
/
llama.cpp
mirrorاز
https://github.com/cturan/llama.cpp
دنبال کردن
1
ستاره دار
0
انشعاب
0
پروندهها
مشکلات
0
ویکی
درخت:
f4c55d3bd7
شاخهها
تگها
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
تاریخچه Commit ها
یافتن
نویسنده
SHA1
پیام
تاریخ
0cc4m
dcb2ed4826
OpenCL: Fix duplication of layers in VRAM and RAM, add GPU mul kernel (
#1653
)
2 سال پیش
Howard Su
bb051d9723
opencl : no need to allocate cl_mem on heap (
#1612
)
2 سال پیش
Howard Su
ca74884f66
opencl : use strstr to check if fp16 supported (
#1611
)
2 سال پیش
Maarten ter Huurne
7d873811f3
Fix handling of "invalid property" when creating OpenCL command queue (
#1565
)
2 سال پیش
0cc4m
2e6cd4b025
OpenCL Token Generation Acceleration (
#1459
)
2 سال پیش