This website works better with JavaScript
صفحهٔ اصلی
گشتوگذار
راهنما
ورود
cturan
/
llama.cpp
mirrorاز
https://github.com/cturan/llama.cpp
دنبال کردن
1
ستاره دار
0
انشعاب
0
پروندهها
مشکلات
0
ویکی
درخت:
40f2555797
شاخهها
تگها
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
تاریخچه Commit ها
یافتن
نویسنده
SHA1
پیام
تاریخ
Molly Sophia
2d5dd7bb3f
ggml : add epsilon as a parameter for group_norm (
#8818
)
1 سال پیش
AidanBeltonS
f4444d992c
[SYCL] Use multi_ptr to clean up deprecated warnings (
#8256
)
1 سال پیش
luoyu-intel
a9554e20b6
[SYCL] Fix WARP_SIZE=16 bug of Intel GPU (
#8266
)
1 سال پیش
Neo Zhang Jianyu
f09b7cb609
rm get_work_group_size() by local cache for performance (
#8286
)
1 سال پیش
luoyu-intel
d08c20edde
[SYCL] Fix the sub group size of Intel (
#8106
)
1 سال پیش