This website works better with JavaScript
Etusivu
Tutki
Apua
Kirjaudu sisään
cturan
/
llama.cpp
peilaus alkaen
https://github.com/cturan/llama.cpp
Tarkkaile
1
Äänestä
0
Haarauta
0
Tiedostot
Esitykset
0
Wiki
Puu:
c9c74b4e3f
Haarat
Tunnisteet
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Sitoutushistoria
Etsi
Tekijä
SHA1
Viesti
Päivämäärä
Qingyou Meng
1d656d6360
ggml : change ggml_graph_compute() API to not require context (
#1999
)
2 vuotta sitten
Georgi Gerganov
ce2c7d72e2
metal : handle buffers larger than device's maxBufferLength (
#1826
)
2 vuotta sitten
Georgi Gerganov
4bfcc855ab
metal : parallel command buffer encoding (
#1860
)
2 vuotta sitten
Georgi Gerganov
ecb217db4f
llama : Metal inference (
#1642
)
2 vuotta sitten