Inicio Explorar Ayuda
Iniciar sesión
cturan
/
llama.cpp
espejo de https://github.com/cturan/llama.cpp
1
0
Fork 0
Archivos Incidencias 0 Wiki
Rama: master
Ramas Etiquetas
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
llama.cpp
/
examples
/
idle
/
README.md

README.md 75 B
Permalink Histórico Raw

llama.cpp/example/idle

https://github.com/ggml-org/llama.cpp/pull/17766

© 2026 Git
Página: 544ms Plantilla: 10ms
español
español English 简体中文 繁體中文(香港) 繁體中文(臺灣) Deutsch français Nederlands latviešu русский 日本語 português do Brasil polski български italiano suomi Türkçe čeština српски svenska 한국어 galego українська English (United Kingdom) Magyar Slovenčina Indonesian Persian Vietnamese Português Монгол Română
Javascript Licenses Página web