This website works better with JavaScript
Página Principal
Explorar
Ajuda
Iniciar Sessão
cturan
/
llama.cpp
mirror de
https://github.com/cturan/llama.cpp
Vigiar
1
Colocar Estrela
0
Fork
0
Ficheiros
Problemas
0
Wiki
Árvore:
c083718c89
Ramos
Etiquetas
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
Histórico de Commits
Pesquisar
Autor
SHA1
Mensagem
Data
Ebey Abraham
b9e74f9bca
llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (
#4490
)
há 2 anos atrás
slaren
799a1cb13b
llama : add Mixtral support (
#4406
)
há 2 anos atrás
Shijie
37c746d687
llama : add Qwen support (
#4281
)
há 2 anos atrás
Kerfuffle
34b0a08207
gguf-py: Refactor and allow reading/modifying existing GGUF files (
#3981
)
há 2 anos atrás