This website works better with JavaScript
ホーム
エクスプローラ
ヘルプ
サインイン
cturan
/
llama.cpp
同期ミラー
https://github.com/cturan/llama.cpp
ウォッチ
1
スター
0
フォーク
0
ファイル
課題
0
Wiki
ツリー:
4ffcdce2ff
ブランチ
タグ
k2v2
master
minimax
qwen3_next
qwen3_next_optimized
toolinjection
test
b6814
コミット履歴
検索
作者
SHA1
メッセージ
日付
Xuan Son Nguyen
9c405c9f9a
Server: use llama_chat_apply_template (
#5593
)
1 年間 前
Xuan Son Nguyen
907e08c110
server : add llama2 chat template (
#5425
)
1 年間 前
Wu Jian Ping
c82d18e863
server : embeddings compatibility for OpenAI (
#5190
)
2 年 前
Xuan Son Nguyen
48c857aa10
server : refactored the task processing logic (
#5065
)
2 年 前