slaren
|
dd047b476c
disable docker CI on pull requests (#8110)
|
1 年間 前 |
joecryptotoo
|
925c30956d
Add healthchecks to llama-server containers (#8081)
|
1 年間 前 |
Brian
|
c8ad35955a
Gguf dump start data offset via --data-offset and some extra refactor (#8054)
|
1 年間 前 |
Xuan Son Nguyen
|
49c03c79cd
cvector: better prompt handling, add "mean vector" method (#8069)
|
1 年間 前 |
Xuan Son Nguyen
|
48e6b92cc3
Add chat template support for llama-cli (#8068)
|
1 年間 前 |
HanishKVC
|
3791ad2193
SimpleChat v3.1: Boolean chat request options in Settings UI, cache_prompt (#7950)
|
1 年間 前 |
HatsuneMikuUwU33
|
f702a90e24
Update control vector help (#8104)
|
1 年間 前 |
Meng, Hengyu
|
083bacce14
[SYCL] Re-enabled mul_mat_batched_sycl (#8095)
|
1 年間 前 |
Johannes Gäßler
|
2df373ac40
CUDA: fix matrix multiplication algorithm choice (#8102)
|
1 年間 前 |
Johannes Gäßler
|
3b099bcd9c
CUDA: fix MMQ writeback for int8 tensor cores (#8100)
|
1 年間 前 |
Johannes Gäßler
|
a818f3028d
CUDA: use MMQ instead of cuBLAS by default (#8075)
|
1 年間 前 |
fairydreaming
|
d62e4aaa02
gguf-py : fix tensor groups for encoder-decoder models in gguf-dump.py (#8090)
|
1 年間 前 |
Johannes Gäßler
|
9a590c8226
CUDA: optimize MMQ int8 tensor core performance (#8062)
|
1 年間 前 |
Christian Zhou-Zheng
|
52fc8705a0
Option to split during conversion (#6942)
|
1 年間 前 |
slaren
|
8cb508d0d5
disable publishing the full-rocm docker image (#8083)
|
1 年間 前 |
Yann Follet
|
646ef4a9cf
embedding : more cli arguments (#7458)
|
1 年間 前 |
fairydreaming
|
de0d6a68ac
gguf-py, convert-hf : model conversion support for T5 and FLAN-T5 model variants (#5763)
|
1 年間 前 |
slaren
|
95f57bb5d5
ggml : remove ggml_task_type and GGML_PERF (#8017)
|
1 年間 前 |
Eddie-Wang
|
e112b610a1
llama : add support for BitnetForCausalLM (#7931)
|
1 年間 前 |
Aarni Koskela
|
6a2f298bd7
server : fix JSON-Scheme typo (#7975)
|
1 年間 前 |
Daniel Bevenius
|
11318d9aa1
Fix typo in llama_set_embeddings comment (#8077)
|
1 年間 前 |
slaren
|
b6b9a8e606
fix CI failures (#8066)
|
1 年間 前 |
0cc4m
|
45c0e2e4c1
Refactor Vulkan backend to allow multiple contexts (#7961)
|
1 年間 前 |
Clint Herron
|
b5a5f34efa
Removing extra blank lines that were breaking Lint. (#8067)
|
1 年間 前 |
Xuan Son Nguyen
|
3e58b0ee35
cvector: fix CI + correct help message (#8064)
|
1 年間 前 |
HatsuneMikuUwU33
|
adf480c3ab
cvector-generator: Moe Moe Fixie-Fixie for Lots of Formats~! ♡(ᐢ ᴥ ᐢ)♡ (#8052)
|
1 年間 前 |
0xspringtime
|
3aa184a8c7
convert-hf : change assert to exception (#8015)
|
1 年間 前 |
ddh0
|
5b48cd53a8
Update llama-quantize ppl/file size output from LLaMA-v1 to Llama-3 values (#8058)
|
1 年間 前 |
Clint Herron
|
c5a8d4b749
JSON Schema to GBNF integration tests (#7790)
|
1 年間 前 |
k.h.lai
|
557b653dc9
vulkan: detect multiple devices by deviceUUID instead of deviceID (#8022)
|
1 年間 前 |