Johannes Gäßler
|
2df373ac40
CUDA: fix matrix multiplication algorithm choice (#8102)
|
1 an în urmă |
Johannes Gäßler
|
3b099bcd9c
CUDA: fix MMQ writeback for int8 tensor cores (#8100)
|
1 an în urmă |
Johannes Gäßler
|
a818f3028d
CUDA: use MMQ instead of cuBLAS by default (#8075)
|
1 an în urmă |
fairydreaming
|
d62e4aaa02
gguf-py : fix tensor groups for encoder-decoder models in gguf-dump.py (#8090)
|
1 an în urmă |
Johannes Gäßler
|
9a590c8226
CUDA: optimize MMQ int8 tensor core performance (#8062)
|
1 an în urmă |
Christian Zhou-Zheng
|
52fc8705a0
Option to split during conversion (#6942)
|
1 an în urmă |
slaren
|
8cb508d0d5
disable publishing the full-rocm docker image (#8083)
|
1 an în urmă |
Yann Follet
|
646ef4a9cf
embedding : more cli arguments (#7458)
|
1 an în urmă |
fairydreaming
|
de0d6a68ac
gguf-py, convert-hf : model conversion support for T5 and FLAN-T5 model variants (#5763)
|
1 an în urmă |
slaren
|
95f57bb5d5
ggml : remove ggml_task_type and GGML_PERF (#8017)
|
1 an în urmă |
Eddie-Wang
|
e112b610a1
llama : add support for BitnetForCausalLM (#7931)
|
1 an în urmă |
Aarni Koskela
|
6a2f298bd7
server : fix JSON-Scheme typo (#7975)
|
1 an în urmă |
Daniel Bevenius
|
11318d9aa1
Fix typo in llama_set_embeddings comment (#8077)
|
1 an în urmă |
slaren
|
b6b9a8e606
fix CI failures (#8066)
|
1 an în urmă |
0cc4m
|
45c0e2e4c1
Refactor Vulkan backend to allow multiple contexts (#7961)
|
1 an în urmă |
Clint Herron
|
b5a5f34efa
Removing extra blank lines that were breaking Lint. (#8067)
|
1 an în urmă |
Xuan Son Nguyen
|
3e58b0ee35
cvector: fix CI + correct help message (#8064)
|
1 an în urmă |
HatsuneMikuUwU33
|
adf480c3ab
cvector-generator: Moe Moe Fixie-Fixie for Lots of Formats~! ♡(ᐢ ᴥ ᐢ)♡ (#8052)
|
1 an în urmă |
0xspringtime
|
3aa184a8c7
convert-hf : change assert to exception (#8015)
|
1 an în urmă |
ddh0
|
5b48cd53a8
Update llama-quantize ppl/file size output from LLaMA-v1 to Llama-3 values (#8058)
|
1 an în urmă |
Clint Herron
|
c5a8d4b749
JSON Schema to GBNF integration tests (#7790)
|
1 an în urmă |
k.h.lai
|
557b653dc9
vulkan: detect multiple devices by deviceUUID instead of deviceID (#8022)
|
1 an în urmă |
Eve
|
7d5e8777ae
ggml : AVX IQ quants (#7845)
|
1 an în urmă |
Georgi Gerganov
|
a927b0f3dd
llama : optimize long word tokenization with WPM (#8034)
|
1 an în urmă |
Douglas Hanley
|
80ea089d77
llama : allow pooled embeddings on any model (#7477)
|
1 an în urmă |
Shuichi Tsutsumi
|
0e64591e82
swiftui : enable stream updating (#7754)
|
1 an în urmă |
Hamdoud Hakem
|
b1ef562bc1
requirements : Bump torch and numpy for python3.12 (#8041)
|
1 an în urmă |
Hamdoud Hakem
|
17b291a6a5
convert-hf : Fix the encoding in the convert-hf-to-gguf-update.py (#8040)
|
1 an în urmă |
Johannes Gäßler
|
abd894ad96
common: fix warning (#8036)
|
1 an în urmă |
luoyu-intel
|
de391e4c80
[SYCL] Fix windows build and inference (#8003)
|
1 an în urmă |