Ting Lou
|
4e9a7f7f7f
llava : change API to pure C style for Rust FFI bindgen (#6079)
|
1 年間 前 |
slaren
|
3020327f6c
cuda : disable unused cudaLaunchHostFunc code (#6078)
|
1 年間 前 |
Neo Zhang Jianyu
|
46acb36767
fix set main gpu error (#6073)
|
1 年間 前 |
Georgi Gerganov
|
131b058409
make : ggml-metal.o depends on ggml.h
|
1 年間 前 |
AidanBeltonS
|
753e36f650
[SYCL] Fix non-intel device selection (#6042)
|
1 年間 前 |
Ondřej Čertík
|
7ce2c77f88
gguf : add support for I64 and F64 arrays (#6062)
|
1 年間 前 |
Xuan Son Nguyen
|
aab606a11f
llama : add Orion chat template (#6066)
|
1 年間 前 |
slaren
|
b0bc9f4a9d
llama-bench : use random tokens to improve accuracy with mixtral (#6069)
|
1 年間 前 |
Georgi Gerganov
|
4755afd1cb
llama : fix integer overflow during quantization (#6063)
|
1 年間 前 |
Steve Grubb
|
6e0438da3c
gguf : fix resource leaks (#6061)
|
1 年間 前 |
Ondřej Čertík
|
727107707a
gguf-py : bump version to 0.8.0 (#6060)
|
1 年間 前 |
Michael Podvitskiy
|
69ff61397d
llama : support models without vocabulary (#5798)
|
1 年間 前 |
Georgi Gerganov
|
044ec4b2a5
embedding : add EOS token if not present (#899)
|
1 年間 前 |
Georgi Gerganov
|
77178eedc8
gguf-py : fix dtype check (#6045)
|
1 年間 前 |
Jian Liao
|
15a333260a
readme : improve readme for Llava-1.6 example (#6044)
|
1 年間 前 |
Pierrick Hymbert
|
43241adf22
server: disable debug release type sanitizer, simplify trigger (#6047)
|
1 年間 前 |
Georgi Gerganov
|
a44bc969e4
llama : fix typo
|
1 年間 前 |
Michael Podvitskiy
|
2c4fb69246
llama : optimize defrag moves + fix fragmentation calculation (#6037)
|
1 年間 前 |
Ondřej Čertík
|
3ca23481dd
gguf-py : add support for I8, I16 and I32 (#6045)
|
1 年間 前 |
Georgi Gerganov
|
3fe8d7a17f
ggml : designate enum vals for integer types (#6050)
|
1 年間 前 |
Georgi Gerganov
|
68265ebfc6
embedding : print all resulting embeddings (#899)
|
1 年間 前 |
Georgi Gerganov
|
381da2d9f0
metal : build metallib + fix embed path (#6015)
|
1 年間 前 |
Georgi Gerganov
|
0fd6c1f015
embedding : print cosine similarity (#899)
|
1 年間 前 |
Linwei Wang
|
19885d205e
readme : update details about running llama in Termux on Android (#6039)
|
1 年間 前 |
Georgi Gerganov
|
76a936c893
readme : update API changes and hot topics
|
1 年間 前 |
Clint Herron
|
463628372d
grammar : handle missing "root" node (#6004)
|
1 年間 前 |
slaren
|
f30ea47a87
llama : add pipeline parallelism support (#6017)
|
1 年間 前 |
slaren
|
d8fd0ccf6a
test-backend-ops : skip CPU backend by default (#6028)
|
1 年間 前 |
AidanBeltonS
|
b3d978600f
Update get version (#6025)
|
1 年間 前 |
Xuan Son Nguyen
|
99b71c068f
Server: Use multi-task for embeddings endpoint (#6001)
|
1 年間 前 |