Jared Van Bortel
|
1b67731e18
BERT tokenizer fixes (#6498)
|
1 год назад |
Jan Boon
|
beea6e1b16
llama : save and restore kv cache for single seq id (#6341)
|
1 год назад |
Georgi Gerganov
|
4399f13fb9
server : remove obsolete --memory-f32 option
|
1 год назад |
Xiao-Yong Jin
|
1a43c7254e
server : add option to disable KV offload (#6468)
|
1 год назад |
Eric Zhang
|
6902cb7f2e
server : stop gracefully on SIGTERM (#6348)
|
1 год назад |
compilade
|
557410b8f0
llama : greatly reduce output buffer memory usage (#6122)
|
1 год назад |
Jan Boon
|
3d032ece8e
server : add `n_discard` parameter (#6300)
|
1 год назад |
slaren
|
280345968d
cuda : rename build flag to LLAMA_CUDA (#6299)
|
1 год назад |
Xuan Son Nguyen
|
ad3a0505e3
Server: clean up OAI params parsing function (#6284)
|
1 год назад |
Pierrick Hymbert
|
f482bb2e49
common: llama_load_model_from_url split support (#6192)
|
1 год назад |
Olivier Chafik
|
72114edf06
json-schema-to-grammar : fix order of props + non-str const/enum (#6232)
|
1 год назад |
Jan Boon
|
6b8bb3a31d
server : fix n_keep always showing as 0 in response (#6211)
|
1 год назад |
Georgi Gerganov
|
68e210b354
server : enable continuous batching by default (#6231)
|
1 год назад |
Olivier Chafik
|
5b7b0ac8df
json-schema-to-grammar improvements (+ added to server) (#5978)
|
1 год назад |
Pierrick Hymbert
|
d01b3c4c32
common: llama_load_model_from_url using --model-url (#6098)
|
1 год назад |
slaren
|
f30ea47a87
llama : add pipeline parallelism support (#6017)
|
1 год назад |
Xuan Son Nguyen
|
99b71c068f
Server: Use multi-task for embeddings endpoint (#6001)
|
1 год назад |
Xuan Son Nguyen
|
caa106d4e0
Server: format error to json (#5961)
|
1 год назад |
Minsoo Cheong
|
332bdfd798
server : maintain chat completion id for streaming responses (#5988)
|
1 год назад |
Pierrick Hymbert
|
621e86b331
server: benchmark: chat/completions scenario and other llm servers comparison (#5941)
|
1 год назад |
Georgi Gerganov
|
77d1ac7e00
server : print chat template info
|
1 год назад |
Georgi Gerganov
|
58308a0ecc
server : fix metrics init (#5964)
|
1 год назад |
SeungWon Jeong
|
fb215c3832
server : normalize embeddings (#5956)
|
1 год назад |
Alexey Parfenov
|
0db32beaf0
server : fix passing prompt as tokens (#5955)
|
1 год назад |
Georgi Gerganov
|
9674aaf35c
server : simplify logic for empty prompts (#5953)
|
1 год назад |
Xuan Son Nguyen
|
950ba1ab84
Server: reorganize some http logic (#5939)
|
1 год назад |
Gabe Goodhart
|
e1fa9569ba
server : add SSL support (#5926)
|
1 год назад |
Pierrick Hymbert
|
fd72d2d2a5
server: tests: add truncated prompt tests, better kv cache size (#5933)
|
1 год назад |
compilade
|
c2101a2e90
llama : support Mamba Selective State Space Models (#5328)
|
1 год назад |
Pierrick Hymbert
|
76e868821a
server: metrics: add llamacpp:prompt_seconds_total and llamacpp:tokens_predicted_seconds_total, reset bucket only on /metrics. Fix values cast to int. Add Process-Start-Time-Unix header. (#5937)
|
1 год назад |