Marcus Dunn
|
5be6c803fa
llama : remove token functions with `context` args in favor of `model` (#3720)
|
před 2 roky |
Cebtenzzre
|
bc39553c90
build : enable more non-default compiler warnings (#3200)
|
před 2 roky |
slaren
|
16bc66d947
llama.cpp : split llama_context_params into model and context params (#3301)
|
před 2 roky |
Georgi Gerganov
|
ec893798b7
llama : custom attention mask + parallel decoding + no context swaps (#3228)
|
před 2 roky |
Rickard Hallerbäck
|
dc6897404e
metal : reusing llama.cpp logging (#3152)
|
před 2 roky |
Georgi Gerganov
|
8c00b7a6ff
sync : ggml (Metal F32 support + reduce ggml-alloc size) (#3192)
|
před 2 roky |
slaren
|
15b67a66c2
llama-bench : use two tokens in the warmup run for prompt evals (#3059)
|
před 2 roky |
Cebtenzzre
|
de2fe892af
examples : replace fprintf to stdout with printf (#3017)
|
před 2 roky |
Cebtenzzre
|
3103568144
llama-bench : make cpp file non-executable (#2999)
|
před 2 roky |
slaren
|
43033b7bb4
llama-bench : set locale to utf8 (#2832)
|
před 2 roky |
slaren
|
154725c543
llama-bench : add model sizes (#2771)
|
před 2 roky |
Henri Vasserman
|
6bbc598a63
ROCm Port (#1087)
|
před 2 roky |
slaren
|
8e4364f2af
llama-bench : minor fixes (#2695)
|
před 2 roky |
Georgi Gerganov
|
6381d4e110
gguf : new file format with flexible meta data (beta) (#2398)
|
před 2 roky |
slaren
|
097e121e2f
llama : add benchmark example (#2626)
|
před 2 roky |