cebtenzzre
|
898aeca90a
llama : implement YaRN RoPE scaling (#2268)
|
2 ani în urmă |
kalomaze
|
238657db23
samplers : Min-P sampler implementation [alternative to Top P/Top K] (#3841)
|
2 ani în urmă |
Kerfuffle
|
6e08281e58
Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843)
|
2 ani în urmă |
Georgi Gerganov
|
d69d777c02
ggml : quantization refactoring (#3833)
|
2 ani în urmă |
Georgi Gerganov
|
ee1a0ec9cb
llama : add option for greedy sampling with probs (#3813)
|
2 ani în urmă |
Georgi Gerganov
|
2f9ec7e271
cuda : improve text-generation and batched decoding performance (#3776)
|
2 ani în urmă |
Marcus Dunn
|
5be6c803fa
llama : remove token functions with `context` args in favor of `model` (#3720)
|
2 ani în urmă |
Georgi Gerganov
|
d1031cf49c
sampling : refactor init to use llama_sampling_params (#3696)
|
2 ani în urmă |
Georgi Gerganov
|
0e89203b51
speculative : add tree-based sampling example (#3624)
|
2 ani în urmă |
staviq
|
1a159553f9
tokenizer : special token handling (#3538)
|
2 ani în urmă |
Georgi Gerganov
|
ac2219fef3
llama : fix session saving/loading (#3400)
|
2 ani în urmă |
Alex Klinkhamer
|
48be797ffb
llama : expose model's rope_freq_scale in the API (#3418)
|
2 ani în urmă |
vvhg1
|
c97f01c362
infill : add new example + extend server API (#3296)
|
2 ani în urmă |
slaren
|
40e07a60f9
llama.cpp : add documentation about rope_freq_base and scale values (#3401)
|
2 ani în urmă |
slaren
|
16bc66d947
llama.cpp : split llama_context_params into model and context params (#3301)
|
2 ani în urmă |
xaedes
|
0e76a8992c
train : finetune LORA (#2632)
|
2 ani în urmă |
Georgi Gerganov
|
ec893798b7
llama : custom attention mask + parallel decoding + no context swaps (#3228)
|
2 ani în urmă |
Rickard Hallerbäck
|
dc6897404e
metal : reusing llama.cpp logging (#3152)
|
2 ani în urmă |
goerch
|
b08e75baea
Fixing the last deviations from sentencepiece indicated by test-tokenizer-1 (#3170)
|
2 ani în urmă |
Cebtenzzre
|
3aefaab9e5
check C++ code with -Wmissing-declarations (#3184)
|
2 ani în urmă |
Cebtenzzre
|
e64f5b5578
examples : make n_ctx warning work again (#3066)
|
2 ani în urmă |
Georgi Gerganov
|
921772104b
speculative : add grammar support (#2991)
|
2 ani în urmă |
Kerfuffle
|
5d6f19f16b
Allow quantize to only copy tensors, some other improvements (#2931)
|
2 ani în urmă |
Marcus Dunn
|
95b6e5212f
added `struct` to llama_dump_timing_info_yaml's `llama_context` (#2857)
|
2 ani în urmă |
Johannes Gäßler
|
6b73ef1201
YAML result logging + preset script (#2657)
|
2 ani în urmă |
igarnier
|
dd0dc366da
llama.h : add missing struct keyword for C compat in callback type (#2847)
|
2 ani în urmă |
Georgi Gerganov
|
edd4c14817
llama : more tokenizer fixes (#2810)
|
2 ani în urmă |
Marcus Dunn
|
232caf3c15
llama : fix struct decl (#2790)
|
2 ani în urmă |
Matt Pulver
|
c82742ac9c
llama : add llama_beam_search() (#2267)
|
2 ani în urmă |
slaren
|
154725c543
llama-bench : add model sizes (#2771)
|
2 ani în urmă |