Historie revizí

Autor SHA1 Zpráva Datum
  SoftwareRenderer 936c79b227 server : relay error messages (#4131) před 2 roky
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) před 2 roky
  Alexey Parfenov d96ca7ded7 server : fix crash when prompt exceeds context size (#3996) před 2 roky
  Mihai 57ad015dc3 server : add min_p param (#3877) před 2 roky
  cebtenzzre b12fa0d1c1 build : link against build info instead of compiling against it (#3879) před 2 roky
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) před 2 roky
  Adrian Hesketh ca190bca8e server : re-enable completion and embedded at the same time (#3876) před 2 roky
  Kerfuffle 6e08281e58 Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843) před 2 roky
  Georgi Gerganov 34b2a5e1ee server : do not release slot on image input (#3798) před 2 roky
  cebtenzzre ad93962657 server : add parameter -tb N, --threads-batch N (#3584) (#3768) před 2 roky
  Georgi Gerganov 1717521cdb server : do not block system prompt update (#3767) před 2 roky
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) před 2 roky
  Georgi Gerganov 438c2ca830 server : parallel decoding and multimodal (#3677) před 2 roky
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) před 2 roky
  Georgi Gerganov a0edf73bda server : fix uninitialized sampling context (close #3685) před 2 roky
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) před 2 roky
  Georgi Gerganov 57dd55e2c7 server : fix kv cache management (#3588) před 2 roky
  Michael Coppola a8bdd65525 server : add parameter -tb N, --threads-batch N (#3584) před 2 roky
  Kerfuffle 70c29da118 common : fix mirostat state when using multiple sequences (#3543) před 2 roky
  vvhg1 11ea5c7d96 infill. : fix tokenization (#3508) před 2 roky
  Jhen-Jie Hong 97af49fa39 server : reuse llama_sample_token common util (#3494) před 2 roky
  Kenvix ⭐ 45eba9369f build : use std::make_tuple() for compatibility with older GCC versions (#3488) před 2 roky
  Jhen-Jie Hong e8b8d32e86 server : fix incorrect num_tokens_predicted (#3480) před 2 roky
  Georgi Gerganov ac2219fef3 llama : fix session saving/loading (#3400) před 2 roky
  vvhg1 c97f01c362 infill : add new example + extend server API (#3296) před 2 roky
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) před 2 roky
  xaedes 0e76a8992c train : finetune LORA (#2632) před 2 roky
  Georgi Gerganov ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) před 2 roky
  Cebtenzzre a5661d7e71 llama : allow gguf RoPE keys to be overridden with defaults (#3240) před 2 roky
  Cebtenzzre 3aefaab9e5 check C++ code with -Wmissing-declarations (#3184) před 2 roky