Histórico de Commits

Autor SHA1 Mensagem Data
  Michael Klimenko 52bb63c708 refactor : switch to emplace_back to avoid extra object (#5291) há 1 ano atrás
  divinity76 813416991a main : allow empty --prompt-cache file (#5176) há 1 ano atrás
  Yann Follet 722d33f34e main : add parameter --no-display-prompt (#4541) há 2 anos atrás
  Georgi Gerganov 7edefbd79c main : better name for variable n_print (#4874) há 2 anos atrás
  Georgi Gerganov 3ca63b4538 main : disable token count by default (#4874) há 2 anos atrás
  pudepiedj 43f76bf1c3 main : print total token count and tokens consumed so far (#4874) há 2 anos atrás
  Georgi Gerganov 52531fdff8 main : add self-extend support (#4815) há 2 anos atrás
  MaggotHATE 52c8bc3cf3 sampling : custom samplers order (#4285) há 2 anos atrás
  Andrew Godfrey 8efa0f6ebe main : pass LOG_TEE callback to llama.cpp log (#4033) há 2 anos atrás
  Seb C 881800d1f0 main : Add ChatML functionality to main example (#4046) há 2 anos atrás
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) há 2 anos atrás
  cebtenzzre b12fa0d1c1 build : link against build info instead of compiling against it (#3879) há 2 anos atrás
  Kerfuffle 6e08281e58 Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843) há 2 anos atrás
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) há 2 anos atrás
  vvhg1 d3956aea53 main : escape prompt for cfg_negative_prompt and consecutive inputs in main with interactive (#3623) há 2 anos atrás
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) há 2 anos atrás
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) há 2 anos atrás
  Georgi Gerganov e1675d133c llama : avoid fprintf in favor of LLAMA_LOG (#3538) há 2 anos atrás
  staviq 1a159553f9 tokenizer : special token handling (#3538) há 2 anos atrás
  Georgi Gerganov b8fe4b5cc9 main : fix session loading bug (#3400) há 2 anos atrás
  Kerfuffle 70c29da118 common : fix mirostat state when using multiple sequences (#3543) há 2 anos atrás
  h-h-h-h 8186242b6d main : consistent prefix/suffix coloring (#3425) há 2 anos atrás
  Georgi Gerganov ac2219fef3 llama : fix session saving/loading (#3400) há 2 anos atrás
  Cebtenzzre bc39553c90 build : enable more non-default compiler warnings (#3200) há 2 anos atrás
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) há 2 anos atrás
  Georgi Gerganov ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) há 2 anos atrás
  Cebtenzzre e6616cf0db examples : add compiler version and target to build info (#2998) há 2 anos atrás
  Cebtenzzre 3aefaab9e5 check C++ code with -Wmissing-declarations (#3184) há 2 anos atrás
  Roland 2d770505a8 llama : remove mtest (#3177) há 2 anos atrás
  Cebtenzzre e64f5b5578 examples : make n_ctx warning work again (#3066) há 2 anos atrás