Commit Verlauf

Autor SHA1 Nachricht Datum
  Seb C 881800d1f0 main : Add ChatML functionality to main example (#4046) vor 2 Jahren
  kchro3 262005ad9d common : comma should be semicolon (#4137) vor 2 Jahren
  Jannis Schönleber 9e87ef60e1 common : improve yaml log escaping (#4080) vor 2 Jahren
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) vor 2 Jahren
  slaren 2833a6f63c ggml-cuda : fix f16 mul mat (#3961) vor 2 Jahren
  Kerfuffle d9ccce2e33 Allow common process_escapes to handle \x sequences (#3928) vor 2 Jahren
  Georgi Gerganov 8f961abdc4 speculative : change default p_accept to 0.5 + CLI args (#3919) vor 2 Jahren
  cebtenzzre b12fa0d1c1 build : link against build info instead of compiling against it (#3879) vor 2 Jahren
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) vor 2 Jahren
  Georgi Gerganov ff8f9a88da common : minor (#3715) vor 2 Jahren
  bandoti 0e40806c1c common : allow caller to handle help/argument exceptions (#3715) vor 2 Jahren
  kalomaze 238657db23 samplers : Min-P sampler implementation [alternative to Top P/Top K] (#3841) vor 2 Jahren
  Kerfuffle 6e08281e58 Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843) vor 2 Jahren
  Georgi Gerganov ee1a0ec9cb llama : add option for greedy sampling with probs (#3813) vor 2 Jahren
  Henk Poley 177461104b common : print that one line of the syntax help *also* to standard output (#3823) vor 2 Jahren
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) vor 2 Jahren
  vvhg1 d3956aea53 main : escape prompt for cfg_negative_prompt and consecutive inputs in main with interactive (#3623) vor 2 Jahren
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) vor 2 Jahren
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) vor 2 Jahren
  staviq 1a159553f9 tokenizer : special token handling (#3538) vor 2 Jahren
  M. Yusuf Sarıgöz 370359e5ba examples: support LLaVA v1.5 (multimodal model) (#3436) vor 2 Jahren
  Kerfuffle 70c29da118 common : fix mirostat state when using multiple sequences (#3543) vor 2 Jahren
  Kerfuffle a16e89cec8 Fix trying to strip newline from empty prompt and cfg prompt file content (#3534) vor 2 Jahren
  pudepiedj a8777ad84e parallel : add option to load external prompt file (#3416) vor 2 Jahren
  Jhen-Jie Hong 97af49fa39 server : reuse llama_sample_token common util (#3494) vor 2 Jahren
  Kenvix ⭐ 45eba9369f build : use std::make_tuple() for compatibility with older GCC versions (#3488) vor 2 Jahren
  staviq acec9eaaa9 common : process escape sequences in reverse prompts (#3461) vor 2 Jahren
  goerch ff5a3f0c09 Work on the BPE tokenizer (#3252) vor 2 Jahren
  vvhg1 c97f01c362 infill : add new example + extend server API (#3296) vor 2 Jahren
  Cebtenzzre bc39553c90 build : enable more non-default compiler warnings (#3200) vor 2 Jahren