コミット履歴

作者 SHA1 メッセージ 日付
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) 2 年 前
  Georgi Gerganov a0edf73bda server : fix uninitialized sampling context (close #3685) 2 年 前
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) 2 年 前
  Georgi Gerganov 57dd55e2c7 server : fix kv cache management (#3588) 2 年 前
  Michael Coppola a8bdd65525 server : add parameter -tb N, --threads-batch N (#3584) 2 年 前
  Kerfuffle 70c29da118 common : fix mirostat state when using multiple sequences (#3543) 2 年 前
  vvhg1 11ea5c7d96 infill. : fix tokenization (#3508) 2 年 前
  Jhen-Jie Hong 97af49fa39 server : reuse llama_sample_token common util (#3494) 2 年 前
  Kenvix ⭐ 45eba9369f build : use std::make_tuple() for compatibility with older GCC versions (#3488) 2 年 前
  Jhen-Jie Hong e8b8d32e86 server : fix incorrect num_tokens_predicted (#3480) 2 年 前
  Georgi Gerganov ac2219fef3 llama : fix session saving/loading (#3400) 2 年 前
  vvhg1 c97f01c362 infill : add new example + extend server API (#3296) 2 年 前
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) 2 年 前
  xaedes 0e76a8992c train : finetune LORA (#2632) 2 年 前
  Georgi Gerganov ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) 2 年 前
  Cebtenzzre a5661d7e71 llama : allow gguf RoPE keys to be overridden with defaults (#3240) 2 年 前
  Cebtenzzre 3aefaab9e5 check C++ code with -Wmissing-declarations (#3184) 2 年 前
  Cebtenzzre 00d62adb79 fix some warnings from gcc and clang-tidy (#3038) 2 年 前
  Cebtenzzre de2fe892af examples : replace fprintf to stdout with printf (#3017) 2 年 前
  Jhen-Jie Hong 571083f508 server : avoid aniprompt in probabilities of final response (#2849) 2 年 前
  Cebtenzzre ef15649972 build : fix most gcc and clang warnings (#2861) 2 年 前
  Johannes Gäßler 6b73ef1201 YAML result logging + preset script (#2657) 2 年 前
  Georgi Gerganov edd4c14817 llama : more tokenizer fixes (#2810) 2 年 前
  Bruce MacDonald c1ac54b77a server : add `/detokenize` endpoint (#2802) 2 年 前
  Matt Pulver c82742ac9c llama : add llama_beam_search() (#2267) 2 年 前
  Jhen-Jie Hong 29674ab4e8 server : display token probabilities in the UI (#2489) 2 年 前
  Xiao-Yong Jin b8ad1b66b2 server : allow json array in prompt or content for direct token input (#2306) 2 年 前
  Johannes Gäßler c63bb1d16a CUDA: use mul_mat_q kernels by default (#2683) 2 年 前
  Jhen-Jie Hong 226255b44e server : fallback to default if client param is null (#2688) 2 年 前
  Georgi Gerganov 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 年 前