Historie revizí

Autor SHA1 Zpráva Datum
  Cebtenzzre 741ca7dd1c llama : move #includes out of _GNU_SOURCE conditional (#2817) před 2 roky
  Dr. Tom Murphy VII Ph.D 72f895c923 main : fix bug (penalize_nl=false doesn't work) + suppress warning on mingw (#1528) před 2 roky
  Cebtenzzre 50526f37eb llama : use std::abs in llama_sample_tail_free (#2800) před 2 roky
  Georgi Gerganov 04f4b1eb10 k-quants : remove unnecessary tensor shape restrictions (#2811) před 2 roky
  Kawrakow 7592375403 Better perplexity for 2- and 3-bit quantization for LLaMA-v2-70B (#2807) před 2 roky
  Kawrakow 771551a793 Fix HellaSwag (#2805) před 2 roky
  Volodymyr Vitvitskyi f305bad11e flake : build llama.cpp on Intel with nix (#2795) před 2 roky
  Nigel Bosch a2ca4e9de9 Handle null rope scaling value (#2793) před 2 roky
  klosax 2ba83c8685 Fix spm whitespaces (#2806) před 2 roky
  lon bae5c5f679 examples : skip unnecessary external lib in server README.md how-to (#2804) před 2 roky
  Marcus Dunn 232caf3c15 llama : fix struct decl (#2790) před 2 roky
  Kawrakow d046dcee08 Faster perplexity computation (#2786) před 2 roky
  Matt Pulver c82742ac9c llama : add llama_beam_search() (#2267) před 2 roky
  Nigel Bosch 28b2c996ca convert.py : Get rope scale from HuggingFace models (#2772) před 2 roky
  slaren 154725c543 llama-bench : add model sizes (#2771) před 2 roky
  slaren 12e2e33a97 convert.py : export rope freq_base when converting CodeLlama from an HF model (#2773) před 2 roky
  Jhen-Jie Hong 29674ab4e8 server : display token probabilities in the UI (#2489) před 2 roky
  Georgi Gerganov 5439a0ab57 ci : pip install gguf in editable mode (#2782) před 2 roky
  M. Yusuf Sarıgöz 8194cd8772 gguf : export objects to user code (#2780) před 2 roky
  Henri Vasserman 6bbc598a63 ROCm Port (#1087) před 2 roky
  Georgi Gerganov 3f460a2b72 cuda : add RoPE kernel for mode == 2 (NeoX) (#2760) před 2 roky
  M. Yusuf Sarıgöz 87e3733f24 gguf : make gguf pip-installable před 2 roky
  Shouzheng Liu b91ad7f461 ggml-alloc : enlarge size of parse_seq (#2776) před 2 roky
  Marcus Dunn 2e5f70a25f Added `enum` to `llama_token_get_type` return type (#2774) před 2 roky
  slaren d0f77b1353 convert.py : try to determine n_ctx automatically for CodeLlama (#2770) před 2 roky
  slaren 0d3094f0c7 gguf : add rope_freq_base parameter for CodeLlama (#2769) před 2 roky
  Georgi Gerganov 01f2224682 falcon : write file type před 2 roky
  Shouzheng Liu 38b16dfca6 metal : bug-fix when enable ggml-alloc (#2757) před 2 roky
  Georgi Gerganov 8f8c28e89c convert : auto-determine model name based on dir + scripts update před 2 roky
  Kerfuffle 7694adda8d Fix for main example getting stuck when -n -2 and --interactive (#2767) před 2 roky