Histórico de Commits

Autor SHA1 Mensagem Data
  Dr. Tom Murphy VII Ph.D 72f895c923 main : fix bug (penalize_nl=false doesn't work) + suppress warning on mingw (#1528) há 2 anos atrás
  Cebtenzzre 50526f37eb llama : use std::abs in llama_sample_tail_free (#2800) há 2 anos atrás
  Georgi Gerganov 04f4b1eb10 k-quants : remove unnecessary tensor shape restrictions (#2811) há 2 anos atrás
  Kawrakow 7592375403 Better perplexity for 2- and 3-bit quantization for LLaMA-v2-70B (#2807) há 2 anos atrás
  Kawrakow 771551a793 Fix HellaSwag (#2805) há 2 anos atrás
  Volodymyr Vitvitskyi f305bad11e flake : build llama.cpp on Intel with nix (#2795) há 2 anos atrás
  Nigel Bosch a2ca4e9de9 Handle null rope scaling value (#2793) há 2 anos atrás
  klosax 2ba83c8685 Fix spm whitespaces (#2806) há 2 anos atrás
  lon bae5c5f679 examples : skip unnecessary external lib in server README.md how-to (#2804) há 2 anos atrás
  Marcus Dunn 232caf3c15 llama : fix struct decl (#2790) há 2 anos atrás
  Kawrakow d046dcee08 Faster perplexity computation (#2786) há 2 anos atrás
  Matt Pulver c82742ac9c llama : add llama_beam_search() (#2267) há 2 anos atrás
  Nigel Bosch 28b2c996ca convert.py : Get rope scale from HuggingFace models (#2772) há 2 anos atrás
  slaren 154725c543 llama-bench : add model sizes (#2771) há 2 anos atrás
  slaren 12e2e33a97 convert.py : export rope freq_base when converting CodeLlama from an HF model (#2773) há 2 anos atrás
  Jhen-Jie Hong 29674ab4e8 server : display token probabilities in the UI (#2489) há 2 anos atrás
  Georgi Gerganov 5439a0ab57 ci : pip install gguf in editable mode (#2782) há 2 anos atrás
  M. Yusuf Sarıgöz 8194cd8772 gguf : export objects to user code (#2780) há 2 anos atrás
  Henri Vasserman 6bbc598a63 ROCm Port (#1087) há 2 anos atrás
  Georgi Gerganov 3f460a2b72 cuda : add RoPE kernel for mode == 2 (NeoX) (#2760) há 2 anos atrás
  M. Yusuf Sarıgöz 87e3733f24 gguf : make gguf pip-installable há 2 anos atrás
  Shouzheng Liu b91ad7f461 ggml-alloc : enlarge size of parse_seq (#2776) há 2 anos atrás
  Marcus Dunn 2e5f70a25f Added `enum` to `llama_token_get_type` return type (#2774) há 2 anos atrás
  slaren d0f77b1353 convert.py : try to determine n_ctx automatically for CodeLlama (#2770) há 2 anos atrás
  slaren 0d3094f0c7 gguf : add rope_freq_base parameter for CodeLlama (#2769) há 2 anos atrás
  Georgi Gerganov 01f2224682 falcon : write file type há 2 anos atrás
  Shouzheng Liu 38b16dfca6 metal : bug-fix when enable ggml-alloc (#2757) há 2 anos atrás
  Georgi Gerganov 8f8c28e89c convert : auto-determine model name based on dir + scripts update há 2 anos atrás
  Kerfuffle 7694adda8d Fix for main example getting stuck when -n -2 and --interactive (#2767) há 2 anos atrás
  slaren fea95c682d fix convert.py for codellama, add llama 34B to the list of recognized models (#2768) há 2 anos atrás