Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  lon bae5c5f679 examples : skip unnecessary external lib in server README.md how-to (#2804) 2 ani în urmă
  Marcus Dunn 232caf3c15 llama : fix struct decl (#2790) 2 ani în urmă
  Kawrakow d046dcee08 Faster perplexity computation (#2786) 2 ani în urmă
  Matt Pulver c82742ac9c llama : add llama_beam_search() (#2267) 2 ani în urmă
  Nigel Bosch 28b2c996ca convert.py : Get rope scale from HuggingFace models (#2772) 2 ani în urmă
  slaren 154725c543 llama-bench : add model sizes (#2771) 2 ani în urmă
  slaren 12e2e33a97 convert.py : export rope freq_base when converting CodeLlama from an HF model (#2773) 2 ani în urmă
  Jhen-Jie Hong 29674ab4e8 server : display token probabilities in the UI (#2489) 2 ani în urmă
  Georgi Gerganov 5439a0ab57 ci : pip install gguf in editable mode (#2782) 2 ani în urmă
  M. Yusuf Sarıgöz 8194cd8772 gguf : export objects to user code (#2780) 2 ani în urmă
  Henri Vasserman 6bbc598a63 ROCm Port (#1087) 2 ani în urmă
  Georgi Gerganov 3f460a2b72 cuda : add RoPE kernel for mode == 2 (NeoX) (#2760) 2 ani în urmă
  M. Yusuf Sarıgöz 87e3733f24 gguf : make gguf pip-installable 2 ani în urmă
  Shouzheng Liu b91ad7f461 ggml-alloc : enlarge size of parse_seq (#2776) 2 ani în urmă
  Marcus Dunn 2e5f70a25f Added `enum` to `llama_token_get_type` return type (#2774) 2 ani în urmă
  slaren d0f77b1353 convert.py : try to determine n_ctx automatically for CodeLlama (#2770) 2 ani în urmă
  slaren 0d3094f0c7 gguf : add rope_freq_base parameter for CodeLlama (#2769) 2 ani în urmă
  Georgi Gerganov 01f2224682 falcon : write file type 2 ani în urmă
  Shouzheng Liu 38b16dfca6 metal : bug-fix when enable ggml-alloc (#2757) 2 ani în urmă
  Georgi Gerganov 8f8c28e89c convert : auto-determine model name based on dir + scripts update 2 ani în urmă
  Kerfuffle 7694adda8d Fix for main example getting stuck when -n -2 and --interactive (#2767) 2 ani în urmă
  slaren fea95c682d fix convert.py for codellama, add llama 34B to the list of recognized models (#2768) 2 ani în urmă
  DannyDaemonic ef955fbd23 Tag release with build number (#2732) 2 ani în urmă
  Georgi Gerganov d67777c202 metal : add Q8_0 support (#2763) 2 ani în urmă
  Georgi Gerganov c3e53b421a llama : escape all U+2581 in a string (#2750) 2 ani în urmă
  Evan Jones 6e91a1b070 llama : fix grammar sometimes generating null char (#2756) 2 ani în urmă
  Georgi Gerganov 44d5462b5c readme : fix link 2 ani în urmă
  Georgi Gerganov c7868b0753 minor : fix trailing whitespace 2 ani în urmă
  Georgi Gerganov 79da24b58c readme : update hot topics 2 ani în urmă
  Georgi Gerganov cf658adc83 llm : add Falcon support (#2717) 2 ani în urmă