Histórico de Commits

Autor SHA1 Mensagem Data
  Georgi Gerganov ee1a0ec9cb llama : add option for greedy sampling with probs (#3813) há 2 anos atrás
  Henk Poley 177461104b common : print that one line of the syntax help *also* to standard output (#3823) há 2 anos atrás
  Georgi Gerganov fdee152e4e starcoder : add GPU offloading (#3827) há 2 anos atrás
  Kerfuffle 41aee4df82 speculative : ensure draft and target model vocab matches (#3812) há 2 anos atrás
  cebtenzzre 6d459cbfbe llama : correctly report GGUFv3 format (#3818) há 2 anos atrás
  Thibault Terrasson c8d6a1f34a simple : fix batch handling (#3803) há 2 anos atrás
  Georgi Gerganov 2f9ec7e271 cuda : improve text-generation and batched decoding performance (#3776) há 2 anos atrás
  Georgi Gerganov 34b2a5e1ee server : do not release slot on image input (#3798) há 2 anos atrás
  Georgi Gerganov 6961c4bd0b batched-bench : print params at start há 2 anos atrás
  Georgi Gerganov cc44877486 log : disable pid in log filenames há 2 anos atrás
  cebtenzzre ad93962657 server : add parameter -tb N, --threads-batch N (#3584) (#3768) há 2 anos atrás
  Georgi Gerganov 1717521cdb server : do not block system prompt update (#3767) há 2 anos atrás
  Georgi Gerganov b2f7e04bd3 sync : ggml (conv ops + cuda MSVC fixes) (#3765) há 2 anos atrás
  John Smith abd21fc99f cmake : add missed dependencies (#3763) há 2 anos atrás
  Georgi Gerganov 2b4ea35e56 cuda : add batched cuBLAS GEMM for faster attention (#3749) há 2 anos atrás
  Galunid daab3d7f45 Add more tokenizer tests (#3742) há 2 anos atrás
  Georgi Gerganov 469c9addef metal : handle ggml_scale for n%4 != 0 (close #3754) há 2 anos atrás
  Georgi Gerganov e3932593d4 Revert "make : add optional CUDA_NATIVE_ARCH (#2482)" há 2 anos atrás
  M. Yusuf Sarıgöz 9d02956443 issues : separate bug and enhancement template + no default title (#3748) há 2 anos atrás
  Galunid 69a6735087 Update special token handling in conversion scripts for gpt2 derived tokenizers (#3746) há 2 anos atrás
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) há 2 anos atrás
  Galunid 6336701c93 Fix baichuan convert script not detecing model (#3739) há 2 anos atrás
  Alex 96981f37b1 make : add optional CUDA_NATIVE_ARCH (#2482) há 2 anos atrás
  Georgi Gerganov 438c2ca830 server : parallel decoding and multimodal (#3677) há 2 anos atrás
  goerch 9e70cc0322 Add test for MPT tokenization (#3728) há 2 anos atrás
  Ian Scrivener 5a42a5f8e8 readme : remove unsupported node.js library (#3703) há 2 anos atrás
  Kerfuffle a5e7dbd614 llama : validate special token ids are in range when loading GGUF model (#3635) há 2 anos atrás
  vvhg1 d3956aea53 main : escape prompt for cfg_negative_prompt and consecutive inputs in main with interactive (#3623) há 2 anos atrás
  Georgi Gerganov 22c69a2794 batched : add len CLI argument há 2 anos atrás
  shibe2 465219b914 CLBlast: Add outer loops over src0 for broadcasting in mulmat há 2 anos atrás