Historial de Commits

Autor SHA1 Mensaje Fecha
  klosax f3c3b4b167 Add --rope-scale parameter (#2544) hace 2 años
  DannyDaemonic 3498588e0f Add --simple-io option for subprocesses and break out console.h and cpp (#1558) hace 2 años
  Eve 81844fbcfd tests : Fix compilation warnings (Linux/GCC) (#2451) hace 2 años
  Johannes Gäßler 0728c5a8b9 CUDA: mmq CLI option, fixed mmq build issues (#2453) hace 2 años
  klosax 8a88e5855c perplexity : add Hellaswag calculation (#2389) hace 2 años
  Xiao-Yong Jin 0c06204fb3 main : add `--in-prefix-bos` to prefix BOS to user inputs; keep EOS (#2304) hace 2 años
  slaren 41c674161f make rms_norm_eps a parameter (#2374) hace 2 años
  Evan Jones 84e09a7d8b llama : add grammar-based sampling (#1773) hace 2 años
  wzy 57921ca6db common : n_threads == -1 uses std::thread::hardware_concurrency() (#2347) hace 2 años
  Georgi Gerganov e76d630df1 llama : grouped-query attention + LLaMAv2 70B support (#2276) hace 2 años
  maddes8cht 1d0824b247 llama : print help to stdout (#2338) hace 2 años
  Georgi Gerganov b47b8a9cfe llama : optimize memory buffers (#2325) hace 2 años
  klosax b5fe67f8c6 Perplexity: Compute scores correlated to HellaSwag (#2312) hace 2 años
  Guillaume "Vermeille" Sanchez ab0e26bdfb llama : remove cfg smooth factor as it is only a reparameterization of the guidance scale (#2280) hace 2 años
  Georgi Gerganov ae178ab46b llama : make tensor_split ptr instead of array (#2272) hace 2 años
  Georgi Gerganov d01bccde9f ci : integrate with ggml-org/ci (#2250) hace 2 años
  Xiao-Yong Jin 6e7cca4047 llama : add custom RoPE (#2054) hace 2 años
  Howard Su 32c5411631 Revert "Support using mmap when applying LoRA (#2095)" (#2206) hace 2 años
  Bach Le c9c74b4e3f llama : add classifier-free guidance (#2135) hace 2 años
  Howard Su 2347463201 Support using mmap when applying LoRA (#2095) hace 2 años
  Nigel Bosch db4047ad5c main : escape prompt prefix/suffix (#2151) hace 2 años
  Howard Su b8c8dda75f Use unsigned for random seed (#2006) hace 2 años
  Johannes Gäßler 7f9753fa12 CUDA GPU acceleration for LoRAs + f16 models (#1970) hace 2 años
  zrm b853d45601 ggml : add NUMA support (#1556) hace 2 años
  Didzis Gosko 527b6fba1d llama : make model stateless and context stateful (llama_state) (#1797) hace 2 años
  Johannes Gäßler 2c9380dd2f Only one CUDA stream per device for async compute (#1898) hace 2 años
  Borislav Stanimirov 9cbf50c041 build : fix and ignore MSVC warnings (#1889) hace 2 años
  Johannes Gäßler 6b8312e797 Better error when using both LoRA + GPU layers (#1861) hace 2 años
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) hace 2 años
  Kerfuffle fa84c4b3e8 Fix issue where interactive mode crashes when input exceeds ctx size (#1789) hace 2 años