Historial de Commits

Autor SHA1 Mensaje Fecha
  Georgi Gerganov e76d630df1 llama : grouped-query attention + LLaMAv2 70B support (#2276) hace 2 años
  Guillaume "Vermeille" Sanchez ab0e26bdfb llama : remove cfg smooth factor as it is only a reparameterization of the guidance scale (#2280) hace 2 años
  Georgi Gerganov ae178ab46b llama : make tensor_split ptr instead of array (#2272) hace 2 años
  Rinne 294f424554 llama : extend API to get max devices at runtime (#2253) hace 2 años
  Xiao-Yong Jin 6e7cca4047 llama : add custom RoPE (#2054) hace 2 años
  Bach Le 7513b7b0a1 llama : add functions that work directly on model (#2197) hace 2 años
  Bach Le c9c74b4e3f llama : add classifier-free guidance (#2135) hace 2 años
  Evan Miller 5656d10599 mpi : add support for distributed inference via MPI (#2099) hace 2 años
  Tobias Lütke 31cfbb1013 Expose generation timings from server & update completions.js (#2116) hace 2 años
  Howard Su b8c8dda75f Use unsigned for random seed (#2006) hace 2 años
  ningshanwutuobang cfa0750bc9 llama : support input embeddings directly (#1910) hace 2 años
  zrm b853d45601 ggml : add NUMA support (#1556) hace 2 años
  Didzis Gosko 527b6fba1d llama : make model stateless and context stateful (llama_state) (#1797) hace 2 años
  Ettore Di Giacinto aacdbd4056 llama : fix params struct slignment (#1936) hace 2 años
  yangli2 c36e81da62 examples : add chat-vicuna.sh (#1854) hace 2 años
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) hace 2 años
  xaedes e32089b2c2 train : improved training-from-scratch example (#1652) hace 2 años
  Kerfuffle 4f0154b0ba llama : support requantizing models instead of only allowing quantization from 16/32bit (#1691) hace 2 años
  Johannes Gäßler 17366df842 Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703) hace 2 años
  Kawrakow 99009e72f8 ggml : add SOTA 2,3,4,5,6 bit k-quantizations (#1684) hace 2 años
  Georgi Gerganov ecb217db4f llama : Metal inference (#1642) hace 2 años
  Kerfuffle 1b78ed2081 Only show -ngl option when relevant + other doc/arg handling updates (#1625) hace 2 años
  Juuso Alasuutari 29cf5596fe llama : define magic numbers as integer constants (#1518) (#1520) hace 2 años
  Georgi Gerganov ec2e10c444 llama : add llama_init_backend() API (close #1527) hace 2 años
  Georgi Gerganov 8a203f9fa1 llama : fix compile warnings in llama_set_state_data() hace 2 años
  Georgi Gerganov 2d5db48371 ggml : use F16 instead of F32 in Q4_0, Q4_1, Q8_0 (#1508) hace 2 años
  Stephan Walter dc271c52ed Remove unused n_parts parameter (#1509) hace 2 años
  Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) hace 2 años
  Georgi Gerganov 738ace394a llama : free ggml context in set / copy state data (close #1425) hace 2 años
  Georgi Gerganov b9fd7eee57 ggml : remove bit shuffling (#1405) hace 2 años