Komit Sejarah

Pembuat SHA1 Pesan Tanggal
  Kamil Tomšík 348acf188c llama : add missing enum keyword in function signatures (#2610) 2 tahun lalu
  grahameth ea04a4ca19 add log_callback to llama_context_params for custom logging. (#2234) 2 tahun lalu
  Johannes Gäßler 0728c5a8b9 CUDA: mmq CLI option, fixed mmq build issues (#2453) 2 tahun lalu
  Kawrakow eb542d3932 Add LLAMA_DEFAULT_RMS_EPS so we can change the default (#2384) 2 tahun lalu
  slaren 41c674161f make rms_norm_eps a parameter (#2374) 2 tahun lalu
  Evan Jones 84e09a7d8b llama : add grammar-based sampling (#1773) 2 tahun lalu
  Georgi Gerganov e76d630df1 llama : grouped-query attention + LLaMAv2 70B support (#2276) 2 tahun lalu
  Guillaume "Vermeille" Sanchez ab0e26bdfb llama : remove cfg smooth factor as it is only a reparameterization of the guidance scale (#2280) 2 tahun lalu
  Georgi Gerganov ae178ab46b llama : make tensor_split ptr instead of array (#2272) 2 tahun lalu
  Rinne 294f424554 llama : extend API to get max devices at runtime (#2253) 2 tahun lalu
  Xiao-Yong Jin 6e7cca4047 llama : add custom RoPE (#2054) 2 tahun lalu
  Bach Le 7513b7b0a1 llama : add functions that work directly on model (#2197) 2 tahun lalu
  Bach Le c9c74b4e3f llama : add classifier-free guidance (#2135) 2 tahun lalu
  Evan Miller 5656d10599 mpi : add support for distributed inference via MPI (#2099) 2 tahun lalu
  Tobias Lütke 31cfbb1013 Expose generation timings from server & update completions.js (#2116) 2 tahun lalu
  Howard Su b8c8dda75f Use unsigned for random seed (#2006) 2 tahun lalu
  ningshanwutuobang cfa0750bc9 llama : support input embeddings directly (#1910) 2 tahun lalu
  zrm b853d45601 ggml : add NUMA support (#1556) 2 tahun lalu
  Didzis Gosko 527b6fba1d llama : make model stateless and context stateful (llama_state) (#1797) 2 tahun lalu
  Ettore Di Giacinto aacdbd4056 llama : fix params struct slignment (#1936) 2 tahun lalu
  yangli2 c36e81da62 examples : add chat-vicuna.sh (#1854) 2 tahun lalu
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) 2 tahun lalu
  xaedes e32089b2c2 train : improved training-from-scratch example (#1652) 2 tahun lalu
  Kerfuffle 4f0154b0ba llama : support requantizing models instead of only allowing quantization from 16/32bit (#1691) 2 tahun lalu
  Johannes Gäßler 17366df842 Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703) 2 tahun lalu
  Kawrakow 99009e72f8 ggml : add SOTA 2,3,4,5,6 bit k-quantizations (#1684) 2 tahun lalu
  Georgi Gerganov ecb217db4f llama : Metal inference (#1642) 2 tahun lalu
  Kerfuffle 1b78ed2081 Only show -ngl option when relevant + other doc/arg handling updates (#1625) 2 tahun lalu
  Juuso Alasuutari 29cf5596fe llama : define magic numbers as integer constants (#1518) (#1520) 2 tahun lalu
  Georgi Gerganov ec2e10c444 llama : add llama_init_backend() API (close #1527) 2 tahun lalu