Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Johannes Gäßler 2b5eb72e10 Fixed __dp4a compute capability: 6.0 -> 6.1 (#2189) 2 ani în urmă
  Georgi Gerganov f7d278faf3 ggml : revert CUDA broadcast changes from #2183 (#2191) 2 ani în urmă
  Georgi Gerganov 20d7740a9b ggml : sync (abort callback, mul / add broadcast, fix alibi) (#2183) 2 ani în urmă
  Spencer Sutton 5bf2a27718 ggml : remove src0 and src1 from ggml_tensor and rename opt to src (#2178) 2 ani în urmă
  Bach Le c9c74b4e3f llama : add classifier-free guidance (#2135) 2 ani în urmă
  Jinwoo Jeong 3ec7e596b2 docker : add '--server' option (#2174) 2 ani în urmă
  Chad Brewbaker 917831c63a readme : fix zig build instructions (#2171) 2 ani în urmă
  Howard Su 2347463201 Support using mmap when applying LoRA (#2095) 2 ani în urmă
  LostRuins bbef28218f Possible solution to allow K-quants on models with n_vocab!=32000 (#2148) 2 ani în urmă
  Evan Miller 5656d10599 mpi : add support for distributed inference via MPI (#2099) 2 ani în urmă
  oobabooga 1d16309969 llama : remove "first token must be BOS" restriction (#2153) 2 ani în urmă
  Nigel Bosch db4047ad5c main : escape prompt prefix/suffix (#2151) 2 ani în urmă
  JackJollimore 18780e0a5e readme : update Termux instructions (#2147) 2 ani în urmă
  clyang 3bbc1a11f0 ggml : fix buidling with Intel MKL but ask for "cblas.h" issue (#2104) (#2115) 2 ani în urmă
  rankaiyx 2492a53fd0 readme : add more docs indexes (#2127) 2 ani în urmă
  Johannes Gäßler 64639555ff Fixed OpenLLaMA 3b CUDA mul_mat_vec_q (#2144) 2 ani în urmă
  Johannes Gäßler 061f5f8d21 CUDA: add __restrict__ to mul mat vec kernels (#2140) 2 ani în urmă
  dylan 84525e7962 docker : add support for CUDA in docker (#1461) 2 ani în urmă
  Georgi Gerganov a7e20edf22 ci : switch threads to 1 (#2138) 2 ani în urmă
  Qingyou Meng 1d656d6360 ggml : change ggml_graph_compute() API to not require context (#1999) 2 ani în urmă
  Georgi Gerganov 7242140283 ggml : remove sched_yield() call in ggml_graph_compute_thread() (#2134) 2 ani în urmă
  Aarni Koskela 3e08ae99ce convert.py: add mapping for safetensors bf16 (#1598) 2 ani în urmă
  Howard Su 481f793acc Fix opencl by wrap #if-else-endif with \n (#2086) 2 ani în urmă
  Georgi Gerganov dfd9fce6d6 ggml : fix restrict usage 2 ani în urmă
  Judd 36680f6e40 convert : update for baichuan (#2081) 2 ani în urmă
  tslmy a17a2683d8 alpaca.sh : update model file name (#2074) 2 ani în urmă
  Tobias Lütke 31cfbb1013 Expose generation timings from server & update completions.js (#2116) 2 ani în urmă
  Jesse Jojo Johnson 983b555e9d Update Server Instructions (#2113) 2 ani în urmă
  Georgi Gerganov ec326d350c ggml : fix bug introduced in #1237 2 ani în urmă
  Georgi Gerganov 1b6efeab82 tests : fix test-grad0 2 ani în urmă