Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Georgi Gerganov d69d777c02 ggml : quantization refactoring (#3833) 2 ani în urmă
  Cebtenzzre bc39553c90 build : enable more non-default compiler warnings (#3200) 2 ani în urmă
  Cebtenzzre 8781013ef6 make : restore build-info.h dependency for several targets (#3205) 2 ani în urmă
  Cebtenzzre e6616cf0db examples : add compiler version and target to build info (#2998) 2 ani în urmă
  Cebtenzzre 3aefaab9e5 check C++ code with -Wmissing-declarations (#3184) 2 ani în urmă
  Cebtenzzre 00d62adb79 fix some warnings from gcc and clang-tidy (#3038) 2 ani în urmă
  Kerfuffle 5d6f19f16b Allow quantize to only copy tensors, some other improvements (#2931) 2 ani în urmă
  Cebtenzzre ebcee207b6 quantize : make output filename optional again (#2823) 2 ani în urmă
  Kawrakow 8207214b6a Fix values shown in the quantize tool help (#2735) 2 ani în urmă
  Georgi Gerganov 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
  Georgi Gerganov 6cbf9dfb32 llama : shorten quantization descriptions 2 ani în urmă
  Evan Miller 5656d10599 mpi : add support for distributed inference via MPI (#2099) 2 ani în urmă
  zrm b853d45601 ggml : add NUMA support (#1556) 2 ani în urmă
  Kerfuffle 74d4cfa343 Allow "quantizing" to f16 and f32 (#1787) 2 ani în urmă
  Kerfuffle 4f0154b0ba llama : support requantizing models instead of only allowing quantization from 16/32bit (#1691) 2 ani în urmă
  Kawrakow 99009e72f8 ggml : add SOTA 2,3,4,5,6 bit k-quantizations (#1684) 2 ani în urmă
  Georgi Gerganov ec2e10c444 llama : add llama_init_backend() API (close #1527) 2 ani în urmă
  Georgi Gerganov b9fd7eee57 ggml : remove bit shuffling (#1405) 2 ani în urmă
  slaren 94c5652fc0 quantize: make output filename optional, default to ggml-model-<ftype>.bin (#1301) 2 ani în urmă
  DannyDaemonic f4cef87edf Add git-based build information for better issue tracking (#1232) 2 ani în urmă
  Stephan Walter 36d19a603b Remove Q4_3 which is no better than Q5 (#1218) 2 ani în urmă
  Georgi Gerganov 574406dc7e ggml : add Q5_0 and Q5_1 quantization (#1187) 2 ani în urmă
  Pavol Rusnak 859fee6dfb quantize : use `map` to assign quantization type from `string` (#1191) 2 ani în urmă
  Georgi Gerganov 7a32fcb3b2 ggml : add Q8_0 quantization format (rename the old one to Q8_1) (ARM NEON) (#1179) 2 ani în urmă
  Kawrakow 38de86a711 llama : multi-threaded quantization (#1075) 2 ani în urmă
  Georgi Gerganov e0305ead3a ggml : add Q4_3 quantization (#1082) 2 ani în urmă
  Georgi Gerganov 77a73403ca ggml : add new Q4_2 quantization (ARM only) (#1046) 2 ani în urmă
  Stephan Walter 3e6e70d8e8 Add enum llama_ftype, sync ggml_type to model files (#709) 2 ani în urmă
  Slaren 64bde3ffd4 Fix ggml_init_params in quantize 2 ani în urmă
  Stephan Walter 436e561931 all : be more strict about converting float to double (#458) 2 ani în urmă