Историја ревизија

Аутор SHA1 Порука Датум
  Ed Addario 71e90e8813 quantize: Handle user-defined quantization levels for additional tensors (#12511) пре 9 месеци
  mgroeber9110 5bbe6a9fe9 ggml : portability fixes for VS 2017 (#12150) пре 10 месеци
  Djip007 19d8762ab6 ggml : refactor online repacking (#10446) пре 1 година
  slaren 63351143b2 quantize : improve type name parsing (#9570) пре 1 година
  compilade 9bc6db28d0 ggml-quants : ternary packing for TriLMs and BitNet b1.58 (#8151) пре 1 година
  João Dinis Ferreira 8f824ffe8e quantize : fix typo in usage help of `quantize.cpp` (#9145) пре 1 година
  Daniel Bevenius 725e3d9437 quantize : update usage comment in quantize.cpp (#8889) пре 1 година
  Georgi Gerganov 0efec57787 llama : valign + remove unused ftype (#8502) пре 1 година
  Dibakar Gope 0f1a39f343 ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (#5780) пре 1 година
  ddh0 5b48cd53a8 Update llama-quantize ppl/file size output from LLaMA-v1 to Llama-3 values (#8058) пре 1 година
  Georgi Gerganov 6ff13987ad common : normalize naming style (#7462) пре 1 година
  Fred Douglas 1ea2a0036e quantize : fix --keep-split check (#7374) пре 1 година
  Justine Tunney 3855416027 ggml : introduce bfloat16 support (#6412) пре 1 година
  Pierrick Hymbert 0c4d489e29 quantize: add imatrix and dataset metadata in GGUF (#6658) пре 1 година
  jiez 1966eb2615 quantize : add '--keep-split' to quantize model into shards (#6688) пре 1 година
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) пре 1 година
  Kawrakow 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) пре 1 година
  Kawrakow d25b1c31b0 quantize : be able to override metadata by key (#6321) пре 1 година
  Kawrakow 1d0331c12a quantize: options for output and token embedding tensors qtype (#6239) пре 1 година
  Kawrakow 0becb22ac0 IQ4_XS: a 4.25 bpw quantization (#5747) пре 1 година
  Kawrakow a33e6a0d2a Adding IQ2_S and IQ2_M to complete coverage of the 2-3 bit quantization range (#5721) пре 1 година
  Kawrakow 4c4cb30736 IQ3_S: a much better alternative to Q3_K (#5676) пре 1 година
  Kawrakow a14679cc30 IQ4_NL: 4-bit non-linear quants with blocks of 32 (#5590) пре 1 година
  Kawrakow bd2d4e393b 1.5 bit quantization (#5453) пре 1 година
  bmwl f486f6e1e5 ggml : add numa options (#5377) пре 1 година
  Michael Klimenko 52bb63c708 refactor : switch to emplace_back to avoid extra object (#5291) пре 1 година
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) пре 1 година
  Vladimir Malyutin 7359016c7c quantize : fix typo (#5211) пре 1 година
  Kawrakow 66d575c45c llama : add Q3_K_XS (#5060) пре 2 година
  Kawrakow 467a882fd2 Add ability to use importance matrix for all k-quants (#4930) пре 2 година