Histórico de Commits

Autor SHA1 Mensagem Data
  Ed Addario 71e90e8813 quantize: Handle user-defined quantization levels for additional tensors (#12511) há 9 meses atrás
  mgroeber9110 5bbe6a9fe9 ggml : portability fixes for VS 2017 (#12150) há 10 meses atrás
  Djip007 19d8762ab6 ggml : refactor online repacking (#10446) há 1 ano atrás
  slaren 63351143b2 quantize : improve type name parsing (#9570) há 1 ano atrás
  compilade 9bc6db28d0 ggml-quants : ternary packing for TriLMs and BitNet b1.58 (#8151) há 1 ano atrás
  João Dinis Ferreira 8f824ffe8e quantize : fix typo in usage help of `quantize.cpp` (#9145) há 1 ano atrás
  Daniel Bevenius 725e3d9437 quantize : update usage comment in quantize.cpp (#8889) há 1 ano atrás
  Georgi Gerganov 0efec57787 llama : valign + remove unused ftype (#8502) há 1 ano atrás
  Dibakar Gope 0f1a39f343 ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (#5780) há 1 ano atrás
  ddh0 5b48cd53a8 Update llama-quantize ppl/file size output from LLaMA-v1 to Llama-3 values (#8058) há 1 ano atrás
  Georgi Gerganov 6ff13987ad common : normalize naming style (#7462) há 1 ano atrás
  Fred Douglas 1ea2a0036e quantize : fix --keep-split check (#7374) há 1 ano atrás
  Justine Tunney 3855416027 ggml : introduce bfloat16 support (#6412) há 1 ano atrás
  Pierrick Hymbert 0c4d489e29 quantize: add imatrix and dataset metadata in GGUF (#6658) há 1 ano atrás
  jiez 1966eb2615 quantize : add '--keep-split' to quantize model into shards (#6688) há 1 ano atrás
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) há 1 ano atrás
  Kawrakow 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) há 1 ano atrás
  Kawrakow d25b1c31b0 quantize : be able to override metadata by key (#6321) há 1 ano atrás
  Kawrakow 1d0331c12a quantize: options for output and token embedding tensors qtype (#6239) há 1 ano atrás
  Kawrakow 0becb22ac0 IQ4_XS: a 4.25 bpw quantization (#5747) há 1 ano atrás
  Kawrakow a33e6a0d2a Adding IQ2_S and IQ2_M to complete coverage of the 2-3 bit quantization range (#5721) há 1 ano atrás
  Kawrakow 4c4cb30736 IQ3_S: a much better alternative to Q3_K (#5676) há 1 ano atrás
  Kawrakow a14679cc30 IQ4_NL: 4-bit non-linear quants with blocks of 32 (#5590) há 1 ano atrás
  Kawrakow bd2d4e393b 1.5 bit quantization (#5453) há 1 ano atrás
  bmwl f486f6e1e5 ggml : add numa options (#5377) há 1 ano atrás
  Michael Klimenko 52bb63c708 refactor : switch to emplace_back to avoid extra object (#5291) há 1 ano atrás
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) há 1 ano atrás
  Vladimir Malyutin 7359016c7c quantize : fix typo (#5211) há 1 ano atrás
  Kawrakow 66d575c45c llama : add Q3_K_XS (#5060) há 2 anos atrás
  Kawrakow 467a882fd2 Add ability to use importance matrix for all k-quants (#4930) há 2 anos atrás