Historie revizí

Autor SHA1 Zpráva Datum
  slaren 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) před 1 rokem
  jiez 91c736015b llama : add gguf_remove_key + remove split meta during quantize (#6591) před 1 rokem
  Carolinabanana 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) před 1 rokem
  compilade 557410b8f0 llama : greatly reduce output buffer memory usage (#6122) před 1 rokem
  Kawrakow 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) před 1 rokem
  slaren 280345968d cuda : rename build flag to LLAMA_CUDA (#6299) před 1 rokem
  Jared Van Bortel 94d1b3b411 use _wfopen instead of fopen on Windows (#6248) před 1 rokem
  Ondřej Čertík 7ce2c77f88 gguf : add support for I64 and F64 arrays (#6062) před 1 rokem
  Georgi Gerganov 3fe8d7a17f ggml : designate enum vals for integer types (#6050) před 1 rokem
  Georgi Gerganov 5b09797321 ggml : remove old quantization functions (#5942) před 1 rokem
  compilade c2101a2e90 llama : support Mamba Selective State Space Models (#5328) před 1 rokem
  Michael Podvitskiy 9fa2627347 ggml : introduce ggml_status (ggml/750) před 1 rokem
  leejet 7d43c585dc add some new ops, fix some operators and add batch operations to certain operators. (ggml/747) před 1 rokem
  UEXTM.com 5f70671856 Introduce backend GUIDs (ggml/743) před 1 rokem
  Kawrakow 0becb22ac0 IQ4_XS: a 4.25 bpw quantization (#5747) před 1 rokem
  Kawrakow a33e6a0d2a Adding IQ2_S and IQ2_M to complete coverage of the 2-3 bit quantization range (#5721) před 1 rokem
  Georgi Gerganov ab336a9d5e code : normalize enum names (#5697) před 1 rokem
  Kawrakow 4c4cb30736 IQ3_S: a much better alternative to Q3_K (#5676) před 1 rokem
  Georgi Gerganov 7e4f339c40 ggml : always define ggml_fp16_t as uint16_t (#5666) před 1 rokem
  Kawrakow a14679cc30 IQ4_NL: 4-bit non-linear quants with blocks of 32 (#5590) před 1 rokem
  Kawrakow bd2d4e393b 1.5 bit quantization (#5453) před 1 rokem
  Georgi Gerganov 8f1be0d42f ggml : add ALiBi support for ggml_soft_max_ext (#5488) před 1 rokem
  bmwl f486f6e1e5 ggml : add numa options (#5377) před 1 rokem
  Georgi Gerganov 3b169441df sync : ggml (#5452) před 1 rokem
  snadampal a07d0fee1f ggml : add mmla kernels for quantized GEMM (#4966) před 1 rokem
  Michael Podvitskiy 4633d93af0 ggml : add abort_callback for cpu backend (ggml/725) před 1 rokem
  JidongZhang-THU 15606309a0 llava : add MobileVLM support (#5132) před 1 rokem
  Jared Van Bortel e8dc55d006 kompute : llama-bench support and ggml_cpu_has_kompute() (#5226) před 1 rokem
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) před 1 rokem