История коммитов

Автор SHA1 Сообщение Дата
  Kawrakow bd2d4e393b 1.5 bit quantization (#5453) 1 год назад
  Georgi Gerganov 8f1be0d42f ggml : add ALiBi support for ggml_soft_max_ext (#5488) 1 год назад
  bmwl f486f6e1e5 ggml : add numa options (#5377) 1 год назад
  Georgi Gerganov 3b169441df sync : ggml (#5452) 1 год назад
  snadampal a07d0fee1f ggml : add mmla kernels for quantized GEMM (#4966) 1 год назад
  Michael Podvitskiy 4633d93af0 ggml : add abort_callback for cpu backend (ggml/725) 1 год назад
  JidongZhang-THU 15606309a0 llava : add MobileVLM support (#5132) 2 лет назад
  Jared Van Bortel e8dc55d006 kompute : llama-bench support and ggml_cpu_has_kompute() (#5226) 2 лет назад
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) 2 лет назад
  0cc4m 2307523d32 ggml : add Vulkan backend (#2059) 2 лет назад
  Abhilash Majumder 0f648573dd ggml : add unified SYCL backend for Intel GPUs (#2690) 2 лет назад
  Georgi Gerganov 89758723c7 minor : clean-up some warnings and style (#5094) 2 лет назад
  XiaotaoChen 3ce7e8f8e7 llava : MobileVLM support (#4954) 2 лет назад
  Georgi Gerganov 38566680cd ggml : add IQ2 to test-backend-ops + refactoring (#4990) 2 лет назад
  Georgi Gerganov ba69bbc84c imatrix : offload to GPU support (#4957) 2 лет назад
  Justine Tunney a0b3ac8c48 ggml : introduce GGML_CALL function annotation (#4850) 2 лет назад
  Kawrakow 147b17ac94 2-bit quantizations (#4897) 2 лет назад
  slaren e7e4df031b llama : ggml-backend integration (#4766) 2 лет назад
  Kawrakow 326b418b59 Importance Matrix calculation (#4861) 2 лет назад
  Kawrakow 49662cbed3 ggml : SOTA 2-bit quants (add IQ2_XS) (#4856) 2 лет назад
  Timothy Cronin f85a973aa1 ggml : remove ggml_cpy_inplace and ggml_cont_inplace (ggml/693) 2 лет назад
  leejet e739de7909 ggml : change GGML_MAX_NAME at compile time (ggml/682) 2 лет назад
  Kawrakow dd5ae06405 SOTA 2-bit quants (#4773) 2 лет назад
  automaticcat 24a447e20a ggml : add ggml_cpu_has_avx_vnni() (#4589) 2 лет назад
  slaren 5bf3953d7e cuda : improve cuda pool efficiency using virtual memory (#4606) 2 лет назад
  bobqianic 0137ef88ea ggml : extend `enum ggml_log_level` with `GGML_LOG_LEVEL_DEBUG` (#4579) 2 лет назад
  Georgi Gerganov afefa319f1 ggml : change ggml_scale to take a float instead of tensor (#4573) 2 лет назад
  slaren d232aca5a7 llama : initial ggml-backend integration (#4520) 2 лет назад
  Eric Sommerlade 328b83de23 ggml : fixed check for _MSC_VER (#4535) 2 лет назад
  Ebey Abraham b9e74f9bca llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (#4490) 2 лет назад