Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  slaren d232aca5a7 llama : initial ggml-backend integration (#4520) 2 ani în urmă
  Erik Garrison 0f630fbc92 cuda : ROCm AMD Unified Memory Architecture (UMA) handling (#4449) 2 ani în urmă
  arlo-phoenix 562cf222b5 ggml-cuda: Fix HIP build by adding define for __trap (#4569) 2 ani în urmă
  Johannes Gäßler 9154494808 CUDA: mul_mat_id always on GPU for batches >= 32 (#4553) 2 ani în urmă
  bobqianic 66f35a2f48 cuda : better error message for ggml_get_rows (#4561) 2 ani în urmă
  slaren 1398823922 cuda : replace asserts in wrong architecture checks with __trap (#4556) 2 ani în urmă
  LoganDark 1d7a1912ce Fix access violation in ggml_cuda_free_data if tensor->extra is NULL (#4554) 2 ani în urmă
  Johannes Gäßler 799fc22689 CUDA: Faster Mixtral prompt processing (#4538) 2 ani în urmă
  arlo-phoenix a7aee47b98 ggml-cuda: Fix HIP build (#4528) 2 ani în urmă
  Ebey Abraham b9e74f9bca llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (#4490) 2 ani în urmă
  slaren 6744dbe924 ggml : use ggml_row_size where possible (#4472) 2 ani în urmă
  Georgi Gerganov 4d98d9a656 sync : ggml (SD ops, tests, kernels) (#4444) 2 ani în urmă
  slaren 799a1cb13b llama : add Mixtral support (#4406) 2 ani în urmă
  Georgi Gerganov fe680e3d10 sync : ggml (new ops, tests, backend, etc.) (#4359) 2 ani în urmă
  Georgi Gerganov bcc0eb4591 llama : per-layer KV cache + quantum K cache (#4309) 2 ani în urmă
  Georgi Gerganov ef47ec18da ggml : add ggml_soft_max_ext (#4256) 2 ani în urmă
  slaren 8a052c131e ggml-cuda : support stablelm rope (#4156) 2 ani în urmă
  Haohui Mai 55978ce09b Fix incorrect format strings and uninitialized variables. (#4133) 2 ani în urmă
  Kerfuffle 2923f17f6f Clean up ggml-cuda.cu warnings when compiling with clang (for ROCM) (#4124) 2 ani în urmă
  Andrew Godfrey b83e149ec6 cuda : get_row_rounding F32 (#4095) 2 ani în urmă
  Georgi Gerganov 4f447a4833 llama : fix data units (#4101) 2 ani în urmă
  slaren 1cf2850d52 ggml-cuda : increase max graph size (#4084) 2 ani în urmă
  Georgi Gerganov 3d68f364f1 ggml : sync (im2col, GPU conv, 32-bit arm compat) (#4060) 2 ani în urmă
  Georgi Gerganov 4760e7cc0b sync : ggml (backend v2) (#3912) 2 ani în urmă
  Kerfuffle bb50a792ec Add ReLU and SQR CUDA ops to (partially) fix Persimmon offloading (#4041) 2 ani în urmă
  Meng Zhang 46876d2a2c cuda : supports running on CPU for GGML_USE_CUBLAS=ON build (#3946) 2 ani în urmă
  slaren 2833a6f63c ggml-cuda : fix f16 mul mat (#3961) 2 ani în urmă
  Jared Van Bortel 132d25b8a6 cuda : fix disabling device with --tensor-split 1,0 (#3951) 2 ani în urmă
  slaren 48ade94538 cuda : revert CUDA pool stuff (#3944) 2 ani în urmă
  slaren abb77e7319 ggml-cuda : move row numbers to x grid dim in mmv kernels (#3921) 2 ani în urmă