Historie revizí

Autor SHA1 Zpráva Datum
  Georgi Gerganov 38566680cd ggml : add IQ2 to test-backend-ops + refactoring (#4990) před 2 roky
  Georgi Gerganov ba69bbc84c imatrix : offload to GPU support (#4957) před 2 roky
  Kawrakow 334a835a1c ggml : importance matrix support for legacy quants (#4969) před 2 roky
  Justine Tunney a0b3ac8c48 ggml : introduce GGML_CALL function annotation (#4850) před 2 roky
  Kawrakow 467a882fd2 Add ability to use importance matrix for all k-quants (#4930) před 2 roky
  Kawrakow 147b17ac94 2-bit quantizations (#4897) před 2 roky
  Johannes Gäßler c71d608ce7 ggml: cache sin/cos for RoPE (#4908) před 2 roky
  texmex76 c30b1ef39a gguf : fix potential infinite for-loop (#4600) před 2 roky
  slaren e7e4df031b llama : ggml-backend integration (#4766) před 2 roky
  Kawrakow 326b418b59 Importance Matrix calculation (#4861) před 2 roky
  Kawrakow 49662cbed3 ggml : SOTA 2-bit quants (add IQ2_XS) (#4856) před 2 roky
  Timothy Cronin f85a973aa1 ggml : remove ggml_cpy_inplace and ggml_cont_inplace (ggml/693) před 2 roky
  Halalaluyafail3 c910e3c28a Fix execlp call (ggml/689) před 2 roky
  Kawrakow dd5ae06405 SOTA 2-bit quants (#4773) před 2 roky
  Georgi Gerganov c1d7cb28d3 ggml : do not sched_yield when calling BLAS (#4761) před 2 roky
  Guillaume Wenzek 5f66ebca9c ggml : extend ggml_get_rows, ggml_repeat, ggml_concat (ggml/639) před 2 roky
  automaticcat 24a447e20a ggml : add ggml_cpu_has_avx_vnni() (#4589) před 2 roky
  bssrdf afc8c19291 ggml : fix some mul mat cases + add tests for src1 F16 (ggml/669) před 2 roky
  slaren dc68f0054c cuda : fix vmm pool with multi GPU (#4620) před 2 roky
  WillCorticesAI de8e496437 Update comment for AdamW implementation reference. (#4604) před 2 roky
  slaren 5bf3953d7e cuda : improve cuda pool efficiency using virtual memory (#4606) před 2 roky
  slaren 48b7ff193e llama : fix platforms without mmap (#4578) před 2 roky
  Herman Semenov 48b24b170e ggml : add comment about backward GGML_OP_DIAG_MASK_INF (#4203) před 2 roky
  Georgi Gerganov afefa319f1 ggml : change ggml_scale to take a float instead of tensor (#4573) před 2 roky
  slaren d232aca5a7 llama : initial ggml-backend integration (#4520) před 2 roky
  Ebey Abraham b9e74f9bca llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (#4490) před 2 roky
  slaren ee4725a686 ggml : group mul_mat_id rows by matrix (cpu only) (#4480) před 2 roky
  slaren 6744dbe924 ggml : use ggml_row_size where possible (#4472) před 2 roky
  slaren cafcd4f895 ggml : remove n_dims from ggml_tensor (#4469) před 2 roky
  LostRuins 20a68a7030 ggml : add ggml_row_size() (fixes llama out of space) (#4461) před 2 roky