Historie revizí

Autor SHA1 Zpráva Datum
  slaren 2b1f616b20 ggml : reduce hash table reset cost (#8698) před 1 rokem
  slaren 87e397d00b ggml : fix quant dot product with odd number of blocks (#8549) před 1 rokem
  hipudding 1bdd8ae19f [CANN] Add Ascend NPU backend (#6035) před 1 rokem
  Georgi Gerganov 6847d54c4f tests : fix whitespace (#0) před 1 rokem
  John Balis fde13b3bb9 feat: cuda implementation for `ggml_conv_transpose_1d` (ggml/854) před 1 rokem
  slaren 0e0590adab cuda : update supports_op for matrix multiplication (#8245) před 1 rokem
  Georgi Gerganov f3f65429c4 llama : reorganize source code + improve CMake (#8006) před 1 rokem
  slaren b6b9a8e606 fix CI failures (#8066) před 1 rokem
  Calvin Laurenson 43b35e38ba Add support for sqrt on CUDA (#7953) před 1 rokem
  Georgi Gerganov a9cae48003 tests : add non-cont unary tests (#7857) před 1 rokem
  Georgi Gerganov 2b3389677a ggml : refactor rope norm/neox (#7634) před 1 rokem
  Johannes Gäßler e141ce624a Fix FlashAttention debug test, FP32 assert (#7684) před 1 rokem
  Johannes Gäßler 9b596417af CUDA: quantized KV support for FA vec (#7527) před 1 rokem
  Georgi Gerganov fb76ec31a9 ggml : fix YARN + add tests + add asserts (#7617) před 1 rokem
  Georgi Gerganov cce3dcffc5 cuda : non-cont concat support (#7610) před 1 rokem
  Georgi Gerganov 0548a4187f ggml : generalize GGML_OP_CONCAT (#7563) před 1 rokem
  Georgi Gerganov 3e5faa8503 cuda : fix rope + add tests (#7452) před 1 rokem
  liuwei-git 201cc11afa llama : add phi3 128K model support (#7225) před 1 rokem
  slaren 05834841dc ggml : fix quants nans when all the group weights are very close to zero (#7313) před 1 rokem
  John Balis 48aa8fd1f2 ggml : add `ggml_upscale_ext` (ggml/814) před 1 rokem
  Georgi Gerganov e8a7fd4fb0 metal : support FA without mask + add asserts (#7278) před 1 rokem
  Johannes Gäßler dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) před 1 rokem
  Georgi Gerganov 9cb317f77e ggml : full ALiBi support (#7192) před 1 rokem
  Johannes Gäßler a743d76a01 CUDA: generalize FP16 fattn vec kernel (#7061) před 1 rokem
  Justine Tunney 3855416027 ggml : introduce bfloat16 support (#6412) před 1 rokem
  Georgi Gerganov 9c67c2773d ggml : add Flash Attention (#5021) před 1 rokem
  slaren 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) před 1 rokem
  Shijie f4dea7da18 llama : add qwen2moe (#6074) před 1 rokem
  slaren fbbc030ba9 metal : unify mul_mv_id kernels (#6556) před 1 rokem
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) před 1 rokem