コミット履歴

作者 SHA1 メッセージ 日付
  Georgi Gerganov 4d719a6d4e cuda : check if this fixes Pascal card regression (#3882) 2 年 前
  cebtenzzre 2fffa0d61f cuda : fix RoPE after #2268 (#3897) 2 年 前
  slaren d02e98cde0 ggml-cuda : compute ptrs for cublasGemmBatchedEx in a kernel (#3891) 2 年 前
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) 2 年 前
  Andrew Godfrey 73bdcb395e finetune : add -ngl parameter (#3762) 2 年 前
  Georgi Gerganov 2f9ec7e271 cuda : improve text-generation and batched decoding performance (#3776) 2 年 前
  Georgi Gerganov 6961c4bd0b batched-bench : print params at start 2 年 前
  Georgi Gerganov b2f7e04bd3 sync : ggml (conv ops + cuda MSVC fixes) (#3765) 2 年 前
  Georgi Gerganov 2b4ea35e56 cuda : add batched cuBLAS GEMM for faster attention (#3749) 2 年 前
  Jan Ploski f5f9121de1 llm : add MPT support (#3417) 2 年 前
  Georgi Gerganov db3abcc114 sync : ggml (ggml-backend) (#3548) 2 年 前
  slaren f5ef5cfb18 ggml-cuda : perform cublas mat mul of quantized types as f16 (#3412) 2 年 前
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) 2 年 前
  Georgi Gerganov ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) 2 年 前
  slaren da0400344b ggml-cuda : perform cublas fp16 matrix multiplication as fp16 (#3370) 2 年 前
  Johannes Gäßler ee66942d7e CUDA: fix peer access logic (#3231) 2 年 前
  Johannes Gäßler 111163e246 CUDA: enable peer access between devices (#2470) 2 年 前
  Johannes Gäßler 578d8c8f5c CUDA: fix scratch malloced on non-main device (#3220) 2 年 前
  Vlad 5dbc2b3213 Enable build with CUDA 11.0 (make) (#3132) 2 年 前
  Johannes Gäßler 0a5eebb45d CUDA: mul_mat_q RDNA2 tunings (#2910) 2 年 前
  Johannes Gäßler 4f7cd6ba9c CUDA: fix LoRAs (#3130) 2 年 前
  Johannes Gäßler 89e89599fd CUDA: fix mul_mat_q not used for output tensor (#3127) 2 年 前
  Johannes Gäßler d54a4027a6 CUDA: lower GPU latency + fix Windows performance (#3110) 2 年 前
  Johannes Gäßler 8a4ca9af56 CUDA: add device number to error messages (#3112) 2 年 前
  Georgi Gerganov b3e9852e47 sync : ggml (CUDA GLM RoPE + POSIX) (#3082) 2 年 前
  Jiahao Li 35195689cd 2x faster (rms) norm cuda kernels (3.7% e2e improvement) (#2985) 2 年 前
  Engininja2 f04d002844 cuda : vsubss4 for older versions of ROCm/clang (#2942) 2 年 前
  Johannes Gäßler 92b1bbd2ec CUDA: fix RoPE asserts, block sizes (#2833) 2 年 前
  Georgi Gerganov eaa13a48ff falcon : fix CUDA inference by making K and Q contiguous (#2830) 2 年 前
  Kawrakow a6d1189fdd k_quants tuning for Falcon-7b (#2816) 2 年 前