Commit History

Автор SHA1 Съобщение Дата
  agray3 dc020985b8 Avoid unnecessarily disabling CUDA graphs (#7302) преди 1 година
  Johannes Gäßler dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) преди 1 година
  Justina Cho f5ef34e428 feat: implemented sigmoid function (ggml/806) преди 1 година
  Georgi Gerganov 9cb317f77e ggml : full ALiBi support (#7192) преди 1 година
  agray3 bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) преди 1 година
  William Tambellini 858f6b73f6 Add an option to build without CUDA VMM (#7067) преди 1 година
  Georgi Gerganov 9c67c2773d ggml : add Flash Attention (#5021) преди 1 година
  slaren 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) преди 1 година
  Johannes Gäßler b5e7285baf CUDA: fix matrix multiplication logic for tests (#6667) преди 1 година
  Carolinabanana 5dc9dd7152 llama : add Command R Plus support (#6491) преди 1 година
  Slava Primenko f77261a7c5 ggml: bypass code incompatible with CUDA < 11.1 (whisper/2020) преди 1 година
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) преди 1 година
  compilade 557410b8f0 llama : greatly reduce output buffer memory usage (#6122) преди 1 година
  Kawrakow 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) преди 1 година
  slaren ae1f211ce2 cuda : refactor into multiple files (#6269) преди 1 година
  slaren 2f0e81e053 cuda : add LLAMA_CUDA_NO_PEER_COPY to workaround broken ROCm p2p copy (#6208) преди 1 година
  slaren d0a71233fb cuda : disable host register by default (#6206) преди 1 година
  slaren 03a8f8fafe cuda : fix LLAMA_CUDA_F16 build (#6197) преди 1 година
  Kawrakow 76aa30a263 Add ability to use Q5_0, Q5_1, and IQ4_NL for quantized K cache (#6183) преди 1 година
  slaren 42e21c6882 cuda : fix conflict with std::swap (#6186) преди 1 година
  slaren 1c51f98adc cuda : print the returned error when CUDA initialization fails (#6185) преди 1 година
  slaren ccf58aa3ec cuda : refactor to remove global resources (#6170) преди 1 година
  slaren 2bf8d0f7c4 backend : offload large batches to GPU (#6083) преди 1 година
  slaren 3020327f6c cuda : disable unused cudaLaunchHostFunc code (#6078) преди 1 година
  slaren f30ea47a87 llama : add pipeline parallelism support (#6017) преди 1 година
  Georgi Gerganov 8030da7afe ggml : reuse quantum structs across backends (#5943) преди 1 година
  Kawrakow 44ca159faf 1.5 bit: we can do even better (#5999) преди 1 година
  Kawrakow be858f6205 Better 1.5 bit quantization (#5971) преди 1 година
  Georgi Gerganov 8a3012a4ad ggml : add ggml-common.h to deduplicate shared code (#5940) преди 1 година
  Michael Podvitskiy 9fa2627347 ggml : introduce ggml_status (ggml/750) преди 1 година