Historie revizí

Autor SHA1 Zpráva Datum
  agray3 dc020985b8 Avoid unnecessarily disabling CUDA graphs (#7302) před 1 rokem
  Johannes Gäßler dc685be466 CUDA: add FP32 FlashAttention vector kernel (#7188) před 1 rokem
  Justina Cho f5ef34e428 feat: implemented sigmoid function (ggml/806) před 1 rokem
  Georgi Gerganov 9cb317f77e ggml : full ALiBi support (#7192) před 1 rokem
  agray3 bc4bba364f Introduction of CUDA Graphs to LLama.cpp (#6766) před 1 rokem
  William Tambellini 858f6b73f6 Add an option to build without CUDA VMM (#7067) před 1 rokem
  Georgi Gerganov 9c67c2773d ggml : add Flash Attention (#5021) před 1 rokem
  slaren 0d56246f4b ggml : group all experts in a single ggml_mul_mat_id (#6505) před 1 rokem
  Johannes Gäßler b5e7285baf CUDA: fix matrix multiplication logic for tests (#6667) před 1 rokem
  Carolinabanana 5dc9dd7152 llama : add Command R Plus support (#6491) před 1 rokem
  Slava Primenko f77261a7c5 ggml: bypass code incompatible with CUDA < 11.1 (whisper/2020) před 1 rokem
  slaren 08a0c02060 ggml : mul_mat_id use the same tensor for all the experts (#6387) před 1 rokem
  compilade 557410b8f0 llama : greatly reduce output buffer memory usage (#6122) před 1 rokem
  Kawrakow 55c1b2a3bb IQ1_M: 1.75 bpw quantization (#6302) před 1 rokem
  slaren ae1f211ce2 cuda : refactor into multiple files (#6269) před 1 rokem
  slaren 2f0e81e053 cuda : add LLAMA_CUDA_NO_PEER_COPY to workaround broken ROCm p2p copy (#6208) před 1 rokem
  slaren d0a71233fb cuda : disable host register by default (#6206) před 1 rokem
  slaren 03a8f8fafe cuda : fix LLAMA_CUDA_F16 build (#6197) před 1 rokem
  Kawrakow 76aa30a263 Add ability to use Q5_0, Q5_1, and IQ4_NL for quantized K cache (#6183) před 1 rokem
  slaren 42e21c6882 cuda : fix conflict with std::swap (#6186) před 1 rokem
  slaren 1c51f98adc cuda : print the returned error when CUDA initialization fails (#6185) před 1 rokem
  slaren ccf58aa3ec cuda : refactor to remove global resources (#6170) před 1 rokem
  slaren 2bf8d0f7c4 backend : offload large batches to GPU (#6083) před 1 rokem
  slaren 3020327f6c cuda : disable unused cudaLaunchHostFunc code (#6078) před 1 rokem
  slaren f30ea47a87 llama : add pipeline parallelism support (#6017) před 1 rokem
  Georgi Gerganov 8030da7afe ggml : reuse quantum structs across backends (#5943) před 1 rokem
  Kawrakow 44ca159faf 1.5 bit: we can do even better (#5999) před 1 rokem
  Kawrakow be858f6205 Better 1.5 bit quantization (#5971) před 1 rokem
  Georgi Gerganov 8a3012a4ad ggml : add ggml-common.h to deduplicate shared code (#5940) před 1 rokem
  Michael Podvitskiy 9fa2627347 ggml : introduce ggml_status (ggml/750) před 1 rokem