Histórico de Commits

Autor SHA1 Mensagem Data
  Carsten Kragelund Jørgensen 75e1dbbaab llama : fix llama3.1 rope_freqs not respecting custom head_dim (#9141) há 1 ano atrás
  arch-btw ad76569f8e common : Update stb_image.h to latest version (#9161) há 1 ano atrás
  slaren 7d787ed96c ggml : do not crash when quantizing q4_x_x with an imatrix (#9192) há 1 ano atrás
  Georgi Gerganov 06658ad7c3 metal : separate scale and mask from QKT in FA kernel (#9189) há 1 ano atrás
  Georgi Gerganov fc18425b6a ggml : add SSM Metal kernels (#8546) há 1 ano atrás
  Georgi Gerganov 879275ac98 tests : fix compile warnings for unreachable code (#9185) há 1 ano atrás
  Georgi Gerganov 7a3df798fc ci : add VULKAN support to ggml-ci (#9055) há 1 ano atrás
  Georgi Gerganov e5edb210cd server : update deps (#9183) há 1 ano atrás
  slaren 0c41e03ceb metal : gemma2 flash attention support (#9159) há 1 ano atrás
  slaren f12ceaca0c ggml-ci : try to improve build time (#9160) há 1 ano atrás
  Justine Tunney 436787f170 llama : fix time complexity of string replacement (#9163) há 1 ano atrás
  Herman Semenov 93bc3839f9 common: fixed not working find argument --n-gpu-layers-draft (#9175) há 1 ano atrás
  Johannes Gäßler f91fc5639b CUDA: fix Gemma 2 numerical issues for FA (#9166) há 1 ano atrás
  Johannes Gäßler e11bd856d5 CPU/CUDA: Gemma 2 FlashAttention support (#8542) há 1 ano atrás
  João Dinis Ferreira 8f824ffe8e quantize : fix typo in usage help of `quantize.cpp` (#9145) há 1 ano atrás
  Xuan Son Nguyen 3ba780e2a8 lora : fix llama conversion script with ROPE_FREQS (#9117) há 1 ano atrás
  piDack a07c32ea54 llama : use F32 precision in GLM4 attention and no FA (#9130) há 1 ano atrás
  Akarshan Biswas 11b84eb457 [SYCL] Add a space to supress a cmake warning (#9133) há 1 ano atrás
  luoyu-intel 1731d4238f [SYCL] Add oneDNN primitive support (#9091) há 1 ano atrás
  compilade a1631e53f6 llama : simplify Mamba with advanced batch splits (#8526) há 1 ano atrás
  Xuan Son Nguyen fc54ef0d1c server : support reading arguments from environment variables (#9105) há 1 ano atrás
  Younes Belkada b40eb84895 llama : support for `falcon-mamba` architecture (#9074) há 1 ano atrás
  fairydreaming f63f603c87 llava : zero-initialize clip_ctx structure fields with aggregate initialization 908) há 1 ano atrás
  Daniel Bevenius 8455340b87 llama : std::move llm_bigram_bpe from work_queue (#9062) há 1 ano atrás
  Changyeon Kim 2f3c1466ff llava: Add ACC OP for GPU acceleration to the Vulkan backend in the LLAVA CLIP model. (#8984) há 1 ano atrás
  Meng, Hengyu 50addec9a5 [SYCL] fallback mmvq (#9088) há 1 ano atrás
  zhentaoyu 4f8d19ff17 [SYCL] Fix SYCL `im2col` and `convert` Overflow with Large Dims (#9052) há 1 ano atrás
  fairydreaming 90db8146d5 tests : add missing comma in grammar integration tests (#9099) há 1 ano atrás
  wangshuai09 cfac111e2b cann: add doc for cann backend (#8867) há 1 ano atrás
  Radoslav Gerganov 1b6ff90ff8 rpc : print error message when failed to connect endpoint (#9042) há 1 ano atrás