Историја ревизија

Аутор SHA1 Порука Датум
  Xie Yanbo 3246fe84d7 Fix minicpm example directory (#9111) пре 1 година
  compilade 78eb487bb0 llama : fix qs.n_attention_wv for DeepSeek-V2 (#9156) пре 1 година
  Xuan Son Nguyen a77feb5d71 server : add some missing env variables (#9116) пре 1 година
  CausalLM 2e59d61c1b llama : fix ChatGLM4 wrong shape (#9194) пре 1 година
  Carsten Kragelund Jørgensen 75e1dbbaab llama : fix llama3.1 rope_freqs not respecting custom head_dim (#9141) пре 1 година
  arch-btw ad76569f8e common : Update stb_image.h to latest version (#9161) пре 1 година
  slaren 7d787ed96c ggml : do not crash when quantizing q4_x_x with an imatrix (#9192) пре 1 година
  Georgi Gerganov 06658ad7c3 metal : separate scale and mask from QKT in FA kernel (#9189) пре 1 година
  Georgi Gerganov fc18425b6a ggml : add SSM Metal kernels (#8546) пре 1 година
  Georgi Gerganov 879275ac98 tests : fix compile warnings for unreachable code (#9185) пре 1 година
  Georgi Gerganov 7a3df798fc ci : add VULKAN support to ggml-ci (#9055) пре 1 година
  Georgi Gerganov e5edb210cd server : update deps (#9183) пре 1 година
  slaren 0c41e03ceb metal : gemma2 flash attention support (#9159) пре 1 година
  slaren f12ceaca0c ggml-ci : try to improve build time (#9160) пре 1 година
  Justine Tunney 436787f170 llama : fix time complexity of string replacement (#9163) пре 1 година
  Herman Semenov 93bc3839f9 common: fixed not working find argument --n-gpu-layers-draft (#9175) пре 1 година
  Johannes Gäßler f91fc5639b CUDA: fix Gemma 2 numerical issues for FA (#9166) пре 1 година
  Johannes Gäßler e11bd856d5 CPU/CUDA: Gemma 2 FlashAttention support (#8542) пре 1 година
  João Dinis Ferreira 8f824ffe8e quantize : fix typo in usage help of `quantize.cpp` (#9145) пре 1 година
  Xuan Son Nguyen 3ba780e2a8 lora : fix llama conversion script with ROPE_FREQS (#9117) пре 1 година
  piDack a07c32ea54 llama : use F32 precision in GLM4 attention and no FA (#9130) пре 1 година
  Akarshan Biswas 11b84eb457 [SYCL] Add a space to supress a cmake warning (#9133) пре 1 година
  luoyu-intel 1731d4238f [SYCL] Add oneDNN primitive support (#9091) пре 1 година
  compilade a1631e53f6 llama : simplify Mamba with advanced batch splits (#8526) пре 1 година
  Xuan Son Nguyen fc54ef0d1c server : support reading arguments from environment variables (#9105) пре 1 година
  Younes Belkada b40eb84895 llama : support for `falcon-mamba` architecture (#9074) пре 1 година
  fairydreaming f63f603c87 llava : zero-initialize clip_ctx structure fields with aggregate initialization 908) пре 1 година
  Daniel Bevenius 8455340b87 llama : std::move llm_bigram_bpe from work_queue (#9062) пре 1 година
  Changyeon Kim 2f3c1466ff llava: Add ACC OP for GPU acceleration to the Vulkan backend in the LLAVA CLIP model. (#8984) пре 1 година
  Meng, Hengyu 50addec9a5 [SYCL] fallback mmvq (#9088) пре 1 година