История коммитов

Автор SHA1 Сообщение Дата
  Eric Curtin b42978e7e4 readme : add ramalama to the availables UI (#8811) 1 год назад
  Justine Tunney b9dfc25ca3 ggml : fix overflows in elu function (#8866) 1 год назад
  Brian 1ef14b3007 py: Add more authorship metadata from model card (#8810) 1 год назад
  fairydreaming d3f0c7166a Stop the generation when <|eom_id|> token is encountered - needed for Llama 3.1 tool call support (#8858) 1 год назад
  stduhpf e31a4f6797 cmake: fix paths for vulkan shaders compilation on Windows (#8573) 1 год назад
  BarfingLemurs 400ae6f65f readme : update model list (#8851) 1 год назад
  Georgi Gerganov f1ea5146d7 llama : better replace_all (#8852) 1 год назад
  0cc4m 064cdc265f vulkan : fix Qantized Mat-Vec Mul on AMD GPUs for ncols < 64 (#8855) 1 год назад
  Georgi Gerganov 5587e57a76 sync : ggml 1 год назад
  0cc4m a3738b2fa7 vulkan : implement Stable Diffusion operators (ggml/904) 1 год назад
  Daniel Bevenius 655858ace0 ggml : move c parameter comment to ggml_rope_ext (ggml/901) 1 год назад
  wangshuai09 c02b0a8a4d cann: support q4_0 model (#8822) 1 год назад
  Brandon Squizzato 0d6fb52be0 Install curl in runtime layer (#8693) 1 год назад
  ardfork 978ba3d83d Server: Don't ignore llama.cpp params (#8754) 1 год назад
  Brian Cunnie ecf6b7f23e batched-bench : handle empty `-npl` (#8839) 1 год назад
  Daniel Bevenius 01aae2b497 baby-llama : remove duplicate vector include 1 год назад
  Georgi Gerganov 4b77ea95f5 flake.lock: Update (#8847) 1 год назад
  jdomke 76614f352e ggml : reading the runtime sve config of the cpu (#8709) 1 год назад
  Sigbjørn Skjæret b72c20b85c Fix conversion of unnormalized BF16->BF16 weights (#7843) 1 год назад
  Mengqing Cao e09a800f9a cann: Fix ggml_cann_im2col for 1D im2col (#8819) 1 год назад
  Ouadie EL FAROUKI 0fbbd88458 [SYCL] Fixing wrong VDR iq4nl value (#8812) 1 год назад
  matteo afbb4c1322 ggml-cuda: Adding support for unified memory (#8035) 1 год назад
  Alex O'Connell b7a08fd5e0 Build: Only include execinfo.h on linux systems that support it (#8783) 1 год назад
  slaren 7a11eb3a26 cuda : fix dmmv cols requirement to 2*GGML_CUDA_DMMV_X (#8800) 1 год назад
  wangshuai09 c8a0090922 cann: support q8_0 for Ascend backend (#8805) 1 год назад
  Igor Okulist afbbcf3c04 server : update llama-server embedding flag documentation (#8779) 1 год назад
  Clint Herron ed9d2854c9 Build: Fix potential race condition (#8781) 1 год назад
  pculliton 398ede5efe Adding Gemma 2 2B configs (#8784) 1 год назад
  Borislav Stanimirov 44d28ddd5c cmake : fix use of external ggml (#8787) 1 год назад
  Someone 268c566006 nix: cuda: rely on propagatedBuildInputs (#8772) 1 год назад