Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  MaggotHATE efda90c93a [Vulkan] Fix compilation of `vulkan-shaders-gen` on w64devkit after `e31a4f6` (#8880) 1 an în urmă
  Georgi Gerganov 0bf16de07b contributing : add note about write access 1 an în urmă
  Molly Sophia 2d5dd7bb3f ggml : add epsilon as a parameter for group_norm (#8818) 1 an în urmă
  Douglas Hanley cdd1889de6 convert : add support for XLMRoberta embedding models (#8658) 1 an în urmă
  Mengqing Cao c21a896405 [CANN]: Fix ggml_backend_cann_buffer_get_tensor (#8871) 1 an în urmă
  Neo Zhang d4ff847153 [SYCL] correct cmd name (#8877) 1 an în urmă
  Liu Jia 0a4ce78681 common : Changed tuple to struct (TODO fix) (#8823) 1 an în urmă
  wangshuai09 bc0f887e15 cann: fix buffer_num and runtime speed slowly error (#8865) 1 an în urmă
  Eric Curtin b42978e7e4 readme : add ramalama to the availables UI (#8811) 1 an în urmă
  Justine Tunney b9dfc25ca3 ggml : fix overflows in elu function (#8866) 1 an în urmă
  Brian 1ef14b3007 py: Add more authorship metadata from model card (#8810) 1 an în urmă
  fairydreaming d3f0c7166a Stop the generation when <|eom_id|> token is encountered - needed for Llama 3.1 tool call support (#8858) 1 an în urmă
  stduhpf e31a4f6797 cmake: fix paths for vulkan shaders compilation on Windows (#8573) 1 an în urmă
  BarfingLemurs 400ae6f65f readme : update model list (#8851) 1 an în urmă
  Georgi Gerganov f1ea5146d7 llama : better replace_all (#8852) 1 an în urmă
  0cc4m 064cdc265f vulkan : fix Qantized Mat-Vec Mul on AMD GPUs for ncols < 64 (#8855) 1 an în urmă
  Georgi Gerganov 5587e57a76 sync : ggml 1 an în urmă
  0cc4m a3738b2fa7 vulkan : implement Stable Diffusion operators (ggml/904) 1 an în urmă
  Daniel Bevenius 655858ace0 ggml : move c parameter comment to ggml_rope_ext (ggml/901) 1 an în urmă
  wangshuai09 c02b0a8a4d cann: support q4_0 model (#8822) 1 an în urmă
  Brandon Squizzato 0d6fb52be0 Install curl in runtime layer (#8693) 1 an în urmă
  ardfork 978ba3d83d Server: Don't ignore llama.cpp params (#8754) 1 an în urmă
  Brian Cunnie ecf6b7f23e batched-bench : handle empty `-npl` (#8839) 1 an în urmă
  Daniel Bevenius 01aae2b497 baby-llama : remove duplicate vector include 1 an în urmă
  Georgi Gerganov 4b77ea95f5 flake.lock: Update (#8847) 1 an în urmă
  jdomke 76614f352e ggml : reading the runtime sve config of the cpu (#8709) 1 an în urmă
  Sigbjørn Skjæret b72c20b85c Fix conversion of unnormalized BF16->BF16 weights (#7843) 1 an în urmă
  Mengqing Cao e09a800f9a cann: Fix ggml_cann_im2col for 1D im2col (#8819) 1 an în urmă
  Ouadie EL FAROUKI 0fbbd88458 [SYCL] Fixing wrong VDR iq4nl value (#8812) 1 an în urmă
  matteo afbb4c1322 ggml-cuda: Adding support for unified memory (#8035) 1 an în urmă