Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Xuan Son Nguyen de280085e7 examples : Fix `llama-export-lora` example (#8607) 1 an în urmă
  Georgi Gerganov 938943cdbf llama : move vocab, grammar and sampling into separate files (#8508) 1 an în urmă
  Johannes Gäßler 5e116e8dd5 make/cmake: add missing force MMQ/cuBLAS for HIP (#8515) 1 an în urmă
  bandoti 17eb6aa8a9 vulkan : cmake integration (#8119) 1 an în urmă
  Nicholai Tukanov 368645698a ggml : add NVPL BLAS support (#8329) (#8425) 1 an în urmă
  Clint Herron dd07a123b7 Name Migration: Build the deprecation-warning 'main' binary every time (#8404) 1 an în urmă
  Georgi Gerganov 6b2a849d1f ggml : move sgemm sources to llamafile subfolder (#8394) 1 an în urmă
  Dibakar Gope 0f1a39f343 ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (#5780) 1 an în urmă
  Clint Herron e500d6135a Deprecation warning to assist with migration to new binary names (#8283) 1 an în urmă
  Johannes Gäßler a03e8dd99d make/cmake: LLAMA_NO_CCACHE -> GGML_NO_CCACHE (#8392) 1 an în urmă
  Brian f7cab35ef9 gguf-hash: model wide and per tensor hashing using xxhash and sha1 (#8048) 1 an în urmă
  Clint Herron 3e2618bc7b Adding step to `clean` target to remove legacy binary names to reduce upgrade / migration confusion arising from #7809. (#8257) 1 an în urmă
  Xuan Son Nguyen a27aa50ab7 Add missing items in makefile (#8177) 1 an în urmă
  slaren c7ab7b612c make : fix missing -O3 (#8143) 1 an în urmă
  Georgi Gerganov f3f65429c4 llama : reorganize source code + improve CMake (#8006) 1 an în urmă
  Johannes Gäßler a818f3028d CUDA: use MMQ instead of cuBLAS by default (#8075) 1 an în urmă
  slaren 95f57bb5d5 ggml : remove ggml_task_type and GGML_PERF (#8017) 1 an în urmă
  Clint Herron c5a8d4b749 JSON Schema to GBNF integration tests (#7790) 1 an în urmă
  Ulrich Drepper 61665277af Allow compiling with CUDA without CUDA runtime installed (#7989) 1 an în urmă
  0cc4m 7c7836d9d4 Vulkan Shader Refactor, Memory Debugging Option (#7947) 1 an în urmă
  Xuan Son Nguyen 0c7b3595b9 Add `cvector-generator` example (#7514) 1 an în urmă
  slaren f578b86b21 move BLAS to a separate backend (#6210) 1 an în urmă
  Olivier Chafik 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 an în urmă
  Johannes Gäßler 7d1a378b8f CUDA: refactor mmq, dmmv, mmvq (#7716) 1 an în urmă
  Georgi Gerganov 554c247caf ggml : remove OpenCL (#7735) 1 an în urmă
  Georgi Gerganov 0cd6bd3483 llama : remove beam search (#7736) 1 an în urmă
  Radoslav Gerganov bde7cd3cd9 llama : offload to RPC in addition to other backends (#7640) 1 an în urmă
  Masaya, Kato a5735e4426 ggml : use OpenMP as a thread pool (#7606) 1 an în urmă
  Johannes Gäßler 0b832d53ba make: fix debug options not being applied to NVCC (#7714) 1 an în urmă
  Yazan Agha-Schrader 2e666832e6 server : new UI (#7633) 1 an în urmă