Histórico de Commits

Autor SHA1 Mensagem Data
  Georgi Gerganov dfd9fce6d6 ggml : fix restrict usage há 2 anos atrás
  Stephan Walter 1b107b8550 ggml : generalize `quantize_fns` for simpler FP16 handling (#1237) há 2 anos atrás
  Georgi Gerganov ed9a54e512 ggml : sync latest (new ops, macros, refactoring) (#2106) há 2 anos atrás
  Qingyou Meng b1ca8f36a9 ggml : disable GGML_TASK_INIT and GGML_TASK_FINALIZE by default (#1995) há 2 anos atrás
  Georgi Gerganov d9779021bd ggml : add support for ChatGLM RoPE há 2 anos atrás
  David Yang eaa6ca5a61 ggml : increase max tensor name + clean up compiler warnings in train-text (#1988) há 2 anos atrás
  zrm b853d45601 ggml : add NUMA support (#1556) há 2 anos atrás
  Georgi Gerganov bd34cdde38 ggml : sync latest ggml (custom operators) há 2 anos atrás
  slaren f2c754e1c3 ggml : improve ggml_graph_dump_dot, add ggml_format_name (#1978) há 2 anos atrás
  Georgi Gerganov b97ca431db ggml : sync latest ggml repo (#1924) há 2 anos atrás
  Georgi Gerganov ce2c7d72e2 metal : handle buffers larger than device's maxBufferLength (#1826) há 2 anos atrás
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) há 2 anos atrás
  xaedes e32089b2c2 train : improved training-from-scratch example (#1652) há 2 anos atrás
  Johannes Gäßler 17366df842 Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703) há 2 anos atrás
  Kawrakow 99009e72f8 ggml : add SOTA 2,3,4,5,6 bit k-quantizations (#1684) há 2 anos atrás
  Georgi Gerganov ecb217db4f llama : Metal inference (#1642) há 2 anos atrás
  Georgi Gerganov 7552ac5863 ggml : sync cgraph import / export API há 2 anos atrás
  Georgi Gerganov 93618031c7 ggml : add ggml_tensor_overhead() há 2 anos atrás
  Georgi Gerganov bdbda1b17a ggml : sync ggml core (minor additions, e.g. ggml_get_tensor_by_name()) há 2 anos atrás
  0cc4m 2e6cd4b025 OpenCL Token Generation Acceleration (#1459) há 2 anos atrás
  Georgi Gerganov 3de84b2606 ggml : add ggml_clamp() (#1539) há 2 anos atrás
  Georgi Gerganov 2d5db48371 ggml : use F16 instead of F32 in Q4_0, Q4_1, Q8_0 (#1508) há 2 anos atrás
  Georgi Gerganov 13c351ad72 ggml : various fixes (#1450) há 2 anos atrás
  Georgi Gerganov 601a033475 ggml : add GGML_QNT_VERSION to track quantization format changes há 2 anos atrás
  Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) há 2 anos atrás
  xaedes f954edda93 ggml : implement backward pass for llama + small training-llama-from-scratch example (#1360) há 2 anos atrás
  Georgi Gerganov b9fd7eee57 ggml : remove bit shuffling (#1405) há 2 anos atrás
  slaren 2d099e5193 ggml: add names to tensors (#1268) há 2 anos atrás
  slaren 58b367c2d7 cuBLAS: refactor and optimize f16 mat mul performance (#1259) há 2 anos atrás
  Georgi Gerganov 6bc4400e67 ggml : add Q5 WASM SIMD + GGML_FTYPE há 2 anos atrás