Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  DannyDaemonic edce63baa9 Added README.md for main with examples and explanations (#1139) 2 ani în urmă
  Georgi Gerganov ec9cdb6752 ggml : do not print perf ops that have not been used at all 2 ani în urmă
  Georgi Gerganov e4422e299c ggml : better PERF prints + support "LLAMA_PERF=1 make" 2 ani în urmă
  Stephan Walter 53c8434398 Improve AVX2 for vec_dot_q4_3_q8_0 (#1138) 2 ani în urmă
  Pavol Rusnak c6524f46eb readme : update gpt4all instructions (#980) 2 ani în urmă
  Yishuo Wang c9e2c26f41 A better `packNibbles` and `mul_sum_i8_pairs_float` implementation using AVX512 (#1119) 2 ani în urmă
  Georgi Gerganov 0e018fe008 ggml : fix Q4_3 cuBLAS 2 ani în urmă
  Stephan Walter 857308d1e8 ci : trigger CI for drafts, but not most PR actions (#1125) 2 ani în urmă
  Stephan Walter c50b628810 Fix CI: ARM NEON, quantization unit tests, editorconfig (#1122) 2 ani în urmă
  unbounded 5f939498d5 ggml : unit test for quantization functions (#953) 2 ani în urmă
  wbpxre150 36b4f7e064 llama : print timings on ctrl+c exit (#1021) 2 ani în urmă
  eiery 10f19c1121 llama : have n_batch default to 512 (#1091) 2 ani în urmă
  Howard Su 7e312f165c cmake : fix build under Windows when enable BUILD_SHARED_LIBS (#1100) 2 ani în urmă
  Georgi Gerganov 872c365a91 ggml : fix AVX build + update to new Q8_0 format 2 ani în urmă
  Georgi Gerganov 955ef9a5d5 ggml : alternative Q4_3 implementation using modified Q8_0 (#1109) 2 ani în urmă
  Stephan Walter c5aa5e5777 ggml : AVX2 optimization for vec_dot_q4_3_q8_0 and refactoring (#1099) 2 ani în urmă
  Clint Herron e9a9cb0c54 examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107) 2 ani în urmă
  xaedes b6e7f9b09e llama : add api for getting/setting the complete state: rng, logits, embedding and kv_cache (#1105) 2 ani în urmă
  slaren 50cb666b8a Improve cuBLAS performance by using a memory pool (#1094) 2 ani în urmă
  apaz 25d7abbd1f llama : fixed rlimit error message (#888) 2 ani în urmă
  源文雨 018f2279f5 cmake : link threads publicly to ggml (#1042) 2 ani în urmă
  Alex Klinkhamer 9411288271 main : evaluate tokens in batches after swapping context (#1014) 2 ani în urmă
  xaedes 8687c1f258 llama : remember and restore kv cache data pointers (#1104) 2 ani în urmă
  Kawrakow 1bfc153e2f ggml : a faster version for Q4_1 x Q8_0 dot products (#1083) 2 ani în urmă
  slaren 3d59769c3b Show perplexity ETA in hours and minutes (#1096) 2 ani în urmă
  Georgi Gerganov d40fded93e llama : fix comment for "output.weight" tensor 2 ani în urmă
  Stephan Walter 2510c1831f Add ggml-model-*.bin checksums for 7B, 13B, 30B, 65B (#1088) 2 ani în urmă
  Georgi Gerganov 12b5900dbc ggml : sync ggml (add GPT-NeoX RoPE implementation) 2 ani în urmă
  Georgi Gerganov 9ff334f3c9 ggml : fix bug in ggml_compute_forward_dup_f32() 2 ani în urmă
  slaren 2005469ea1 Add Q4_3 support to cuBLAS (#1086) 2 ani în urmă