Komit Sejarah

Pembuat SHA1 Pesan Tanggal
  Georgi Gerganov fb76ec31a9 ggml : fix YARN + add tests + add asserts (#7617) 1 tahun lalu
  jaime-m-p 02c1ecad07 Tokenizer WPM fixes (#7500) 1 tahun lalu
  Giuseppe Scrivano 5442939fcc llama : support small Granite models (#7481) 1 tahun lalu
  fairydreaming ee3dff6b8e Add support for DeepseekV2ForCausalLM (#7519) 1 tahun lalu
  Georgi Gerganov 8b99e2aa66 llama : handle unknown utf8 bytes (#7588) 1 tahun lalu
  Bartowski c429b33beb llama : add Smaug 70B support (#7402) 1 tahun lalu
  Justine Tunney 00c6390793 main : don't print special tokens with --grammar (#6923) 1 tahun lalu
  Masaya, Kato faa0e6979a ggml: aarch64: SVE kernels for q8_0_q8_0, q4_0_q8_0 vector dot (#7433) 1 tahun lalu
  fairydreaming fbca2f27fc Add support for ArcticForCausalLM (#7020) 1 tahun lalu
  Tristan Druyen 007489e895 Fix phi3 chat template confusion with zephyr (#7449) 1 tahun lalu
  Daniel Bevenius 3015851c5a llama : add getters for n_threads/n_threads_batch (#7464) 1 tahun lalu
  Georgi Gerganov 55ac3b7aea ci : use Pythia models instead of OpenLlama (#7470) 1 tahun lalu
  fairydreaming 9b82476ee9 Add missing inference support for GPTNeoXForCausalLM (Pythia and GPT-NeoX base models) (#7461) 1 tahun lalu
  Georgi Gerganov a61a94e543 llama : rename n_ctx -> cache.size, less confusing (#0) 1 tahun lalu
  Georgi Gerganov e84b71c2c6 ggml : drop support for QK_K=64 (#7473) 1 tahun lalu
  slaren b18532a4ef phi3 : duplicate rope factors in each layer (#7447) 1 tahun lalu
  Justine Tunney 03d8900ebe llama : add missing model type names (#7445) 1 tahun lalu
  liuwei-git 201cc11afa llama : add phi3 128K model support (#7225) 1 tahun lalu
  jaime-m-p d7e852c1bc Tokenizer SPM fixes for phi-3 and llama-spm (bugfix) (#7425) 1 tahun lalu
  jaime-m-p 917dc8cfa6 Tokenizer SPM fixes for phi-3 and llama-spm (#7375) 1 tahun lalu
  Georgi Gerganov fabf30b4c4 llama : remove Persimmon (#7408) 1 tahun lalu
  Herman Semenov 213e90ed73 ggml-opencl, llama: using reserve() if count already known (#7272) 1 tahun lalu
  Srihari-mcw 33c8d50acc Add provisions for windows support for BF16 code including CMake provision for enabling AVX512_BF16 (#7258) 1 tahun lalu
  slaren d359f30921 llama : remove MPI backend (#7395) 1 tahun lalu
  Anas Ahouzi 6aade19ee7 Add StableLM2 pre-tokenizer (#7349) 1 tahun lalu
  fraxy-v f5bf761747 Capture CUDA logging output (#7298) 1 tahun lalu
  Steffen Röcker 0f98acfac6 llama : add support for larger Granite Code Models (20B, 34B) (#7324) 1 tahun lalu
  jaime-m-p b43272afa2 Unicode codepoint flags for custom regexs (#7245) 1 tahun lalu
  fairydreaming 27b040691c llama : use n_embd_head_v when reshaping kqv (#7327) 1 tahun lalu
  Johannes Gäßler 29c60d8cdd tokenization: add warning for double BOS (#7332) 1 tahun lalu