Commit Verlauf

Autor SHA1 Nachricht Datum
  Michael Podvitskiy 37f3a3810e llama : add llama_n_head() (#9512) vor 1 Jahr
  Georgi Gerganov 0abc6a2c25 llama : llama_perf + option to disable timings during decode (#9355) vor 1 Jahr
  Gilad S. bd35cb0ae3 feat: remove a sampler from a chain (#9445) vor 1 Jahr
  slaren 49006c67b4 llama : move random seed generation to the samplers (#9398) vor 1 Jahr
  slaren 5fb5e24811 llama : minor sampling refactor (2) (#9386) vor 1 Jahr
  Georgi Gerganov df270ef745 llama : refactor sampling v2 (#9294) vor 1 Jahr
  compilade 9bc6db28d0 ggml-quants : ternary packing for TriLMs and BitNet b1.58 (#8151) vor 1 Jahr
  Molly Sophia 8f1d81a0b6 llama : support RWKV v6 models (#8980) vor 1 Jahr
  Sutou Kouhei 0ab30f8d82 llama : fix llama_split_mode enum values in main_gpu document (#9057) vor 1 Jahr
  Faisal Zaghloul 42c76d1358 Threadpool: take 2 (#8672) vor 1 Jahr
  compilade a1631e53f6 llama : simplify Mamba with advanced batch splits (#8526) vor 1 Jahr
  Minsoo Cheong c679e0cb5c llama : add EXAONE model support (#9025) vor 1 Jahr
  Zhenwei Jin 4af8420afb common : remove duplicate function llama_should_add_bos_token (#8778) vor 1 Jahr
  Esko Toivonen 6bda7ce6c3 llama : add pre-tokenizer regexes for BLOOM and gpt3-finnish (#8850) vor 1 Jahr
  Daniel Bevenius 06943a69f6 ggml : move rope type enum to ggml.h (#8949) vor 1 Jahr
  fairydreaming 7c3f55c100 Add support for encoder-only T5 models (#8900) vor 1 Jahr
  Nexes the Old 31958546c3 typo correction (#8891) vor 1 Jahr
  compilade 4c676c85e5 llama : refactor session file management (#8699) vor 1 Jahr
  Xuan Son Nguyen b115105f05 add llama_lora_adapter_clear (#8653) vor 1 Jahr
  Georgi Gerganov 938943cdbf llama : move vocab, grammar and sampling into separate files (#8508) vor 1 Jahr
  Keke Han 081fe431aa llama : fix codeshell support (#8599) vor 1 Jahr
  Jason Stillerman d94c6e0ccb llama : add support for SmolLm pre-tokenizer (#8609) vor 1 Jahr
  Michael Coppola 940362224d llama : add support for Tekken pre-tokenizer (#8579) vor 1 Jahr
  Georgi Gerganov d197545530 llama : bump max layers from 256 to 512 (#8530) vor 1 Jahr
  Georgi Gerganov 0efec57787 llama : valign + remove unused ftype (#8502) vor 1 Jahr
  Xuan Son Nguyen 97bdd26eee Refactor lora adapter support (#8332) vor 1 Jahr
  Dibakar Gope 0f1a39f343 ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (#5780) vor 1 Jahr
  toyer 905942abdb llama : support glm3 and glm4 (#8031) vor 1 Jahr
  jaime-m-p 213701b51a Detokenizer fixes (#8039) vor 1 Jahr
  Douglas Hanley d12f781074 llama : streamline embeddings from "non-embedding" models (#8087) vor 1 Jahr