Commit History

Autor SHA1 Mensaxe Data
  Xuan Son Nguyen b115105f05 add llama_lora_adapter_clear (#8653) hai 1 ano
  Georgi Gerganov 938943cdbf llama : move vocab, grammar and sampling into separate files (#8508) hai 1 ano
  Keke Han 081fe431aa llama : fix codeshell support (#8599) hai 1 ano
  Jason Stillerman d94c6e0ccb llama : add support for SmolLm pre-tokenizer (#8609) hai 1 ano
  Michael Coppola 940362224d llama : add support for Tekken pre-tokenizer (#8579) hai 1 ano
  Georgi Gerganov d197545530 llama : bump max layers from 256 to 512 (#8530) hai 1 ano
  Georgi Gerganov 0efec57787 llama : valign + remove unused ftype (#8502) hai 1 ano
  Xuan Son Nguyen 97bdd26eee Refactor lora adapter support (#8332) hai 1 ano
  Dibakar Gope 0f1a39f343 ggml : add AArch64 optimized GEMV and GEMM Q4 kernels (#5780) hai 1 ano
  toyer 905942abdb llama : support glm3 and glm4 (#8031) hai 1 ano
  jaime-m-p 213701b51a Detokenizer fixes (#8039) hai 1 ano
  Douglas Hanley d12f781074 llama : streamline embeddings from "non-embedding" models (#8087) hai 1 ano
  fairydreaming 807b0c49ff Inference support for T5 and FLAN-T5 model families (#5763) hai 1 ano
  Faisal Zaghloul 968967376d Add `JAIS` model(s) (#8118) hai 1 ano
  kustaaya f675b20a3b Added support for Viking pre-tokenizer (#8135) hai 1 ano
  Georgi Gerganov f3f65429c4 llama : reorganize source code + improve CMake (#8006) hai 1 ano