커밋 기록

작성자 SHA1 메시지 날짜
  compilade 9bc6db28d0 ggml-quants : ternary packing for TriLMs and BitNet b1.58 (#8151) 1 년 전
  Molly Sophia 8f1d81a0b6 llama : support RWKV v6 models (#8980) 1 년 전
  Carsten Kragelund Jørgensen 75e1dbbaab llama : fix llama3.1 rope_freqs not respecting custom head_dim (#9141) 1 년 전
  Xuan Son Nguyen 3ba780e2a8 lora : fix llama conversion script with ROPE_FREQS (#9117) 1 년 전
  Younes Belkada b40eb84895 llama : support for `falcon-mamba` architecture (#9074) 1 년 전
  Minsoo Cheong c679e0cb5c llama : add EXAONE model support (#9025) 1 년 전
  Yoshi Suhara 2a24c8caa6 Add Nemotron/Minitron GGUF Conversion & Inference Support (#8922) 1 년 전
  Esko Toivonen 6bda7ce6c3 llama : add pre-tokenizer regexes for BLOOM and gpt3-finnish (#8850) 1 년 전
  fairydreaming 7c3f55c100 Add support for encoder-only T5 models (#8900) 1 년 전
  compilade 3a14e00366 gguf-py : simplify support for quant types (#8838) 1 년 전
  Douglas Hanley cdd1889de6 convert : add support for XLMRoberta embedding models (#8658) 1 년 전
  Sigbjørn Skjæret b72c20b85c Fix conversion of unnormalized BF16->BF16 weights (#7843) 1 년 전
  Jeffrey Morgan b5e95468b1 llama : add support for llama 3.1 rope scaling factors (#8676) 1 년 전
  Fan Shupei 8a4bad50a8 llama: use sliding window for phi3 (#8627) 1 년 전
  Keke Han 081fe431aa llama : fix codeshell support (#8599) 1 년 전
  Jason Stillerman d94c6e0ccb llama : add support for SmolLm pre-tokenizer (#8609) 1 년 전
  Jiří Podivín 566daa5a5b *.py: Stylistic adjustments for python (#8233) 1 년 전
  Douglas Hanley 50e05353e8 llama : add Mistral Nemo inference support (#8604) 1 년 전
  compilade 328884f421 gguf-py : fix some metadata name extraction edge cases (#8591) 1 년 전
  compilade c69c63039c convert_hf : fix Gemma v1 conversion (#8597) 1 년 전
  Michael Coppola 940362224d llama : add support for Tekken pre-tokenizer (#8579) 1 년 전
  Brian 57b1d4f9eb convert-*.py: remove add_name from ChatGLMModel class (#8590) 1 년 전
  Brian 672a6f1018 convert-*.py: GGUF Naming Convention Refactor and Metadata Override Refactor (#7499) 1 년 전
  compilade 7acfd4e8d5 convert_hf : faster lazy safetensors (#8482) 1 년 전
  Xuan Son Nguyen 97bdd26eee Refactor lora adapter support (#8332) 1 년 전
  Georgi Gerganov 73cf442e7b llama : fix Gemma-2 Query scaling factors (#8473) 1 년 전
  compilade fa79495bb4 llama : fix pre-tokenization of non-special added tokens (#8228) 1 년 전
  Jiří Podivín 5aefbce27a convert : remove fsep token from GPTRefactForCausalLM (#8237) 1 년 전
  RunningLeon e4dd31ff89 py : fix converter for internlm2 (#8321) 1 년 전
  laik 8f0fad42b9 py : fix extra space in convert_hf_to_gguf.py (#8407) 1 년 전