compilade
|
9bc6db28d0
ggml-quants : ternary packing for TriLMs and BitNet b1.58 (#8151)
|
1 년 전 |
Molly Sophia
|
8f1d81a0b6
llama : support RWKV v6 models (#8980)
|
1 년 전 |
Carsten Kragelund Jørgensen
|
75e1dbbaab
llama : fix llama3.1 rope_freqs not respecting custom head_dim (#9141)
|
1 년 전 |
Xuan Son Nguyen
|
3ba780e2a8
lora : fix llama conversion script with ROPE_FREQS (#9117)
|
1 년 전 |
Younes Belkada
|
b40eb84895
llama : support for `falcon-mamba` architecture (#9074)
|
1 년 전 |
Minsoo Cheong
|
c679e0cb5c
llama : add EXAONE model support (#9025)
|
1 년 전 |
Yoshi Suhara
|
2a24c8caa6
Add Nemotron/Minitron GGUF Conversion & Inference Support (#8922)
|
1 년 전 |
Esko Toivonen
|
6bda7ce6c3
llama : add pre-tokenizer regexes for BLOOM and gpt3-finnish (#8850)
|
1 년 전 |
fairydreaming
|
7c3f55c100
Add support for encoder-only T5 models (#8900)
|
1 년 전 |
compilade
|
3a14e00366
gguf-py : simplify support for quant types (#8838)
|
1 년 전 |
Douglas Hanley
|
cdd1889de6
convert : add support for XLMRoberta embedding models (#8658)
|
1 년 전 |
Sigbjørn Skjæret
|
b72c20b85c
Fix conversion of unnormalized BF16->BF16 weights (#7843)
|
1 년 전 |
Jeffrey Morgan
|
b5e95468b1
llama : add support for llama 3.1 rope scaling factors (#8676)
|
1 년 전 |
Fan Shupei
|
8a4bad50a8
llama: use sliding window for phi3 (#8627)
|
1 년 전 |
Keke Han
|
081fe431aa
llama : fix codeshell support (#8599)
|
1 년 전 |
Jason Stillerman
|
d94c6e0ccb
llama : add support for SmolLm pre-tokenizer (#8609)
|
1 년 전 |
Jiří Podivín
|
566daa5a5b
*.py: Stylistic adjustments for python (#8233)
|
1 년 전 |
Douglas Hanley
|
50e05353e8
llama : add Mistral Nemo inference support (#8604)
|
1 년 전 |
compilade
|
328884f421
gguf-py : fix some metadata name extraction edge cases (#8591)
|
1 년 전 |
compilade
|
c69c63039c
convert_hf : fix Gemma v1 conversion (#8597)
|
1 년 전 |
Michael Coppola
|
940362224d
llama : add support for Tekken pre-tokenizer (#8579)
|
1 년 전 |
Brian
|
57b1d4f9eb
convert-*.py: remove add_name from ChatGLMModel class (#8590)
|
1 년 전 |
Brian
|
672a6f1018
convert-*.py: GGUF Naming Convention Refactor and Metadata Override Refactor (#7499)
|
1 년 전 |
compilade
|
7acfd4e8d5
convert_hf : faster lazy safetensors (#8482)
|
1 년 전 |
Xuan Son Nguyen
|
97bdd26eee
Refactor lora adapter support (#8332)
|
1 년 전 |
Georgi Gerganov
|
73cf442e7b
llama : fix Gemma-2 Query scaling factors (#8473)
|
1 년 전 |
compilade
|
fa79495bb4
llama : fix pre-tokenization of non-special added tokens (#8228)
|
1 년 전 |
Jiří Podivín
|
5aefbce27a
convert : remove fsep token from GPTRefactForCausalLM (#8237)
|
1 년 전 |
RunningLeon
|
e4dd31ff89
py : fix converter for internlm2 (#8321)
|
1 년 전 |
laik
|
8f0fad42b9
py : fix extra space in convert_hf_to_gguf.py (#8407)
|
1 년 전 |