sasha0552
|
2decf57bc6
convert-hf : set the model name based on cli arg, if present (#7693)
|
1 년 전 |
compilade
|
5795b94182
convert-hf : match model part name prefix and suffix (#7687)
|
1 년 전 |
compilade
|
ed9f252118
gguf-py : decouple adding metadata from writing in GGUFWriter (#7827)
|
1 년 전 |
Joan Fontanals
|
f5d7b268ec
llama : add jina v2 base code (#7596)
|
1 년 전 |
Galunid
|
7672adeec7
Fix encoding in python scripts (#7733)
|
1 년 전 |
Galunid
|
0515ad93f4
convert-hf : Handle NotImplementedError in convert-hf-to-gguf (#7660)
|
1 년 전 |
Galunid
|
9c4c9cc83f
Move convert.py to examples/convert-legacy-llama.py (#7430)
|
1 년 전 |
Giuseppe Scrivano
|
5442939fcc
llama : support small Granite models (#7481)
|
1 년 전 |
fairydreaming
|
ee3dff6b8e
Add support for DeepseekV2ForCausalLM (#7519)
|
1 년 전 |
Galunid
|
32a28217f4
Fix aya-23 conversion scripts (#7539)
|
1 년 전 |
Bartowski
|
c429b33beb
llama : add Smaug 70B support (#7402)
|
1 년 전 |
compilade
|
b83bab15a5
gguf-py : fix and simplify quantized shape round-trip (#7483)
|
1 년 전 |
fairydreaming
|
fbca2f27fc
Add support for ArcticForCausalLM (#7020)
|
1 년 전 |
fairydreaming
|
9b82476ee9
Add missing inference support for GPTNeoXForCausalLM (Pythia and GPT-NeoX base models) (#7461)
|
1 년 전 |
liuwei-git
|
201cc11afa
llama : add phi3 128K model support (#7225)
|
1 년 전 |
Georgi Gerganov
|
c3f8d58356
tests : test-tokenizer-0.sh print more info (#7402)
|
1 년 전 |
jaime-m-p
|
d7e852c1bc
Tokenizer SPM fixes for phi-3 and llama-spm (bugfix) (#7425)
|
1 년 전 |
jaime-m-p
|
917dc8cfa6
Tokenizer SPM fixes for phi-3 and llama-spm (#7375)
|
1 년 전 |
Georgi Gerganov
|
fabf30b4c4
llama : remove Persimmon (#7408)
|
1 년 전 |
Anas Ahouzi
|
6aade19ee7
Add StableLM2 pre-tokenizer (#7349)
|
1 년 전 |
Georgi Gerganov
|
b49a13dd2f
convert : fix set_vocab_sentencepiece (#6866)
|
1 년 전 |
Aarni Koskela
|
d273c1402b
py : convert-hf-to-gguf-update improvements (#7340)
|
1 년 전 |
amd-lalithnc
|
e18bc6aaf3
convert : fix Qwen/Qwen-7b conversion (#7308)
|
1 년 전 |
compilade
|
ee52225067
convert-hf : support direct Q8_0 conversion (#7234)
|
1 년 전 |
Joan Fontanals
|
9aa672490c
llama : rename jina tokenizers to v2 (#7249)
|
1 년 전 |
compilade
|
5a419926b0
convert-hf : support bfloat16 conversion (#7158)
|
1 년 전 |
Joan Fontanals
|
b83cc3f5b3
llama : add Jina Embeddings architecture (#6826)
|
1 년 전 |
Georgi Gerganov
|
9cb317f77e
ggml : full ALiBi support (#7192)
|
1 년 전 |
compilade
|
f98eb31c51
convert-hf : save memory with lazy evaluation (#7075)
|
1 년 전 |
Ren Xuancheng
|
229ffff872
llama : add BPE pre-tokenization for Qwen2 (#7114)
|
1 년 전 |