slaren
|
08a0c02060
ggml : mul_mat_id use the same tensor for all the experts (#6387)
|
1 yıl önce |
Jared Van Bortel
|
be55134a53
convert : refactor vocab selection logic (#6355)
|
1 yıl önce |
Romain D
|
3a6efdd03c
convert : use f32 outtype for bf16 tensors (#6106)
|
1 yıl önce |
Michael Podvitskiy
|
69ff61397d
llama : support models without vocabulary (#5798)
|
1 yıl önce |
Georgi Gerganov
|
1e35d619a6
convert : remove AWQ remnants (#5768)
|
1 yıl önce |
Jared Van Bortel
|
4d4d2366fc
convert : automatically fall back to HfVocab if tokenizer.model doesn't exist (#5821)
|
1 yıl önce |
John
|
aa23412989
llava : support v1.6 (#5267)
|
1 yıl önce |
Sang-Kil Park
|
f68664ac24
convert : fix TypeError on GPT-2 vocab.json (#5288)
|
1 yıl önce |
Georgi Gerganov
|
906cff55c2
py : handle byte tokens in `get_token_type` (#5341)
|
1 yıl önce |
Georgi Gerganov
|
14fef85e2d
py : fix except (#5194)
|
1 yıl önce |
Sang-Kil Park
|
e76627bcce
py : improve BPE tokenizer support (#5189)
|
1 yıl önce |
Jared Van Bortel
|
b43ebde3b0
convert : partially revert PR #4818 (#5041)
|
2 yıl önce |
David Sommers
|
b46757735d
convert.py : fix llama/llama2 conversion due to vocab_size=-1 (#5019)
|
2 yıl önce |
Georgi Gerganov
|
0f83e727af
py : fix whitespace
|
2 yıl önce |
Georgi Gerganov
|
4f4bf35f46
py : fix missing added_tokens_dict for SPM and BPE vocabs (#4971)
|
2 yıl önce |
Austin
|
6efb8eb30e
convert.py : fix vanilla LLaMA model conversion (#4818)
|
2 yıl önce |
Nam D. Tran
|
f6793491b5
llama : add AWQ for llama, llama2, mpt, and mistral models (#4593)
|
2 yıl önce |
wonjun Jang
|
f56d6077d0
Add byte token type when tokenizer.model is not exists (#4641)
|
2 yıl önce |
wonjun Jang
|
873637afc7
convert : support loading vocab from fast tokenizer config (#3633)
|
2 yıl önce |
slaren
|
799a1cb13b
llama : add Mixtral support (#4406)
|
2 yıl önce |
Richard Kiss
|
9494d7c477
english : use `typos` to fix comments and logs (#4354)
|
2 yıl önce |
slaren
|
f4d973cecb
convert.py : fix llama/llama2 conversion due to vocab_size=-1 (#4258)
|
2 yıl önce |
crasm
|
3014b5415d
Update docs for yarn_ext_factor <0.0 as unspecified instead of NaN (#4189)
|
2 yıl önce |
Galunid
|
f23c0359a3
ci : add flake8 to github actions (python linting) (#4129)
|
2 yıl önce |
Don Mahurin
|
2ab0707acb
convert : use 'model' value if it exists. This allows karpathy/tinyllamas to load (#4089)
|
2 yıl önce |
afrideva
|
b46d12f86d
convert.py: also look for plain model.safetensors (#4043)
|
2 yıl önce |
Kerfuffle
|
34b0a08207
gguf-py: Refactor and allow reading/modifying existing GGUF files (#3981)
|
2 yıl önce |
Galunid
|
a75fa576ab
scripts: Generalize convert scripts (#3838)
|
2 yıl önce |
cebtenzzre
|
898aeca90a
llama : implement YaRN RoPE scaling (#2268)
|
2 yıl önce |
Georgi Gerganov
|
8a2f2fea29
convert : ignore tokens if their IDs are within [0, vocab_size) (#3831)
|
2 yıl önce |