John
|
aa23412989
llava : support v1.6 (#5267)
|
1 tahun lalu |
Sang-Kil Park
|
f68664ac24
convert : fix TypeError on GPT-2 vocab.json (#5288)
|
1 tahun lalu |
Georgi Gerganov
|
906cff55c2
py : handle byte tokens in `get_token_type` (#5341)
|
1 tahun lalu |
Georgi Gerganov
|
14fef85e2d
py : fix except (#5194)
|
1 tahun lalu |
Sang-Kil Park
|
e76627bcce
py : improve BPE tokenizer support (#5189)
|
1 tahun lalu |
Jared Van Bortel
|
b43ebde3b0
convert : partially revert PR #4818 (#5041)
|
2 tahun lalu |
David Sommers
|
b46757735d
convert.py : fix llama/llama2 conversion due to vocab_size=-1 (#5019)
|
2 tahun lalu |
Georgi Gerganov
|
0f83e727af
py : fix whitespace
|
2 tahun lalu |
Georgi Gerganov
|
4f4bf35f46
py : fix missing added_tokens_dict for SPM and BPE vocabs (#4971)
|
2 tahun lalu |
Austin
|
6efb8eb30e
convert.py : fix vanilla LLaMA model conversion (#4818)
|
2 tahun lalu |
Nam D. Tran
|
f6793491b5
llama : add AWQ for llama, llama2, mpt, and mistral models (#4593)
|
2 tahun lalu |
wonjun Jang
|
f56d6077d0
Add byte token type when tokenizer.model is not exists (#4641)
|
2 tahun lalu |
wonjun Jang
|
873637afc7
convert : support loading vocab from fast tokenizer config (#3633)
|
2 tahun lalu |
slaren
|
799a1cb13b
llama : add Mixtral support (#4406)
|
2 tahun lalu |
Richard Kiss
|
9494d7c477
english : use `typos` to fix comments and logs (#4354)
|
2 tahun lalu |
slaren
|
f4d973cecb
convert.py : fix llama/llama2 conversion due to vocab_size=-1 (#4258)
|
2 tahun lalu |
crasm
|
3014b5415d
Update docs for yarn_ext_factor <0.0 as unspecified instead of NaN (#4189)
|
2 tahun lalu |
Galunid
|
f23c0359a3
ci : add flake8 to github actions (python linting) (#4129)
|
2 tahun lalu |
Don Mahurin
|
2ab0707acb
convert : use 'model' value if it exists. This allows karpathy/tinyllamas to load (#4089)
|
2 tahun lalu |
afrideva
|
b46d12f86d
convert.py: also look for plain model.safetensors (#4043)
|
2 tahun lalu |
Kerfuffle
|
34b0a08207
gguf-py: Refactor and allow reading/modifying existing GGUF files (#3981)
|
2 tahun lalu |
Galunid
|
a75fa576ab
scripts: Generalize convert scripts (#3838)
|
2 tahun lalu |
cebtenzzre
|
898aeca90a
llama : implement YaRN RoPE scaling (#2268)
|
2 tahun lalu |
Georgi Gerganov
|
8a2f2fea29
convert : ignore tokens if their IDs are within [0, vocab_size) (#3831)
|
2 tahun lalu |
Kerfuffle
|
a5e7dbd614
llama : validate special token ids are in range when loading GGUF model (#3635)
|
2 tahun lalu |
Qin Yue Chen
|
8cf19d60dc
gguf : support big endian platform (#3552)
|
2 tahun lalu |
goerch
|
ff5a3f0c09
Work on the BPE tokenizer (#3252)
|
2 tahun lalu |
cebtenzzre
|
0fe321031a
gguf : general usability improvements (#3409)
|
2 tahun lalu |
Zhang Peiyuan
|
e519621010
convert : remove bug in convert.py permute function (#3364)
|
2 tahun lalu |
Erik Scholz
|
6eeb4d9083
convert: remove most of the n_mult usage in convert.py (#3098)
|
2 tahun lalu |