Junyang Lin
|
3fec68be4e
convert : add support of codeqwen due to tokenizer (#6707)
|
1 год назад |
liuwei-git
|
c8297c6af5
llama : add phi3 support (#6852)
|
1 год назад |
Pedro Cuenca
|
b97bc3966e
llama : support Llama 3 HF conversion (#6745)
|
1 год назад |
nopperl
|
9958c81b79
Implement the OLMo architecture (#6741)
|
1 год назад |
Zheng.Deng
|
facb8b56f8
convert : fix autoawq gemma (#6704)
|
1 год назад |
Ashish
|
dbceec87c0
llama : add StableLM2 12B (#6635)
|
1 год назад |
Shijie
|
f4dea7da18
llama : add qwen2moe (#6074)
|
1 год назад |
Daniel Bevenius
|
4fbd8098e6
gguf : add special tokens metadata for FIM/Infill (#6689)
|
1 год назад |
James A Capozzoli
|
a4ec34e1cd
convert : enable the `--use-temp-file` cli flag (#6645)
|
1 год назад |
Pierrick Hymbert
|
4bd0f93e4a
model: support arch `DbrxForCausalLM` (#6515)
|
1 год назад |
Jared Van Bortel
|
1b67731e18
BERT tokenizer fixes (#6498)
|
1 год назад |
Carolinabanana
|
5dc9dd7152
llama : add Command R Plus support (#6491)
|
1 год назад |
Clint Herron
|
72d73af651
convert : fix for lint error complaining of bare except (#6470)
|
1 год назад |
bryanSwk
|
bb43cf7e9d
llama : add SEA-LION support (#6448)
|
1 год назад |
Abhishek Gopinath K
|
db214fa578
Missing tokenizer.model error during gguf conversion (#6443)
|
1 год назад |
slaren
|
08a0c02060
ggml : mul_mat_id use the same tensor for all the experts (#6387)
|
1 год назад |
hxer7963
|
069574775c
[Model] Add support for xverse (#6301)
|
1 год назад |
Pedro Cuenca
|
b75c38166c
convert : allow conversion of Mistral HF models (#6144)
|
1 год назад |
Jared Van Bortel
|
be55134a53
convert : refactor vocab selection logic (#6355)
|
1 год назад |
Pedro Cuenca
|
e097633f63
convert-hf : fix exception in sentencepiece with added tokens (#6320)
|
1 год назад |
Julius Arkenberg
|
476b0251b2
llama : add grok-1 support (#6204)
|
1 год назад |
Thérence
|
9b03719ad7
convert : add support for CamembertModel architecture (#6119)
|
1 год назад |
Andrew Canis
|
12247f4c69
llama : add Command-R support (#6033)
|
1 год назад |
compilade
|
c2101a2e90
llama : support Mamba Selective State Space Models (#5328)
|
1 год назад |
Georgi Gerganov
|
e0843afe1b
flake : fix
|
1 год назад |
Douglas Hanley
|
475df1d6cf
llama : allow for user specified embedding pooling type (#5849)
|
1 год назад |
Jared Van Bortel
|
c7a0ad8ec9
convert-hf : make model class definitions self-contained (#5825)
|
1 год назад |
Sourab Mangrulkar
|
c29af7e225
llama : add StarCoder2 support (#5795)
|
1 год назад |
kunal-vaishnavi
|
e743386728
gemma : fix bfloat16 -> float16 conversion issue (#5810)
|
1 год назад |
Anas Ahouzi
|
69917dfa55
py : fix StableLM conversion after config.json changes (#5703)
|
1 год назад |