slaren
|
12e2e33a97
convert.py : export rope freq_base when converting CodeLlama from an HF model (#2773)
|
hace 2 años |
Jhen-Jie Hong
|
29674ab4e8
server : display token probabilities in the UI (#2489)
|
hace 2 años |
Georgi Gerganov
|
5439a0ab57
ci : pip install gguf in editable mode (#2782)
|
hace 2 años |
M. Yusuf Sarıgöz
|
8194cd8772
gguf : export objects to user code (#2780)
|
hace 2 años |
Henri Vasserman
|
6bbc598a63
ROCm Port (#1087)
|
hace 2 años |
Georgi Gerganov
|
3f460a2b72
cuda : add RoPE kernel for mode == 2 (NeoX) (#2760)
|
hace 2 años |
M. Yusuf Sarıgöz
|
87e3733f24
gguf : make gguf pip-installable
|
hace 2 años |
Shouzheng Liu
|
b91ad7f461
ggml-alloc : enlarge size of parse_seq (#2776)
|
hace 2 años |
Marcus Dunn
|
2e5f70a25f
Added `enum` to `llama_token_get_type` return type (#2774)
|
hace 2 años |
slaren
|
d0f77b1353
convert.py : try to determine n_ctx automatically for CodeLlama (#2770)
|
hace 2 años |
slaren
|
0d3094f0c7
gguf : add rope_freq_base parameter for CodeLlama (#2769)
|
hace 2 años |
Georgi Gerganov
|
01f2224682
falcon : write file type
|
hace 2 años |
Shouzheng Liu
|
38b16dfca6
metal : bug-fix when enable ggml-alloc (#2757)
|
hace 2 años |
Georgi Gerganov
|
8f8c28e89c
convert : auto-determine model name based on dir + scripts update
|
hace 2 años |
Kerfuffle
|
7694adda8d
Fix for main example getting stuck when -n -2 and --interactive (#2767)
|
hace 2 años |
slaren
|
fea95c682d
fix convert.py for codellama, add llama 34B to the list of recognized models (#2768)
|
hace 2 años |
DannyDaemonic
|
ef955fbd23
Tag release with build number (#2732)
|
hace 2 años |
Georgi Gerganov
|
d67777c202
metal : add Q8_0 support (#2763)
|
hace 2 años |
Georgi Gerganov
|
c3e53b421a
llama : escape all U+2581 in a string (#2750)
|
hace 2 años |
Evan Jones
|
6e91a1b070
llama : fix grammar sometimes generating null char (#2756)
|
hace 2 años |
Georgi Gerganov
|
44d5462b5c
readme : fix link
|
hace 2 años |
Georgi Gerganov
|
c7868b0753
minor : fix trailing whitespace
|
hace 2 años |
Georgi Gerganov
|
79da24b58c
readme : update hot topics
|
hace 2 años |
Georgi Gerganov
|
cf658adc83
llm : add Falcon support (#2717)
|
hace 2 años |
Georgi Gerganov
|
a192860cfe
minor : fix trailing whitespace
|
hace 2 años |
Olivier Chafik
|
95385241a9
examples : restore the functionality to import llama2.c models (#2685)
|
hace 2 años |
slaren
|
335acd2ffd
fix convert-lora-to-ggml.py (#2738)
|
hace 2 años |
klosax
|
5290c38e6e
main : insert bos if no tokens (#2727)
|
hace 2 años |
akawrykow
|
cc34dbda96
gitignore : fix for windows (#2729)
|
hace 2 años |
Cebtenzzre
|
7c2227a197
chmod : make scripts executable (#2675)
|
hace 2 años |