Georgi Gerganov
|
fb76ec31a9
ggml : fix YARN + add tests + add asserts (#7617)
|
1 tahun lalu |
jaime-m-p
|
02c1ecad07
Tokenizer WPM fixes (#7500)
|
1 tahun lalu |
Giuseppe Scrivano
|
5442939fcc
llama : support small Granite models (#7481)
|
1 tahun lalu |
fairydreaming
|
ee3dff6b8e
Add support for DeepseekV2ForCausalLM (#7519)
|
1 tahun lalu |
Georgi Gerganov
|
8b99e2aa66
llama : handle unknown utf8 bytes (#7588)
|
1 tahun lalu |
Bartowski
|
c429b33beb
llama : add Smaug 70B support (#7402)
|
1 tahun lalu |
Justine Tunney
|
00c6390793
main : don't print special tokens with --grammar (#6923)
|
1 tahun lalu |
Masaya, Kato
|
faa0e6979a
ggml: aarch64: SVE kernels for q8_0_q8_0, q4_0_q8_0 vector dot (#7433)
|
1 tahun lalu |
fairydreaming
|
fbca2f27fc
Add support for ArcticForCausalLM (#7020)
|
1 tahun lalu |
Tristan Druyen
|
007489e895
Fix phi3 chat template confusion with zephyr (#7449)
|
1 tahun lalu |
Daniel Bevenius
|
3015851c5a
llama : add getters for n_threads/n_threads_batch (#7464)
|
1 tahun lalu |
Georgi Gerganov
|
55ac3b7aea
ci : use Pythia models instead of OpenLlama (#7470)
|
1 tahun lalu |
fairydreaming
|
9b82476ee9
Add missing inference support for GPTNeoXForCausalLM (Pythia and GPT-NeoX base models) (#7461)
|
1 tahun lalu |
Georgi Gerganov
|
a61a94e543
llama : rename n_ctx -> cache.size, less confusing (#0)
|
1 tahun lalu |
Georgi Gerganov
|
e84b71c2c6
ggml : drop support for QK_K=64 (#7473)
|
1 tahun lalu |
slaren
|
b18532a4ef
phi3 : duplicate rope factors in each layer (#7447)
|
1 tahun lalu |
Justine Tunney
|
03d8900ebe
llama : add missing model type names (#7445)
|
1 tahun lalu |
liuwei-git
|
201cc11afa
llama : add phi3 128K model support (#7225)
|
1 tahun lalu |
jaime-m-p
|
d7e852c1bc
Tokenizer SPM fixes for phi-3 and llama-spm (bugfix) (#7425)
|
1 tahun lalu |
jaime-m-p
|
917dc8cfa6
Tokenizer SPM fixes for phi-3 and llama-spm (#7375)
|
1 tahun lalu |
Georgi Gerganov
|
fabf30b4c4
llama : remove Persimmon (#7408)
|
1 tahun lalu |
Herman Semenov
|
213e90ed73
ggml-opencl, llama: using reserve() if count already known (#7272)
|
1 tahun lalu |
Srihari-mcw
|
33c8d50acc
Add provisions for windows support for BF16 code including CMake provision for enabling AVX512_BF16 (#7258)
|
1 tahun lalu |
slaren
|
d359f30921
llama : remove MPI backend (#7395)
|
1 tahun lalu |
Anas Ahouzi
|
6aade19ee7
Add StableLM2 pre-tokenizer (#7349)
|
1 tahun lalu |
fraxy-v
|
f5bf761747
Capture CUDA logging output (#7298)
|
1 tahun lalu |
Steffen Röcker
|
0f98acfac6
llama : add support for larger Granite Code Models (20B, 34B) (#7324)
|
1 tahun lalu |
jaime-m-p
|
b43272afa2
Unicode codepoint flags for custom regexs (#7245)
|
1 tahun lalu |
fairydreaming
|
27b040691c
llama : use n_embd_head_v when reshaping kqv (#7327)
|
1 tahun lalu |
Johannes Gäßler
|
29c60d8cdd
tokenization: add warning for double BOS (#7332)
|
1 tahun lalu |