momonga
|
c42f0ec6b3
examples : fix gpt-neox (#2943)
|
2 лет назад |
Kerfuffle
|
5d6f19f16b
Allow quantize to only copy tensors, some other improvements (#2931)
|
2 лет назад |
m3ndax
|
ee8654bcd0
minor : add const qualifiers (#2853)
|
2 лет назад |
Cebtenzzre
|
ef15649972
build : fix most gcc and clang warnings (#2861)
|
2 лет назад |
DannyDaemonic
|
e8422de39e
@vxiiduu's fix for PrefetchVirtualMemory (#2930)
|
2 лет назад |
Johannes Gäßler
|
8afe228000
CUDA: mul_mat_q=true llama_context_params default (#2912)
|
2 лет назад |
Kawrakow
|
e37e69dcc3
10X faster BPE tokenizer (#2876)
|
2 лет назад |
xaedes
|
44c117f41e
train : mem usage and other improvements (#2439)
|
2 лет назад |
Johannes Gäßler
|
6b73ef1201
YAML result logging + preset script (#2657)
|
2 лет назад |
grahameth
|
be475f60af
llama.cpp : fix wrong vsnprintf call in MS compiler (#2856)
|
2 лет назад |
Georgi Gerganov
|
c10704d01e
llama : fix MPI threads (close #2827)
|
2 лет назад |
Kawrakow
|
463173a6c0
llama : speedup tokenization (#2831)
|
2 лет назад |
Georgi Gerganov
|
eaa13a48ff
falcon : fix CUDA inference by making K and Q contiguous (#2830)
|
2 лет назад |
Kawrakow
|
a6d1189fdd
k_quants tuning for Falcon-7b (#2816)
|
2 лет назад |
Georgi Gerganov
|
d0cee0d36d
gguf : add 64-bit support (GGUF v2) (#2821)
|
2 лет назад |
Georgi Gerganov
|
edd4c14817
llama : more tokenizer fixes (#2810)
|
2 лет назад |
Przemysław Pawełczyk
|
1591e2e590
ggml : detect SSSE3 (#2825)
|
2 лет назад |
Tim Miller
|
c7d92e6dfe
llama : use Unicode Escape Sequence to replace encoded characters (#2814)
|
2 лет назад |
Cebtenzzre
|
741ca7dd1c
llama : move #includes out of _GNU_SOURCE conditional (#2817)
|
2 лет назад |
Cebtenzzre
|
50526f37eb
llama : use std::abs in llama_sample_tail_free (#2800)
|
2 лет назад |
Georgi Gerganov
|
04f4b1eb10
k-quants : remove unnecessary tensor shape restrictions (#2811)
|
2 лет назад |
Kawrakow
|
7592375403
Better perplexity for 2- and 3-bit quantization for LLaMA-v2-70B (#2807)
|
2 лет назад |
klosax
|
2ba83c8685
Fix spm whitespaces (#2806)
|
2 лет назад |
Matt Pulver
|
c82742ac9c
llama : add llama_beam_search() (#2267)
|
2 лет назад |
slaren
|
154725c543
llama-bench : add model sizes (#2771)
|
2 лет назад |
Henri Vasserman
|
6bbc598a63
ROCm Port (#1087)
|
2 лет назад |
Georgi Gerganov
|
3f460a2b72
cuda : add RoPE kernel for mode == 2 (NeoX) (#2760)
|
2 лет назад |
slaren
|
0d3094f0c7
gguf : add rope_freq_base parameter for CodeLlama (#2769)
|
2 лет назад |
Shouzheng Liu
|
38b16dfca6
metal : bug-fix when enable ggml-alloc (#2757)
|
2 лет назад |
slaren
|
fea95c682d
fix convert.py for codellama, add llama 34B to the list of recognized models (#2768)
|
2 лет назад |