DannyDaemonic
|
edce63baa9
Added README.md for main with examples and explanations (#1139)
|
2 ani în urmă |
Georgi Gerganov
|
ec9cdb6752
ggml : do not print perf ops that have not been used at all
|
2 ani în urmă |
Georgi Gerganov
|
e4422e299c
ggml : better PERF prints + support "LLAMA_PERF=1 make"
|
2 ani în urmă |
Stephan Walter
|
53c8434398
Improve AVX2 for vec_dot_q4_3_q8_0 (#1138)
|
2 ani în urmă |
Pavol Rusnak
|
c6524f46eb
readme : update gpt4all instructions (#980)
|
2 ani în urmă |
Yishuo Wang
|
c9e2c26f41
A better `packNibbles` and `mul_sum_i8_pairs_float` implementation using AVX512 (#1119)
|
2 ani în urmă |
Georgi Gerganov
|
0e018fe008
ggml : fix Q4_3 cuBLAS
|
2 ani în urmă |
Stephan Walter
|
857308d1e8
ci : trigger CI for drafts, but not most PR actions (#1125)
|
2 ani în urmă |
Stephan Walter
|
c50b628810
Fix CI: ARM NEON, quantization unit tests, editorconfig (#1122)
|
2 ani în urmă |
unbounded
|
5f939498d5
ggml : unit test for quantization functions (#953)
|
2 ani în urmă |
wbpxre150
|
36b4f7e064
llama : print timings on ctrl+c exit (#1021)
|
2 ani în urmă |
eiery
|
10f19c1121
llama : have n_batch default to 512 (#1091)
|
2 ani în urmă |
Howard Su
|
7e312f165c
cmake : fix build under Windows when enable BUILD_SHARED_LIBS (#1100)
|
2 ani în urmă |
Georgi Gerganov
|
872c365a91
ggml : fix AVX build + update to new Q8_0 format
|
2 ani în urmă |
Georgi Gerganov
|
955ef9a5d5
ggml : alternative Q4_3 implementation using modified Q8_0 (#1109)
|
2 ani în urmă |
Stephan Walter
|
c5aa5e5777
ggml : AVX2 optimization for vec_dot_q4_3_q8_0 and refactoring (#1099)
|
2 ani în urmă |
Clint Herron
|
e9a9cb0c54
examples : Improve Alpaca Default Repeat Penalty: Better Match Alpaca.cpp Experience (#1107)
|
2 ani în urmă |
xaedes
|
b6e7f9b09e
llama : add api for getting/setting the complete state: rng, logits, embedding and kv_cache (#1105)
|
2 ani în urmă |
slaren
|
50cb666b8a
Improve cuBLAS performance by using a memory pool (#1094)
|
2 ani în urmă |
apaz
|
25d7abbd1f
llama : fixed rlimit error message (#888)
|
2 ani în urmă |
源文雨
|
018f2279f5
cmake : link threads publicly to ggml (#1042)
|
2 ani în urmă |
Alex Klinkhamer
|
9411288271
main : evaluate tokens in batches after swapping context (#1014)
|
2 ani în urmă |
xaedes
|
8687c1f258
llama : remember and restore kv cache data pointers (#1104)
|
2 ani în urmă |
Kawrakow
|
1bfc153e2f
ggml : a faster version for Q4_1 x Q8_0 dot products (#1083)
|
2 ani în urmă |
slaren
|
3d59769c3b
Show perplexity ETA in hours and minutes (#1096)
|
2 ani în urmă |
Georgi Gerganov
|
d40fded93e
llama : fix comment for "output.weight" tensor
|
2 ani în urmă |
Stephan Walter
|
2510c1831f
Add ggml-model-*.bin checksums for 7B, 13B, 30B, 65B (#1088)
|
2 ani în urmă |
Georgi Gerganov
|
12b5900dbc
ggml : sync ggml (add GPT-NeoX RoPE implementation)
|
2 ani în urmă |
Georgi Gerganov
|
9ff334f3c9
ggml : fix bug in ggml_compute_forward_dup_f32()
|
2 ani în urmă |
slaren
|
2005469ea1
Add Q4_3 support to cuBLAS (#1086)
|
2 ani în urmă |