slaren
|
d232aca5a7
llama : initial ggml-backend integration (#4520)
|
2 ani în urmă |
Erik Garrison
|
0f630fbc92
cuda : ROCm AMD Unified Memory Architecture (UMA) handling (#4449)
|
2 ani în urmă |
arlo-phoenix
|
562cf222b5
ggml-cuda: Fix HIP build by adding define for __trap (#4569)
|
2 ani în urmă |
Johannes Gäßler
|
9154494808
CUDA: mul_mat_id always on GPU for batches >= 32 (#4553)
|
2 ani în urmă |
bobqianic
|
66f35a2f48
cuda : better error message for ggml_get_rows (#4561)
|
2 ani în urmă |
slaren
|
1398823922
cuda : replace asserts in wrong architecture checks with __trap (#4556)
|
2 ani în urmă |
LoganDark
|
1d7a1912ce
Fix access violation in ggml_cuda_free_data if tensor->extra is NULL (#4554)
|
2 ani în urmă |
Johannes Gäßler
|
799fc22689
CUDA: Faster Mixtral prompt processing (#4538)
|
2 ani în urmă |
arlo-phoenix
|
a7aee47b98
ggml-cuda: Fix HIP build (#4528)
|
2 ani în urmă |
Ebey Abraham
|
b9e74f9bca
llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (#4490)
|
2 ani în urmă |
slaren
|
6744dbe924
ggml : use ggml_row_size where possible (#4472)
|
2 ani în urmă |
Georgi Gerganov
|
4d98d9a656
sync : ggml (SD ops, tests, kernels) (#4444)
|
2 ani în urmă |
slaren
|
799a1cb13b
llama : add Mixtral support (#4406)
|
2 ani în urmă |
Georgi Gerganov
|
fe680e3d10
sync : ggml (new ops, tests, backend, etc.) (#4359)
|
2 ani în urmă |
Georgi Gerganov
|
bcc0eb4591
llama : per-layer KV cache + quantum K cache (#4309)
|
2 ani în urmă |
Georgi Gerganov
|
ef47ec18da
ggml : add ggml_soft_max_ext (#4256)
|
2 ani în urmă |
slaren
|
8a052c131e
ggml-cuda : support stablelm rope (#4156)
|
2 ani în urmă |
Haohui Mai
|
55978ce09b
Fix incorrect format strings and uninitialized variables. (#4133)
|
2 ani în urmă |
Kerfuffle
|
2923f17f6f
Clean up ggml-cuda.cu warnings when compiling with clang (for ROCM) (#4124)
|
2 ani în urmă |
Andrew Godfrey
|
b83e149ec6
cuda : get_row_rounding F32 (#4095)
|
2 ani în urmă |
Georgi Gerganov
|
4f447a4833
llama : fix data units (#4101)
|
2 ani în urmă |
slaren
|
1cf2850d52
ggml-cuda : increase max graph size (#4084)
|
2 ani în urmă |
Georgi Gerganov
|
3d68f364f1
ggml : sync (im2col, GPU conv, 32-bit arm compat) (#4060)
|
2 ani în urmă |
Georgi Gerganov
|
4760e7cc0b
sync : ggml (backend v2) (#3912)
|
2 ani în urmă |
Kerfuffle
|
bb50a792ec
Add ReLU and SQR CUDA ops to (partially) fix Persimmon offloading (#4041)
|
2 ani în urmă |
Meng Zhang
|
46876d2a2c
cuda : supports running on CPU for GGML_USE_CUBLAS=ON build (#3946)
|
2 ani în urmă |
slaren
|
2833a6f63c
ggml-cuda : fix f16 mul mat (#3961)
|
2 ani în urmă |
Jared Van Bortel
|
132d25b8a6
cuda : fix disabling device with --tensor-split 1,0 (#3951)
|
2 ani în urmă |
slaren
|
48ade94538
cuda : revert CUDA pool stuff (#3944)
|
2 ani în urmă |
slaren
|
abb77e7319
ggml-cuda : move row numbers to x grid dim in mmv kernels (#3921)
|
2 ani în urmă |