Georgi Gerganov
|
ae7985cd7b
sync : ggml
|
1 năm trước cách đây |
Mahesh Madhav
|
a05ca93697
ggml : loop tiling optimizations for scalar path (ggml/898)
|
1 năm trước cách đây |
Ivan Filipov
|
9f77d899b7
ggml: add support for float16 input tensors in pooling operations (ggml/895)
|
1 năm trước cách đây |
Tony Wasserka
|
203b7f1531
vulkan : initialize vk_buffer_struct members to VK_NULL_HANDLE (ggml/893)
|
1 năm trước cách đây |
Borislav Stanimirov
|
d2b851bfa1
cmake : only enable GGML_NATIVE and x86 flags if not crosscompiling (ggml/885)
|
1 năm trước cách đây |
Daniel Bevenius
|
c12b6e8ee7
ggml : remove unnecessary UNUSED macro call (ggml/880)
|
1 năm trước cách đây |
Jeffrey Morgan
|
b5e95468b1
llama : add support for llama 3.1 rope scaling factors (#8676)
|
1 năm trước cách đây |
Georgi Gerganov
|
92090eca21
llama : add function for model-based max number of graph nodes (#8622)
|
1 năm trước cách đây |
Daniel Bevenius
|
9d03d085dd
common : add --no-warmup option for main/llama-cli (#8712)
|
1 năm trước cách đây |
wangshuai09
|
bfb4c74981
cann: Fix Multi-NPU execution error (#8710)
|
1 năm trước cách đây |
slaren
|
2b1f616b20
ggml : reduce hash table reset cost (#8698)
|
1 năm trước cách đây |
Judd
|
01245f5b16
llama : fix order of parameters (#8706)
|
1 năm trước cách đây |
Yaiko
|
01aec4a631
server : add Speech Recognition & Synthesis to UI (#8679)
|
1 năm trước cách đây |
Xuan Son Nguyen
|
41cd47caab
examples : export-lora : fix issue with quantized base models (#8687)
|
1 năm trước cách đây |
DavidKorczynski
|
49ce0ab6d4
ggml: handle ggml_init failure to fix NULL pointer deref (#8692)
|
1 năm trước cách đây |
Georgi Gerganov
|
4226a8d10e
llama : fix build + fix fabs compile warnings (#8683)
|
1 năm trước cách đây |
Andreas (Andi) Kunar
|
bf5a81df37
ggml : fix build on Windows with Snapdragon X (#8531)
|
1 năm trước cách đây |
Georgi Gerganov
|
88954f7fbd
tests : fix printfs (#8068)
|
1 năm trước cách đây |
Chen Xi
|
ed67bcb24f
[SYCL] fix multi-gpu issue on sycl (#8554)
|
1 năm trước cách đây |
Georgi Gerganov
|
eddcb5238b
ggml : add and use ggml_cpu_has_llamafile() (#8664)
|
1 năm trước cách đây |
Xuan Son Nguyen
|
be6d7c0791
examples : remove `finetune` and `train-text-from-scratch` (#8669)
|
1 năm trước cách đây |
Ujjawal Panchal
|
4b0eff3df5
docs : Quantum -> Quantized (#8666)
|
1 năm trước cách đây |
Fan Shupei
|
8a4bad50a8
llama: use sliding window for phi3 (#8627)
|
1 năm trước cách đây |
MorganRO8
|
68504f0970
readme : update games list (#8673)
|
1 năm trước cách đây |
Joe Todd
|
f19bf99c01
Build Llama SYCL Intel with static libs (#8668)
|
1 năm trước cách đây |
Thorsten Sommer
|
3a7ac5300a
readme : update UI list [no ci] (#8505)
|
1 năm trước cách đây |
Xuan Son Nguyen
|
96952e7181
llama : fix `llama_chat_format_single` for mistral (#8657)
|
1 năm trước cách đây |
Joe Todd
|
79167d9e49
Re-add erroneously removed -fsycl from GGML_EXTRA_LIBS (#8667)
|
1 năm trước cách đây |
Xuan Son Nguyen
|
b115105f05
add llama_lora_adapter_clear (#8653)
|
1 năm trước cách đây |
Xuan Son Nguyen
|
de280085e7
examples : Fix `llama-export-lora` example (#8607)
|
1 năm trước cách đây |