Georgi Gerganov
|
715a6db02c
kv-cache : drop the "unified" prefix (#15467)
|
hace 5 meses |
Gabe Goodhart
|
edc4a29eff
memory : Hybrid recurrent cache (#13979)
|
hace 7 meses |
Georgi Gerganov
|
7f37b6cf1e
memory : migrate from llama_kv_cache to more generic llama_memory (#14006)
|
hace 7 meses |
Georgi Gerganov
|
0fc16b42e8
kv-cache : split implementation in separate sources (#13920)
|
hace 8 meses |
Georgi Gerganov
|
34b7c0439e
cmake : add llama-cparams.cpp to build (#13832)
|
hace 8 meses |
Johannes Gäßler
|
10d2af0eaa
llama/ggml: add LLM training support (#10544)
|
hace 8 meses |
Georgi Gerganov
|
13b4548877
cmake : do not include ./src as public for libllama (#13062)
|
hace 9 meses |
Plamen Minev
|
381603a775
ci: detach common from the library (#12827)
|
hace 9 meses |
Georgi Gerganov
|
e0dbec0bc6
llama : refactor llama_context, llama_kv_cache, llm_build_context (#12181)
|
hace 10 meses |
Olivier Chafik
|
6171c9d258
Add Jinja template support (#11016)
|
hace 1 año |
Georgi Gerganov
|
f66f582927
llama : refactor `src/llama.cpp` (#10902)
|
hace 1 año |
Diego Devesa
|
cb13ef85a4
remove CMAKE_WINDOWS_EXPORT_ALL_SYMBOLS (#10797)
|
hace 1 año |
Diego Devesa
|
7cc2d2c889
ggml : move AMX to the CPU backend (#10570)
|
hace 1 año |
Georgi Gerganov
|
ab96610b1e
cmake : enable warnings in llama (#10474)
|
hace 1 año |
Diego Devesa
|
ae8de6d50a
ggml : build backends as libraries (#10256)
|
hace 1 año |
Georgi Gerganov
|
938943cdbf
llama : move vocab, grammar and sampling into separate files (#8508)
|
hace 1 año |
Daniel Bevenius
|
f8c4c0738d
tests : add _CRT_SECURE_NO_WARNINGS for WIN32 (#8231)
|
hace 1 año |
Georgi Gerganov
|
f3f65429c4
llama : reorganize source code + improve CMake (#8006)
|
hace 1 año |