Georgi Gerganov
|
432cf4304c
codeowners : update + cleanup (#16174)
|
há 3 meses atrás |
Daniel Bevenius
|
2758fa10da
examples : add model conversion tool/example (#15455)
|
há 4 meses atrás |
Aman Gupta
|
ab14019821
Support diffusion models: Add Dream 7B (#14644)
|
há 6 meses atrás |
Johannes Gäßler
|
10d2af0eaa
llama/ggml: add LLM training support (#10544)
|
há 8 meses atrás |
Georgi Gerganov
|
4773d7a02f
examples : remove infill (#13283)
|
há 8 meses atrás |
Diego Devesa
|
1d36b3670b
llama : move end-user examples to tools directory (#13249)
|
há 8 meses atrás |
Georgi Gerganov
|
13b4548877
cmake : do not include ./src as public for libllama (#13062)
|
há 8 meses atrás |
Georgi Gerganov
|
0bf2d10c55
tts : add OuteTTS support (#10784)
|
há 1 ano atrás |
Xuan Son Nguyen
|
adffa6ffd5
common : improve -ctv -ctk CLI arguments (#10806)
|
há 1 ano atrás |
Diego Devesa
|
cb13ef85a4
remove CMAKE_WINDOWS_EXPORT_ALL_SYMBOLS (#10797)
|
há 1 ano atrás |
Georgi Gerganov
|
ab96610b1e
cmake : enable warnings in llama (#10474)
|
há 1 ano atrás |
Eric Curtin
|
0cc63754b8
Introduce llama-run (#10291)
|
há 1 ano atrás |
Diego Devesa
|
5931c1f233
ggml : add support for dynamic loading of backends (#10469)
|
há 1 ano atrás |
Georgi Gerganov
|
d9d54e498d
speculative : refactor and add a simpler example (#10362)
|
há 1 ano atrás |
Diego Devesa
|
9f40989351
ggml : move CPU backend to a separate file (#10144)
|
há 1 ano atrás |
Diego Devesa
|
a6744e43e8
llama : add simple-chat example (#10124)
|
há 1 ano atrás |
Georgi Gerganov
|
148844fe97
examples : remove benchmark (#9704)
|
há 1 ano atrás |
Xuan Son Nguyen
|
be6d7c0791
examples : remove `finetune` and `train-text-from-scratch` (#8669)
|
há 1 ano atrás |
Brian
|
f7cab35ef9
gguf-hash: model wide and per tensor hashing using xxhash and sha1 (#8048)
|
há 1 ano atrás |
Georgi Gerganov
|
f3f65429c4
llama : reorganize source code + improve CMake (#8006)
|
há 1 ano atrás |
Xuan Son Nguyen
|
0c7b3595b9
Add `cvector-generator` example (#7514)
|
há 1 ano atrás |
Olivier Chafik
|
1c641e6aac
`build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809)
|
há 1 ano atrás |
Georgi Gerganov
|
0cd6bd3483
llama : remove beam search (#7736)
|
há 1 ano atrás |
Radoslav Gerganov
|
5e31828d3e
ggml : add RPC backend (#6829)
|
há 1 ano atrás |
Pierrick Hymbert
|
b804b1ef77
eval-callback: Example how to use eval callback for debugging (#6576)
|
há 1 ano atrás |
Minsoo Cheong
|
64e7b47c69
examples : add "retrieval" (#6193)
|
há 1 ano atrás |
Pierrick Hymbert
|
d0d5de42e5
gguf-split: split and merge gguf per batch of tensors (#6135)
|
há 1 ano atrás |
DAN™
|
bcebd7dbf6
llama : add support for GritLM (#5959)
|
há 1 ano atrás |
John
|
6c00a06692
gguf : add python reader example (#5216)
|
há 1 ano atrás |
Abhilash Majumder
|
0f648573dd
ggml : add unified SYCL backend for Intel GPUs (#2690)
|
há 1 ano atrás |