Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) 2 年 前
..
CMakeLists.txt ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) 2 年 前
README.md ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) 2 年 前
parallel.cpp 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) 2 年 前

README.md

llama.cpp/example/parallel

Simplified simluation for serving incoming requests in parallel