Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) před 2 roky
..
CMakeLists.txt ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) před 2 roky
README.md ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) před 2 roky
parallel.cpp 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) před 2 roky

README.md

llama.cpp/example/parallel

Simplified simluation for serving incoming requests in parallel