Rudi Servo 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
..
nix e52aba537a nix: allow to override rocm gpu targets (#10794) hai 1 ano
cloud-v-pipeline 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) hai 1 ano
cpu.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
cuda.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
intel.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
llama-cli-cann.Dockerfile 75207b3a88 docker: use GGML_NATIVE=OFF (#10368) hai 1 ano
llama-cpp-cuda.srpm.spec 0e814dfc42 devops : remove clblast + LLAMA_CUDA -> GGML_CUDA (#8139) hai 1 ano
llama-cpp.srpm.spec 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) hai 1 ano
musa.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
rocm.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano
tools.sh 11e07fd63b fix: graceful shutdown for Docker images (#10815) hai 1 ano
vulkan.Dockerfile 7c0e285858 devops : add docker-multi-stage builds (#10832) hai 1 ano