Romain Biessy 57f8355b29 sycl: Update Intel docker images to use DPC++ 2025.0 (#10305) 1 tahun lalu
..
nix ae8de6d50a ggml : build backends as libraries (#10256) 1 tahun lalu
cloud-v-pipeline 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 tahun lalu
full-cuda.Dockerfile 048de848ee docker : fix missing binaries in full-cuda image (#9278) 1 tahun lalu
full-musa.Dockerfile cf8e0a3bb9 musa: add docker image support (#9685) 1 tahun lalu
full-rocm.Dockerfile 6f1d9d71f4 Fix Docker ROCM builds, use AMDGPU_TARGETS instead of GPU_TARGETS (#9641) 1 tahun lalu
full.Dockerfile b3283448ce build : Fix docker build warnings (#8535) (#8537) 1 tahun lalu
llama-cli-cann.Dockerfile 231f9360d9 cann: dockerfile and doc adjustment (#10302) 1 tahun lalu
llama-cli-cuda.Dockerfile ae8de6d50a ggml : build backends as libraries (#10256) 1 tahun lalu
llama-cli-intel.Dockerfile 57f8355b29 sycl: Update Intel docker images to use DPC++ 2025.0 (#10305) 1 tahun lalu
llama-cli-musa.Dockerfile ae8de6d50a ggml : build backends as libraries (#10256) 1 tahun lalu
llama-cli-rocm.Dockerfile 6f1d9d71f4 Fix Docker ROCM builds, use AMDGPU_TARGETS instead of GPU_TARGETS (#9641) 1 tahun lalu
llama-cli-vulkan.Dockerfile b3283448ce build : Fix docker build warnings (#8535) (#8537) 1 tahun lalu
llama-cli.Dockerfile b3283448ce build : Fix docker build warnings (#8535) (#8537) 1 tahun lalu
llama-cpp-cuda.srpm.spec 0e814dfc42 devops : remove clblast + LLAMA_CUDA -> GGML_CUDA (#8139) 1 tahun lalu
llama-cpp.srpm.spec 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) 1 tahun lalu
llama-server-cuda.Dockerfile ae8de6d50a ggml : build backends as libraries (#10256) 1 tahun lalu
llama-server-intel.Dockerfile 57f8355b29 sycl: Update Intel docker images to use DPC++ 2025.0 (#10305) 1 tahun lalu
llama-server-musa.Dockerfile ae8de6d50a ggml : build backends as libraries (#10256) 1 tahun lalu
llama-server-rocm.Dockerfile 6f1d9d71f4 Fix Docker ROCM builds, use AMDGPU_TARGETS instead of GPU_TARGETS (#9641) 1 tahun lalu
llama-server-vulkan.Dockerfile a77feb5d71 server : add some missing env variables (#9116) 1 tahun lalu
llama-server.Dockerfile a77feb5d71 server : add some missing env variables (#9116) 1 tahun lalu
tools.sh be6d7c0791 examples : remove `finetune` and `train-text-from-scratch` (#8669) 1 tahun lalu