|
|
9 месяцев назад | |
|---|---|---|
| .. | ||
| android | 1 год назад | |
| CMakeLists.txt | 10 месяцев назад | |
| MobileVLM-README.md | 1 год назад | |
| README-gemma3.md | 9 месяцев назад | |
| README-glmedge.md | 11 месяцев назад | |
| README-granitevision.md | 10 месяцев назад | |
| README-minicpmo2.6.md | 10 месяцев назад | |
| README-minicpmv2.5.md | 10 месяцев назад | |
| README-minicpmv2.6.md | 10 месяцев назад | |
| README-quantize.md | 11 месяцев назад | |
| README.md | 10 месяцев назад | |
| clip-quantize-cli.cpp | 11 месяцев назад | |
| clip.cpp | 9 месяцев назад | |
| clip.h | 10 месяцев назад | |
| convert_image_encoder_to_gguf.py | 10 месяцев назад | |
| gemma3-cli.cpp | 9 месяцев назад | |
| gemma3_convert_encoder_to_gguf.py | 10 месяцев назад | |
| glmedge-convert-image-encoder-to-gguf.py | 11 месяцев назад | |
| glmedge-surgery.py | 11 месяцев назад | |
| llava-cli.cpp | 9 месяцев назад | |
| llava.cpp | 10 месяцев назад | |
| llava.h | 1 год назад | |
| llava_surgery.py | 1 год назад | |
| llava_surgery_v2.py | 10 месяцев назад | |
| minicpmv-cli.cpp | 9 месяцев назад | |
| minicpmv-convert-image-encoder-to-gguf.py | 10 месяцев назад | |
| minicpmv-surgery.py | 1 год назад | |
| qwen2_vl_surgery.py | 1 год назад | |
| qwen2vl-cli.cpp | 9 месяцев назад | |
| requirements.txt | 1 год назад | |
[!IMPORTANT]
This is very experimental, only used for demo purpose.
You can use pre-quantized model from ggml-org's Hugging Face account
# build
cmake -B build
cmake --build build --target llama-gemma3-cli
# alternatively, install from brew (MacOS)
brew install llama.cpp
# run it
llama-gemma3-cli -hf ggml-org/gemma-3-4b-it-GGUF
llama-gemma3-cli -hf ggml-org/gemma-3-12b-it-GGUF
llama-gemma3-cli -hf ggml-org/gemma-3-27b-it-GGUF
# note: 1B model does not support vision
cd gemma-3-4b-it
python ../llama.cpp/examples/llava/gemma3_convert_encoder_to_gguf.py .
# output file is mmproj.gguf
What you need:
convert_hf_to_gguf.pyAn image file
# build
cmake -B build
cmake --build build --target llama-gemma3-cli
# run it
./build/bin/llama-gemma3-cli -m {text_model}.gguf --mmproj mmproj.gguf --image your_image.jpg