SAMI 1ec208083c llava: add quantization for the visual projector LLAVA, Qwen2VL (#11644) před 11 měsíci
..
android 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) před 1 rokem
CMakeLists.txt 1ec208083c llava: add quantization for the visual projector LLAVA, Qwen2VL (#11644) před 11 měsíci
MobileVLM-README.md e665744317 llava : fix the script error in MobileVLM README (#9054) před 1 rokem
README-glmedge.md 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
README-minicpmo2.6.md 3e3357fd77 llava : support Minicpm-omni (#11289) před 1 rokem
README-minicpmv2.5.md 3246fe84d7 Fix minicpm example directory (#9111) před 1 rokem
README-minicpmv2.6.md d565bb2fd5 llava : support MiniCPM-V-2.6 (#8967) před 1 rokem
README-quantize.md 1ec208083c llava: add quantization for the visual projector LLAVA, Qwen2VL (#11644) před 11 měsíci
README.md e235b267a2 py : switch to snake_case (#8305) před 1 rokem
clip-quantize-cli.cpp 1ec208083c llava: add quantization for the visual projector LLAVA, Qwen2VL (#11644) před 11 měsíci
clip.cpp 1ec208083c llava: add quantization for the visual projector LLAVA, Qwen2VL (#11644) před 11 měsíci
clip.h 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
convert_image_encoder_to_gguf.py 511636df0c ci : reduce severity of unused Pyright ignore comments (#9697) před 1 rokem
glmedge-convert-image-encoder-to-gguf.py 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
glmedge-surgery.py 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llava-cli.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
llava.cpp 0cec062a63 llama : add support for GLM-Edge and GLM-Edge-V series models (#10573) před 11 měsíci
llava.h 3071c0a5f2 llava : support MiniCPM-V-2.5 (#7599) před 1 rokem
llava_surgery.py e235b267a2 py : switch to snake_case (#8305) před 1 rokem
llava_surgery_v2.py 3fd62a6b1c py : type-check all Python scripts with Pyright (#8341) před 1 rokem
minicpmv-cli.cpp 3e3357fd77 llava : support Minicpm-omni (#11289) před 1 rokem
minicpmv-convert-image-encoder-to-gguf.py 3e3357fd77 llava : support Minicpm-omni (#11289) před 1 rokem
minicpmv-surgery.py 3e3357fd77 llava : support Minicpm-omni (#11289) před 1 rokem
qwen2_vl_surgery.py 4ddd199f6f llava : Allow locally downloaded models for QwenVL (#10833) před 1 rokem
qwen2vl-cli.cpp afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
requirements.txt d3ae0ee8d7 py : fix requirements check '==' -> '~=' (#8982) před 1 rokem

README-glmedge.md

GLMV-EDGE

Currently this implementation supports glm-edge-v-2b and glm-edge-v-5b.

Usage

Build with cmake or run make llama-llava-cli to build it.

After building, run: ./llama-llava-cli to see the usage. For example:

./llama-llava-cli -m model_path/ggml-model-f16.gguf --mmproj model_path/mmproj-model-f16.gguf --image img_path/image.jpg -p "<|system|>\n system prompt <image><|user|>\n prompt <|assistant|>\n"

note: A lower temperature like 0.1 is recommended for better quality. add --temp 0.1 to the command to do so. note: For GPU offloading ensure to use the -ngl flag just like usual

GGUF conversion

  1. Clone a GLMV-EDGE model (2B or 5B). For example:

    git clone https://huggingface.co/THUDM/glm-edge-v-5b or https://huggingface.co/THUDM/glm-edge-v-2b
    
  2. Use glmedge-surgery.py to split the GLMV-EDGE model to LLM and multimodel projector constituents:

    python ./examples/llava/glmedge-surgery.py -m ../model_path
    
  3. Use glmedge-convert-image-encoder-to-gguf.py to convert the GLMV-EDGE image encoder to GGUF:

    python ./examples/llava/glmedge-convert-image-encoder-to-gguf.py -m ../model_path --llava-projector ../model_path/glm.projector --output-dir ../model_path
    
  4. Use examples/convert_hf_to_gguf.py to convert the LLM part of GLMV-EDGE to GGUF:

    python convert_hf_to_gguf.py ../model_path
    

Now both the LLM part and the image encoder are in the model_path directory.