Lmms Finetune

使用场景研究人员使用lmms-finetune对LLaVA-1.5进行微调,以提高在特定视频内容分析任务上的性能。开发者利用该代码库将Phi-3-Vision模...

  • Lmms Finetune

    类别:AI开发助手,AI模型,微调,多模态,视频模型,foundation-models,instruction-tuning,large-language-model,llava,visual-instruction-tuning,multimodal-large-language-models,large-multimodal-models,qwen-vl,llava-next,普通产品,开源,
    官网:https://github.com/zjysteven/lmms-finetune 更新时间:2025-08-01 18:40:25
  • 使用场景

    研究人员使用lmms-finetune对LLaVA-1.5进行微调,以提高在特定视频内容分析任务上的性能。

    开发者利用该代码库将Phi-3-Vision模型微调到新的图像识别任务中。

    教育机构采用lmms-finetune进行教学,帮助学生理解大型多模态模型的微调过程和应用。

    产品特色

    提供统一结构的微调框架,简化集成和微调过程

    支持全微调、lora、q-lora等多种微调策略

    保持代码库的简洁性,便于理解和修改

    支持多种类型的LMMs,包括单图像模型、多图像/交错图像模型和视频模型

    提供详细的文档和示例,帮助用户快速上手

    灵活的代码库,支持自定义和快速实验

    使用教程

    克隆代码库到本地环境:`git clone https://github.com/zjysteven/lmms-finetune.git`

    设置conda环境并激活:`conda create -n lmms-finetune python=3.10 -y` 后 `conda activate lmms-finetune`

    安装依赖:`python -m pip install -r requirements.txt`

    根据需要安装额外的库,如flash attention:`python -m pip install --no-cache-dir --no-build-isolation flash-attn`

    查看支持的模型列表或运行 `python supported_models.py` 来获取支持的模型信息

    根据示例或文档修改训练脚本 `example.sh`,设置目标模型、数据路径等参数

    运行训练脚本:`bash example.sh` 开始微调过程