千问2.5-VL-7B的推理、微调、部署_笔记2
接上篇:部署千问2.5-VL-7B_笔记1-CSDN博客
这里主要记录微调过程
一、模型微调
这里也使用ms-swift对qwen2.5和qwen2-vl进行自我认知微调和图像OCR微调,并对微调后的模型进行推理。ms-swift是魔搭社区官方提供的LLM工具箱,支持300+大语言模型和80+多模态大模型的微调到部署。ms-swift开源地址:https://github.com/modelscope/ms-swift
开始微调之前,确保你的环境已安装
1、安装ms-swift和qwen2.5-vl的环境(上篇已经安装过qwen2.5-vl的环境这里不再重复)
git clone https://github.com/modelscope/ms-swift.git
conda create -n swift python==3.10 -y
conda activate swift
cd ms-swift
pip install -e .[llm]
这里使用自定义数据集进行微调
未完有时间更新..
参考:Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!