当前位置: 首页 > news >正文

LLaMA Factory多模态微调实践:微调Qwen2-VL构建文旅大模型

LLaMA Factory 是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过 Web UI 界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架之一,GitHub 星标超过 4.7 万。本教程将基于通义千问团队开源的新一代多模态大模型 Qwen2-VL-2B-Instruct,介绍如何使用 矩池云 平台及 LLaMA Factory 训练框架完成文旅领域大模型的构建。

GitHub地址:https://github.com/hiyouga/LLaMA-Factory

一、直接使用 LLaMA-Factory镜像

注:最新版 LLaMa-Factory 已经上线

租用实例时,请搜索关键词LLaMaFactory选择镜像 LLaMa-Factory20250418即可使用

实例运行后,可通过“我的实例”页面中的服务链接进行访问。

Screenshot 2025-04-18 at 14.08.19.png

二、亲自部署 LLaMA-Factory

如果想亲自在实例上部署LLaMA-Factory,则步骤如下:

启动实例

显卡型号:4090 24G显存 (为保证下载速度,请选择亚太 2 区的机器)

镜像:Pytorch 2.5.1

配置端口号: 8080(WebUI 服务) 11434(API 服务)

设置环境变量:GRADIO_SERVER_PORT=8080 (定义 Gradio webUI 服务的端口号,注:环境变量只能在 terminal 中查看,notebook 无法查看)

去除国内镜像源

如果您使用的是亚太 2 区的机器,则在部署之前,先去除默认的国内 pip 源:

具体方法在matpool主站右下角点击“客服”寻问AI客服:“如何去除pip源”

Screenshot 2025-04-18 at 13.59.38.png

安装LLaMA-Factory

实例中运行:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

启动服务

实例中运行:

llamafactory-cli webui

注:如果实例不在亚太2区,则配置modelhub下载模型

USE_MODELSCOPE_HUB=1 llamafactory-cli webui
# USE_MODELSCOPE_HUB 设为 1,表示模型从 ModelScope 魔搭社区下载。避免从 HuggingFace 下载模型导致网速不畅。

服务启动后,可通过“我的实例”页面中的服务链接进行访问。

三、使用LLaMA-Factory 微调模型

准备数据集

LLaMA-Factory 项目内置了丰富的数据集,放在了 data 目录下。您可以跳过本步骤,直接使用内置数据集。您也可以准备自定义数据集,将数据处理为框架特定的格式,放在 data 下,并且修改 dataset_info.json 文件。

如果直接使用了人LLama-Factory镜像,则用户可直接在data目录下查看到 images文件夹和train.json 数据集,并且已经在`dataset_info.json `中加入train数据集。

Screenshot 2025-04-18 at 14.18.42.png

如果是按照步骤二自己部署的 LLaMA-Factory,则可自行下载数据集并存放到 data 目录:

wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/llama_factory/Qwen2-VL-History.zip
mv data rawdata && unzip Qwen2-VL-History.zip -d data # 这一步会将原LLaMA-Facroty 目录下的 data 文件转移到rawdata中

数据集中的样本为单轮对话形式,含有 261 条样本,每条样本都由一条系统提示、一条用户指令和一条模型回答组成,微调过程中模型不断学习样本中的回答风格,从而达到学习文旅知识的目的。数据样例如下所示:

Screenshot 2025-04-18 at 14.49.55.png

模型微调

2.0 监控显存使用情况

在微调过程中,需要持续观测显存用量,及时发现显存用超的情况:

watch -n 1 nvidia-smi

Screenshot 2025-04-18 at 15.15.57.png

2.1 配置参数

进入 WebUI 后,可以切换语言到中文(zh)。首先配置模型,本教程选择 Qwen2VL-2B-Chat 模型,微调方法修改为 full,针对小模型使用全参微调方法能带来更好的效果。

Screenshot 2025-04-18 at 14.54.55.png

可以点击「预览数据集」按钮查看训练数据;点击「关闭」按钮返回训练界面:

Screenshot 2025-04-18 at 14.57.55.png

设置学习率为 1e-4,训练轮数为 10,更改计算类型为 pure_bf16,梯度累积为 2,有利于模型拟合。在其他参数设置区域修改保存间隔为 1000,节省硬盘空间。

Screenshot 2025-04-18 at 15.01.55.png

2.2 启动微调

将输出目录修改为 train_qwen2vl,训练后的模型权重将会保存在此目录中。点击「预览命令」可展示所有已配置的参数,如果想通过代码运行微调,可以复制这段命令,在命令行运行。

点击「开始」启动模型微调。

启动微调后需要等待一段时间,待模型下载完毕后可在界面观察到训练进度和损失曲线。模型微调大约需要 14 分钟,显示“训练完毕”代表微调成功。

Screenshot 2025-04-18 at 15.04.51.png

2.3 模型对话

将检查点路径改为 train_qwen2vl

Screenshot 2025-04-18 at 15.08.19.png

选择「Chat」栏,点击「加载模型」即可在 Web UI 中和微调后的模型进行对话。

Screenshot 2025-04-18 at 15.10.15.png

首先点击测试图片并上传至对话框的图像区域,接着在系统提示词区域填写“你是一个导游,请生动有趣地回答游客提出的问题”。在页面底部的对话框输入想要和模型对话的内容,点击提交即可发送消息。

测试图片 1:

test1.jpeg

测试图片 2:

test2.jpeg

Screenshot 2025-04-18 at 15.13.25.png

参考

https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory_qwen2vl

相关文章:

  • 《奇迹世界起源》:神之月晓活动介绍!
  • YRAN定义
  • Enovia许可证管理与监控工具
  • 对WAV文件进行降噪
  • 51、项⽬中的权限管理怎么实现的
  • k8s介绍与实践
  • 【AI提示词】儿童看护员
  • 【嵌入式】【阿里云服务器】【树莓派】学习守护进程编程、gdb调试原理和内网穿透信息
  • css图片设为灰色
  • Allure测试报告按测试终端和测试类型智能分类查看
  • 前端为什么需要单元测试?
  • 数据仓库分层架构解析:从理论到实战的完整指南​​
  • AXOP36061S: 60V 高压单通道运算放大器
  • 视频分析设备平台EasyCVR化解高速服务区管理难题,打造全方位智能安防监控方案
  • 《AI赋能职场:大模型高效应用课》第8课 AI辅助职场沟通与协作
  • 杂书的读书笔记
  • 线程池七个参数的含义
  • python有序列表
  • 【Triton 教程】triton_language.full
  • C++手撕STL-其一
  • 马拉松夺冠机器人将小批量量产:价格与一台入门级小轿车差不多
  • 管理规模归零,华夏基金“ETF规模一哥”张弘弢清仓卸任所有产品
  • 一场小型越野赛为何吸引众多越野大神打卡?
  • 左眼失明左耳失聪,办理残疾人证被拒?县残联:双眼残疾才能办
  • 习近平抵达柬埔寨金边国际机场发表书面讲话(全文)
  • 上海铁三浓度越来越高,长三角国际铁人三项赛下月开赛