当前位置: 首页> 科技> 数码 > 站长工具 日本精品_重庆响应式网站设计_大数据培训包就业靠谱吗_搜索引擎优化培训

站长工具 日本精品_重庆响应式网站设计_大数据培训包就业靠谱吗_搜索引擎优化培训

时间:2025/7/12 8:19:39来源:https://blog.csdn.net/weixin_48344945/article/details/147334646 浏览次数:0次
站长工具 日本精品_重庆响应式网站设计_大数据培训包就业靠谱吗_搜索引擎优化培训

LLaMA Factory 是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过 Web UI 界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架之一,GitHub 星标超过 4.7 万。本教程将基于通义千问团队开源的新一代多模态大模型 Qwen2-VL-2B-Instruct,介绍如何使用 矩池云 平台及 LLaMA Factory 训练框架完成文旅领域大模型的构建。

GitHub地址:https://github.com/hiyouga/LLaMA-Factory

一、直接使用 LLaMA-Factory镜像

注:最新版 LLaMa-Factory 已经上线

租用实例时,请搜索关键词LLaMaFactory选择镜像 LLaMa-Factory20250418即可使用

实例运行后,可通过“我的实例”页面中的服务链接进行访问。

Screenshot 2025-04-18 at 14.08.19.png

二、亲自部署 LLaMA-Factory

如果想亲自在实例上部署LLaMA-Factory,则步骤如下:

启动实例

显卡型号:4090 24G显存 (为保证下载速度,请选择亚太 2 区的机器)

镜像:Pytorch 2.5.1

配置端口号: 8080(WebUI 服务) 11434(API 服务)

设置环境变量:GRADIO_SERVER_PORT=8080 (定义 Gradio webUI 服务的端口号,注:环境变量只能在 terminal 中查看,notebook 无法查看)

去除国内镜像源

如果您使用的是亚太 2 区的机器,则在部署之前,先去除默认的国内 pip 源:

具体方法在matpool主站右下角点击“客服”寻问AI客服:“如何去除pip源”

Screenshot 2025-04-18 at 13.59.38.png

安装LLaMA-Factory

实例中运行:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

启动服务

实例中运行:

llamafactory-cli webui

注:如果实例不在亚太2区,则配置modelhub下载模型

USE_MODELSCOPE_HUB=1 llamafactory-cli webui
# USE_MODELSCOPE_HUB 设为 1,表示模型从 ModelScope 魔搭社区下载。避免从 HuggingFace 下载模型导致网速不畅。

服务启动后,可通过“我的实例”页面中的服务链接进行访问。

三、使用LLaMA-Factory 微调模型

准备数据集

LLaMA-Factory 项目内置了丰富的数据集,放在了 data 目录下。您可以跳过本步骤,直接使用内置数据集。您也可以准备自定义数据集,将数据处理为框架特定的格式,放在 data 下,并且修改 dataset_info.json 文件。

如果直接使用了人LLama-Factory镜像,则用户可直接在data目录下查看到 images文件夹和train.json 数据集,并且已经在`dataset_info.json `中加入train数据集。

Screenshot 2025-04-18 at 14.18.42.png

如果是按照步骤二自己部署的 LLaMA-Factory,则可自行下载数据集并存放到 data 目录:

wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/llama_factory/Qwen2-VL-History.zip
mv data rawdata && unzip Qwen2-VL-History.zip -d data # 这一步会将原LLaMA-Facroty 目录下的 data 文件转移到rawdata中

数据集中的样本为单轮对话形式,含有 261 条样本,每条样本都由一条系统提示、一条用户指令和一条模型回答组成,微调过程中模型不断学习样本中的回答风格,从而达到学习文旅知识的目的。数据样例如下所示:

Screenshot 2025-04-18 at 14.49.55.png

模型微调

2.0 监控显存使用情况

在微调过程中,需要持续观测显存用量,及时发现显存用超的情况:

watch -n 1 nvidia-smi

Screenshot 2025-04-18 at 15.15.57.png

2.1 配置参数

进入 WebUI 后,可以切换语言到中文(zh)。首先配置模型,本教程选择 Qwen2VL-2B-Chat 模型,微调方法修改为 full,针对小模型使用全参微调方法能带来更好的效果。

Screenshot 2025-04-18 at 14.54.55.png

可以点击「预览数据集」按钮查看训练数据;点击「关闭」按钮返回训练界面:

Screenshot 2025-04-18 at 14.57.55.png

设置学习率为 1e-4,训练轮数为 10,更改计算类型为 pure_bf16,梯度累积为 2,有利于模型拟合。在其他参数设置区域修改保存间隔为 1000,节省硬盘空间。

Screenshot 2025-04-18 at 15.01.55.png

2.2 启动微调

将输出目录修改为 train_qwen2vl,训练后的模型权重将会保存在此目录中。点击「预览命令」可展示所有已配置的参数,如果想通过代码运行微调,可以复制这段命令,在命令行运行。

点击「开始」启动模型微调。

启动微调后需要等待一段时间,待模型下载完毕后可在界面观察到训练进度和损失曲线。模型微调大约需要 14 分钟,显示“训练完毕”代表微调成功。

Screenshot 2025-04-18 at 15.04.51.png

2.3 模型对话

将检查点路径改为 train_qwen2vl

Screenshot 2025-04-18 at 15.08.19.png

选择「Chat」栏,点击「加载模型」即可在 Web UI 中和微调后的模型进行对话。

Screenshot 2025-04-18 at 15.10.15.png

首先点击测试图片并上传至对话框的图像区域,接着在系统提示词区域填写“你是一个导游,请生动有趣地回答游客提出的问题”。在页面底部的对话框输入想要和模型对话的内容,点击提交即可发送消息。

测试图片 1:

test1.jpeg

测试图片 2:

test2.jpeg

Screenshot 2025-04-18 at 15.13.25.png

参考

https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory_qwen2vl

关键字:站长工具 日本精品_重庆响应式网站设计_大数据培训包就业靠谱吗_搜索引擎优化培训

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: