当前位置: 首页> 游戏> 评测 > 软件开发模型思维导图_个人博客网站页面_合肥网络推广_产品软文范例

软件开发模型思维导图_个人博客网站页面_合肥网络推广_产品软文范例

时间:2025/7/12 0:06:23来源:https://blog.csdn.net/laonafahaodange/article/details/147544956 浏览次数:0次
软件开发模型思维导图_个人博客网站页面_合肥网络推广_产品软文范例

LLaMa Factory大模型微调

  • 大模型微调
    • 平台&硬件
    • LLaMA-Factory安装
    • hfd下载hugging face模型
    • 自我认知微调
    • Alpaca数据集指令监督微调
    • 断点续训

大模型微调

微调自我认知+微调特定领域数据集。

平台&硬件

  • Ubuntu20.04
  • 显卡:M40 24G + 2080TI 22G
  • 微调框架:LLaMA-Factory

LLaMA-Factory安装

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

启动项目所提供的webui操作界面(因为我这里有两张型号不一样的显卡,经过测试不能混合训练,因此指定使用单卡2080TI):

export CUDA_VISIBLE_DEVICES=0
llamafactory-cli webui

URL:http://localhost:7860/

如果报错ValueError: Unknown scheme for proxy URL URL('socks://127.0.0.1:7897/')
解决方案参考解决openai调用出现的valueerror: unknown scheme for proxy url url(‘socks://127.0.0.1:7890/‘),使用下面命令查看系统的代理设置

env|grep -i proxy

看看有没有出现下面的all_proxy的设置。

no_proxy=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
https_proxy=http://127.0.0.1:7897/
NO_PROXY=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
HTTPS_PROXY=http://127.0.0.1:7897/
HTTP_PROXY=http://127.0.0.1:7897/
http_proxy=http://127.0.0.1:7897/
ALL_PROXY=socks://127.0.0.1:7897/
all_proxy=socks://127.0.0.1:7897/

如果有all_proxy的设置,使用下面命令设置为空就行。(原理未知)

export ALL_PROXY=''
export all_proxy=''

hfd下载hugging face模型

以Qwen/Qwen2.5-7B-Instruct为例
不确定模型的名字的话,打开链接https://hf-mirror.com/api/models,搜相应的模型名字,比如我这里直接搜Qwen2.5-7B-Instruct,然后得知模型全称是Qwen/Qwen2.5-7B-Instruct

sudo apt install aria2
pip install -U huggingface_hub
wget https://hf-mirror.com/hfd/hfd.sh
chmod a+x hfd.sh
export HF_ENDPOINT=https://hf-mirror.com
./hfd.sh Qwen/Qwen2.5-7B-Instruct --tool aria2c -x 10

自我认知微调

主要是配置以下参数:

  • 模型名称:Qwen2.5-7B-Instruct
  • 模型路径:配置为fd下载的本地模型路径
    其他参数暂时用默认,训练轮数设置为20。开始训练。
    训练完成后,选择相应的检查点路径,随后测试chat。
    最后export导出模型。

Alpaca数据集指令监督微调

按Alpaca格式准备好数据集

[{"instruction": "人类指令(必填)","input": "人类输入(选填)","output": "模型回答(必填)","system": "系统提示词(选填)","history": [["第一轮指令(选填)", "第一轮回答(选填)"],["第二轮指令(选填)", "第二轮回答(选填)"]]}
]

复制数据集到data目录下,修改data/dataset_info.json
举例:

"数据集名称": {"file_name": "data.json","columns": {"prompt": "instruction","query": "input","response": "output","system": "system","history": "history"}
}

如果数据集没有相应的键,就先去掉data/dataset_info.json对应的键。比如我的数据集没有history,我就把data/dataset_info.json关于history的部分去掉。

断点续训

  1. 配置检查点路径为对应checkpoint对应位置(一般在saves文件夹)
  2. 如果有训练参数文件,加载训练参数(下次开始训练前可以点击保存,在config文件夹可以找到)
  3. 配置输出目录配置路径
  4. 点击预览命令,主要查看adapter_name_or_pathoutput_dir参数

参考:
使用微调神器LLaMA-Factory轻松改变大语言模型的自我认知
使用hfd工具快速下载huggingface模型权重-应该是目前最快的

关键字:软件开发模型思维导图_个人博客网站页面_合肥网络推广_产品软文范例

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: