模型微调‌ LlamaFactory可视化模型微调-Deepseek模型微调+CUDA Toolkit+cuDNN安装

默认分类5天前发布 admin
3,499 0
ChatGPT国内版

安装

必须保证版本匹配,否则到训练时,找不到gpu cuda。

否则需要重装。下面图片仅供参考。因为.8装了没法用,重新搞12.6

12.6

9.6

12.6

最新:12.8

9.7.1

CUDA 安装

打开 设置 ,在 关于 中找到 规格 保证系统版本在以下列表中:

如下

支持版本号

11 21H2

11 22H2-SV2

11 23H2

10 21H2

10 22H2

2022

安装之前确认版本

在命令提示符也就是cmd中输入-smi.exe,查看你电脑支持的cuda最高版本。(第一行最后)

这个的话必须要有显卡!

选择对应的版本下载并根据提示安装。

如果自己使用不了最新版本,根据自己配置,下载对应的版本,如下图:

安装CUDA完成

打开 cmd 输入 nvcc -V ,若出现类似内容则安装成功。

否则,检查系统环境变量,保证 CUDA 被正确导入。

cuDNN安装

‌cuDNN(CUDA Deep )是一个由开发的深度学习GPU加速库,旨在为深度学习任务提供高效、标准化的原语(基本操作)来加速深度学习框架在 GPU上的运算。

选择对应版本进行下载。如果当前界面没有你需要的版本,可访问如下历史版本页面进行下载:

解压后,目录结构如图:

将目录bin、lib、复制到CUDA的安装目录下(除外),可以先对CUDA安装目录下的这三个目录做备份,以免出现覆盖无法恢复。如图:

默认安装:C: Files GPU CUDAv12.8

最后将如下path添加到环境变量Path中:

C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.8bin
C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.8include
C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.8lib
C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.8libnvvp

验证

配置完成后,我们可以验证是否配置成功,主要使用CUDA内置的.exe 和 .exe:

首先win+R启动cmd,cd到CUDA安装目录下的 …\,然后分别执行.exe和.exe,应该得到下图:

执行测试CUDA是否可用GPU

LLaMA- 安装

在安装 LLaMA- 之前,请确保您安装了下列依赖:

运行以下指令以安装 LLaMA- 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

如果出现环境冲突,请尝试使用 pip –no-deps -e . 解决

LLaMA- 校验

模型微调‌ LlamaFactory可视化模型微调-Deepseek模型微调+CUDA Toolkit+cuDNN安装

完成安装后,可以通过使用 -cli 来快速校验安装是否成功

如果您能成功看到类似下面的界面,就说明安装成功了。

QLoRA

如果您想在 上启用量化 LoRA(QLoRA),请根据您的 CUDA 版本选择适当的 发行版本。

pip

-2

如果您要在 平台上启用 -2,请根据您的 CUDA 版本选择适当的 flash- 发行版本。

其他依赖

数据处理

目前我们支持 格式和 格式的数据集。

WebUI

LLaMA- 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,您可以通过以下指令进入 WebUI:

llamafactory-cli webui

:7860/

WebUI 主要分为四个界面:训练、评估与预测、对话、导出。

训练模型

在开始训练模型之前,您需要指定的参数有:

模型名称及路径训练阶段微调方法训练数据集学习率、训练轮数等训练参数微调参数等其他参数输出目录及配置路径

随后,您可以点击 开始 按钮开始训练模型。

关于断点重连:适配器断点保存于 目录下,请指定 适配器路径 以加载断点继续训练。

如果您需要使用自定义数据集,请在 data/.json 中添加自定义数据集描述并确保 数据集格式 正确,否则可能会导致训练失败。

示例

在目录中有大量的示例可供参考。

参照配置

NOTE: 学习率 5e-5 = 0.0005 太小了,梯度下降慢。这里调整到0.001.下图是0.001 的loss函数下降的图。

LLaMA-\.md记录各种微调配置和执行脚本

数据集例子

这里直接使用原有的文件微调

替换原LLaMA-data.json文件中:{{name}} 为 小羽,{{}} 为 嘉羽很烦

预览片段:

[
 {
   "instruction": "hi",
   "input": "",
   "output": "Hello! I am 小羽, an AI assistant developed by 嘉羽很烦. How can I assist you today?"
 },
 {
   "instruction": "hello",
   "input": "",
   "output": "Hello! I am 小羽, an AI assistant developed by 嘉羽很烦. How can I assist you today?"
 },...

对话模板选择,官方有说明

这里注意一下

需要在那个目录启动,这里test-就放在那个目录目录下需要包含.json. 这是数据集描述文件。参考:安装目录下data/.json

{
  "identity": {
    "file_name": "identity.json"
  }
}

预览一下数据集,是否争取正确

修改输出目录

修改配置后,点击开始按钮,等待进度条训练完毕即可。CPU也能训练,但是时间太慢,有条件的最好用GPU,速度快

评估预测与对话

评估预测选项卡:

模型微调‌ LlamaFactory可视化模型微调-Deepseek模型微调+CUDA Toolkit+cuDNN安装

模型训练完毕后,您可以通过在评估与预测界面通过指定 模型 及 适配器 的路径在指定数据集上进行评估。

您也可以通过在对话界面指定 模型、 适配器 及 推理引擎 后输入对话内容与模型进行对话观察效果。

【 报错】,不影响之下 chat步骤可以回答出期望的结果即可

chat选项卡:

到这一步,已经加载 训练后模型了。进行问题测试。

可以看到,我们的 身份识别 训练微调数据已经整合进 模型中了。

导出

如果您对模型效果满意并需要导出模型,您可以在导出界面通过指定 模型、 适配器、 分块大小、 导出量化等级及校准数据集、 导出设备、 导出目录 等参数后点击 导出 按钮导出模型。

到处文件目录

安装教程

教程

部署微调模型步骤 1. 模型构建

将生成的文件放到外部:

如果没有新建:

内容进入到 模型页 :1.5b/blobs/

copy 内容

下面内容导出时,自动生成的。因为本地装了。

需要修改From ,默认是 . 【自测不行】,可能需要修改成绝对路径【可行】

参数-R1官方建议给0.6

# ollama modelfile auto-generated by llamafactory
# 必须是model.safetersors文件的目录。即我们导出的目录
FROM D:modelfine-tuneDeepSeek-R1-1.5B-Distill-kong-idendity
TEMPLATE """{{ if .System }}{{ .System }}{{ end }}{{ range .Messages }}{{ if eq .Role "user" }}{{ .Content }}{{ else if eq .Role "assistant" }}{{ .Content }}{{ end }}{{ end }}"""
PARAMETER stop ""
PARAMETER num_ctx 4096

进入cmd中执行命令
```shell
ollama create DeepSeek-R1-1.5B-Distill-kong-idendity -f ModelFile
```

可以看到,模型已经导入到中。我们就可以启动运行我们微调的大模型,提供open ai 接口调用了

3. 模型启动

执行启动命令:

run -R1-1.5B–kong-:

4. API调用

调用地址:POST :11434/api/chat

body: 修改自己的微调模型测试

{
    "model":"DeepSeek-R1-1.5B-Distill-kong-idendity",  // 模型名称,ollama上显示的名字
    "stream": true,						  // 是否流式,true流式返回
    "temperature": 0.6,						  // 思维发散程度
    "top_p":0.95,                             // 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果
    "messages":[                              // 上下文
        {
            "role":"user",
            "content":"你是谁?"
        }
    ]
}

通过以上步骤,我们成功地将微调后的模型部署到 中,并通过 API 接口进行调用和测试。

下一站

完成了 webui 可视化模型微调的所有步骤

323AI导航网发布

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...