🌟Day 4: XTuner 大模型单卡低成本微调实践 1. 🌟Finetune简介:针对LLM构建下游应用 增量预训练微调 扩大知识面 system&input 留空 LoRA & QLoRA LoRA模型:Adapter 指令跟随微调 规范答题格式/指令 具体实施(微调阶段) 对话模板的角色指定(由微调框架实施) 微调原理 2. XTuner简介 3. XTuner功能:8GB显存玩转LLM Flash Attention DeepSpeed ZeRO 4. 🌟动手实战环节 安装 环境+微调框架 准备配置文件 模型名+使用算法+数据集+跑几次 模型下载 数据集下载 将数据转为 XTuner 的数据格式(.xlsx→ .jsonL) 划分训练集和测试集 修改配置文件中的本地路径 开始微调 将得到的 PTH 模型转换为 HuggingFace 模型,即:生成 Adapter 文件夹(LoRA 模型文件 = Adapter) 部署与测试 Reference: 手册 视频