地方网站做哪些内容推广软文是什么意思

张小明 2026/3/2 21:27:11
地方网站做哪些内容,推广软文是什么意思,陕西住房城乡建设厅网站,个人网站备案 备注不写代码能微调模型吗#xff1f;微调的各种参数到底怎么调#xff1f;微调的过程要怎么观察#xff1f;微调后的模型要怎么用#xff1f;怎么评估模型微调的效果#xff1f; 今天这一期#xff0c;我们来使用目前最热门的本地微调工具#xff1a;LLaMA Factory 配合 E…不写代码能微调模型吗微调的各种参数到底怎么调微调的过程要怎么观察微调后的模型要怎么用怎么评估模型微调的效果今天这一期我们来使用目前最热门的本地微调工具LLaMA Factory配合Easy DataSet一站式完成从数据集准备到模型微调的全流程。另外为了帮助大家更好的学习理解在这个系列的课程中我也会穿插讲解一些大模型的基础理论所以这个教程比较长我们将拆分成几个部分来讲解课程大纲如下基础回顾为了更好的学习效果在学习本期教程前建议大家先学习一下我之前的几期教程了解一些模型微调的前置知识我们先做个简单的回顾为什么需要模型微调通用大模型在特定领域或任务表现可能不佳微调可实现领域专业化、适配不同任务、纠偏能力还能保障数据安全且成本效率高于从头训练故需模型微调。相比长文本、知识库微调能深度内化专业知识与任务逻辑无需依赖实时检索或长文本处理定制化强显著提升特定场景性能且数据安全可控成本效率更高。模型任务有哪些常见分类监督微调含指令微调明确任务指令如翻译、对话微调多轮对话数据如客服、领域适配特定领域术语如医疗、文本分类结构化标签如情感分析、模型推理微调思维链标注如数学解题知识蒸馏将复杂模型知识迁移至轻量模型降低推理成本强化学习结合人类反馈优化生成质量提升安全性与风格一致性多模态微调处理文本、图像、语音等跨模态数据实现图文问答、视频分析等场景。微调的基本流程是怎样的选定一款用于微调的预训练模型、准备好用于模型微调的数据集、准备一些问题对微调前的模型进行测试用于后续对比、设定模型微调需要的超参数、执行模型微调训练、观测微调过程、对微调后的模型进行测试并对比效果、如果效果不满意继续调整前面的数据集以及各种超参数直到达到满意效果、导出并部署微调好的模型。微调数据集有哪些常见格式模型微调数据集无明确格式要求一般在代码中抹除差异将其转为格式化字符串数组。主流格式有 Alpaca 和 ShareGPT前者结构简洁适用于单轮任务、指令微调后者支持多轮对话与工具调用。微调数据集有哪些常见用途训练集、验证集、测试集构成学习闭环分别如日常练习题、模拟考试卷、最终期末考试缺一不可。训练集助模型学规律验证集调策略防过拟合测试集验真实水平且需隔离。完整集含三者常按比例划分数据不足可用交叉验证等时间序列数据按时间划分。微调过程中有哪些关键参数模型训练关键超参数有三训练轮数指遍历训练数据次数少则不熟、多则过拟合学习率决定参数调整幅度大则进步快易走偏小则稳定但慢批量大小是每次更新用的样本数大则快而粗、小则慢而细。实际需调参验证小白用默认即可。如果你对这些内容还不够了解建议先学习这几期内容下面我们来了解一下LLaMa Factory这个工具。LLaMA Factory 介绍和基本使用LLaMA Factory 是一个简单易用且高效的大型语言模型训练与微调平台。通过它用户可以在无需编写任何代码的前提下在本地完成上百种预训练模型的微调。https://github.com/hiyouga/LLaMA-Factory全场景模型微调能力多模型支持高效适配超 100 个主流模型涵盖 Qwen、DeepSeek、LLaMA、Gemma、LLaVA、Mistral、Mixtral-MoE、Yi、Baichuan、ChatGLM、Phi 等满足 NLP、多模态等多领域需求。多样化算法与精度集成 LoRA、GaLore、DoRA 等微调技术支持增量预训练、多模态指令监督微调、奖励模型训练、PPO/DPO/KTO/ORPO 等强化学习方法提供 16 比特全参数微调、冻结微调、LoRA 微调以及基于 AQLM/AWQ/GPTQ 等技术的 2/3/4/5/6/8 比特 QLoRA 低比特量化微调灵活适配不同算力场景。数据集灵活配置支持用户自带数据集或自定义生成数据集兼容 ModelScope、HuggingFace 等社区资源自动下载缓存模型与数据集适配多卡训练硬件环境。多种加速技巧支持 FlashAttention-2、Unsloth 等加速算子。极简操作与高效工具链零代码交互界面通过友好 Web UI 完成模型配置、数据集加载、参数调优全流程实时监控训练进度、显存占用及日志输出无需编程即可轻松定制与微调 LLM大幅降低使用门槛。实时监控与评估无缝集成 Wandb、MLflow、SwanLab、TensorBoard 等工具实现训练过程可视化与模型性能动态评估为优化提供数据支撑。工程化部署与资源利用模型部署支持将 LoRA 适配器与基座模型一键合并为独立完整模型便于本地化部署推理引擎集成 Transformers 、提供基于 vLLM 的 OpenAI 风格 API资源利用支持单机多卡训练与不同硬件环境适配实现资源高效利用与流程无缝衔接。LLaMA Factory VS unslothUnsloth 是一个开源工具专门用来加速大语言模型LLMs的微调过程。高效微调Unsloth 的微调速度比传统方法快 2-5 倍内存占用减少 50%-80%。这意味着你可以用更少的资源完成微调任务。低显存需求即使是消费级 GPU如 RTX 3090也能轻松运行 Unsloth。例如仅需 7GB 显存就可以训练 1.5B 参数的模型。支持多种模型和量化Unsloth 支持 Llama、Mistral、Phi、Gemma 等主流模型并且通过动态 4-bit 量化技术显著降低显存占用同时几乎不损失模型精度。开源与免费Unsloth 提供免费的 Colab Notebook用户只需添加数据集并运行代码即可完成微调。从以上描述中我们可以看出Unsloth 主要突出的是更快的速度和更小的内存占用并且在 Github 上公开了很多整理好的 Colab 笔记本通过这些 Colab 我们可以在只改动一些关键参数如模型、数据集等就可以跟随指引一步步完整微调和模型导出的整个过程并且整个过程不需要消耗我们本地的资源、速度也很快所以非常推荐初学者使用。我们可以在 LLaMa Factory 文档(https://llamafactory.readthedocs.io/zh-cn/latest/advanced/acceleration.html)看到unsloth 作为一种加速手段出现在了 LLaMa Factory 的介绍里。通过以上对 LLaMA Factory 的介绍我们也可以看出 LLaMA Factory 是一个更全面、更完善的微调框架通过配置模型量化、指定加速算子也能够达成和 Unsloth 类似的加速效果但是 LLaMA Factory 支持的模型种类、训练方法、优化方法、硬件适配等都要比 Unsloth 更丰富。另外LLaMA Factory 支持基于 WebUI 零代码微调而 Unsloth 仅能通过编码因此Unsloth 适合资源受限场景由于其出色的内存优化能力和快速的微调速度非常适合在资源受限的环境中使用如个人开发者使用消费级 GPU 进行大模型微调或者企业在低成本硬件上进行模型实验和开发。快速迭代场景对于需要快速迭代模型的场景如学术研究中的实验验证、企业的快速原型开发等Unsloth 的高效微调能力可以帮助用户在更短的时间内获得微调后的模型加快项目进度。LLaMa Factory 适合通用场景由于其支持多种模型和训练算法适用于各种通用的大语言模型训练和微调场景无论是文本生成、情感分析还是机器翻译等任务都可以使用 LLaMa Factory 进行模型的定制化训练。企业级应用提供了API Server 和一站式 WebUI Board方便企业进行模型的管理和部署。零代码适合不会写代码或代码基础比较弱的同学快速上手进行微调。LLaMA Factory 安装我们在官网可以看到 LLaMa Factory 的安装方法https://llamafactory.readthedocs.io/zh-cn/latest/getting_started/installation.html#llama-factory但是这里我们不建议 Clone 仓库后直接安装依赖因为 Python 本身的依赖管理做的比较混乱你可能会遇到各种 Python 依赖冲突的问题建议使用虚拟环境这里我们使用 CondaConda 是一个开源的跨平台、语言无关的软件包管理系统与环境管理系统。它能方便地安装、运行和更新软件包及其依赖项还可创建、切换和删除隔离的软件环境广泛应用于数据科学、机器学习等领域 。你可以根据自己的需求选择合适的发行版从官方网站Anaconda 或 Miniconda下载对应操作系统的安装程序然后按照安装向导进行安装。安装完成后打开终端Windows 用户可以使用 Anaconda Prompt 或 PowerShell输入以下命令验证conda是否安装成功conda --version如果安装成功会显示conda的版本号。然后使用conda create命令创建一个新的虚拟环境。例如创建一个名为lfLLaMA Factory 简称的虚拟环境并指定 Python 版本为 3.10conda create -n lf python3.10其中-n或--name用于指定虚拟环境的名称python3.10 表示使用 Python 3.10 版本。创建好虚拟环境后需要激活它才能使用我们运行 在终端中运行以下命令激活lf环境conda activate lf激活后终端的命令提示符会显示当前所处的虚拟环境名称然后我们可以使用conda env list命令查看所有已创建的虚拟环境conda env list该命令会列出所有虚拟环境的名称和对应的路径前面带 * 的为当前已激活的虚拟环境然后我们在此虚拟环境中执行pip install -e .[torch,metrics]依赖安装完成后我们执行 llamafactory-cli version 验证安装情况然后我们测试执行 which llamafactory-cli 可以发现llamafactory 被安装在了 conda 创建的虚拟环境目录下LLaMA Factory WebUI依赖安装完成后我们执行llamafactory-cli webui可以启动 LLaMa Factory 的 webui然后我们打开 http://127.0.0.1:7860 可以看到如下界面看起来配置非常多但我们梳理一下可以分成通用设置、微调训练、模型评估、在线推理、模型导出五个部分这里我们先做简单了解后续我们会对关键配置进行具体讲解**通用设置**可以设置 WebUI 展示的语言、需要微调的模型、微调的方法、是否量化、微调的加速方式等配置微调训练包括以下几部分配置微调训练的阶段预训练、指令微调、强化学习等等微调使用的数据集数据集的格式、路径、验证集的比例等等关键微调参数在我们之前教程中重点学习的学习率、训练轮数、批量 大小等等**LoRA 参数**当使用 Lora 微调时需要配置的一些特殊参数**RLHF 参数**当训练阶段为强化学习时需要配置的一些特殊参数**特殊优化参数**当选择使用 GaLore、APOLLO 和 BAdam 优化器时需要配置的一些参数**SwanLab 参数**一款开源的模型训练跟踪与可视化工具**模型评估**在完成模型训练后可以通过此模块来评估模型效果这里可配置模型评估所需的数据集等在线推理可以选择使用 huggingface、vllm 等推理引擎和模型在线聊天主要用来测试加载模型模型导出可以指定模型、适配器、分块大小、导出量化等级及校准数据集、导出设备、导出目录等。LLaMA Factory 微调通用设置了解完 LLaMA Factory 的基础使用下面我们开始实际启动一个模型微调任务并且在这个过程中具体介绍各项参数首先我们来看通用配置。选择模型第一步我们需要选择一个用来微调的基础模型我们可以直接在模型名称这里输入我们需要微调的模型关键词比如 DeepSeek、Qwen3基本上市面上所有主流的开源模型都可以在这里获取到可以发现一个模型其实有非常多的变体在之前 DeepSeek 的教程中我们已经介绍了在模型名称中Distill 代表蒸馏过的模型也了解了模型名称中的参数量表示在微调前选择一个合适的基座模型非常重要下面我们再具体介绍一下模型名称中其他参数代表的含义分类标识含义示例模型名称功能与任务类型-Base基础模型未经过特定任务微调提供原始能力用于二次开发。Qwen3-14B-Base-Chat对话优化模型支持交互式聊天、问答针对对话生成任务微调。DeepSeek-LLM-7B-Chat-Instruct指令微调模型擅长遵循具体任务指令推理、生成、翻译等。Qwen3-0.6B-Instruct-Distill知识蒸馏模型通过蒸馏技术压缩模型更小、推理更高效。DeepSeek-R1-1.5B-Distill-Math专注数学推理任务优化数值计算、公式解析、逻辑证明等能力。DeepSeek-Math-7B-Instruct-Coder针对代码生成、编程任务优化支持代码补全、漏洞检测、算法实现等。DeepSeek-Coder-V2-16B多模态-VL视觉-语言多模态Vision-Language支持图文联合输入输出。Kimi-VL-A3B-Instruct-Video视频多模态模型结合视频帧与文本进行交互。LLaVA-NeXT-Video-7B-Chat-Audio支持音频输入输出涉及语音识别ASR或语音生成TTS。Qwen2-Audio-7B技术特性与优化-Int8/-Int4权重量化为8位/4位降低显存占用提升推理速度适合低资源设备。Qwen2-VL-2B-Instruct-GPTQ-Int8-AWQ/-GPTQ特定量化技术自适应权重/GPTQ量化优化低精度下的模型性能。Qwen2.5-VL-72B-Instruct-AWQ-MoE混合专家模型Mixture of Experts包含多个专用模块处理复杂任务。DeepSeek-MoE-16B-Chat-RL使用强化学习Reinforcement Learning优化提升对话质量或任务响应。MiMo-7B-Instruct-RL版本与变体标识-v0.1/-v0.2模型版本号标识开发阶段alpha/beta/正式版。Mistral-7B-v0.1-Pure纯净版模型去除领域数据或保留原始能力避免预训练偏差。Index-1.9B-Base-Character角色对话模型专注角色扮演或特定人设如虚拟助手、动漫角色。Index-1.9B-Character-Chat-Long-Chat支持长上下文对话通常4k tokens处理超长输入输出。Orion-14B-Long-Chat领域与应用标识-RAG检索增强生成模型结合外部知识库检索与生成能力。Orion-14B-RAG-Chat-Chinese中文优化版本支持中文分词、方言、拼音纠错等本土化能力。Llama-3-70B-Chinese-Chat-MT机器翻译专用模型支持多语言翻译任务如中英、英日互译。BLOOMZ-7B1-mt如果我们需要进行的是监督指令微调建议选择带-Instruct后缀的模型选取模型后模型路径的位置会自动关联 Hugging Face 上的模型标识如果你没有在本地下载过此模型LLaMA Factory 将自动从 Hugging Face 上拉取此模型。选择好模型后我们点击下方 Chat Tab 然后直接点击加载模型然后我们可以直接与模型进行对话当模型能够正常输出说明模型被正确加载另外这里我们也可以直接执行一个本地的模型路径注意重新加载模型前需要先卸载模型微调方法接下来我们选择一个微调方法可以看到这里支持 Full全参、Freeze冻结、Lora低秩矩阵 三种方法全参数微调是最直接的迁移学习方法通过在目标任务数据上继续训练预训练模型的全部参数。通俗理解就好比把一栋房子彻底拆掉重建。预训练模型就像已经建好的房子里面的每一块砖、每一根梁在全参数微调时都要重新调整。例如当我们想用一个原本用于识别普通图片的模型改造为识别医学影像的模型时就要把模型里所有参数都更新一遍。优点最大化性能通常能够在目标任务上达到最佳性能完全适应性允许模型充分适应新任务的特性灵活性可以用于各种不同的下游任务实现简单概念直接实现相对简单缺点计算资源需求高需要大量GPU内存和计算能力存储成本高每个任务都需要保存一个完整模型副本灾难性遗忘可能会丢失原始预训练中获得的知识过拟合风险在小数据集上容易过拟合不适合低资源场景在资源受限设备上难以部署全参数微调适用场景有充足的计算资源、需要最大化模型性能、目标任务与预训练任务有显著差异、 或有足够的任务数据可以有效训练所有参数。参数冻结微调通过选择性地冻结模型的某些部分只更新剩余参数从而减少计算量并防止过拟合。通俗理解像是给房子做局部装修。我们保留房子的框架结构只对部分区域进行改造。在模型中就是保留预训练模型的底层结构只调整顶层的部分参数。比如在训练一个糖尿病问答模型时我们可以把语言模型的前 24 层参数冻结起来只训练最后 3 层专门用于医学领域问答的分类器。优点计算效率减少需要计算的参数数量加快训练速度内存效率反向传播中不需要存储冻结参数的梯度防止过拟合特别适合小型数据集训练保留通用特征防止破坏预训练模型中有价值的通用特征减少灾难性遗忘保持模型的泛化能力缺点性能可能次优在某些任务上可能无法达到全参数微调的性能需要专业知识选择哪些层冻结需要对模型架构有深入了解灵活性降低在任务与预训练差异大时效果可能不佳调优困难找到最佳的冻结点可能需要多次实验参数冻结微调适用场景计算资源受限的环境、训练数据集较小、目标任务与预训练任务相似、模型主要需要学习任务特定的表示、需要防止过拟合。LoRA 通过向预训练模型中注入小型、可训练的低秩矩阵在保持原始参数不变的情况下实现高效微调。通俗理解可以想象成给房子安装智能设备不改变房子的原有结构却能让房子变得更智能。在模型里它不会直接修改原有的参数而是在关键位置插入可训练的 “小模块”。优点极高的参数效率训练参数数量减少99%以上内存效率大幅降低GPU内存需求训练速度快减少计算量加快收敛存储高效每个任务只需保存小型适配器可组合性不同任务的适配器可以组合使用避免灾难性遗忘原始参数保持不变缺点性能上限在某些复杂任务上可能弱于全参数微调秩超参数选择需要为不同模型和任务调整适当的秩实现复杂性比简单的微调方法实现更复杂不是所有层都适合某些特殊层可能不适合低秩适应推理稍复杂需要额外处理原始模型和适配器的组合Lora 微调适用场景计算资源有限、需快速适配新任务如多任务切换、追求轻量化模型部署与分享、目标任务和预训练任务存在中等差异、多模态任务场景、需频繁基于新数据迭代优化的场景。LoRA 微调是目前最热门的微调方法核心在于其高效性与适配性。训练过程中LoRA 仅对少量低秩矩阵参数进行调整相比全量参数微调计算量和内存占用显著降低训练速度大幅提升同时参数调整量少极大降低了过拟合风险使模型泛化能力更强。应用层面它能灵活适配不同任务为同一预训练模型构建多个 LoRA 模块快速切换实现多任务学习在部署阶段其注入的线性层可与冻结参数无缝合并不增加推理延迟。模型量化下面一个重要的配置是模型的量化包括量化的等级和方法。模型的量化还有蒸馏其实都是属于模型压缩的常见方法。对于一些大参数模型比如前段时间非常火的DeepSeek-R1满血版具有 6710 亿个参数、最新的Qwen3满血版有 2350 亿个参数它们都是各自公司下的旗舰版模型具备着最先进的能力。但是由于参数量巨大普通的小公司或者个人想要在本地部署模型需要的成本是非常高的所以我们一般会选择使用量化、蒸馏这些手段对模型进行压缩从而在损失一定精度的情况下减小模型的部署成本。模型量化是一种通过降低权重和激活值的精度来减小模型尺寸、加快推理速度同时尽量保持模型准确率的技术。简单来说就是用更少的数字位数来表示模型中的数据。通俗理解想象一下从无损音乐(FLAC)到压缩音乐(MP3)的转换。无损音乐就像 FP32 模型保存了所有细节但文件很大。MP3 就像量化后的INT8模型牺牲了一些人耳难以察觉的细节但大幅减小了文件体积。不同的比特率 (320kbps、128kbps等) 就像不同等级的量化 (INT8、INT4等) 。大模型本质上是由很多参数构成的比如DeepSeek-R1满血版具有 6710 亿个参数。大模型通常是基于深度学习的神经网络架构由大量的神经元和连接组成。这些参数主要包括神经元之间的连接权重以及偏置项等。在模型的训练过程中这些参数会通过反向传播算法等优化方法不断调整和更新以最小化损失函数从而使模型能够学习到数据中的规律和特征。而在计算机中这些参数是以数字的形式存储和计算的通常使用浮点数如单精度浮点数 float32 或双精度浮点数 float64来表示以在精度和计算效率之间取得平衡。为了表示这些参数我们需要在计算机上开辟一些内存空间开辟多大的内存空间就取决于这些参数存储的精度。如果参数的精度越低所需的内存空间就越小反之参数精度越高所需内存空间就越大。比如我们把原本存储了 7 位小数的一个参数3.1415926转换成一个精度更低的值3.14 来进行存储很明显我们丢掉的精度仅仅为 0.0015926 但是我们却大大节省了存储空间模型量化的本质其实就是把模型的参数从高精度转换成低精度的过程。我们在 Hugging Face 上可以看到模型参数的存储精度比如 Qwen3-235B 的参数使用的是 BF16这里的 BF 是属于一种模型参数的精度单位常用的精度单位有FP浮点Floating Point如 FP16、FP32可以理解为科学计数法表示的数字包含符号位、指数部分和尾数部分优点可表示范围广精度高、缺点占用空间较大。计算机底层使用的是二进制存储也就是只能存0 和 1这里的 16、32 是二进制位数bit也就是计算机存储这个数时用了多少个0和1。比如 FP32 就是用 32 个二进制位4 字节1 字节 8 位 存一个浮点数。FP16 就是用 16 个二进制位2 字节 存一个浮点数。BF脑浮点Brain Floating Point如 BF16专为深度学习设计的浮点数格式相比传统浮点数在保持数值范围的同时减少精度平衡了精度和范围的需求兼顾精度与效率。INT整数Integer如 INT8、INT4用整数表示权重和激活值压缩模型体积并加速推理。优点结构简单占用空间小**、**缺点表示范围有限精度丢失较多。以下是一些常见的模型参数的精度FP32单精度32 位 1 位符号 8 位指数 23 位尾数能够表示的精度范围是±3.4×10³⁸ FP16半精度16 位 1 位符号 5 位指数 10 位尾数能够表示的精度范围是 ±65,504BF16脑浮点16 位 1 位符号 8 位指数 7 位尾数范围与 FP32 相同±3.4×10³⁸但尾数更短。INT88 位二进制有符号范围 - 128~127无符号 0~255。INT44 位二进制有符号范围 - 8~7无符号 0~15。这里可能大家会有一些疑问INT 无法表示小数这意味着要舍弃掉所有小数位吗当然不是我们可以看到上面的 INT8 存储的值是 11001000转换为 10 进制为 200 这里就会用到一个量化的过程确定缩放系数假设我们的数据范围是[0, 4]使用无符号 INT8范围0~255那么Scale 4/255 ≈ 0.0157计算量化后的值3.1415926 ÷ 0.0157 ≈ 200存储整数200 的二进制表示为 11001000执行推理读取到参数的整数值为200乘以 Scale(0.0157) 还原为 3.14在模型微调中量化也是一种很重要的加速手段。以QLoRA为例它创新性地将4位量化与低秩适配器 LoRA 相结合通过动态量化、双量化和训练时反量化机制在大幅减少显存占用的同时保障梯度更新的准确性。所以在这里如果我们选择启动量化并选择量化等级默认使用的微调方法就是QLoRA。对话模版对话模版一般我们选择默认就可以了不过这里我们也简单了解一下为什么会有对话模版这样一个概念。对话模板实际上是大语言模型与用户交互的翻译器。每个大语言模型LLM都有自己特定的输入格式要求例如Llama2 需要使用 [INST] 和 [/INST] 标记而 Qwen 系列使用 |im_start| 和 |im_end|。对话模板提供了一个统一的接口让开发者可以用相同的方式与不同的模型交互而不必担心底层格式差异。模型训练与推理的一致性保证大语言模型在训练时使用特定格式在推理使用时也必须保持相同的格式否则性能会严重下降。对话模板确保了这种一致性让模型能够正确识别用户和系统的输入、明确知道自己应该从什么位置开始生成内容、停止在适当的位置通过stop_words多轮对话的上下文管理现代大语言模型都支持多轮对话但需要正确地组织历史对话信息。对话模板可以管理对话历史的格式、区分不同说话者用户、助手、系统、确保模型能正确理解对话流程特殊功能处理除了基本的对话外模板还处理许多高级功能系统提示System Prompt设置模型的角色和行为指南工具调用Tool Calling使模型能够调用外部工具和API思维链Chain-of-Thought通过ReasoningTemplate支持模型的分步思考多模态输入处理文本以外的输入如图像、音频等假设我们使用 Qwen 模板register_template( nameqwen, format_userStringFormatter(slots[|im_start|user\n{{content}}|im_end|\n|im_start|assistant\n]), format_assistantStringFormatter(slots[{{content}}|im_end|\n]), format_systemStringFormatter(slots[|im_start|system\n{{content}}|im_end|\n]), format_functionFunctionFormatter(slots[{{content}}|im_end|\n], tool_formatqwen), format_observationStringFormatter( slots[|im_start|user\ntool_response\n{{content}}\n/tool_response|im_end|\n|im_start|assistant\n] ), format_toolsToolFormatter(tool_formatqwen), default_systemYou are Qwen, created by Alibaba Cloud. You are a helpful assistant., stop_words[|im_end|], replace_eosTrue,)一个完整的工作流程是输入处理阶段用户输入: 帮我写一首关于春天的诗转换后: |im_start|systemYou are Qwen, created by Alibaba Cloud. You are a helpful assistant.|im_end||im_start|user帮我写一首关于春天的诗|im_end||im_start|assistant模型处理模型接收这个格式化的输入并从|im_start|assistant后开始生成内容输出处理阶段模型会生成内容直到|im_end|然后停止下一轮对话如果用户继续对话新的用户输入会被添加到历史中形成新的输入。加速方式这里目前我们可以看到共支持三种方法比较熟悉的加速方式是 Unsloth它默认就会采用动态的 4 位量化这也是它一个非常重要的加速手段我们在LLaMA Factory中将量化等级选择为 4 bit然后加速方法选择Unsloth时模型微调的速度与内存占用和直接使用 Unsloth 是相似的。另外两种加速方式大家做简单了解即可如果你对微调性能没有过多要求可以选择默认默认会使用 Flash Attention 加速如果本地硬件条件非常受限可以选择启用 Unsloth 4 位量化。今天这一期我们就讲到这里下一期我会带大家一起学习 LLaMA Factory 的数据集要求以及使用 Easy Dataset 完成数据集的构造并在 LLaMA Factory 中加载和验证数据集。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容​一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容​2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站建设分类方案四川自贡彩灯制作公司

LangFlow云端GPU部署方案:高并发下稳定运行AI流程 在大模型时代,构建一个能快速响应、稳定处理成千上万用户请求的AI系统,早已不再是“能不能做”的问题,而是“如何高效地做”。尤其是在智能客服、内容生成、自动化报告等场景中&a…

张小明 2026/1/12 2:45:43 网站建设

柯桥建设集团网站php企业网站demo

口碑好的冲孔打桩机企业:南通永威的行业领先地位在建筑基础工程领域,冲孔打桩机作为关键施工设备,其性能、稳定性和售后服务直接影响项目的进度与质量。随着行业对设备可靠性和效率要求的不断提升,一批口碑良好的冲孔打桩机企业逐…

张小明 2026/1/12 4:41:53 网站建设

代理网站在线wordpress小绿锁

通过时间序列数据“获取事件”,本质上是从连续的时序数据中检测、识别和提取出具有特殊意义或显著变化的离散时间点或时间段。这通常被称为 “事件检测” 或 “变化点检测”。这是一个完整的流程和方法论:第一步:明确“事件”的定义首先&…

张小明 2026/1/12 4:41:50 网站建设

司法局门户网站建设该报告网站seo解决方案

FaceFusion支持超分辨率输出吗?4K/8K视频处理能力测试在如今内容为王的时代,高清乃至超高清视频已成为主流平台的标配。YouTube、Bilibili 等平台早已全面拥抱 4K,而部分影视制作甚至开始探索 8K 分辨率的应用场景。与此同时,AI 驱…

张小明 2026/1/12 4:41:48 网站建设

网站开发代码说明书信息流广告哪个平台好

目录乱码问题产生的根本原因编码解码原因各个字符集的兼容性HTML乱码问题Tomcat控制台乱码sout乱码乱码问题产生的根本原因 编码 编码:将人类可读的字符,按照指定字符集规则转换为二进制数据(如:UTF-8 下 “中”→0xE4B8AD&…

张小明 2026/1/12 4:41:46 网站建设

山东阳信建设局网站.asp 网站

目标读者:具有生物/生物信息学背景、希望把统计学概念用于组学数据分析(RNA-seq、scRNA-seq、代谢组、临床关联分析等)的科研人员。 本文着重解释概念的数学原理、它们如何反映数据变化、在组学分析中常见的应用场景与注意点,并给…

张小明 2026/1/12 4:41:43 网站建设