搜搜网站收录提交入口手机制作封面教程网站

张小明 2026/1/10 22:27:03
搜搜网站收录提交入口,手机制作封面教程网站,wordpress浏览pdf,企业门户网站建设方案书简介 本文详细介绍了大模型微调的概念、方法和实践流程。首先解释了微调相比完整训练的成本优势#xff0c;然后介绍了微调的基本步骤。重点讲解了使用LLaMA Factory进行微调的完整过程#xff0c;包括数据准备、格式转换和图形界面操作。最后说明了如何在Ollama中部署微调后…简介本文详细介绍了大模型微调的概念、方法和实践流程。首先解释了微调相比完整训练的成本优势然后介绍了微调的基本步骤。重点讲解了使用LLaMA Factory进行微调的完整过程包括数据准备、格式转换和图形界面操作。最后说明了如何在Ollama中部署微调后的模型并通过与RAG技术结合使用既保证数据新鲜度又确保服务质量。文章为开发者提供了从理论到实践的全面指导。目录一、什么是模型微调二、怎样微调模型三、使用 LLaMa Factory 微调模型四、在 Ollama 中运行微调模型一、什么是模型微调模型微调顾名思义就是对模型微微做一些调整。为什么要做微调呢如果可以的话每个公司都想拥有一个属于自己的大模型。但是现实比较残酷训练一个大模型需要花太多的钱。按照一些大公司的说法一个千亿参数的大模型训练一次的成本大约需要几百万美元。这显然就超过一个普通公司承受的范围。虽然我们无法训练一个属于自己的大模型但一个好消息是我们可以做模型微调。大模型是构建于神经网络基础之上的神经网络可以理解成一个一个的神经元构建的网络。训练模型就是在调整神经元之间的连接方式。一次完整的训练就相当于把所有的神经元连接都调整一遍这个计算规模相当之大是我们无法承受的。所谓微调就是把一个训练好的模型中的一部分连接重新调整。因为只做了一部分的调整所以规模就要小得多训练成本也就要小得多。前面说过RAG 和模型微调可以解决同样的问题从本质上说就是把核心业务数据放在提示词里还是放在模型里。两种做法各有优劣。放到提示词里优势就是做法比较简单但其问题的关键在于能否取到恰当的数据。如果不能取到恰当的数据就可能会出现“幻觉”问题也就是大模型会一本正经地胡说八道。放到模型里优势是数据准确性会提高但前提条件是在训练的时候要准备高质量的数据否则就是“垃圾进垃圾出”了而微调好一个模型并不是一件很容易的事情。在工程实践中二者往往是结合使用的。模型微调不是时刻在进行所以一些团队的做法是用 RAG 的方式提取新的业务数据积累到一定阶段用这些数据进行模型微调把这些数据内置到模型中再把新模型替换到业务系统中。这样一来既保证数据的新鲜又保证了基本的服务质量。二、怎样微调模型模型微调需要我们先选定一个模型。如果选定的模型是像 OpenAI 这样的闭源模型就需要使用其对应的模型微调服务。不过使用这种服务也就意味着要把数据提供出去。所以很多团队的实际做法是基于开源模型的微调。具体的模型微调通常分成几个步骤准备训练数据训练模型评估结果使用模型这其中最耗时耗力的应该是准备数据了。首先微调大模型需要多准备一些数据数据量过少可能看上去完全不起作用。毕竟大模型那么多参数如果只改动几个占比太低就和没改动效果差不多。其次数据也要精心挑选一下还是那句话垃圾进垃圾出。所以这个过程不是技术活而是一个体力活。什么数据是好数据最好由一个懂业务的人说了算。顺便说一下因为准备数据耗时耗力有人把一些整理好的数据开源了出来Hugging Face 上有大量这种数据集。如果站在学习的角度我们可以把这些数据集拿过来直接用。我们知道了要准备数据但数据格式是什么样的呢这取决于模型微调的具体方式比如OpenAI 的模型微调需要把数据准备成下面这样{messages: [{role: system, content: Marv is a factual chatbot that is also sarcastic.}, {role: user, content: Whats the capital of France?}, {role: assistant, content: Paris, as if everyone doesnt know that already.}]}{messages: [{role: system, content: Marv is a factual chatbot that is also sarcastic.}, {role: user, content: Who wrote Romeo and Juliet?}, {role: assistant, content: Oh, just some guy named William Shakespeare. Ever heard of him?}]}{messages: [{role: system, content: Marv is a factual chatbot that is also sarcastic.}, {role: user, content: How far is the Moon from Earth?}, {role: assistant, content: Around 384,400 kilometers. Give or take a few, like that really matters.}]}接下来我们就以 LLaMA Factory 为例具体看一下模型微调的过程。三、使用 LLaMa Factory 微调模型LLaMA Factory 是这样自我介绍的它是一个简单易用且高效的大型语言模型Large Language Model训练与微调平台。它当然有很多优点比如支持很多不同的模型、支持很多训练方法而且效率很高。如果你初次接触模型微调它更真实的优点是能够在本地运行还有一个图形化的界面。使用 LLaMa Factory 需要先把它的代码 clone 下来。git clone https://github.com/hiyouga/LLaMA-Factory.git然后就是安装相应的依赖。为了不把现有的 Python 环境搞乱我们还可以创建一个虚拟环境。cd LLaMA-Factoryconda create -n llama-factory python3.12conda activate llama-factorypip install -e .[torch,metrics]安装依赖之后我们就可以运行下面的命令判断安装是否成功。llamafactory-cli version接着我们需要先准备一下训练数据。LlaMA Factory 支持 alpaca 格式和 sharegpt 格式它们实际上都是 JSON 的格式。下面是一个 alpaca 格式的示例[ { instruction: 输入三支篮球队的名称并生成一个适当的口号。, input: 输入俄克拉荷马城雷霆队芝加哥公牛队布鲁克林网队。, output: 输出 \雷霆公牛和网队各显神通角逐群雄!\ }]接下来是 sharegpt 格式的示例[ { conversations: [ { from: human, value: 你能解释一下算法分析中的大O记法概念吗 }, { from: gpt, value: 是的大O表示法是一种描述算法性能随输入数据大小增加的方法。它用于估计算法在最坏情况下的时间复杂度或空间复杂度。大O中的“O”代表“数量级”这意味着随着输入大小的增加算法所需的操作数以一定的速率增长。\n\n例如如果我们有一个需要n步才能解决大小为n的问题的算法那么时间复杂度可以表示为O(n)这意味着操作数随着输入大小线性增长。如果我们有一个需要n^2步才能解决大小为n的问题的算法那么时间复杂度可以表示为O(n^2)这意味着操作数随着输入大小二次方增长。\n\n还有其他几种大O表示法如O(log n)、O(n log n)、O(2^n)等它们代表了随着输入大小增加的不同操作数增长速率。通过分析算法的大O表示法我们可以比较不同算法的性能并选择给定问题最有效的算法。\n\n您是否有关于大O表示法或算法分析的特定问题 } ], tools: [] }]从这两个示例我们不难看出它们就是一个对话的结构相当于一个人问了一个问题大模型给出了一个回答。从简单直接的角度sharegpt 格式更符合我们常规理解的会话形式如果你是初次尝试不妨使用这个格式。确定了数据格式我们需要把数据改写成这个格式把它们存到一个文件里。然后把这个文件放到 LLaMa Factory 的 data 目录里。接着在 dataset_info.json 里加上这个文件的描述。dataset_info.json 相当于是一个元文件用来描述在 LLaMa Factory 界面上可以看到的数据是什么样的。下面是一个例子我们指定了文件的名称和相应的文件格式dreamhead: { file_name: dreamhead.json, formatting: sharegpt, columns: { messages: conversations, system: system, tools: tools }}准备好数据我们就可以开始训练了。前面说了LLaMa Factory 对新手最友好的地方是它提供了图形化界面我们可以通过下面的命令启动图形化界面。llamafactory-cli webuiLLaMa Factory 的图形界面如下所示。虽然说是一个图形界面但这个界面上的参数之多已经达到了眼花缭乱的地步。不过我们并不需要一上来就把所有的参数搞清楚要微调自己的模型最核心的几个参数是模型名称也就是我们用于微调的基础模型。数据集在这里可以找到前面准备好的数据。除此之外我们还需要知道输出目录毕竟我们还是要结果的。做好了最基础的配置我们只要点击“开始”就可以开始执行训练了训练的时间会因为配置的差异有所不同。如果一切顺利我们只需要等待这个过程结束。这些界面上的各种配置最终都会以命令行的方式在后台运行。点击“预览命令”我们就可以看到在后台要执行的命令。我们完全可以自己在命令行里执行这个命令进行训练。当训练结束我们可以在输出目录中找到微调之后的模型。有了模型我们怎么把它用起来呢最简单的方案就是把它接入到 Ollama 中。四、在 Ollama 中运行微调模型怎样在 Ollama 中接入一个新模型呢我们需要给 Ollama 提供一份模型描述文件也就是它的 Modelfile。在 Ollama 上运行的每个模型都有自己的 Modelfile我们可以通过命令查看它们的 Modelfile比如ollama show qwen2.5:0.5b --modelfile下面是一个 Modelfile 的示例FROM base modelADAPTER /path/to/model/adapter_model.gguf在这个 Modelfile 里FROM 指向基础模型而 ADAPTER 指向了微调过的文件。不过你可能会发现在生成模型的目录下并没有一个 gguf 文件。GGUF 是一种模型文件的存储格式它也是 Ollama 支持的文件格式。坏消息是我们微调的模型并不是以这种格式存储的好消息是我们可以把自己的模型转换成 GGUF。在微调过程中我们采用了缺省的 LoRALow-Rank Adaptation这是一种微调模型的技术。llama.cpp这个开源项目就提供了一个转换程序可以将 LoRA 的结果转换成 GGUF 格式。这个转换程序是一个单独的 Python 程序我们可以在本地执行它其主要的依赖就是 transformers这个库。安装好依赖之后我们就执行这个转换程序得到相应的 GGUF 文件。python convert_lora_to_gguf.py /path/to/model配置好相应的 Modelfile我们就可以在 Ollama 中创建一个自己的模型了。ollama create your-model-name -f /path/to/Modelfile如果一切顺利你就得到了一个可以在 Ollama 中运行的模型然后我们就像运行一个普通的模型一样运行它。ollama run your-model-name好你现在可以测试你的模型了评估微调之后大模型的效果如果觉得不理想就需要回到前面重新来过。正如上一讲所说一个模型接入了 Ollama它就能接入到 One-API 上而接入了大模型代理我们就可以在项目中访问它了。这样我们就完成了一个完整的微调流程。读者福利如果大家对大模型感兴趣这套大模型学习资料一定对你有用对于0基础小白入门如果你是零基础小白想快速入门大模型是可以考虑的。一方面是学习时间相对较短学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。包括大模型学习线路汇总、学习阶段大模型实战案例大模型学习视频人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】AI大模型学习路线汇总大模型学习路线图整体分为7个大的阶段全套教程文末领取哈第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。大模型实战案例光学理论是没用的要学会跟着一起做要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。大模型视频和PDF合集观看零基础学习书籍和视频看书籍和视频学习是最快捷也是最有效果的方式跟着视频中老师的思路从基础到深入还是很容易入门的。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。获取方式一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

外贸网站wordpress网站开发建设计入什么科目

雷递网 雷建平 12月17日美联钢结构建筑系统(上海)股份有限公司(简称:“美联股份”)日前通过上市聆讯,准备在港交所上市。美联股份2025年上半年营收为14.24亿元,期内利润为6263万元。上半年营收1…

张小明 2026/1/8 1:24:21 网站建设

温州网页设计制作襄樊seo排名

【JavaAI】一篇文章带你学会LangChain4j框架(上) 【JavaAI】一篇文章带你学会LangChain4j框架(下) LangChain4J-基础(整合Spring、RAG、MCP、向量数据库、提示词、流式输出) 官网:https://docs.langchain4j.dev/intr…

张小明 2026/1/10 7:58:49 网站建设

长沙网站设计多少钱一个月安卓app软件开发费用

基于MT7697芯片与蓝牙5.0协议的智能音频设备无线连接优化方案在当今智能家居生态快速演进的背景下,用户对音频设备的无线连接体验提出了前所未有的高要求。无论是多房间音乐同步播放,还是语音助手低延迟响应,背后都依赖于稳定、高效且具备强抗…

张小明 2026/1/7 16:55:53 网站建设

免费一级域名注册网站wordpress列表显示文章内容

2025年AI大模型领域迎来爆发期,算法工程师月薪7万,AI科学家月薪11万,供需严重失衡造就高薪。五大热门岗位包括大模型算法工程师、AI科学家、架构师、多模态工程师和AI芯片设计师,技术红利窗口期正在关闭。文章详细解析各岗位技能要…

张小明 2026/1/10 14:16:17 网站建设

建设路第3小学网站电话转运公司网站制作

在软件测试领域,用户反馈是驱动产品迭代和缺陷修复的核心资源。它不仅是测试用例的补充,更是连接用户需求与开发实践的关键桥梁。据统计,高效整合用户反馈的团队,其产品缺陷修复率可提升30%以上,用户满意度增长超20%。…

张小明 2025/12/28 12:43:25 网站建设

吴江建设网站6免费建站的网站

网络诊断与修复全攻略 1. 构建网络诊断与修复笔记本 拥有一台用于网络诊断和修复的笔记本是非常实用的。它不必是全新的高端笔记本,只要是较新的、支持 USB 2.0 和 Linux 的笔记本即可。这台笔记本应具备以下配置: - 两个有线以太网接口和一个无线接口 - 调制解调器 - U…

张小明 2025/12/30 7:25:28 网站建设