网站生成手机站网站建设 的公司哪家好

张小明 2026/3/2 21:48:01
网站生成手机站,网站建设 的公司哪家好,太原做网站要多少钱呢,wordpress 主题增加筛选语义检索是指系统能够理解用户查询的深层含义#xff08;语义#xff09;#xff0c;而不仅仅是匹配字面关键词。它通过分析上下文、同义词、相关概念等#xff0c;查找与查询意图最相关的信息#xff0c;即使文档中没有完全相同的词语。 与关键词检索的区别#xff1a; …语义检索是指系统能够理解用户查询的深层含义语义而不仅仅是匹配字面关键词。它通过分析上下文、同义词、相关概念等查找与查询意图最相关的信息即使文档中没有完全相同的词语。与关键词检索的区别关键词检索基于字面匹配查找包含用户输入的特定词语的文档。它不理解词语的含义因此可能遗漏意思相关但用词不同的内容或返回用词相同但意思不符的结果。语义检索基于意义匹配理解查询和文档的“意思”。它能找到表达方式不同但含义相近的内容返回更符合用户真实意图的结果。简单来说关键词检索是“找词”语义检索是“懂意”。例如如果用关键词检索“苹果”那么可能找到我们吃的苹果以及苹果公司的相关信息而语义检索会考虑检索内容的上下文它能断定这个苹果是“苹果公司”所以只会检索“苹果公司”的相关内容出来。计算机是如何理解语义的计算机本身并不像人类一样真正“理解”语义而是通过复杂的数学和统计模型来模拟对语言含义的理解。其核心方法是将文字转化为计算机可以处理的数值向量Vector并让这些向量能够捕捉词语、句子或文档的语义信息。这个过程称作嵌入(Embedding)。主要实现方式包括词嵌入 (Word Embedding)将词语表示为高维空间中的向量。核心思想是“分布假设”上下文相似的词其含义也相似。例如word2vec、GloVe等模型训练后国王 - 男人 女人 ≈ 女王这样的向量运算成为可能说明向量捕捉到了语义关系。上下文化词嵌入 (Contextual Embedding)早期词嵌入为每个词分配一个固定向量无法处理一词多义。现代模型如BERT、RoBERTa使用深度神经网络尤其是Transformer架构根据词语在具体句子中的上下文来生成其向量表示。例如“苹果很好吃”和“苹果发布了新手机”中的“苹果”会被编码成不同的向量从而区分水果和公司。句子/段落/文档编码模型不仅能编码单个词还能将整个句子、段落或文档编码成一个向量。这个向量旨在代表其整体含义。语义相似的句子其向量在向量空间中的距离会很近。向量相似度计算在语义检索中用户的查询和数据库中的文档都被编码成向量。计算机通过计算向量间的相似度如余弦相似度来判断语义的接近程度。返回与查询向量最相似的文档向量所对应的文档。总结计算机通过机器学习模型将语言转化为高维向量并让这些向量的空间关系反映语言的语义关系。它不是“理解”而是通过海量数据训练出的模式识别能力来预测和匹配语言的含义。关于维度上面提到了高维一词也就是高维度的意思那么什么是维度呢在计算机尤其是数据处理、机器学习和数学计算中维度Dimension指的是描述一个数据点所需独立特征或变量的数量。它定义了数据存在于一个多少维的“空间”中。可以将维度想象成描述某件事物所需的“方面”或“属性”的个数。核心概念一维像一条直线只需要一个数值来定位一个点如数轴上的位置。二维像一个平面需要两个数值来定位一个点如地图上的经度和纬度。三维像我们生活的空间需要三个数值来定位一个点如长、宽、高。高维超过三维的空间在数学和计算机中很常见用于表示包含多个特征的复杂数据。例子说明向量 (Vector)[3]是一个一维向量只包含一个数值。[2, 5]是一个二维向量可以表示平面上的一个点 (x2, y5)。[1, 3, 8]是一个三维向量可以表示空间中的一个点 (x1, y3, z8)。[身高, 体重, 年龄, 收入]是一个四维向量用来描述一个人的四个不同特征。图像数据一张 28x28 像素的黑白图片可以看作是一个784 维的数据点28 x 28 784 个像素值。一张 28x28 像素的彩色图片通常有红、绿、蓝三个通道因此是2352 维28 x 28 x 3 2352 个颜色值。机器学习中的特征在预测房价的模型中如果使用“面积”、“房间数”、“地段评分”三个特征来描述一套房子那么每套房子的数据就是一个三维向量。如果增加“房龄”、“是否学区”等更多特征维度就会相应增加。一个包含100个不同特征的用户画像数据就是一个百维向量。张量 (Tensor)在深度学习中数据常以张量形式存在。一个二维数组矩阵是二维张量一个三维数组如一批彩色图片是三维张量以此类推。这里的“维数”也指张量的轴数。总结维度是描述数据复杂性和特征数量的关键概念。维度越高数据能包含的信息越丰富但也可能带来“维度灾难”计算复杂、数据稀疏等问题需要特殊技术处理。实现嵌入Embedding即将文本转换成 向量/矢量的方式我们可以把文本矢量/向量化Text Vectorization方法分为三大类基于统计的方法、基于预测的方法、以及基于上下文的大模型嵌入方法。下面是详细解释一、基于统计的方法传统方法这些方法主要依靠词频统计和共现关系来表示文本没有真正理解语义。1. 独热编码One-Hot Encoding原理给每个词分配一个唯一编号。用一个全零的向量只有该编号位置为1。例如词表 {猫, 狗, 鱼} “狗” →[0, 1, 0]特点简单直观但向量维度高。不同词之间没有语义关系“猫”和“狗”的相似度0。2. 词袋模型(BoWBag of Words)原理统计每个词在文本中出现的次数。忽略词序和上下文只保留频率。例如“我 爱 自然语言处理”→[我:1, 爱:1, 自然:1, 语言:1, 处理:1]特点易实现但丢失语序信息。不同长度文本可转化为同维度向量。3. TF-IDF词频–逆文档频率原理在BoW基础上增加权重TF词在当前文档的出现频率。IDF词在整个语料中出现的稀有度。公式TF-IDF(t,d)TF(t,d)×log⁡Nnt \text{TF-IDF}(t, d) \text{TF}(t, d) \times \log \frac{N}{n_t}TF-IDF(t,d)TF(t,d)×lognt​N​其中 (NNN) 是文档总数(ntn_tnt​) 是包含词 (ttt) 的文档数。特点能弱化“的、是”等高频无意义词。表示仍是稀疏高维向量。二、基于预测的方法词向量从统计走向“语义表示”用神经网络训练词与词的语义关系。4. Word2VecMikolov等人2013原理通过预测任务学习词向量。两种模型CBOW连续词袋模型根据上下文预测目标词。Skip-gram根据目标词预测上下文。相似语义的词其向量在空间中接近。例如vector(国王) - vector(男人) vector(女人) ≈ vector(王后)特点低维100~300维、稠密、可捕捉语义关系。不同上下文中同一个词向量相同无上下文感知。5. GloVeGlobal Vectors for Word Representation原理综合全局共现统计和局部预测能力。基于词共现矩阵的加权最小二乘优化。特点与Word2Vec效果类似但从统计角度出发。同样为静态词向量。三、基于上下文的大模型嵌入方法动态表示这些方法利用深度语言模型Transformer能根据上下文动态生成词或句子向量。6. ELMoEmbeddings from Language Models,2018原理双向LSTM模型。同一个词在不同上下文中会得到不同向量。例如“bank”在“river bank”和“central bank”中向量不同。7. BERTBidirectional Encoder Representations from Transformers,2019原理基于Transformer的双向编码模型。通过Masked Language Model掩码预测学习深层语义。可输出词级向量句级向量特点语义理解强。支持句子、段落、文档级向量化。有衍生模型RoBERTa、E5、SimCSE、ERNIE、MacBERT、BGE、Qwen-embedding等。8. Sentence Embedding句向量模型原理在BERT基础上通过对比学习优化句向量相似度。相似句子 → 向量距离小。代表模型Sentence-BERTSBERTSimCSEE5BGE、M3E、GTE等中文优化模型。应用语义检索Semantic Search问答匹配RAG知识检索四、总结对比方法类别代表模型是否理解语义向量维度稀疏/稠密是否上下文相关One-hot-否高稀疏否BoW / TF-IDFsklearn否高稀疏否Word2Vec / GloVegensim是静态100~300稠密否ELMo-是1024稠密是BERT / RoBERTa / SimCSE / BGEtransformers是768~1024稠密是小结传统统计法BoW / TF-IDF只看词频不懂语义。词向量Word2Vec / GloVe理解语义但忽略上下文。上下文嵌入BERT / SimCSE / BGE深度语义理解、动态语境感知是当前主流。基于上下文的大模型嵌入方法既能深度理解语义还能动态感知关联上下文最强大如何训练用于嵌入的模型显然同一个词在不同的上下文中的含义可能不同Transformer能够让同一个词在不同的上下文语境中得到不同向量。下面简单介绍一下基于Transformer的几种将文本转换为向量的几种模型BERT / SimCSE / BGE的训练过程和基本原理。一、核心目标这些模型的共同目标是把语义相似的文本映射到相近的向量空间中。也就是说经过矢量化后“公司法规定的责任” 和 “公司法的责任条款” → 向量距离接近“公司注册流程” 和 “股东权利义务” → 向量距离较远二、BERT 的训练过程基础模型BERTBidirectional Encoder Representations from Transformers是上下文嵌入的基础。训练目标1.Masked Language Modeling (MLM)随机遮盖句子中15%的词。让模型预测被遮盖的词。输入: 我今天[MASK]很开心 输出: 吃 → 概率最高2.Next Sentence Prediction (NSP)给定两句话让模型判断第二句是否是第一句的下文。句子A: 我去商店买水果 句子B: 然后我买了一个苹果 ✅ 句子B: 今天阳光很好 ❌训练方式大规模无监督语料Wikipedia、书籍等优化目标是最小化 MLM NSP 的交叉熵损失结果获得词或句子的“上下文感知”表示Contextual Embedding但原始BERT不直接适合句子相似度计算因为句向量分布不稳定。三、SimCSE 的训练过程句向量模型SimCSESimple Contrastive Sentence Embedding是在BERT的基础上用**对比学习Contrastive Learning**优化句子向量。思想让语义相近的句子向量靠近不同句子向量远离。训练方法(1) 无监督 SimCSE用 BERT 对同一句子做两次 dropout得到两个不同表示。视作「正样本对」其他句子是「负样本」。句子: 公司法的最新修订 dropout1 → 向量 v1 dropout2 → 向量 v2目标最大化 v1 与 v2 的相似度最小化与其他句子的相似度。损失函数InfoNCE 对比损失(2) 有监督 SimCSE使用自然语言推理NLI数据集如 entailment / contradiction。相似句entailment→ 正样本不相似句contradiction→ 负样本四、BGE 的训练过程现代中文向量模型BGEBAAI General Embedding是面向中文和多语言优化的最新一代句向量模型改进自 SimCSE 思路。核心特征采用更大规模数据集对话、问答、百科、网页。采用多任务学习语义相似度任务检索任务query–document对比学习任务positive/negative pairs优化损失函数InfoNCE Margin Ranking Loss 混合训练方式构建 (query, positive_doc, negative_doc) 三元组通过 Transformer 编码每个文本为向量优化目标Loss−log⁡esim(q,d)/τesim(q,d)/τ∑esim(q,d−)/τ \text{Loss} -\log \frac{e^{\text{sim}(q, d^) / \tau}}{e^{\text{sim}(q, d^) / \tau} \sum e^{\text{sim}(q, d^-) / \tau}}Loss−logesim(q,d)/τ∑esim(q,d−)/τesim(q,d)/τ​其中(sim\text{sim}sim)向量余弦相似度(τ\tauτ)温度参数效果句子相似度更稳定。支持跨域检索法律、问答、文档匹配。常用于 RAG、知识问答、语义搜索。五、三者关系总结模型训练方式语料类型是否有监督主要用途BERTMLM NSP大规模文本无监督通用语言理解SimCSE对比学习 (dropout 或 NLI)句对数据无/有监督句向量相似度BGE多任务对比学习QA / 检索数据有监督中文检索 / RAG嵌入总结通过训练好的模型计算机可以把文本转换成高维向量这些高维向量代表文本的语义这个过程也称作嵌入Embedding语义检索让机器按意思找内容。感谢观看祝好运
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

重庆网站建设公司魁网wordpress mysql 设置

训练营简介 2025年昇腾CANN训练营第二季,基于CANN开源开放全场景,推出0基础入门系列、码力全开特辑、开发者案例等专题课程,助力不同阶段开发者快速提升算子开发技能。获得Ascend C算子中级认证,即可领取精美证书,完成…

张小明 2026/1/21 14:24:20 网站建设

淘宝刷单网站开发wordpress手机版主题模板下载

百度网盘提取码智能查询工具:告别繁琐搜索的终极解决方案 【免费下载链接】baidupankey 项目地址: https://gitcode.com/gh_mirrors/ba/baidupankey 你是否曾经遇到过这样的情况?朋友分享了一个宝贵的百度网盘资源链接,满怀期待地点开…

张小明 2026/1/21 14:23:50 网站建设

西安网站开发哪家好连云港做网站推广

"Dive into LLMs"是上海交通大学开发的大模型实践教程,获得华为昇腾支持。它解决了大模型学习的七大痛点,提供从微调到安全对齐的全流程内容,包含11个章节,覆盖理论到实践。教程提供课件、代码脚本和实验手册&#xff0…

张小明 2026/1/21 14:23:19 网站建设

网站站点结构图凡科网建站怎么样

开启 WordPress 之旅:从选择到创作 1. 选择 WordPress 的理由 WordPress 已成为新博客和各类网站的首选平台。它是开源软件,自 2003 年起就作为自托管博客程序存在,本书使用的版本为 3.2.1 - 3.3.1。围绕该软件发展起来的 WordPress.org 组织,后来为不想自己托管博客的人…

张小明 2026/1/21 14:22:48 网站建设

最好的做网站公司重庆快速建站

OpenOffice.org软件安装与使用指南 1. OpenOffice.org安装步骤 OpenOffice.org是一款功能强大的办公软件,下面为你详细介绍其安装步骤: 1. 选择标准安装,点击“Next”,进入选择安装目录对话框。你也可以根据需求选择其他安装类型,这里以标准安装为例。 2. 若需要,可在…

张小明 2026/1/21 14:22:17 网站建设

哈尔滨网站推广公司哪家好万网icp网站备案专题

抖音视频纯净下载神器:轻松获取无水印高清内容 【免费下载链接】douyin_downloader 抖音短视频无水印下载 win编译版本下载:https://www.lanzous.com/i9za5od 项目地址: https://gitcode.com/gh_mirrors/dou/douyin_downloader 还在为抖音视频上的…

张小明 2026/1/21 14:21:46 网站建设