0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

什么是检索增强生成?

NVIDIA英伟达企业解决方案 来源:未知 2023-11-16 21:15 次阅读

检索增强生成是一种使用从外部来源获取的事实,来提高生成式 AI 模型准确性和可靠性的技术。

为了理解这一生成式 AI 领域的最新进展,让我们以法庭为例。

法官通常根据对法律的一般理解来审理和判决案件。但有些案件需要用到特殊的专业知识,如医疗事故诉讼或劳资纠纷等,因此法官会派法庭书记员去图书馆寻找可以引用的先例和具体案例。

与优秀的法官一样,大语言模型(LLM)能够响应人类的各种查询。但为了能够提供引经据典的权威答案,模型需要一个助手来做一些研究。

AI 的“法庭书记员”就是一个被称为检索增强生成(RAG)的过程。

名称的由来

这个名称来自 2020 年的一篇论文(https://arxiv.org/pdf/2005.11401.pdf),论文的第一作者 Patrick Lewis 对 RAG 这个“不讨喜”的缩写词表示了歉意,如今,这个词被用来描述在数百篇论文和数十种商业服务中不断发展壮大的某种方法,而在他看来,这些都代表着生成式 AI 的未来。

在一场于新加坡举办的数据库开发者区域会议中,Lewis 接受了采访,他提到:“如果我们当时知道研究成果会被如此广泛地使用,肯定会在起名时多花些心思。”

wKgaomVWFweAOv0_AABbgqp3Oek038.jpg

图 1:Partick Lewis

Lewis 现在是 AI 初创企业 Cohere 的 RAG 团队负责人。他表示:“我们当时一直想取一个好听的名字,但到了写论文的时候,大家都想不出更好的了。”

什么是检索增强生成?

检索增强生成是一种使用从外部来源获取的事实,来提高生成式 AI 模型准确性和可靠性的技术。

换言之,它填补了 LLM 工作方式的缺口。LLM 其实是一种神经网络,以其所含参数数量来衡量,参数本质上等同于人类一般的遣词造句方式。

这种深度理解有时被称为参数化知识,使 LLM 能够在瞬间对一般的指令作出响应。但如果用户希望深入了解当前或更加具体的主题,它就不够用了。

结合内部与外部资源

Lewis 与其同事所开发的检索增强生成技术能够连接生成式 AI 服务与外部资源,尤其是那些具有最新技术细节的资源。

这篇论文的共同作者们来自前 Facebook AI Research(现 Meta AI)、伦敦大学学院和纽约大学。由于 RAG 几乎可以被任何 LLM 用于连接任意外部资源,因此他们把 RAG 称为“通用的微调秘方”。

建立用户信任

检索增强生成为模型提供了可以引用的来源,就像研究论文中的脚注一样。这样用户就可以对任何说法进行核实,从而建立起信任。

另外,这种技术还能帮助模型消除用户查询中的歧义,降低模型做出错误猜测的可能性,该现象有时被称为“幻觉”。

RAG 的另一大优势就是相对简单。Lewis 与该论文的其他三位共同作者在博客中表示,开发者只需五行代码就能实现这一流程。

这使得该方法比使用额外的数据集来重新训练模型更快、成本更低,而且还能让用户随时更新新的来源。

如何使用检索增强生成

借助检索增强生成技术,用户基本上可以实现与数据存储库对话,从而获得全新的体验。这意味着用于 RAG 的应用可能是可用数据集数量的数倍。

例如,一个带有医疗数据索引的生成式 AI 模型可以成为医生或护士的得力助手;金融分析师将受益于一个与市场数据连接的“助手”。

实际上,几乎所有企业都可以将其技术或政策手册、视频或日志转化为“知识库”资源,以此增强 LLM。这些资源可以启用客户或现场技术支持、员工培训、开发者生产力等用例。

AWS、IBM、Glean、谷歌、微软、NVIDIA、Oracle 和 Pinecone 等公司正是因为这一巨大的潜力而采用 RAG。

开始使用检索增强生成

为了帮助用户入门,NVIDIA 开发了检索增强生成参考架构https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)。该架构包含一个聊天机器人示例和用户使用这种新方法创建个人应用所需的元素。

该工作流使用了专用于开发和自定义生成式 AI 模型的框架NVIDIA NeMo,以及用于在生产中运行生成式 AI 模型的软件,例如NVIDIA Triton推理服务器NVIDIA TensorRT-LLM等。

这些软件组件均包含在NVIDIA AI Enterprise软件平台中,其可加速生产就绪型 AI 的开发和部署,并提供企业所需的安全性、支持和稳定性。

为了让 RAG 工作流获得最佳性能,需要大量内存和算力来移动和处理数据。NVIDIA GH200 Grace Hopper 超级芯片配备 288 GB 高速 HBM3e 内存和每秒 8 千万亿次的算力,堪称最佳的选择,其速度相比使用 CPU 提升了 150 倍。

一旦企业熟悉了 RAG,就可以将各种现成或自定义的 LLM 与内部或外部知识库相结合,创造出各种能够帮助其员工和客户的助手。

RAG 不需要数据中心。在 Windows PC 上已可直接使用 LLM,其实这都要归功于 NVIDIA 软件所提供的支持,使用户可以在笔记本电脑上轻松访问各种应用。

wKgaomVWFweAcXm2AABiDi7jtnw228.jpg

图 2:一个在 PC 上的 RAG 示例应用程序。

配备NVIDIA RTX GPU的 PC 如今可以在本地运行一些 AI 模型。通过在 PC 上使用 RAG,用户可以连接私人知识来源(无论是电子邮件、笔记还是文章),以改善响应。这样,用户可以对其数据来源、指令和回答的私密性和安全性放心。

在最近的一篇博客(https://blogs.nvidia.com/blog/tensorrt-llm-windows-stable-diffusion-rtx/)中,就提供了一个在 Windows 上使用 TensorRT-LLM 加速的 RAG 以快速获得更好结果的例子。

检索增强生成的发展史

这项技术的起源至少可以追溯到 20 世纪 70 年代初。当时,信息检索领域的研究人员推出了所谓的问答系统原型,即使用自然语言处理(NLP)访问文本的应用程序,最初涵盖的是棒球等狭隘的主题。

多年以来,这种文本挖掘背后的概念其实一直没有改变。但驱动它们的机器学习引擎却有了显著的发展,从而提高了实用性和受欢迎程度。

20 世纪 90 年代中期,Ask Jeeves 服务(即现在的 Ask.com)以一个穿着考究的男仆作为吉祥物,普及了问答系统。2011 年,IBM 的 Watson 在《危险边缘》(Jeopardy!)节目中轻松击败两位人类冠军,成为电视名人。

wKgaomVWFweAF4ojAADgAIrgW7E843.jpg

如今,LLM 正在将问答系统提升至全新的水平。

在一家伦敦实验室中迸发的灵感

在 2020 年发表这篇开创性的论文时,Lewis 正在伦敦大学学院攻读自然语言处理(NLP)博士学位,并在伦敦一家新成立的 AI 实验室中为 Meta 工作。当时,该团队正在寻找将更多知识加入到 LLM 参数中的方法,并使用模型自己开发的基准来衡量进展。

Lewis 回忆道,团队在早期方法的基础上,受谷歌研究人员一篇论文的启发,“产生了这一绝妙的想法——在一个经过训练的系统中嵌入检索索引,这样它就能学习并生成你想要的任何文本输出。”

wKgaomVWFweAb0-BAADX3I7hchU283.jpg

图 3:IBM Watson 问答系统在电视节目《危险边缘》(Jeopardy!)中大获全胜,一举成名

Lewis 将这项正在开发的工作与另一个 Meta 团队的优秀检索系统连接,所产生的第一批结果令人大吃一惊。

“我把结果拿给主管看,他惊叹道:‘哇,你们做到了。这可不是常有的事情’。因为这些工作流很难在第一次就被设置正确。”

Lewis 还赞扬了团队成员 Ethan Perez 和 Douwe Kiela 的重要贡献,两人分别来自纽约大学和当时的 Facebook AI 研究院。

这项在 NVIDIA GPU 集群上运行并已完成的工作,展示了如何让生成式 AI 模型更具权威性和可信度。此后,数百篇论文引用了这一研究成果,并在这一活跃的研究领域对相关概念进行了扩展和延伸。

检索增强生成如何工作

NVIDIA 技术简介https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)高度概括了 RAG 流程:

当用户向 LLM 提问时,AI 模型会将查询发送给另一个模型,后者会将查询转换成数字格式以便机器读取。数字版本的查询有时被称为嵌入或向量。

wKgaomVWFweAcme4AABIVri9hBM966.jpg

图 4:检索增强生成将 LLM 与嵌入模型和向量数据库相结合。

随后,嵌入模型会将这些数值与可用知识库的机器可读索引中的向量进行比较。当发现存在一个或多个匹配项时,它会检索相关数据,将其转换为人类可读的单词并发送回 LLM。

最后,LLM 会将检索到的单词和它自己对查询的响应相结合,形成最终的答案并提交给用户,其中可能会引用嵌入模型找到的来源。

始终使用最新的资源

在后台,嵌入模型会不断创建并更新机器可读索引(有时被称为向量数据库),以获得经过更新的最新知识库。

wKgaomVWFwiAN8h0AAA8jV-HmHw114.jpg

图 5:LangChain 的示意图从另一个角度描述了使用检索流程的 LLM。

许多开发者也发现,LangChain 这个开源程序库特别适合将 LLM、嵌入模型和知识库串联到一起。NVIDIA 在其检索增强生成参考架构中就是使用了 LangChain。

而在 LangChain 社群里,他们也提供了自己的 RAG 流程描述。(https://blog.langchain.dev/tutorial-chatgpt-over-your-data/

展望未来,生成式 AI 的未来在于其创造性地串联起各种 LLM 和知识库,创造出各种新型助手,并将可以验证的权威结果提供给用户。

也欢迎您访问NVIDIA LaunchPadhttps://www.nvidia.com/en-us/launchpad/ai/generative-ai-knowledge-base-chatbot/)中的实验室,您可以通过 AI 聊天机器人亲身体验检索增强生成。

GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。点击“阅读原文”扫描下方海报二维码,立即注册 GTC 大会


原文标题:什么是检索增强生成?

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3857

    浏览量

    92152

原文标题:什么是检索增强生成?

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA Spectrum-X网络平台助力提升AI存储性能

    AI 工厂依靠的不仅仅是计算网。当然,连接 GPU 的东西向网络对于 AI 应用的性能至关重要,而连接高速存储阵列的存储网也不容忽视。存储性能在运行 AI 业务过程中的多个阶段中发挥着关键作用,包括训练过程中的 Checkpoint 操作、推理过程中的检索增强生成(RAG
    的头像 发表于 02-15 11:01 276次阅读

    Kioxia开源发布AiSAQ™技术,降低生成式AI的DRAM需求

    在DRAM中,从而实现了对检索增强生成(RAG)的可扩展性能支持。这一特性使得AiSAQ™技术在处理大规模
    的头像 发表于 02-10 11:21 241次阅读

    DeepSeek最新AI模型现已登陆IBM watsonx.ai平台

    ,工程和科学计算提供裨益。 利用已部署的模型(如 IBM Granite,Llama,DeepSeek等)和以下解决方案能力,开发者可以在 IBM watsonx.ai 内构建 AI 解决方案:以易于理解的格式和UI测试和评估模型输出、通过连接各种向量数据库和嵌入模型构建 RAG(检索
    的头像 发表于 02-08 09:21 292次阅读

    【「基于大模型的RAG应用开发与优化」阅读体验】+Embedding技术解读

    今天学习大模型RAG 检索增强生成技术Embedding,即嵌入,是一种将离散数据(如文字、图像、音频等)转换为连续的密集向量表示的技术。这些向量能够反映原始数据之间的关系,使得计算机能够更好地处
    发表于 01-17 19:53

    定制本地的ChatFile的AI问答系统

    会遇到这样的困扰?今天,我们将利用下面两个技术为自己定制一个本地的 ChatFile 的 AI 问答系统: 1. Google 最新开源的生成式 AI 模型: Gemma 2 2. 检索增强生成技术
    的头像 发表于 01-03 09:26 299次阅读
    定制本地的ChatFile的AI问答系统

    借助浪潮信息元脑企智EPAI高效创建大模型RAG

    面对大量不断迭代的新知识,大模型必须“终身学习”才能满足实际应用的需求。RAG(Retrieval-augmented Generation,检索增强生成)让生成式大模型能够利用外部的知识源来
    的头像 发表于 12-19 14:32 297次阅读
    借助浪潮信息元脑企智EPAI高效创建大模型RAG

    通过阿里云计算巢快速部署NVIDIA NIM

    在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人,计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态 PDF 数据提取
    的头像 发表于 11-05 14:13 332次阅读
    通过阿里云计算巢快速部署NVIDIA NIM

    恩智浦eIQ AI和机器学习开发软件增加两款新工具

    恩智浦在eIQ AI和机器学习开发软件中增加了带有检索增强生成(RAG)与微调的生成式人工智能(GenAI)流程和eIQ Time Series Studio,以便在小型微控制器(MCU)、功能更强大的大型应用处理器(MPU)等
    的头像 发表于 11-01 11:39 613次阅读

    全新 NVIDIA NeMo Retriever微服务大幅提升LLM的准确性和吞吐量

    企业能够通过提供检索增强生成功能的生产就绪型 NVIDIA NIM 推理微服务,充分挖掘业务数据的价值。这些微服务现已集成到 Cohesity、DataStax、NetApp 和 Snowflake 平台中。
    的头像 发表于 07-26 11:13 948次阅读
    全新 NVIDIA NeMo Retriever微服务大幅提升LLM的准确性和吞吐量

    英特尔软硬件构建模块如何帮助优化RAG应用

    深入研究检索增强生成 (Retrieval Augmented Generation, RAG),该创新方法定义了企业和机构如何利用大语言模型(LLM)来发挥其数据的价值。本文将探索若干英特尔
    的头像 发表于 07-24 15:12 536次阅读
    英特尔软硬件构建模块如何帮助优化RAG应用

    TaD+RAG-缓解大模型“幻觉”的组合新疗法

    TaD:任务感知解码技术(Task-aware Decoding,简称TaD),京东联合清华大学针对大语言模型幻觉问题提出的一项技术,成果收录于IJCAI2024。 RAG:检索增强生成技术
    的头像 发表于 07-16 15:01 2240次阅读
    TaD+RAG-缓解大模型“幻觉”的组合新疗法

    揭秘NVIDIA AI Workbench 如何助力应用开发

    简化和优化生成式 AI 开发的工具备受追捧,需求与日俱增。借助基于检索增强生成(RAG)(该技术通过从指定外部来源获取事实资料,来提高生成式 AI 模型的准确性和可靠性)的应用和自定义
    发表于 07-10 18:51 701次阅读
    揭秘NVIDIA AI Workbench 如何助力应用开发

    Java开发者LLM实战——使用LangChain4j构建本地RAG系统

    不会是最新的,最新的chatGPT-4o只能基于2023年6月之前的数据进行回答,距离目前已经快一年的时间,如果想让GPT基于近一年的时间回复问题,就需要RAG(检索增强生成)技术了。 此外,对于公司内部的私有数据,为了数据安全、商业利益考虑,不能放到互
    的头像 发表于 07-02 10:32 1718次阅读
    Java开发者LLM实战——使用LangChain4j构建本地RAG系统

    大模型应用之路:从提示词到通用人工智能(AGI)

    铺平道路。 基于AI大模型的推理功能,结合了RAG(检索增强生成)、智能体(Agent)、知识库、向量数据库、知识图谱等先进技术,我们向实现真正的AGI(通用人工智能)迈出了重要步伐。 为了方便大家理解,将AI大模型视作类比人类大脑的存在,我
    的头像 发表于 06-14 10:20 2415次阅读
    大模型应用之路:从提示词到通用人工智能(AGI)

    检索增强生成(RAG)如何助力企业为各种企业用例创建高质量的内容?

    生成式 AI 时代,机器不仅要从数据中学习,还要生成类似人类一样的文本、图像、视频等。检索增强生成(RAG)则是可以实现的一种突破性方法。
    的头像 发表于 03-29 15:09 1034次阅读