0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用OpenVINO和LlamaIndex构建Agentic-RAG系统

英特尔物联网 来源:英特尔物联网 2024-10-12 09:59 次阅读

作者:杨亦诚英特尔 AI 软件工程师

背景

RAG 系统的全称是 Retrieval-augmented Generation,本质上是 Prompt Engineering,通过在 Prompt 中注入检索得到的外部数据,可以有效地解决大语言模型在知识时效性和专业性上的不足。但同时传统的 RAG 系统也有它的缺陷,例如灵活性较差,由于 RAG 会过分依赖于向量数据库的检索结果,导致其在解决一些复杂问题的时候,只是一味地 “搬运” 检索结果,无法通过推理找到更优的解决途径,此外随着向量数据库的规模增大,传统 RAG 也无法高效对输入请求进行分类和过滤,导致检索过程犹如“大海捞针”,费时费力。

79c784fa-877b-11ef-b8af-92fbcf53809c.png

图:Agentic-RAG系统示例

而基于 AI 智能体的 RAG 系统(以下简称 Agentic-RAG )恰好可以解决传统 RAG 在灵活性上的不足,它通过将多个不同类别的 RAG 检测器,以工具的形式集成在 AI 智能体中,让 AI 智能体根据用户的请求,判断是否需要调用 RAG 搜索上下文,以及调用哪个 RAG 工具进行检索,例如在回答一个历史相关的问题时,Agentic-RAG 就会优先在历史类的 RAG 检索器中搜索答案,又或是在回答一个涉及数学计算的问题时,Agentic-RAG 则不会使用 RAG,而是调用数据计算相关的工具,甚至如果 LLM 本身具备一定的数据运算能力话,则完全不需要调用外部工具,直接输出答案。当然我们也可以将 RAG 和其他外部工具结合起来,协同解决更复杂的问题,如上图所示,在这个过程中,AI智能 体会将任务拆解后,在每个步骤中分别调用不同的工具,或是 RAG 组件来输出最终答案。接下来我们就一起看下如何利用 OpenVINO 和 LlamaIndex 工具来构建一个 Agentic-RAG 系统。

完整示例:

https://github.com/openvinotoolkit/openvino_notebooks/blob/latest/notebooks/llm-rag-llamaindex/llm-rag-llamaindex.ipynb

第一步模型转换与量化

LLM 和 Embedding 模型是 RAG系统中必要的组件,这里我们可以通过 Optimum-intel CLI 分别把他们转化为 OpenVINO 的 IR 格式,并进行量化压缩。

安装方法:

pip install optimum[openvino]

LLM:

optimum-cli export openvino --model {llm_model_id} --task text-generation-with-past --trust-remote-code --weight-format int4 {llm_model_path}

Embedding:

pip install optimum[openvino]

第二步 模型任务初始化

目前基于 OpenVINO 的 LLM,Embedding 以及 Reranker 任务均已被集成在 LlamaIndex 框架中,开发者可以非常方便地利用导出的 LLM 和 Embedding 模型,将这两类任务在 LlamaIndex 中进行初始化。

安装方法:

pip install llama-index llama-index-llms-openvino llama-index-embeddings-openvino

LLM:

from llama_index.llms.openvino import OpenVINOLLM


llm = OpenVINOLLM(  
  model_name=str(llm_model_path),  
  tokenizer_name=str(llm_model_path),  
  context_window=3900,  
  max_new_tokens=1000,  
  model_kwargs={"ov_config": ov_config},  
  device_map=llm_device.value,  
  completion_to_prompt=completion_to_prompt,
  )

Embedding:

from llama_index.embeddings.huggingface_openvino import OpenVINOEmbedding


embedding = OpenVINOEmbedding(folder_name=embedding_model_path, device=embedding_device.value)

第三步 构建RAG工具

接下来我们可以利用初始化后的 LLM 以及 Embedding 组件来构建 RAG 工具。第一步需要在 LlamaIndex 创建一个标准的 RAG 检索引擎,为了方便演示,该检索器仅使用默认的向量相似度搜索方式进行上下文过滤,如果想了解更完整的 RAG 搭建方法,可以参考 OpenVINO notebooks 仓库中的另一个示例:

https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/llm-rag-llamaindex

from llama_index.readers.file import PyMuPDFReader
from llama_index.core import VectorStoreIndex, Settings
from llama_index.core.tools import FunctionTool


Settings.embed_model = embedding
Settings.llm = llm
loader = PyMuPDFReader()
documents = loader.load(file_path=text_example_en_path)
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(similarity_top_k=2)

在完成 RAG 检索引擎创建后,可以直接调用 LlamaIndex 的接口将它包装为一个 Agent 的工具,如下所示,同时需要添加对该工具的描述,以便 LLM 判断在什么时候调用什么工具。

from llama_index.core.tools import QueryEngineTool


budget_tool = QueryEngineTool.from_defaults(  
  query_engine,  
  name="Xeon6",  
  description="A RAG engine with some basic facts about Intel Xeon 6 processors with E-cores",
)

此外,为了演示 Agentic-RAG 对于复杂任务的拆解与多工具间的路由能力,我们还可以再准备两个单独的数学运算工具,供 LLM 选择。

def multiply(a: float, b: float) -> float:  
  """Multiply two numbers and returns the product"""  
  return a * b


multiply_tool = FunctionTool.from_defaults(fn=multiply)


def add(a: float, b: float) -> float:  
  """Add two numbers and returns the sum"""  
  return a + b


add_tool = FunctionTool.from_defaults(fn=add)

第四步 构建 Agent 任务流水线

因为该示例中用到的 Llama3 还不支持 Function-call,所以这里我们可以创建了一个基于 ReAct 的 Agent 。在 LlamaIndex中搭建 Agent 流水线只需要一行代码,通过 ReAct Agent.from_tools 接口可以创建一个基础的 ReAct Agent ,并将刚才定义好的工具及 LLM 组件绑定到该 Agent 中。

agent = ReActAgent.from_tools([multiply_tool, add_tool, budget_tool], llm=llm, verbose=True)

接下来可以测试下效果,我们向 Agent 咨询了关于“4颗第六代 Xeon CPU 最大线程数“的问题,可以看到 Agent 首先会调用 Xeon 6 的 RAG 系统查询单颗 CPU 支持的最大线程数,然后再调用数学运算工具将获得的线程数乘以4,最后将得到的数字反馈给用户。

response = agent.chat("What's the maximum number of cores in an Intel Xeon 6 processor server with 4 sockets ? Go step by step, using a tool to do any math.")

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: Xeon6

Action Input: {'input': 'maximum cores in a single socket'}

Observation:

According to the provided context information, the maximum cores in a single socket is 144.

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: multiply

Action Input: {'a': 144, 'b': 4}

Observation: 576

Thought: The current language of the user is English. I can answer without using any more tools. I'll use the user's language to answer

Answer: The maximum number of cores in an Intel Xeon 6 processor server with 4 sockets is 576.

总结和展望

通过将 Agent 和 RAG 进行结合,我们直接提升 LLM 在解决复杂任务时的能力,相较于传统的 RAG,Agentic-RAG 更具产业落地价值。同时随着多智能体方法的引入,基于 Agent 的 RAG 将逐步取代传统 RAG 系统,实现更灵活,更精确的大语言模型应用业务体系。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    29306

    浏览量

    267540
  • 模型
    +关注

    关注

    1

    文章

    3054

    浏览量

    48547
  • 智能体
    +关注

    关注

    1

    文章

    120

    浏览量

    10546
  • OpenVINO
    +关注

    关注

    0

    文章

    81

    浏览量

    153

原文标题:使用 OpenVINO™ 和 LlamaIndex 构建 Agentic-RAG 系统|开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于OpenVINO和LangChain构建RAG问答系统

    随着生成式 AI 的兴起,和大语言模型对话聊天的应用变得非常热门,但这类应用往往只能简单地和你“聊聊家常”,并不能针对某些特定的行业,给出非常专业和精准的答案。这也是由于大语言模型(以下简称 LLM)在时效性和专业性上的局限所导致,现在市面上大部分开源的 LLM 几乎都只是使用某一个时间点前的公开数据进行训练,因此它无法学习到这个时间点之后的知识,并且也无法保证在专业领域上知识的准确性。那有没有办法让你的模型学习到新的知识呢?
    的头像 发表于 12-25 11:10 794次阅读
    基于<b class='flag-5'>OpenVINO</b>和LangChain<b class='flag-5'>构建</b><b class='flag-5'>RAG</b>问答<b class='flag-5'>系统</b>

    【大联大世平Intel®神经计算棒NCS2试用申请】在树莓派上联合调试Intel®神经计算棒NCS2部署OpenVINO

    ),CentOS7.4(64位)操作系统内核开发3,计算棒集成Intel最新的视觉处理单元(VPU),进行全面评估、4,全名评估OpenVINO™,搭建计算机视觉和深度学习视觉应用的软件平台。5,使用OpenVINO工具包中的推
    发表于 06-30 16:06

    求分享适用于Ubuntu* 22.04系统OpenVINO™安装程序包

    找不到适用于 Ubuntu* 22.04 系统OpenVINO™安装程序包。
    发表于 08-14 14:58

    从源代码构建OpenVINO工具套件时报错怎么解决?

    从源退货开始构建OpenVINO™工具套件错误: Could not find a package configuration file provided by \"ade\"
    发表于 08-15 06:45

    在Raspberry Pi上从源代码构建OpenVINO 2021.3收到错误怎么解决?

    在 Raspberry Pi 上从源代码构建 OpenVINO™2021.3。 运行OpenVINO™推理,并收到错误消息: ModuleNotFoundError:没有
    发表于 08-15 08:24

    如何使用交叉编译方法为Raspbian 32位操作系统构建OpenVINO工具套件的开源分发

    提供如何使用交叉编译方法为 Raspbian* 32 位操作系统构建 OpenVINO™ 工具套件的开源分发。 单击主题上的 了解详细信息: 系统要求注意本指南假定您的 Raspber
    发表于 08-15 06:28

    如何使用Python包装器正确构建OpenVINO工具套件

    构建该工具套件。 如果您未明确指定 Python 版本,CMake 会选择系统级 Python 版本(2.7),而且您的 Python 脚本将不起作用。 注意以下说明假定您已安装了 Python
    发表于 08-15 07:13

    永久设置OpenVINO trade Windows reg10的工具套件环境变量

    ]%INTEL_OPENVINO_DIR%\\\\extras\\opencv\\\\bin可选,仅在根据 下载其他组件 安装 OpenCV* 的情况下。 调整 自定义 OpenCV 构建的条目。 注意这适用于 2022.1 版Ope
    发表于 08-15 07:18

    从Docker映像为Raspbian OpenVINO工具套件的安装过程

    OpenVINO 开源技术中心 复制用于 Raspbian* 操作系统包的®工具套件的链接。选择最新版本,右键单击 URL,然后按 Copy 链接地址。 要构建用于神经计算英特尔® Movidius™或
    发表于 08-15 06:59

    无法使用Microsoft Visual Studio 2017为Windows 10构建开源OpenVINO怎么解决?

    无法使用 Microsoft Visual Studio 2017 为 Windows 10 构建开源OpenVINO™。
    发表于 08-15 06:43

    什么是LlamaIndexLlamaIndex数据框架的特点和功能

    LlamaIndex是一个数据框架,用于让基于LLM的应用程序摄取、结构化和访问私有或领域特定的数据。它提供Python和Typescript版本。
    的头像 发表于 01-05 11:08 8699次阅读
    什么是<b class='flag-5'>LlamaIndex</b>?<b class='flag-5'>LlamaIndex</b>数据框架的特点和功能

    搜索出生的百川智能大模型RAG爬坑之路总结

    今天对百川的RAG方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~
    的头像 发表于 01-05 15:02 1348次阅读
    搜索出生的百川智能大模型<b class='flag-5'>RAG</b>爬坑之路总结

    什么是RAGRAG学习和实践经验

    高级的RAG能很大程度优化原始RAG的问题,在索引、检索和生成上都有更多精细的优化,主要的优化点会集中在索引、向量模型优化、检索后处理等模块进行优化
    的头像 发表于 04-24 09:17 566次阅读
    什么是<b class='flag-5'>RAG</b>,<b class='flag-5'>RAG</b>学习和实践经验

    如何手撸一个自有知识库的RAG系统

    用于自然语言处理任务,如文本生成、问答系统等。 我们通过一下几个步骤来完成一个基于京东云官网文档的RAG系统 数据收集 建立知识库 向量检索 提示词与模型 数据收集 数据的收集再整个RAG
    的头像 发表于 06-17 14:59 428次阅读

    英特尔软硬件构建模块如何帮助优化RAG应用

    软硬件构建模块如何帮助优化RAG应用,在简化部署和支持扩展的同时,增强其上下文感知能力和实时响应性能。 1 为您的应用量身定制GenAI ChatGPT的面世改变了AI的发展格局。企业争相利用这项新技术
    的头像 发表于 07-24 15:12 296次阅读
    英特尔软硬件<b class='flag-5'>构建</b>模块如何帮助优化<b class='flag-5'>RAG</b>应用