0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

中国研究人员提出StructGPT,提高LLM对结构化数据的零样本推理能力

Qxwdz168 来源:计算机视觉芯片设计 2023-05-24 16:02 次阅读

大型语言模型 (LLM) 最近在自然语言处理 (NLP) 方面取得了重大进展。现有研究表明,LLM) 具有很强的零样本和少样本能力,可以借助专门创建的提示完成各种任务,而无需针对特定任务进行微调。尽管它们很有效,但根据目前的研究,LLM 可能会产生与事实知识不符的不真实信息,并且无法掌握特定领域或实时的专业知识。这些问题可以通过在LLM中添加外部知识源来修复错误的生成来直接解决。

4fed7bc6-fa05-11ed-90ce-dac502259ad0.jpg

结构化数据,如数据库和知识图谱,已被常规用于在各种资源中携带 LLM 所需的知识。但是,由于结构化数据使用 LLM 在预训练期间未接触过的独特数据格式或模式,因此他们可能需要帮助才能理解它们。与纯文本相反,结构化数据以一致的方式排列并遵循特定的数据模型。数据表按行排列为列索引记录,而知识图 (KG) 经常组织为描述头尾实体之间关系的事实三元组。

尽管结构化数据的体量往往非常巨大,但不可能容纳输入提示中的所有数据记录(例如,ChatGPT 的最大上下文长度为 4096)。将结构化数据线性化为 LLM 可以轻松掌握的语句是解决此问题的简单方法。工具操作技术激励他们增强 LLM 解决上述困难的能力。他们策略背后的基本思想是使用专门的接口来更改结构化数据记录(例如,通过提取表的列)。在这些接口的帮助下,他们可以更精确地定位完成特定活动所需的证据,并成功地限制数据记录的搜索范围。

来自中国人民大学、北京市大数据管理与分析方法重点实验室和中国电子科技大学的研究人员在这项研究中着重于为某些任务设计合适的接口,并将它们用于 LLM 的推理,这些接口是应用界面增强方法需要解决的两个主要问题。以这种方式,LLM 可以根据从界面收集的证据做出决定。为此,他们在本研究中提供了一种称为 StructGPT 的迭代阅读然后推理 (IRR) 方法,用于解决基于结构化数据的任务。他们的方法考虑了完成各种活动的两个关键职责:收集相关数据(阅读)和假设正确的反应或为下一步行动制定策略(推理)。

据他们所知,这是第一项着眼于如何使用单一范式帮助 LLM 对各种形式的结构化数据(例如表、KG 和 DB)进行推理的研究。从根本上说,他们将 LLM 的阅读和推理两个过程分开:他们使用结构化数据接口来完成精确、有效的数据访问和过滤,并依靠他们的推理能力来确定下一步的行动或查询的答案。

对于外部接口,他们特别建议调用线性化生成过程,以帮助 LLM 理解结构化数据并做出决策。通过使用提供的接口重复此过程,他们可能会逐渐接近对查询的期望响应。

他们对各种任务(例如基于知识图谱的问答、基于表的问答和基于数据库的文本到 SQL)进行了全面试验,以评估其技术的有效性。八个数据集的实验结果表明,他们建议的方法可能会显着提高 ChatGPT 在结构化数据上的推理性能,甚至达到与全数据监督调优方法竞争的水平。

• KGQA。他们的方法使 KGQA 挑战的 WebQSP 上的 Hits@1 增加了 11.4%。借助他们的方法,ChatGPT 在多跳 KGQA 数据集(例如 MetaQA-2hop 和 MetaQA-3hop)中的性能可能分别提高了 62.9% 和 37.0%。

• 质量保证表。在 TableQA 挑战中,与直接使用 ChatGPT 相比,他们的方法在 WTQ 和 WikiSQL 中将标注准确度提高了大约 3% 到 5%。在 TabFact 中,他们的方法将表格事实验证的准确性提高了 4.2%。

• 文本到SQL。在 Text-to-SQL 挑战中,与直接使用 ChatGPT 相比,他们的方法将三个数据集的执行准确性提高了约 4%。

作者已经发布了 Spider 和 TabFact 的代码,可以帮助理解 StructGPT 的框架,整个代码库尚未发布。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据管理
    +关注

    关注

    1

    文章

    289

    浏览量

    19603
  • 自然语言处理

    关注

    1

    文章

    611

    浏览量

    13503
  • 知识图谱
    +关注

    关注

    2

    文章

    132

    浏览量

    7693
  • LLM
    LLM
    +关注

    关注

    0

    文章

    272

    浏览量

    304

原文标题:中国研究人员提出StructGPT,提高LLM对结构化数据的零样本推理能力

文章出处:【微信号:计算机视觉芯片设计,微信公众号:计算机视觉芯片设计】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    结构化布线系统有哪些难题

    在15年建筑物整修周期内限制系统的升级。经过精心设计的结构化布线系统可以承受超过大多数局域网传输速率10~15倍的数据流量。这将允许在不改变结构化布线系统的情况下使用新型网络技术。  2.通用
    发表于 05-19 13:46

    泰克仪器助力研究人员首次通过太赫兹复用器实现超高速数据传输

    通过使用基于光子的THz电路来桥接光纤和无线电的世界,以实现超高数据速率。但是,不管要实现什么的系统,信号复用和解复用系统(复用器/解复用器)都是基本要求。研究人员使用两个平行的金属板的波导系统,把
    发表于 08-31 15:58

    TrustZone结构化消息是什么?

    大家好,我已阅读任何与TrustZone相关的内容,但我无法弄清楚这两个世界是如何相互沟通的。我所能找到的只是TrustZone API规范中的内容:客户端和服务可以通过两种机制进行通信:结构化
    发表于 03-20 08:58

    结构化设计分为哪几部分?结构化设计的要求有哪些

    结构化设计分为哪几部分?结构化设计的要求有哪些?结构化设计主要包括哪些部分?
    发表于 12-23 06:15

    白光LED结构化涂层制备及其应用研究

      实验名称:基于电场诱导的白光LED结构化涂层制备及其应用研究  研究方向:电场诱导结构制备工艺试验研究  实验内容:  本文主要围绕:平
    发表于 03-29 15:44

    什么叫结构化的算法_算法和结构化数据初识

    结构化算法是由一些基本结构顺序组成的,就是把一个大的功能的实现分隔为许多个小功能的实现。在基本结构之间不存在向前或向后的跳转,流程的转移只存在于一个基本的结构范围内。一个非
    发表于 01-03 16:09 1.2w次阅读
    什么叫<b class='flag-5'>结构化</b>的算法_算法和<b class='flag-5'>结构化</b><b class='flag-5'>数据</b>初识

    融合样本学习和小样本学习的弱监督学习方法综述

    等现实挑战,很多学者针对数据依赖小的弱监督学习方法开展研究,出现了小样本学习、样本学习等典型研究
    发表于 02-09 11:22 2227次阅读
    融合<b class='flag-5'>零</b><b class='flag-5'>样本</b>学习和小<b class='flag-5'>样本</b>学习的弱监督学习方法综述

    形状感知样本语义分割

    由于大规模视觉语言预训练取得了令人瞩目的进展,最近的识别模型可以以惊人的高准确度对任意对象进行样本和开放式分类。
    的头像 发表于 04-28 11:26 793次阅读
    形状感知<b class='flag-5'>零</b><b class='flag-5'>样本</b>语义分割

    一个通用的自适应prompt方法,突破了样本学习的瓶颈

    为了解决这个问题,这篇研究提出了一种Universal Self-adaptive Prompting (USP)方法,对LLMs的样本学习进行了优化,同时也适用于少
    的头像 发表于 06-01 14:48 721次阅读
    一个通用的自适应prompt方法,突破了<b class='flag-5'>零</b><b class='flag-5'>样本</b>学习的瓶颈

    基准数据集(CORR2CAUSE)如何测试大语言模型(LLM)的纯因果推理能力

      因果推理是人类智力的标志之一。因果关系NLP领域近年来引起了人们的极大兴趣,但其主要依赖于从常识知识中发现因果关系。研究提出了一个基准数据
    的头像 发表于 06-20 15:39 1752次阅读
    基准<b class='flag-5'>数据</b>集(CORR2CAUSE)如何测试大语言模型(<b class='flag-5'>LLM</b>)的纯因果<b class='flag-5'>推理</b><b class='flag-5'>能力</b>

    什么是样本学习?为什么要搞样本学习?

    样本分类的技术目前正处于高速发展时期, 所涉及的具体应用已经从最初的图像分类任务扩展到了其他计算机视觉任务乃至自然语言处理等多个相关领域。 对此, 本文将其称为广义样本分类。 相应
    发表于 09-22 11:10 2056次阅读
    什么是<b class='flag-5'>零</b><b class='flag-5'>样本</b>学习?为什么要搞<b class='flag-5'>零</b><b class='flag-5'>样本</b>学习?

    跨语言提示:改进跨语言样本思维推理

    进一步地,提出了Cross-Lingual Self-consistent Prompting (CLSP),利用不同语言专家的知识和不同语言间更加多样的思考方式,集成了多个推理路径,显著地提高了self-consistency
    的头像 发表于 11-08 16:59 661次阅读
    跨语言提示:改进跨语言<b class='flag-5'>零</b><b class='flag-5'>样本</b>思维<b class='flag-5'>推理</b>

    什么是LLMLLM的工作原理和结构

    随着人工智能技术的飞速发展,大型语言模型(Large Language Model,简称LLM)逐渐成为自然语言处理(NLP)领域的研究热点。LLM以其强大的文本生成、理解和推理
    的头像 发表于 07-02 11:45 6802次阅读

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型在处理复杂任务时的效率和响应速度。以下是对LLM大模型
    的头像 发表于 07-24 11:38 763次阅读

    使用ReMEmbR实现机器人推理与行动能力

    视觉语言模型(VLM)通过将文本和图像投射到同一个嵌入空间,将基础大语言模型(LLM)强大的语言理解能力与视觉 transformer(ViT)的视觉能力相结合。VLM 可以处理非结构化
    的头像 发表于 11-19 15:37 125次阅读
    使用ReMEmbR实现机器人<b class='flag-5'>推理</b>与行动<b class='flag-5'>能力</b>