0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌重磅发布自然问题数据集

电子工程师 来源:cc 2019-01-28 15:27 次阅读

谷歌重磅发布自然问题数据集(Natural Questions),包含30万个自然发生的问题和人工注释的答案,16000个示例,并发起基于此数据集的问答系统挑战赛。有望成为自然语言理解领域的SQuAD!

开放领域问题回答(QA)是自然语言理解(NLU)中的一项基准任务,它的目的是模拟人类如何查找信息,通过阅读和理解整个文档来找到问题的答案。

比如,给定一个用自然语言表达的问题“为什么天空是蓝色的?”("Why is the sky blue?”),QA系统应该能够阅读网页(例如“天空漫射”的维基百科页面)并返回正确的答案,即使答案有些复杂和冗长。

然而,目前还没有可以用于训练和评估QA模型的大型、公开的自然发生问题(即由寻求信息的人提出的问题)和答案数据集。

这是因为构建用于QA任务的高质量数据集需要大量的真实问题来源,并且需要大量人力来为这些问题寻找正确答案。

为了促进QA领域的研究进展,谷歌今天发布自然问题数据集(Natural Questions, NQ),这是一个用于训练和评估开放领域问答系统的新的、大规模语料库,也是第一个复制人类查找问题答案的端到端流程的语料库。

Natural Questions数据集

NQ的规模非常庞大,包含30万个自然发生的问题,以及来自Wikipedia页面的人工注释答案,用于训练QA系统。

此外,NQ语料库还包含16000个示例,每个示例都由5位不同的注释人提供答案(针对相同的问题),这对于***的QA系统的性能非常有用。

Natural Questions数据集中的示例

由于回答NQ中的问题比回答琐碎问题(这些问题对计算机来说已经很容易解决)需要有更深入的理解,谷歌还发起了一项基于此数据集的挑战赛,以帮助提高计算机对自然语言的理解。

NQ挑战赛排行榜

NQ数据集包含307K训练示例、8K开发示例和8K测试示例。

目前,NQ挑战赛排行榜上只有谷歌的BERT模型和DecAtt-DocReader模型的成绩。在论文中,谷歌证明在长答案选择任务上的人类的最优成绩为87% F1,在短答案选择任务上人类的最优成绩为76%。

来自谷歌搜索的真实问题

NQ是第一个使用自然发生的查询创建的数据集,并专注于通过阅读整个页面来查找答案,而不是从一个短段落中提取答案。

为了创建NQ,我们从用户提交给Google搜索引擎的真实、匿名、聚合的查询开始。

然后,我们要求注释者通过通读整个维基百科页面来找到答案,就好像这个问题是他们自己提出的一样。注释者需要找到一个长答案和一个短答案,长答案涵盖推断问题所需的所有信息,短答案需要用一个或多个实体的名称简洁地回答问题。

对NQ语料库的注释质量进行评估,显示准确率达到90%。

注释包含一个长答案和一个短答案

研究人员在论文《自然问题:问答研究的基准》(Natural Questions: a Benchmark for Question Answering Research)中对数据收集的过程进行了全面描述,论文已发表在《计算语言学协会会刊》(Transactions of the Association for computing Linguistics)。大家也可以在NQ网站上查看更多来自数据集的示例。

自然语言理解挑战

NQ的目的是使QA系统能够阅读和理解完整的维基百科文章,其中可能包含问题的答案,也可能不包含问题的答案。

系统首先需要确定这个问题的定义是否足够充分,是否可以回答——许多问题本身基于错误的假设,或者过于模糊,无法简明扼要地回答。

然后,系统需要确定维基百科页面中是否包含推断答案所需的所有信息。我们认为,相比在知道长答案后在寻找短答案,长答案识别任务——找到推断答案所需的所有信息——需要更深层次的语言理解。

我们希望NQ的发布以及相关的挑战赛将有助于推动更有效、更强大的QA系统的开发。我们鼓励NLU社区参与进来,并帮助缩小目前最先进方法的性能与人类上限之间的巨大差距。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6139

    浏览量

    105059
  • 人工智能
    +关注

    关注

    1791

    文章

    46820

    浏览量

    237463

原文标题:NLP新基准!谷歌重磅发布开放问答数据集,30万自然提问+人工注释答案

文章出处:【微信号:aicapital,微信公众号:全球人工智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    易华录“基于北斗数据的高精度定位服务融合应用”入选案例

    近期,由开放群岛开源社区牵头撰写,中国电子技术标准化研究院、清华大学互联网产业研究院联合发起的《2023-2024开放群岛开源社区数实融合引领场景创新优秀案例重磅发布,涵盖了三年行动计划中涉及的十二个关键行业应用场景。易华录
    的头像 发表于 09-04 09:11 381次阅读

    纳雷路畅系列TCM873交通流量雷达重磅发布

    纳雷路畅系列TCM873交通流量雷达重磅发布
    的头像 发表于 08-13 11:04 479次阅读
    纳雷路畅系列TCM873交通流量雷达<b class='flag-5'>重磅</b><b class='flag-5'>发布</b>

    谷歌发布革命性AI天气预测模型NeuralGCM

    在科技与自然科学的交汇点上,谷歌公司于7月23日宣布了一项重大突破——全新的人工智能天气预测模型NeuralGCM。这一创新成果不仅融合了机器学习的前沿技术,还巧妙结合了传统气象学的精髓,其研究成果已在国际权威科学期刊《Nature》上
    的头像 发表于 07-23 14:24 449次阅读

    PyTorch如何训练自己的数据

    PyTorch是一个广泛使用的深度学习框架,它以其灵活性、易用性和强大的动态图特性而闻名。在训练深度学习模型时,数据是不可或缺的组成部分。然而,很多时候,我们可能需要使用自己的数据
    的头像 发表于 07-02 14:09 1307次阅读

    请问NanoEdge AI数据该如何构建?

    我想用NanoEdge来识别异常的声音,但我目前没有办法生成模型,我感觉可能是数据的问题,请问我该怎么构建数据?或者生成模型失败还会有哪些原因?
    发表于 05-28 07:27

    谷歌发布用于辅助编程的代码大模型CodeGemma

    谷歌发布了用于辅助编程的代码大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月发布的轻量级开源大模型 Gemma,针对 Gemma 的两个不同参数规模的版本 Gemm
    的头像 发表于 04-17 16:07 623次阅读
    <b class='flag-5'>谷歌</b><b class='flag-5'>发布</b>用于辅助编程的代码大模型CodeGemma

    谷歌推出能制作旅行攻略的AI工具

    谷歌近日发布了一项令人瞩目的新功能,它是一款能够借助自然语言对话帮助用户生成旅行行程和出游建议的AI工具。这款工具的推出,标志着谷歌在人工智能领域的又一重要突破。
    的头像 发表于 03-29 11:08 622次阅读

    谷歌发布开源AI大模型Gemma

    近日,谷歌发布了全新AI大模型Gemma,这款模型为各种规模的组织提供了前所未有的机会,以负责任的方式在商业应用中进行分发。
    的头像 发表于 02-28 17:38 804次阅读

    谷歌交互世界模型重磅发布

    谷歌模型
    北京中科同志科技股份有限公司
    发布于 :2024年02月28日 09:13:06

    语音数据:开启智能语音技术的新篇章

    随着人工智能技术的飞速发展,语音数据在推动智能语音技术的进步中发挥着越来越重要的作用。语音数据是训练和优化语音识别、语音合成等智能语音技术的关键资源,对于提高语音技术的准确性和
    的头像 发表于 12-29 11:06 623次阅读

    语音数据:智能语音技术的基石与挑战

    随着人工智能技术的飞速发展,语音技术已成为人机交互领域的重要突破口。语音数据作为支撑语音技术研发的核心资源,对于提高语音识别、合成及自然语言处理等技术的性能具有至关重要的作用。本文将对语音
    的头像 发表于 12-28 11:28 681次阅读

    语音数据:AI语音技术的灵魂

    提升语音识别和生成能力:语音数据为AI模型提供了丰富的语音样本,通过训练和学习这些数据,AI可以更好地理解和模拟人类的语音特征,从而提高语音识别的准确性和语音生成的自然度。 促进多
    的头像 发表于 12-14 14:33 972次阅读

    大模型数据:力量的源泉,进步的阶梯

    的舞台 大模型数据如广袤的舞台,为AI技术的展现提供了广阔的空间。这些数据规模庞大,包容万象,它们是AI进步的基石。无论是自然语言处理、
    的头像 发表于 12-07 17:18 632次阅读

    大模型数据:突破边界,探索未来

    随着人工智能技术的快速发展,大型预训练模型如GPT-4、BERT等在自然语言处理领域取得了显著的成功。这些大模型背后的关键之一是庞大的数据,为模型提供了丰富的知识和信息。本文将探讨大模型数据
    的头像 发表于 12-06 16:10 603次阅读

    OPT发布传感器及运动传动部件等重磅新品

    OPT带来全新升级DeepVision3软件,发布了传感器及运动传动部件等重磅新品。
    的头像 发表于 12-04 09:41 668次阅读