0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AGIEval:准确考察基础模型类人能力的基准评估工具

jf_WZTOguxH 来源:AI前线 2023-05-15 15:45 次阅读

对基础模型在处理人类任务时的一般能力做出准确评估,已经成为通用人工智能(AGI)开发和应用领域的一大重要问题。基于人工数据集的传统基准往往无法准确反映模型能力是否达到人类水平。

近日,微软的一个华人研究团队发布了一项新型基准测试 AGIEval,这项基准测试专门用于对基础模型的类人能力做准确考察(涵盖高考、法学入学考试、数学竞赛和律师资格考试等)。

该研究团队使用此项基准评估了当前最先进的多个基础模型,包括 GPT-4、ChatGPT 和 Text-Davinci-003 等。

令人印象深刻的是,GPT-4 在 SAT、LSAT 和数学竞赛中的表现均超过人类平均水平,在 SAT 数学测试中达成 95% 的准确率,在中国高考英语测试中准确率亦达到 92.5%,证明了当代基础模型的非凡性能。

与之对应,研究人员发现 GPT-4,在需要复杂推理或涉及特定领域知识的任务中表现尚不理想。

通过对模型能力(理解、知识、推理和计算等)的全面分析,有助于揭示这些模型的优势和局限性,为增强其通用能力的未来发展方向提供支持。通过测试涉及人类认知和决策能力的任务,AGIEval 能够对基础模型在现实场景中的性能做出更可靠、更有意义的评估。

测试中的全部数据、代码和模型输出均通过此 https URL(https://github.com/microsoft/AGIEval)发布。

AGIEval 项目介绍

AGIEval 是一项考察基础模型类人能力的基准测试,专门用于评估基础模型在人类认知和问题解决相关任务中表现出的一般能力。

该基准选取 20 种面向普通人类考生的官方、公开、高标准往常和资格考试,包括普通大学入学考试(中国高考和美国 SAT 考试)、法学入学考试、数学竞赛、律师资格考试、国家公务员考试等等。

关于此基准的完整描述,请参阅论文《AGIEval:准确考察基础模型类人能力的基准评估工具》(https://arxiv.org/pdf/2304.06364.pdf)。

任务与数据

AGIEval v1.0 包含 20 项任务,具体为 2 项完形填空任务(高考数学)和 18 项多选题回答任务。在选择题部分,高物理和 JEC-QA 部分对应一个或多个正确答案,其余任务则仅有一个正确答案。

下表所示,为测试题目的完整列表。

a48a24c6-f295-11ed-90ce-dac502259ad0.png

可以在 data/v1 文件夹内下载到除 JEC-QA 以外的所有后处理数据。关于 JEC-QA 部分,请前往 JEC-QA 网站获取数据。

使用 JEC-QA 训练数据的前 1000 个实例作为测试集。所有数据集的数据格式如下:

{
    "passage": null,
    "question": "设集合 $A=\{x \mid x \geq 1\}, B=\{x \mid-1-1\}$",
        "(B)$\{x \mid x \geq 1\}$",
        "(C)$\{x \mid-1

其中高考语言、高考英语、两科 logiqa、全部 LSAT 和 SAT 均可使用 passage 字段。多选任务的答案保存在 label 字段内。完形填空任务的答案保存在 answer 字段内。

我们还在 data/v1/few_shot_prompts 文件中提供了小样本学习的提示词。

基线系统

我们在 AGIEval v1.0 上评估了基准系统的性能。基线系统基于以下模型:text-davinci-003、ChatGPT (gpt-3.5-turbo) 和 GPT-4。您可以按照以下步骤重现测试结果:

1.在 openai_api.py 文件中填写您的 OpenAI API 密钥。

2.运行 run_prediction.py 文件以获取结果。

模型输出

‍您可以在 Onedrive 链接(https://1drv.ms/u/s!Amt8n9AJEyxcg8YQKFm1rSEyV9GU_A?e=VEfJVS)中下载到基线系统的零样本、零样本思维链、少样本和少样本思维链输出。请注意,我们修复了 SAT-en 实例中的 52 处拼写错误,并将很快发布更新后的数据集输出。‍

评估

您可以运行 post_process_and_evaluation.py 文件来获取评估结果。

引用

如果您需要在研究中使用 AGIEval 数据集或代码,请引用论文:

@misc{zhong2023agieval,
      title={AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models},
      author={Wanjun Zhong and Ruixiang Cui and Yiduo Guo and Yaobo Liang and Shuai Lu and Yanlin Wang and Amin Saied and Weizhu Chen and Nan Duan},
      year={2023},
      eprint={2304.06364},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

在使用时,请务必在您的论文中引用所有独立数据集。我们提供以下引用信息



@inproceedings{ling-etal-2017-program,
    title = "Program Induction by Rationale Generation: Learning to Solve and Explain Algebraic Word Problems",
    author = "Ling, Wang  and
      Yogatama, Dani  and
      Dyer, Chris  and
      Blunsom, Phil",
    booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P17-1015",
    doi = "10.18653/v1/P17-1015",
    pages = "158--167",
    abstract = "Solving algebraic word problems requires executing a series of arithmetic operations{---}a program{---}to obtain a final answer. However, since programs can be arbitrarily complicated, inducing them directly from question-answer pairs is a formidable challenge. To make this task more feasible, we solve these problems by generating answer rationales, sequences of natural language and human-readable mathematical expressions that derive the final answer through a series of small steps. Although rationales do not explicitly specify programs, they provide a scaffolding for their structure via intermediate milestones. To evaluate our approach, we have created a new 100,000-sample dataset of questions, answers and rationales. Experimental results show that indirect supervision of program learning via answer rationales is a promising strategy for inducing arithmetic programs.",
}


@inproceedings{hendrycksmath2021,
  title={Measuring Mathematical Problem Solving With the MATH Dataset},
  author={Dan Hendrycks and Collin Burns and Saurav Kadavath and Akul Arora and Steven Basart and Eric Tang and Dawn Song and Jacob Steinhardt},
  journal={NeurIPS},
  year={2021}
}


@inproceedings{Liu2020LogiQAAC,
  title={LogiQA: A Challenge Dataset for Machine Reading Comprehension with Logical Reasoning},
  author={Jian Liu and Leyang Cui and Hanmeng Liu and Dandan Huang and Yile Wang and Yue Zhang},
  booktitle={International Joint Conference on Artificial Intelligence},
  year={2020}
}


@inproceedings{zhong2019jec,
  title={JEC-QA: A Legal-Domain Question Answering Dataset},
  author={Zhong, Haoxi and Xiao, Chaojun and Tu, Cunchao and Zhang, Tianyang and Liu, Zhiyuan and Sun, Maosong},
  booktitle={Proceedings of AAAI},
  year={2020},
}


@article{Wang2021FromLT,
  title={From LSAT: The Progress and Challenges of Complex Reasoning},
  author={Siyuan Wang and Zhongkun Liu and Wanjun Zhong and Ming Zhou and Zhongyu Wei and Zhumin Chen and Nan Duan},
  journal={IEEE/ACM Transactions on Audio, Speech, and Language Processing},
  year={2021},
  volume={30},
  pages={2201-2216}
}

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1791

    文章

    46903

    浏览量

    237678
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24649
  • ChatGPT
    +关注

    关注

    29

    文章

    1550

    浏览量

    7511

原文标题:AGIEval:准确考察基础模型类人能力的基准评估工具

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    阿里云开源Qwen2.5-Coder代码模型系列

    Qwen2.5-Coder-32B-Instruct,在代码生成领域取得了显著成就。据官方介绍,该模型在EvalPlus等十多个主流的代码生成基准测试中,均刷新了开源模型的得分纪录,展现出了卓越的性能。更值得一提的是,Qwen2
    的头像 发表于 11-14 11:28 294次阅读

    REF54精密电压基准评估模块

    电子发烧友网站提供《REF54精密电压基准评估模块.pdf》资料免费下载
    发表于 10-30 09:11 0次下载
    REF54精密电压<b class='flag-5'>基准</b><b class='flag-5'>评估</b>模块

    如何评估 ChatGPT 输出内容的准确

    评估 ChatGPT 输出内容的准确性是一个复杂的过程,因为它涉及到多个因素,包括但不限于数据的质量和多样性、模型的训练、上下文的理解、以及输出内容的逻辑一致性。以下是一些评估 Cha
    的头像 发表于 10-25 17:48 515次阅读

    如何评估AI大模型的效果

    评估AI大模型的效果是一个复杂且多维度的过程,涉及多个方面的考量。以下是一些关键的评估方法和步骤: 一、基准测试(Benchmarking) 使用标准数据集和任务来
    的头像 发表于 10-23 15:21 468次阅读

    【每天学点AI】人工智能大模型评估标准有哪些?

    OpenAI新模型o1号称编程能力8倍杀GPT-4o,MMLU媲美人类专家,MMLU是什么?评估模型的标准是什么?相信大家在阅读大模型相关
    的头像 发表于 10-17 16:49 347次阅读
    【每天学点AI】人工智能大<b class='flag-5'>模型</b><b class='flag-5'>评估</b>标准有哪些?

    怎么判断电源的最大负载能力?带载测试方式助您准确评估

    带载能力指电源在其规定条件下,所能承受的最大负载能力。电源带载测试就是对电源模块的负载能力进行测试,评估电源在各负载条件下的输出稳定性和可靠性。带载测试是电源模块设计和生产过程中的重要
    的头像 发表于 09-29 16:43 493次阅读
    怎么判断电源的最大负载<b class='flag-5'>能力</b>?带载测试方式助您<b class='flag-5'>准确</b><b class='flag-5'>评估</b>

    NVIDIA文本嵌入模型NV-Embed的精度基准

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分数创下了嵌入准确率的新纪录海量文本嵌入基准测试(MTEB)涵盖 56 项嵌入任务。
    的头像 发表于 08-23 16:54 1945次阅读
    NVIDIA文本嵌入<b class='flag-5'>模型</b>NV-Embed的精度<b class='flag-5'>基准</b>

    Al大模型机器

    理解能力强大: AI大模型机器可以理解和生成自然语言,能够进行复杂的对话和语言任务。它们能够识别语言中的语义、语境和情感,并据此作出适当的回应。广泛的知识储备: 这些模型基于大规模的
    发表于 07-05 08:52

    商汤小浣熊荣获中国信通院代码大模型能力评估“三好生”

    近日,商汤小浣熊代码大模型在中国信通院“可信AI代码大模型评估”中,荣获4+级最高评级,成为国内首批通过该项评估的企业之一。
    的头像 发表于 06-13 15:37 415次阅读
    商汤小浣熊荣获中国信通院代码大<b class='flag-5'>模型</b><b class='flag-5'>能力</b><b class='flag-5'>评估</b>“三好生”

    【大语言模型:原理与工程实践】大语言模型的应用

    ,它通过抽象思考和逻辑推理,协助我们应对复杂的决策。 相应地,我们设计了两任务来检验大语言模型能力。一是感性的、无需理性能力的任务
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的评测

    工具。通过这一框架,研究人员和使用者可以更准确地了解模型在实际应用中的表现,为后续的优化和产品化提供有力支持。针对语言理解评测任务,特别是古文及谚语理解,我们深入
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】核心技术综述

    和量化: 减小模型尺寸和计算复杂度,使模型更适合在计算资源受限的环境下部署。 解释性和可视化: 提供模型决策的可视化和解释工具,让模型
    发表于 05-05 10:56

    Aigtek:衡量基准电压源的技术指标有哪些

    基准电压源在电子领域中扮演着至关重要的角色,它为各种应用提供了稳定、可靠的电压。为了确保电路的准确性和可靠性,工程师需要关注和评估基准电压源的技术指标。衡量
    的头像 发表于 03-14 11:22 529次阅读
    Aigtek:衡量<b class='flag-5'>基准</b>电压源的技术指标有哪些

    鸿蒙原生应用/元服务开发-Stage模型能力接口(八)

    一、说明 ExtensionAbility是特定场景扩展能力的基,提供系统配置更新回调和系统内存调整回调。本模块首批接口从API version 9 开始支持。后续版本的新增接口,采用上角标单
    发表于 12-20 16:12

    如何准确评估减速电机传动效率

    如何准确评估减速电机传动效率  准确评估减速电机传动效率是确保工业设备正常运行和提高能源利用效率的重要环节。本文将详细介绍减速电机传动效率的评估
    的头像 发表于 12-19 10:01 1186次阅读