0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI正式发布GPT-4:支持图像和文本的输入、 处理中文的准确度大幅提升

OSC开源社区 来源:OSC开源社区 2023-03-16 09:46 次阅读

OpenAI 刚刚宣布正式推出GPT-4。GPT-4 是 Generative Pre-trained Transformer 4 的缩写,即生成型预训练变换模型 4。

公告写道,GPT-4 是一个多模态大型语言模型(支持接受图像和文本输入,以文本形式输出),也是 OpenAI 努力扩展深度学习最新里程碑。虽然 GPT-4 对于许多现实场景的处理比人类差,但它在各种体现专业和学术能力的 benchmark 上,已表现出和人类相当的水平。 例如,GPT-4 通过了模拟律师考试,其分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分却在倒数 10% 左右。OpenAI 表示,他们花了 6 个月的时间来使用对抗性测试程序,以及通过 ChatGPT 的经验教训迭代调整 GPT-4,从而在真实性和可控性等方面取得了有史以来最好的结果(尽管远非完美)。 使用示例 OpenAI 用一张梗图演示了 GPT-4 特有的「多模态」功能。 用户提问:解释下图的笑点是什么,并对图片中的每部分进行描述。

7be7e048-c37a-11ed-bfe3-dac502259ad0.png

GPT-4:

The image shows a package for a "Lightning Cable" adapter with three panels. Panel 1: A smartphone with a VGA connector (a large, blue, 15-pin connector typically used for computer monitors) plugged into its charging port. Panel 2: The package for the "Lightning Cable" adapter with a picture of a VGA connector on it. Panel 3: A close-up of the VGA connector with a small Lightning connector (used for charging iPhones and other Apple devices) at the end. The humor in this image comes from the absurdity of plugging a large, outdated VGA connector into a small, modern smartphone charging port.

翻译如下:

图片显示了一个 "Lightning Cable" 适配器的包装,总共包含三个部分。 面板 1:一部智能手机,其充电端口插着一个 VGA 接口(大的蓝色 15 针接口,通常用于电脑显示器)。 面板 2:"Lightning Cable" 适配器的包装上有一张 VGA 接口的图片。 面板 3:VGA 连接器的特写,末端是一个小的 Lightning 连接器(用于为 iPhone 和其他苹果设备充电)。 这张图片的笑点来自于:展示了将一个大的、过时的 VGA 连接器插入一个小的、现代的智能手机充电端口的荒谬性。

上面的例子看起来很简单,OpenAI 紧接着展示了高级用法 —— 像人类一样读论文。简单来说就是给 GPT-4 提供论文的图片格式文件,让它阅读并总结出要点。效果如下:

7c40c0c8-c37a-11ed-bfe3-dac502259ad0.png

甚至直接让 GPT-4 回答图片中对应题号的问题:

7c847912-c37a-11ed-bfe3-dac502259ad0.png

GPT-4 局限性 尽管功能强大,但 GPT-4 与早期的 GPT 模型具有相似的局限性,即生成的结果不符合事实。因此它仍然不完全可靠(它会产生 “幻觉” 事实并出现推理错误)。 虽然这仍然是一个问题,但 GPT-4 相对于以前的模型(它们本身在每次迭代中都在改进)显着减少了 “幻觉”。在内部的对抗性真实性评估中,GPT-4 的得分比最新的 GPT-3.5 高 40%:

7c8f1fd4-c37a-11ed-bfe3-dac502259ad0.png

与 GPT 3.5 的对比 据介绍,对于日常的谈话,GPT-3.5 和 GPT-4 之间的区别可能很微妙。但当任务的复杂性达到足够的阈值时,差异就会出现 ——GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。 为了了解这两种模型之间的区别,OpenAI 通过各种 benchmark 进行了测试,包括最初为人类设计的模拟考试。从下图可以看出,GPT-4 的成绩大部分都比 GPT-3 好。

7caa4a52-c37a-11ed-bfe3-dac502259ad0.png

GPT-4 也在多项测试项目中取得了接近满分的成绩:

USABO Semifinal Exam 2020(美国生物奥林匹克竞赛)

GRE 口语

OpenAI 还将机器学习模型的传统 benchmark 用于评估 GPT-4。结果显示,GPT-4 已经远远超过现有的大型语言模型,以及大多数最先进的 (SOTA, state-of-the-art) 模型。benchmark 数据如下:

7cb4a484-c37a-11ed-bfe3-dac502259ad0.png

在 MMLU benchmark 中(一个基准数据集,包括来自于 STEM、人文、社科等 57 个学科的选择题,它用于测试 LLM 的世界知识和问题解答的能力),GPT-4 处理中文的准确度大约是 80%,已经优于其他 LLM 的英文表现,比如 GPT-3.5、Chinchilla、PALM。

7cd1d25c-c37a-11ed-bfe3-dac502259ad0.png

试用方式

ChatGPT Plus 订阅用户可尝鲜体验,他们将在 chat.openai.com 上获得具有使用s上限的 GPT-4 访问权限。

调用 API,访问
https://openai.com/waitlist/gpt-4进入等待名单


另外,

现在只支持纯文本的请求(图像输入还在 alpha 阶段)

定价:prompt - $0.03 per 1k token, completion - $0.06 per 1k token

context 长度为 8192 tokens,并且提供 32768 token 的版本(价格也更贵,$0.06 & $0.12)

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像
    +关注

    关注

    2

    文章

    1083

    浏览量

    40449
  • 模型
    +关注

    关注

    1

    文章

    3229

    浏览量

    48810
  • OpenAI
    +关注

    关注

    9

    文章

    1082

    浏览量

    6483

原文标题:OpenAI正式发布GPT-4:支持图像和文本的输入、 处理中文的准确度大幅提升

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    GPT-4. GPT-4o mini的定价为每百万输入标记15美分和每百万输出标记60美分,比之前的前沿模型便宜了一个数量级,比GPT-3.5 Turbo便宜了60%以上。
    的头像 发表于 07-21 10:20 1024次阅读
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI推出新模型CriticGPT,用GPT-4自我纠错

    基于GPT-4的模型——CriticGPT,这款模型专为捕获ChatGPT代码输出中的错误而设计,其独特的作用在于,让人们能够用GPT-4来查找GPT-4的错误。
    的头像 发表于 06-29 09:55 541次阅读

    OpenAI API Key获取:开发人员申请GPT-4 API Key教程

      OpenAIGPT-4模型因其卓越的自然语言理解和生成能力,成为了许多开发者的首选工具。获取GPT-4 API Key并将其应用于项目,如开发一个ChatGPT聊天应用,不仅是实践人工智能技术
    的头像 发表于 06-24 17:40 2338次阅读
    <b class='flag-5'>OpenAI</b> API Key获取:开发人员申请<b class='flag-5'>GPT-4</b> API Key教程

    开发者如何调用OpenAIGPT-4o API以及价格详情指南

    ​目前,OpenAI新模型GPT-4o和GPT-4 Turbo的价格如下: GPT-4o 对比 GPT-4 Turbo
    的头像 发表于 05-29 16:00 1.1w次阅读
    开发者如何调用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4</b>o API以及价格详情指南

    GPT-4人工智能模型预测公司未来盈利胜过人类分析师

    据悉,本次研究中,研究人员仅向GPT-4提供了匿名的财务数据,包括资产负债表和损益表,并要求其预测未来盈利增长。尽管未获得其他信息,GPT-4仍能达到60%的准确度,远超人类分析师的平均水平(53%-57%)。
    的头像 发表于 05-27 16:41 584次阅读

    OpenAI 深夜抛出王炸 “ChatGPT- 4o”, “她” 来了

    当地时间5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的一大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,
    发表于 05-27 15:43

    OpenAI正式推出GPT-4o模型,支持实时音频、视觉和文本推理处理

    紧接着,OpenAI总裁暨联合创始人Greg Brockman发布了详细演示,展示了两部搭载GPT-4o的设备如何实现语音或视频交互。
    的头像 发表于 05-15 10:26 507次阅读

    OpenAI全新GPT-4o能力炸场!速度快/成本低,能读懂人类情绪

    电子发烧友网报道(文/李弯弯)当地时间5月13日,OpenAI举行春季发布会,宣布将推出桌面版ChatGPT,并发布全新旗舰AI模型GPT-4
    的头像 发表于 05-15 00:15 7817次阅读

    OpenAI发布GPT-4o模型,支持文本图像、音频信息,速度提升一倍,价格不变

     此外,该模型还具备128K的上下文记忆能力,知识截止日期设定为2023年10月。微软方面也宣布,已通过Azure OpenAI服务提供GPT-4o的预览版。
    的头像 发表于 05-14 17:12 847次阅读

    OpenAI发布GPT-4o模型,供全体用户免费使用

    OpenAI首席技术官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具备与GPT-4相同的智能水平,且在文本图像及语音
    的头像 发表于 05-14 11:17 503次阅读

    OpenAI计划宣布ChatGPT和GPT-4更新

    人工智能领域的领军企业OpenAI近日宣布,将于5月13日进行一场产品更新直播,届时将揭晓ChatGPT和GPT-4的新进展。这一消息立即引发了外界对OpenAI下一项重大技术发布的广
    的头像 发表于 05-13 11:06 581次阅读

    阿里云发布通义千问2.5大模型,多项能力超越GPT-4

    阿里云隆重推出了通义千问 2.5 版,宣称其“技术进步,全面超越GPT-4”,尤其是在中文环境中的多种任务(如文本理解、文本生成、知识问答及生活建议、临时聊天及对话以及安全风险评估)方
    的头像 发表于 05-09 14:17 951次阅读

    OpenAI设立日本办事处,研发日文版GPT-4

    此外,OpenAI 还计划推出适用于日语环境的 GPT-4 定制版模型。据悉,该模型在处理日文文本时表现更为出色,运行速度最高可提升至三倍;
    的头像 发表于 04-15 16:04 481次阅读

    OpenAI推出Vision模型版GPT-4 Turbo,融合文本图像理解

    据悉,此模型沿用GPT-4 Turbo系列特有的12.8万token窗口规模及截至2023年12月的知识库架构,其创新亮点则是强大的视觉理解功能。
    的头像 发表于 04-10 10:49 404次阅读

    OpenAI推出ChatGPT新功能:朗读,支持37种语言,兼容GPT-4GPT-3

    据悉,“朗读”功能支持37种语言,且能够自主识别文本类型并对应相应的发音。值得关注的是,该功能对GPT-4以及GPT-3.5版本的ChatGPT均适用。此举彰显了
    的头像 发表于 03-05 15:48 913次阅读