0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI全新GPT-4o能力炸场!速度快/成本低,能读懂人类情绪

Carol Li 来源:电子发烧友 作者:李弯弯 2024-05-15 00:15 次阅读

电子发烧友网报道(文/李弯弯)当地时间5月13日,OpenAI举行春季发布会,宣布将推出桌面版ChatGPT,并发布全新旗舰AI模型GPT-4o。

根据OpenAI官方网站介绍,GPT-4o中的“o”代表Omni,也就是“全能”的意思。GPT-4o文本、推理、编码能力达到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的两倍,但成本仅为GPT-4 Turbo的一半,视频音频功能得到改善。

GPT-4o速度更快,且能感知用户情绪

根据OpenAI介绍,GPT-4o与GPT-3.5、GPT-4的语音对谈机制不同。GPT-3.5和GPT-4会先将音频转换为文本,再接收文本生成文本,最后将文本转换为音频,经历这三个过程,音频中的情感表达等信息会被折损,而GPT-4o是跨文本、视觉和音频的端到端模型,是OpenAI第一个综合了这些维度的模型,可更好进行对谈。

OpenAI技术负责人Mira Murati表示:“这是我们第一次在易用性方面真正迈出的一大步。”OpenAI研究员Mark Chen表示,新模型具有“感知情绪”的能力,能输出笑声、歌唱或表达情感,还可以处理用户打断它的情况。

GPT-4o极大地改进了OpenAI的AI聊天机器人ChatGPT的体验。在发布会上,OpenAI研究主管Mark Chen和OpenAI的后训练团队负责人Barret Zoph通过现场演示展示出了新模型GPT-4o的强大。

如在演示对话中,Mark Chen表现得有点紧张,然后开始急促地呼吸。当GPT-4o听到Chen过度呼气时,它似乎从中察觉到了他的紧张,并说到:别紧张,你喘得像个吸尘器,深呼吸,再吐气。接着GPT开始指导Chen怎么深吸慢呼平复心情。

在另一段对话演示中,Chen让GPT给Zoph讲个睡前故事哄他入睡,Chen反复打断GPT的讲述,问它能不能讲得更刺激点,最后GPT用非常迪士尼的方式唱出了一个故事。

GPT-4o还可以通过视觉识别检测人的情绪。在一个演示中,Zoph将手机举到自己面前正对着脸,要求ChatGPT告诉他自己长什么样子。GPT-4o注意到了Zoph脸上的微笑,对他说:“看起来你感觉非常快乐,喜笑颜开。”

GPT-4o也能够进行实时快速翻译,OpenAI技术负责人Mira Murati在现场对ChatGPT说起了意大利语,GPT则将她的话翻译成英语。

OpenAI首席执行官山姆·奥特曼(Sam Altman)表示,新的语音和视频模式是他用过的最好的电脑界面,感觉就像电影里的AI。达到人类水平的反应时间和表达能力是一个很大的变化。

Sam Altman谈到:“对我来说,与电脑交谈从来都不是一件很自然的事,现在它做到了。随着我们增加(可选的)个性化、访问你的信息、代表你采取行动的能力等等,我真的可以看到一个令人兴奋的未来,我们能够使用计算机做比以往任何时候都多的事情。”

GPT-4o功能未来将会进一步发展

自发布之日,GPT-4o可在ChatGPT的免费版本中使用,并提供给OpenAI的高级ChatGPT Plus和Team计划订户,具有“5倍更高”的消息限制。OpenAI指出,当用户达到速率限制时,ChatGPT将自动切换到GPT-3.5。

OpenAI称,基于GPT-4o的ChatGPT文本和图像输入功能将于本周一上线,语音和视频选项将在未来几周内推出。另外,OpenAI将在未来1个月左右向Plus用户推出基于GPT-4o改进的语音体验,目前GPT-4o的API并不包含语音功能。

OpenAI指出,在API使用方面,相比去年11月发布的GPT-4-turbo,GPT-4o价格降低一半。成本下降对于大模型的调用至关重要。OpenAI开始致力于将大模型推向市场。

另外据Murati介绍,GPT-4o的功能在未来将会进一步发展。比如,尽管目前GPT-4o可以查看不同语言的菜单照片并进行翻译,但未来,该模型可能使ChatGPT能够观看直播的体育比赛并向您解释规则。

Murati表示:“我们知道这些模型变得越来越复杂,但我们希望交互体验实际上变得更加自然、简单,您不需要关注UI,而只需专注于与ChatGPT的合作。”

对于大家一直关注的安全性问题,OpenAI也重点提及。据称,通过过滤训练数据和训练后改进模型行为等技术,GPT-4o在设计中内置了跨模式的安全性,并创建了新的安全系统,为语音输出提供护栏。

GPT-4o还与来自社会心理学、偏见和公平、错误信息等领域的70多名外部专家开展广泛的外部合作,以识别新增加的模式引入或放大的风险,提高与GPT-4o互动的安全性。

OpenAI表示,将继续减少新发现的风险。由于认识到GPT-4o的音频模式存在各种新的风险,目前公开的是文本和图像输入以及文本输出,在接下来的几周和几个月里将围绕技术基础设施、训练后的可用性、发布其他模式所需的安全性开展工作,例如音频输出将仅限于选定的预设声音,并将遵守现有安全政策。

写在最后

可以看到,大模型技术正在快速发展,而OpenAI新模型GPT-4o无疑又将大模型技术和应用推向了一个新高度。目前全球科技厂商都在积极角逐,微软、谷歌等头部企业都纷纷召开发布会,密集推出大模型产品,苹果传言也已与OpenAI达成协议,在 iPhone使用其技术。不难看到,接下来大模型无论是在技术升级还是应用落地上都将会呈现一番新景象。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GPT
    GPT
    +关注

    关注

    0

    文章

    352

    浏览量

    15342
  • OpenAI
    +关注

    关注

    9

    文章

    1079

    浏览量

    6480
  • ChatGPT
    +关注

    关注

    29

    文章

    1558

    浏览量

    7593
  • AI大模型
    +关注

    关注

    0

    文章

    315

    浏览量

    305
收藏 人收藏

    评论

    相关推荐

    解锁 GPT-4o!2024 ChatGPT Plus 代升级全攻略(附国内支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承诺 Plus 用户享有更快的响应速度、优先使用新功能及最新模型,包括强大的 GPT-4o。本文将分享 2024 年 ChatGPT
    的头像 发表于 10-29 18:17 733次阅读

    OpenAI解锁GPT-4o定制功能,助力企业精准优化AI应用

    在8月21日的最新动态中,OpenAI 宣布了一项革命性的新功能,正式向企业用户开放其顶尖AI模型GPT-4o的定制能力。这一举措标志着OpenAI在激烈的企业级AI应用市场中迈出了重
    的头像 发表于 08-21 16:06 457次阅读

    OpenAI提前解锁GPT-4o语音模式,引领对话新纪元

    OpenAI近日宣布了一项令人振奋的消息:即日起,部分ChatGPT Plus用户将率先体验到GPT-4o的语音模式,这一创新功能标志着自然语言处理与人工智能交互技术迈出了重要一步。GPT-4o的高级语音模式以其卓越的实时对话
    的头像 发表于 08-01 18:24 1201次阅读

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用来取代GPT-3.5.这是目前市场上最具成本效益的小模型。   该模型在MMLU上得分为82%, 在LMSYS排行榜上的聊天偏好测试中表
    的头像 发表于 07-21 10:20 1019次阅读
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI发布高性价比小型AI模型GPT-4o mini

    在人工智能领域持续创新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,一款旨在以亲民价格提供强大功能的小型聊天机器人。这款产品的问世,标志着OpenAI在推动人工智能普及与多模态融合方面迈出了重要一步。
    的头像 发表于 07-19 15:27 636次阅读

    国内直联使用ChatGPT 4.0 API Key使用和多模态GPT4o API调用开发教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的强大工具,可用于自然语言处理和多模态任务。在国内直联使用这些服务需要一些配置和技巧。本文将详细介绍GPT-4o模型以及如何获取
    的头像 发表于 06-08 00:33 4897次阅读
    国内直联使用ChatGPT 4.0 API Key使用和多模态<b class='flag-5'>GPT4o</b> API调用开发教程!

    开发者如何调用OpenAIGPT-4o API以及价格详情指南

    ​目前,OpenAI新模型GPT-4oGPT-4 Turbo的价格如下: GPT-4o 对比 GPT-4 Turbo
    的头像 发表于 05-29 16:00 1.1w次阅读
    开发者如何调用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4o</b> API以及价格详情指南

    OpenAI 深夜抛出王 “ChatGPT- 4o”, “她” 来了

    当地时间5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的一大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,OpenAI展示
    发表于 05-27 15:43

    GPT-4o更像“人”,AI“疾步”走向商业化应用

    5月14日,OpenAI发布了最新的多模态大模型GPT-4o,这一次的更新,更注重使用体验了。现场展示的互动效果包括:更快速的响应对话交互,视频识别环境情况,视频指导做题,感知人的情绪(叹息/笑声
    的头像 发表于 05-22 08:04 497次阅读
    <b class='flag-5'>GPT-4o</b>更像“人”,AI“疾步”走向商业化应用

    OpenAI发布全新GPT-4o模型

    近日,OpenAI宣布推出全新GPT-4o模型,标志着人工智能领域的一大技术飞跃。这款模型不仅具备强大的生成能力,还能精准理解用户意图,提供智能化的回答。
    的头像 发表于 05-17 11:48 648次阅读

    OpenAI正式推出GPT-4o模型,支持实时音频、视觉和文本推理处理

    紧接着,OpenAI总裁暨联合创始人Greg Brockman发布了详细演示,展示了两部搭载GPT-4o的设备如何实现语音或视频交互。
    的头像 发表于 05-15 10:26 507次阅读

    OpenAI推出面向所有用户的AI模型GPT-4o

    在周一的直播盛会上,OpenAI揭开了其最新的人工智能模型GPT-4o的神秘面纱。这款新模型旨在为其著名的聊天机器人ChatGPT提供更强大、更经济的支持。GPT-4o是此前备受瞩目的GPT-
    的头像 发表于 05-15 09:23 398次阅读

    GPT-4o深夜!AI实时视频通话丝滑如人类,Plus功能免费可用

    转自:量子位|公众号QbitAI不开玩笑,电影《她》真的来了。OpenAI最新旗舰大模型GPT-4o,不仅免费可用,能力更是横跨听、看、说,丝滑流畅毫无延迟,就像在打一个视频电话。现场直播的效果更是
    的头像 发表于 05-15 08:27 634次阅读
    <b class='flag-5'>GPT-4o</b>深夜<b class='flag-5'>炸</b><b class='flag-5'>场</b>!AI实时视频通话丝滑如<b class='flag-5'>人类</b>,Plus功能免费可用

    OpenAI发布GPT-4o模型,支持文本、图像、音频信息,速度提升一倍,价格不变

     此外,该模型还具备128K的上下文记忆能力,知识截止日期设定为2023年10月。微软方面也宣布,已通过Azure OpenAI服务提供GPT-4o的预览版。
    的头像 发表于 05-14 17:12 846次阅读

    OpenAI发布GPT-4o模型,供全体用户免费使用

    OpenAI首席技术官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具备与GPT-4相同的智能水平,且在文本、图像及语音处理方面有显著进步。
    的头像 发表于 05-14 11:17 503次阅读