微软公司在最近的Build 2024开发者大会上宣布了一个重要更新。据微软CEO萨提亚·纳德拉介绍,Azure AI Studio现已支持OpenAI开发的最新旗舰模型GPT-4o,并作为API提供。
GPT-4o作为一款多模态模型,集成了文本、图像和音频处理能力,为用户带来了全新的生成式和对话式AI体验。这一更新无疑将极大地增强Azure AI Studio的功能和吸引力,为开发者和企业提供了更强大的AI工具。
Azure AI Studio作为微软的云端AI开发平台,一直致力于为用户提供最先进、最便捷的AI服务。此次GPT-4o API的加入,将进一步巩固其在AI领域的领先地位,推动AI技术的创新和应用。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
微软
+关注
关注
4文章
6641浏览量
104645 -
GPT
+关注
关注
0文章
364浏览量
15550 -
OpenAI
+关注
关注
9文章
1181浏览量
6811
发布评论请先 登录
相关推荐
OpenAI报告GPT-4o及4o-mini模型性能下降,正紧急调查
近日,全球领先的AI研究机构OpenAI发布了一份事故报告,引起了业界的广泛关注。报告中指出,OpenAI目前正面临GPT-4o和4o-mini这两款重要模型性能下降的问题。 据OpenAI方面透露
解锁 GPT-4o!2024 ChatGPT Plus 代升级全攻略(附国内支付方法)
Plus 的实际使用体验,并提供国内支付方案,助您做出明智的订阅决策。 ChatGPT Plus 核心优势 最新 AI 模型: 体验 GPT-4o、o1-preview 和
OpenAI提前解锁GPT-4o语音模式,引领对话新纪元
OpenAI近日宣布了一项令人振奋的消息:即日起,部分ChatGPT Plus用户将率先体验到GPT-4o的语音模式,这一创新功能标志着自然语言处理与人工智能交互技术迈出了重要一步。GPT-4o的高级语音模式以其卓越的实时对话能力和对用户情绪的细腻感知,为用户带来了前所未
OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜
GPT-4. GPT-4o mini的定价为每百万输入标记15美分和每百万输出标记60美分,比之前的前沿模型便宜了一个数量级,比GPT-3.5 Turbo便宜了60%以上。 GPT-4o

Solos发布全球首款支持GPT-4o的智能眼镜AirGo Vision
在智能穿戴设备领域,美国创新公司Solos近日发布了其全新产品——AirGo Vision智能眼镜,这款眼镜不仅集成了前沿的AI技术,还凭借其独特的设计和功能,成为了全球首款支持GPT-4o的智能
国内直联使用ChatGPT 4.0 API Key使用和多模态GPT4o API调用开发教程!
1. 前言 ChatGPT-4o API 是 OpenAI 提供的强大工具,可用于自然语言处理和多模态任务。在国内直联使用这些服务需要一些配置和技巧。本文将详细介绍GPT-4o模型以及

开发者如何调用OpenAI的GPT-4o API以及价格详情指南
,高达每分钟1000万字符。 速度 :GPT-4o的速度是GPT-4 Turbo的两倍。 视觉能力 :在视觉能力相关的评估中,GPT-4o表现优于GPT-4 Turbo。 多语言

微软Build 2024:宣布开放AI GPT-40及Phi-3-visio
5 月 22 日,微软Build 2024大会在美正式开幕。萨提亚·纳德拉CEO、董事长宣布,OpenAI新款旗舰模型GPT-4o已经在Azure AI Studio上线,并开放
GPT-4o更像“人”,AI“疾步”走向商业化应用
)等。OpenAI的CEO奥特曼称之为“人类级别的响应”。GPT-4o一出,各企业开始纷纷再度亮出“家伙什”了,微软宣布投资40亿欧元加码AI领域、谷歌一夜发布十几

OpenAI发布全新GPT-4o模型
近日,OpenAI宣布推出全新的GPT-4o模型,标志着人工智能领域的一大技术飞跃。这款模型不仅具备强大的生成能力,还能精准理解用户意图,提供智能化的回答。
OpenAI正式推出GPT-4o模型,支持实时音频、视觉和文本推理处理
紧接着,OpenAI总裁暨联合创始人Greg Brockman发布了详细演示,展示了两部搭载GPT-4o的设备如何实现语音或视频交互。
OpenAI推出面向所有用户的AI模型GPT-4o
在周一的直播盛会上,OpenAI揭开了其最新的人工智能模型GPT-4o的神秘面纱。这款新模型旨在为其著名的聊天机器人ChatGPT提供更强大、更经济的支持。GPT-4o是此前备受瞩目的
OpenAI全新GPT-4o能力炸场!速度快/成本低,能读懂人类情绪
电子发烧友网报道(文/李弯弯)当地时间5月13日,OpenAI举行春季发布会,宣布将推出桌面版ChatGPT,并发布全新旗舰AI模型GPT-4o
OpenAI发布GPT-4o模型,支持文本、图像、音频信息,速度提升一倍,价格不变
此外,该模型还具备128K的上下文记忆能力,知识截止日期设定为2023年10月。微软方面也宣布,已通过Azure OpenAI服务提供GPT-4o的预览版。
OpenAI发布GPT-4o模型,供全体用户免费使用
OpenAI首席技术官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具备与GPT-4相同的智能水平,且在文本、图像及语音处理方面有显著进步。
评论