微软近日曝光了其内部正在秘密研发的巨型AI模型——MAl-1,这款模型拥有惊人的5000亿参数。据微软首席技术官Kevin Scott确认,MAl-1的研发工作确实在稳步推进中,并且该模型并非简单继承自之前的Inflection模型,而是在其基础上进行了全新的研发。
值得一提的是,MAl-1大模型的研发工作由前谷歌DeepMind高管Mustafa Suleyman亲自挂帅,这无疑为该项目注入了强大的技术实力和丰富的经验。Mustafa Suleyman在DeepMind期间曾领导过多个重大项目,并以其卓越的技术洞察力和领导能力赢得了业界的广泛赞誉。
MAl-1的研发不仅展示了微软在人工智能领域的雄心壮志,也预示着AI技术即将迎来新的突破。随着MAl-1的逐步成熟和应用,我们有理由相信,微软将在人工智能领域取得更加辉煌的成就。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
微软
+关注
关注
4文章
6447浏览量
103261 -
AI
+关注
关注
87文章
27406浏览量
265109 -
大模型
+关注
关注
2文章
1858浏览量
1483
发布评论请先 登录
相关推荐
微软将推出自研AI大模型
微软正在紧锣密鼓地训练一款全新的自研人工智能大模型——“MAI-1”。据悉,这款模型规模庞大,足以与谷歌的Gemini和OpenAI的ChatGPT相媲美。
新火种AI|正面硬刚OpenAI与谷歌?微软竟然偷偷自研出5000亿参数大模型!
The Information 5月6日的报道,微软公司即将推出一款全新的AI模型产品,内部代号为MAI-1,其参数数量达到了惊人的5000亿。值得一提的是,这款大
![新火种AI|正面硬刚OpenAI与谷歌?<b class='flag-5'>微软</b>竟然偷偷自研出<b class='flag-5'>5000</b>亿<b class='flag-5'>参数</b>大<b class='flag-5'>模型</b>!](https://file1.elecfans.com//web2/M00/E5/18/wKgaomY-6meAcm3eAAC1MVThf9o200.jpg)
微软准备推出全新人工智能语言模型
微软近期传出消息,正在秘密研发一款全新的人工智能语言模型,这款模型在规模上预计将具备与谷歌和OpenAI等业界巨头相抗衡的实力。据悉,这款新模型在微
微软自研AI大模型即将问世
微软正悄然酝酿一项重大技术突破,据内部消息人士透露,公司正全力训练一款名为“MAI-1”的自研人工智能大模型。这款模型备受期待,其规模庞大,足以与谷歌的Gemini和OpenAI的ChatGPT等业界巨头一较高下。
![](https://file1.elecfans.com/web2/M00/E1/98/wKgZomY5m7eAOGnuAAKQ5_b47h0901.png)
微软MSN天气服务引入全新AI模型
微软在天气预测领域取得了突破性的进展,为MSN天气服务引入了全新的AI预测模型。该模型由微软Start团队精心研发,并基于他们在arXiv上发表的最新论文。这一创新
【大语言模型:原理与工程实践】揭开大语言模型的面纱
维基百科、网页内容和书籍等,不仅掌握了语言的语法、语义和上下文信息,还能生成结构连贯、语义合理的句子和段落。大语言模型的一个显著特点是其庞大的参数量,已达数亿甚至数十亿级别。这种规模赋予模型
发表于 05-04 23:55
优于10倍参数模型!微软发布Orca 2 LLM
微软发布 Orca 2 LLM,这是 Llama 2 的一个调优版本,性能与包含 10 倍参数的模型相当,甚至更好。
索尼PlayStation部门对微软收购动视的看法曝光
曝光的一份文件显示,PlayStation部门对于微软收购动视的观点颇为审慎。索尼评估这笔交易能带来“跨越式进步”,预见微软未来会构建移动手游商店,与苹果、谷歌展开竞争。
![索尼PlayStation部门对<b class='flag-5'>微软</b>收购动视的看法<b class='flag-5'>曝光</b>](https://file1.elecfans.com/web2/M00/B8/27/wKgZomWCSwiALAXhAAsSNBJt3-g665.png)
微软宣布推出一个27亿参数的语言模型Phi-2
Phi-2 是微软 “小语言模型(SLM)” 系列中的最新版本。第一个版本是拥有 13 亿参数的 Phi-1,针对基本的 Python 编码任务进行了微调。
发表于 12-15 09:46
•184次阅读
![<b class='flag-5'>微软</b>宣布推出一个27亿<b class='flag-5'>参数</b>的语言<b class='flag-5'>模型</b>Phi-2](https://file1.elecfans.com/web2/M00/B7/50/wKgZomV7sLKANLrjAAATMbpUxyE064.png)
【求助】自研RK3568工控板,原厂SDK的Linux启动失败
公司按照瑞芯微官方设计自研了一块3568工控板,主要的外设就原生两路GMAC外接了裕泰的8531SH,另外通过PCIE3X2外接了一个PCIE网卡。
开发板回板后跟硬件的同事一起调试原厂的SDK
发表于 10-09 08:29
迅为龙芯3A5000_7A2000运行国产Loongnix、银河麒麟、统信UOS以及实时系统翼辉SylixoS系统
显示器;另外内置一个网络PHY,片内集成了自研GPU,搭配32位DDR4显存接口最大支持16GB显存容量。
性能强:
采用全国产龙芯3A5000处理器,基于龙芯自主指令系统 (LoongArch@
发表于 09-26 10:33
使用bmpaddle转换模型时应该如何参数填写方式
,608,609]\"
–model参数到模型所在文件夹那一级;paddle模型有2种:组合式(combined model)和非复合式(uncombined model);组合式就是__model__
发表于 09-19 07:05
盘古大模型参数量有多少
盘古大模型参数量有多少 盘古大模型(PanGu-α)是由中国科学院计算技术研究所提供的一种语言生成预训练模型。该模型基于Transforme
评论