近日,昆仑万维公司宣布开源一款名为Skywork-MoE的稀疏大模型,该模型拥有高达2千亿参数,不仅性能强劲,而且推理成本更低,为人工智能领域带来了新的突破。
Skywork-MoE基于昆仑万维之前开源的Skywork-13B模型进行扩展,是首个完整应用并落地的开源千亿MoE大模型。MoE(Mixture of Experts)技术在此模型中得到了充分的应用,使得模型在处理复杂任务时能够更加高效和准确。
值得一提的是,Skywork-MoE还是首个支持用单台4090服务器推理的开源千亿MoE大模型。这一特性极大地降低了模型的使用门槛,使得更多的企业和研究机构能够轻松地使用这一强大的模型进行研究和应用。
昆仑万维公司表示,Skywork-MoE的模型权重和技术报告将完全开源,并免费提供给商业使用。这一举措将极大地推动人工智能领域的发展,为更多的企业和研究机构提供强大的技术支持和合作机会。
Skywork-MoE的开源不仅展示了昆仑万维公司在人工智能领域的技术实力,也体现了公司对于推动行业发展的坚定承诺。未来,我们期待看到更多基于Skywork-MoE的优秀应用和研究成果的出现。
-
人工智能
+关注
关注
1781文章
44998浏览量
232401 -
开源
+关注
关注
3文章
3040浏览量
41829 -
大模型
+关注
关注
2文章
1877浏览量
1502
发布评论请先 登录
相关推荐
中国电信与昆仑万维等联合发布星辰MaaS平台
浪潮信息发布“源2.0-M32”开源大模型
昆仑万维天工AI日活用户超过100万
昆仑万维天工3.0大模型性能显著提升,天工SkyMusic音乐模型亮相
昆仑万维天工大模型3.0将于4月17日公测,参数量高达4000亿
昆仑万维旗下Opera将推出全球首款非WebKit内核的iOS浏览器
昆仑万维发布新版MoE大语言模型天工2.0
对标OpenAI GPT-4,MiniMax国内首个MoE大语言模型全量上线
![对标OpenAI GPT-4,MiniMax国内首个<b class='flag-5'>MoE</b>大语言<b class='flag-5'>模型</b>全量上线](https://file1.elecfans.com/web2/M00/BC/CE/wKgZomWmMc2AcjinAAAczdFXXsY397.png)
介绍一款基于昆仑芯AI加速卡的高效模型推理部署框架
![介绍一款基于<b class='flag-5'>昆仑</b>芯AI加速卡的高效<b class='flag-5'>模型</b>推理部署框架](https://file1.elecfans.com/web2/M00/AA/48/wKgZomUt_SGACKw_AAA4nc2nV2o879.png)
评论