0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型对算力需求指数级增长,集群成必然选择

Carol Li 来源:电子发烧友网 作者:李弯弯 2024-01-23 00:21 次阅读

电子发烧友网报道(文/李弯弯)近年来,AIGC技术的火爆,代表着AI正在从感知理解世界向生成创造世界跃迁。在近日举办的全球人工智能算力论坛上,宝德计算信创BU副总裁邓克武谈到,AIGC产业发展创新正在加速,预计到2030年市场规模会到达万亿。然而随着AI技术的飞速发展,算力也成为了制约AI大模型应用普及的关键因素。

大模型重塑产业格局

在邓克武看来,AIGC产业发展预计将会经历三个阶段。第一个阶段是2023年到2025年,属于培育摸索期,该阶段主要以遵循指令性加工和拼接式为主,例如,播报类(语音合成的电子书)、数字人(支持多种类型任务的数字人)、营销推广等。

第二个阶段是2025年到2027年,这个时期会是AIGC的应用蓬勃期,该阶段主要以人机联合共创的模式为主,例如,各种类型的生成任务,以AI生成为基础进行迭代;行业生态完善,底层大模型对外开发。

第三阶段是2028年以后,这个时期为AIGC增长期,到这个时候,产业链逐渐完善,商业化场景持续拓展拓深,深入变革各行业,预计2030年市场规模超万亿。

邓克武认为,大模型将重构人工智能生产范式。他还提到“人工智能行业的二八定律”,即进入大模型时代,未来软件80% 的价值将由AI大模型提供,剩余20% 会由提示工程和传统业务开发组成。

同时,他认为,MaaS将重构商业化生态,大模型“训练基础设施-底层技术-基础应用-垂直应用”发展路线逐渐清晰。MaaS,即Model as a Service,模型即服务,能够降低AI应用开发门槛,重构AI产业的商业化结构生态,激发新的产业链分工和商业模式不断涌现。MaaS将可能成为未来大模型的主流商业模式。

wKgaomWuQcWAK2UiAAOkfzX9rA0549.jpg

随着大模型的发展,其应用也会逐步拓展,从初期To C现象级应用向通用To B应用,再向场景化To B应用发展。当然,这个过程也面临不同的挑战,To C应用的挑战在于用户商业付费挑战大:使用门槛较低,用户量大且接受度高,落地及成长速度快,但客户付费意愿偏低,商业闭环挑战大。To B应用的挑战在于和行业数据&应用的深度融合:行业数据积累、模型调测和行业应用集成均需要时间,但客户付费能力强,未来增长及盈利空间广阔。

wKgZomWuQc2AR164AANGfIPU7Rc847.jpg

算力集群化发展是必然趋势

目前,国内已有超100+企业在战略布局大模型机会。对于企业来说,需要准备迎接产业变革,构筑新的竞争优势。如何做呢?其一,对内提升自身业务效率与感知,即与自身行业、业务特点和需求等深度结合;其二,面向中小企业提供AI模型服务,通过API/三方插件吸引更多应用及数据,通过提供模型开发服务,深度切入行业,掌握行业经验和数据;其三,面向AI创业者/企业提供算力服务,满足企业AI算力需求,构筑数字基础设施格局。

算力方面,大算力集群是业界厂家AI模型开发的共同选择,如腾讯数万卡规模的星星海AI集群,阿里巴巴12EFLOPS的灵骏AI集群,百度4EFLOPS 百舸AI集群,商汤3.7EFLOPS AIDC集群,华为数万卡规模昇腾AI集群等。

在邓克武看来,大模型对算力的需求将指数级增长,AI算力将从单机走向集群时代。据邓克武介绍,大模型算力需求每两年以750倍增长,而硬件算力供给每两年仅增长3倍。比如,从ResNet-50(2500万参数),到GPT-1(1.7亿参数),再到GPT-4(万亿级参数),计算需求需要十倍,到千倍的增长,存储需求经历百倍,到千倍的增长。AI算力和数据中心集群发展,可以加速产业创新。

wKgaomWuQdeAEc6VAAMNjqXMsYk852.jpg

宝德计算作为中国领先的计算产品方案提供商,构建了自强昇腾高密算力平台,以支撑大模型系统工程建设。在上述论坛上,邓克武详细介绍了公司的两款服务器:PR420KI G2训练服务器和PR410EI 训练服务器。

PR420KI G2训练服务器CPU采用了4颗鲲鹏920处理器,NPU采用了8颗昇腾910,节点内互联采用HCCS Full mesh互联高速网络;PR410EI 训练服务器CPU采用2颗第四代Intel至强可拓展处理器Sapphire Rapids,NPU采用8颗昇腾910,节点内互联采用HCCS Full mesh互联高速网络。

同时,他还介绍了公司的Pod集群组网,以256台训练服务器为例,共计2048颗Ascned910芯片。分成16组,每组16台服务器,里面放置一个完整的模型,每组之间采用数据并行;每组16台服务器,采用模型并行,每台服务器放1/16的模型。

wKgZomWuQeGAHZa7AANDrZbF8yY786.jpg

据邓克武介绍,宝德面向多种大模型部署方式,还构建了差异化解决方案。此外,公司联合生态伙伴不断深化合作,成功实践了100多个AI项目,涵盖了电力、安平、教育、金融、互联网、智慧城市等行业,宝德将继续探索更多行业和细分领域智能化实践,共同加速AI行业智能化升级和落地。

写在最后

经过一年多时间的发展,大模型商业化应用已经成为业界探索的焦点,并且已经进展明显。与此同时,随着大模型训练和部署的持续加速,这对算力的需求也会大幅增长。为了满足大模型训练和部署需求,集群成为厂家模型开发的共同选择。而能够为各种大模型部署提供算力支持的企业也必然会乘风而起。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    27398

    浏览量

    265097
  • 算力
    +关注

    关注

    1

    文章

    724

    浏览量

    14451
  • AIGC
    +关注

    关注

    1

    文章

    287

    浏览量

    1242
  • 大模型
    +关注

    关注

    2

    文章

    1855

    浏览量

    1482
收藏 人收藏

    评论

    相关推荐

    国产千卡GPU集群完成大模型训练测试,极具高兼容性和稳定性

    电子发烧友网报道(文/李弯弯)随着人工智能技术的快速发展,对于计算能力的需求日益增长。特别是在大模型训练方面,对算力的需求更是呈现指数
    的头像 发表于 06-11 07:50 2587次阅读
    国产千卡GPU<b class='flag-5'>集群</b>完成大<b class='flag-5'>模型</b>训练测试,极具高兼容性和稳定性

    万卡集群解决大模型训算力需求,建设面临哪些挑战

    解决大模型训练对算力需求的巨大增长问题,尤其是现在模型参数量从百亿级、千亿级迈向万亿级。   国内外企业积极构建万卡集群   目前,在国际上
    的头像 发表于 06-02 06:18 3435次阅读
    万卡<b class='flag-5'>集群</b>解决大<b class='flag-5'>模型</b>训算力<b class='flag-5'>需求</b>,建设面临哪些挑战

    存内计算WTM2101编译工具链 资料

    工艺条件下将AI计算效率提升2个数量级,充分满足快速发展的神经网络模型指数增长
    发表于 05-16 16:33

    液冷是大模型对算力需求必然选择?|英伟达 GTC 2024六大亮点

    在这个以高性能计算和大模型推动未来通用人工智能时代,算力已成为科技发展的隐形支柱。本文将重点探讨算力的演进,深入分析在不同领域中算力如何成为推动进步的基石;着眼于液冷如何突破算力瓶颈成为引领未来
    的头像 发表于 04-10 12:57 159次阅读
    液冷是大<b class='flag-5'>模型</b>对算力<b class='flag-5'>需求</b>的<b class='flag-5'>必然选择</b>?|英伟达 GTC 2024六大亮点

    iBeLink KS MAX 10.5T大领跑KAS新领域

    打造。这种芯片可以在存储和计算之间实现高速的数据交换,从而提高了运算效率和稳定性。iBeLink ks max10.5T还拥有三档可调的性能模式,可以根据不同的局域网难度和电价,选择合适的和功耗
    发表于 02-20 16:11

    大茉莉X16-P,5800M大称王称霸

    Rykj365
    发布于 :2024年01月25日 14:54:52

    小家电健康智能电源管理ic的必然选择—U6205D

    曾经头部的传统家电品牌市场占有量已趋于成熟,难以满足消费者日益变化的产品需求。因此,在科技升级和消费需求提升的双驱动之下,具备新功能的集成化、智能化、健康化的产品成为了小家电产品升级的必然方向
    的头像 发表于 12-12 16:04 554次阅读

    2G/3G退网是移动通信网更新换代的必然选择

    对此,工信部对于2G/3G退网给出了明确的答案:自2019年6月我部颁发了5G牌照,中国5G商用正式商用。我国移动通信步入2G、3G、4G、5G“四代同堂”阶段。按照工信部的说法,2G/3G退网是移动通信网更新换代的必然选择,也是当前国际上的主要做法。
    的头像 发表于 12-06 15:59 393次阅读

    工信部:2G/3G退网是移动通信网更新换代的必然选择

    第一,2G/3G退网是移动通信网更新换代的必然选择,也是当前国际上的主要做法。据不完全统计,全球已有100多个运营商实施了2G/3G退网,将2G/3G腾退的频率用于4G/5G的部署。
    的头像 发表于 12-05 15:37 355次阅读
    工信部:2G/3G退网是移动通信网更新换代的<b class='flag-5'>必然选择</b>

    400G方案能满足AI大模型需求吗?

    从2022年以来,随着AIGC应用在业内的关注度呈指数增长。国内已经有上百家公司纷纷投入资源,推出自己的大模型,号称“百模大战”。AIGC应用对互联网速度及带宽的需求也在日益
    发表于 10-19 09:42 150次阅读

    碳化硅(SiC)需求迎来指数增长

    由于政府对气候变化的要求以及可能更重要的是消费者需求指数增长,汽车原始设备制造商(OEMs)计划将电池电动车型转为未来10至15年主要销售的汽车。这种电气化转型正日益定义了汽车动力半导体的整体
    的头像 发表于 09-28 11:23 588次阅读
    碳化硅(SiC)<b class='flag-5'>需求</b>迎来<b class='flag-5'>指数</b>级<b class='flag-5'>增长</b>

    Kubernetes集群中如何选择工作节点

    简要概述: 本文讨论了在Kubernetes集群选择较少数量的较大节点和选择较多数量的较小节点之间的利弊。
    的头像 发表于 08-28 15:46 412次阅读
    Kubernetes<b class='flag-5'>集群</b>中如何<b class='flag-5'>选择</b>工作节点

    用于快速模型模型调试器11.20版用户指南

    用于快速模型模型调试器是用于可扩展集群软件开发的完全可重定目标的调试器。它旨在满足SoC软件开发人员的需求。 Model Debugger具有易于使用的GUI前端,并支持: •源代码
    发表于 08-10 06:33

    用于快速模型模型调试器11.21版用户指南

    用于快速模型模型调试器是用于可扩展集群软件开发的完全可重定目标的调试器。它旨在满足SoC软件开发人员的需求。 Model Debugger具有易于使用的GUI前端,并支持: •源代码
    发表于 08-09 07:57

    适用于快速模型模型调试器用户指南

    用于快速模型模型调试器是用于可扩展集群软件开发的完全可重定目标的调试器。它旨在满足SoC软件开发人员的需求。 Model Debugger具有易于使用的GUI前端,并支持: •源代码
    发表于 08-08 06:28