0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型对算力需求指数级增长,集群成必然选择

Carol Li 来源:电子发烧友网 作者:李弯弯 2024-01-23 00:21 次阅读

电子发烧友网报道(文/李弯弯)近年来,AIGC技术的火爆,代表着AI正在从感知理解世界向生成创造世界跃迁。在近日举办的全球人工智能算力论坛上,宝德计算信创BU副总裁邓克武谈到,AIGC产业发展创新正在加速,预计到2030年市场规模会到达万亿。然而随着AI技术的飞速发展,算力也成为了制约AI大模型应用普及的关键因素。

大模型重塑产业格局

在邓克武看来,AIGC产业发展预计将会经历三个阶段。第一个阶段是2023年到2025年,属于培育摸索期,该阶段主要以遵循指令性加工和拼接式为主,例如,播报类(语音合成的电子书)、数字人(支持多种类型任务的数字人)、营销推广等。

第二个阶段是2025年到2027年,这个时期会是AIGC的应用蓬勃期,该阶段主要以人机联合共创的模式为主,例如,各种类型的生成任务,以AI生成为基础进行迭代;行业生态完善,底层大模型对外开发。

第三阶段是2028年以后,这个时期为AIGC增长期,到这个时候,产业链逐渐完善,商业化场景持续拓展拓深,深入变革各行业,预计2030年市场规模超万亿。

邓克武认为,大模型将重构人工智能生产范式。他还提到“人工智能行业的二八定律”,即进入大模型时代,未来软件80% 的价值将由AI大模型提供,剩余20% 会由提示工程和传统业务开发组成。

同时,他认为,MaaS将重构商业化生态,大模型“训练基础设施-底层技术-基础应用-垂直应用”发展路线逐渐清晰。MaaS,即Model as a Service,模型即服务,能够降低AI应用开发门槛,重构AI产业的商业化结构生态,激发新的产业链分工和商业模式不断涌现。MaaS将可能成为未来大模型的主流商业模式。

wKgaomWuQcWAK2UiAAOkfzX9rA0549.jpg

随着大模型的发展,其应用也会逐步拓展,从初期To C现象级应用向通用To B应用,再向场景化To B应用发展。当然,这个过程也面临不同的挑战,To C应用的挑战在于用户商业付费挑战大:使用门槛较低,用户量大且接受度高,落地及成长速度快,但客户付费意愿偏低,商业闭环挑战大。To B应用的挑战在于和行业数据&应用的深度融合:行业数据积累、模型调测和行业应用集成均需要时间,但客户付费能力强,未来增长及盈利空间广阔。

wKgZomWuQc2AR164AANGfIPU7Rc847.jpg

算力集群化发展是必然趋势

目前,国内已有超100+企业在战略布局大模型机会。对于企业来说,需要准备迎接产业变革,构筑新的竞争优势。如何做呢?其一,对内提升自身业务效率与感知,即与自身行业、业务特点和需求等深度结合;其二,面向中小企业提供AI模型服务,通过API/三方插件吸引更多应用及数据,通过提供模型开发服务,深度切入行业,掌握行业经验和数据;其三,面向AI创业者/企业提供算力服务,满足企业AI算力需求,构筑数字基础设施格局。

算力方面,大算力集群是业界厂家AI模型开发的共同选择,如腾讯数万卡规模的星星海AI集群,阿里巴巴12EFLOPS的灵骏AI集群,百度4EFLOPS 百舸AI集群,商汤3.7EFLOPS AIDC集群,华为数万卡规模昇腾AI集群等。

在邓克武看来,大模型对算力的需求将指数级增长,AI算力将从单机走向集群时代。据邓克武介绍,大模型算力需求每两年以750倍增长,而硬件算力供给每两年仅增长3倍。比如,从ResNet-50(2500万参数),到GPT-1(1.7亿参数),再到GPT-4(万亿级参数),计算需求需要十倍,到千倍的增长,存储需求经历百倍,到千倍的增长。AI算力和数据中心集群发展,可以加速产业创新。

wKgaomWuQdeAEc6VAAMNjqXMsYk852.jpg

宝德计算作为中国领先的计算产品方案提供商,构建了自强昇腾高密算力平台,以支撑大模型系统工程建设。在上述论坛上,邓克武详细介绍了公司的两款服务器:PR420KI G2训练服务器和PR410EI 训练服务器。

PR420KI G2训练服务器CPU采用了4颗鲲鹏920处理器,NPU采用了8颗昇腾910,节点内互联采用HCCS Full mesh互联高速网络;PR410EI 训练服务器CPU采用2颗第四代Intel至强可拓展处理器Sapphire Rapids,NPU采用8颗昇腾910,节点内互联采用HCCS Full mesh互联高速网络。

同时,他还介绍了公司的Pod集群组网,以256台训练服务器为例,共计2048颗Ascned910芯片。分成16组,每组16台服务器,里面放置一个完整的模型,每组之间采用数据并行;每组16台服务器,采用模型并行,每台服务器放1/16的模型。

wKgZomWuQeGAHZa7AANDrZbF8yY786.jpg

据邓克武介绍,宝德面向多种大模型部署方式,还构建了差异化解决方案。此外,公司联合生态伙伴不断深化合作,成功实践了100多个AI项目,涵盖了电力、安平、教育、金融、互联网、智慧城市等行业,宝德将继续探索更多行业和细分领域智能化实践,共同加速AI行业智能化升级和落地。

写在最后

经过一年多时间的发展,大模型商业化应用已经成为业界探索的焦点,并且已经进展明显。与此同时,随着大模型训练和部署的持续加速,这对算力的需求也会大幅增长。为了满足大模型训练和部署需求,集群成为厂家模型开发的共同选择。而能够为各种大模型部署提供算力支持的企业也必然会乘风而起。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    29665

    浏览量

    267994
  • 算力
    +关注

    关注

    1

    文章

    892

    浏览量

    14685
  • AIGC
    +关注

    关注

    1

    文章

    352

    浏览量

    1470
  • 大模型
    +关注

    关注

    2

    文章

    2258

    浏览量

    2332
收藏 人收藏

    评论

    相关推荐

    国产千卡GPU集群完成大模型训练测试,极具高兼容性和稳定性

    电子发烧友网报道(文/李弯弯)随着人工智能技术的快速发展,对于计算能力的需求日益增长。特别是在大模型训练方面,对
    的头像 发表于 06-11 07:50 3104次阅读
    国产千卡GPU<b class='flag-5'>集群</b>完成大<b class='flag-5'>模型</b>训练测试,极具高兼容性和稳定性

    GPU开发平台是什么

    随着AI技术的广泛应用,需求呈现出爆发式增长。AI租赁作为一种新兴的服务模式,正逐渐成为
    的头像 发表于 10-31 10:31 78次阅读

    【「大模型时代的基础架构」阅读体验】+ 未知领域的感受

    算法的引擎GPU、GPU硬件架构剖析、GPU服务器的设计与实现、GPU集群的网络设计与实现、GPU板卡调度技术、基于云平台的GPU集群
    发表于 10-08 10:40

    模型时代的需求

    现在AI已进入大模型时代,各企业都争相部署大模型,但如何保证大模型,以及相关的稳定性和性能,是一个极为重要的问题,带着这个极为重要的问
    发表于 08-20 09:04

    名单公布!【书籍评测活动NO.41】大模型时代的基础架构:大模型中心建设指南

    工作日内未联系,视为放弃本次试用评测资格! 书籍介绍 大模型是近年来引人注目的热点之一。大模型蓬勃发展的基础,是针对其需求设计的及基础架
    发表于 08-16 18:33

    服务器为什么选择GPU

    随着人工智能技术的快速普及,需求日益增长。智中心的服务器作为支撑大规模数据处理和计算的核心设备,其性能优化显得尤为关键。而GPU服务器
    的头像 发表于 07-25 08:28 455次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>服务器为什么<b class='flag-5'>选择</b>GPU

    从千卡集群卡到万卡集群,燧原科技打造更好的AI底座

    电子发烧友网报道(文/吴子鹏)是新质生产的代表,随着以ChatGPT为代表的Transformer架构大模型的参数规模越来越大,对计算资源的
    的头像 发表于 07-07 09:45 2125次阅读
    从千卡<b class='flag-5'>集群</b>卡到万卡<b class='flag-5'>集群</b>,燧原科技打造更好的AI<b class='flag-5'>算</b><b class='flag-5'>力</b>底座

    万卡集群解决大模型需求,建设面临哪些挑战

    解决大模型训练对需求的巨大增长问题,尤其是现在模型参数量从百亿
    的头像 发表于 06-02 06:18 4497次阅读
    万卡<b class='flag-5'>集群</b>解决大<b class='flag-5'>模型</b>训<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>需求</b>,建设面临哪些挑战

    摩尔线程张建中:以国产助力数智世界,满足大模型需求

    摩尔线程创始人兼CEO张建中在会上透露,为了满足国内对AI的迫切需求,他们正在积极寻求与国内顶尖科研机构的深度合作,共同推动更大规模的AI智
    的头像 发表于 05-10 16:36 785次阅读

    北京:规划建设支撑万亿参数大模型训练需求的超大规模智集群

    ”局面,集中建设一批智单一大集群,到2025年,本市智供给规模达到45EFLOPS,2025-2027年根据人工智能大模型发展需要和国家相关部署进一步优化
    的头像 发表于 04-29 08:26 283次阅读
    北京:规划建设支撑万亿<b class='flag-5'>级</b>参数大<b class='flag-5'>模型</b>训练<b class='flag-5'>需求</b>的超大规模智<b class='flag-5'>算</b><b class='flag-5'>集群</b>

    液冷是大模型需求必然选择?|英伟达 GTC 2024六大亮点

    在这个以高性能计算和大模型推动未来通用人工智能时代,已成为科技发展的隐形支柱。本文将重点探讨的演进,深入分析在不同领域中
    的头像 发表于 04-10 12:57 456次阅读
    液冷是大<b class='flag-5'>模型</b>对<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>需求</b>的<b class='flag-5'>必然选择</b>?|英伟达 GTC 2024六大亮点

    英伟达GB200芯片引领铜缆高速连接热潮!

    人工智能时代到来,AI大模型批量商业化落地,带动需求指数
    的头像 发表于 04-02 11:45 1390次阅读

    中国电信规划在上海建设首个国产超大规模液冷集群

    中国电信规划建设首个国产超大规模液冷集群 人工智能技术的快速发展催生了巨大的需求;中国电
    的头像 发表于 02-22 18:48 1286次阅读

    智能规模超通用,大模型对智能提出高要求

    的缩写,即每秒所能够进行的浮点运算数目(每秒浮点运算量)。   可以分为通用、智能
    的头像 发表于 02-06 00:08 5896次阅读

    PODsys:大模型AI平台部署的开源“神器”

    模型是通用人工智能的底座,但大模型训练对平台的依赖非常大。大模型
    的头像 发表于 11-08 09:17 827次阅读
    PODsys:大<b class='flag-5'>模型</b>AI<b class='flag-5'>算</b><b class='flag-5'>力</b>平台部署的开源“神器”