0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

“AI算力荒”解困的短、中、长策

脑极体 来源:脑极体 作者:脑极体 2023-04-19 09:12 次阅读

AI算力不够,已经是老大难问题。ChatGPT等大语言模型,掀起了新一轮“大炼模型”和“炼大模型”的热潮,又让本就不足的算力雪上加霜。

适用于AI计算的GPU供不应求,买不到卡的企业和科研机构嗷嗷待哺,买到了卡的企业不得不面对涨价,也被架在成本的火上烤。

目前,英伟达的GPU是AI计算最主流的硬件。有业内人士估算过,GPT-4模型仅满足日访问量的计算需求,就需要六万张英伟达A100,每一张价格在60-100万人民币,而A100和更强大的H100,这两款芯片此前都被列入了美国的禁止出口清单里。还好在英伟达的游说下,又能够在 2023 年 3 月 1 日之前继续给大陆提供 A100 产品

现在缓冲期已经到了,AI算力的局面是蜡烛两头烧,一边是越来越少的海外高性能芯片,一边是越来越多的大模型训推需求,究竟怎么办呢?

我知道很多普通网友很急,觉得又被卡脖子了,但大家确实不用那么急,为AI算力荒解困,业内其实已经探索出了短策、中策和长策。今天就来讲讲,如何见招拆招。

短策:开源节流,过紧日子

实事求是来说,最关键的AI芯片GPU被国际厂商垄断,市场占有率达到80%以上。而国产厂商虽然也有相应的产品,但要么还没有量产,无法满足规模应用的需求;要么性能跟海外先进产品的差异很大,实用中大概只能达到60%左右的水平。而中美博弈,短期内是不会有方向性的转变的,未来高性能芯片的封禁可能是常态。

所以结论就是,放弃幻想,接下来要准备过AI算力的紧日子了。

目前业内的应付办法有两种:

一是开源。

对于N卡,继续买,抓紧囤货。

国内头部互联网公司,尤其是已经推出了大模型的企业,都会进行20%左右的战略备货,储备了万片级别的英伟达A100芯片,所以算力基础都不差。某一线云厂商透露,现在自家有10万片的A100,能够满足好几个客户复现GPT的AI算力需求。

pYYBAGQ-h3iACMdZAABZ6Fou8yk726.jpg

此前国内区块链火爆,矿机厂商和数字货币贩子也买了大量英伟达GPU用来“挖矿”,听说也被一些AI公司紧急收了过来。而且,虽然缓冲期已到,但只要交付模式上商务合规,还是有可能继续用到先进产品的。

对于国产芯,加快上马,落地部署。

目前,国内的头部科技公司,已经开始筹备或落实,将寒武纪MLU370/590、燧原、百度昆仑芯、阿里平头哥等,部署到算力集群中,尽管占比还比较少,但国产芯的使用和适配已经开始了,随着合规及产能提速,也能满足AI并行计算的需求。

芯片的国产化替代,这一步迟早要走,大模型成了那个提前上马的变量。

二是节流。

既然AI基础设施跟大模型建设热潮之间有剪刀差,咱能不能把钱花在刀刃上呢?还真能。

OpenAI选择训大语言模型来实现通用人工智能,超大规模参数来达到“智能涌现”,堪称为“败家子儿式创新”。微软公司的博客中透露,2019 年微软宣布向 OpenAI 投资 10 亿美元,为了让OpenAI 能训练出越来越强大的模型,将28.5万个CPU和10000个GPU联接起来,造了一个超级计算集群。

背靠家大业大的微软,这么烧无可厚非。但放到中国语境下,或许我们还可以想一想,等这波GPT式热度消退,基础模型已经成型,那些烧钱打造的算力基础设施该何去何从?百亿万亿参数的大模型,部署到工厂、矿区、城市之类的行业场景,是不是也有相应的算力支撑?

冷静下来后,为AI算力“节流”,才是大模型真正落地的必经之路。

节流,有两个办法:一是大模型“瘦身”,通过剪枝让模型稀疏化、知识蒸馏对模型进行压缩,通过权重共享来减少参数量……总之,一旦一种技术路线被证明有效,那么很快就会有多种技术手段对其进行优化,让模型成本大幅下降。

最近加州大学伯克利分校打造的icuna (小羊驼)模型,就只用8张A100训练了一天时间,将130亿参数模型的训练成本,从1000美元降低至300美元。所以,模型“瘦身”可以有效减少单个模型的算力资源消耗。

二是硬件“压榨”,通过端到端优化,从AI芯片中“压榨”出更多性能,把有限的硬件用到极致,也是一种节流。

举个例子,主流的大模型,包括ChatGPT、GPT-4,都是以Transformer 架构为主,微软通过ONNX开源推理引擎的优化,可以将大语言模型的推理性能提高17倍。某***厂商针对Transformer结构特性进行优化,将芯片性能提升到原本的五倍以上,压缩显存30%以上。资源利用率更高,相当于在AI训练和推理时单位部署成本更低了。

总的来说,面对短期内“AI算力荒”,我们只能接受现实,正视差距,广积粮食,开源节流。

承认这一点没有什么好憋屈的,毕竟中国AI从零起步,到今天能跟no.1站在同一张牌桌,这才是我们熟悉的故事。

中策:兼容并包的全国算网

一双眼睛全盯着高性能GPU,会发现差距简直无从弥补,还在越拉越大。英伟达、英特尔AMD等已经将AI芯片支撑推进到了4nm,而***禁运,制程追不上,国内14nm制程将将量产,巧妇难为无米之炊。

但换个角度,可能就柳暗花明又一村。

大家可能还记得,去年东数西算工程正式启动,新型国家算力网络成了新的热点,我们也做过很多报道和分析。

当时我们就提到:实现先进算力的一体化、集约化、多样化供给,是“全国算力一盘棋”的题中之义。而这只是全国一体化大数据中心协同创新体系中的一环。

今天看来,通过几年时间,构建数网、数纽、数链、数脑、数盾,对于AI大模型的数据、算力、联接、商业化等多种挑战,是一种持续释放影响的“中策”。

本质上说,AI模型的训练推理是CPU+加速芯片。GPU的高并行性,可以成规模地处理AI工作负载,为深度学习加速,在进行模型的训练和推断时会更具有效率优势。英伟达的A100,在AI推理时吞吐量是CPU的249倍。

但这并不意味着,CPU不能做并行计算,加速芯片没有其他选择。

生成式AI的模型训练通常是在云端完成的,云端芯片以CPU+GPU异构计算为主。一些小型的模型是完全可以CPU训练的,可能训练速度慢一点,但确实可以用。

此外,ASIC芯片也很适合AI计算,目前还没有明显的头部厂商,国产厂商还有机会,很多企业开始推出自研的ASIC加速芯片。比如谷歌的TPU、英特尔的DPU、国内寒武纪的NPU、地平线的BPU等。

模型训练好之后,需要结合数据计算“推理”出各种结论。手机人脸识别认出“你是你”这个环节就是“端侧推理”,iPhone将相册上传到云端进行用户行为分析就是“云端推理”。

相对模型训练而言,推理阶段处理的是小批量数据,这时候GPU并行计算的性价比就不那么明显了,尤其是在边缘和终端大规模部署AI算法,是难以承受如此高的成本的。FPGA、ASIC等加速芯片,协助CPU来满足推理的计算需求,是具有竞争优势的。

这跟算网有什么关系呢?

划重点,在全国一体化算力网络体系的各种政策文件中,“算力多元化”的出现频率是非常高的。

多元化,一方面体现在多种计算架构,支持CPU、GPU、ASIC、FPGA等多种芯片的混合部署,充分发挥不同体系架构的优势;

另一方面,体现在多种算力,模型训练、边缘推理、数值模拟的不同场景需要不同的算力,AI算力、通用算力、高性能算力等综合配给,才能很好地支撑各类行业AI应用。

正如微软Azure高性能计算和人工智能产品负责人Nidhi Chappell所说,“让更大的模型训练更长的时间,意味着你不仅需要拥有最大的基础设施,还必须能够长期可靠地运行它”。

要长期可靠地保障AI算力资源,自然要发挥中国智慧——东方不亮西方亮,黑了南方有北方。通过全国一体化算力网络的建设,充分推动多种架构的落地部署,***的同步发展。

未来几年算网成型,对于保障算力供给,应对不可抗力,会起到非常关键的作用。

长策:长出那双手

理想化的角度来说,缓解AI算力荒的终极解决思路,肯定是造出对标国际一流水平的自研芯片。但这就像“中国什么时候能有自己的OpenAI”一样,是一个漫长的畅想。

漫长,指的不只是足够长的时间和耐心,给半导体行业足够多的钱,还要能吸纳全球顶尖的技术人才、全球优质的风险投资机构、计算机基础人才的培养、允许失败试错的创新氛围和兜底机制、充分信息化数字化的优质数据基础、繁荣的商业市场……这是一个社会工程。

那么,我们是不是就得一直这么憋屈呢?

当然不是。咱们除了“脖子”,还有“手”啊,就不能用自己的长处,去卡别人的脖子呢?

这双手,可能是新的计算体系。

今天,经典计算的“摩尔定律”已死,英伟达提出的“新摩尔定律”也面对AI算力供需的剪刀差有心无力。

光计算、类脑计算、量子计算等新计算体系,正在成为各国的重点布局方向。以量子计算为例,有望彻底解决经典计算的算力不足问题。

当然,总想着“弯道超车”大概率会翻车,提到这点只是想提醒一下,不要只盯着CPU/GPU这些已经被卡脖子的焦点领域,而忽视了其他路线,将路走窄了。毕竟谁能想到,当年游戏宅们追捧的显卡能卡住今天的AI计算市场呢?

英伟达GPU被发现可以用来跑AI之前,只有游戏发烧友会对N卡津津乐道,这种“无心插柳柳成荫”的结果,恰好说明了多技术路线创新的重要性,或许会在某条路上就发现惊喜。

这双手,也可能产业生态。

AI本来就是一个工程性、交叉性很强的学科,AI芯片要充分释放能力,除了更高制程的工艺,也离不开深刻理解行业用户的使用习惯,才能把软硬件做到位。

英伟达GPU的主流地位,与CUDA生态有直接关系。而CUDA的护城河正是软件堆栈,可以让研究人员和软件开发者更好地在GPU上编程,构建应用。

如果说AI算力问题,国产硬件的差距是明线,软件生态就是那条更难的暗线。

首先是软件,就拿大模型来说,下接底层算力硬件、操作系统和框架,上接行业应用,需要提供一整套从开发、应用、管理的全流程服务和工程化方法,而目前积累了全面技术栈的只有少数国内头部企业。

其次是生态,CUDA生态经过多年积累,在AI计算的绝对主导地位,而国内几个头部企业都有各自的AI生态。我们就曾遇到过这样的采访对象,一个工业企业的数字化案例中,既有A生态的一些软硬件,又有B生态的一些解决方案。多个生态并存,增加了产业的选项自由和安全感,也难免带来适配上的复杂度,以及一些重复性工作。

***硬件的突破或在旦夕之间,但软件生态的爆发却需要漫长的时间去酝酿。而一旦生态如同齿轮一样转起来了,吸纳更多产业资源和人才力量,很多软硬件创新都能加速发展。

大语言模型的这波热闹中,我有听到一些声音,说中国AI行业“浑身上下都是脖子”“一卡脖子就翻白眼,一开源就全球领先”。

很能理解大家“怒其不争”的心情,但实事求是地看,中国AI走到今天,靠的从来不是谁的施舍,是真的有一群人,在卡脖子时没有翻白眼,而是与禁令抢时间,与海外合作伙伴想对策,把***扶上马送一程。

如果说,无需担心“AI算力荒”,这是一种无视现实差距的盲目自信。但也确实不用一提算力、一提芯片,就萦绕着“生于忧患死于安乐”的焦虑气息。

星光不问赶路人,与其花时间自怜自哀,不如在有限的规则里,做力所能及的事。短策、中策、长策久久为功,这才是中国缓解“AI算力荒”的真实选择。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4686

    浏览量

    128654
  • AI
    AI
    +关注

    关注

    87

    文章

    29946

    浏览量

    268246
  • 算力
    +关注

    关注

    1

    文章

    917

    浏览量

    14713
  • ChatGPT
    +关注

    关注

    29

    文章

    1547

    浏览量

    7431
  • 大模型
    +关注

    关注

    2

    文章

    2298

    浏览量

    2412
收藏 人收藏

    评论

    相关推荐

    企业AI租赁是什么

    企业AI租赁是指企业通过互联网向专业的提供商租用所需的计算资源,以满足其AI应用的需求。
    的头像 发表于 11-14 09:30 95次阅读

    知存科技荣获2024AI层创新企业

    科技入榜【2024AI层创新企业】,凭借在创新存内计算芯片领域的高能效创新实践和亮眼
    的头像 发表于 11-06 15:30 275次阅读

    GPU开发平台是什么

    随着AI技术的广泛应用,需求呈现出爆发式增长。AI租赁作为一种新兴的服务模式,正逐渐成为
    的头像 发表于 10-31 10:31 113次阅读

    九章云极DataCanvas公司「包」产品璀璨亮相2024大会!

    九章云极DataCanvas公司技术专家向与会者详细介绍包的产品能力和创新模式,收获行业伙伴的高度认可。力作为AI时代的数字能源,将在行业应用和技术创新互相驱动下,迈入“
    的头像 发表于 09-29 14:44 719次阅读
    九章云极DataCanvas公司「<b class='flag-5'>算</b><b class='flag-5'>力</b>包」产品璀璨亮相2024<b class='flag-5'>中</b>国<b class='flag-5'>算</b><b class='flag-5'>力</b>大会!

    大模型时代的需求

    现在AI已进入大模型时代,各企业都争相部署大模型,但如何保证大模型的,以及相关的稳定性和性能,是一个极为重要的问题,带着这个极为重要的问题,我需要在此书中找到答案。
    发表于 08-20 09:04

    软通动力亮相2024国移动网络大会,共绘网络新蓝图

    4月28日至29日,以“网络点亮AI新时代”为主题的2024国移动网络大会在苏州隆重举
    的头像 发表于 05-06 10:20 444次阅读
    软通动力亮相2024<b class='flag-5'>中</b>国移动<b class='flag-5'>算</b><b class='flag-5'>力</b>网络大会,共绘<b class='flag-5'>算</b><b class='flag-5'>力</b>网络新蓝图

    DPU技术赋能下一代AI基础设施

    4月19日,在以“重构世界 奔赴未来”为主题的2024国生成式AI大会上,中科驭数作为DPU新型基础设施代表,受邀出席了中国智中心创
    的头像 发表于 04-20 11:31 796次阅读

    一图看懂星河AI数据中心网络,全面释放AI时代

    华为中国合作伙伴大会 | 一图看懂星河AI数据中心网络,以网强,全面释放AI时代
    的头像 发表于 03-22 10:28 698次阅读
    一图看懂星河<b class='flag-5'>AI</b>数据中心网络,全面释放<b class='flag-5'>AI</b>时代<b class='flag-5'>算</b><b class='flag-5'>力</b>

    数据语料库、算法框架和芯片在AI大模型的作用和影响

    数据语料库、算法框架和芯片的确是影响AI大模型发展的三大重要因素。
    的头像 发表于 03-01 09:42 962次阅读

    大茉莉X16-P,5800M大称王称霸

    Rykj365
    发布于 :2024年01月25日 14:54:52

    立足,聚焦AI!顺网科技全面走进AI时代

    “立足,聚焦AI”,顺网科技进军AI时代的号角已被吹响。 1月18日,顺网科技(300113.SZ)以“跃迁·向未来”为主题的战略升
    的头像 发表于 01-19 10:57 437次阅读
    立足<b class='flag-5'>算</b><b class='flag-5'>力</b>,聚焦<b class='flag-5'>AI</b>!顺网科技全面走进<b class='flag-5'>AI</b>智<b class='flag-5'>算</b>时代

    卫星通信序幕拉开,AI浪潮澎湃

    AI浪潮催生要求,基础设施需求持续提升。AIGC带来的超大需求拉动通信基础设施建设及扩容,光模块作为数据传输的基础部件,需求首先迎来
    发表于 01-03 10:22 351次阅读
    卫星通信序幕拉开,<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>浪潮澎湃

    AI应用的光模块产品

    以ChatGPT为代表的AI大模型应用普及将推动需求快速增长,服务器产业链是其中重要的受益环节之一,AI计算的普及将推动服务器产业链光模块向800G升级提速。
    的头像 发表于 01-02 15:32 486次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>应用<b class='flag-5'>中</b>的光模块产品

    弘信电子与AI服务器合资,助力国产芯片落地

    此外,弘信电子近期在AI业务上取得了突破性进展,这并非源自本土化的积累,而是依赖于团队敏锐的战略眼光和强烈的创新动力。此次投资是弘信电子在AI
    的头像 发表于 12-25 09:30 815次阅读

    浅谈为AI而生的存-体芯片

    大模型爆火之后,存一体获得了更多的关注与机会,其原因之一是因为存一体芯片的裸相比传统架构的AI芯片,能带来十倍以上的提升。
    发表于 12-06 15:00 365次阅读
    浅谈为<b class='flag-5'>AI</b>大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-体芯片