0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据中心AI芯片上升趋势能够持续多久呢?

SDNLAB 来源:SDNLAB 2024-01-24 16:26 次阅读

2024年很有可能成为AI芯片的元年。

有预测称,今年AI芯片可能会迎来强劲甚至迅猛的增长。然而,一个令人关注的问题是,这种上升趋势能够持续多久呢?

2023年底,AMD大胆地宣称,到2027年,数据中心AI芯片的总潜在市场(TAM)将达到4000亿美元,复合年增长率(CAGR)超过70%。这一预测引起了不同的反应,但也从侧面说明了大型语言模型(LLM)作为处理生成式人工智能(GenAI)应用核心的驱动力。

作为图形处理单元(GPU)市场的领导者,英伟达的成功证明了这些芯片的潜在市场规模。英伟达过去一年的股价上涨了217%,在过去三年增长了140%。

最新的11月财报中,英伟达公布的营收为181.2亿美元,其中数据中心营收为145.1亿美元。整体销售额同比增长206%,而数据中心销售额同期增长了279%。所有这些都证实了数据中心芯片的销售正经历急剧上升的趋势。然而,关键问题是,这个增长趋势是否能够达到4000 亿美元的高度。

英伟达在数据中心AI GPU市场至少占据80%的份额,未来三年预计将迎来巨大增长。然而,要实现高达4000亿美元的市场规模,英伟达的表现需要比目前更出色,同时其他厂商也需要超出预期。

竞争者不甘示弱

AMD

AMD 认为其将在未来三年内实现大幅增长。2023 年 12 月,AMD发布了MI300 系列芯片,旨在在推理方面超越英伟达的GPU。同时发布的另一款产品AMD Instinct MI300A加速处理单元(APU),将CPU和GPU核心与内存集成在一个平台中。

MI300X 专为云提供商和企业设计,专为生成式 AI 应用而打造,MI300X GPU 拥有超过 1500 亿个晶体管,以 2.4 倍的内存超越了英伟达的 H100。峰值内存带宽达到 5.3 TB/s ,是H100 3.3 TB/s 的 1.6 倍。

wKgaomWwyh2AanXtAAFoeSiXcEU384.jpg

AMD Instinct MI300A APU 配备 128GB HBM3 内存。据称,与之前的 M250X 处理器相比,MI300A 在 HPC 和 AI 工作负载上的每瓦性能提高了 1.9 倍。

AMD 总裁兼首席执行官苏姿丰 (Lisa Su) 在去年 10 月的公司第三季度电话会议上表示:“随着 2024 年的到来,我们预计收入将持续增长,而且主要来源将是AI。”“在AI领域,我们的客户覆盖面很广,包括从超大规模企业到原始设备制造商、企业客户以及一些新的人工智能初创企业。从工作负载的角度来看,我们希望 MI300 能够同时处理训练和推理工作负载。”

英特尔

英特尔上个月推出了AI芯片 Gaudi3 以及第五代 Xeon 处理器,作为进一步进军数据中心AI市场的一部分。

英特尔表示,Gaudi3 是专为深度学习和创建大规模生成人工智能模型而设计的下一代人工智能加速器,将与英伟达的 H100 和 AMD 的 MI300X 展开竞争。

英特尔声称Xeon 是唯一内置 AI 加速的主流数据中心处理器,全新第五代 Xeon 在多达 200 亿个参数的模型上提供高达 42% 的推理和微调能力。它也是唯一一款具有一致且不断改进的 MLPerf 训练和推理基准测试结果的 CPU。

Xeon的内置人工智能加速器,加上优化的软件和增强的遥测功能,可以为通信服务提供商、内容交付网络和包括零售、医疗保健和制造在内的广泛垂直市场实现更易于管理、更高效的高要求网络和边缘工作负载部署。

云厂商各显神通

AWS、谷歌等云厂商一直在为自己的大型数据中心打造定制芯片。一方面是不想过度依赖英伟达,另外针对自身需求定制芯片也有助于提高性能和降低成本。

AWS

亚马逊的AI芯片Trainium和Inferentia专为训练和运行大型人工智能模型而设计。

AWS Trainium2是 AWS 专门为超过 1000 亿个参数模型的深度学习训练打造的第二代机器学习 (ML) 加速器。AWS CEO Adam Selipsky 表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2 将在 AWS 云中由 16 个芯片组成的集群中的 EC Trn2 实例中使用,在 AWS 的 EC2 UltraCluster 产品中可扩展到多达 10万个芯片。AWS表示,10万个 Trainium 芯片可提供 65 exaflops 的计算能力,相当于每个芯片可提供 650 teraflops 的计算能力。

AWS Inferentia2 加速器与第一代相比在性能和功能方面实现了重大飞跃。Inferentia2 的吞吐量提高了 4 倍,延迟低至 1/10。

wKgZomWwyh2AAQ50AATwyIe9CyQ876.jpg

AWS Inferentia2 支持多种数据类型,包括 FP32、TF32、BF16、FP16 和 UINT8,还支持新的可配置 FP8 (cFP8) 数据类型,因为它减少了模型的内存占用和 I/O 要求。AWS Inferentia2 具有嵌入式通用数字信号处理器 (DSP),可实现动态执行,因此无需在主机上展开或执行控制流运算符。AWS Inferentia2 还支持动态输入形状,这对于输入张量大小未知的模型(例如处理文本的模型)至关重要。AWS Inferentia2 支持用 C++ 编写的自定义运算符。

谷歌

2023 年 12 月,谷歌发布最新的Cloud TPU v5p,并号称是迄今最强大的TPU。每个 TPU v5p Pod由 8,960 个芯片组成,采用 3D 环面拓扑,互连速度达 4,800 Gbps。与 TPU v4 相比,TPU v5p 的FLOPS 提高了 2 倍以上,高带宽内存 (HBM) 提高了 3 倍以上。

TPU v5p 专为性能、灵活性和规模而设计,训练大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍。此外,借助第二代SparseCores,TPU v5p训练嵌入密集模型的速度比 TPU v4 2快 1.9 倍。

wKgZomWwyh2AKBWwAAEk7HCtivA186.jpg

除了性能改进之外,TPU v5p 在每个 pod 的总可用 FLOP 方面的可扩展性也比 TPU v4 高 4 倍。与 TPU v4 相比,每秒浮点运算次数 (FLOPS) 加倍,并且单个 Pod 中的芯片数量加倍,可显著提高训练速度的相对性能。

wKgaomWwyh2AJzznAAVYDmdWezI186.jpg

微软

2023 年 11 月,微软推出了AI芯片Azure Maia 100。Maia 100 是 Maia AI 加速器系列中的首款产品。

Maia 采用 5 nm台积电工艺制造,拥有 1050 亿个晶体管,比 AMD MI300X AI GPU的 1530 亿个晶体管少约 30% 。微软表示,“Maia 支持我们首次实现低于 8 位数据类型(MX 数据类型),以便共同设计硬件和软件,这有助于我们支持更快的模型训练和推理时间。”

Maia 100 目前正在 GPT 3.5 Turbo 上进行测试,该模型也为 ChatGPT、Bing AI 工作负载和 GitHub Copilot 提供支持。微软正处于部署的早期阶段,还不愿意发布确切的 Maia 规范或性能基准。

总的来说,从AMD 4000亿美元市场的预测中至少可以得出三个结论:首先,数据中心仍是短期内AI芯片的焦点;其次,数据中心 AI芯片领域正急剧上升,尽管上升的幅度仍然是一个问题;第三, 英伟达将继续在该领域占据主导地位,但包括 AMD 在内的其他供应商正努力削弱其地位。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19157

    浏览量

    229094
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128688
  • 晶体管
    +关注

    关注

    77

    文章

    9631

    浏览量

    137830
  • HPC
    HPC
    +关注

    关注

    0

    文章

    311

    浏览量

    23681
  • AI芯片
    +关注

    关注

    17

    文章

    1859

    浏览量

    34906

原文标题:数据中心AI芯片市场有多大?

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AI数据中心的能源危机,需要更高效的PSU

    应用对算力的需求,推动了AI芯片算力不断提高,与此同时带来的是越来越高的功耗。单颗算力芯片的功耗,从过去的300W左右提升至如今的1000W,大功率AI
    的头像 发表于 11-04 02:21 3283次阅读

    当今数据中心新技术趋势

    当今数据中心的新技术趋势正以前所未有的速度推动着行业的变革与创新。随着云计算、大数据、人工智能等技术的快速发展,数据中心作为信息技术的核心基础设施,正面临着前所未有的机遇与挑战。 一、
    的头像 发表于 10-24 15:15 326次阅读

    数据中心AI时代转型:挑战与机遇

    随着人工智能(AI)的迅速发展和广泛应用,数据中心作为AI技术的基石,也面临着前所未有的挑战和机遇。为了满足AI的高性能和低延迟要求,数据中心
    的头像 发表于 07-24 08:28 446次阅读
    <b class='flag-5'>数据中心</b>的<b class='flag-5'>AI</b>时代转型:挑战与机遇

    AI时代,我们需要怎样的数据中心AI重新定义数据中心

    超过60%的中国企业计划在未来12至24个月内部署生成式人工智能。AI、模型的构建,将颠覆数据中心基础设施的建设、运维和运营。一个全新的数据中心智能化时代已经拉开序幕。
    发表于 07-16 11:33 658次阅读
    <b class='flag-5'>AI</b>时代,我们需要怎样的<b class='flag-5'>数据中心</b>?<b class='flag-5'>AI</b>重新定义<b class='flag-5'>数据中心</b>

    HNS 2024:星河AI数据中心网络,赋AI时代新动能

    华为数据通信创新峰会2024在巴库隆重举办,在“星河AI数据中心网络,赋AI时代新动能”主题论坛中,华为面向中东中亚地区发布星河AI
    的头像 发表于 05-15 09:15 597次阅读
    HNS 2024:星河<b class='flag-5'>AI</b><b class='flag-5'>数据中心</b>网络,赋<b class='flag-5'>AI</b>时代新动能

    苹果正在开发用于数据中心AI芯片

    苹果公司长期以来一直致力于自主研发芯片技术,最新的研发焦点已转移至数据中心服务器芯片。据悉,该项目的内部代号为ACDC,寓意着“数据中心苹果芯片
    的头像 发表于 05-13 10:59 435次阅读

    苹果正在研发全新数据中心AI芯片

    苹果正在秘密研发一款全新的数据中心AI芯片,这一项目在公司内部被称为“ACDC”,并且已经经过了数年的精心筹备。据华尔街日报的知情人士透露,这款芯片的设计目标是为了优化苹果
    的头像 发表于 05-08 09:40 382次阅读

    苹果自研数据中心AI芯片

    据可靠消息透露,苹果公司正秘密研发一款全新的AI芯片,旨在为其数据中心提供强大的算力支持。这款内部代号为ACDC(Apple Chips in Data Center)的芯片,预计将在
    的头像 发表于 05-07 14:44 351次阅读

    #mpo极性 #数据中心mpo

    数据中心MPO
    jf_51241005
    发布于 :2024年04月07日 10:05:13

    数据中心存储的趋势

    随着数据存储需求的持续增长,数据中心存储技术和架构不断发展以满足企业和消费者的需求。在本节中,我们将分析数据中心存储未来的一些关键趋势。 一
    的头像 发表于 03-18 17:39 510次阅读

    英飞凌推出高密度功率模块,为AI数据中心降本增效

    随着人工智能(AI)技术的飞速发展,全球数据生成量呈现出爆炸式增长,进而推动了芯片对能源需求的急剧上升。在这一背景下,英飞凌科技近日宣布推出TDM2254xD系列双相功率模块,旨在为
    的头像 发表于 03-12 09:58 727次阅读

    新加坡电信推出数据中心新品牌Nxera

    新加坡电信近日宣布推出全新的数据中心品牌Nxera,专注于开发人工智能数据中心。该公司去年12月5日已经宣布了开发第四代、高功率密度且可持续AI
    的头像 发表于 02-02 14:53 747次阅读

    让数字世界坚定运行 | 华为发布2024数据中心能源十大趋势

    碳绿色,并分享数据中心在部件、产品、系统和架构方面的技术演进趋势,凝聚共识,洞见未来。 华为数据中心能源领域总裁尧权 尧权表示,AI大模型时代,未来5年全球
    的头像 发表于 01-17 20:45 532次阅读
    让数字世界坚定运行 | 华为发布2024<b class='flag-5'>数据中心</b>能源十大<b class='flag-5'>趋势</b>

    Microchip CEO博文《AI将如何重新定义数据中心?》

    训练和运行的模型的大小,生成式AI的基础设施需求预计将比早期AI模型高出10到100倍。事实上,所有数据中心基础设施都受到这一趋势的影响,包括电力、HVAC、网络和物理布局。
    的头像 发表于 12-11 14:50 1309次阅读
    Microchip CEO博文《<b class='flag-5'>AI</b>将如何重新定义<b class='flag-5'>数据中心</b>?》

    浅谈云数据中心、智算数据中心、超算数据中心区别,分布式电源是趋势

    数据中心、智算数据中心、超算数据中心三者区别,分布式电源是趋势 大家都在聊云数据中心、智算数据中心
    的头像 发表于 11-29 14:20 1981次阅读
    浅谈云<b class='flag-5'>数据中心</b>、智算<b class='flag-5'>数据中心</b>、超算<b class='flag-5'>数据中心</b>区别,分布式电源是<b class='flag-5'>趋势</b>