0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

生成式人工智能推动,传英伟达今年将销售55万个H100 GPU

微云疏影 来源:综合整理 作者:综合整理 2023-08-17 10:22 次阅读

汤姆-夏德威尔(tom shadeware)表示,生成人工智能ai)热潮正在推进销售用于人工智能(ai)和高性能计算(hpc)的服务器,虽然有数十家公司获得利润,但nvidia将获得最大的利润。根据《金融时报》,预计英伟达到2023年为止,将销售价值数百亿美元的50万台高性能h100计算卡——gpu

据英伟达和台积的多位内部人士透露,英伟达计划在2023年在全球推出约55万个最新h100 gpu,其中大部分将出售给美国科技公司。英伟达对此没有发表评论。

虽然目前尚未确定gpu的准确配置,但nvidia h100 80gb hbm2e运算卡gpu (14592 cuda core, 26 fp64 tflops, 1513 fp16 tflops)的零售价格约为3万美元。但这款霍珀产品并不是该公司性能最好的霍珀产品,而是价格最低的产品。另外,在中国,一张这样的信用卡的售价为7万美元。

英伟达的高端h100产品包括h100 sxm 80gb hbm3 (16896 cuda core, 34 fp64 tflops, 1979 fp16 tflops)和h100 nvl 188gb hbm3双卡解决方案。这些配件是直接销售给富士康和宽达等服务器制造企业或在nvidia直接销售的服务器内部供应的。此外,nvidia还将推出由72 core grace处理器和h100 80gb hbm3e gpu计算卡组成的gh200 grace hofer。

nvidia没有公布h100 sxm、h100 nvl和gh200 grace hofer的价格,因为这取决于nvidia与特定客户的关系和商业关系。与此同时,nvidia即使以h100为基础的产品各销售3万美元,今年仅在最新电脑gpu的销售额有望达到165亿美元。但该公司并不只销售h100系列运算卡——gpu。

一些公司继续使用nvidia以前的a100计算卡gpu,以提高现有的部署,而不改变软件和硬件。还有中国专用的a800和h800。

英伟达的计算机gpu的销售额去向以及该公司今年将销售的计算机gpu数量虽然不能准确推测,但可以在一定程度上进行推测。英伟达的数据中心事业在2024年第一季度(以4月30日为准)获得了42.84万美元的收益。随着人工智能热潮的持续,nvidia的计算卡gpu的销售额将在2024年第二季度(以7月末为准)进一步增加。这将刷新英伟达数据中心部门的年度业绩纪录。

值得注意的是,由于英伟达的合作伙伴tsl使用cowos,目前几乎无法满足gpu计算卡的需求。由于许多公司希望为人工智能购买数万个计算卡gpu,这种供应可能不会持续很长一段时间。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4838

    浏览量

    102683
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4661

    浏览量

    128526
  • 人工智能
    +关注

    关注

    1789

    文章

    46544

    浏览量

    236819
收藏 人收藏

    评论

    相关推荐

    英伟发布新一代H200,搭载HBM3e,推理速度是H100两倍!

    兼容,在推理速度上几乎达到H100的两倍。H200预计将于明年二季度开始交付。此外,英伟还透露,下一代Blackwell B100
    的头像 发表于 11-15 01:15 3350次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>发布新一代<b class='flag-5'>H</b>200,搭载HBM3e,推理速度是<b class='flag-5'>H100</b>两倍!

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8卡的形式进行出售或出租,而在去年,这类服务
    的头像 发表于 10-28 15:42 186次阅读

    首批1024块H100 GPU,正崴集团将建中国台湾最大AI计算中心

    中国台湾当地正崴集团5月27日宣布,将与日本公司Ubitus共同打造人工智能(AI)计算中心,其中第一期导入128机柜,共计1024张英伟
    的头像 发表于 05-29 10:05 947次阅读

    德克萨斯大学创建一学术界最强大的生成人工智能研究中心

    近日,美国德克萨斯大学宣称他们创建一学术界最强大的生成人工智能(AI)研究中心,该中心配备600
    的头像 发表于 05-28 09:06 668次阅读

    英伟GB200芯片售价7美元,服务器单价或30

    汇丰银行分析师预测,英伟“入门级”B100 GPU的平均销售价将在3至3.5
    的头像 发表于 05-15 14:31 1619次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    药物设计、量子计算和生成 AI 等领域。 为了纪念杰出的数学家David H.Blackwell,英伟 Blackwell架构被明确设计
    发表于 05-13 17:16

    Meta率先使用英伟最新人工智能芯片

    近日,Meta向外媒透露,他们预计将在今年晚些时候收到英伟最新旗舰人工智能芯片的首批出货,这也标志着英伟
    的头像 发表于 03-22 10:16 491次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 3931次阅读

    【机器视觉】欢创播报 | 英伟拿下全球90%的AI芯片市场

    预计最高可能已经达到了90%,创下新高纪录。在目前的人工智能智能加速芯片市场,英伟的A100/H100
    的头像 发表于 02-01 11:29 658次阅读

    AI计算需求激增,英伟H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年耗电3740千瓦小时左右。如果英伟在2023年售出150
    的头像 发表于 12-28 09:29 2094次阅读

    英伟H100,没那么缺货了 !RTX 4090 ,大涨

    这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承诺以大型云提供商成本的一小部分提供 H100
    的头像 发表于 11-23 15:59 1610次阅读

    英伟推出用于人工智能工作的顶级芯片HGX H200

    近日,英伟推出了一款用于人工智能工作的顶级芯片HGX H200。新的GPU升级了需求巨大的H100
    的头像 发表于 11-15 14:34 1403次阅读

    英伟特供版芯片将上市:性能最高不到H100的20%

    本周四,一些媒体首次报道了英伟特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅度缩减。
    的头像 发表于 11-13 16:44 889次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>特供版芯片将上市:性能最高不到<b class='flag-5'>H100</b>的20%

    英伟新AI芯片H20综合算力比H100降80%

    但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidia的h100 gpu芯片低80%左右。h
    的头像 发表于 11-13 09:41 1613次阅读

    探秘英伟显卡的制造之路 | 英伟断供GPU,中国大模型何去何从?

    在当今时代,人工智能技术正以前所未有的速度发展,推动着各个领域的创新与变革。作为人工智能技术的核心引擎之一,高性能GPU扮演着至关重要的角色。在这个领域,
    的头像 发表于 11-03 11:23 1137次阅读
    探秘<b class='flag-5'>英伟</b><b class='flag-5'>达</b>显卡的制造之路 | <b class='flag-5'>英伟</b><b class='flag-5'>达</b>断供<b class='flag-5'>GPU</b>,中国大模型何去何从?