据Digitimes报道,因NVIDIA H100 GPU广泛应用于人工智能计算,造成其供需失衡。如今,根据台湾地区总经理Terence Liao介绍,近期该产品交货周期已大幅度缩短,由原先的3-4个月缩减为当前的2-3个月(即8-12周)。同时,服务器制造商也证实,相较于2023年几乎无法购买到H100的状况,目前供应紧张局面正逐渐得到缓解。
尽管交货周期有所缩短,Liao强调,人工智能硬件市场需求依然强劲。尽管价格较高,但人工智能服务器的采购量正在超过普通服务器。他指出,过长的交付周期是导致需求看似持续增长的主因。
值得关注的是,目前2-3个月的交货周期已是NVIDIA H100 GPU历史最短纪录。仅在半年前,等待期还长达11个月,大部分客户需等待近一年才能获得所需的人工智能GPU。
自2024年初起,H100 GPU交货周期持续明显缩短。今年初,等待期已由数月缩短至3-4个月;现今再度缩短一个月。按照此趋势,预计今年底或更早,无需再等待。
部分原因可能源于部分公司持有过多的H100 GPU库存,并选择出售以降低库存维护成本。此外,亚马逊云科技(AWS)提供云端租赁服务,使得用户能够更加便捷地使用H100 GPU,从而缓解了部分需求压力。
现阶段,仅有少数大型企业如OpenAI等仍受供应限制影响,因其正在开发自身的大型语言模型(LLM)。由于此类模型训练需大量GPU支持,故这些企业仍面临供应难题。
-
gpu
+关注
关注
28文章
4672浏览量
128551 -
服务器
+关注
关注
12文章
8947浏览量
85065 -
人工智能
+关注
关注
1789文章
46615浏览量
236960
发布评论请先 登录
相关推荐
评论