0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何取替英伟达?如何颠覆英伟达?

ZYNQ 来源:半导体行业观察 2023-07-10 11:21 次阅读

随着生成式AI的火热以及英伟达市值冲破万亿美元,如何取替英伟达,成为AI芯片市场新贵,又成为了一个热门话题

以下为文章原文摘录:

看到英伟达这个万亿美元的市值,我想没有任何人敢说他不想要。。。。。。想要,就得琢磨琢磨怎么才能造他娘的反。

王侯将相宁有种乎!

你得盘个逻辑,提个口号才能举旗,得想办法证明旧社会的不足和新社会的先进性才有机会。

不知道多少人分析过Nvidia的GPU的成本,我们以最新的Hopper H100为例。大致上,为了跑AI大模型,你从Nvidia手上购买到的是如下这样的一张卡,他叫做SXM5模组,单手就能拿捏的样子。

这个模组附带了大量的供电VRM,也通常会使用相对高阶的PCB保证供电的铜损最小。最中间的差不多就是一颗Hopper GPU芯片,看得出由7颗Die用chiplet方式封装,分别是1颗logic Die和6颗HBM。

把他的成本打开,SXM的成本不会高于300$,封装的Substrate及CoWoS大约也需要$300,中间的Logic Die最大颗,这是一颗看起来非常高贵的die,使用4nm工艺打,尺寸为814mm2,TSMC一张12英寸Wafer大致上可以制造大约60颗这个尺寸的Die,Nvidia在Partial Good上一向做得很好(他几乎不卖Full Good),所以这60颗大致能有50颗可用,Nvidia是大客户,从TSMC手上拿到的价格大约是$15000,所以这个高贵的Die大约只需要$300。哦,只剩下HBM了,当前DRAM市场疲软得都快要死掉一家的鬼样了,即使是HBM3大抵都是亏本在卖,差不多只需要$15/GB,嗯,80GB的容量成本是$1200。

你掐指一算……

凸(艹皿艹 ),你花钱到底买到的是什么?这居然是一个投机倒把倒卖DRAM的货,整颗GPU物料成本中DRAM占了~60%,而且这DRAM的容量,80GB,它是个啥?够个屁啊,老黄还骗我买8张卡来存放一个GPT3大模型。

高贵的黄教主啊,想不到你是个高价倒卖DRAM的二手贩子啊........Grace把LPDDR也集成进去了,是不是这集成的LPDDR不得也比标准DDR DIMM贵个几倍?

所以,要革Nvidia命的第一步,就应该从DRAM出手,如果我做把DRAM成本做到更合理的结构,并且再把容量做大到更少的芯片数量就能存放大模型。

这天,我能翻。

就前几天,聪明绝顶的GraphCore联合创始人兼CTO为众多竞争者指出了一条路,如下:

013a36ec-1eca-11ee-962d-dac502259ad0.png

看到没,LPDDR定制一下是可以做到50% HBM的带宽,但是容量远大于HBM的,剩下你只要在AI大模型的存/算带宽容量比上做到最好就行。

不过。。。。。。。他自己为啥不做?

因为一颗H100 GPGPU虽然成本只有 ~$2000,但它在市场上的售价是 ~$30000,在15倍的暴利面前,你想用降成本的方式来获取竞争力。嗯,假设你做一颗成本$1000,比H100性价比更高的DSA,能打赢吗?

客户他又不是傻子,他愿意用$30000的价格买一个$2000成本的东西,他真的会图你的成本能再降低$1000 ?

这个巨大的溢价空间,并非源自GPGPU本身,而来自于其背后的巨大黑手,一个复杂的系统,这个系统本身,甚至潜移默化影响了用户的算法

Nvidia是一个伪装成卖Device,但真实是在卖一个system的公司。Apple也是。

只有打掉这个系统才有可能破解其成本,想一想,iOSAndroid,Windows有Linux,cuda却没有开源路径……

一计不成,再生一计。我再治他一个system的阉人之罪。

回到中国本土市场,你注意到老黄最近在呼吁,美国政府对中国的技术管制要三思而后行。嗯,网传老黄差点就来大陆炒光模块的A股了。

逻辑是没问题的,美国的技术管制大概率Nvidia是参与了,所以他才那么在美国发布管制时,第一时间推出了A800、H800这样的数字对中国人是好意头的芯片型号,这种体贴AMD苏妈妈就慢了一拍(苏妈妈推出了mi388……)。

美国技术管制的约束大致是芯片总带宽要小于600GB/s(双向)。

GPU A100的Nvlink带宽是600GB/s,考虑到PCIe不能裁,A800的Nvlink被限制到400GB/s(12Lane降低到8Lane)。

这还好,洒洒水啦。

H100相比A100算力FP16从300T增加到接近1P,Nvlink带宽从600GB/s提升到900GB/s,咔嚓一刀,H800的Nvlink带宽还是得降低到400GB/s。

有点憋屈,但是我作为骄傲的中国客户,为了图8这个吉利,连4这个数字都能忍了。

我记得我列过几次大模型训练的结构,以GPT3为例,大致上用1024张A100训练GPT,8P一个Node,在Node内模型并行, 然后按8个8P(64P)做8级流水并行,然后16组8x8做Batch 16的数据并行。。。。。。

015fed1a-1eca-11ee-962d-dac502259ad0.png

H100的下一代是B100,它的FP16算力大致上从900T提升到了~2P Flops附近。

哦豁,在这个算力下如果B800只有400GB/s的Nvlink带宽,基本上Tensor并行这个训练行为就没法正常执行了,各大厂商走过路过想一下啊,B800你还要再下10亿美元的单吗?

大概Nvidia和US政府定规则的时候,只考虑了Ampere和Hopper,没把摩尔定律算进去。

所以这个破绽很简单,坏人不让我们做的,我们就越要发展。单芯片的IO能力怼上去啊,600GB不够就上1TB,把互联做得大大的,8P的模型并行不够,直接来16P、32P的大互联。

有人会说:这样是不是有点不公平?嗯,美国卡中国是公平的,反过来利用一下反而不公平了?如果能给老黄一个猴子偷桃就一定要偷。

黄教主近期在台北发布了GH200,就有很多黄粉大吹特吹不是?然后呢?这块芯片的带宽是超标美国对中国技术管制的……嗯,老黄在中国发布了不能卖给中国的产品。很公平?

还有人会说:如果真这么做了,美国就会放松技术管制了。我只能说,如果你不做,技术管制不会凭空的放开,你只有做了,才有放开的一天。

当然,你说,革命之事,你求的本就是天下,不是一城一池。那是。

Nvidia看长远,最大的破腚,其实是基尼系数太高,不患贫而患不均。

TSMC曾经讲过一个故事。台湾同胞辛辛苦苦攒钱建厂,一张4nm那么先进的工艺哦,才能卖到$15000,但是那某个客户拿去噢,能卖出$1500000($30000*50)的货啦,机车,那样很讨厌耶。你懂我意思吗?

就如最开始说的,在这个世界的商业规则下,$2000成本的东西卖$30000,只有一家,销售量还很大,这是不符合逻辑的,这种金母鸡得有航母才守得住。

天下财共一石,老黄独占八斗。

这是对全天下IT产业的伤害,包括TSMC,一个健康的产业,其整个环节是需要一个合理的分配比例的,你要说Logic制造的技术含量最高,但是分成的收益却不到1%,这种分配关系不足以长期维系,tsmc的工艺演进是需要钱的(靠的就是大家共筹,利益均分),如果全世界IT就这么多钱,英伟达你是可以通过系统优势拿走更多,但产业链中tsmc及其他各个环节就会更加艰难。三星的HBM其实同理,操了白粉的心,卖个白菜的价,不值得。

嗯,不过tsmc没钱发展工艺对我们也不是坏事。或者说把芯片制造行业打到毛利接近零,那全世界只有中国人能做,也挺好。

摩尔定律之下,长期稳定地挤牙膏才是发展的王道(当然Intel最终也没挤好,但如果Intel如果过早把牙膏都挤了,死得更早)。

一个人过早获得了超额的财富,剩下就看他能不能守得住了 :) 从历史来看,很难的。

AI这个行业,也终将,昔日王榭堂前燕 飞入寻常百姓家。这是大势。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • pcb
    pcb
    +关注

    关注

    4318

    文章

    23045

    浏览量

    396592
  • VRM
    VRM
    +关注

    关注

    0

    文章

    30

    浏览量

    12669
  • 英伟达
    +关注

    关注

    22

    文章

    3750

    浏览量

    90899
  • AI芯片
    +关注

    关注

    17

    文章

    1862

    浏览量

    34939
  • chiplet
    +关注

    关注

    6

    文章

    420

    浏览量

    12563

原文标题:如何颠覆英伟达?

文章出处:【微信号:ZYNQ,微信公众号:ZYNQ】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟超越苹果成为市值最高 英伟取代英特尔加入道指

    在AI浪潮下英伟被各路资本竞相追逐,2024年英伟公司的股价累计上涨高达180%。在11月4日,英伟
    的头像 发表于 11-05 15:22 336次阅读

    英伟市值飙升,逼近苹果

    近日,随着人工智能技术的持续繁荣,英伟公司作为AI芯片生产的领军者,其市值实现了惊人的飞跃。截至美国当地时间21日,英伟的市值再创历史新高,达到了3.525万亿美元,首次突破3.5
    的头像 发表于 10-23 09:31 252次阅读

    英伟Blackwell架构揭秘:下一个AI计算里程碑?# 英伟# 英伟Blackwell

    英伟行业资讯
    jf_02331860
    发布于 :2024年08月26日 10:58:09

    AI芯片巨头英伟涨超4% 英伟市值暴增7500亿

    谁是美股最靓的仔?在人工智能浪潮之下AI芯片巨头英伟肯定有一席之地,特别是现在全球资本市场动荡之际,业界分析师多认为英伟是最佳“反弹股”之一。比如美国银行分析师Vivek Arya
    的头像 发表于 08-13 15:33 1068次阅读

    英伟TITAN AI显卡曝光,性能狂超RTX 409063%!# 英伟# 显卡

    显卡英伟
    jf_02331860
    发布于 :2024年07月24日 17:18:28

    英伟为什么越涨越便宜?英伟的市盈率一直在下降?

    英伟为什么越涨越便宜?英伟的市盈率一直在下降? 在2023年英伟的股价涨了两倍多;龙年开年
    的头像 发表于 03-12 18:02 1703次阅读

    英伟的显卡有哪些?英伟显卡驱动安装方法

    英伟(NVIDIA)的显卡主要分为几个系列:GeForce、Titan、Quadro以及Tesla。
    的头像 发表于 03-01 17:13 2211次阅读

    英伟显卡价格

    英伟显卡的价格因其型号、性能、发布时间等因素而有所不同。
    的头像 发表于 03-01 16:39 1097次阅读

    英伟是哪个国家的品牌?

    英伟(NVIDIA)总部位于美国加利福尼亚州的圣荷西市。因此,可以说英伟是一个美国的品牌。
    的头像 发表于 03-01 16:36 1.5w次阅读

    英伟市值1.96万亿美元

    英伟市值1.96万亿美元 英伟股价一天之内大涨16%;英伟股价涨到785.38美元,市值1
    的头像 发表于 02-24 15:22 904次阅读

    AI引爆英伟业绩 美国股市因英伟季绩强劲上涨

    AI引爆英伟业绩 美国股市英伟季绩强劲上涨 AI的持续火爆引发一场全球资本市场狂欢,而且随着Sora、Gemini1.5等大模型面世;大模型的加速迭代都对算力需求形成支撑,这给
    的头像 发表于 02-23 19:37 1290次阅读

    英伟收涨16.4% 分析师称英伟股价可能达到四位数

    英伟收涨16.4% 分析师称英伟股价可能达到四位数 就在英伟发布了拯救地球任务的业绩报告之
    的头像 发表于 02-23 15:35 815次阅读

    英伟将在越南设法人实体

    英伟行业资讯
    深圳市浮思特科技有限公司
    发布于 :2023年12月12日 10:29:04

    英伟股价暴跌 英伟市值一夜骤减2214亿

    英伟股价暴跌 英伟市值一夜骤减2214亿 科技巨头英伟周一收盘价下跌至455.1美元,相较
    的头像 发表于 12-05 09:16 961次阅读