0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

只能跑Transformer的AI芯片,却号称全球最快?

E4Life 来源:电子发烧友 作者:周凯扬 2024-07-01 09:03 次阅读

电子发烧友网报道(文/周凯扬)近日,一家由哈佛辍学生成立的初创公司Etched,宣布了他们在打造的一款“专用”AI芯片Sohu。据其声称该芯片的速度将是英伟达H100的20倍,但只能跑transformer架构的模型。

Sohu,比H100快上20倍

之所以打算Sohu这一自研ASIC AI芯片,是因为Etched认为GPU在性能升级上的速度太慢了。如果以H100的单位面积算力和交期作为参考,那么从2022年到2025年,英伟达的H100迭代至B200,2.5年的时间内性能只有15%的提升。所以要想有效提高性能的方式,只有走特化的ASIC芯片一途。

现在发布的任何AI芯片,在提到性能时,无疑都会把英伟达的H100作为对比参照,Etched的Sohu也不例外。根据Etched提供的数据,单个Sohu服务器运行Llama 70B时可以做到50万Tokens每秒,这一速度是单个H100服务器的20倍以上,也是单个B200服务器的10倍以上。

在服务器的配置上,Sohu服务器和H100服务器均采用的8卡的配置,所以Etched强调一个8xSohu的服务器就可以替换掉至少160个H100,大大降低成本的同时,也不会有性能损失。

由于Sohu仅支持一种算法,所以绝大多数的控制流模块都可以被剔除,芯片可以集成更多的数学计算单元,在算力利用率上可以达到90%以上,而GPU却只能做到30%。这也是因为在GPU的电路设计上,用于矩阵乘法的晶体管数量甚至没有占到10%。不过Etched对于英伟达的设计还是相当佩服的,指出如果同时想支持CNN、LSTM、SSM等其他模型,确实很难做得比英伟达更好。

当然了,这里的测试条件也必须做一个说明,测试标准为FP8精度的Llama 70B,无稀疏,其中H100是基于最新版本的TensorRT-LLM测试的,而B200由于还未交付,所以其性能是预估的。

为何专攻Transformer模型

市面上的AI芯片和GPU产品为了覆盖更灵活的客户需求,尽管不少都采用了ASIC的设计方案,但支持的模型却不会局限在一类。Etched也在其官网列出了市面上一些竞品方案,包括英伟达的GPU、谷歌的TPU、亚马逊的Trainium、Graphcore的IPU、Tenstorrent的Grayskull和英特尔的Gaudi等等,这些方案无一不对广泛的AI模型提供了支持。

但我们从市面上头部的模型来看,几乎占据主导地位的都是transformer架构的模型,比如GPT、Sora、Gemini和Stable Diffusion。Etched很大方地表示,如果哪一天transformer被SSM、RWKV或其他新的架构替代了,他们的芯片将变得一无是处,对于千变万化的AI市场而言,绝大多数厂商都不敢没法做出这样的预测。

而Etched从2022年底,就赌transformer模型将会统治整个市场。这在当时还没有ChatGPT的年代,是一个大胆的预测,毕竟当时图像生成还有基于CNN的U-Net,不少自动驾驶的视觉处理也还在广泛使用CNN。而且对于一个规模不算大的设计团队而言,维护单一架构的软件栈明显压力更小一些,他们只需要为transformer编写驱动、内核即可。

写在最后

至于Etched的这场豪赌是否能成功,还得看芯片的成品表现如何。虽然他们尝试的这条路线没人走过,但财力和研发能力均在他们之上的厂商也没能打造出超过英伟达GPU的竞品,硅谷的VC们能否造出新神,依然不能过早下定论。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Transformer
    +关注

    关注

    0

    文章

    141

    浏览量

    5980
  • AI芯片
    +关注

    关注

    17

    文章

    1858

    浏览量

    34897
收藏 人收藏

    评论

    相关推荐

    Transformer模型的具体应用

    如果想在 AI 领域引领一轮新浪潮,就需要使用到 Transformer
    的头像 发表于 11-20 09:28 185次阅读
    <b class='flag-5'>Transformer</b>模型的具体应用

    Transformer模型能够做什么

    尽管名为 Transformer,但它们不是电视银幕上的变形金刚,也不是电线杆上垃圾桶大小的变压器。
    的头像 发表于 11-20 09:27 181次阅读
    <b class='flag-5'>Transformer</b>模型能够做什么

    北京见 | 赛昉科技邀您参加2024全球AI芯片峰会

    9月6-7日,2024全球AI芯片峰会(GACS2024)将在北京辽宁大厦盛大举办。全球AI芯片
    的头像 发表于 09-04 08:03 304次阅读
    北京见 | 赛昉科技邀您参加2024<b class='flag-5'>全球</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>峰会

    2024年全球AI芯片收入将达712.52亿美元

    市场调查机构Gartner近日发布了一份关于全球AI芯片市场的收入预测报告。据该机构分析,到2024年,全球AI
    的头像 发表于 06-03 14:26 662次阅读

    AI芯片哪里买?

    AI芯片
    芯广场
    发布于 :2024年05月31日 16:58:19

    全球AI芯片市场收入预计持续增长

    根据市场调查机构Gartner的最新报告,全球AI芯片市场展现出强劲的增长势头。预计2024年,全球AI
    的头像 发表于 05-31 10:26 508次阅读

    安霸发布两款用于车队远程监控及信息处理系统的最新一代AI芯片

    两款新型 5nm 芯片提供业界领先的每瓦 AI 性能、支持独特的小巧外形设计、单盒集成视觉 Transformer 和 VLM 分析功能。
    的头像 发表于 05-22 09:09 430次阅读

    risc-v多核芯片AI方面的应用

    RISC-V多核芯片AI方面的应用主要体现在其低功耗、低成本、灵活可扩展以及能够更好地适应AI算法的不同需求等特点上。 首先,RISC-V适合用于高效设计实现,其内核面积更小,功耗更低,使得它能
    发表于 04-28 09:20

    号称全球最强开源AI模型DBRX登场

    洞见分析
    电子发烧友网官方
    发布于 :2024年03月28日 11:10:51

    最强AI芯片发布,Cerebras推出性能翻倍的WSE-3 AI芯片

    近日,芯片行业的领军企业Cerebras Systems宣布推出其革命性的产品——Wafer Scale Engine 3,该产品成功将现有最快AI芯片的世界纪录提升了一倍。
    的头像 发表于 03-19 09:31 1000次阅读
    最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>发布,Cerebras推出性能翻倍的WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    苹果M3芯片MacBook Air被誉为全球最佳消费级AI产品

    苹果在推文中说:“全新Mac Airliness利用Apple芯片的力量,将Mac变为理想的AI平台。M3芯片融入速度敏锐的16核神经网络引擎,提升设备端机器学习速率,让MacBook Air成为了
    的头像 发表于 03-05 11:36 821次阅读

    英伟达将用AI设计AI芯片

    AI芯片行业资讯
    深圳市浮思特科技有限公司
    发布于 :2024年02月19日 17:54:43

    全球芯片巨头暴涨6万亿 引发芯片产业热潮

    随着全球领先的芯片公司阿斯麦、AMD、英特尔和高通等迎来新的AI浪潮,市场对AI技术的需求呈现爆发性增长。
    的头像 发表于 01-26 16:42 1387次阅读

    Transformer大模型部署在端侧,IPC SoC正在普惠AI

    电子发烧友网报道(文/黄晶晶)AI大模型袭卷而来,而如何让终端产品插上AI的翅膀会是芯片厂商研发的方向和市场的机会。如今网络摄像机作为智慧城市、智能家居等应用的主流终端发展迅速,IPC SoC
    的头像 发表于 12-08 13:50 1110次阅读
    把<b class='flag-5'>Transformer</b>大模型部署在端侧,IPC SoC正在普惠<b class='flag-5'>AI</b>

    AI Transformer模型支持机器视觉对象检测方案

    使用机器视觉进行对象检测需要 AI 模型/算法在 AI 芯片、FPGA 或模块上运行。它们通常被称为“人工智能引擎”。在首次训练后,可以部署 AI 模型以在适当的硬件上运行,以做出预测
    发表于 11-23 10:31 469次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>Transformer</b>模型支持机器视觉对象检测方案