近日,在权威财经媒体36氪主办的“WISE颠覆·AIGC”主题产业峰会上,墨芯人工智能凭借业界领先的AI计算平台,获颁“下一个百亿规模AIGC产品”称号,被推举为新一代人工智能领域最具生产力的代表产品。
该奖项由36氪综合行业分析师等专家团分析与调研数据,旨在评估AGI时代现象级产品,评出站在热潮的巅峰定义和捕捉新机会的企业。
墨芯荣膺此奖,充分体现出在AIGC时代技术优势和巨大潜力,也再度印证了稀疏计算作为趋势性技术的巨大价值获得了广泛关注。
稀疏计算
从根本上解决大模型发展与算力的矛盾
ChatGPT等AIGC应用的爆发,加速了新的变革机会的到来,带动大模型、芯片等相关的产业链各环节的跃迁。在AIGC产业链中,算力作为基础设施,被公认为最具投资价值的赛道。
红杉资本《生成式AI:一个创造性的新世界》指出,生成式AI可能创造数万亿美元的经济价值。ChatGPT走红以后,算力的供不应求已成为焦点,AI芯片头部企业创下史上最高单季销量纪录,远超过先前《华尔街日报》估计的销售额,算力市场的需求仍在持续攀升。
在算力提升的各种探索方向上,稀疏计算是业界公认最有前景的的技术:
稀疏模型将取代稠密模型成为主流——已成为业界权威认同的趋势,并得到Google,微软,Meta,英伟达等巨头的投入。
Google的AI负责人Jeff Dean早已指出:稀疏化是AI模型的发展趋势,“今天的模型是稠密而低效的,Pathways(Google提出的统一架构)将使它们变得稀疏和高效。” Google的MoE(稀疏门控的专家混合层)及Pathways架构等,都是稀疏计算理念的成果,并在实践中取得比稠密模型更高的效率。芯片巨头英伟达也在其安培架构中首度引入细粒度结构化稀疏,支持2倍稀疏化。
大模型如何实现广泛应用,答案也早由Google Research与OpenAI的联合论文揭示:《Sparse is Enough in Scaling Transformers》。
论文地址:https://arxiv.org/pdf/2111.12763.pdf
稀疏计算被众多巨头看好的原因,正是由于它能从根本上解决大模型发展与算力的矛盾:稀疏计算让大模型既能在参数量上跃升若干个数量级的同时,又不因参数增长而产生过大的计算量,解决了大模型的高算力需求、高功耗、高费用等痛点,带来“多赢”的效果。
有了稀疏计算的加持,业界大模型的部署也能迎来更广阔的施展空间:更多企业、开发者能够基于“用得起”的算力服务,来进行AIGC等应用的开发与大模型的行业落地。
墨芯
稀疏计算引领者
此次墨芯登上“下一个百亿规模AIGC产品”榜单,正是基于墨芯长期在稀疏计算领域的深耕。AIGC时代,墨芯率先以稀疏计算技术、产品与实践的强大实力,成为AIGC算力层的中坚代表:
01
创新技术引领
当业界对神经网络高倍稀疏化算法尚停留在研究层面时,墨芯已率先将算法和硬件结合落地,基于软硬协同设计推出首颗稀疏芯片AntoumⓇ,实现稀疏神经网络的高模型精度和高硬件利用效率,充分释放稀疏计算的潜力。
AntoumⓇ打破业界纪录,成为首颗支持高稀疏倍率的AI芯片:支持高达32倍稀疏张量计算,此前业内主流芯片仅支持2倍稀疏化,AntoumⓇ将这一纪录提升了16倍。
02
产品屡破性能纪录
在英伟达、英特尔等巨头云集的国际权威基准测评MLPerf中,墨芯连续两届蝉联冠军,并在MLPerf Inference 3.0斩获双冠:
在开放分区Resnet-50赛道中,墨芯S40计算卡以127,375 FPS,斩获单卡算力全球第一;
墨芯S30计算卡以4卡383,520 FPS算力,获整机4卡算力全球第一。
墨芯计算卡基于12nm的AntoumⓇ芯片,性能已战胜4nm工艺产品,站在世界顶尖水平,足以证明稀疏计算的强大优势。
03
产业实践推动大模型应用
基于软硬协同的AI计算平台,墨芯为行业带来高算力、低延时、低功耗的算力解决方案,不仅满足大模型与AIGC等应用的海量算力需求,同时破解延时难题,实现推理加速,为大模型在众多行业场景的落地提供算力基础设施。墨芯的AI计算卡产品已实现量产,并在多个领域获得客户认可。
AI 2.0时代已经来临,大模型即将与各行业深度融合,产生更丰富多样的AIGC等应用。稀疏计算已站在这场变革之巅,引领算力的进化与发展;墨芯亦将以创新的稀疏计算方案,为大模型应用提供强大动力支撑,为AIGC打开更广阔的发展空间,去赋能下一个AIGC现象级产品。
审核编辑 :李倩
-
人工智能
+关注
关注
1791文章
46840浏览量
237512 -
ChatGPT
+关注
关注
29文章
1548浏览量
7478 -
AIGC
+关注
关注
1文章
356浏览量
1506
原文标题:“下一个百亿规模AIGC产品”揭晓,墨芯人工智能上榜
文章出处:【微信号:墨芯人工智能,微信公众号:墨芯人工智能】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论