2025年,随着DeepSeek大模型的开源迭代,AI技术在云计算领域的应用加速渗透,市场对高性能AI芯片的需求迎来爆发式增长。作为AI算力供应链的核心供应商,深圳市科通技术股份有限公司(以下简称“科通技术”)推出的“DeepSeek+AI芯片”全场景方案,在云AI领域取得重大突破。除了GPU的算力总量,云AI的一大挑战来源于GPU集群的数据互联效率。某大型互联网集团为解决云AI系统中千卡级GPU集群的高性能需求,面临服务器与加速卡间数据交换带宽和延迟的严苛挑战。科通技术联合全球顶尖设备原厂,基于Infiniband技术打造了叶-脊(Leaf-Spine)架构的服务器网络集群方案,成为云场景算力升级的标杆案例。
Infiniband技术是一种高性能的计算机网络技术,它在数据传输方面具备高带宽、低延迟的显著优势,能够快速处理大量数据,满足AI计算对数据传输速度的严苛要求。而叶-脊架构是一种常用于数据中心网络的拓扑结构,相较于传统网络架构,它有着更高的扩展性和更低的网络延迟,非常适合大规模集群的应用场景。
在技术细节上,科通技术采用高性能服务器CPU与高端GPU卡的组合,通过芯片级优化实现千块GPU卡池的高带宽、低延时数据交换。方案设计中,叶-脊架构的网络拓扑不仅满足了当前千卡级集群的数据吞吐需求,还通过预留充足的接口容量支持未来业务扩展,确保系统具备长期适应性。此外,科通技术为集群配置了100G/200G/400G高速网卡及智能网关设备。经测试,与传统方案相比,该方案可提供3.2倍以上数据交换吞吐量,不仅使AI推理效率提升了15%以上,还降低36%的功耗。这一方案的成功实施,科通在高速网络设备业务的显著提升直接带动了科通技术代理的各原厂专业GPU、服务器CPU及相关存储产品的销量增长。
在市场成效方面,该案例不仅帮助客户实现了大参数模型(如千亿级参数)的高并发训练与推理应用指标,还推动了科通技术在云AI基础设施领域的深度布局。通过代理全球80余家芯片原厂的核心产品,科通技术构建了覆盖云端训练、推理、存储、网络的全栈芯片矩阵,能够为不同规模客户提供定制化解决方案。随着DeepSeek大模型对算力需求的持续攀升,云场景的AI芯片采购量呈现指数级增长。科通技术已与多家头部互联网企业达成长期合作,预计未来云场景相关业务将持续带动公司营收增长。
可以预见,DeepSeek大模型的技术迭代将持续催化AI芯片在云端的应用需求。科通技术凭借全场景方案的技术整合能力和全球供应链优势,在AI算力供应链中占据重要地位。随着AI模型复杂度的提升和云服务规模的扩大,科通技术有望凭借其技术优势和市场布局,在行业中持续发展,为AI芯片应用产业的发展贡献重要力量。
审核编辑 黄宇
-
芯片
+关注
关注
459文章
51628浏览量
430177 -
AI
+关注
关注
87文章
32568浏览量
271868 -
大模型
+关注
关注
2文章
2804浏览量
3454
发布评论请先 登录
相关推荐
国产千卡GPU集群完成大模型训练测试,极具高兼容性和稳定性

国产化算力新标杆!卓怡恒通EPC-S4450边缘AI工控机开启工业智能新纪元

创新驱动未来:大为锡膏为高精尖散热器技术注入&amp;quot;强芯&amp;quot;动力

性能提升近一倍!壁仞科技携手无问芯穹,在千卡训练集群等领域取得技术新突破

OCTC发布&quot;算力工厂&quot;!力促智算中心高效规划建设投运

软通动力携手华为启动&quot;智链险界&quot;计划,强化生态链接共启保险AI新时代

AI网络物理层底座: 大算力芯片先进封装技术

安谋科技异构算力组合,破局生成式AI算力挑战
摩尔线程千卡智算集群与滴普企业大模型已完成训练及推理适配

评论