0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

比40台基于GPU的服务器更牛的是什么?一台有40个GPU的服务器!

DPVg_AI_era 来源:lq 2019-02-13 10:04 次阅读

比40台基于GPU的服务器更牛的是什么?一台有40个GPU的服务器!来自伊利诺伊州立大学计算机工程副教授及其团队将于2月,为包含多达40个GPU的晶圆级计算机提供案例。这个多处理器“怪物”将计算速度提高了近19倍,并将能耗和信号延迟的总和降低了140倍以上。

搭载40个GPU的服务器,就问你怕不怕!

早在20世纪80年代,并行计算先驱Gene Amdahl就策划了一项加速大型机计算的计划:一种硅晶片大小的处理器。通过将大部分数据保存在处理器本身,而不是将其通过电路板传输到内存和其他芯片上,计算速度会更快,能源效率也会更高。

Amdahl从风投那里获得了2.3亿美元的投资,这在当时是最多的。而后他创立了Trilogy Systems公司,将自己的梦想变成了现实。

这是“晶圆级集成”的首次商业尝试,结果成了一场灾难。

伊利诺伊大学厄巴纳-香槟分校和加州大学洛杉矶分校的工程师们认为,现在是时候再尝试一次了。

在2月即将举行的IEEE高性能计算机体系结构国际研讨会上,伊利诺伊州立大学计算机工程副教授Rakesh Kumar及其合作者将为包含多达40个GPU的晶圆级计算机提供案例。

这个多处理器“怪物”将计算速度提高了近19倍,并将能耗和信号延迟的总和降低了140倍以上

Kumar表示:“我们试图解决的一个大问题是计算单元之间的通信开销。”

基于保证质量的普通尺寸芯片,寻找连接技术是关键

超级计算机通常将应用程序分布在数百个GPU上,这些GPU位于不同的印刷电路板上,并通过长途数据链路进行通信。

与芯片本身内部的互连相比,这些链路吸收能量并且速度慢。更重要的是,由于芯片和印刷电路板的机械特性之间不匹配,处理器必须保存在严格限制其可以使用的输入和输出数量的封装中。

因此,将数据从一个GPU转移到另一个GPU需要大量的开销

所需要的是GPU模块之间的连接,这些连接与芯片上的互连一样快,低能耗且丰富。如此快速的连接将把这40个GPU集成到一起,成为一个巨大的GPU。

一种解决方案是:使用标准的芯片制造技术在同一块硅片上构建所有40个GPU,并在它们之间添加互连。

但正是这种思路扼杀了Amdahl在20世纪80年代的尝试。

当你在制作一个芯片时,总是有出现缺陷的可能性,而出现缺陷的可能性会随着芯片的大小而增加。如果你的芯片大小与餐盘一样大小,几乎可以保证在它上面有一个系统“杀戮”的缺陷。

因此,从已经通过质量测试的普通尺寸的GPU芯片开始,寻找一种更好地连接它们的技术,是更有意义的。

这个团队相信他们的silicon interconnect fabric(SiIF)的技术,用硅代替电路板,芯片与电路板之间没有机械上的不匹配,因此不需要芯片封装

SiIF晶圆上有一层或多层2微米宽的铜互连,间距最小可达4微米。这相当于芯片上最高级别的互连。

在要插入GPU的点中,硅片上的铜柱间距约为5微米。GPU在这些上方对齐,按下并加热。

这种成熟的工艺称为热压结合(thermal compression bonding),使铜柱与GPU的铜互连线融合。伊利诺斯州和加州大学洛杉矶分校的研究人员表示,窄小的互连和紧密的间距意味着你可以在一块芯片上压缩至少25倍的输入和输出。

Kumar和他的同事在设计晶圆级GPU时,必须考虑许多限制因素,包括可以从晶圆上移除多少热量、晶圆处理器如何能够最快速地相互通信,以及如何在整个晶圆上传输电力。

结果证明,功率是其中一个较为有限的约束条件

在芯片的标准1伏电源下,SiIF晶圆片的布线将消耗整整2千瓦。相反,Kumar的团队将电压供应提高到48伏,减少了所需的电流,从而减少了电力损失。这种解决方案需要在晶圆片周围分布电压调节器和信号调理电容器,从而占用原本可以用于更多GPU模块的空间。

尽管如此,在一个设计中,他们还是能够挤进41个GPU。他们测试了这种设计模拟的情况,发现它在消耗比40台标准GPU服务器更少的能量的情况下,加快了计算和数据移动。

SiIF晶圆级GPU克服了早期晶圆级工作无法解决的问题

Horst技术咨询公司的Robert W. Horst说:“SiIF晶圆级GPU克服了早期晶圆级工作无法解决的问题。”

二十多年前,在Tandem Computer公司,Horst参与开发了唯一一款商业化的晶圆级产品——一种在证券交易所取代高速硬盘的内存系统。他预计降温将是最具挑战性的方面之一。“如果你在这么近的距离内加入这么多逻辑,功耗可能会相当高,”他说。

Kumar表示,该团队已经开始着手构建一个晶圆级原型处理器系统。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    455

    文章

    50714

    浏览量

    423138
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4729

    浏览量

    128890
  • 服务器
    +关注

    关注

    12

    文章

    9123

    浏览量

    85324

原文标题:ISU教授疯狂实验:搭建40个GPU晶圆级计算机,能耗、延迟降低140倍!

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU服务器租用费用贵吗

    在云计算领域,GPU服务器因其强大的计算能力和图形处理能力,被广泛应用于多个领域。然而,对于许多企业和个人开发者来说,GPU服务器的租用费用仍然是
    的头像 发表于 12-19 17:55 104次阅读

    GPU服务器租用多少钱

    GPU服务器的租用价格受多种因素影响,包括服务提供商、GPU型号和性能、实例规格、计费模式、促销活动以及地域差异等。下面,AI部落小编为您整理GP
    的头像 发表于 12-09 10:50 110次阅读

    租用GPU服务器般多少钱

    租用GPU服务器的费用受到多种因素的影响,包括服务器配置、租用时长、服务提供商以及市场供需状况等。下面,AI部落小编带您了解租用GPU
    的头像 发表于 11-25 10:28 176次阅读

    GPU服务器和传统的服务器什么区别

    GPU服务器与传统的服务器在多个方面存在显著差异,主机推荐小编为您整理发布GPU服务器和传统的服务器
    的头像 发表于 11-07 11:05 197次阅读

    GPU服务器AI网络架构设计

    众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对
    的头像 发表于 11-05 16:20 314次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>服务器</b>AI网络架构设计

    GPU高性能服务器配置

    GPU高性能服务器作为提升计算速度和效率的关键设备,在各大应用场景中发挥着越来越重要的作用。在此,petacloud.ai小编为你介绍GPU高性能服务器的配置要点。
    的头像 发表于 10-21 10:42 189次阅读

    多个网站放在同一台服务器ip什么影响?

    将多个网站放在同一台服务器上,使用同一个IP地址,可能会有以下影响: 1、资源共享:多个网站共享同一台服务器的资源,如CPU、内存、存储空间和带宽。如果其中
    的头像 发表于 09-12 11:15 536次阅读

    服务器数据恢复—xfs文件系统服务器数据恢复案例

    某公司一台服务器,连接了一台存储。该服务器安装linux操作系统,文件系统为xfs。 在运行过程中该服务器出现故障,管理员使用xfs_repair工具试图对xfs文件系统进行修复但失
    的头像 发表于 08-19 10:49 287次阅读

    GPU服务器架构解析及应用优势

    GPU服务器作为种高性能计算资源,近年来在人工智能、大数据分析、图形渲染等领域得到了广泛应用。它结合了云计算的灵活性与GPU的强大计算能力,为企业和个人用户提供了
    的头像 发表于 08-14 09:43 380次阅读

    主机托管是多个用户共享一台服务器吗?什么优势

    主机托管并不是多个用户共享一台服务器。主机托管是服务,客户可以将自己的硬件服务器托管给服务商,并享受专业的
    的头像 发表于 08-13 14:45 245次阅读

    gpu服务器与cpu服务器的区别对比,终于知道怎么选了!

    gpu服务器与cpu服务器的区别主要体现在架构设计、性能特点、能耗效率、应用场景、市场定位等方面,在以上几个方面均存在显著差异。CPU服务器更适合数据库管理和企业应用,而
    的头像 发表于 08-01 11:41 483次阅读

    算力服务器为什么选择GPU

    随着人工智能技术的快速普及,算力需求日益增长。智算中心的服务器作为支撑大规模数据处理和计算的核心设备,其性能优化显得尤为关键。而GPU服务器也进入了大众的视野,成为高性能计算的首选。那么,为什么算力
    的头像 发表于 07-25 08:28 607次阅读
    算力<b class='flag-5'>服务器</b>为什么选择<b class='flag-5'>GPU</b>

    新手小白怎么学GPU服务器跑深度学习?

    新手小白想用GPU服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现经济便捷的实现GPU
    发表于 06-11 17:09

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别有哪些

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别 GPU
    的头像 发表于 01-30 15:31 856次阅读

    超微gpu服务器评测

    GPU服务器进行评测。 、超微GPU服务器概述 超微GPU
    的头像 发表于 01-10 10:37 1377次阅读