0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

算力呈指数级增长,服务器有哪些进展?

花茶晶晶 来源:电子发烧友网 作者:黄晶晶 2023-05-17 09:07 次阅读

电子发烧友网报道(文/黄晶晶)人工智能的基座包括数据、算力和算法。其中算力更是数据和算法的支撑。各类模型基于数据量、算法的训练和推理推动了算力需求。

根据OpenAI的测算数据,AI训练运行所使用的算力每3-4个月增长一倍。AI训练运行所使用的算力已增长超30万倍。IDC数据显示,2022年我国智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模;预计未来5年我国智能算力规模的年复合增长率将达52.3%。

构筑算力必然离不开服务器的建设。作为全球顶级的人工智能/高性能计算服务器制造商和解决方案提供商,Supermicro公司日前向电子发烧友网表示,新业务合约有很大一部分来自人工智能/高性能计算领域,而且许多与ChatGPT有关。

Supermicro高管表示,人工智能界并不知道未来还会遇到多少计算密集型问题。以GPT-3为例,它需要323 Zetta FLOPS的算力和1750亿个参数来训练模型,更需要庞大的算力来执行推理工作。更加智能的GPT-4将会有更多的参数,有可能达到一万亿甚至更多。

为了运转这样的大模型和大规模参数,如何有效运用服务器显得十分重要,这关乎服务器的性价比选择。Supermicro公司高管说到,当大量的GPU服务器集群起来时,人工智能/高性能计算应用的每一微秒都很重要。Supermicro设计开发了各种不同架构的GPU服务器,提升了CPU和GPU之间或从GPU到GPU的数据传输速度。通过合理选择系统SKU,解决方案的设计可以将每个CPU/GPU核心利用到极致。从边缘到云,从训练到推理,当前市面上所需的人工智能/高性能计算应用,Supermicro都可以提供全方位的GPU服务器,能让客户充分利用计算资源上花费的每一分钱。

更大的服务器存储空间


随着CPU、GPU和内存技术的发展,现代计算集群处理数据的速度和数量不断增加,因此有必要增强存储性能,以便将数据馈送给应用时不会形成减缓整个系统的速度的瓶颈。

最近,Supermicro推出了超高性能、高密度PB级All-Flash NVMe服务器新机型。更新产品系列中初步推出的产品将在1U 16槽机架式安装系统中支持高达1/2 PB的储存空间,随后的产品则将在2U 32槽机架式安装系统中为IntelAMD PCIe Gen5平台提供1 PB储存空间。

Supermicro高管表示,Supermicro的Petascale All-Flash服务器提供业界领先的存储性能和容量,可以减少满足热存储和温存储要求所需的机架式系统数量,并通过诸多功能特点降低总体拥有成本。

具体来说,容量扩展,更广泛的PCB有助于实现更灵活的NAND芯片布局;性能扩展,可扩展连接器设计,多链路宽度(x4、x8、x16),支持不同电源配置;热效率,散热和制冷管理改进;面向未来,通用连接器适用于各种尺寸规格,可以为未来几代PCIe提供更加强大的信号完整性;解决方案范围,各种功率配置(20W-70W),适用于更高容量/性能的固态硬盘。

“安装了速度更快的固态硬盘之后,系统的平衡就变得更加重要。Supermicro拥有全新的NUMA平衡对称架构,可以提供到驱动器的最短信号路径、到存储器的带宽平衡和灵活的网络选项,从而降低时延。最重要的是,对称设计还有助于确保整个系统的气流畅通无阻,因此可以使用更加强大的处理器。”Supermicro高管说道。

桌面型GPU兼顾AI与液冷散热

CPU/GUP/xPU也构成了系统设计的热量挑战,各种处理器消耗的功率不断攀升,另一方面,科研/医疗设施/金融/石油和天然气企业需要人工智能/高性能计算来提高其专业竞争力。在这些企业中,有很多需要在员工工作的地点设置工作站或本地服务器。

基于这样的需求,Supermicro推出功能强大、安静且节能的NVIDIA加速人工智能(AI)开发平台系列当中的首款装置。全新的AI开发平台SYS-751GE-TNRT-NV1是一款应用优化的系统,在开发及运行AI软件时表现尤其出色。此外,这个性能强大的系统可以支持小团队里的用户同步运行训练、推理和分析等工作负载。

独立的液冷功能可满足四个NVIDIA® A100 Tensor Core GPU和两个第4代Intel Xeon可扩展处理器的散热需求,在发挥完整性能的同时提高整体系统效率,并实现了在办公环境下的安静(约30dB)运行。

对于散热的考量,Supermicro高管认为搭载NVIDIA A800等强大的协加速器、且声压级介于30~45分贝的工作站,必须采用液冷解决方案才能满足这一需求。冷板式液冷在市场上经过了十多年的考验,目前其成熟度和可靠性已经达到了数据中心大规模部署的水平。

创新技术驱动成长

早前,Supermicro就提出了观察到的七大创新技术,他们包括高性能350W CPU和700W GPU、处理速度更快的DDR5内存、第五代PCI-E 5.0技术、Compute Express Link(CXL,开放式互联标准)、400G高速网络、新型固态硬盘和液冷技术。

简言之就是更高的功耗和更快的数据传输速度。这就需要优化功率效率、解决热量挑战、加强第五代PCIe、DDR5、高速网络、无阻塞系统架构设计和部署等。

Supermicro高管指出,这些创新技术背后的一个共同点是热量调度。更快的处理器频率、更多的计算核心、更高速的网络都会产生更多的热量,这些热量必须输送到数据中心之外。他表示,正如我们预计的技术趋势和产品路线图所示,当前和新一代人工智能/高性能计算服务器采用的热量解决方案必须比目前的空气冷却更加高效。

展望已经到来的AI爆发的时代,ChatGPT的需求日益增长,不仅推高了服务器的销量,而且还推动新技术通过大规模部署而被普遍接纳的机会。GPT提供的服务包括语言翻译、聊天机器人、内容生成、语言分析、语音辅助等等。

要实现人工智能系统的所有关键技术,就需要足够快速的服务器,并通过复杂的架构、用于维护工作的液冷管布置等将其联网。这些专业技术知识意味着解决方案将不再作为一个个的服务器提供。完整的解决方案部署更像是一个具有机架级就绪水平的即插即用解决方案。

Supermicro将ChatGPT视为服务器市场增长的关键驱动力,未来我们会看到GPT服务的更多创新型用例。Supermicro已准备好面对这个趋势,始终保持在AI服务器技术前沿,并提供创新的解决方案,使得客户能够加速他们的AI应用规划,同时优化总体拥有成本并通过绿色计算最大限度地减少对环境的影响。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    12

    文章

    9010

    浏览量

    85160
  • AI
    AI
    +关注

    关注

    87

    文章

    30072

    浏览量

    268331
  • Supermicro
    +关注

    关注

    0

    文章

    28

    浏览量

    9265
收藏 人收藏

    评论

    相关推荐

    基础篇:从零开始了解

    即计算能力(Computing Power),狭义上指对数字问题的运算能力,而广义上指对输入信息处理后实现结果输出的一种能力。虽然处理的内容不同,但处理过程的能力都可抽象为。比
    的头像 发表于 11-15 14:22 248次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>基础篇:从零开始了解<b class='flag-5'>算</b><b class='flag-5'>力</b>

    中科曙光入选2024服务产业图谱及服务产品名录

    近日,中国信通院公布首个《服务产业图谱(2024年)》及《服务产品名录(2024年)》。
    的头像 发表于 08-06 14:23 604次阅读

    服务器为什么选择GPU

    随着人工智能技术的快速普及,需求日益增长。智中心的服务器作为支撑大规模数据处理和计算的核心设备,其性能优化显得尤为关键。而GPU
    的头像 发表于 07-25 08:28 491次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>为什么选择GPU

    商汤大装置服务获国家认证

    商汤大装置服务获国家认证! 近日,经过中国电子技术标准化研究院专家审核,商汤科技通过
    的头像 发表于 06-22 10:59 579次阅读

    AI高服务器散热,需要用到哪些导热界面材料?

    在数字经济、AI大模型等发展的带动下,全球服务器的市场需求急剧提升,利用其强大的计算能力,能够处理复杂的算法和海量数据。与此同时,生成式人工智能的大需求也拉高了服务器领域的功耗水平
    的头像 发表于 05-30 10:44 543次阅读
    AI高<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>散热,需要用到哪些导热界面材料?

    引领柔性新风潮,加速企业数智转型首选服务器就是它

    在当今云计算时代,企业对于云服务器的需求已经不仅仅停留在简单的弹性上,更多的是希望能够根据自身业务需求,获得精准、灵活的计算资源,以实现成本最优和业务最佳性能。 然而,传统的云服务器
    的头像 发表于 05-22 19:35 290次阅读
    引领柔性<b class='flag-5'>算</b><b class='flag-5'>力</b>新风潮,加速企业数智转型首选<b class='flag-5'>服务器</b>就是它

    智能存在缺口,AI服务器市场规模持续提升

    商的资本支出将大幅增加。全球前四大云服务商资本支出调升,预计将从2023年的1400亿美元提升至2024年的超过2000亿美元。   AI 服务器市场规模持续增长   近些年,人工智能技术在各个领域广泛应用,包括智能制造、智慧医
    的头像 发表于 05-22 00:14 3025次阅读

    弘信电子签订服务器产品销售合同

    弘信电子的子公司甘肃燧弘人工智能科技有限公司与庆阳市京合云计算科技有限公司签订了服务器产品销售合同 。
    的头像 发表于 05-13 11:10 509次阅读

    十问:超,通存比

    邬贺铨指出,现有测算方法难以精准衡量。国内企业服务器的出货量并不等于国内市场的使用量,而且进口国外的服务器未统计在内;服务器出货量也不等
    的头像 发表于 04-13 11:40 4209次阅读

    解锁未来,华为云耀云服务器 X 实例引领柔性新时代

    在数字化浪潮的推动下,云计算已经成为企业发展的必然选择,但传统云服务器常常束缚了企业的发展步伐。云耀云服务器 X 实例的问世,标志着云计算迈向了全新的柔性时代。云耀云
    的头像 发表于 04-11 22:23 988次阅读
    解锁未来,华为云耀云<b class='flag-5'>服务器</b> X 实例引领柔性<b class='flag-5'>算</b><b class='flag-5'>力</b>新时代

    256Tops!CSA1-N8S1684X服务器

    (基于BM1684X的高服务器)高AI处理BM1684X搭载了BM1684AI
    的头像 发表于 03-23 08:02 1425次阅读
    256Tops<b class='flag-5'>算</b><b class='flag-5'>力</b>!CSA1-N8S1684X<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>

    华为中国合作伙伴大会2024 | 软通动力全面布局服务

    使能AI大模型发展新篇章 北京2024年3月19日 /美通社/ -- 随着海量数据爆发增长,以及AI大模型训推服务带来的巨大需求,对泛在分布的
    的头像 发表于 03-19 22:22 510次阅读
    华为中国合作伙伴大会2024 | 软通动力全面布局<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务</b>

    能RADXA微服务器试用体验】Radxa Fogwise 1684X Mini 规格

    通过网络可以了解到,能RADXA微服务器的具体规格: 处理:BM1684X :高达32Tops INT8峰值
    发表于 02-28 11:21

    国产服务器主阵地哪些?

    AI 、低功耗等对服务器芯片提出新的要求,英伟达 GH200 有望加速全球 AI 服务器
    的头像 发表于 01-29 11:29 1143次阅读
    国产<b class='flag-5'>服务器</b>主阵地<b class='flag-5'>有</b>哪些?

    弘信电子与AI服务器合资,助力国产芯片落地

    此外,弘信电子近期在AI业务上取得了突破性进展,这并非源自本土化的积累,而是依赖于团队敏锐的战略眼光和强烈的创新动力。此次投资是弘信电子在AI
    的头像 发表于 12-25 09:30 828次阅读