新款 Ampere CPU 的性能将较市场上现有的 CPU 高出 40%
中国北京,2024 年 5 月 20 日 – Ampere Computing® 今天正式发布年度战略和产品路线图更新,重点介绍 Ampere 在可持续、高效能计算的云和人工智能计算方面的持续创新和发明。Ampere 还宣布正在与高通技术公司携手合作,双方将结合高通技术公司高性能、低功耗的 Qualcomm® Cloud AI 100推理解决方案和 Ampere CPU,共同开发人工智能推理联合解决方案。
半导体行业资深人士,Ampere 首席执行官 Renee James 表示,人工智能的发展带来了日益增长的电力需求和能源挑战,使 Ampere 围绕性能和能效的芯片设计方法比以往任何时候都更加受到业界关注。Renee James 表示:“Ampere 自六年前起就致力于高性能、高能效的芯片设计,因为我们坚信这是未来的发展方向。过去,低能耗往往与低性能同义,但是 Ampere 已经证明这并非事实。我们开创了计算效率的前沿,在高效计算环境中提供超越传统 CPU 的性能。”
Renee James 进一步强调了人工智能快速发展所带来的日益严重的问题:能源问题。她表示:“当前的发展道路并不可持续。我们坚信,未来的数据中心基础设施必须解决两大问题:一是如何通过升级计算来优化现有的风冷环境;二是如何构建符合电网供电能力的新型可持续数据中心。这正是 Ampere 力求实现的目标”。
Ampere 首席产品官 Jeff Wittich 介绍了公司的愿景——“人工智能计算(AI Compute)”,该愿景旨在将传统的云原生功能与人工智能深度融合。Jeff Wittich 表示:“Ampere CPU 能够运行各种工作负载——从最流行的云原生应用程序到人工智能,包括与传统云原生应用程序集成的人工智能,例如数据处理、web 服务、媒体分发等。”
Renee James 和 Jeff Wittich 共同宣布,Ampere 将推出全新的 AmpereOne® 平台,该平台基于 N3 工艺节点,配备 12 通道和 256 核 CPU。
Ampere 2024 年战略和产品路线图除了更新公司发展方向和愿景外,还包括:
·Ampere 正在与高通技术公司合作,共同开发采用 Ampere CPU 和 Qualcomm Cloud AI 100 Ultra的解决方案。该方案将解决业界最大的生成式人工智能模型上的大语言模型(LLM)推理问题。
·Ampere 12 通道平台进行扩展,搭载即将推出的 256 核 AmpereOne® CPU。该平台将采用与现有 192 核 AmpereOne® CPU 相同的风冷散热解决方案,其性能较市场上现有的 CPU 高出 40%,且无需采用复杂的平台设计。Ampere 的 192 核 12 通道内存平台预计将在今年晚些时候推出。
·Meta Llama 3 在基于 Ampere CPU 的 Oracle Cloud 上运行的更新。性能数据显示,在 128 核 Ampere® Altra® CPU 上运行 Llama 3(无需 GPU 辅助),其性能可媲美 Nvidia A10 GPU 与 x86 CPU 的联合运算,但功耗仅为后者的三分之一。
·宣布成立 UCIe 工作组,作为 AI 平台联盟(AI Platform Alliance)的重要组成部分。作为该联盟的一部分,Ampere 表示将利用开放接口技术来增强其 CPU 的灵活性,使其能够将其他客户 IP 整合到未来的 CPU 中。
·提供了关于 AmpereOne® 性能以及 OEM 和 ODM 平台的新细节。AmpereOne® 在每瓦性能上继续保持领先地位,与业界某两款领先的传统 x86 处理器相比,AmpereOne® 的每瓦性能分别高出 50% 和 15%。对于希望更新和整合旧基础设施以节省空间、预算和电力的数据中心而言,AmpereOne® 的每机架性能提升高达 34%。
·全新 AmpereOne® OEM 和 ODM 平台将在未来几个月内发货。
·Ampere 宣布与 NETINT 推出联合解决方案,该方案采用 NETINT 的 Quadra T1U 视频处理芯片和 Ampere CPU,可同时对 360 个直播频道进行转码,并使用 OpenAI 的 Whisper 模型为 40 个流媒体提供多种语言的实时字幕。
·除了内存标记(Memory Tagging)、QOS 强制(QOS Enforcement)和网格拥塞管理(Mesh Congestion Management)等现有功能外,Ampere 还推出了全新 FlexSKU 功能,该功能允许客户使用相同的 SKU 来处理横向扩展和纵向扩展用例。
关于 Ampere Computing
Ampere Computing 是一家现代化半导体企业,致力于塑造云计算的未来,并推出了世界上首款云原生处理器。为可持续云而生,Ampere 云原生处理器兼具最高性能和最佳每瓦性能,助力加速多种云计算应用的交付,为云提供行业领先的性能、能效和可扩展性。
欲了解更多信息,请访问:https://amperecomputing.com
中国北京,2024 年 5 月 20 日 – Ampere Computing® 今天正式发布年度战略和产品路线图更新,重点介绍 Ampere 在可持续、高效能计算的云和人工智能计算方面的持续创新和发明。Ampere 还宣布正在与高通技术公司携手合作,双方将结合高通技术公司高性能、低功耗的 Qualcomm® Cloud AI 100推理解决方案和 Ampere CPU,共同开发人工智能推理联合解决方案。
Renee James 进一步强调了人工智能快速发展所带来的日益严重的问题:能源问题。她表示:“当前的发展道路并不可持续。我们坚信,未来的数据中心基础设施必须解决两大问题:一是如何通过升级计算来优化现有的风冷环境;二是如何构建符合电网供电能力的新型可持续数据中心。这正是 Ampere 力求实现的目标”。
Ampere 首席产品官 Jeff Wittich 介绍了公司的愿景——“人工智能计算(AI Compute)”,该愿景旨在将传统的云原生功能与人工智能深度融合。Jeff Wittich 表示:“Ampere CPU 能够运行各种工作负载——从最流行的云原生应用程序到人工智能,包括与传统云原生应用程序集成的人工智能,例如数据处理、web 服务、媒体分发等。”
Renee James 和 Jeff Wittich 共同宣布,Ampere 将推出全新的 AmpereOne® 平台,该平台基于 N3 工艺节点,配备 12 通道和 256 核 CPU。
Ampere 2024 年战略和产品路线图除了更新公司发展方向和愿景外,还包括:
·Ampere 正在与高通技术公司合作,共同开发采用 Ampere CPU 和 Qualcomm Cloud AI 100 Ultra的解决方案。该方案将解决业界最大的生成式人工智能模型上的大语言模型(LLM)推理问题。
·Ampere 12 通道平台进行扩展,搭载即将推出的 256 核 AmpereOne® CPU。该平台将采用与现有 192 核 AmpereOne® CPU 相同的风冷散热解决方案,其性能较市场上现有的 CPU 高出 40%,且无需采用复杂的平台设计。Ampere 的 192 核 12 通道内存平台预计将在今年晚些时候推出。
·Meta Llama 3 在基于 Ampere CPU 的 Oracle Cloud 上运行的更新。性能数据显示,在 128 核 Ampere® Altra® CPU 上运行 Llama 3(无需 GPU 辅助),其性能可媲美 Nvidia A10 GPU 与 x86 CPU 的联合运算,但功耗仅为后者的三分之一。
·宣布成立 UCIe 工作组,作为 AI 平台联盟(AI Platform Alliance)的重要组成部分。作为该联盟的一部分,Ampere 表示将利用开放接口技术来增强其 CPU 的灵活性,使其能够将其他客户 IP 整合到未来的 CPU 中。
·提供了关于 AmpereOne® 性能以及 OEM 和 ODM 平台的新细节。AmpereOne® 在每瓦性能上继续保持领先地位,与业界某两款领先的传统 x86 处理器相比,AmpereOne® 的每瓦性能分别高出 50% 和 15%。对于希望更新和整合旧基础设施以节省空间、预算和电力的数据中心而言,AmpereOne® 的每机架性能提升高达 34%。
·全新 AmpereOne® OEM 和 ODM 平台将在未来几个月内发货。
·Ampere 宣布与 NETINT 推出联合解决方案,该方案采用 NETINT 的 Quadra T1U 视频处理芯片和 Ampere CPU,可同时对 360 个直播频道进行转码,并使用 OpenAI 的 Whisper 模型为 40 个流媒体提供多种语言的实时字幕。
·除了内存标记(Memory Tagging)、QOS 强制(QOS Enforcement)和网格拥塞管理(Mesh Congestion Management)等现有功能外,Ampere 还推出了全新 FlexSKU 功能,该功能允许客户使用相同的 SKU 来处理横向扩展和纵向扩展用例。
关于 Ampere Computing
Ampere Computing 是一家现代化半导体企业,致力于塑造云计算的未来,并推出了世界上首款云原生处理器。为可持续云而生,Ampere 云原生处理器兼具最高性能和最佳每瓦性能,助力加速多种云计算应用的交付,为云提供行业领先的性能、能效和可扩展性。
欲了解更多信息,请访问:https://amperecomputing.com
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
处理器
+关注
关注
68文章
19259浏览量
229649 -
ARM
+关注
关注
134文章
9084浏览量
367380 -
cpu
+关注
关注
68文章
10854浏览量
211574 -
Ampere
+关注
关注
1文章
66浏览量
4541
发布评论请先 登录
相关推荐
ARM处理器和CPU有什么区别
ARM处理器和CPU(中央处理器)之间的关系及区别,可以从多个维度进行深入探讨。首先,需要明确的是,ARM处理器并非一种独立的CPU类型,而
AMD的锐龙9000系列处理器将延后至8月发布
国际媒体传来消息,AMD公司已正式向其全球合作伙伴宣布,原计划于7月31日面世的锐龙9000系列处理器将延后
什么是神经网络加速器?它有哪些特点?
神经网络加速器是一种专门设计用于提高神经网络计算效率的硬件设备。随着深度学习技术的快速发展和广泛应用,神经网络模型的复杂度和计算量急剧增加,对计算性能的要求也越来越高。传统的通用处理器(CPU
Ampere下一代AmpereOne系列处理器将拥有256个核心
虽然训练 AI 需要超强大的 GPU 算力,但 AI 算法的执行首先需要超高效的芯片。就像 AmpereCPU,未来的 AmpereOne 将拥有不少于256个内核,其功率仅为350W。(原文转自 Adrian Branco 发
Ampere Computing确认明年推出256核处理器
安晟培当前主推的产品为2021年5月推出的192核AmpereOne处理器,该款芯片搭载8通道DDR5内存,采用台积电5纳米制程工艺,最大热设计功耗为400瓦。
Achronix FPGA增加对Bluespec提供的基于Linux的RISC-V软处理器的支持,以实现可扩展数据处理
Bluespec支持加速器功能的RISC-V处理器将Achronix的FPGA转化为可编程SoC 近日,高性能FPGA芯片和嵌入式FPGA(eFPGA)硅知识产权(IP)领域的领先企业
台积电:AI服务器处理器预计翻番,拉动收入增长
台积电将 AI 服务器处理器严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI 加速器,剔除网络边缘与消费级设备中的此类产品。
瑞萨发布下一代动态可重构人工智能处理器加速器
瑞萨最新发布的动态可重构人工智能处理器(DRP-AI)加速器,在业界引起了广泛关注。这款加速器拥有卓越的10 TOPS/W高功率效率,相比传统技术,效率提升了惊人的10倍。其独特之处在
家居智能化,推动AI加速器的发展
电子发烧友网报道(文/黄山明)AI加速芯片,也称为人工智能加速器(AI Accelerator),是一种专为执行机器学习和深度学习任务而设计的ASIC或定制化处理器。在智能家居中,AI
回旋加速器原理 回旋加速器的影响因素
回旋加速器(Cyclotron)是一种用于加速带电粒子的可再生粒子加速器。它的工作原理基于带电粒子在恒定强磁场中的运动。本文将详细介绍回旋
AMD在CES 2024上宣布推出一系列新处理器AMD Ryzen 8040系列
AMD 在 CES 2024 上与英特尔就日益重要的笔记本电脑处理器市场展开了最新的交锋,宣布推出一系列新
英特尔专家为您揭秘第五代英特尔® 至强® 可扩展处理器如何为AI加速
% 1 ,AI 推理性能提升42% 2 。 这一系列性能提升的背后,存在着怎样的创新与突破?第五代英特尔 至强 可扩展处理器为什么要强调为AI加速?它又是如何做到为AI
评论