- GPU要超越CPU挤身一线主角还得靠AI
今年GTC大会聚焦AI、VR/AR与无人汽车应用
今年在美国圣荷西举行的GTC技术大会(GPU Technology Conference),也因为AI、VR/AR、无人汽车的关系而格外备受瞩目。今年总共吸引了全球超过5千人参加,更有将近上百位的全球媒体、分析师到场,还有多达2百家厂商参展,规模是历年来最大。而做为主办方的Nvidia今年氛围也很不一样,Nvidia不仅在现场同时发布多款与深度学习和AI有关GPU新品,还针对了原本就擅长的VR/AR与自动驾驶应用领域推出了新的开发工具和产品,希望就此能让VR/AR与自动驾驶可以更进一步应用。
也正因为AI、VR/AR与自驾车让GPU的应用更广了,因而造就了GPU在这次GTC大会扮演的重要性和应用性明显提高不少,特别是AI与深度学习的应用方面,今年更成为会场上最炙手可热的技术话题,在为期4天超过240场大小场的GPU主题讲座中,有半数以上都围绕着AI与深度学习而打转,这还不包括了来自2位人工智慧界的重量级AI大师,分别是IBM人工智慧研究和技术策略的IBM Watson 技术长Rob High与丰田汽车研究机构执行长Gill Pratt,今年都亲自到场分享他们所观察到的最夯AI技术和应用新进展。
Nvidia执行长黄仁勋在今年主题演说中也强调GPU未来角色的重要性,将替深度学习与AI开启一种前所未有的全新运算模式(Computing Model),将促使深度学习成为未来企业甚至每个人,都不能加以忽视的大事(Big Deal ),甚至将开启另一种AI即平台的新服务模式(AI-as-a-Platform)。而为了抢攻AI与深度学习市场,Nvidia今年甚至还罕见地,首度发表世上第一台整套式深度学习专用的超级电脑DGX-1。
Nvidia执行长黄仁勋在今年主题演说中数度强调GPU未来角色的重要性,将替深度学习与AI开启一种前所未有的全新运算模式(Computing Model),将促使深度学习成为未来所有企业甚至每个人,都不能加以轻忽的大事(Big Deal ),甚至带来一种AI即平台的新服务模式(AI-as-a-Platform)。而为了抢攻AI与深度学习市场,Nvidia今年甚至还罕见地,首度发表世上第一台整套式深度学习专用的超级电脑DGX-1。
AI专用服务器将助企业加快深度学习应用
Nvidia在这台深度学习专用的超级电脑DGX-1内,使用了服务器专用的GPU加速器Tesla P100为基础而打造完成,Tesla P100采用了新一代Pascal架构设计,比前一代Maxwell架构的GPU加速器,在用来训练神经网路的效能方面,Nvidia宣称,Tesla P100足足有提升12倍之多。
Nvidia在这组超级电脑内总共装入8张Tesla P100加速卡,使得DGX-1在半精度(FP16)的浮点运算次数每秒高达有170TFLOPS,如此高度的运算能力,Nvidia甚至宣称,只要有了DGX-1,就等同于拥用了250台x86服务器而搭建的运算丛集规模,将有助于企业在深度学习方面获得更好的应用效果。
而靠着DGX-1的高度运算能力,也因而缩短了过去用来做为深度学习训练所需花费的冗长时间,若以单组2路Xeon E5服务器和DGX-1进行比较的话,根据Nvidia测试的结果,在做为AlexNet机器学习的模型训练方面,DGX-1完成训练所花费的时间要远比Xeon E5服务器还快许多,Xeon级服务器得要花150小时才能做完的训练,DGX-1只须2小时就能完成。若以训练机器辨识照片来举例的话,所代表的是,每天被喂给DGX-1机器做训练的照片,数量高达有13亿张。
除了GPU以外,这台DGX-1还有配置了一个2路Xeon E5 CPU处理器,系统记忆体部分最大则可支援512GB DDR4的记忆体容量,并也配备有7TB大小的SSD硬碟,至于电力供给部份则是使用一台3U高度3,200瓦的电源供应设备,还支援了NVLink 混合式立方网格 (NVLink Hybrid Cube Mesh)技术,可提供更高速GPU互连的能力,网路部分则提供了双10GbE连接埠和一个100Gb的Quad InfiniBand高速网路介面,而使得每台DGX-1机器的总传输频宽,每秒最高可达768GB。
不仅如此,Nvidia在这台DGX-1中加入许多新的深度学习软体功能,像是新增加的Nvidia深度学习GPU训练系统(Deep Learning GPU Training System,DIGITS),可用来协助企业设计一个完整且互动的神经网路,还支援了 CUDA深度神经网路图库(CUDA Deep Neural Network library,cuDNN )的v5新版本,可用来做为设计神经网路时可供GPU加速的函式图库。DGX-1系统内也提供了一些深度学习优化的框架,例如Caffe、Theano与Torch等,另还搭配一套云端管理存取的工具和一个容器应用储存库(Repository )。
Nvidia这台深度学习专用的超级电脑DGX-1,主要是使用了服务器专用GPU加速器Tesla P100来打造完成的AI专用服务器,因而在这台机器内总共装入8张Tesla P100加速显卡,使得DGX-1在半精度(FP16)的浮点运算次数每秒可高达170TFLOPS,如此高度的运算能力,Nvidia甚至宣称,这几乎等同于用250台x86服务器而搭建的运算丛集规模,将助企业获得更好的深度学习作用。
非常好我支持^.^
(0) 0%
不好我反对
(0) 0%
相关阅读:
- [电子说] Blackwell GB100能否在超级计算机和AI市场保持领先优势? 2023-10-24
- [电子说] 如何使用Rust创建一个基于ChatGPT的RAG助手 2023-10-24
- [电子说] 讯飞星火大模型V3.0正式发布,全面对标ChatGPT 2023-10-24
- [电子说] 如何创建FPGA控制的机器人手臂 2023-10-24
- [电子说] 亚马逊云科技生成式AI最新案例分析,助力企业业务创新迭代 2023-10-24
- [电子说] 怎样延长半导体元器件的寿命呢? 2023-10-24
- [电子说] 新思科技携手台积公司加速N2工艺下的SoC创新 2023-10-24
- [电子说] 服务器硬盘通用基础知识 2023-10-24
( 发表人:包永刚 )