图形芯片大厂 NVIDIA (英伟达) 于 26 日在中国台北举行的 GPU 技术大会 (GTC Taiwan) 上,创办人暨CEO黄仁勋发布主题演讲时表示,在全球 AI 深度学习运算的兴起之下,人工神经网络的运用凸显出 GPU 运算的特性。而且,借由深度学习运算能够延续迟缓成长多年的摩尔定律持续演进,并且成为目前人工智能技术主流演算方式。
2017 年的 NVIDIA GTC Taiwan 订出了包括“人工智能的多元应用”、“人工智能应用于工业生产”与“人工智能与产业发展”等三大大会主题,且邀请产官学界讲师来分享借由 GPU 的运算,以协助各领域产业升级。并且,透过人工智能应用,达成产业数字转型的目标。黄仁勋指出,当前一般的电脑运算依然需要 CPU 来进行。不过,在大量资料分析的工作上,借助 GPU 运算能力已经成为趋势。所以,当前的人工智能技术主要是以仰赖 CPU 与 GPU 的分工与合作为运算架构来执行工作。
黄仁勋强调,在过去 5 年内,投资在人工智能新创产业上已经成长 10 倍,其总产值达 66 亿美元的规模。在此同时,有关深度学习的论文发布,也在过去 3 年也成长 10 倍。其中,有超过 3,000 个论文内容被提出,可以想像的是,人工学习与深度学习的议题身受重视。于是,NVIDIA 在 GTC 2017 提出的 GPU Cloud 服务,将可让企业、新创公司借由云端协图工作的方式,得到更强大的运算能力,借此达成各种深度学习的需求。其中包括人工智能模式的建立、电脑视觉应用、自动驾驶技术的发展,以及面对越来越多的物联网使用需求等。
另外,借由深度学习模式,目前已经可透过 GPU 加速应用,来达成 3D 影像中的即时自然光影追迹、脸部表情与口语同步、动画人物动作的自我表现、测量影像中的物件相对距离,或是让机器手臂判断与移动物件等技术。而面对这些未来的需求,NVIDIA 也宣布推出学习模型加速器 TensorRT 3,使得深度学习效率大幅提升,进而在运算设备成本上进行明显的节省。
黄仁勋进一步表示,借由 TensorRT 3 速器,可以使得原本需要 160 组CPU,每秒分析 4.5 万张照片的运算需求,简略到只要配置 8 张 Tesla V100 的单组 NVIDIA HGX GPU 的电脑即可达成相同运算效能。而且,仅需要原本四分之一体积、二十分之一电力损耗,以及原本六分之一左右的成本支出就可以建构出这样的运算能量。“这些节省下的成本就是金钱,这对企业来说非常的重要!”黄仁勋表示。
最后,黄仁勋表示,过去用在 CPU 制程上的摩尔定律已到尾声,电晶体虽然每年持续增长 50%,但 CPU 效能成长仅 10%,使得 CPU 不可能再成长。因此,透过 GPU 运算的深度学习将是另一种解决方案。而 NVIDIA 的 GPU 是产业专用加速器,将能补足 CPU 在大量运算上的不足。而 Nvidia 也为自主运算时代打造一系列的平台架构,包括 Jetson 超级电脑、JetPack 开发人员套件、DIGITS、Issac 机器人虚拟实验室与深度学习单位等,以满足当前自主机器的世代即将来临的需求。
-
gpu
+关注
关注
28文章
4663浏览量
128540 -
人工智能
+关注
关注
1789文章
46566浏览量
236890 -
英伟达
+关注
关注
22文章
3712浏览量
90622
原文标题:黄仁勋 : GPU自主运算时代来临,深度学习将延续摩尔定律
文章出处:【微信号:icsmart,微信公众号:芯智讯】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论