2018年4月18日,由鲲云科技主办的2018年全球人工智能应用创新峰会在深圳五洲宾馆召开,现场来自两化融合服务联盟秘书长周剑,英国皇家工程院院士,电子电气工程师协会院士、帝国理工大学教授陆永青教授,英国皇家工程院院士、英国曼彻斯特大学教授Steve Furber教授、斯坦福大学教授Kunle Olukotun,美国微软Derek Chiou教授,中国超级计算领域国际权威清华大学教授杨广文等众多嘉宾带来了AI从研究到落地应用方向多个角度的精彩演讲。
两化融合服务联盟秘书长周剑表示,世界正处于在从工业经济向数字经济加速转型过度的大变革时代,工业经济向数字经济转型的过程实质就是传统产业能力与IT能力的集成、融合和更新的过程。数字经济发展受限要推动企业的全面数字化,尤其是底层设备设施的数字化,进而实现企业数据的上下层贯通,OT和IT的融合和创新应用。人和机器智能的融合创新是核心。数字时代的核心竞争力体现在产业知识与大数据、人工智能技术的深度融合应用,加速知识创新和价值创造。
两化融合服务联盟秘书长周剑
他同时指出数字经济发展的三大路径:第一、推动IT能力平台化,全面推进产业资源云迁移;第二阶段,推动产业能力平台化,促进产业资源合作和协同共享;第三、推进产业知识与大数据、人工智能深度融合,提升产业创新能力。
英国皇家工程院院士,帝国理工大学教授陆永青教授
英国皇家工程院院士,电子电气工程师协会院士、英国计算机协会院士,天地一体化信息技术国家重点实验室及帝国学院人工智能数据处理联合实验室主任,帝国理工大学教授陆永青教授,带来了《人工智能技术:从研究到实践》的精彩演讲。
他强调,机器学习计算平台能力决定人工智能在各个领域的应用效率。其三个体现领域,金融计算,其响应速度决定交易盈利;而设计优化,其计算时间决定生产率;机器视觉,计算能力决定判断实时性及传输带宽。如何提高机器学习计算平台能力呢?中的核心技术便是——定制计算。而定制计算与传统计算最大的区别在于,传统计算是程序配合处理器,定制计算是处理器配合程序。
陆永青教授就定制计算进入深入剖析,指出可定制计算架构指向深度神经网络,可定制工具指向编译器,而平台生态系统将催生更多的产品。AI落地领域已经在智能金融、智能制造和智慧城市当中,他结合鲲云科技所研发的雨人计算系统进行深入讲解,介绍了其在中国商飞的机载飞行测试、卫星数据处理、数据中心加速等方面的落地应用。
英国皇家工程院院士,电子电器工程师协会院士,英国计算机协会接触院士,英国曼彻斯特大学教授,ARM技术创始人Steve Furber教授,其研究领域包括异步系统、用于传感器网络的超低功率处理器、芯片互连和全局异步本地同步和神经系统工程。
英国皇家工程院院士,英国曼彻斯特大学教授,ARM技术创始人Steve Furber教授
作为欧盟脑计划计算负责人,Steve Furber教授说:“他的一个重要愿景,有一天脑现象可以变成数学方程式,希望关于神经系统的微积分学可以留传给下一代。”他提出两个问题,1、大规模并行计算可以加速我们对人脑的理解吗?我们对人脑的深入探索可以为更高效,容错率更大的并行计算提供方向吗?
近年来,Steve Furber教授和他的团队正在尝试一项大胆的研究计划。这个项目被称为 “Spinnaker”。也可以亲切的叫做“Brain Box”。Spinnaker是一个开源的,释放高速度和可信软件变化多云持续交付平台。比如Spinnake项目之一,在一台电脑里包含一百个手机处理器,能够模拟大约1%的人脑计算,约等于10个老鼠大脑的计算量。
Spinnaker在Netflix公司创建的,数百个团队在数百万次规划中进行了精密的测试。它结合了强大灵活的通道管理系统与云系统供应商的一体化。准备用 100 万个 ARM 微处理器创造一个大脑的电子模型。完成的设计将被放置在10个19英寸的支架上,每个支架搭载100000个芯片,最重要的内置卡片被放置在5个刀片机箱,每个核心模拟1000个神经元。
Web2.0时代,以用户行动为主导产生了海量数据内容,这些内容经由Amazon、谷歌、Facebook、腾讯、阿里等巨型互联网企业收集整理,作为生产资料反馈和服务市场。这过个程中,面对大数据指数级的增长,新一代芯片的构建迫在眉睫。美国电子电气工程师协会院士,斯坦福大学教授Kunle Olukotun,其研究团队的方向在于——帮助拥有特定领域专业知识的用户在无需了解机器学习或者硬件认知的前提下构建起高质量机器学习系统。
Kunle Olukotun教授发表了《用摩尔定律扩展机器学习性能》的演讲,他指出,训练数据是人工智能的关键,训练数据的挑战之一是:昂贵和缓慢,尤其在专业领域;第二、现实世界的问题在变化,手动标记的训练数据不会。
旧的计算模式用算法进行经典确定性计算,进行调式的计算是必须和正确的,新的计算模型从数据训练的概率极其学习模型,为改善并行性创造可能。机器学习中的关键算法是随机梯度下降法(SGD)。SGD是由数百亿个共享单一数据结构的小型作业组成。HALP与SGDH和SVRG的训练损失和验证准确性相匹配。越来越多的数据中心选用FPGA作为应用加速器,正式因为两大优势:性能/瓦特和可编程性。而硬件并行模式有助于提高生产力,改善数据的局部性和利用嵌套并行,并且抓住设计空间,生成verilog,比特流。
Kunle Olukotun教授介绍了Spatial,这种语言负责将算法中的各部分映射至并发处理器中的各部分。作为其核心,这款芯片采用16 x 8交错式计算单元(简称PCU)与模式内存单元(简称PMU)阵列,且各单元通过三条互连通道利用三种控制协议实现对接。与HDL相比,其体系结构和设计参数更容易实现。单一源程序可以映射到许多硬件目标,还可以优化目标参数。
这款113平方毫米的芯片采用Spatial以将应用程序映射至阵列当中,用以交付相当于28纳米制程FPGA芯片约95倍的性能水平以及高达77倍的每瓦性能。最终呈现效果来看,其每瓦性能水平可达FPGA的10倍,而编程易行性则可达FPGA的上百倍。
Derek Chiou教授,美国微软公司partner Group硬件工程经理
Derek Chiou教授表示,微软云系统是基于大规模运算的能力,微软可配置云的目标就是在同一硬件上支持加速基础架构和深度学习神经网络。微软数据中心必须考虑规模经济,有差异就集成新的器件,每1-2年就会有新的应用集成进来。ASIC不是最有效的,我们选择FPGA。
Derek Chiou重点介绍了用于加速软件定义网络的AccelNet,以及用于Bing中DNN加速的BrainWave堆栈,通过发挥FPGA低延迟以及高灵活的特性,实现更高性能的网络和深度学习加速,在效率和成本的约束条件下,充分满足网络及搜索的不同需求。
国家超级计算无锡中心主任 杨广文教授
超级计算领域国际权威杨广文教授介绍了神威。太湖之光超级计算机的系统架构及应用,深入分享神威计算系统的深度学习平台及其优化进展,最后介绍了一下神威。太湖之光超算系统的长期规划,其中包含会引入AI的计算加速芯片,这也将与鲲云科技正在推动的AI芯片方向不谋而合,双方将深入探讨合作的机会。
-
微软
+关注
关注
4文章
6553浏览量
103893 -
算法
+关注
关注
23文章
4587浏览量
92494 -
AI
+关注
关注
87文章
29782浏览量
268074
发布评论请先 登录
相关推荐
评论