近日,百度AI开发者大会“Baidu Create 2019”在北京举行。百度首席技术官王海峰与华为消费者BG软件总裁王成录博士联合宣布,百度飞桨与华为麒麟达成深度合作。
这也意味着,中国人自己的深度学习平台将运行在中国人自研的全球领先的芯片上,两大国货之光将充分发挥各自在软、硬件方面的优势,走出中国智能之路。
今年4月份,百度首次公布PaddlePaddle中文名“飞桨”。6月28日,王海峰参加2019中国国际软件博览会发表演讲时表示,深度学习框架是智能时代的操作系统。百度飞桨深度学习平台正在推动人工智能的快速发展,加快中国的产业智能化进程。
据悉,飞桨已开源70多个经过真实业务场景验证的官方模型,涵盖视觉、NLP、推荐等AI核心技术领域,成为官方支持模型最多的深度学习平台。
双方的合作内容包括三大方面:
第一,百度飞桨将与华为麒麟芯片在HiAI Foundation底层全面对接,最大限度释放芯片硬件能力,为端侧AI提供最强劲的算力;
第二,双方将共同优化经典模型,让搭载麒麟芯片的设备运行得更加流畅,为用户提供绝佳的体验;
第三,通过深度学习框架的性能和功能诉求,驱使芯片不断提升算力,驱使下一代芯片的快速演进。
百度发布远场语音交互芯片鸿鹄
继去年开发者大会发布“昆仑”芯片后,今天,百度又发布了一款芯片——远场语音交互芯片“鸿鹄”。
据介绍,鸿鹄芯片使用了HiFi4自定义指令集,双核DSP核心,平均功耗仅100mW。这款芯片根据车规级标准打造,将为车载语音交互、智能家具等场景带来巨大的便利。
考虑到百度和吉利已经在在智能网联、智能驾驶、智能家居、电子商务等领域达成战略合作,不难猜测,鸿鹄芯片有望在吉利汽车的车载系统中部署。
至于前文提到的昆仑,发布于去年的百度AI大会,当时称其为业内算力最高的AI芯片,采用三星14nm工艺,拥有260TOPS性能、512GB/s带宽、100瓦+功耗,几万个小核心构成。
今天,百度还宣布将与英特尔合作,共同开发用于 AI 训练的新 Nervana 神经网络芯片处理器 NNP-T,以加强百度的深度学习平台飞桨的 AI 培训效能。
这款 NNP-T 芯片,全名为 Neural Network Processor-T,16nm制程芯片,前身为 NNP-L 1000,又被称为是专为训练神经网络设计,将用来进行大规模的「高效深度学习」,以达成其他类型的 AI 应用。
英特尔的 Intel Xeon Scalable 处理器已用来支持了百度的飞桨平台,而两家公司合作开发的 NNP-T 将用来优化图像识别,增强该处理器在飞桨平台上的 AI 培训。
英特尔称 NNP-T 拥有 24 个计算集群,以及 32GB 的高带宽内存,将和本地的 SRAN 一同提高显卡的 AI 培训性能 10 倍以上,和 3 至 4 倍的 NNP 芯片 Lake Crest 性能。
Nervana NNP-T 神经网络处理器,根据英特尔在 2016 年 8 月收购 AI 新创公司 Nervana System 命名,由前 Nervana 首席执行长 Naveen Rao 领导的英特尔 AI 团队开发。
NNP-T 专门用来执行 AI 培训,包括搜集数据和执行任务,今年的消费电子展(CES) 上,英特尔首次宣布了 NNP-I 芯片处理器,该处理器将机器学期的过程中进行推测并取得结果,执行任务。
这款又被称为 NNP 系列芯片处理器于 2017 年首次亮相,第一代芯片目前用来当作软件开发原型,和用来向合作伙伴进行演示的硬设备。
Nervana NNP-T 神经网络处理器预计将于今年量产。
-
芯片
+关注
关注
454文章
50430浏览量
421890 -
华为
+关注
关注
215文章
34313浏览量
251198 -
百度
+关注
关注
9文章
2257浏览量
90259
原文标题:动态 | 百度又推出了一款芯片,并与华为麒麟达成深度合作
文章出处:【微信号:wc_ysj,微信公众号:旺材芯片】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论