0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

工程师聊AI芯片,算法的实现什么时候成为问题了?

工程师兵营 2018-08-24 14:34 次阅读

1谈算法不谈智能

IEEE协会首次在京举办研讨会的时候,中国自动化学会副理事长兼秘书长、中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃称不存在AI芯片。对于这一观点的争议非常大,网络上也是众说纷纭。大体上看过一些说法后,其中大多数我觉得更有辩论赛上常用的偷换概念的感觉。大家的注意点仿佛并不在AI芯片上,而是在AI这个概念的争议上。

网上比较常见的智能的定义:

1、首先是最典型的一个现象,几乎“智能”被当做标签打满了各种商品智能手机、智能电视、智能手环、智能家居,甚至智能扫地机器人、智能洗碗机。所谓智能这个概念仿佛变成了常规的嵌入式设备。但凡能接入个网络,WiFi也好ZigBee也罢,能做个简单的语音控制,简单的图像识别,好像就成了人工智能设备。与其将MCU、NPU、ARM、MIPS、STM32等常规的嵌入式环境的核心芯片作为所谓的智能,我倒还是传统一点将其理解为嵌入式芯片罢了。

2、相对另一个极端的理解就是既然是“人工”、“智能”。所谓智能不单纯是对话和互联,这种说法则是上升到意识层面,“人工”制造的这个“智能”应该拥有自己对事物的理解,拥有自己的思维,而不是简单的重复和推断。

3、第三个占了不小比重的人群的理解,更是让我感觉这部分人的理解只是个误解。仿佛使用了机器学习算法、神经网络算法、深度学习算法、贝叶斯算法的,仿佛全部都变成了人工智能。

这里也有人为了回避大家在“智能”上偷换概念,提出了强人工智能和弱人工智能概念区分。强人工智能仿佛成了未来的目标,那我们也就姑且以“弱人工智能”这个概念展开来谈。

说起来所谓的人工智能热潮,人工智能寒冬,已经至少是第三次了。

第一次,在20世纪50年代左右,被称为人工智能之父的约翰麦卡锡创造了lisp语言,也引领了以symbol概念为核心的符号主义人工智能。

第二次,在20世纪70年代左右,BP算法的提出,则是引领了一波以神经网络这个概念为核心的连接主义人工智能。

而现在这一波人工智能概念重新被人们拉出来炒作,则是所谓以机器学习这个概念爆炒。但单讲机器学习这个概念,却发现无论是蒙特卡洛算法、贝叶斯定理、贝叶斯网络、NN神经网络、RNN网络,还是提出了一个包含多隐层的所谓深度学习,其实大体上我并没有见到什么新鲜的面孔,反而都是些几十年前早都已经在玩的东西。可能唯一的不同是现在的硬件性能远远高于从前的硬件性能,FPGAGPU、ZYNQ等更新鲜的设计模型,芯片工艺的大幅提升,让制作芯片的成本急剧下降,让从前很多在数学、在理论上早就玩剩下的东西,可以在一个更可以被人所接收的速度和响应环境下工作。

这也就提到了上述我的观点,我们谈算法不谈智能。所谓强人工智能,确实不是我们现阶段能实现的,获取暂且是连头绪都没有的虚无缥缈的目标。至少人类的认知和意识的模型,我不认为是现在盛行的神经网络连接主义的主流想法,将大量数据作为“经验”堆积出的回归算法。无论是最大似然估计的思维方式、symbole描述的方式,还是贝叶斯最大后验估计的做法,我们与其说做的是智能,不如讲我们在使用“看起来比较智能”的算法。

就像是冯.诺依曼认为蒙特卡洛算法,是最接近上帝的思维方式的算法那样。一个靠随机数据堆积的,几乎不能被称之为算法的算法,又算得上什么上帝的思维?

有人提出过这样一个概念。现在有一个屋子,屋子里有一个手速极快、查表极快的、完全不懂中文的熟练工。我们现在向房间里递入一张写了一句中文的句子,这个熟练工在提前准备好的表中查得一句中文纸条,并且传给屋外的人。他们在这样的情况下,屋外的人跟屋内的人聊得很开心,但屋内的人只是在重复工作,他根本不知道纸条上写的是什么。这种情况下能否认为这个熟练工掌握了中文?

我觉得这个例子是一个可以经典地映射到现在常见的蒙特卡洛算法、最大似然估计、最大后验估计的思维方式上。蒙特卡洛算法按照大量随机经验去评估一个最合理的做法;最大似然估计或者说多元回归算法,或者由神经网络描述的多元回归算法,也只是基于已有大量经验数据去评估一个最合理的做法;最大后验估计模型、贝叶斯算法这种,或者贝叶斯网路这种,我们按照最直白的方式描述,虽然可以评估没有出现过的状况,也只是通过已有、已经拆分过的特征概率来做合理性评估。

这就像是屋内的那个例行公事的查表熟练工一样,其实他什么都不懂,我们哪怕拿出了所谓大数据下、人工智能下的正确答案,也只是通过算法拿出的答案,并不是通过“理解”和“认知”得出的答案。从这个角度来考虑,AI这个概念本就不存在,或者讲笔者的个人观点是Artificial Intelligence中的Intelligence,未免有些狂妄自大。只是不过是用了些数学家们几十年前玩剩下的算法,就开始炒作所谓智能。

但我们抛开所谓“智能”不谈,NN神经网络、BP神经网络、贝叶斯公式这些非常简单的统计学公式,其实在有高性能的硬件和现有的计算机科学的辅助下,超出人类预计的好用。

2谈实现不谈芯片

既然是好用的算法模型,也是接下来的主流发展趋势,我们就暂且不考虑这些用词细节的问题,在上述三种人工智能的理解中,以我个人认为是误解的第三个理解作为立脚点开始向后继续。

这个被王飞跃评价为不存在的AI芯片,不过是上述狭义的机器学习派系中大量算法的不同的实现方式罢了。我们与其去谈用硬件作为AI算法载体的芯片是否存在,不如去讲是用硬件作为算法载体的芯片是否存在。原本AI算法在上述评估后,也只是与常规的算法本质上无异的“算法”而已,既不是什么黑科技,也不是什么新技术。算法是否可以由硬件直接作为载体,而不需要通过软件这个概念,答案当然是肯定的,原本软件就是以硬件为载体工作的。那这个意义上的AI芯片当然是存在的。

大多提到芯片,仿佛就成了什么神秘的高科技。但芯片,也就是所谓的集成电路,大规模集成电路,其本质上还是电路本身。只是通过芯片工艺,晶体管技术实现的体积很小的电路而已。物理学已经几十年没有更新过基本理论了,芯片相对于电路这个概念本身,跟高中学过的电路图,电路元件并没有本质上的区别。

这里我们将芯片暂且狭义地理解为CPU这个概念的话(包含MCU、GPU、SoC等概念,在实际使用中作为核心处理器这个概念存在的芯片),所谓CPU只是集中了大量好用的电路,并将这些芯片内电路的查询使用方式,通过控制总线、地址总线、数据总线这些概念上的高低电平,然后将这些高低电平逻辑抽象成汇编手册这个概念,或者datasheet这些概念,可能有些使用了MMU,还会有虚拟地址映射等概念。但说起来,大体上换汤不换料。

近年来炒作最厉害的AI芯片,主要就是NPU这个概念了。这里NPU作为AI芯片分类,也只是上述第三个对智能的定义的考虑方式,仿佛是我们先将一部分原本就存在的算法划分成了“人工智能算法”,然后使用了这些算法的芯片就都成了“人工智能芯片”。原本我们认为的CPU就是一堆好用的电路的集合,我们将这些常用好用的集成电路中添加一个神经网络算法的实现电路,就成了另一个噱头。

原本就成熟的芯片设计工艺和技术,加上原本就成熟的所谓“智能算法”的实现,以一个技术含量并不高的方式拼凑出来的新的卖点罢了。

总 结

这也只是笔者个人的观点,我们可以谈一下算法、机器学习概念、最大似然估计、最大后验估计这种统计学算法,谈一下神经网络算法的思维方式、多元回归曲线和决策树的设计,我们还是不要谈什么人工智能吧。讲狭义的人工智能我们还可以谈谈算法,拿“人工智能”当噱头那是销售做的事情。

而至于人工智能AI芯片这个概念,着实没什么好谈的,以硬件作为载体实现算法,跟争论用C语言Python、Keras、Tensorflow、caffe,还是VHDL、VerilogHDL,还是所谓芯片硬件去实现算法一样。只是一种算法的实现方式而已,现在的技术除了速度和性能、功耗、算法代码架构、现有工艺是否存在瓶颈等问题,是设计者需要权衡考虑的事情。算法的实现什么时候成为问题了?

简单畅想一下人工智能的未来:

现在这波基于机器学习和深度学习算法引爆的人工智能热潮,笔者个人不认为会维持多久。虽然因为硬件和芯片工艺的提升,让从前因硬件成为瓶颈的问题得到了一定程度的缓解。但哪怕完全解决了运算速度瓶颈,结合类比上述中文纸条的故事。我们制造的不是智能,只是将计算机与统计学几十年前的技术做了一次深度结合罢了,机器学的都只是个样子。

现在吹嘘人工智能的比正经写几行所谓机器学习代码的人要多得多,大体上所谓特征提取的人脸识别、语音识别、基于神经网络算法、基于多项式回归这些的最大似然估计模型,本质上与从前传统的图像处理并没有什么区别,只是从前由人工做的规律总结和特征提取工作,我们通过一定程度的算法,其本质还是以蒙特卡洛式的疯狂尝试去试错,得到一个最为近似的回归曲线罢了。

这次掀起了人工智能的热潮,但人工智能技术的发展本身并没有出现飞跃,只是按部就班进步罢了。我们整合了大量统计学的公式,以人工智能的名义,快速在常规领域拿出了不少看似喜人的成绩。但这种本质上没有技术突破的旧饭新炒,推进了一波以机器学习技术为中心的人脸识别、语音识别、自动驾驶等技术应用。或许“机器学习”是“人工智能”的一大支撑,但毕竟“机器学习”并不是“人工智能”本身,而且清醒的人们很快会开始逐步意识到最大似然估计这个模型本身就是有瓶颈的,而现在离这个瓶颈现在已经很近了。

接下来会是算法的时代,但人工智能的寒冬注定会在短期内再次降临。硬件会是有效的加速辅助工具,但人工智能的核心还会是软件。讲AI芯片是个伪概念,笔者认为倒也不算错。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4754

    浏览量

    129106
  • 算法
    +关注

    关注

    23

    文章

    4622

    浏览量

    93094
  • AI
    AI
    +关注

    关注

    87

    文章

    31195

    浏览量

    269569
  • AI芯片
    +关注

    关注

    17

    文章

    1894

    浏览量

    35117
收藏 人收藏

    评论

    相关推荐

    GpuGeek云平台正式上线,专注AI算法工程师需求

    近日,备受瞩目的Gpugeek云平台于1月6日正式亮相并投入使用。该平台是一个专为算法工程师量身打造的AI基础设施平台,致力于为用户提供全方位、一站式的GPU算力及相关服务。 作为面向算法
    的头像 发表于 01-07 10:40 107次阅读

    【「从算法到电路—数字芯片算法的电路实现」阅读体验】+内容简介

    内容简介这是一本深入解读基础算法及其电路设计,以打通算法研发到数字IC设计的实现屏障,以及指导芯片设计工程师从底层掌握复杂电路设计与优化方法
    发表于 11-21 17:14

    【「从算法到电路—数字芯片算法的电路实现」阅读体验】+介绍基础硬件算法模块

    更大的热情此形势下,国内芯片设计水平必将迎来一次大的升级,同时对从业者的要求也将大大提高。 算法芯片自研的基石即了解组按照购买模块进行组装的方式,芯片开发
    发表于 11-21 17:05

    图像算法工程师的利器——SpeedDP深度学习算法开发平台

    随着人工智能的兴起,AI工程师特别是基于图像的算法工程师日益成为炙手可热的香饽饽。特别是在一些行业市场例如工业领域等行业领域,需要根据具体场
    的头像 发表于 11-08 01:06 342次阅读
    图像<b class='flag-5'>算法</b><b class='flag-5'>工程师</b>的利器——SpeedDP深度学习<b class='flag-5'>算法</b>开发平台

    FPGA算法工程师、逻辑工程师、原型验证工程师有什么区别?

    逻辑工程师和 FPGA 原型验证工程师在工作重点和职责上存在一定的区别: FPGA 算法工程师: 主要关注算法的设计和优化,以在 FPGA
    发表于 09-23 18:26

    正是拼的年纪|65岁电子工程师上班VLOG #65岁退休 #电子工程师 #搞笑 #上班vlog

    电子工程师
    安泰小课堂
    发布于 :2024年07月25日 11:31:02

    大厂电子工程师常见面试题#电子工程师 #硬件工程师 #电路知识 #面试题

    电子工程师电路
    安泰小课堂
    发布于 :2024年04月30日 17:33:15

    芯片封装工程师必备知识和学习指南

    芯片封装工程师是现代电子行业中不可或缺的专业人才,他们的工作涉及将设计好的芯片封装到细小的封装体中,以确保芯片能够在各种环境下稳定、可靠地工作。本文将详细介绍
    的头像 发表于 04-26 10:50 2304次阅读
    <b class='flag-5'>芯片</b>封装<b class='flag-5'>工程师</b>必备知识和学习指南

    fpga工程师前景如何

    FPGA工程师的前景看起来相当积极和广阔。随着5G通信、物联网、边缘计算和人工智能等技术的快速发展,FPGA工程师的需求将进一步增加。FPGA芯片具有可编程性强、并行处理能力强、功耗低等特点,因此在
    的头像 发表于 03-14 16:32 3207次阅读

    优秀电源工程师需要哪些必备技能?

    就带大家细数一下优秀电源工程师具备的那些技能。一、新手必备课程成为一名电源高手需要扎实的理论基础,涉及电路原理、语言编程和控制理论等多个学科领域。为了帮助大家更好地掌握电源开发相关的关键知识点,我们整理
    发表于 01-29 11:29