随着AlphaGo、无人驾驶、智能翻译的横空出世,“人工智能”这个已经存在60多年的词语,突然来到人们面前释放出夺目的光彩。同时被科技圈和企业界广泛提及的还有机器学习、深度学习、神经网络……但事实是,如此喧嚣热烈的气氛之下,大部分人对这一领域仍是一知半解。
如果说谁有资格谈论目前正在进行的人工智能革命,特伦斯·谢诺夫斯基(Terry Sejnowski)无疑是其中一个,特伦斯是20世纪80年代挑战构建人工智能主流方法的重要研究人员之一。
这些研究人员认为,受大脑生物学启发的、那些被称为神经网络、连接主义和并行分布处理的AI实现方法,会最终解决困扰基于逻辑的AI研究难题,从而提出了使用可以从数据中学习技能的数学模型。
正是这些研究人员,证明了基于大脑式的全新计算方法是可行的,从而为“深度学习”的发展奠定了基础。
深度学习路径的由来
经历过20世纪前期关于发展路径的分歧和摸索后,科学家们终于意识到,基于脑科学的研究,将成为AI的助推器。
近年来,包括中国、美国、欧盟、日韩等国家和经济体正将这作为重要工程推进。
特伦斯表示,相比AI,人脑被头骨层层包裹,里面一片黑暗,才是真正的“黑盒子”,但AI背后的算法框架其实可为数学家们掌控。
现代科学家们正在研究,在未来十年一个周期的时间内,如何借助对脑科学的研究,更好让AI落地。
人工智能技术的诞生要追溯到20世纪50年代,当时学界对于如何构建人工智能产生了两种路径分歧。
一类观点主张基于逻辑和计算机程序,另一类则主张直接从数据中学习。前者曾主导AI发展早期的数十年间研究和应用,但后者才是目前大众所知晓的AI技术实现路径。
到今天,我们从AlphaGo两次对战世界级冠军选手中了解到其得以发展下来的原委。
Google旗下团队通过让机器学习围棋的多样化棋局数作为基础数据,AlphaGo除了具备评估盘局的深度学习网络,还有解决时间信用分配问题的系统,通过这些得以评估落子的行动顺序。
深度学习是一类模式分析方法的统称,就具体研究内容而言,主要涉及三类方法:
(1)基于卷积运算的神经网络系统,即卷积神经网络(CNN)。
(2)基于多层神经元的自编码神经网络,包括自编码(Auto encoder)以及近年来受到广泛关注的稀疏编码两类(Sparse Coding)。
(3)以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络(DBN)。
通过多层处理,逐渐将初始的“低层”特征表示转化为“高层”特征表示后,用“简单模型”即可完成复杂的分类等学习任务。由此可将深度学习理解为进行“特征学习”(Feature Learning)或“表示学习”(Representation Learning)。
以往在机器学习用于现实任务时,描述样本的特征通常需由人类专家来设计,这成为“特征工程”(Feature Engineering)。
众所周知,特征的好坏对泛化性能有至关重要的影响,人类专家设计出好特征也并非易事;特征学习(表征学习)则通过机器学习技术自身来产生好特征,这使机器学习向“全自动数据分析”又前进了一步。
与传统的学习方法相比,深度学习方法预设了更多的模型参数,因此模型训练难度更大,根据统计学习的一般规律知道,模型参数越多,需要参与训练的数据量也越大。
近年来,研究人员也逐渐将这几类方法结合起来,如对原本是以有监督学习为基础的卷积神经网络结合自编码神经网络进行无监督的预训练,进而利用鉴别信息微调网络参数形成的卷积深度置信网络。
面对人工智能
人类还只是“小学生”
纵观科学技术的发展历程,从基础科学,到真正实现商业化,都至少经历了50年时间。
而目前人工智能的应用还是基于30年前完成的基础研究而来,这意味着我们处在人工智能时代非常初级的阶段,也被称为是“弱人工智能时期”。
初级阶段的人工智能相关技术仍面临着诸多挑战,特伦斯表示,不太可能存在“深度神经网络”之外的其他人工智能技术框架。
自1956年人工智能诞生之日起,其目标就是要模仿人工的智能并在机器上实现,但目前人类远远没有达到这个程度。
不过目前,AI在场景中的应用已经可以带来一些惊喜,比如智能翻译。五年前,Google将深度学习相关技术应用到翻译软件中,几乎一夜之间,过往几千年来的文化壁垒就此被打破了。
如今,人工智能正朝着两个方向发展。第一是利用原有的框架,借助大数据应用解决各种问题;第二是研究人员在尝试突破各种边界和限制。
新技术的发展往往是以十年为一个周期计算,可能AI在未来20-30年才会显示出它的潜力。包括自动驾驶技术的发展,也是需要经过十几年甚至几代人的努力来实现。
人工智能技术尚处在发展的第一个阶段,科学家们在尝试理解更复杂的内涵并解释它。比如科学家们研究人类的大脑运作机制,包括大脑是如何从经验中得出推论。
但有时人类得出的结论并不总基于逻辑,未来研究人的大脑神经科学和人工智能的交融将是推进人工智能向更高层级发展有着重要作用。
脑科学研究对于
人工智能有何启示?
实际上,深度学习框架的灵感也正来自对人类大脑运作机制的研究。大脑中有上千亿个神经元,其中有很多彼此相连的突触,科学家在学习它的框架,并且用里面的一些一般性原则进行简化用于深度学习框架的发展。
比如卷积神经网络是用来处理视觉信号,把视觉输入变成神经信号作为输出,去识别图像以及和各种事物做联结。
世界各国对于脑科学的研究在近年来正成为一个重要工程在推进。2013年,美国提出“BRAIN计划”,目的就是创造新的神经技术,以加速对大脑功能和障碍的进一步了解。
关于脑科学要探知的话题有很多,比如人脑对信息的处理和传输速度是毫秒级,远比电脑要慢。
但大脑中的信息传递是非常复杂的过程,了解信息如何储存和处理后,才是人类有效改良AI的关键。
还有一些挑战,假如神经元中的突触连接有所改变,是否会改变信息的输入和输出强度,需要多久才能发现信息传递带来的影响等。
最近,埃隆·马斯克宣布旗下公司Neuralink项目推出侵入式脑机接口方案;Facebook团队也宣布能够通过读取脑损伤参与者的大脑,做到实时解码一小部分对话中的口语单词和短语,这都是对人脑研究的最新重大进展。
通过脑机接口,可以提取到人类的感官信息,一旦这项技术成功,人类在未来就不需要用键盘打字,可以直接提取大脑信息,用意念进行谷歌或者百度搜索,这将带来一个全新的世界和联结方式。
当然,对于脑科学的研究并不只是为了促成人工智能这类基础技术的发展,这将衍生出对更多行业领域的新变革。
-
神经网络
+关注
关注
42文章
4767浏览量
100668 -
机器学习
+关注
关注
66文章
8397浏览量
132518 -
深度学习
+关注
关注
73文章
5497浏览量
121076
发布评论请先 登录
相关推荐
评论