0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

遇险阻创始人早逝,敢坚持三剑客逆袭

倩倩 来源:IT168 2020-07-25 10:28 次阅读

神经网络是什么?

神经网络是人工智能领域目前最热门的一种机器学习方法,是目前最为火热的研究方向之一——深度学习的基础。

神经网络这个概念听起来无比深奥,很多非技术人士大都不明白它到底是个啥。让我们继续往下看试试是否可以“窥一斑而知全豹”。

给你一系列图,猜一下图中动物是什么?或者是由哪种动物组合成的?

也许答案你不到一秒就可以脱口而出,凭借人类大脑强大的辨识能力,尽管图中的动物经过变形处理或者视觉误差,我们还是能快速猜出这是什么动物。这就归功于我们大脑的1000多亿个神经元组成的复杂网络,即使动物们并非我们熟知的模样,我们依然可以轻松识别出。

神经网络技术正是受到人类神经元的启发,通过模拟人脑神经网络以实现类人工智能的功能。

人脑中的神经元大家初中时就很熟悉了:

而人工智能神经网络正是模拟人类大脑:

要进一步理解神经网络,我们必须要厘清以下概念:

人工智能:人工智能是一个非常大的概念,其最初定义是要让机器的行为看起来就像是人所表现出的智能行为一样。我们经常听到的语音识别、图像识别、自然语言理解等领域都是具体的人工智能方向,而机器学习、神经网络等概念都属于实现人工智能所需要的一些技术。

机器学习:机器学习是人工智能的一门分支,指通过学习过往经验来提升机器的智能性的一类方法。根据样本和训练的方式,又可以分为监督学习、无监督学习、半监督学习和强化学习等类型。

神经网络:在人工智能领域一般指人工神经网络,是一种模仿动物神经网络行为特征,进行分布式并行信息处理人工智能模型。我们通常使用的神经网络都需要通过训练数据进行参数的学习,所以神经网络也可以被归为一种机器学习方法。

深度学习:作为人工智能领域的新兴方向,深度学习目前还没有严格的定义,一般我们把一些具备较多中间隐含层的神经网络称为深度学习模型。

至暗时刻

2019年,ACM决定将2018年ACM图灵奖授予YoshuaBengio、Geoffrey Hinton和YannLeCun三位深度学习之父,以表彰他们给人工智能带来的重大突破,这些突破使深度神经网络成为计算的关键组成部分。ACM主席 Cherri M. Pancake 表示,“人工智能如今是整个科学界发展最快的领域之一,也是社会上讨论最广的主题之一。

AI的发展、人们对AI的兴趣,很大程度上是因为深度神经网络的近期进展,而Bengio、Hinton和LeCun为此奠定了重要基础”。

神经网络的发展过程遇到了哪些波折?“深度学习三巨头”有哪些有趣的故事?而这些年热门的深度学习又和神经网络有什么样的关系?

今天院长为大家一一道来。

大家知道,我们现在所说的人工神经网络确实是受生物神经网络启发而设计出来的。在1890年,实验心理学先驱William James在他的巨著《心理学原理》中第一次详细论述人脑结构及功能。其中提到神经细胞受到刺激激活后可以把刺激传播到另一个神经细胞,并且神经细胞激活是细胞所有输入叠加的结果。这一后来得到验证的假说也成为了人工神经网络设计的生物学基础。

基于这一假说,一系列模拟人脑神经计算的模型被相继提出,具有代表性的有Hebbian Learning Rule, Oja‘s Rule和 MCP NeuralModel等,他们与现在通用的神经网络模型已经非常相似,例如在Hebbian Learning模型中,已经可以支持神经元之间权重的自动学习。当然,现有的人工神经网络只是对人脑结构的最初级模拟,成人的大脑中估计有1000亿个神经元之多,其复杂性远超目前的所有人工神经网络模型。

1958年,就职于Cornell航空实验室的 Frank Rosenblatt 将这些最初的神经网络模型假说付诸于实施,利用电子设备构建了真正意义上的第一个神经网络模型:感知机(Perceptron)。Rosenblatt现场演示了其学习识别简单图像的过程,在当时的社会引起了轰动,并带来了神经网络的第一次大繁荣。许多学者和科研机构纷纷投入到神经网络的研究中,连美国军方大力资助了神经网络的研究,并认为神经网络比“原子弹工程”更重要。

△Frank Rosenblatt

然而好景不长,上回曾经提到的达特茅斯会议的组织者明斯基,同时也是 Rosenblatt 的同事兼中学同学,在一次会议上和罗森布拉特大吵,认为神经网络不能解决人工智能的问题。

随后,明斯基和麻省理工学院的另一位教授佩珀特(Seymour Papert)合作,写出了《感知机:计算几何学》(Perceptrons:An Introduction to Computational Geometry)一书。该书几乎对处于萌芽中神经网络判处了死刑,书中明斯基和佩珀特证明单层神经网络不能解决XOR(异或)问题,说明神经网络的计算能力实在有限。但“感知机”的缺陷被明斯基以一种敌意的方式呈现出来,当时对Rosenblatt是个致命打击,不久后他因为一次沉船事故离开了人世。原来的政府资助机构也逐渐停止对神经网络研究的支持,神经网络为代表联结主义也随之进入了第一个至暗时刻。

整个70年代,神经网络的研究都处在寒冬之中。1974年,哈佛大学的博士生波斯(Paul Werbos)一篇博士论文证明了在神经网络多加一层,并且利用“反向传播”(back-propagation)学习方法,可以解决XOR问题。之前明斯基所刚提出的神经网络致命伤就被这增加的一层神经网络所轻松化解,这也为之后深度学习方法的提出埋下了伏笔。但这篇论文发表时正处在神经网络研究的低谷,并没有引起足够的关注。

直到八十年代中期,以John Hopfield, David Rumelhar及Hinton为代表的一批科学家进一步将反向传播传播方法引入神经网络的训练中,并提出了Hopfiled Networks和Boltzmann Machine等新的神经网络结构,主导了神经网络的又一次复兴。我们如今耳熟能详的递归神经网络(RNN)、长短期记忆网络(LSTM)和卷积神经网络(CNN)都在这一时期被相继提出。然而,当科学家们在实际训练这些模型时,却又遇到各种各样的问题,一方面当时的神经网络很容易过拟合,另一方面又缺乏足够的数据和计算能力。

深度学习三巨头

到90年代,以支持向量机(SVM)为代表的统计机器学习方法逐渐取代神经网络成为了人工智能的主流。相比于神经网络方法,支持向量机有着更扎实的统计理论基础,有着更好问题优化与求解方法。神经网络再一次陷入低谷,大量之前从事相关研究者开始转向其他方向。不过还是有很多科学家一直在默默坚守,坚信神经网络技术终有一天能够再次爆发,其中最为代表性的就是前面提到的深度学习三位创始人——Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun。

△深度学习三巨头

进入新世纪以来,互联网的飞速发展对AI提出了更多需求,一方面可供训练的数据量大大增加,另一方面问题场景越来越复杂,需要有通用和模块化的方法来快速适应不同的问题,而神经网络在这方面相比于当时流行的统计学习方法都更有优势。

2006年,Hinton在Nature发表了“Reducing the Dimensionality of Data with Neural Networks”一文,提出训练更多层的神经网络来提升神经网络的泛化能力,并给出了具体的解决方案,吹响了神经网络第二次复兴的号角,并引领了深度学习这一AI的新方向。后续深度学习的发展并没有完全按照Hinton这边论文的思路,更多的是依靠算力的增加、数据的增加以及在模型训练里增加的各种技巧。

2010年Hinton和Deng Li把DNN用于声学模型建模,用于替代传统的隐马尔科夫模型,语音识别的词错误率相对降低了30%,震惊了整个AI界。2012年由Hinton和他的学生提出的AlexNet在图像领域著名的ImageNet比赛中,将图像分类错误率由25.8%下降至10%,再次让所有人惊叹于深度学习的威力。在之后的几年中,深度学习又被应用到自然语言处理、语音图像合成、自动驾驶、搜索推荐等几乎人工智能的所有领域,并刷新了几乎所有AI竞赛的最好成绩。在深度学习带动下,AI在这几年中再一次赢来爆发。

那么深度学习方法和传统的神经网络又有什么样的关系呢?

院长在这里在做个技术总结。最早期的神经网络“感知机”只有单层网络结构,被证明无法解决“异或问题”,存在先天的硬伤。后来证明增加神经网络层数并引入反向传播算法之后解决这一问题,这样神经网络的这一短板就被补齐了。然而,神经网络问题从数学上不能保证取得全局最优解(又一硬伤),当训练数据量小的时候容易过拟合,且存在其他一些模型训练的问题,导致再次沉沦。之后Hinton提出采用更多层的神经网络加预训练方法可以解决上述问题,这也就是深度学习的起源。再后来大家发现随着数据量和计算能力的提升,即使不采取预训练方法,单纯增加神经网络层数,也可以达到同样效果。随后更多的深度神经网络模型和训练方法被陆续提出,深度学习开始走向快车道。

最后在总结一下深度学习三位创始人对领域的贡献。Hinton的身世显赫,是著名逻辑学家布尔(布尔代数创始人)的后裔,从出身就带着与计算机的不解缘分。他像是深度学习领域的哲学家,不断地思考与反思,为大家指引前行的方向。在最近的一次人工智能会议上,Hinton表示自己对于反向传播“非常怀疑”,并提出“应该抛弃它并重新开始”。Bengio为深度学习的发展和推广做出了很多基础的贡献,除了大量重要论文外,他还主导研发了Theano深度学习框架,一度成为非常主流的深度学习工具,并带动了后续tensorflow与pytorch等平台的出现。Lecun是Hinton的博士后学生,也是神经网络的坚定信仰者,早在80年代他就在贝尔实验室提出了如今大名鼎鼎的卷积神经网络,当时还叫LeNet,并被广泛应用于支票的数字识别。2013年Lecun加盟Facebook组建FAIR并任职第一任主任,致力于深度学习学术界与工业界的结合。

深度学习在企业场景的应用

近年来,以Resnet和Bert为代表的深度学习算法在计算机视觉和自然语言处理领域继续披荆斩棘,不断创造各项记录。除了模型的创新,这些模型更得益于更大规模的训练样本及更强的算力的支持,很多人也在质疑深度学习这样的发展模式还能持续多久。相比于神经网络,人类在面对新问题时拥有者更好的学习效率和效果,这样说明当前神经网络的实现机制和真正人脑的神经学习机制还存在着很大的差异。如何更好探索好的网络先验结构与参数,以及引入先验知识或者通过迁移学习、多任务学习的方式进行小样本的学习已经成为了近期新的研究热点。特别是在企业服务场景,相对to C场景样本量更少,业务性更强,如何将深度学习方法与这些场景相结合也成为一个重要课题。

深度学习方法在e成科技的对话机器人、人岗匹配、音视频面试等场景起到了非常重要的作用,院长在前几期反复提到的Bert就是其中的重要代表。但作为一家to B企业,e成科技的很多算法都有自身的特殊场景,同时也面临着数据相对不足的问题。为了能使深度学习方法最大限度地发挥威力,e成科技的算法工程师们也进行了非常多的尝试与探索。e成科技AI开放平台可以根据企业业务需求,调用OpenAPI接口或私有云部署,提供NLP能力、实体识别、归一化知识图谱、人岗匹配、简历解析、HR机器人等成熟AI技术基础能力,AI产品组件,定制化解决方案等多种智能服务。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4759

    浏览量

    100456
  • 人工智能
    +关注

    关注

    1791

    文章

    46736

    浏览量

    237293
收藏 人收藏

    评论

    相关推荐

    AMD数据中心业务,营收首超Intel

    在科技行业的激烈竞争中,AMD再次展现了其强大的能力。据最新媒体报道,AMD的数据中心业务在2024年第季度实现了历史性突破,营收首次超越了长期占据市场领导地位的Intel。
    的头像 发表于 11-12 14:35 117次阅读

    新思科技创始人Aart de Geus博士获半导体行业最高荣誉罗伯特-诺伊斯奖

    华盛顿州, 2024 年 8 月 12 日 – 近日,新思科技(Synopsys, Inc.,纳斯达克股票代码:SNPS)创始人兼执行主席Aart de Geus博士获得2024年半导体行业最高荣誉
    发表于 08-12 13:38 365次阅读

    星HBM技术:NVIDIA认证助力业绩飙升

    在8月1日公布的最新财报中,星电子再次展示了其在高带宽内存(HBM)领域的强劲表现。数据显示,星第二季度HBM销售额同比大幅增长超过50%,营业利润更是达到了6.45万亿韩元,这一成绩显著超出市场预期,标志着星在HBM市场
    的头像 发表于 08-01 14:42 403次阅读

    一个射频芯片公司的

    转载自——钟林谈芯 每一次,都是一场自我革命,是对创业的热爱和坚持。 3月19号,NI中国创新发展中心在上海举办了一场“Wi-Fi7 步步为赢”的论坛活动,我受邀现场做了主题分享和交流。 在这次
    的头像 发表于 07-17 16:16 351次阅读
    一个射频芯片公司的<b class='flag-5'>逆</b><b class='flag-5'>袭</b>

    慧能泰推出HP1500+HP3500+HUSB338E 20W快充方案

    好家伙,咱爷研制的这2200W交流电直充可不兴用啊。充电器首要是安全,然后才是速度。比如慧能泰新推出的这款HP1500+HP3500+HUSB338E 20W快充方案,AC-DC和协议芯片均来自慧能泰最新研发的产品,三剑客组合出击,打造高性价比的20W快充高效方案。
    的头像 发表于 07-08 15:20 1603次阅读
    慧能泰推出HP1500+HP3500+HUSB338E 20W快充方案

    ASML创始人逝世...

    当地时间6月11日,光刻机巨头ASML在 领英 平台发文悼念公司创始人之一Wim Troost(维姆·特罗斯)离世。 据百能云芯电.子元器.件商.城了解,ASML公司表示,“Wim Troost去世
    的头像 发表于 06-14 16:43 824次阅读

    ASML创始人离世!

    来源:EETOP,谢谢 编辑:感知芯视界 Link 从ASML社交帐号得知,ASML创始人之一维姆·特罗斯(Wim Troost) 离世。 ASML 在其领英官方账号发布了悼唁: Wim是ASML
    的头像 发表于 06-13 09:10 254次阅读

    亚马逊创始人重回世界首富

    近日,亚马逊创始人杰夫·贝索斯在全球富豪500强排名中再次登顶,成功取代法国奢侈品巨头LVMH的老板伯纳德·阿尔诺,重新夺回首富的宝座。
    的头像 发表于 06-12 17:24 686次阅读

    OpenAI联合创始人Ilya Sutskever宣布离职

    近日,OpenAI的联合创始人Ilya Sutskever在社交平台上宣布,他将离开这家引领人工智能革命的公司。Ilya在推文中回顾了OpenAI的辉煌发展历程,并称之为一个“奇迹”。
    的头像 发表于 05-16 09:26 448次阅读

    FTX创始人被判25年监禁,律师团队将上诉

    3月29日,据报道,FTX数字货币交易平台于2022年末在美申请破产保护。其联合创始人同时也是当时CEO的Sam Bankman-Fried(SBF)离职后,在巴哈马被逮捕,并被递解至美国等待审判。
    的头像 发表于 03-29 09:52 386次阅读

    一加创始人内部讲话曝光 刘作虎称AI手机不是噱头

    一加创始人内部讲话曝光 刘作虎称AI手机不是噱头 AI已经在改革千行万业,我们看到一加创始人内部讲话曝光中就提到AI手机;一加创始人刘作虎在内部讲话中表示,AI手机不是噱头,而是行业大势所趋,3个月
    的头像 发表于 03-12 15:39 853次阅读

    软银集团创始人孙正义计划投1000亿美元建AI芯片公司对抗英伟达?

    根据外媒报道,软银集团创始人孙正义计划筹集1000亿美元,成立一家名为Project Izanagi的人工智能处理器公司。
    的头像 发表于 02-25 15:36 617次阅读
    软银集团<b class='flag-5'>创始人</b>孙正义计划投1000亿美元建AI芯片公司对抗英伟达?

    软银集团创始人孙正义计划筹集千亿美元成立AI芯片公司

    日本科技投资巨头软银集团的创始人孙正义正筹划一项雄心勃勃的计划。据知情人士透露,他正在寻求筹集高达1000亿美元的资金,以成立一家规模庞大的AI芯片公司。
    的头像 发表于 02-20 13:40 685次阅读

    OPPO创始人陈明永:OPPO成立AI中心,加速资源向AI的集中

    今日,OPPO创始人兼首席执行官陈明永发表开年致全体员工的一封信。信中表示:2024年是AI手机元年,AI手机时代将成为继功能机、智能手机之后,手机行业的第阶段。OPPO成立AI中心,加速资源向
    的头像 发表于 02-18 10:18 429次阅读
     OPPO<b class='flag-5'>创始人</b>陈明永:OPPO成立AI中心,加速资源向AI的集中

    项目创始人张汝京?海南航芯竣工投产首期投资21亿元

    据海南国有资产信息,海航芯片项目创始人兼总顾问张汝京博士CIDM模式封存在芯片设计、制造、测试等各部分参与的企业们可以共享资源,不仅可以有效减少风险。”
    的头像 发表于 11-30 11:44 1897次阅读