0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于人工智能的起源

贸泽电子设计圈 来源:贸泽电子设计圈 作者:贸泽电子设计圈 2020-10-17 11:57 次阅读

在经历了一个多世纪的研究后,人工智能AI) 最近变成了一个热门并且异常重要的领域。尤其值得一提的是,模式识别和机器学习已经发展到深度学习 (DL),这是一个比较新的名称,指的是从经验中学习的人工神经网络 (NN)。DL目前已广泛应用到了工业和日常生活中。您智能手机上的图像和语音识别,以及从一种语言到另一种语言的自动翻译,就是DL发挥作用的两个例子。 在讲英语的盎格鲁文化圈中,许多人以为DL是盎格鲁文化圈国家的一项发明创造。

但实际上,DL却是在英语并非官方语言的国家发明的。首先,让我们把目光投向过去,以整个计算史为背景了解AI的发展进程。 早期的计算先行者安提基特拉机械 (Antikythera Mechanism) 于公元前一世纪在希腊建造,是最早的机械计算机器之一。该装置通过37个大小各异的齿轮运转,用于预测天文现象 。

安提基特拉机械的先进性在其后1600年内一直未被超越,直到纽伦堡的彼得·亨利因 (Peter Henlein) 于1505年开始制造小型怀表。但是,与安提基特拉机械一样,亨利因的机械也不是针对用户给出的输入来计算结果的通用机器。它们只是使用齿轮比来对时间做除法而已。手表将秒数除以60得到分钟数,将分钟数除以60得到小时数。

但在1623年,图宾根的威廉·希卡德 (Wilhelm Schickard) 建造了首台进行基本算数的自动计算机。紧随其后的是1640年布莱斯·帕斯卡 (Blaise Pascal) 的Pascaline加法器。随后在1670年,戈特弗里德·威廉·莱布尼茨 (Gottfried Wilhelm Leibniz) 发明了步进计算器,这是首台能够进行加、减、乘、除所有四种基本运算的机器。

1703年,莱布尼茨发表了《二进制算术阐释》(Explanation of Binary Mathematics),这就是现在几乎所有现代计算机上都在使用的二进制计算方法。 数学分析和数据科学也在不断发展。大约在1800年,卡尔·弗里德里希·高斯 (Carl Friedrich Gauss) 和阿德里安-马里·勒让德 (Adrien-Marie Legendre) 通过线性回归(现在有时称为“浅层学习”)发展出了模式识别的最小二乘法。高斯就是使用了这种算法让人们再次观测到小行星谷神星。他分析了先前观测的数据点,然后使用多种技巧来调整预测算式的参数,从而准确预测了谷神星再次出现的位置,这让高斯名声大噪。 差不多在同一个时期,法国出现了第一台实用的程控机器:由穿孔卡片编程的自动织布机。

1800年左右,约瑟夫·玛丽·雅卡尔 (Joseph Marie Jacquard) 和同事就此成为了第一批事实上的程序员。 1837年,英格兰的查尔斯·巴贝奇 (Charles Babbage) 设计了被称为“分析机”的更通用的程控机器。当时没有人能够把它造出来,也许是因为它的设计仍然基于繁琐的十进制而不是莱布尼兹的二进制运算。不过,至少他设计的通用性次之的“差分机2号”在1991年造出的样机表明能够运行。 20世纪伊始,智能机器方向上的进步大大加快。以下列出了1900年以来与AI发展相关的主要里程碑: 1 1914年,西班牙人莱昂纳多·托雷斯·伊·克维多 (Leonardo Torres y Quevedo) 使用电磁元件建造了第一台国际象棋自动机。它能从任何位置开始完成王车残局而无需人工干预。

当时,国际象棋被认为是一种高智力水平的活动。

1931年,奥地利人库尔特·哥德尔 (Kurt Gödel) 提出了第一种基于整数的通用编码语言,从而成为AI理论以及整个理论计算机科学的奠基者。他用这种编码语言来描述通用的计算定理证明器,确定数学、运算和AI的基本限制。1960年代和1970年代,AI和专家系统中许多后来的工作都将哥德尔的方法应用于定理证明和推论。

1935年,美国数学家阿隆佐·邱齐 (Alonzo Church) 发表了哥德尔1931年成果的扩展,解决了“可判定性难题”,也就是决策难题,引入了被称为“λ演算”的替代通用语言。这便是流行编程语言LISP的基础。英国的艾伦·图灵 (Alan Turing) 在1936年使用了另一种同样强大的理论结构重新构造了这项成果,现在这种结构被称为“图灵机” (图1)。他还提出了一种主观AI测试。

图1:英国人艾伦·图灵在1936年使用被称为图灵机的理论结构重构了流行编程语言LISP。(来源:EQRoy/Shutterstock.com)

4 1935年至1941年间,康拉德·楚泽 (Konrad Zuse) 建造了第一台具有实用意义并且可以工作的程序控制计算机Z3。在1940年代,他还设计了第一种高级编程语言,并用它编写了第一个通用国际象棋程序。1950年,楚泽制造出世界第一台商用计算机Z4,比第一台UNIVAC早了几个月。 5 尽管“AI”这一名称是约翰·麦卡锡 (John McCarthy) 在1956年的达特茅斯会议上创造的,但早在五年之前,在巴黎举办的著名的计算机与人类思想大会 (“Les Machines à Calculer et la Pensee Humaine”) 上就已讨论这个主题。赫伯特·布鲁德勒 (Herbert Bruderer) 非常恰当地将其称为首次关于AI的大会。在那次有数百名世界专家参加的会议上,诺伯特·维纳 (Norbert Wiener) 和前面提到的托雷斯·伊·克维多著名的国际象棋机进行了一场对局。 6 20世纪50年代后期,弗兰克·罗森布拉特 (Frank Rosenblatt) 开发了用于“浅层神经网络”的感知机和简单学习的算法。这些实际上是高斯和勒让德在1800年左右推出的古老线性回归器的变形。罗森布拉特后来还考虑过更深度的网络,但并未取得太多进展。

7 1965年,两位乌克兰人阿列克谢·伊瓦赫年科 (Alexey Ivakhnenko) 和瓦伦丁·拉帕 (Valentin Lapa) 发表了第一篇有关具有任意层数的深层多层感知机学习算法的文章。如果说前馈网络领域中有一位“深度学习之父”,一定非伊瓦赫年科莫属。即使按照2000年以后的标准,他的网络也属于深层 (达到8层)。和如今的深度神经网络类似,他的网络能够通过学习来创建分层和分布式的传入数据内部表述。最近几十年来,深度学习变得非常重要。它是AI的一个专门化分支,在某种程度上与人脑有关;人脑包含大约1000亿个神经元,每个神经元都与1万个其他神经元相连接。其中有些是输入神经元,可为其他神经元提供数据(听觉、视觉、触觉、痛觉、饥饿感)。

还有一些神经元是输出神经元,可以控制肌肉。大多数神经元隐藏于二者之间,思维就在这些神经元中进行。大脑通过改变连接的强度或权重来学习,这些连接决定了神经元相互影响的强度,并对一生中的所有经历进行编码。如今的深度学习人工神经网络正是由此获得启发,能够比之前的方法更好地学习。 8 1969年,马文·明斯基 (Marvin Minsky) 和西摩·佩珀特 (Seymour Papert) 的出名著作《Perceptrons: an introduction to computational geometry》(感知机:计算几何学导论) 介绍了浅层学习的局限性,探讨了这个实际上已在4年前由阿列克谢·伊瓦赫年科和瓦伦丁·拉帕解决的问题。有人说明斯基的书延缓了与神经网络有关的研究,但事实并非如此,或者说在美国之外进行的研究肯定不是这种情况。在随后的几十年里,许多研究者 (尤其是在东欧) 以伊瓦赫年科等人的成果为基础继续研究。即使是在2000年代,人们仍在使用他被广泛引用的方法来训练深层网络。

人工智能的火热,令人们都以为这是近年发明的新科技,但其实人工智能的发展在人类历史可算是源远流长,令人意想不到。

作者:Jürgen Schmidhuber

Jürgen Schmidhuber经常被媒体誉为「现代人工智能之父」。他在大约15岁时就希望能开发一种比他自己更聪明、能够自我完善的人工智能 (AI),并以此作为退休之前的主攻目标。他的实验室自1991年起引领了深度学习神经网络的研究,提出了包括长短期记忆 (LSTM) 在内的多项技术,为机器学习领域带来了革命性的创新。到2017年,LSTM已经在30亿设备上得到运用,每天由全球数家市值最高上市公司的用户发起的使用请求多达数十亿次。LSTM显著改善了超过20亿台Android手机的语音识别功能(2015年起);谷歌翻译使用LSTM大幅改善了机器翻译的质量(2016年起);Facebook每天使用LSTM技术执行逾45亿次自动翻译(2017年);苹果公司在约10亿台iPhone的Siri和Quicktype功能中采用了LSTM技术(2016年起);

亚马逊公司的Alexa语音助手也采用LSTM技术来回答问题(2016年起);还有各种数不胜数的其他应用也采用了LSTM技术。2011年,他的团队率先借助深度神经网络技术赢得了一项官方举办的计算机视觉识别大赛,并且识别能力超过了人类;2012年,他们又率先借助深度神经网络技术赢得了一项以检测癌症为主题的医疗影像识别大赛。这些成就无不引起了业界的极大兴趣。

此外,它的研究小组还涉足元学习、数学严谨的通用AI,以及在通用问题求解中通过自我学习实现递归自我改善(1987年起)。在1990年代,他在研究中引入了无监督对抗神经网络,这些神经网络通过极大极小博弈 (minimax) 的方式相互竞争,以实现人工好奇心等特性。他的创造力,好奇心和乐趣的正式理论解释了艺术,科学,音乐和幽默。他提出的有关创造力、好奇心和乐趣的形式理论可以为艺术、科学、音乐和幽默提出解释。他还概括了算法信息论和物理学中的多世界理论,并且引入了「低复杂度美学」的概念,也就是信息时代的极简艺术形式。他在研究生涯中获奖无数,写作了超过350篇经过同行评审的论文,并且频繁现身大型活动的主题演讲。他是NNAISENSE公司的首席科学家,该公司肩负着率先实现实用的通用AI的使命。他还向许多政府机构提供有关AI战略的建议。

原文标题:人工智能的起源可以追溯到古希腊

文章出处:【微信公众号:贸泽电子设计圈】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 计算机
    +关注

    关注

    19

    文章

    7532

    浏览量

    88421
  • AI
    AI
    +关注

    关注

    87

    文章

    31443

    浏览量

    269836
  • 编码
    +关注

    关注

    6

    文章

    954

    浏览量

    54911
  • 人工智能
    +关注

    关注

    1793

    文章

    47615

    浏览量

    239557

原文标题:人工智能的起源可以追溯到古希腊

文章出处:【微信号:Mouser-Community,微信公众号:贸泽电子设计圈】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    嵌入式和人工智能究竟是什么关系? 嵌入式系统是一种特殊的系统,它通常被嵌入到其他设备或机器中,以实现特定功能。嵌入式系统具有非常强的适应性和灵活性,能够根据用户需求进行定制化设计。它广泛应用于各种
    发表于 11-14 16:39

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    幸得一好书,特此来分享。感谢平台,感谢作者。受益匪浅。 在阅读《AI for Science:人工智能驱动科学创新》的第6章后,我深刻感受到人工智能在能源科学领域中的巨大潜力和广泛应用。这一章详细
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    很幸运社区给我一个阅读此书的机会,感谢平台。 《AI for Science:人工智能驱动科学创新》第4章关于AI与生命科学的部分,为我们揭示了人工智能技术在生命科学领域中的广泛应用和深远影响。在
    发表于 10-14 09:21

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    周末收到一本新书,非常高兴,也非常感谢平台提供阅读机会。 这是一本挺好的书,包装精美,内容详实,干活满满。 《AI for Science:人工智能驱动科学创新》这本书的第一章,作为整个著作的开篇
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    RISC-V在人工智能图像处理领域的应用前景十分广阔,这主要得益于其开源性、灵活性和低功耗等特点。以下是对RISC-V在人工智能图像处理应用前景的详细分析: 一、RISC-V的基本特点 RISC-V
    发表于 09-28 11:00

    人工智能ai 数电 模电 模拟集成电路原理 电路分析

    人工智能ai 数电 模电 模拟集成电路原理 电路分析 想问下哪些比较容易学 不过好像都是要学的
    发表于 09-26 15:24

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,方法进行描诉,有利于总结经验,拟按照要求准备相关体会材料。看能否有助于入门和提高ss
    发表于 09-09 15:36

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    ! 《AI for Science:人工智能驱动科学创新》 这本书便将为读者徐徐展开AI for Science的美丽图景,与大家一起去了解: 人工智能究竟帮科学家做了什么? 人工智能将如何改变我们所生
    发表于 09-09 13:54

    报名开启!深圳(国际)通用人工智能大会将启幕,国内外大咖齐聚话AI

    8月28日至30日,2024深圳(国际)通用人工智能大会暨深圳(国际)通用人工智能产业博览会将在深圳国际会展中心(宝安)举办。大会以“魅力AI·无限未来”为主题,致力于打造全球通用人工智能领域集产品
    发表于 08-22 15:00

    FPGA在人工智能中的应用有哪些?

    FPGA(现场可编程门阵列)在人工智能领域的应用非常广泛,主要体现在以下几个方面: 一、深度学习加速 训练和推理过程加速:FPGA可以用来加速深度学习的训练和推理过程。由于其高并行性和低延迟特性
    发表于 07-29 17:05

    人工智能人工神经网络有什么区别

    人工智能(Artificial Intelligence,简称AI)和人工神经网络(Artificial Neural Network,简称ANN)是两个密切相关但又有所区别的概念。 定义和起源
    的头像 发表于 07-04 09:39 1384次阅读

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2)

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2) 课程类别 课程名称 视频课程时长 视频课程链接 课件链接 人工智能 参赛基础知识指引 14分50秒 https
    发表于 05-10 16:46

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V1)

    课程类别 课程名称 视频课程时长 视频课程链接 课件链接 人工智能 参赛基础知识指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:参赛基础知识指引
    发表于 04-01 10:40

    2030 年2030 年关于人工智能的五点预测

    本文由半导体产业纵横(ID:ICVIEWS)编译自semiengineering以下是关于2030年人工智能世界将会呈现出的五个大胆预测。2030年,人工智能领域将会有怎样的变化
    的头像 发表于 03-28 08:26 739次阅读
    2030 年2030 年<b class='flag-5'>关于</b><b class='flag-5'>人工智能</b>的五点预测

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17