0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

面对同时站在发展和伦理风口浪尖的AI,“机器学习之父”的观点是什么?

zhKF_jqr_AI 来源:未知 作者:胡薇 2018-04-27 10:55 次阅读

编者按:昨夜,“机器学习之父”、加州大学伯克利分校计算机科学与统计学教授教授Michael I. Jordan在Medium上发表文章,阐述了自己对AI这个新兴领域的担忧和看法。对于这个名字,每个涉足人工智能行业的人都该有所了解,Michael I. Jordan在计算、推理、认知和生物科学领域工作了三十多年,兢兢业业为AI当代研究奠定了基础,被称为The Michael Jordan of Machine Learning。

人工智能(AI)是当今时代的“神咒”,它常被技术人员、学者、记者和风投人士挂在嘴边。和其他从技术、学术领域逐渐普及到大众的概念一样,人们谈论它们、误解它们。但这还不是公众和科学家之间存在理解鸿沟的典型案例——对于AI,科学家们和普通人一样尚存疑惑。在这个时代,人们从硅片上看到了实现人类智能的可能性,这种可能性令人倍受鼓舞——也同样令人胆颤心惊。更不幸的是,它让我们分心。

对于AI,有些人也有不同的声音。请看下面这个故事,它涉及人类、计算机、数据和生死攸关的决策,但重点又无关我们的硅片幻想。

差点被“唐氏”的女儿

14年前,我的妻子怀孕了,我们一起去医院做超声波孕检。当时检查室的一位遗传学专家告诉我们,胎儿心脏周围有一些白色斑点,“这些是唐氏综合症的标志,”她说,“现在孩子患病的概率已经提高到了1/20。”为了确认胎儿究竟有没有患病,她建议我们做羊膜穿刺术,但这种手术的风险很大,流产率有1/300。作为一名统计学家,我决定找出这些数据的来源。

长话短说,我找到了英国一项已经进行了十年的统计,他们的研究成果表明超声图像中的钙积聚白色斑点的确可被作为唐氏综合症的筛查指标。但我也注意到,我们做孕检这家医院用的成像机器比研究用的机器要高几百个像素。确认了这些因素后,我转过头来告诉医生:“我觉得这些白斑是假阳性的——它们实际上是‘白噪声’。”她有些惊讶:“啊!这就解释了为什么这几年来医院的唐氏综合症诊断率不断上升;这刚好就是新机器启用的时间。”

最后我们没有做羊膜穿刺术,几个月后,一个健康的女孩儿出生了。但这件事一直困扰着我,我粗略算了下,发现每天全世界有成千上万的人会得到这样的误诊结果,其中许多人也许遵从医嘱做了手术,一些婴儿也许就这样无辜地死去。这种事故一天又一天地发生,直到最后有人发现了真正原因并做了修复。

当然,这些问题和我本人的医疗保健并没有任何关系,它是整个医疗系用的问题,是在不同时间、地点测量变量和结果,进行统计分析,再把经验用于其他时间、地点的医疗诊断的问题。它不仅和数据分析本身息息相关,更和数据库研究人员口中反复强调的“来源”密切相关——这些数据是从哪儿来的,人们从这些数据中得出了什么推论,以及这些推论和显示结果又有多大的相关程度。

一个训练有素的统计学家可以独立完成以上的分析工作,但这个故事的问题在于,我们该怎么为医院设计一个无需人工监督的完善医疗系统。

我也是一名计算机科学家,如果要构建这样一个推理、决策系统,我设想的原则需要结合计算机科学、统计学两门学科的知识,它还要把患者需求纳入其中,而这点是教科书上学不到的。除了医疗机构,其他诸如商业、交通、教育等领域也需要这样一整套原则,在我眼里,这样的原则至少和构建花里胡哨的AI系统同样重要。

“智能”是什么?也许这个时代很快就能给出“答案”。但无论如何,我们都将面临一个重要大挑战,即将计算机和人类结合在一起,从而提高人们的生活水平。目前看来,尽管一些人认为这个任务不如AI研究重要,但我们大可用一颗平常心来看待它——就像一个新创建的工程分支学科,它同样值得尊崇。几十年前,人们在物理和化学基础上衍生出了两个新学科:土木工程和化学工程,它们结合了两门基础学科的核心思想,为社会带来了巨大的资源和驱动力。现在,这个新任务,或者说这个新学科将建立在前一个世纪所有落地思想的基础上——如信息算法和数据。

虽然有了构件块,但我们还缺少把这些构件块整合在一起的原则,所以目前它们只是以特定的方式组合在一起。

在土木工程出现之前,人们也会造各类建筑和桥梁,其中的一些有时会以不可预见的方式酿成悲惨的后果——AI系统也一样,我们正在构建涉及机器、人类和环境的大规模推理、决策制定系统,而这些早期的成果也已经暴露出不少严重的概念缺陷。

不幸的是,我们并不善于预测下一个正在出现的严重缺陷。我们缺少的是一个具有分析和设计原理的工程学科。

AI的前世今生

关于这类内容,目前人们会很频繁、很笼统地用AI这个词来描述,这就使我们很难界定这个新兴技术的范围和后果。也许我们应该更仔细地研究一下在过去和现在,AI到底指的是什么。

如今大多数AI,尤其是公众眼中的AI,其实是几十年来一直被叫做“机器学习”(ML)的东西。ML是一个算法领域,它将来自统计学、计算机科学和许多其他学科(见下文)的想法融合在一起,设计出种种算法来处理数据、做出预测并帮助做出决策。就对现实世界的影响而言,ML是切切实实的,而且并非一朝一夕。

早在20世纪90年代,ML的工业化道路就已经很清晰了,到世纪之交,亚马逊等具有前瞻性的公司已经在业务中广泛使用ML算法,来解决后端问题检测和物流链预测等关键问题,以及创新面向消费者的服务,如建立商品推荐系统。随着其后20年间数据集和计算资源的快速增长,很明显,现在ML的服务对象不再仅限于亚马逊等公司,任何需要依赖大数据制定决策的企业都已经成了它的拥趸。在这种情况下,新的商业模式即将出现,而随之而来的是“数据科学”一词正被用来指代这种现象——社会迫切需要更多的ML算法专家和数据库、分布式系统专家携手合作,构建可扩展的、更强大的ML系统,而这些系统也更全面地反映大社会、大环境的现状。

在过去几年中,这种思想和技术相结合的产物被称为AI,但这个“品牌”的塑造还值得商榷。

从历史上看,“人工智能”这个词是在上世纪50年代后期被创造出来的,它一开始表现的是人们对用软件和硬件实现一种具有人类智能的实体的强烈愿望。我们可以用“人类模仿AI”来表示这一想法,它假设AI应该成为我们人类的一份子,即便不是身体层面上的,那至少也应该是精神层面上的。这还主要是学术界的事。

在当时的学术界,虽然运筹学、统计学、模式识别、信息理论和控制论等相关领域已经存在了一段时间,受人类智能/动物智能启发,它们也能实现一些“低水平”的神经信号传递和决策,如松鼠能够感知它所居住的森林的三维结构,并在期间跳跃。这些成果的确令人鼓舞,但AI关注的是全然不同的领域——它要模仿的是人类的高级认知能力,如“理性”和“思考”。

可惜的是,在60年后,我们还是没能摸透高水平推理和思维模式的原理。因此现在被称为AI的那些事物还是主要存在于低水平的模式识别和运动控制相关的工程领域,或是在统计学领域——这个学科专注于挖掘数据模式、进行有根据的预测,以及测试假设和决策。

20世纪80年代早期,David Rumelhart提出了著名的反向传播算法,被视为所谓的“AI革命”的核心。但这其实是五六十年代控制论中的思想,最早被用在优化阿波罗太空飞船登月的推进系统中。

所以虽然自20世纪60年代以来,AI取得了巨大进展,但我们可以说它并不是模仿人类的AI。相反地,就像阿波罗太空飞船的事例一样,这些想法虽然常常被藏在幕后,但一直是研究人员就特定问题采取的手段。尽管公众对此一无所知,但文档检索、文本分类、欺诈检测、推荐系统、个性化搜索、社交网络分析、计划、诊断以及A/B测试等等,都早已在科学研究和系统建设等领域取得了重大成功——这些也都是推动Google、Netflix、Facebook和亚马逊取得如今地位的重要帮手。

人们可以简单粗暴地用一个“AI”来总结这些事,事实上他们也是这么做的。但这样的标签可能会让从事优化和统计工作的研究人员感到意外,一觉醒来,这些人就发现自己莫名其妙成了“AI研究人员”。这还是次要的,更严肃的问题是,如果我们继续使用这种单一的、不明确的首字母缩写名词,我们又该怎么界定与其相关的知识、商业范畴。

AI、IA和II:三个不同的概念

过去的二十年中,智能增强(IA)作为满足人类实现“人类模拟AI”梦想的一个替代品在工业界和学术界取得了重大进展。它通过计算和数据提供服务,并把它们用来增强人类的智能水平和创造力。IA的一个突出案例是搜索引擎,它提高了人类的记忆和知识积累水平;自然语言处理是另一个典型例子,它提高了人们的交流能力。此外,基于计算的音乐和图像生成能为艺术家提供更多创意。虽然这些服务可能涉及高水平的推理和思考,但目前它们并没有过多地深入——它们中的大多数还是选择执行各种字符串匹配和数字操作,从中捕获人类可以使用的模式。

说到这里,文章涉及的缩写字母已经有很多了,这里我们再说最后一个——智能基础设施(II)。即一个由计算、数据和物理实体构成的网络,它能使人类环境更友好、更有趣、更安全。这种基础设施已经开始在交通、医药、商业和金融等领域出现,将对个人和社会产生巨大影响。它有时也会和“物联网”一起出现,但后者努力实现的仅仅是把“事物”连接到互联网上,而不是让网络依据数据流具备分析这些“事物”,或其他更大目标的关于世界的所有事实的能力。

举个例子,让我们回到我的经历中。我们可以想象自己生活在一个具有“社会规模”的医疗系统中,它在人体、医生和设备之间建立起数据流和数据分析流程,从而能帮助人类进行诊断和提供护理。这个系统收录了大量关于身体细胞、DNA、血液测试、环境、群体遗传学以及药物和治疗的大量科学文献的信息,它不再只关注单个病患或医生,而是关注所有人之间的联系——就像现代医学会把从一堆人身上得出的实验结果拓展到所有人身上一样。

这种做法将有助于确保数据的来源、相关性和可靠性,它们也是现在银行机构在金融和支付领域力图解决的主要问题。放到现实中,我们可以预见这样一个系统会出现多少问题——隐私、安全、责任等——但它们应该被视为挑战,而不是阻碍。

现在放在我们面前的就是一个关键问题:对于这些挑战,研究古典的“人类模仿AI”是不是唯一的方法?事实上,现在不少大热的ML成功案例都是围绕“人类模仿AI”展开的,如计算机视觉语音识别、强化学习和机器人等。所以也许我们应该耐心等待这些领域的进一步发展。但这里有两点需要说明。

首先,虽然人们无法直接从报纸上直接读到研究成果,但即便“人类模仿AI”获得了进展,它带来的影响也是有限的——我们距离实现“人类模仿AI”还很遥远。不幸的是,这些由微小进展带来的快感(和恐惧)引发了行业内的虚假繁荣和媒体的过度吹捧,这在其他工程领域闻所未闻、见所未见。

其次,更重要的一点是,这些领域的成功既不足以解决IA和II中的重要问题,也不是解决这些问题所必需的。以自动驾驶汽车为例,为了实现这种技术,我们要解决一系列工程上的问题,但这些问题可能和人力资源(或从业人口稀少)关系不大。比起他们搜集的那些松散的、只会朝前看的、注意力不集中的人类司机数据,这样一个交通系统(一个II系统)可能更像空中交通管制系统,甚至比当前的空中交通管制系统还要复杂得多,特别是在使用大数据和自适应统计建模来指定决策时。在研究“人类模仿AI”前,这些挑战应该被放在前列。

至于有没有必要这个论点,有时人们也会觉得“人类模仿AI”其实包含了IA和II的愿望,因为它不仅能解决AI的经典问题(如图灵测试),也能为IA和II问题提供了最佳解决方案。但这样的论点还没有历史先例来支撑。为了发展土木工程,我们是不是该开发一个人造木匠或泥瓦匠?或者为了发展化学工程开发一个人造化学家?更激进一些,如果我们的目标是造一座化学工厂,那么我们是不是应该先造一个人造化学家,再由他来思考怎么造一座工厂?

与之类似的一个论点是,人类智慧是我们所知道的唯一一种智慧,我们应该把模仿它做为第一步。但是其实人类并不擅长某些推理——我们有我们的失误、偏见和局限。而且最关键的是,我们也没有进化出类似现代II这样需要面对大规模决策的系统,也不用处理II背景下的各种不确定性。有人可能会说AI系统不仅能模仿人类智能,还会纠正其中的错误,并把这个优点扩展到任意大小的问题上。但是,我们所处的环境不是科幻小说——这种推测性的论点虽然在小说里颇具娱乐性,但它不应该成为我们解决关键的IA和II问题时的主要策略。我们需要根据它们自身的优点来解决问题,而不是为了模仿人类而模仿人类。

未来的展望:一个新兴的工程学科

如果要建立一个II系统,我们可以遇见其中由算法和基础设施带来的困难,但这些并不是“人类模仿AI”研究的核心主题。首先,II系统需要管理分布式知识库,这些知识库的变化十分迅速,并且可能在全球范围内不连贯。其次,这样的系统必须在做出及时的分布式决策时应对云端的相互作用,还要必须处理长尾现象,即有些人的数据量很大,但大多数人的数据却很少。它们必须解决不同管理部门和竞争对手间数据分享困难的问题。最后,尤其重要的一点是,II系统必须将诸如激励、定价等经济理念带入统计和计算基础设施的领域中,这些基础设施会把人和人、商品和商品联系起来。

这时,这样一个II系统就不单单是一个服务系统,它还是一个市场,一个利用数据分析将生产者和消费者联系起来,一个被传媒、文学和音乐等领域广泛呼吁的市场。这一切都会在不断演变的社会、道德和法律规范下井然有序地运作。

当然,经典的“人类模仿AI”问题也仍然值得关注。然而,目前它的重点还是通过收集数据进行人工智能研究,部署“深度学习”基础设施,以及模仿某些狭义定义的人类技能的系统演示——几乎没有新出现的原则,更倾向于偏离经典AI中的一些重大开放性问题。

这些问题包括:把意义和推理引入自然语言处理系统中;推理和表示因果关系;开发处理不确定表示的简便计算方式;以及需要开发制定并追求长期目标的系统。这些是“人类模仿AI”的经典目标,但似乎已经被“AI革命”的喧嚣所湮没。

IA仍将保持相当重要的地位,因为在可预见的未来,计算机还无法像人一样抽象地描述现实世界的情况。对于靠人类和计算机互动来解决我们最紧迫的问题这件事,我们要深思熟虑。我们希望计算机能提高人类的创造力水平,而不是取代人类的创造力。

John McCarthy

当年John McCarthy(当时还是达特茅斯大学的教授,但很快就赴任MIT)之所以创造“AI”这个术语,是因为他想把自己的成果萌芽和Norbert Wiener(当时MIT的一位老教授)的研究区分开来。Wiener的“cybernetics”也是一个与运筹学、统计学、模式识别、信息论和控制论密切相关的新概念,而McCarthy更强调AI和逻辑的关系。一个有趣的反转是,现在我们打着的研究旗号是McCarthy的,在这个时代占据主导地位的研究内容却都是围绕Wiener的(当然,这只是暂时的)。

但我们需要超越McCarthy和Wiener的特定历史观点。

我们需要认识到,目前关于AI的公众宣传——主要集中在工业、学术上的狭窄领域应用——有使我们每一个人面临AI、IA和II三重挑战和机遇的风险。

它无关科幻小说的美梦和超人类机器人的噩梦,更多是关于人类理解和塑造技术的需求,因为它在日常生活中正变得更加现实,影响力也更大。此外,因为它的职责在于理解和塑造,我们也需要来自各行各业的不同声音,而不仅仅是技术上的需求。如果过分专注于“人类模仿AI”研究,我们会闭目塞听以至于听不到更广泛的建议。

在工业界蓬勃发展的同时,学术界也将也将继续发挥重要作用,它不仅会持续提出最具创新性的技术理念,也会将计算机科学、统计学的研究人员和其他学科的人聚集在一起,倾听他们的重要观点,尤其是社会科学、认知科学和人文科学的专家学者。

另一方面,虽然人文和科学是我们发展的大方向,但我们也不能跳出工程范围空做探讨——社会需要一个新建的大工程,而且它应该能按照人们的预期运行。我们不希望辛辛苦苦构建出一个个医疗系统、交通系统和商业系统,结果它们都没什么实际作用,甚至会毁了人们的生活。正如我所强调的,在这个以数据和学习为重点的领域,有一个新的工程学科亟待出现。而就现在已有的这些激动人心的工程应用来看,它们中的任何一个都还达不到成为一个学科的门槛。

而且,我们应该接受这样一个现实:我们正在目睹一个新的工程学科的出现。虽然从狭义上来看,工程这个词——无论是在学术上还是在其他领域内——始终带有冷漠、机械式的意味,甚至还透露出无法受人掌控的消极内涵。但我们真正想要的就是这样一个“工程”学科。

在这个时代,我们终于有一个真正的机会来做一件历史性的大事——创造一个以人为中心的工程学科。

我拒绝为这个学科命名,但如果我们继续沿用AI这个词,这会让我觉得大大受限。让我们扩大范围、淡化炒作并认识到未来的严峻挑战!

——Michael I. Jordan

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30182

    浏览量

    268441
  • 人工智能
    +关注

    关注

    1791

    文章

    46873

    浏览量

    237613

原文标题:“机器学习之父”Michael I. Jordan:人工智能——一场尚未发生的革命

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AI引领智能产业崛起,MEMS传感器迎来风口

    电子机械系统)传感器作为数字时代的感知层,正迎来前所未有的发展机遇。随着AI技术的不断成熟和元宇宙概念的兴起,MEMS传感器作为人机交互的关键技术,正站在智能产业崛起的风口浪尖上。
    的头像 发表于 11-26 17:01 108次阅读

    【书籍评测活动NO.51】具身智能机器人系统 | 了解AI的下一个浪潮!

    复杂环境互动的能力及确保行为的伦理和安全性。 未来的研究需要将视觉、语音和其他传感技术与机器人技术结合,探索更加先进的知识表示和记忆模块,利用强化学习进一步优化决策过程。 具身智能的发展
    发表于 11-11 10:20

    RISC-V在AI领域的发展前景怎么样?

    随着人工智能的不断发展,现在的视觉机器人,无人驾驶等智能产品的不断更新迭代,发现ARM占用很大的市场份额,推出的ARM Cortex M85性能也是杠杠的,不知道RISC-V在AI领域有哪些参考方案?
    发表于 10-25 19:13

    AI大模型的伦理与社会影响

    AI大模型的伦理与社会影响是一个复杂且多维度的话题,以下是对其伦理与社会影响的分析: 一、伦理挑战 数据隐私与安全性 AI大模型
    的头像 发表于 10-23 15:13 377次阅读

    AI大模型与传统机器学习的区别

    AI大模型与传统机器学习在多个方面存在显著的区别。以下是对这些区别的介绍: 一、模型规模与复杂度 AI大模型 :通常包含数十亿甚至数万亿的参数,模型大小可以达到数百GB甚至更大。这些模
    的头像 发表于 10-23 15:01 377次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    的深入发展。 3. 挑战与机遇并存 尽管AI在生命科学领域取得了显著的成果,但也面临着诸多挑战。例如,数据隐私、算法偏见、伦理道德等问题都需要我们认真思考和解决。同时,如何更好地将
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    的重要作用和价值,同时也看到了其面临的挑战和未来发展方向。这次学习不仅丰富了我的知识储备,还激发了我对AI for Science未来发展
    发表于 10-14 09:16

    AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    同时,确保其公正性、透明度和可持续性,是当前和未来科学研究必须面对的重要课题。此外,培养具备AI技能的科研人才,也是推动这一领域发展的关键。 4. 激发创新思维 阅读这一章,我被深深
    发表于 10-14 09:12

    RISC-V如何支持不同的AI机器学习框架和库?

    RISC-V如何支持不同的AI机器学习框架和库?还请坛友们多多指教一下。
    发表于 10-10 22:24

    Samtec AI 应用详述 | 人工智能加速器所需的连接器

    摘要前言 过去几年的发展将人工智能(AI)和机器学习(ML)推上了风口浪尖。随着在线工具的发展
    发表于 09-29 13:44 310次阅读
    Samtec <b class='flag-5'>AI</b> 应用详述 | 人工智能加速器所需的连接器

    AI引擎机器学习阵列指南

    云端动态工作负载以及超高带宽网络,同时还可提供高级安全性功能。AI 和数据科学家以及软硬件开发者均可充分利用高计算密度的优势来加速提升任何应用的性能。AI 引擎机器
    的头像 发表于 09-18 09:16 310次阅读
    <b class='flag-5'>AI</b>引擎<b class='flag-5'>机器</b><b class='flag-5'>学习</b>阵列指南

    平衡创新与伦理AI时代的隐私保护和算法公平

    发展不应背离人类的伦理道德。在推动技术创新的同时,我们必须确保每一步都走得稳健和负责。通过提高透明度、保障算法公平性、保护个人隐私权以及加强国际合作,我们可以确保AI技术的健康
    发表于 07-16 15:07

    人工智能、机器学习和深度学习是什么

    在科技日新月异的今天,人工智能(Artificial Intelligence, AI)、机器学习(Machine Learning, ML)和深度学习(Deep Learning,
    的头像 发表于 07-03 18:22 1118次阅读

    特斯拉擎天柱机器人未来工厂的新成员

    在全球科技创新的浪潮中,特斯拉公司再次站在风口浪尖。当地时间6月13日,特斯拉的股东大会如期举行,这场科技盛宴不仅吸引了全球投资者的目光,更让人们对特斯拉的未来充满了期待。在这次大会上,特斯拉
    的头像 发表于 06-14 14:28 961次阅读

    RFID技术:医药管理的未来之选

    近日,国家医保局对某药业集团连锁门店的违规行为进行了通报,再次将医药管理的问题推到了风口浪尖
    的头像 发表于 06-06 11:20 222次阅读
    RFID技术:医药管理的未来之选