人物观点:
25年前,当网络刚出现的时候,每个人都变成了电子商务,每一个过程都变得“网络化”。现在,随着AI技术的发展,每个人都将成为“AI企业”,或者是“C企业”,即认知企业,每个人都在获得“认知能力”。每一个过程都会被“认知化”。每一个过程都将从新的数据和新的互动中学习。
本期嘉宾是玛诺基·萨克森纳(Manoj Saxena),他和我们讨论了认知计算、意识、数据、DARPA、AI解释能力以及超收敛性(superconvergeni)等话题。
玛诺基·萨克森纳(Manoj Saxena),他拥有密歇根大学的工商管理硕士学位以及印度伯拉理工学院的管理学硕士学位。是CognitiveScale公司的执行总裁,该公司为医疗保舰商业和金融服务市场开发机器智能软件。在此之前,萨克森纳曾是IBM沃特森项目的总经理,他也是该项目的第一任总经理。此外,他还在五年内创办并出售了两家由风投机构支持的初创公司,是创业者基金IV的创始董事总经理,这是个价值1美元的种子基金,专门投资于认知计算技术。
关于AI的五个误区
【问】:众所周知,你总是回避“人工智能(AI)”这个词,而倾向于使用“认知计算”,甚至你的个人简介里也只提到了在认知计算方面取得的成就。这是为什么?
萨克森纳:对我来说,AI是制造智能系统和智能机器的科学,而认知计算以及AI的大部分都是围绕着取代人类的思维而开发的,并创造出能够更好完成人类工作的系统。我认为这项技术最大的机遇(已经在多项研究报告中得到证实)是在增强人类方面。因此,对我来说,AI并非指人工智能,而是增强智能。你可以用机器来增强和扩展人类的能力。认知计算就是利用AI技术和其他技术将人类与机器进行匹配,从而增强人类的决策能力和体验。
我把认知计算看作是AI和其他技术的应用,具体来说,我称之为“钢铁侠的贾维斯套装”,它让每个人都成为了超人。这就是认知计算的意义所在,坦白地说,这是我们在运行IBM沃特森项目时就开创的领域,我们相信,它也是IT和企业领域的“下一个大事件”。
【问】:当AI的概念首次被提出时,研究人员在达特茅斯会面,他们认为自己可以在当年夏天就让它成为现实。他们在论文中认为,就像物理学中只有少数定律,电力学中也只有几个定理那样,他们认为AI也只需要几条规则即可。AI最初出现了很多错误,但是现在,我们对它的发展前景以及可以用它做什么更为乐观。在过去的十年里,AI领域发生了哪些变化?
萨克森纳:我认为其中有两个维度需要关注,一个是当AI最初发展的时候,其全部意图是“人工模拟世界。”然后,它转向“模拟人类思维”。而现在,我认为最有潜力的应用是“模拟人类和商业体验”。每个目标都非常庞大。最初的“模拟世界”和“模拟大脑思维”都可以被看做大规模的练习。在很多情况下,我们甚至都不知道大脑是如何运作的,所以你如何对自己都不理解的东西进行建模呢?这个世界太复杂、变化太快,以至于我们根本无法做出如此大的模型。
我认为,更实用的方法是使用AI来模拟微体验,无论是Uber应用还是Waze都是如此。或者是对一个商业过程进行建模,不管它是索赔解决方案,还是承接保险,亦或是糖尿病管理。我想这就是第三个AI时代将更加专注的领域,它不是为世界建模,也不是为思维建模,而是为人类体验和商业过程建模。
【问】:那么,这是否意味着我们降低了对它的期望?
萨克森纳:我想我们是专门从事这项工作的。如果你再仔细看看人类的思维,你可能不会相信某个孩子能一夜之间就变成天才。更不用说一个能理解所有科学、所有语言和所有国家的天才了。我认为,在如何以及哪里应用AI方面,我们得到了更务实的结果,而不是更多研究和科学驱动的结果。
【问】:我注意到你曾两次使用“思维”这个词,而不是“大脑”。这是故意的吗?如果是,你认为“思维”是从哪里来的?
萨克森纳:我认为现在AI有很多炒作,而且出现了很多误解。我很想这样说:“如今的AI等同于‘人工膨胀(artificially?inflated)’或‘惊人的创新(amazing?innovations)’。我认为在‘人工智能等同于人工膨胀’的领域里有五个误区。”最早的误区之一是,AI等同于人类思维的替代品。我将人类大脑与人类思维、人类意识区分开来。所以,在最好的情况下,我们想要做的就是利用AI的某些部分模拟人脑的功能,而不是说模仿人类思维或人类意识。
我们上次讨论过这个问题,我们甚至不知道意识是什么,除了靠医生宣布病人是死是活外,我们根本没有意识探测器。而对于人类思维有一种说法是,你可能需要量子计算机才能真正了解一个人的思维是如何工作的,它不是布尔型机器或冯诺依曼机器,而是一种不同类型的处理器。但我认为,人类的大脑可以被分解,可以通过AI增强,从而创造出非凡的结果。我们已经在放射学、华尔街、定量分析和其他领域看到了这一点。我认为更令人兴奋的是,可以将AI应用于这些领域。
【问】:你知道,这真的很有趣,因为有个持续了20年的研究项目OpenWorm。即专门研究线虫的大脑,它有302个神经元组成,研究人员希望对它进行建模。即使是在20年后,从事这个项目的研究人员也说,这或许是不可能实现的。所以,如果你不能模拟线虫的思维,那么有一件事是肯定的,在模拟线虫的大脑之前,你更无法对人类思维进行建模。
萨克森纳:完全正确。你知道我的看法,我更感兴趣的是“更富有”,而不是“更聪明”。我们需要变得更聪明,但同时我们也需要变得更加富有。我所谓的“更富有”并非单单指有钱,我的意思是:我们如何利用AI来改善我们的社会、我们的企业以及我们的生活方式。这就是我为何认为应以“更注重结果”而不是“科学研究”的方式来解决这个问题的原因,我认为前者是一种更实用的AI应用方式。
【问】:所以,你提到了五个误解,它就是其中之一。其他的四个误解都是什么?
萨克森纳:第一个误解是,AI等同于取代人类思维。第二个误解是,将AI与自然语言处理等同起来,但实际上这与事实相去甚远。自然语言处理只是AI中的一种技术。这就像是在说:“我有能力理解和阅读一本书,而这就是我的大脑的全部能力。”这是第二个误解。
第三个误解是,AI和大数据、分析数据没什么分别,大数据和分析工具是用来捕捉更多AI输入的工具。但认为大数据和AI没有分别,只是因为我能感知到更多,可以变得更聪明。所有大数据都会给你更多的信息,让你有更多的感觉。它不会让你变得更聪明。这是第三个误解。
第四个误解是,与垂直应用相比,水平部署的AI更好用。我相信真正的AI以及在企业中取得成功的AI,必然是垂直领域的AI。因为说“我有个AI”是一回事儿,而“我有一个懂得保险的AI”则是另一回事儿,还有能理解糖尿病的AI,能理解“超级碗”广告的AI等。每个AI分支都需要对数据、模型、算法和经验进行特定领域的优化。这是第四个误解。
第五个误解是,AI完全是关于技术的。而在最好的情况下,AI只有一半与技术有关。这个等式的另一半与技能有关,与新流程、方法和管理有关,比如如何在企业中负责任地管理AI等。就像互联网出现的时候,你没有办法和流程来创建网页,建立网站,管理网站不被入侵,以及管理网站的更新等。类似地,有个完整的AI生命周期管理,这也是CognitiveScale公司关注的问题:如何以负责的、大规模的方式创建、部署和管理AI?
传统IT系统不具备学习能力,它们主要是基于规则建立的系统,以规则为中心的系统不会学习,而以AI为基础系统是基于模式的,它们可以从模式中学习。因此,与不具备学习能力的传统IT系统不同,AI系统有自学和几何级数提升自我的能力。如果你无法获得对这些AI系统的可见性和控制能力,那么你可能会面临CognitiveScale公司所谓的“流氓AI”的巨大问题,它是不负责任的AI。你知道恐怖电影《鬼娃孽种》(Seed of Chucky)中的场景吧,就像许多鬼娃在你的企业里跑来跑去,将那里搞得一团糟。我们需要的是全面的端对端视图,从设计、部署到生产,以及在规模上管理AI。这需要的不仅仅是技术,还需要技能、方法以及过程。
AI必须作为一项商业战略来完成
【问】:在我们更早的聊天中,你提到有些人在扩展他们的AI项目时遇到了困难,他们在自己的企业里开始,让他们的企业有了准备。我们来谈谈这个问题。为什么会这样,那么解决方法是什么呢?
萨克森纳:是的。在过去五年中,我与超过600名客户进行了交流,从IT级别到董事级别,再到首席执行官级别。有三件大事正在发生,他们正在努力获取AI的价值。第一,AI被认为是数据科学家和分析人员才可以做的事情。然而AI实在太重要了,不能只留给数据科学家去做。AI必须作为一项商业战略来完成。AI必须通过自顶向下的方式来驱动业务成果,而不是自下而上地寻找数据模式。这是第一部分。我看到很多正在进行的科学项目。其中一位客户将其称为“飞镖vs泡沫”。他说:“有很多项目正在进行中,但我怎么知道泡沫在哪里,这对我所拥有的数十亿美元的业务真的有帮助吗?”有很多我称之为“自下而上的工程实验”正在进行中,它们可能不会有太大帮助。
第二,数据科学家和应用开发人员正在努力将这些项目投入生产,因为他们无法为你在企业中需要的AI提供基本能力,比如解释能力。我相信,目前99.9%的AI公司在未来3年内无法实现这一目标,因为它们缺乏一些基本的能力,即解释能力。在互联网上通过深度学习网络找到喵星人的照片是一回事,向首席风险官解释为什么某项指控被拒绝、病人为何死亡则是另一回事,而现在他们又面临着一场价值数百万美元的诉讼。AI必须是负责任的、值得信赖的、能够解释的,并能够说明为什么当时做出了这样的决定。由于缺乏这种能力,而且有五种我们称之为“企业级AI”的能力,大多数项目都无法进入生产阶段,因为它们无法满足安全性和性能方面的要求。
最后,这些技能依然非常稀少。有人曾告诉我,在这个世界上只有七千个人拥有能够理解和运行AI模型和网络的技能,比如深度学习和其他网络。想象一下,7000人。我知道有一家银行,它有22000名开发者,这仅仅是一家银行。如今AI投入实践中使用的方式依然存在着巨大分歧,与此同时,AI技能的发展也面临着巨大的挑战。
这是CognitiveScale公司正在做的另一件事,我们创造了这个平台来帮助AI民主化。如何让应用开发者、数据科学家和机器学习人员协同工作,并在90天内部署AI?我们有一种名为“10-10-10”的方法,即在10小时内,我们选择一个用例;在10天内,我们使用它们的数据建立参考应用程序;最后在10周内,我们将它们投入生产实践中。我们通过帮助这些团队合作开发一个名为“Cortex”的新平台,让你可以安全地将AI大规模地投入生产。
【问】:在这一点上,欧洲人正在努力,以弄明白AI是否为你做出了决定,你有权利知道为什么它会拒绝为你贷款。所以,你是说这是现在还没有发生的事情,但这是有可能发生的。
萨克森纳:实际上,目前已经有很多正在进行的类似努力。DARPA已经围绕“XAI”(可解释AI)这个概念提出了一些倡议。我知道其他公司也在探索这个问题,但这仍然是一项水平非常低的技术工作。在商业流程层面,在行业层面上,“XAI”不会出现,因为AI的解释性要求因过程而有所不同,行业之间也存在差异。对于喉癌专家来说,关于AI为何推荐当前疗法的解释性要求,与财富管理领域的投资咨询经理的解释性要求不同,后者可能会说:“这是我和AI系统向你推荐的投资组合。”因此,解释性要求存在于两个层面。它作为一种技术存在于水平层面上,而且它也存在于行业优化层面上,这就是为什么我认为AI必须进行垂直化和行业优化才能真正实现起飞的理由。
【问】:你认为这是询问AI系统的有效请求。
萨克森纳:我认为这是必要条件。
【问】:但如果你问谷歌员工:“我在搜索中排名第三,另一人排在第四位。为什么我第三他第四?他们会说:‘我不知道。’因为有六千种不同的事情正在发生。”
萨克森纳:完全正确。
【问】:那么,解释性要求难道不会阻碍技术发展吗?
萨克森纳:或者会,但它也可以创造出一个新的领导阶层,他们知道如何解决这个难题。这就是我们建立CognitiveScale公司的初衷。这是我们在创建“企业级AI”的六项要求之一。当我们在研发IBM超级电脑沃特森的时候,我学到了一个重要的东西,那就是你如何建立一个可以信任的AI系统,就像人类那样?解释能力就是其中之一。另一个原因是,有理由的进行推荐。当AI给你提供了一个洞见时,它还能给你提供支持洞见的证据:“为什么我认为这是你最好的行动方式?”当对AI建立起信任后,也就是人类能够采取行动的时候。提供证据和解释能力是“企业级AI”需要的两大要求,也是AI取得大规模成功的前提。
【问】:有七千人明白这一点。假设这是真的,那是它有多困难?
萨克森纳:我认为,这是一种技能的不同之处,我们正试图将其引入企业。这也非常困难,就像网络一样,我一直在上网,我们现在就像处于1997年互联网刚刚诞生时的状态。在那个时候,可能只有几千人知道如何开发基于html的应用程序或网页。今天的AI就像1996年和1997年的互联网,当时人们通过手工制作网页,这与构建web应用程序有很大的不同。网络应用将一系列web页面连接起来,并将它们编排到一个业务流程中来驱动结果。这与优化某个行业的过程有很大不同,而且要在可解释性、管理和可扩展性等要求下对其进行管理。围绕“企业级AI”的创新还有很多,但我们还没有触及到这个领域。
【问】:1997年互联网问世时,人们争相在自己的公司里建立网络部门。我们现在也处于那种状态吗?我们是否在争相建立AI部门,难道不是这样的吗?
萨克森纳:绝对如此。我不会说这不是解决问题的方法。我得说这是必要的第一步,需要真正的理解和学习。不仅仅是AI,甚至是区块链——CognitiveScale公司将其称为“大脑区块链”。我认为这是一个巨大的转变,虽然这还没有发生,但在未来三到四年的时间里,你会开始建立自我学习和自我保证的过程。回到网络的类比上,这是需要三四步才能实现的目标(让企业成为电子商务)迈出的第一步。25年前,当网络刚出现的时候,每个人都变成了电子商务,每一个过程都变得“网络化”。现在,随着AI技术的发展,每个人都将成为“AI企业”,或者是“C企业”,即认知企业,每个人都在获得“认知能力”。每一个过程都会被“认知化”。每一个过程都将从新的数据和新的互动中学习。
它们将经历的这些步骤与他们在网络诞生时所经历的过程并没有什么不同。一开始,有一群人在开发网络应用,CEO在一段时间之后说:“我已经花了一百万美元,我在网站上有了智能数字手册。但它对我的生意有何帮助?”这正是我们目前所处的阶段。然后,另一个人说:“嘿,我可以把购物车连接到这个特定的网页上,我可以围绕它设置一个支付系统,我可以用它创建一个电子商务系统。我有一个名叫JBoss的开源项目,你可以用它来做这些事情。”这有点类似于Google TensorFlow今天为AI提供的支持,然后,像Siebel和Salesforce这样的下一代公司会说:“我可以为你打造一个商业化的、基于网络的CRM系统。”同样,这也是CognitiveScale公司在做的。我们正在打造下一代智能CRM系统,或称智能HRM系统,让你以可靠和可扩展的方式从这些系统中获得价值。所以AI的发展过程与我们在互联网诞生后经历的情况类似。而且,这期间仍有大量的创新,并形成新的市场领导力量。我相信会有一家价值数千亿美元的AI公司,它将在未来7到10年内崛起。
未来,AI的发展速度会更快
【问】:AI发展的时间框架发生了什么变化,它会更快还是更慢?
萨克森纳:我想会更快一些。这可能有很多原因。关于这一点,我曾围绕着技术超收敛性(superconvergence)的概念发表过TED演讲。当网络出现时,我们正从一种技术转向另一种技术,从客户端服务器转移到Web。现在,你已经有了这些正在融合的六项超级技术,这将使AI的普及速度更快,它们包括云计算、移动、社交、大数据、区块链和分析。所有这些都以特定的速度汇聚起来,使计算和访问成为可能,这是以前不可能做到的,而且你还可以将其与企业能力相结合,从而产生戏剧性的颠覆效果。
AI与互联网不同的一个最大原因是,这些网络系统是基于规则建立的,它们没有几何级数的学习和改进能力。与基于网络的系统不同,CEO和董事会成员所担忧的是,有AI支持的系统会随着时间的推移而不断改进,并随着时间的推移而不断学习。因此,要么“我将在竞争中获得巨大的成功,要么我将被远远甩在后面。”有些人称之为企业的“Uber化”。这是一种威胁,也是将AI作为一种商业模式转型和加速的机会。在我们所拥有的超收敛性的支持下,这将成为一项非常令人兴奋的技术。
【问】:如果一位CEO正在倾听,他可能会说:“听起来很有道理。”但他应该采取的第一步行动是什么?
萨克森纳:我认为有三个步骤。第一步是让你自己和你的领导团队了解AI的商业可行性,即AI的商业转型,而不是AI的技术可能性。所以,第一步就是教育,包括教育自己。第二步就是开始试验。通过部署90天的项目,花费几十万美元,而不是投入数百万美元进行为期两年的项目,这样你就能真正开始理解其中的可能性了。此外,你还可以从供应商的宣传中了解什么是产品,什么是PowerPoint。不幸的是,如今对AI的态度要么受好莱坞影响,要么被来自大公司的营销人员所左右,所以90天的项目将帮助你完成这一任务。所以,首先是教育,其次是实验,第三是启用。让你的员工真正开始拥有技能、治理和流程,并建立一个生态系统,找到真正合适的合作伙伴(有技术、数据和技能),并开始熟悉你的业务。
【问】:你知道,AI总是以游戏为基准进行衡量,特别是它能打败人们的游戏。我认为,这是因为游戏属于封闭的环境,有固定的规则。企业应该去寻找候选项目,寻找看起来像游戏的东西吗?我有一堆简历,我有一群绩效评价很高的员工,还有评价不太高的员工,哪些是可匹配的?
萨克森纳:我认为这是一个错误的比喻。我认为,企业应该围绕3件事思考AI:他们的客户、他们的员工以及他们的业务流程。他们必须思考:“我怎样才能以一种改变客户体验的方式来使用AI呢?每个顾客都觉得自己是独特的个体,我该如何与他们接触并吸引他们?”所以,这就是客户体验高度个性化和高度语境化的体验。其次是员工的专业技能。“我怎样才能增加我的员工的经验和专业知识,让每一个员工都成为我最聪明的员工?”这就是“钢铁侠贾维斯”套装。“如何提高员工的技能,让他们在做决定时、在处理异常时保持最聪明的状态?”第三件事就是我的业务流程。“我如何从新的数据和新的客户互动中部署不断自我学习的业务流程?”我认为,如果我是一家企业的首席执行官,我会从这三个方面来看待这个问题,然后在90天内部署项目,以了解这三个方面的可能性。
【问】:谈下有关CognitiveScale的经验,它是如何处理这种组合的呢?
萨克森纳:CognitiveScale公司是由IBM沃特森的一部分高管创立的,也就是我和负责沃特森实验室的人。我们在头三年运行它,但我们马上意识到这项技术是多么强大,多么具有颠覆性。我们有三件事要做:首先,我们意识到,对于AI来说,要想取得真正的成功,它必须是垂直的,而且必须对一个行业进行优化。第二,AI的力量并不是人类在问AI问题,而是AI告诉人类应该问什么问题以及需要寻找什么信息。我们称之为“已知的未知”和“未知的未知”。今天,为什么我要问Alexa?当我醒来的时候,Alexa为什么不告诉我:“嘿,当你睡觉的时候,英国退出欧盟了。”如果我是一名投资顾问,它为什么不说:“这里是你今天应该打电话给你的第十七位客户,让他们了解其中的含义,因为他们可能感到恐慌。”它使用的是一个与BI相反的系统。BI属于“已知的未知”,即我知道自己不知道什么,因此我需要进行查询。AI则属于“未知的未知”,这意味着它在拍我的肩膀说:“你应该知道这个”或者“你应该这样做”。所以,这是第二个主题。第一是垂直化,第二是“未知的未知”,第三个是90天增量启动,这是用我们称为“10-10-10”的方法来实现的,我们可以在90天内开发出实用的AI。
CognitiveScale公司大约三年半前开始运营,其使命是在医疗保舰金融服务、电信和媒体领域创造指数级的业务成果。这家公司的表现非常好,我们有来自微软、英特尔、IBM和Norwest的投资,融资总额超过5000万美元。在奥斯廷纽约、伦敦和印度都有办事处。我们有超过三十个客户正在部署这一系统,现在有将其扩大为企业范围的计划。而且,它再次建立在推动指数业务成果的假设之上,而不是利用AI推动科学项目。
【问】:CognitiveScale公司是一家总部位于奥斯汀的公司,与Gigaom则是奥斯汀的公司,在奥斯汀有很多AI活动。这是怎么发生的,奥斯汀是一个AI枢纽吗?
萨克森纳:当然,这是我正在做的一件令人兴奋的事情。我的一个角色是CognitiveScale公司的执行主席。我的另一个角色是,我有一个价值1亿美元的种子基金会,专注于投资垂直的AI公司。去年我们刚刚在奥斯汀宣布推出名为“AI?Global”的项目,它的重点是促进负责任的AI部署。
我相信东海岸和西海岸将在AI领域拥有自己的技术创新。AI将比互联网更强大。AI将达到无所不在的程度。我们周围的一切(从椅子到灯泡,再到眼镜),都将在未来10年内将AI元素融入其中。而且,我相信奥斯汀拥有的一个机会,正因为如此,我们在奥斯丁创建了“AI Global”项目,旨在帮助企业以负责任的方式部署AI,从而以一种合乎道德和负责任的方式为企业创造良好的业绩。
以符合道德和负责任的方式合理地使用AI让奥斯汀社区团结起来,也让它成为著名的、开发负责任AI系统的天堂。我们与UT法学院、UT设计学院、UT商学院以及UTIT学院合作,我们与市长办公室和整座城市都有广泛的合作。我们也有一些像USAA这样的本地公司作为合作伙伴,他们作为创始成员加入了进来。我们现在所做的是帮助那些来找我们的公司,为它们提供如何设计、部署和管理负责任的AI系统的处方。我认为,对于Gigaom和AI?Global来说,有很多的机会可以帮助我们共同开发负责任的AI系统。
AI会抹去人类文明吗
【问】:你可能听说过,IBM的沃特森在智力游戏《Jeopardy》中击败了人类冠军肯·詹尼斯(Ken Jennings)。詹尼斯在TED上做了一个演讲,他说,有一张图表,随着沃森变得更好,它会显示出其进步曲线。每周,IBM会给他发一个更新,显示沃特森的表现越来越接近他。詹尼斯还说,看着沃特森的进步让他感到害怕。但他承认:“这就是AI的本质,它不是终结者。这是你做得最好的一件事,只是沃特森会越来越擅长这方面的工作。”你说过好莱坞为AI叙事定下了论调,其中一种说法是AI对就业的影响,人们对此有很多不同意见。有些人认为它会取代大量低技能的工作,我们会遭遇长期的失业危机,就像大萧条一样。第二种观点认为,AI实际上也会创造许多工作岗位。AI就像任何其他的变革技术一样,它将提高生产率,而这正是我们提高工资的方式。那么,你同意这些叙述中的哪一种?
萨克森纳:还有第三种观点,宣称AI可能是我们的最后一个重大创新,它将导致我们这个物种灭绝。我认为前两种情况很有可能,事实上,这三种观点都是真的。
【问】:你认为AI会抹去人类文明吗?
萨克森纳:如果我们没有做出正确决定的话,并非不存在这种可能。我已经听说了自动化战争之类的东西,这让我感到害怕。让我们举三个例子:就AI抢走人类工作而言,我认为每项重大技术(从蒸汽机到拖拉机再到半导体)总是会取代大量工作,AI也不会有什么不同。有一项预测显示,到2020年,AI将使1800万人失去工作岗位。这些任务都是可以由机器自动完成的日常任务。
【问】:稍等一下,那是27个月以后的事了。
萨克森纳:是的,1800万份工作将被取代。
【问】:这是谁说的?
萨克森纳:这是一份报告,来自世界经济论坛,但我认为这是事实。但我并不担心这一点,因为我关注的是AI将提升13亿个工作岗位。这就是为什么我把增强人类能力而不是取代人类视为更大机会的理由。是的,AI将会移除和取代部分工作,但利用AI来增强和提高员工的技能,就像网络那样,可能带来更大的机会。网络为你提供了更多的接触和连接,这种规模是前所未有的,就像之前的电话以及电报那样。我认为AI将给我们带来巨大的创造机会,有人称之为“新领工作”。不仅仅是蓝领或白领,而是“新领”工作。我确实相信这一点,我认为AI能将会带来一系列的全新工作。第二种说法是AI是我们将会进行的最后一项重大创新。
我认为这是完全有可能的。如果你在互联网出现的时候仔细审视它,你会发现互联网早期的两个顶级应用就是赌博和色情。然后,我们开始让互联网为企业和民众谋福祉而工作,我们做出的选择让我们更善于利用互联网。我想AI领域也会发生同样的事情。如今,AI已经被广泛应用于各种各样的事情,从处理有争议的停车罚单,到星巴克用它来预定咖啡,再到出售演唱会门票等。但我认为,我们必须就“如何负责任地使用AI”做出决定。我已经了解伊隆·马斯克(Elon Musk)和马克·扎克伯格(Mark Zuckerberg)的观点,我相信他们都是对的。我认为,这一切都取决于我们如何做出选择,以及我们如何利用AI作为下一个竞争优势来扩大我们的员工队伍。
现在,在这一切中,最大的未知数是一个“糟糕的演员”,或者某个国家,可以用AI做什么。我仍然没有完整的答案,但最让我担心的就是自动化战争的情况。人们认为,通过AI,他们实际上可以限制损害,他们可以以非常精确的方式达到目标。但问题是,AI还有很多未知之处。当前的AI是不可信赖的,你把它引入可以成为大规模杀伤性武器的东西里面,如果出了问题(因为技术还在成熟),可能会造成前所未见的大规模破坏。所以,我想说的是,所有这三个要素:消除工作、创造新的就业机会以及给我们的种族带来生存威胁,所有这些都有可能发生。最让我兴奋的是,AI将如何扩展和提升我们的工作能力。
【问】:让我们重新回到工作岗位的话题上来,但是你刚刚提到了战争。首先,似乎有18个国家正在努力开发基于AI的系统。他们的观点是双重的。有一种说法是:“如果我不开发,还有17个国家正在努力开发它。”现在,军方投下一枚炸弹,炸毁了所有的东西。让我们看看地雷。地雷不是AI,它会炸飞任何东西。所以如果有人说:“我可以造AI地雷用来嗅火药,它只会炸死携带武器的人。”如果你把战争看成是生活的现实,为什么你不希望那些更具歧视的系统呢?
萨克森纳:这是个很好的问题,我相信这是绝对会发生的。但还要等很长时间,也许是5年或10年之后。我们正处于最危险的时期,有关AI的炒作远远超出AI当前的真实状态。这些AI现在是非常不稳定的系统。就像我之前说的,它们不是以证据为基础的,在AI中没有任何的切换开关,没有解释能力,没有任何性能是你能真正弄清楚的。还是以你的例子来说明,AI地雷能嗅出火药,然后爆炸。如果我把地雷储存在城市中心的枪械库里,它会从那里的其他武器中嗅出火药,然后引爆自己。今天,我们无法在这种程度上对AI进行可见性和控制,并确保在这种规模上应用它。
我的观点是,作为一个国家,每个国家都有特权。你看到普京(Putin)在谈论这个问题时说:“控制AI的国家将控制未来的世界。”没有人把妖怪放回瓶子里。就像我们拟定战争规则一样,就像我们在核战争中所做的那样,将会有新的“日内瓦公约式的规则”,我们将不得不提出这样的规则,来决定这些负责任的AI系统如何以及在哪里被部署和监管。因此,就像我们在化学战中所做的那样,我认为将会有新的规则来限制以AI为基础的战争。
【问】:但重点在于:核事件是二选一的事情,要么爆发造成毁灭,要么根本不会发生。但AI不是这样的。你可以说狗粮碗空掉的时候会自动补上,那就是AI。你怎么解说法律,假设人们都遵循它,你怎么用简单的英语来表达呢?用一种非常简单的方式。
萨克森纳:你已经听过艾萨克·阿西莫夫(Isaac Asimov)的机器人三原则。我认为,作为一个社会,我们必须提出一种共同的思维模式,并将由各国提出类似的建议。事实上,我将在明年的伦敦北部召开一个会议,讨论如何以一种负责任的方式在战争中使用AI和无人机。我认为,第一个事件还没有发生,不过你可以说,“假新闻”事件是已经发生的大型AI事件之一,这可能会改变总统竞选的结果。人们担心黑客攻击,我更担心的是你无法追踪到的攻击源头。我认为这是一项需要去做的工作。
【问】:有一个武器系统确实做出了自动杀人的决定,正在评估它的军方说:“我们需要有人监督它。”所以他们修复了这个功能,当然你可以关掉它。用这种方式来定义它几乎是件棘手的事。听起来好像你支持AI武器,只要它们不存在问题。
萨克森纳:我不赞成AI武器。总的来说,我是反战人士。但这是人类的弱点和人类的局限性之一,战争是我们生活中不可或缺的一部分,尽管它丑陋不堪。我认为,人们和国家将会采用AI,并将开始把它用于战争。我们所需要的是一套新的协议和一套关于如何使用AI的新原则,就像化学武器和核武器那样。我不认为这是我们可以控制的。我们能做的就是管理和执行它。
【问】:那么,在过去的战争中,你是否相信普京关于“未来控制AI将会控制世界”的言论?
萨克森纳:当然,我认为这是理所当然的。
【问】:让我们重新回到工作岗位的话题上。通过你给出的例子,蒸汽、电力和机械化摧毁了许多工作,但它们却没有导致人们整体失业。在美国,至少在200年里,失业率始终在5%到10%之间徘徊,除了经济大萧条,但这不是技术的错。所以,以前发生的事情是:当我们发明了电梯按钮,不再需要专人来操作的时候,我们就把所有的电梯操作员都赶了出去,但是我们从来没有看到失业率上升。这种情况会发生吗?因为如果我们在未来27个月真的失去了1800万个工作岗位,那是个非常庞大的数字。
萨克森纳:问题是,1800万这个数字是一个全球数字。
AI可以帮助创造全新的工作类别
【问】:好吧,那听起来似乎好多了。
萨克森纳:而且,你必须把这个数字放在所有劳动力的背景下。今天,全球有7亿到13亿名工人在工作,1800万人只是其中很小的一部分。这是第一点。第二,我认为,AI成为合作伙伴的潜力更大,可以帮助创造全新的工作类别,而不必害怕机器取代工作。机器总是取代工作,它们会继续这样做。但我相信,这也是我对我们的教育系统感到担忧的地方,我们在沃特森身上做的第一件事就是,我们启动了一项大学计划,让人们掌握能够部署和管理AI系统的技能。在接下来的10年或50年里,人类的创造力和人类潜能将会通过创造全新的工作方式而产生,并将通过AI释放出来。
如果你看看CognitiveScale公司,我们今天大约有160名员工。其中半数人的工作在4年前还不存在。今天,许多甚至从未考虑过在科技公司工作的人都被我们录用。我们有语言学家加入了软件公司,因为我们已经把他们的工作变成了计算语言学,他们把自己所熟知的语言学与机器结合起来,创造了全新的应用和系统。我们有些人正在为AI创建一种全新的测试机制。这些测试者以前从未存在过。我们现在有些人正在用AI设计和编写智能代理,他们正将技术应用到数据科学、应用开发以及机器学习中,这些都是新出现的技能,更不用提销售人员和商业战略家了,他们也在帮助开发新的应用。从经济增长和就业的角度来看,我倾向于相信这是最激动人心的时刻。我们以及这个世界上的每个国家都需要面对这个时刻,这完全取决于我们如何将其商业化。我们之所以来到美国,是因为这里有非常富有和充满活力的风险投资社区,以及充满活力的股票市场,它重视创新,而不仅仅是收入和利润。只要我们有这些,只要我们有专利保护和良好的执法,我就能看到这个国家的美好未来。
【问】:在工业革命的初期,在美国这个国家,有一场关于后扫盲教育价值的辩论。想想吧。为什么大多数人需要在他们学会如何阅读后才去上学?然后还有许多人说,未来的工作(比如工业革命后的工作)将需要接受更多的教育才能胜任。因此,美国是世界上第一个保证每个人都能上高中的国家。所以,天使投资人马克·库班(Mark Cuban)说,如果他能重新选择,他会学习哲学。他曾经说过:“第一批亿万富翁将是从事AI的人。”他很看好这一点,他说:“我会学习哲学,因为这是你需要知道的。”如果你要为年轻人提供建议,那么他们今天应该学些什么,以便在将来成为合适的人才呢?
萨克森纳:我认为这是个好问题。我会说,我会学习三种不同的东西。第一,我会学习语言学,文学(软科学),这些都与如何做出决策,以及人类思维如何运作、认知科学诸如此类的事情有关。这是一个领域。我要学习的第二件事是商业模式,以及企业是如何建立、设计和扩张的。我要学习的第三件事就是技术,要真正理解这些系统的技术。在这三件事的交叉点上,设计、文学和哲学的创造性非常重要,它们与人类的思维如何运作、如何建立成功的商业模式,以及如何为这些商业模式提供动力的技术基础息息相关。我会把重点放在这三种技能的交叉点上,所有这些技能都是在创业精神的保护伞下实现的。我对创业充满热情。企业才是真正引领这个国家前进的主体,无论是大公司还是小公司。
【问】:你和我谈过有关AI的话题,并说过在四五十年之后,可能需要量子计算机帮助计算。你提到了马斯克及其对生存威胁的恐惧。他认为,显然我们已经非常接近于通用人工智能(AGI),这就是他的恐惧所在,这也是霍金所关心的。你说过:“我同意这种担忧,如果我们搞砸了,那就是生存威胁。”你如何看待这个问题:我们40年内会有AGI吗?
萨克森纳:我认为你不需要AGI来创造一个生存威胁。有两个不同的维度。你可以通过建立一个极不可靠的自动武器系统来制造生存威胁,这种系统对通用智能一无所知,它只知道如何寻找和杀戮。而在错误的人手中,这可能真的是生存威胁。你可以在互联网上创建一种病毒,它可以摧毁所有公共设施和应急系统,而它不需要了解任何关于通用智能的信息。如果这种方式在没有适当的测试或控制的情况下被释放,就有可能拖垮经济和社会。我认为,这些都是我们必须要意识到的结果。这些都是我们必须开始制定规则、指导方针和强制执行的原因。这就是我认为我们今天远远落后的两个领域,也可以说是技能。
AI是一种全新的学习方式
【问】:OpenAI计划的目的是让AI成为单独参与者无法开发的技术。在这种情况下,也就是指AGI,但会始终都这样吗?你认为这是一个好的开端吗?
萨克森纳:是的,绝对如此。我认为OpenAI可能需要其他几百个类似的项目,以专注于AI的不同方面。就像我们的AI Austin和AI Global项目所做的那样。我们关注的是在符合道德规范的情况下使用AI。拥有无人驾驶汽车是一回事儿,而拥有智能导弹则是另一回事儿。你如何驾驶载有4人的无人驾驶汽车,你如何在“证人箱”中交叉检验它呢?AI的解释能力如何?谁来负责?因此,在将这些知识应用于智能产品时,我们需要考虑一整套新的伦理和法律。几乎就像保险商实验室的AI那样,需要将其融入到每个产品和每个流程中。这些都是我们的政府需要了解的事情,我们的监管者需要保持警惕。
【问】:有一种理论认为,如果要依赖政府,我们都会处于糟糕的状态,因为科学发展的速度要快于立法机构作出反应的能力。你有解决这个问题的办法吗?
萨克森纳:我认为有很多事实可以说明,尤其是我们最近围绕技术在政府所看到的东西,存在很多优点。我相信,我们所取得的成就和我们使用AI产生的结果,将取决于我们作为个体公民的行为,我们作为商业领袖的做法,以及我们作为慈善家所做的事情。美国最美妙的事情之一,就是有像盖茨和巴菲特这样的慈善家正在做的事情,他们现在拥有的资产比很多国家都多,而且他们也在负责任地利用这些财富。所以,我对美国创新的期望是,如果可以的话,也要以负责任的方式应用AI。我相信,我们所有人都有能力去教育和管理这些事情,我们有责任传播这些技术,并且能够向前一步,开始提供帮助,并引导AI被以负责任的方式投入使用。
【问】:让我们来看看你的“什么不是AI”清单,你列举了五件事。其中一个你说“AI不是自然语言处理”,显然,这是真的。你认为图灵测试有价值吗?如果我们制造一台能够通过它的机器,这是一个基准吗?在这种情况下,我们做了什么了不起的事?
萨克森纳:当我在运行沃特森的时候,我曾经认为它有价值,但我不再那么相信它了。我认为它的适用性很有限,主要有两个原因:一是,在你用机器代替人脑的特定过程中,你绝对需要进行某种测试来进行证明。更令人兴奋的不是自动化或重复人类功能,而是人类大脑没有想到或者没有做过的事情。我给大家举个例子:CognitiveScale正与一家非常大的媒体公司联手,我们正在分析“超级碗”电视广告,通过让AI阅读视频广告,找出到底是什么类型的创意(孩子、小狗还是名人)、在什么时候对创造最好的电视广告会产生最大的影响。令人着迷的是,我们只是让AI去做,而没有告诉它该寻找什么。没有图灵测试证明这“是好是坏。”从联系角度来看,AI带回来的东西有十到十二层的深度,这是人类大脑通常不会想到的东西。我们仍然无法描述为什么会有这样的联系。
AI发现的东西绝对不仅仅是参考大脑模式,这是我说过的“未知的未知”部分。通过AI,你可以模拟人类的认知,但更重要的是,你还可以通过它扩展人类的认知。我认为这是AI一个令人兴奋的部分,因为它是人类大脑可能没有使用过的模式、见解和决定的延伸部分。我们发现,当我们和客户共同做项目时,有些作为人类我们无法解释的模式,为什么会这样还不清楚,但它们之间的确有很强的相关性。它有十八层的深度,它被埋在里面,但它是一个强大的相关器。所以,我把它分为两类:一是AI可以取代的低水平重复性任务,第二是一种全新的学习方式,它扩展了人类的认知。这是一种无人监督的学习方式,你需要将人类放入”回路“中,去真正了解和学习新的商业方法。我认为,这是我们需要认识到的两个方面,而不仅仅是试图模仿当前的人类大脑。在很多情况下,人类大脑在做出正确决策时效率非常低下。
【问】:你对AI的未来发展持乐观态度。在关于没有通用智能我们能走多远的问题上,你可能是接受过我采访的最乐观的人。但是,当然,你一直在使用“生存威胁”这样的字眼儿,你信奉“电脑病毒会摧毁电网、引发战争等”概念,你甚至提到有人会在商业环境中使用“流氓AI”。在后一种情况下,“流氓AI”将如何摧毁一个企业?你不能通过立法来解决这个问题,对吧?因此,在企业场景中给我举个“流氓AI”的例子。
萨克森纳:有很多这样的AI。最近我们与一家大型金融机构会面的时候,就曾遇到过一个。我们坐下来开会,突然发现那家公司正在经历一场大规模的业务中断,因为它们的所有数据中心都在关闭,然而每隔20分钟左右就会重新启动。而且在全世界,它们的数据中心都在重复这个过程。他们对此感到十分恐慌,因为这发生在工作日期间,涉及到数十亿美元的交易,他们不知道为什么这些数据中心会出现这样的问题。几个小时后,他们发现有人在上个月写了一款安全聊天机器人,然后他们把它放到了自己拥有的云系统中,出于某种原因,那个AI代理觉得最好每隔20分钟就关闭这些系统,然后再重新启动它们。这是一个简单的例子,虽然这家机构最终找到了问题,但在管理特定AI的过程中,没有任何可见性。这也是我们为何讨论拥有一个管理可见性和控制这些AI框架的原因之一。
另一个可能是(这还没有发生,但这是其中的一个威胁)保险问题。保险公司现在经常使用技术,开始承保风险。而且,如果出于某种原因,你的AI系统可以看到相关性和模式,但在真正了解风险方面还没有得到足够的培训,这几乎可以将你的整个业务彻底抹去。如果你过于依赖AI,而它却没有解释能力并值得你信任,此时它建议你承担风险,这将使你的企业面临生存风险。
我可以继续举出很多例证,比如关于癌症、糖尿病以及任何与AI将要投入使用的商业有关的事情。我相信随着AI的发展,对企业来说,有两个短语将变得非常重要:即“AI生命周期管理”和“负责任的AI”。我认为这是一个巨大的机会。这就是为什么我对CognitiveScale所做的事情感到兴奋,从而使这些系统成为可能的原因。
【问】:最后两个问题。在这些假设情况下,给我们描述些你亲眼所见的AI成功故事。可以是CognitiveScale公司或者其他公司的成功,你已经看到其对企业产生非常积极的影响。
萨克森纳:我想这样的例子有很多。我将选择零售领域的例证,就像零售一样简单,通过AI我们可以展示出一种基于规则的系统。比如某家特定的大型零售商曾经有一款移动应用,他们在里面向你展示衬衫、裤子和其他配饰,它就像一款Tinder或“hot or not”式游戏。而平均来说,基于规则的系统在人们所喜欢的内容方面,转化率还不到10%。这些都是无需学习的系统。然后我们在它后面放了一个AI,这个AI可以理解:这条裙子是一件露肩裙子,它是蓝绿色的,而且它可与露趾鞋完美搭配。当用户开始与AI接触时,它开始提供个性化输出。在7个月的时间里,我们展示了24%的转化率。这是最动人的部分,每个月AI都变得越来越聪明,每个转化率都等于数千万美元的收入增长。这是数字大脑、认知数字大脑、驱动购物者参与以及购物者转换的例子。
我们看到的另一件事是小儿哮喘。AI可以帮助护士更好地防止儿童哮喘发作,因为AI可以阅读来自pollen.com的一条推文,该推文称周四早上豚草将会大规模开花,这会影响哮喘患者。AI了解文章中所提位置的邮政编码,距离周四还有4天,有17个孩子有豚草或类似过敏的风险。为此,它开始拍打护士的肩膀说:“这里有个‘未知的未知’,那就是,四天之后会有豚草爆发,你最好采取主动措施,帮助孩子们应对。”所以,这是在医疗保健领域的例子。
在财富管理、金融服务、合规以及我们如何利用AI来提高合规方面,都有一些例子。有些例子表明,我们正在通过AI改变交易的动态、外汇交易。通过AI正在倾听的聊天会议,并指导他们如何去做,交易员可以进行更好的股票和衍生品交易。这样的例子有很多,大部分在案例研究中被写出来,但这仅仅是个开始。我认为这将是最令人兴奋的创新之一,它将在未来5到7年改变商业格局。
【问】:关于产品推荐,你完全正确。我在亚马逊上买了很多产品,包括书和其他之类的东西,上面写着:“你想要这些能够自己走到桌子对面的调味机器人吗?”我说:“是的,我喜欢!”但这和我买的东西没有任何关系。最后一个问题,你说过好莱坞为AI设定了叙事论调。你曾提到过《机械公敌》(I, Robot)。你是科幻小说的粉丝吗?如果是的话,你认为未来的愿景是什么,你会想:“啊哈,这真的很酷,它可能会成为现实。”亦或是你有什么其他想法?
萨克森纳:好吧,我想我最接近的愿景可能是吉恩·罗登贝瑞(Gene Roddenberry)和《星际迷航》(Star Trek)。我认为这是一个很好的例子,AI可以帮助做出更好的决策,飞行甲板(全息甲板)能帮助你掌舵。但它仍然需要人类,只是人类能力被增强了。仍然是人类在同情心、勇气和道德方面做出决定。我认为这就是AI将带我们进入的世界,增强智能的世界。我们在那里可以做更多更大的事情,而不只是AI的世界。在后者里,我们的工作都被取代,我们只是坐在椅子上的傀儡。
【问】:罗登贝瑞曾说过,23世纪将没有饥饿,也不会有贪婪,所有的孩子都知道如何阅读。你相信吗?
萨克森纳:如果我有机会寿命增加两倍或三倍,那就是我要做的事情。在CognitiveScale之后,这将是我通过基金会要去实现的新使命。我的大部分钱都捐给了基金会,它将把重点放在研究善意AI上,主要围绕解决教育问题、环境问题以及冲突问题。我相信这是AI领域最激动人心的应用前沿。在这个过程中会有很多失误,但我相信,作为一个物种和人类,如果我们做出正确的决定,那将是我们将要到达的终点。我不知道是不是2300年,但是我想最终我们一定会实现这个目标。(完)
评论
查看更多