一个跨学科的研究小组希望创建一个名为「机器行为」的新学科,以了解人工智能将如何对我们的社会、文化、经济与政治造成影响。
在《自然》杂志的一篇评论文章中,作者认为人工智能算法的研究需要扩展到计算机科学以外的领域,纳入包括来自物理和社会科学的观点。
据了解,有两名 CIFAR 研究员是这篇论文的共同作者:
Hugo Larochelle,加拿大 CIFAR AI主席、机器与大脑学习项目副主任、谷歌大脑研究科学家、Mila 成员。
Matthew Jackson ,斯坦福大学经济学教授,CIFAR机构、组织与增长项目 (CIFAR Institutions, Organizations &Growth program) 研究员、人际网络专家、新书《人际网络》(the human Network) 的作者,该书研究了社会等级与交互的影响。
本篇采访经过删减和编辑,以保持全文清晰和简洁。雷锋网 AI 科技评论将之编译如下。
论文链接:
https://www.nature.com/articles/s41586-019-1138-y
论文摘要:
由人工智能驱动的机器越来越多参与到我们的社会、文化、经济和政治的互动调节上。理解人工智能系统的行为,对于我们控制它们的行为、从中获取利益并将危害降到最低来说而言重要。我们认为这需要一个广泛的科学研究议程来进行研究,它结合并扩展了计算机科学学科,包含来自不同科学领域的见解。我们首先在文中概述一系列关于这一新兴领域的关键问题,接着探讨机器行为研究的技术、法律和制度约束等内容。
你是在什么机缘下参与到这篇论文的写作的?
Hugo Larochelle:论文的第一作者 Iyad Rahwan (麻省理工学院媒体实验室) 找上了我。他想把人工智能和机器与社会互动的不同观点结合起来。然后他希望我为论文的技术计算机科学与机器学习部分的内容做出贡献。
Iyad 是名很有意思的研究员,他做的事情与我习惯的传统机器学习和深度学习做事方式很不一样。这也是我决定加入 CIFAR 的部分原因。这个试图聚集不同背景的研究人员以促成互相学习的想法吸引了我。
Matthew Jackson:我之所以参与是因为我本身就是研究网络的,我试图了解人类互动的不同结构是如何影响他们的行为。由于社交媒体平台的存在,如今我们拥有大量的算法视角。此外,我还研究人类社会中的不平等、流动性和其他结构,这些结构正因高频的人机交互而变本加厉。
本文列出一系列属于机器行为的示例问题。如果让你选一个,你觉得哪个最有意思?
Hugo Larochelle:我最感兴趣的问题是关于对话机器人的,因为它是人与机器的交互中最直接的。从技术上讲,机器人还没有达到它们本可以做的那么好。另外还有一个深层次的问题是,我们如何看待涉及机器的对话行为。与机器对话的感觉很不一样,抑或是很相似? 这意味着什么? 我认为这里有一些非常有趣的问题我们还没有完全探索过。
Matthew Jackson:关于人际网络与网上约会的问题正好契合我的研究课题。人们倾向于与自己相似的人进行交往。这在文献中被称为「同质性」。这种情况的发生涉及性别、宗教、年龄、职业与种族等基础性质。人们倾向于与自己相似的人聚会、交友、聊天。
类似在线约会的技术正在使人们有很大几率变得更加挑剔。如今你可以清楚见到一个人的所有属性,并准确选择你想要的人。仔细想想 LinkedIn 或 Facebook 网站给你推荐朋友的方式,就会明白算法试图挑选的都是你会有兴趣想要联系的人。这降低了人们建立随机友谊的几率,且增加更多那些有针对性、与你更相似的友谊建立。
这既有积极也有消极的一面。一方面,这些人是你想要联系的,因为他们与你有共同的兴趣和信仰,同时这也增加了社会的隔离现象,形成更多回音室效应。
对本篇论文的贡献如何影响你的工作?
Matthew Jackson:我已经开始在思考当中的一些问题。如果未能意识到新技术的出现如何让社交网络发生根本性变化,那么很难在这个领域有所建树。
但与 Iyad 以及其他合著作者的交谈,使我的观点开阔了不少。他一直非常积极试图去理解算法使用中的道德问题,比如在自动驾驶汽车编程上的优先级问题。每当一家公司写下一种改变新闻推送方式的算法,或对提出一个你应该和谁交朋友的建议时,其实都存在一个道德和伦理的立场。
Hugo Larochelle:我认为这让我对人们如何看待人工智能有了更多了解。还有他们究竟感兴趣哪些问题。这也是我参与本文写作的原因。我觉得作为一名人工智能和机器学习方面的研究科学家,我有义务贡献我所拥有的知识来引领对话。
为何研究人工智能算法的社会影响会如此困难?
Matthew Jackson:首先,很多算法都是私有的,你无法直接访问它们。作为社会科学家,我们无法进入黑盒子里。因此,我们只能间接地研究它们。况且,大多数公司都不希望自己的资料被人搜刮和检查,或者或者让研究人员生成假的配置文件。换句话说,对于我们能看到什么以及如何看到它,都有一系列限制。
更棘手的是弄清楚其中的含义。无论何时只要所做的研究涉及人体,就必须非常小心做研究的方法。加上现在我们试图以越来越大的规模上去做这件事情,留意的是那些越来越难被观察到的东西,一旦出错将会造成更大的影响。毫无疑问,这对研究而言是一项大挑战。
机器学习专家对他们的算法所造成的社会影响感兴趣,这种现象有多普遍?
Hugo Larochelle:我认为,机器学习圈里的人如今肯定越来越意识到,我们应该以负责任的方式来使用技术。例如,在谷歌里我们发表了《负责任的人工智能实践》(Responsible AI Practices),我们试图引导人们形成这样一种心态,即技术可以用于好的方面,也可以用于坏的方面。
作为一名研究科学家,我认为我们有义务去研究我们所创造出来的技术,在这个例子中是机器学习和人工智能,并以我们能做到的最好方式来描述它。这意味着我们应该识别出它有哪些做得好的地方,以及哪些做得不好的地方。
目前机器学习社区中有很多关于「负责任的人工智能」研究试图让系统变得更具可解释性,以帮助我们更好地理解这些系统的工作原理和行为模式。此外,为了使机器学习模型和系统的创建变得更加透明,还试图努力去制作模型卡与数据表。我认为这使我们处于一个有利的位置,以便能与拥有计算机科学以外背景的人进行技术上的对话。
最后,你还有什么想说的吗?
Matthew Jackson:当你是一名研究人员,很多时候你是在研究人们已经研究了很长时间的问题,然后突然,一个大问题出现了。这让人感到新鲜。
对于一名研究人员来说,这真是一个非常有意思的时间点。我认为未来的人们会回头看并说道,「看,21 世纪初,人们突然意识到人类与人工智能之间的相互作用。」
Hugo Larochelle:我们应该经常寻找解决问题的新方法。这也是我加入 CIFAR 的原因。当然,这很难,但重要的是我们要不断尝试让不同背景的人参与进来。
-
人工智能
+关注
关注
1791文章
46845浏览量
237527 -
计算机科学
+关注
关注
1文章
142浏览量
11357 -
机器学习
+关注
关注
66文章
8377浏览量
132402
原文标题:学界 |《nature》杂志:我们有义务搞懂我们所创造出来的技术
文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论