由于和美国军方合作进行人工智能项目,科技巨头谷歌面临的内部辞职潮和外部舆论压力,有愈演愈烈之势。
为了平息舆论压力,谷歌向公司员工承诺,将制定一套原则,来指导其人工智能业务在防务和情报合同中,如何越过道德雷区。谷歌也向外界表示,新的原则将会避免让人工智能朝武器化发展。但在实际实施中如何应用,还尚未清楚。
去年4月份,美国军方提出Maven项目。Maven的目标是“加快国防部整合大数据和机器学习”,也被美国国防部称为算法战争跨功能团队(AWCFT:Algorithmic Warfare Cross-Functional Team)。此前谷歌称,该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。
谷歌究竟参与程度如何,双方都未提及。
据《纽约时报》5月30日的报道,谷歌云CEO黛安·格林曾在每周的全公司TGIF(Thanks God, it"s Friday)会议上发言,她称,这个项目不是为了攻击目的,双方的合同价值相当小,仅900万美元。
尽管如此,谷歌内部员工的愤怒和失望情绪并没有得到安抚,他们认为这次的合作影响到了谷歌的声誉和公司文化,也关乎机器学习发展和使用的道德问题。
截至美国当地时间5月14日,谷歌已有十几名员工正式因这一项目向谷歌请辞,以抗议公司继续参与军方的Maven项目。同时,学术界有364名人工智能专业人士也联名上书,反对谷歌。
谷歌对于事态的发展并没有做好准备。更令谷歌头疼的是,Maven项目引发的争议可能在未来几个月还会加剧。
原因是据《连线》5月29日的报道,到了2018年,Maven项目开始扩展到新领域,包括利用开发工具以更高效地驱动硬盘。另外,今年Maven项目获得的资金也有望扩大到1.31亿美元。美国五角大楼还计划与硅谷建立联合人工智能中心,可能会效仿Maven项目,以支持美国军方,并为情报机构提供服务。一方面是不想失去军方的合同,另一方面是员工对于公司文化的质疑,谷歌在“不作恶”和“做正确的事”之间面临了两难的困境。
谷歌将发布AI技术使用规范
为了安抚内部员工的情绪,《纽约时报》称,谷歌在上周四(5月24日)召开了内部讨论会。
谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)在会上表示,公司会公布一系列机器学习使用的政策和防护安全措施文件,这些原则必须要经得住时间的考验。
但实际上,谷歌在Maven项目成立之初就提到了这些原则和安全措施文件,直到到现在都未对外界公开。谷歌的员工希望公司能在未来几个星期内提交这些原则和安全措施。
面对这场公司内部的辞职潮,谷歌原本有机会在项目合作时就避免事态严重化。
去年9月份,谷歌内部在讨论如何向公众解释这个事情时,谷歌云首席科学家、副总裁李飞飞曾在邮件中强烈建议双方在合同中回避“AI”(人工智能)这个字眼。
“无论付出什么代价,都必须要避免提及或者使用到AI这两个字。武器化人工智能可能是AI领域里最敏感的话题,没有之一。对于媒体而言这简直就是红肉(red meat),他们会找到一切方式毁掉谷歌。”这位来自斯坦福大学人工智能实验室的学者在邮件中说。
“我不知道如果媒体开始谷歌正在秘密建造AI武器或AI技术,并为国防工业服务会发生什么。”李飞飞说,因此她希望在对外公布合同时,能将项目描绘为是谷歌云平台的重大胜利。不过李飞飞也在邮件中指出,这是她的建议,最终决定权还在她的老板身上。
李飞飞一直坚持相信的是以人为中心的人工智能,可以用积极和慈善的方式让人类受益。她还表示,任何将人工智能武器化的项目研究,都将违背她的原则。
最后,谷歌选择不将Maven项目公之于众。只有反对的员工通过谷歌内部沟通平台开始抗议时,谷歌作为Maven项目分包商的事才引起了公众的关注。
到了今年4月初,反对的声音越来越大,导致大约有3100多名谷歌员工签名,向谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)提交了一封信,要求皮查伊立即取消参与Maven项目,并起草并公开一份清晰的政策表明:谷歌和它的合作方不会开发用于战争的技术。
“谷歌在Maven项目中的相关参与计划将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会偏激化和武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心了。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。”谷歌的员工在信中写到。
而除了员工反对外,谷歌在外部也遭遇了舆论压力。5月15日,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇、谷歌现任CEO桑达尔·皮查伊、谷歌云CEO黛安·格林、谷歌云首席科学家、副总裁李飞飞发出了一封公开信,再次要求谷歌停止其与国防部在Maven项目上的合作协议,承诺不去开发军事科技,并保证不将其搜集的个人数据用于军事行动。
争议:如何界定技术的使用
在遭遇大量员工辞职潮后,4月11日,谷歌还举行了关于Maven项目的讨论。据观看讨论的员工透露,格林坚定地认为,Maven项目没有将AI用于攻击目的,而谷歌AI研究Meredith Whittaker则认为很难界定如何使用该技术。
Maven项目的首要任务是帮助美国国防部有效地处理来自全球各地的海量的视频资料。美国国防部每天收集到数量庞大的无人机飞行画面,但人类图像分析师远远跟不上视频数量的增长。因此,国防部希望能利用机器学习来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。在自身资源不足的情况下,国防部转向了学界与业界的人工智能专家合作。
在这一争议项目中,谷歌提供的TensorFlow是一款人工智能领域里的免费开放软件,也是谷歌人工智能战略的关键。它为机器学习工程师提供了进行数据排序和训练算法的框架,并且在整个行业中被广泛使用。
但反对声音称,新技术并非总能带来便利,已经有研究人员发出警告,人工智能技术可能会以不易察觉的方式产生重大偏见。
学界认为,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。
“像谷歌这样跨国公司的责任必须与他们的用户国际化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。”ICRAC在向谷歌提交的公开信中称。
在谷歌创始人谢尔盖·布林(Sergey Brin)看来,他能理解Maven项目中的争议,但他表示,如果世界各国的军队都与谷歌这样的国际组织合作,而不是仅仅与民族主义的国防承包商合作,这将有利于和平。
-
谷歌
+关注
关注
27文章
6153浏览量
105244 -
人工智能技术
+关注
关注
2文章
214浏览量
10540
原文标题:谷歌将公布人工智能技术规范,不得向武器化方向发展
文章出处:【微信号:iotmag,微信公众号:iotmag】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论