好莱坞已颇为成功地让我们相信,机器人很快就会接手我们的工作并掌管我们的世界。但在现实生活中,人工智能带来了一个更迫在眉睫的危险:偏见。
我们这些人工智能领域的从业人员急需解决这一问题,以防止由我们创造的算法和机器复制人类的错误以及下意识的偏见——世人对这些偏见已然习以为常。
杜绝人工智能的偏见要从命名开始。给人工智能技术起一个具有性别色彩的名字,如亚马逊(Amazon)的Alexa与IBM的Watson,就沿袭了长久以来的固有观念。性别化的名字会影响用户与技术的互动方式。在语音人工智能技术尚处于早期的当下,研究发现,用户更倾向于要求亚马逊的Alexa为他们播放歌曲,而需要解决业务难题时,他们则会让IBM的Watson搜索数据。
当今新诞生的婴儿,及未来几代人,从他们出生的第一天起,就会在有语音助手的环境下长大。在理想的情况下,我们将实现让人类向非性别化的人工智能系统咨询数据以解答任何问题——通过Alexa获取全球供应链状况数据,或在航班取消时利用谷歌的人工智能系统查询其他航班信息,或向IBM的人工智能系统询问亚利桑那州坦佩市现在的气温。
人工智能技术应该反映出其所有用户的多样性。它应该为工人创造出公平的竞争环境,尤其是在如今世界各地的企业争相接受差异、新观点及非传统技能的情况下。人类与人工智能的互动对每个人来说都应该是安全的、可靠的、有价值的、有帮助的。
这就是为什么成功消除偏见要从产品和人的角度入手。特别需要注意的是,人工智能技术已不可逆转地进入了职场与家庭。
以人工智能技术驱动的平台、应用程序及系统的迅速革新意味着我们需要及早消除偏见:在技术开发测试阶段就进行。偏见——不论是有意识的还是无意识的——在职场上屡见不鲜,在商业世界中,它们一直左右着招聘决策、晋升、员工反馈与客户服务等方面。
偏见不仅限于性别。一个人对种族、宗教、文化及其它方面的看法可能帮助或损害其职业发展轨迹和日常工作经验。出自同质化团队、或基于偏颇的数据集设计的人工智能技术会存在大量偏见。在社交媒体上,存在偏见的信息则以假新闻的形式流传。在技术世界中,偏颇的数据对创新、信息安全和人与人之间的信任具有显著破坏性影响。
算法正越来越多地被应用于过去依赖人的判断的职业,如刑事司法领域。其结果可能危害极大。例如,安保公司Palantir使用算法来为新奥尔良警察局预测犯罪活动,将易受种族偏见影响的技术带入了社区的核心。
科技从业者有一个很有利的——尽管转瞬即逝的——机会去创造一个由人工智能和人类协同合作所推动的极具包容性的未来。但要实现这一目标,就必须消除技术中的偏见。
下一次,当你浏览一则根据你的年龄、所在位置或购买历史而向你推送的认为你会感兴趣的在线广告时,请记住,相同的技术也可能仅仅根据你的肤色就得出荒诞不经的结论,或根据你的性别推断你在职场上的地位。对我来说,这是一个有用的提醒,我们需要对此做些什么——就是现在。
-
机器人
+关注
关注
210文章
28068浏览量
205765 -
人工智能
+关注
关注
1789文章
46576浏览量
236899
原文标题:别将人类偏见复制到机器人身上
文章出处:【微信号:robot-1hjqr,微信公众号:1号机器人网】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论