随着时间的推移,人类会产生偏见。我们不是天生的。但是,在世界各地的社区,行业和社会环境中都存在性别,经济,职业和种族偏见的例子。尽管有人领导着从根本上改变物理世界中这些现象的倡议,但它在数字世界中以新的方式持续存在和体现。
在科技界,从初创企业文化到融资回合到技术本身的各种偏见都弥漫着。具有变化潜力的创新不会获得必要的资金,或者由于其创始人的人口组成或性别而被完全忽略。由于背景各异,正在筛选具有非传统和课外经验的人,使其有资格从事编码工作,这些人正被排除在招聘流程之外。
现在,我担心我们会在人工智能方面走类似的道路。市场上的AI技术开始显示有意和无意的偏见-从按人口统计或背景将候选人简历分组的人才搜索技术到不敏感的自动填充搜索算法。它也适用于商业世界之外-从基于对某人的喜好和假设的辨别种族的社交平台,到以性别和名字命名的AI助手都被标记为女性。事实是,除非建立在考虑包容性的基础上,否则人工智能中的偏见就会发生。创建包容性AI的最关键步骤是认识到偏见如何影响技术的输出以及它如何使“智能”产生的客观性降低。
好消息是:建立一个平衡的数据集来克服这些偏差的AI平台还为时不晚,AI可以在该平台上学习并开发反映用户多样性的虚拟助手,这要求工程师负责任地将AI连接到各种受信任的数据源可提供相关答案,做出可负责任的决策并基于交付所需结果来奖励AI。
从广义上讲,将性别角色添加到技术上可以永久性地体现性别角色。今天,我们看到女主持人(亚马逊的Alexa,微软的Cortana,苹果的Siri)主要用于行政工作,购物和执行家务。同时,男性演讲助理(IBM的Watson,Salesforce的Einstein,三星的Bixby)正在被用于更宏大的业务战略和复杂的,针对垂直领域的工作。
-
AI
+关注
关注
87文章
30095浏览量
268363 -
人工智能
+关注
关注
1791文章
46838浏览量
237498 -
数据集
+关注
关注
4文章
1205浏览量
24636
发布评论请先 登录
相关推荐
评论