随着人工智能继续进军企业,许多IT专业人士开始对其使用的系统中可能存在的AI偏见表示担忧。一份来自DataRobot的最新报告发现,美国和英国近一半的人工智能专业人士“非常”担心人工智能的偏见。
这份报告于去年6月对350多名参与人工智能和机器学习(ML)采购决策的美国和英国首席信息官、首席技术官、副总裁和IT经理进行了调查,报告还发现,“品牌声誉受损”和“客户信任丧失”是人工智能偏见最令人担忧的后果。这促使93%的受访者表示,他们计划在未来12个月加大对人工智能偏见预防措施的投资。
DataRobot可信人工智能副总裁特德•夸特勒表示,尽管许多组织将人工智能视为游戏规则的改变者,但许多组织仍在使用不可信的人工智能系统。他说,“鉴于企业在使用人工智能方面的重大失误,组织必须确保人工智能方法符合其组织价值观。”
DataRobot的报告称,在企业内部管理人工智能驱动的功能可能很有价值,但也可能带来挑战。并非所有人工智能都得到平等对待,如果没有适当的知识或资源,企业可以选择或部署人工智能的方式可能弊大于利。
调查发现,超过三分之一的人工智能专业人员仍然使用黑盒人工智能系统,这意味着他们对如何使用输入到人工智能解决方案中的数据几乎一无所知。DataRobot说,这种缺乏可视性的情况可能会导致受访者对其组织内出现的人工智能偏见感到担忧。
“AI偏见的出现是因为我们正在对熟悉的检索系统中的不完整数据做出决定,”认知计算和内容分析咨询公司CythExIS的总裁费尔德曼说,“算法都对世界和用户的优先级做出假设。这意味着,除非你理解这些假设,否则你仍将盲目飞行。这就是为什么必须使用包括人在内的系统,而不是在真空中做决定的原因。”
如何减少人工智能偏差
Gartner研究副总裁Jim Hare在一份声明中说:“需要新的工具和技能来帮助企业识别这些和其他潜在的偏见来源,在使用人工智能模型方面建立更多的信任,并降低企业品牌和声誉风险。越来越多的数据和分析领导者和首席数据官(CDO)正在雇佣ML法证和道德调查人员。”
Facebook、谷歌、美国银行、MassMutual和美国航天局等机构正在或已经任命人工智能行为鉴证专家,在人工智能模型部署之前,集中精力发现不希望出现的偏见。
如果人工智能要发挥其潜力,增加人们对系统的信任,就必须采取措施,尽量减少偏见。其中包括注意人工智能可以帮助纠正偏见的背景,以及人工智能有可能加剧偏见的背景;建立测试和减轻人工智能系统偏差的过程和实践;参与基于事实的对话,讨论人类决策中的偏见;探索人类和机器如何最佳地协同工作;加大对偏见研究的投入,提供更多的数据,同时限制隐私;以及加大对人工智能领域多样化的投资。
研究发现,虽然美国受访者最关心的是由于用户和系统设计之间的偏差而产生的偏差,但英国受访者更关心的是技术偏差或由技术限制引起的偏差。
研究显示,为了加强人工智能偏见的预防工作,59%的受访者表示,他们计划投资更复杂的白盒系统,54%的受访者表示,他们将聘请内部人员管理人工智能信任,48%的受访者表示,他们打算聘请第三方供应商监督人工智能信任。
组织需要拥有并内化他们的人工智能策略,因为这有助于他们确保人工智能模型符合他们的价值观。对于每个业务环境和行业,需要在部署之前和之后对模型进行评估,以降低风险。
报告显示,除了这些预防人工智能偏差的措施外,大多数全球受访者认为,人工智能监管将有助于界定什么是人工智能偏差,以及应该如何预防。
-
谷歌
+关注
关注
27文章
6128浏览量
105029 -
AI
+关注
关注
87文章
29928浏览量
268242 -
人工智能
+关注
关注
1791文章
46738浏览量
237315
发布评论请先 登录
相关推荐
评论