偏差是人工智能(AI)中的一个严重问题。研究表明,流行的智能扬声器在理解非美国本土口音方面的可能性降低了30%,而且像Cognitec那样的面部识别系统 在非洲裔美国人脸上表现得更差。事实上,根据IBM最近委托进行的一项研究,由于潜在的责任问题,三分之二的企业对采用AI持谨慎态度。
为了帮助企业解决这一问题,IBM今天宣布推出基于云的全自动服务,该服务“不断为人工智能系统制定决策提供洞察力”。它还会扫描偏见的迹象,并建议调整,例如算法调整或平衡数据,这可能会减少其影响。
该服务解释了哪些因素影响了给定的机器学习模型的决策,以及它的整体准确性,性能,公平性和属性。此外,它使人们对其减轻偏差的建议以及任何促成这种信心的因素充满信心。
IBM表示,它适用于流行的机器学习框架和AI构建环境,包括IBM Watson,Tensorflow,SparkML,AWS SageMaker和AzureML,并且可以根据各个企业的工作流程进行定制。
IBM在认知解决方案高级副总裁David Kenny表示:“IBM在为新的AI技术开发建立信任和透明度原则方面处于行业领先地位。” “现在是将想法付诸实践的时候了。我们正在为使用人工智能的企业提供新的透明度和控制权,并面临任何有缺陷的决策带来的最大潜在风险。“
除了宣布之外,IBM还在开源软件中推出了一个工具包:AI Fairness 360工具包,包含一个算法,代码和教程库,演示了在模型中实现偏差检测的方法。
在白皮书发布一个月之后,IBM公司采取了一些措施,其中一些研究人员为AI系统提出了“情况说明”。自愿性情况说明书,正式称为“供应商符合性声明”(DoC),将回答有关系统操作和培训数据,基础算法,测试设置和结果等问题。更细粒度的主题可能包括用于跟踪AI服务的数据工作流的治理策略,测试中使用的方法以及对数据集执行的偏差缓解。
“就像食品的营养标签或家用电器的信息表一样,人工智能服务的情况说明书将提供有关产品重要特征的信息,”IBM研究院AI基金会负责人兼AI Science for Social Good计划的联合主任Aleksandra Mojsilovic写道在介绍该论文的博客文章中。“人工智能的信任问题是IBM和许多其他技术开发商和提供商的首要考虑因素。人工智能系统具有改变我们生活和工作方式的巨大潜力,但也存在一些漏洞,例如暴露于偏见,缺乏可解释性以及易受敌对攻击。必须解决这些问题才能使人工智能服务受到信任。“
IBM并不是唯一一个开发缓解算法偏见的平台。在5月举行的F8开发者大会上,Facebook宣布了Fairness Flow,这是一项针对数据科学家的自动化偏向捕获服务。微软和埃森哲已经发布了类似的工具。
-
IBM
+关注
关注
3文章
1755浏览量
74679 -
AI
+关注
关注
87文章
30759浏览量
268903 -
机器学习
+关注
关注
66文章
8408浏览量
132572
发布评论请先 登录
相关推荐
评论