机器是种族主义者吗? 算法和人工智能具有天生的偏见吗?Facebook,Google和Twitter是否有政治偏见?这些答案很复杂。
但是,如果问题在于科技行业是否在解决这些偏见方面做得足够,那么直接的回答是“否”。
警告AI和机器学习系统正在使用“不良数据”进行训练。经常被吹捧的解决方案是确保人们使用无偏数据来训练系统,这意味着人类需要避免自己偏见。但这意味着科技公司正在培训其工程师和数据科学家以了解认知偏差以及如何“应对”偏差。有没有人停下来问那些给机器喂食的人是否真的了解偏见是什么意思?
诸如Facebook(我的前雇主),Google和Twitter之类的公司因各种带有偏见的算法而反复受到攻击。为了应对这些合理的恐惧,他们的领导人发誓要进行内部审计,并声称他们将与这一指数级威胁作斗争。正如无数的研究和出版物所表明的那样,人类无法完全避免偏见。坚持不这样做是对一个非常现实的问题的一种理智上的不诚实和懒惰的反应。
在Facebook的六个月中,我被聘为公司业务诚信部全球选举诚信运营负责人,参与了有关该主题的众多讨论。我不知道有人故意将偏见纳入工作。但是我也没有找到任何人真正知道以任何真实和有条理的方式抵制偏见的含义。
在担任CIA官员十多年的时间里,我经历了数月的结构性方法培训和例行再培训,以检查假设和理解认知偏见。这是情报人员发展的最重要技能之一。分析人员和操作人员必须磨练测试假设的能力,并在分析事件时认真地评估自己的偏见,并进行不舒服且通常耗时的工作。他们还必须检查那些向收藏家提供信息的人(资产,外国政府,媒体,对手)的偏见。
传统上,这类培训是为那些需要批判性分析思维的人员而设的,据我所知和经验,在技术领域这种培训很少见。尽管高科技公司通常会接受强制性的“管理偏见”培训来帮助解决多样性和包容性问题,但我没有看到有关认知偏见和决策领域的任何此类培训,特别是与产品和流程的构建和保护有关的培训。
从我的Facebook同事提出的一些想法来看,我花了多年时间做的所有事情-结构化的分析技术,权衡证据,没有得出结论,具有挑战性的假设-都不是正常的做法,即使在解决问题时也是如此。他们制造的产品在现实世界中的后果。在很大程度上,“快速行动”文化与这些技术相反,因为在面临重要决策时需要放慢速度。
-
算法
+关注
关注
23文章
4600浏览量
92649 -
Facebook
+关注
关注
3文章
1429浏览量
54653 -
人工智能
+关注
关注
1791文章
46872浏览量
237603
发布评论请先 登录
相关推荐
评论