处理块状数据已经传递到系统,特别是人工智能。对于等待的消费者来说,这个过程变得更容易,更快,更方便。
尽管它有好处,但算法中的错误和漏洞是可能的。然后,这些误判将变成对毫无戒心的人口群体的可能伤害。
人工智能技术,特别是机器学习(ML),在很大程度上依赖于跟踪模式和检测异常活动。这种例行公事使它强化了歧视性模式。
虽然模式是无缝的,算法看似完美,但不公平的偏见和歧视可以针对特定的群体。这种现象被称为代理歧视。
什么是代理歧视
既定的心理测试迫使参与者尽可能快地将术语分为两组。在这个测试中,人们被迫做出不必要的歧视,就像代理歧视中发生的事情一样。
制定了反对歧视的政策和法律。有反对工作场所对性别、种族、年龄等歧视的政策。然而,具有讽刺意味的是,现代人工智能的使用使得很难指出歧视性案例。事实上,它可以是一个煽动者。
代理歧视如何加剧歧视
使用机器学习导致的代理歧视会导致不同的影响。从法律上讲,不同的影响是就业或住房中对特定群体造成负面影响的做法。
一个常见的工作场所例子是雇主积极避免雇用有孩子的女性申请人。古老的信念指出,母亲不能成为好工人,因为她们不能专注于自己的工作。然而,员工赢得了几起具有里程碑意义的劳动法案件,因为它被证明是一种明显的歧视形式。
当进入人工智能和代理歧视的背景下时,算法处理的所有数据也是自动化的。如果数据是通过网络抓取收集的,则不再需要人为干预。这意味着该算法不会主动搜索该“母亲申请人”。
但是,由于母亲申请人可能呈现出与设置为正常组或基本组不同的特征,因此机器仍会指出母亲申请人是异常值。
通过这种方式,代理歧视成为不同影响的高度特定的子集,其中看似无害的算法对特定群体造成伤害。几年前,代理歧视被认为是故意歧视的一个子集。
但是,鉴于人工智能的性质,得出的结论是,它根本不是故意的。不幸的是,它是先进技术的副产品。
利用代理歧视
代理歧视可能是无意的,但用户会找到利用此过程来发挥自己的优势的方法。不幸的是,故意使用代理歧视是为了使歧视性决定和选择看起来是理性的和纯粹的机械的。
代理歧视被一些用户用作一种解决方法,以消除与他们的选择相关的歧视气氛。这就像安全网的答案,当他们的决定背后的原因受到质疑时。
保险业的代理歧视
人工智能被证明是保险业的重要工具。在处理批量数据,欺诈检测,费率设置和定价等方面时,它非常方便。另一方面,随之而来的风险也随之而来,代理歧视就是其中之一。
如前所述,人工智能不能故意区分信息链。它意味着没有任何类型的偏见。但是,它对模式的高度关注使其能够捕获通常与特定组关联的代理数据。它可以是任何类型的数据。
任何类型的客户端活动都可以被算法从上下文中移除,并受到代理歧视。这种行为对公司来说可能是麻烦的。那些遭受这种前所未有的歧视的人可以提起诉讼并要求赔偿损失。
大多数公司将采取额外措施来防止这种情况发生。但是,有些人会利用这一点来发挥自己的优势。因为他们知道代理歧视的发生,所以他们会心甘情愿地根据自己的喜好改变算法的元素。
当他们准确地改变元素时,结果将符合他们的需求,即使它是高度歧视性的。对结果的查询将是不可避免的,但他们可以简单地将其作为算法的产物传递出去,并且它们与算法无关。归根结底,他们有理由支持歧视性和有害的决定。
警惕其他风险
除了代理歧视的危险之外,用户还必须注意与AI技术相关的其他危险。安全总比后悔好。
失业
在考虑未来的创新时,大多数人将它们等同于机器人和其他类型的自动化。这些创新现在才开始。各行各业更喜欢在其产品的开发和制造阶段使用机器人。
以汽车行业为例。机器人手臂不是人,而是存在于汽车的制造过程中。自动驾驶汽车现在是可能的,并且可以在商业上分销。完全自动化流程的直接风险是失去由熟练员工工作的工作。
数据安全风险
由于几乎所有数据现在都存储在云中,因此当AI被不利地使用时,数字安全也可能处于危险之中。黑客攻击和网络钓鱼是数字安全方面最突出的与AI相关的攻击。与利用存储在云中的个人数据相关的危险也迫在眉睫。
结论
AI技术的使用是一把双刃剑。虽然有明显的好处,但也存在紧迫的担忧和风险,例如代理歧视。代理歧视是不可避免的。曾经的中立声明或主张可能会对特定人群造成前所未有的伤害。目前还没有已知的应对这种风险的对策。在处理这项技术时,最好始终保持警惕。
审核编辑:郭婷
-
人工智能
+关注
关注
1792文章
47409浏览量
238918 -
机器学习
+关注
关注
66文章
8424浏览量
132763
发布评论请先 登录
相关推荐
评论