0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

怎么让机器理解“什么是公平”

454398 来源:ST社区 作者:ST社区 2022-12-22 22:06 次阅读

来源:ST社区

“什么是公平”,就算是人类自己也没有统一的标准,它有时取决于语境。不论是在家里,还是在学校,教导小孩要公平是至关重要的,但说起来容易做起来难。正因为如此,我们要如何才能将社会上所说的“公平”的细微差别传递给人工智能(AI)系统呢?

IBM研究院的一组研究人员是着手解决该难题的先驱。IBM为开发人员推出了一款名为“AI Fairness 360”的工具包。作为这项工作的一部分,IBM为企业提供一种新的“基于云的、偏差(bias)检测和消除服务”,企业可以使用它来测试和验证AI驱动的系统的行为。

在接受EE Times的电话采访时,IBM研究院院士SaskaMojsilovic告诉我们,科学家和AI从业者太过于关注AI的准确性。通常,人们关于AI的第一个问题是,“机器可以击败人类吗?”

但公平呢?例如,AI中的公平缺位可能会导致在医疗保健中或自动驾驶车辆造成灾难性后果,她说。

如果用于训练机器的数据集有偏差怎么办?如果AI无法解释它是如何做出决定的,那么我们怎样才能验证其“正确性?”AI可以揭示在AI处理过程中数据是否被以某种方式操纵过吗?AI是否可以向我们保证其数据从未(包括处理前和处理后)受到攻击或篡改吗?简言之,是否存在AI内省?简单回答:没有。

Mojsilovic表示,如果不对AI用户、开发人员和从业者开放,AI系统就无法获得社会的信任。

分解公平

一个更大的问题是如何教导机器什么是公平。Mojsilovic指出,“因为我们是科学家,我们做的第一件事就是分解‘公平’。我们需要从这着手。”他们将公平分解为AI实现中的指标、算法和偏差。

IBM研究科学家Kush Varshney解释说,其团队研究了AI算法和AI决策的偏差和公平性。“有个人的公平,也有团体的公平。我们研究了群体的不同属性——从性别到种族。还考虑了法律和监管问题。”最后,团队最终测量了30个不同的指标,以寻找数据集、AI模型和算法中的偏差。

这些发现已纳入IBM不久前推出的AI Fairness 360工具箱中。IBM将其描述为“一个全面的指标开源工具包,用于检查数据集和机器学习模型中不期望的偏差。”

虽然许多科学家已经在努力发现AI算法中的歧视(discrimination),但Mojsilovic说IBM的方法不同,它不仅包括发现偏差的算法,且还包括用于消除偏差的工具。

在基础层面,你必定会问:由计算机科学家——定义公平?这通常不是社会科学家的活吗?意识到这种不搭调,IBM明确表示Mojsilovic和Varshney都没有闭门造车。他们引入了许多学者和研究机构。Varshney参加了由卡内基国际事务伦理委员会主办的Uehiro-Carnegie-Oxford伦理会议。 Mojsilovic参加了由加州大学伯克利分校法学院赞助的加州伯克利人工智能工作组。

算法中立吗?

一段时间以来,社会科学家一直在指出AI偏差问题。
威斯康星大学麦迪逊分校新闻与大众传播学院教授Young Mie Kim解释说,“AI歧视(或AI偏差)可能发生在它隐含或明确地强化现有不平等的社会秩序和偏见(例如,性别、种族、年龄、社会/经济状况等)时。”例子从抽样误差(例如,由于抽样方法的不适当或困难导致某些人口统计数据不充分)到机器训练(建模)中的人为偏差。 Kim认为,即使在设计或建模中采用的“战略决策”也存在AI偏差,例如政治广告算法。

在她最近题为“算法机会:数字广告和政治参与的不平等”的研究中,Kim展示了在基于算法的决策中不平等是如何被强化的。

技术社区可能会争辩说“算法是中立的”或者可以“受过教育”(训练有素)。 Kim指出,“也就是说,他们并不承认在算法开发的任何阶段都会出现偏差。”

可解释的AI

不只是消费者害怕AI。许多计算机科学家也表达了担忧。

威斯康星大学计算机科学助理教授AwsAlbarghouthi告诉EE Times,“从短期看,我担心越来越多地使用数据驱动的决策,这有可能传播偏见和不公正。从长远看,我担心AI在战争自动化方面的使用。”

AI无法解释其决策带来持续焦虑。威斯康星大学计算机科学助理教授Loris D'Antoni告诉我们,“现在,程序员开始将强大的机器学习算法作为编程工具箱中的工具。然而,这些算法复杂、难以预测、难以解释。例如,没人知道由此产生的机器学习模型究竟做了什么。在他看来,“总的来说,自动化决策需要被理解和规范,并且可能以正规的方式进行。”

对于流程的每个步骤,从训练数据和处理到测试和部署,IBM指出其工具包提供的解释 可显示:在两种决策中、哪些因素倾向于支持哪一方;对推荐的信心以及支持这种信心的因素。

IBM希望AI Fairness 360工具包将被广泛使用,以便开发人员可以为其做出贡献,帮助建立对AI的信任。

与此同时,IBM将为企业提供其新的软件服务,旨在自动检测偏差并解释AI在需要做决策时,是如何做出决策的。它在IBM Cloud上运行,可帮助企业管理AI系统。

IBM称,其在IBM Cloud上的公平性监控服务将与来自各种机器学习框架模型和AI构建环境(如Watson、TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。“这意味着组织可以借力这些新控制以服务于企业使用的大多数流行的AI框架,”IBM称。IBM也承诺提供定制服务。“还可对软件服务进行编程,以监控任何业务工作流程的独特决策因素,使其能够根据特定的组织用途进行定制。”

好的开始

越来越意识到AI中算法公平问题的AI研究界,对IBM的新产品表示欢迎。威斯康星大学的计算机科学家D'Antoni告诉我们,“看到公平检查技术进入业界并付诸实践,真的令人兴奋。”他补充道,“我认为该工具将使AI研究界更加意识到该问题的重要性。”

Albarghouthi称IBM的努力“开了个好头”。

但是为了让AI Fairness 360工具包真正变得有效,应该使许多需要理解它的开发人员能用到它。Albarghouthi解释说,该工具需要“与研究界探索的最新的公平技术共同发展。”

他告诫说,“如果研究和理解超越了目前的定义和技术,”那么该工具很可能会停滞不前。

公平问题

最后,任何成全或破坏AI公平工具包的因素都会回溯到如何定义公平这一棘手问题。IBM的Mojsilovic承认,在不同应用中,公平有不同表现。正如人类对公平有不同看法,用户、客户和公众可能会根据情况对公平有不同评判。

当被问及AI公平工具包的缺陷时,Albarghouthi表示,问题之一是“存在于公平性定义的选择以及其是否足够。”毕竟,公平“在很大程度上取决于领域、其敏感性和涉及的监管。”他补充说:“我确信,这些工具只有在其使用成为机器学习管道的标准部分时才有效。”

D'Antoni表达了他自己的担忧。“有很多关于公平和偏差的定义,很难将它们全部考虑在内且其实现也并非能毕其功于一役。”换句话说,“公平定义往往是‘冲突的,’他说。“存在的不可能出现的结果表明,某些公平概念不能同时诉诸实施。”
此外,还有一个事实是“机器学习社区目前尚未接受过如何了解现有的公平和偏差定义的含义以及如何使用它们,”他补充道。

社会科学家Kim同意。“对这种[AI偏见]问题的认识是抗击AI歧视的第一步,也是最重要的一步。”她指出,“在人类社会中,我们提出了一些减轻不平等和歧视的政策和法规。但问题是AI仍是个秘密。与大多数情况一样,数据和建模是专有的。这使得任何公共政策或监管讨论/辩论更加困难。“

透明度

理解了定义公平性时的复杂性和权衡取舍之后,IBM研究人员认为,优先事项应该是AI实践和实施的透明度。

IBM的Mojsilovic建议由AI服务开发商和提供商完成并自愿发布供应商的符合性声明(她称之为情况说明书)“以提高其服务的透明度并产生对它们的信任。”她将其比作“食品营养标签”,或“器具信息表”。

业界需要有关部署在不同服务中的AI系统信息的标准。 IBM敏锐地意识到这不会在一夜之间发生。正如营养标签花了很长时间才逐步发展起来一样,情况说明书的开发可能是个漫长过程。Mojsilovic警告说,业界才刚刚开始其人工智能之旅。

与IBM类似,研究界也在与AI公平问题斗争。在这个悬而未决的领域,IBM的AI Fairness工具箱似乎具有开创性。 D'Antoni告诉我们,“我不知道现有的用于AI模型的通用公平检查工具。”

另一方面,他补充说,“研究界提出了许多令人兴奋的原型工具。例如,Kramer等人提出的FairTest和来自我们自己团队的FairSquare。”

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器
    +关注

    关注

    0

    文章

    779

    浏览量

    40687
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24640
收藏 人收藏

    评论

    相关推荐

    机器人技术的发展趋势

    能力。 机器人能够通过学习和训练,不断优化自身的行为和性能,实现更高效、更智能的工作。 自然语言处理与理解 : 随着自然语言处理技术的进步,机器人开始具备理解和表达情感的能力,能够更好
    的头像 发表于 10-25 09:27 464次阅读

    工业自动化时代,如何理解机器换人”和“人机协作”

    应运而生。本文将从不同角度解读“机器换人”和“人机协作”的内涵,分析其优势和劣势,并给出相应的思考和建议。如何理解机器换人?“机器换人”意味着人们用
    的头像 发表于 09-06 15:08 1008次阅读
    工业自动化时代,如何<b class='flag-5'>理解</b>“<b class='flag-5'>机器</b>换人”和“人机协作”

    【「时间序列与机器学习」阅读体验】+ 简单建议

    这本书以其系统性的框架和深入浅出的讲解,为读者绘制了一幅时间序列分析与机器学习融合应用的宏伟蓝图。作者不仅扎实地构建了时间序列分析的基础知识,更巧妙地展示了机器学习如何在这一领域发挥巨大潜力,使得
    发表于 08-12 11:21

    平衡创新与伦理:AI时代的隐私保护和算法公平

    机制,还包括了数据的来源、处理方式以及使用目的的明确披露。这样不仅有助于监管机构进行审查,也普通用户能够理解AI系统的决策依据,从而减少因“黑箱操作”带来的不信任和误解。例如,在AI辅助医疗诊断中
    发表于 07-16 15:07

    如何理解机器学习中的训练集、验证集和测试集

    理解机器学习中的训练集、验证集和测试集,是掌握机器学习核心概念和流程的重要一步。这三者不仅构成了模型学习与评估的基础框架,还直接关系到模型性能的可靠性和泛化能力。以下是一篇深入探讨这三者概念、作用、选择方法及影响的文章。
    的头像 发表于 07-10 15:45 3195次阅读

    ROS机器人开发更便捷,基于RK3568J+Debian系统发布!

    本帖最后由 Tronlong创龙科技 于 2024-7-19 17:18 编辑 ROS系统是什么 ROS(Robot Operating System)是一个适用于机器人的开源的元操作系统。它
    发表于 07-09 11:38

    Al大模型机器

    理解能力强大: AI大模型机器人可以理解和生成自然语言,能够进行复杂的对话和语言任务。它们能够识别语言中的语义、语境和情感,并据此作出适当的回应。广泛的知识储备: 这些模型基于大规模的数据集进行训练,拥有
    发表于 07-05 08:52

    大语言模型(LLM)快速理解

    自2022年,ChatGPT发布之后,大语言模型(LargeLanguageModel),简称LLM掀起了一波狂潮。作为学习理解LLM的开始,先来整体理解一下大语言模型。一、发展历史大语言模型的发展
    的头像 发表于 06-04 08:27 901次阅读
    大语言模型(LLM)快速<b class='flag-5'>理解</b>

    大神帮忙理解一下该电路的原理?

    反馈原理是同一级电路的是一样的吗,请大佬讲解 ③该电路作为AD前端的信号调理,我觉得好像这个电路把电压给衰减了,那么后端AD芯片量化的数值就产生误差了,所以不理解,这个调理电路的意义
    发表于 04-16 00:51

    华为云携手乐聚机器人,探索人形机器人大模型开发

    根据双方约定,他们还将共同设计并打造一款通用的具身智能解决方案,以构建互通互联的“人形机器人+”开放生态系统。据悉,华为云的先行者——盘古大模型,拥有卓越的语义理解、动态规划以及多模态信号理解等多项能力,为乐聚
    的头像 发表于 03-22 11:53 697次阅读

    Harvard FairSeg:第一个用于医学分割的公平性数据集

    为了解决这些挑战,我们提出了第一个大规模医学分割领域的公平性数据集, Harvard-FairSeg。该数据集旨在用于研究公平性的cup-disc segmentation,从SLO眼底图像中诊断青光眼,如图1所示。
    的头像 发表于 01-25 16:52 513次阅读
    Harvard FairSeg:第一个用于医学分割的<b class='flag-5'>公平</b>性数据集

    计算机视觉:AI如何识别与理解图像

    计算机视觉是人工智能领域的一个重要分支,它致力于机器能够像人类一样理解和解释图像。随着深度学习和神经网络的发展,人们对于如何AI识别和理解
    的头像 发表于 01-12 08:27 1347次阅读
    计算机视觉:AI如何识别与<b class='flag-5'>理解</b>图像

    NAT穿透技术原理解

    设想这样一个问题:在北京和上海各有一台局域网的机器(例如一台是家里的台式机,一 台是连接到星巴克 WiFi 的笔记本),二者都是私网 IP 地址,但可以访问公网, 如何这两台机器通信呢?
    的头像 发表于 12-16 09:39 870次阅读
    NAT穿透技术原<b class='flag-5'>理解</b>析

    基于机器翻译增加的跨语言机器阅读理解算法

    近日,阿里云人工智能平台 PAI 与华南理工大学朱金辉教授团队、达摩院自然语言处理团队合作在自然语言处理顶级会议 EMNLP2023 上发表基于机器翻译增加的跨语言机器阅读理解算法 X-STA。通过
    的头像 发表于 12-12 10:28 551次阅读
    基于<b class='flag-5'>机器</b>翻译增加的跨语言<b class='flag-5'>机器</b>阅读<b class='flag-5'>理解</b>算法

    ROS机器人开发更便捷,基于RK3568J+Debian系统发布!

    ROS系统是什么 ROS(Robot Operating System)是一个适用于机器人的开源的元操作系统。它提供了操作系统应有的服务,包括硬件抽象,底层设备控制,常用函数的实现,进程间消息传递
    发表于 11-30 16:01