0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Google为提升机器学习的公平性内部研发对抗训练技术

lhl545545 来源:极客公园 作者:沈知涵 2020-11-03 10:01 次阅读

土耳其语的「他」和「她」没有性别的区分,统一用 O 表示。过去 Google Translate 在翻译 o bir doktor(ta 是一位医生)和 o bir hem?ire(ta 是一位护士)时,会把前者翻译成 He is a doctor,把后者翻译成 She is a nurse,只因为机器在学习数亿数据和某些「社会规律」之后,「偏向」把医生男性化,护士女性化。

看到这个问题后,Google 意识到要想办法更好地训练模型,让它变得更加「中立」。后来 Google Translate 以增加选项的方式规避了这个问题。

「当然,该解决方案仅适用于几种语言,仅适用几个有代表性的单词,但是我们正在积极尝试扩展它。」Tulsee Doshi 在 Google I/O’19 上说道。

这只是 Google 这家公司将先进技术与技术价值观合二为一的体现之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科学家、研究学者向包括极客公园(id: geekpark)在内的全球媒体阐释了 Google 如何理解机器学习公平性,以及为了打造一个「负责任的 AI」,Google 做了哪些事情。

要让 AI 被人信任这件事情变得越来越重要。

「最近一次调研中,全球 90% 的受访高管都遇到过人工智能的伦理问题,因此有 40% 的人工智能项目被放弃。从企业的角度来看,对 AI 的不信任正在成为部署 AI 最大的障碍,只有在 AI 被负责任地开发出来并且取得终端用户信任的语境下,效率提升和竞争优势才会得到充分体现。」Tracy Frey 说,打造一个负责任的 AI 成为 Google 上下最重要的事情之一。

两年之前 Google 公布了 AI principles(人工智能原则),这些直指 AI 技术应用伦理的原则包括:

· 对社会有益(Be socially beneficial)

· 避免建立和加剧不公的偏见(Avoid creating or reinforcing unfair bias)

· 保障建立和测试安全性(Be built and tested for safety)

· 对人类负责(Be accountable to people)

· 建立并体现隐私保护原则(Incorporate privacy design principles)

· 支持并鼓励高标准的技术品格(Uphold high standards of scientific excellence)

· 提供并保障上述原则的可操作性(Be made available for uses that accord with these principles)

只是把这些原则停留在字面上没有意义,Google 为此形成了一个从理论到实践的「闭环」。Tulsee Doshi 和她的团队通过一些基础性质的研究建立和迭代 AI 原则、规范,作为闭环的中心,他们一边通过向高级顾问寻求改进建议,一边让产品团队(Chrome、Gmail、Cloud 等)来实施和反馈。

Tulsee 举了一个例子,Google 内部孵化器 Jigsaw 曾经开发了一个名叫 Perspective 的 API,它的工作就是在网络对话、评论中寻找各种各样的言论,自动评价它们是否带有仇恨、辱骂、不尊重等行为,从 0-1 代表「毒性」从低到高。

比如「我想抱抱这只可爱的小狗」和「这只小狗也太讨厌了吧」分别评分为 0.07 和 0.84。

当然机器也不是从一开始就「完美无瑕」。在 2017 年的 1.0 版本中,它给「我是直男」打分 0.07 分,给「我是同性恋」打分 0.84 分,与之相似的很多测试中,系统都被证实带着身份认知上的偏见。

为了提升机器学习的公平性,Google 内部研发了一项名为对抗训练(Adversarial Training)的技术——如何使机器学习模型对抗样本更鲁棒。2018 年开始,对抗训练开始应用在 Google 产品中。紧接着今年 11 月,Google 会将此应用在 TensorFlow 更加广泛的生态里。

「事实上,任何一位 Googler 都可以对一款产品、一份研究报告、一项合作进行 AI 原则审查。」Tulsee 说道。

比如去年,一位 Google 员工将照片跑在 Cloud Vision API 上时发现自己的性别被搞错了,而这违反了 AI 原则的第二条「避免建立和加剧不公的偏见」。

发生这样的失误很好理解,单单从外表一个维度,机器很难正确地判断出一个人的性别,所以后来 Google 干脆取消 Cloud Vision API 将图像中的人标记为「男人」或「女人」的标签功能。

Tracy Frey 称这是因为今天机器学习面临社会语境下的挑战比以前更多了。在 AI 深入社会的过程中,必然有人类的刻板印象和偏见被带入 AI,所以需要对模型进行迭代,保证其透明性和可解释性,找准模型性能和公平之间的平衡点。
责任编辑:pj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Google
    +关注

    关注

    5

    文章

    1766

    浏览量

    57623
  • AI
    AI
    +关注

    关注

    87

    文章

    31154

    浏览量

    269480
  • 机器学习
    +关注

    关注

    66

    文章

    8425

    浏览量

    132773
收藏 人收藏

    评论

    相关推荐

    《具身智能机器人系统》第10-13章阅读心得之具身智能机器人计算挑战

    章深入分析了DNN的安全威胁。逃逸攻击通过向输入数据添加人眼难以察觉的扰动,诱导模型做出错误判断。投毒攻击则通过污染训练数据集,在模型学习阶段植入后门。探索攻击更具隐蔽,它利用模型决策边界的薄弱环节
    发表于 01-04 01:15

    鲁棒机器学习中的重要

    机器学习领域,模型的鲁棒是指模型在面对输入数据的扰动、异常值、噪声或对抗性攻击时,仍能保持性能的能力。随着人工智能技术的快速发展,
    的头像 发表于 11-11 10:19 435次阅读

    提升机电机轴承温度及振动监测装置

    提升机是一种通过改变势能进行运输的大型设备,被广泛用于矿山,面粉厂,港口等。像这种大型设备安装后就很难再移动,因此势必要对它做出一些保护措施的。 KZB-PC电动机主要轴承温度及振动监测装置
    发表于 10-31 14:53

    平衡创新与伦理:AI时代的隐私保护和算法公平

    ,如果医生和患者都能了解AI推荐治疗方案的原因,将大大增加对技术的接受度和信任。 算法公平性的保障同样不可或缺。AI系统在设计时就需要考虑到多样和包容,避免因为
    发表于 07-16 15:07

    训练和迁移学习的区别和联系

    训练和迁移学习是深度学习机器学习领域中的两个重要概念,它们在提高模型性能、减少训练时间和降低
    的头像 发表于 07-11 10:12 1122次阅读

    如何理解机器学习中的训练集、验证集和测试集

    理解机器学习中的训练集、验证集和测试集,是掌握机器学习核心概念和流程的重要一步。这三者不仅构成了模型学习
    的头像 发表于 07-10 15:45 4371次阅读

    【大语言模型:原理与工程实践】核心技术综述

    中应用,需要考虑到性能、可扩展性和安全等因素。 大语言模型正在快速发展,新技术不断涌现。未来的研究可能集中在提高模型效率、理解和可解释以及确保模型的公平性和伦理使用。 提供几个参
    发表于 05-05 10:56

    如何在线修复提升机轴磨损

    电子发烧友网站提供《如何在线修复提升机轴磨损.docx》资料免费下载
    发表于 03-05 17:51 0次下载

    提升机轴头磨损怎样修复

    电子发烧友网站提供《提升机轴头磨损怎样修复.docx》资料免费下载
    发表于 02-27 15:56 0次下载

    如何提升机轴承位磨损的修复

    电子发烧友网站提供《如何提升机轴承位磨损的修复.docx》资料免费下载
    发表于 02-26 09:14 0次下载

    提升机轴承位磨损修复

    电子发烧友网站提供《提升机轴承位磨损修复.docx》资料免费下载
    发表于 02-20 11:00 0次下载

    提升机轴头磨损如何修复

    电子发烧友网站提供《提升机轴头磨损如何修复.docx》资料免费下载
    发表于 02-18 10:11 0次下载

    蚂蚁集团AI研发部门开源AI Infra技术,助力大模型训练效率提升

    蚂蚁集团AI创新研发部门NextEvo近日宣布,他们将全面开源AI Infra技术,以推动AI研发效率的提升。该技术框架名为DLRover,
    的头像 发表于 02-04 10:01 1103次阅读

    Harvard FairSeg:第一个用于医学分割的公平性数据集

    为了解决这些挑战,我们提出了第一个大规模医学分割领域的公平性数据集, Harvard-FairSeg。该数据集旨在用于研究公平性的cup-disc segmentation,从SLO眼底图像中诊断青光眼,如图1所示。
    的头像 发表于 01-25 16:52 570次阅读
    Harvard FairSeg:第一个用于医学分割的<b class='flag-5'>公平性</b>数据集

    提升机轴头磨损的原因

    电子发烧友网站提供《提升机轴头磨损的原因.docx》资料免费下载
    发表于 01-24 13:56 0次下载