0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

携手 MLCommons,制定有效且值得信赖的 AI 安全基准

谷歌开发者 来源:未知 2023-12-05 18:10 次阅读

作者 / 技术与社会部 Anoop Sinha 以及 Google Research、Responsible AI 和以人为本技术团队 Marian Croak


标准基准是衡量重要产品质量的公认方法,存在于许多领域。一些标准基准用于衡量安全性:例如,当汽车制造商宣传 "整体安全评分五星" 时,会引用某项基准。机器学习 (ML) 和 AI 技术领域已经存在标准基准:例如,MLCommons Association 运用 MLPerf 基准,来衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,尽管围绕 AI 安全已经做了大量工作,目前仍然没有类似的 AI 安全标准基准。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我们很高兴能够为非营利组织 MLCommons Association 开展标准 AI 安全基准制定的工作提供支持。制定有效且值得信赖的基准,不仅要有先进的 AI 安全测试技术,还需要综合广泛的观点。MLCommons 的工作旨在汇集学术界和业界的专家研究人员来制定衡量 AI 系统安全性的标准基准,并以每个人都能理解的分数呈现。我们鼓励社区的所有成员 (从 AI 研究人员到政策专家)加入我们,为这项工作奉献自己的力量。


  • 加入我们

    https://mlcommons.org/ai-safety



为什么要制定 AI 安全基准?


像大多数先进技术一样,AI 具有带来巨大好处的潜力,但是如果缺乏适当的约束,也可能会导致负面结果。例如,AI 技术可以在各种活动中辅助人类提高生产力 (如提高健康诊断的准确性和研究疾病、分析能源使用情况等)。然而,如果没有足够的预防措施,AI 也可能被用来支持有害或恶意活动,并导致存在偏见或令人反感的响应。

  • 改善健康诊断
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情况
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通过为不同类别提供标准的安全措施,如有害使用、超范围响应、AI 控制风险等,标准的 AI 安全基准可以帮助社会从 AI 中获益,同时确保采取足够的预防措施来减轻这些风险。最初,新兴的安全基准有助于推动 AI 安全研究,并为负责任的 AI 开发提供信息。随着时间推移和技术成熟,这些基准也可以为 AI 系统的用户和购买者提供信息,最终,可能成为政策制定者的宝贵工具。


在计算机硬件领域,基准 (如 SPECTPC) 现已展现出惊人的能力,让整个行业能够在追求进步的过程中,保持研究、工程甚至营销部门的步调一致。我们相信,标准 AI 安全基准有助于在这一重要领域实现同样的目标。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


标准 AI 安全基准是什么?


在学术研究和企业工作中,人们开展了一系列 AI 安全测试 (如 RealToxicityPromptsStanford HELM 公平性、偏差、毒性测量以及 Google 的生成式 AI 指引)。但是,大多数测试都侧重于为 AI 系统提供提示,并对输出进行算法评分,虽然这是一个有用的开端,但仅限于测试提示的范围。此外,他们通常使用开放数据集进行提示和响应,而这些提示和响应可能已被 (通常是无意中) 纳入训练数据中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提议,按多方利益相关者流程选择测试,并按子集分组,以衡量特定 AI 用例的安全性,并将这些需要有专业技术背景才能理解的测试结果转化为每个人都能理解的分数。MLCommons 建议打造一个集中现有测试的平台,并鼓励开展更严格的测试,以推动先进技术的发展。用户既可以通过在线测试生成和查看分数,也可以借助私人测试引擎的离线测试来访问这些测试。


共同努力下的 AI 安全基准


负责任的 AI 开发者使用多种安全措施,包括自动测试、手动测试、红队测试 (red teaming,其中人类测试人员试图产生对抗性结果)、软件方面的限制、数据和模型最佳实践以及审计。但是,确定是否已采取足够的预防措施可能具有挑战性,尤其是在开发 AI 系统的公司群体不断发展且具有多元化特点的情况下。标准 AI 基准能够提供强大的工具,帮助供应商和用户衡量 AI 安全性,以及鼓励资源生态系统和专注于提高 AI 安全性的专业提供商,推进社区以负责任的方式发展。


同时,如果没有社区参与,就无法制定成熟、有效且值得信赖的 AI 安全基准。这项工作需要研究人员和工程师齐心协力,为安全测试技术提供创新且实用的改进,使测试更加严格高效。同样,企业也需要团结一致,提供测试数据、工程支持和经济支持。AI 安全的某些方面可能具有主观性,要建立得到广泛共识支持的可信基准需要考虑多方观点,包括公众代言人、政策制定者、学者、工程师、数据工作者、商界领袖和企业家的观点。



Google 对 MLCommons 的支持


Google 以 2018 年宣布AI 准则为基础,致力于以安全、可靠和值得信赖的特定标准开发和使用 AI (您可以参阅我们 2019 年2020 年2021 年2022 年的更新)。我们还在关键承诺方面取得了重大进展,这将帮助您大胆且负责任地开发 AI,从而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 准则
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 进展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多种方式支持 MLCommons Association 在制定 AI 安全基准方面所作的工作。

  1. 测试平台:我们联合其他公司提供资金,支持测试平台的开发。
  2. 技术专长和资源:我们不断提供技术专长和资源,例如 Monk 肤色示例数据集,以帮助确保基准设计优良且有效。
  3. 数据集:我们正在为多语言表征偏差以及针对刻板印象危害 (如 SeeGULL 和 SPICE) 的外部测试提供内部数据集。此外,我们还共享以负责任和包容性的方式收集人工注释为重点的数据集,如 DICESSRP

  • Monk 肤色量表示例数据集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未来方向


我们相信,这些基准有助于推进 AI 安全研究,确保以负责任的方式开发和部署 AI 系统。AI 安全属于集体行动问题前沿模型论坛 (Frontier Model Forum) 和 AI 伙伴关系 (Partnership on AI) 等团体也在重要的标准化举措方面发挥着领导作用。我们很高兴从一开始便与这些团体和 MLCommons 一起开展这项工作,也期待通过更多的共同努力,来促进以负责任的方式开发新的生成式 AI 工具。欢迎您持续关注我们,及时获悉更多资讯。


  • 集体行动问题
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型论坛
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴关系
    https://partnershiponai.org/


致谢


非常感谢为这项工作做出贡献的 Google 团队成员: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文标题:携手 MLCommons,制定有效且值得信赖的 AI 安全基准

文章出处:【微信公众号:谷歌开发者】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6010

    浏览量

    103597

原文标题:携手 MLCommons,制定有效且值得信赖的 AI 安全基准

文章出处:【微信号:Google_Developers,微信公众号:谷歌开发者】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    16家科技巨头保证AI模型安全开发

    据路透社报道,微软、谷歌以及OpenAI等16家全球科技巨头在5月21至22日举行的“人工智能(AI)首尔峰会”上,公开表态承诺进行AI模型的安全开发,并在无法有效控制最极端风险时,对
    的头像 发表于 05-22 11:55 469次阅读

    研华携手群联 共同打造边缘运算与工控应用生成式AI平台

    赋能安全可靠&平民化的地端GenAI环境   导读: 4月17日,群联电子(Phison)宣布与研华科技(Advantech)携手合作,共同打造GenAI运算平台。该平台将致力于协助工控应用客户打造
    发表于 04-26 17:28 165次阅读
    研华<b class='flag-5'>携手</b>群联 共同打造边缘运算与工控应用生成式<b class='flag-5'>AI</b>平台

    值得信赖的工业主板制造商

    朗锐智科是一家值得信赖的工业主板制造商,为工业领域提供可靠的主板解决方案。我们的工业主板经过严格的行业标准测试和验证,以确保其在恶劣环境下的稳定性和耐用性。我们的产品具有广泛的兼容性和可扩展性,适合
    的头像 发表于 04-24 11:21 173次阅读
    <b class='flag-5'>值得</b><b class='flag-5'>信赖</b>的工业主板制造商

    AI安全基准测试 v0.5: 聚焦通用聊天文本模型安全

    随着AI技术的快速发展,相关安全问题也日益凸显。仅过去数周内,便有LastPass公司遭遇音频深度伪造攻击等案例浮出水面。为了应对这一挑战,新推出的AI Safety基准测试将成为模型
    的头像 发表于 04-19 11:12 154次阅读

    世界数字技术院发布:生成式AI安全测试标准及大语言模型

    据悉,上述两款标准主要针对大型模型与生成式AI应用领域的安全检测设定了新基准。参与制定工作的单位有OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等多家知名企业,其中,
    的头像 发表于 04-17 16:51 601次阅读

    联想携手京东,紧扣大模型和生成式AI技术

    联想与京东携手,紧扣大模型和生成式AI技术带来的产业机遇,在多个领域展开深入合作。
    的头像 发表于 04-12 10:27 404次阅读

    AD586产生-5V基准时,器件发热严重与设计值偏离较大怎么处理?

    最近我在使用贵公司的一款器件:电压基准源AD586;参考Datasheet中的技术支持,了解到该器件通过特殊的连接方式可以产生-5V的电压基准;我依照手册,设计生产了PCB,在实际测试过程中,发现
    发表于 01-03 07:19

    AI智能网关如何助力危化品安全监测

    得益于AI技术的蓬勃发展,当前人们可以充分利用AI技术,实现对各类危化品的高敏感、高精度、实时可靠监测管控,有效防范减少安全事故发生。
    的头像 发表于 11-23 17:30 232次阅读
    <b class='flag-5'>AI</b>智能网关如何助力危化品<b class='flag-5'>安全</b>监测

    值得信赖的搭档:AI 软件可确保驾驶员安全并专注于前方路况

    值得信赖的搭档:AI 软件可确保驾驶员安全并专注于前方路况
    的头像 发表于 10-27 15:49 258次阅读
    <b class='flag-5'>值得</b><b class='flag-5'>信赖</b>的搭档:<b class='flag-5'>AI</b> 软件可确保驾驶员<b class='flag-5'>安全</b>并专注于前方路况

    中伟视界&amp;amp;矿山安全生产:露天煤矿智慧矿山ai建设,AI能解决哪些安全隐患?

    智慧矿山AI技术在露天煤矿中的应用能够有效解决多项安全隐患,从而提升矿山的安全性和生产效率。
    的头像 发表于 09-26 18:34 266次阅读

    2023英特尔on技术创新大会:加速AI创新

    英特尔为先进科技注入AI动力,提供开放、可扩展和值得信赖的解决方案,帮助客户赢在AI时代
    的头像 发表于 09-22 17:32 376次阅读

    AI智能呼叫中心

    对这些数据的深入分析,呼叫中心可以有效改进服务质量、优化流程并提升业绩,此外,AI智能呼叫中心还可以基于数据分析的结果,进行智能预测并制定更加科学的策略,为企业的未来决策提供有力支持。四、节约成本传统
    发表于 09-20 17:53

    最新MLCommons结果公布 英特尔展现强大AI推理性能

    近日,MLCommons公布针对60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的MLPerf推理v3.1性能基准测试结果,其中包括英特尔所提交的基于Habana Gaudi 2加速器
    的头像 发表于 09-15 19:35 384次阅读
    最新<b class='flag-5'>MLCommons</b>结果公布 英特尔展现强大<b class='flag-5'>AI</b>推理性能

    最新MLPerf v3.1测试结果认证,Gaudi2在GPT-J模型上推理性能惊人

    英特尔产品在全新MLCommons AI推理性能测试中尽显优势 今日,MLCommons公布针对 60 亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的 MLPerf推理v3.1 性能
    的头像 发表于 09-12 17:54 300次阅读
    最新MLPerf v3.1测试结果认证,Gaudi2在GPT-J模型上推理性能惊人

    SAP ERP公有云的数据安全与合规

    针对各种复杂环境下的安全难题,SAP ERP公有云(SAP S/4HANA Cloud,Public Edition)给出了一套全面专业、值得信赖安全合规解决方案,从数据保护、隐私保
    的头像 发表于 07-01 15:46 950次阅读
    SAP ERP公有云的数据<b class='flag-5'>安全</b>与合规