0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

性别偏见探索和缓解的中文数据集-CORGI-PM

深度学习自然语言处理 来源:NLP工作站 2023-02-10 13:49 次阅读

介绍

大规模语言模型(LMs)已经成为了现在自然语言处理的关键技术,但由于训练语料中常带有主观的性别偏见、歧视等,在大模型的使用过程中,它们时常会被放大,因此探测和缓解数据中的性别偏见变得越来越重要。

部分研究通过性别交换等自动标注方法,缓解性别偏见的语料库;也有一些人工标注的性别偏见语料库,但主要集中在单词层面或语法层面的偏见,或只关注与性别歧视相关的话题,并主要以英文为主。因此,该论文提出了第一个用于性别偏见探测和缓解的句子级中文语料库,采用一种自动方法(如图1所示,对含有性别偏见得分高的词的样本进行召回,然后根据其句子级性别偏见概率对样本进行重新排序和过滤),从现有的大规模中文语料库中构建可能存在性别偏见的句子集,再通过精心设计的标注方案,对候选数据集进行进一步的标注,构建可以用于性别偏见检测、分类和缓解三种任务的数据集

67517690-a899-11ed-bfe3-dac502259ad0.png

数据构建

样本过滤

如图1所示,该研究通过单词级到句子级的两阶段过滤,从原始语料库中召回、排序和过滤待标注候选数据。对于词级别过滤,通过计算目标词与种子方向之间得分,构建一个高偏见分数的词表,并从原始语料库中匹配包含这些词语的句子,为初步候选集合。其中得分计算如下:

pYYBAGPl23mAB4vXAAAWhjIHnY0844.jpg

正值表示该词语更适合女性,负值表示该词语更适合男性,性别偏见得分绝对值越高,说明该词语的偏见程度越高。过滤得到的词汇绘制的词云如图5所示,

677349be-a899-11ed-bfe3-dac502259ad0.png

对于句子级别过滤,计算句子的性别偏见得分,并根据获得性别偏见关键词进行分组,然后根据特定的全局阈值性别偏见得分和组内阈值排名选择待标注的最终句子集合。

标注规则

标注方案为标注人员对一个句子进行判断,判断是否存在性别偏见;如果存在,则需要给出偏见具体类型,并为了缓解性别偏见,还需要对有偏见的句子进行纠正,给出无偏见句子。为保证标注质量,6名标注人员均具有学士学位,并且男女比例相同。

「偏见类别」共包含3种:

AC:性别刻板的活动和职业选择;

DI:性别刻板的描述和概况;

ANB:表达性别刻板的态度、规范和信仰。

缓解性别偏见主要是在保留原始语义信息的同时,减轻所选句子的性别偏见,并要求标注者进行使句子的表达式多样化,主要修改规则如下:

用中性代词取代性别代词;

用语义定义相近的中性描述替换性别特定的形容词;

对不能直接减轻的句子,添加额外的解释进行中和。

标注过程分为两个阶段:第一阶段,各标注者进行标注,并要求不要输入不确定样本;第二阶段,标注者之间进行交叉标注。

语料分析

CORGI-PM数据统计如表1所示,共包含32.9k数据,并考虑数据分布,划分了训练集、验证集及测试集。

67b616c2-a899-11ed-bfe3-dac502259ad0.png

如表2所示,发现偏见句子相较于无偏见句子来说,句子更长,包含词汇更少;但由于去偏句子需要在保持原意图语义不变、句子连贯、减轻偏见,因此去偏样本与原样本相比表达更长、更多样化。

67de0010-a899-11ed-bfe3-dac502259ad0.png

偏见数据格式样例:

{
'train':{
#原始句子
'ori_sentence':[
sent_0,
sent_1,
...,
],
#偏见类型
'bias_labels':[
[010],
[010],
[010],
...,
],
#人工去偏句子
'edit_sentence':[
edited_sent_0,
edited_sent_1,
...,
],
},
'valid':{
...#与训练集一致
},
'test':{
...#与训练集一致
}
}

无偏见数据格式样例:

{
'train':{
#原始句子
'text':[
sent_0,
sent_1,
...,
],
},
'valid':{
...#与训练集一致
},
'test':{
...#与训练集一致
}
}

实验结果

针对性别偏见检测及分类任务,以Precision、Recall和F1作为评价指标,采用BERT、Electra和XLNet模型进行微调进行实验对比,并采用GPT-3 Curie模型进行zero-shot实验,结果如表3所示。

6800eada-a899-11ed-bfe3-dac502259ad0.png

针对性别缓解任务,采用GPT-3 Ada(350M)、Babbage(1.3B)和Curie(6.7B)进行微调, 并采用Davinci(175B)进行zero-shot实验,结果如表4所示。

681e3e8c-a899-11ed-bfe3-dac502259ad0.png

总结

中文首个性别偏见探索和缓解数据集,开源不易,且用且珍惜。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • RGB
    RGB
    +关注

    关注

    4

    文章

    798

    浏览量

    58395
  • 过滤器
    +关注

    关注

    1

    文章

    427

    浏览量

    19563
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24649

原文标题:CORGI-PM:首个中文性别偏见探索和缓解数据集

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    那个涉嫌性别歧视被开除的谷歌工程师,到底吐槽了些什么?

    偏见,但关于这些偏见的诚恳的讨论被主流意识形态禁声了。下面要说的远不是完整的图景,但它是公司亟需讨论的一个视角。谷歌的偏见在谷歌,我们非常多的讨论关于种族和性别的无意识
    发表于 08-15 10:36

    TM4C1233H6PM数据手册中文

    TM4C1233H6PM数据手册中文
    发表于 10-31 12:24

    TM4C1233H6PM数据手册中文

    TM4C1233H6PM数据手册中文
    发表于 01-24 11:24

    本应公平公正的 AI,却从数据中学会了人类的偏见

    再中立了。我们充满着各种偏见。”这正是为什么我们要非常非常当心自己收集的数据的原因。今年3月,微软领导的一群研究人员参加在旧金山举行的一场会议时提出了一个可能的解决方案。因为识别数据
    发表于 06-02 12:51

    请问tm4c123gh6pm中文数据手册吗?

    请问tm4c123gh6pm中文数据手册吗?急求!
    发表于 08-14 07:58

    Spectre和Meltdown的利用漏洞的软件影响和缓解措施

    以下指南简要概述了称为Spectre和Meltdown的利用漏洞的软件影响和缓解措施,更准确地标识为: 变体1:边界检查绕过(CVE-2017-5753)变体2:分支目标
    发表于 08-25 08:01

    人工智能遭遇的偏见 算法偏见带来的问题

    偏见是人工智能面临一个挑战,主要是来自算法偏见,当然偏见并不止这些。与人类不同,算法不能撒谎,那么产生结果的不同必将是数据带来的问题。人工智能算法及系统的测试与验证,如何避免人工智能的
    发表于 02-06 14:04 1.2w次阅读

    IBM打造百万人脸数据 意图减少AI偏见与歧视问题

    科技中立,但人制造出来的 AI 却可能带有偏见或歧视。AI 偏见情况像是性别歧视、种族歧视,例如面部侦测算法在识别白人时的准确率比识别黑人高许多,男性跟女性类别也存在类似问题,让软件识别犯罪嫌犯人选、企业挑选求职者时,也曾引发歧
    发表于 02-13 08:47 517次阅读

    创新工具和开源软件如何帮助测量和缓解RF问题

    了解创新工具和开源软件如何帮助测量和缓解各种RF问题,如混频器的三次谐波、RF污染、需要RF滤波器等。
    的头像 发表于 07-23 06:05 2162次阅读

    PM和GPF的介绍_对颗粒捕器的介绍

    本文对PM和GPF进行了介绍并且粗略介绍了颗粒捕器。
    的头像 发表于 08-05 17:36 1.1w次阅读
    对<b class='flag-5'>PM</b>和GPF的介绍_对颗粒捕<b class='flag-5'>集</b>器的介绍

    Cloud AI提供免费消除性别偏见 将不再标识性别

    谷歌刚刚宣布,其使用AI工具的“谷歌云服务”将不再根据性别来标记人们。AI工具通过将人的图像标记为“男人”或“女人”来识别个人的性别。尽管这是一种针对机器学习模型的训练方法,但Google仍在使用它以避免性别
    发表于 03-20 09:56 733次阅读

    谷歌的AI工具已可以通过人的图像标记来识别个人的性别

    谷歌刚刚宣布,其使用AI工具的“谷歌云服务”将不再根据性别来标记人们。AI工具通过将人的图像标记为“男人”或“女人”来识别个人的性别。尽管这是一种针对机器学习模型的训练方法,但Google仍在使用它以避免性别
    发表于 03-20 11:15 2040次阅读

    AI可能带有性别偏见?Salesforce提出了减轻AI性别偏见的方法

    通过与弗吉尼亚大学的研究人员合作,Salesforce 提出了有助于减轻 AI 性别偏见的新方法。 通常情况下,研究人员需要为 AI 模型投喂许多单次来展开训练,但其中不可避免地会掺杂一些或隐性、或显性的性别
    的头像 发表于 07-05 09:31 2207次阅读
    AI可能带有<b class='flag-5'>性别</b><b class='flag-5'>偏见</b>?Salesforce提出了减轻AI<b class='flag-5'>性别</b><b class='flag-5'>偏见</b>的方法

    Google遵循AI原则减少机器翻译的性别偏见

    得益于神经机器翻译 (NMT) 的进步,译文更加自然流畅,但与此同时,这些译文也反映出训练数据存在社会偏见和刻板印象。因此,Google 持续致力于遵循 AI 原则,开发创新技术,减少机器翻译中
    的头像 发表于 08-24 10:14 2812次阅读

    芯驰科技对打破创投圈性别偏见的看法

    便是其中的代表,她带领着芯驰完成一轮又一轮产品推新,用实力获得了创投圈的认可。接下来,让我们看看她对“如何打破创投圈性别偏见”的看法。
    的头像 发表于 03-11 08:43 2233次阅读