据外媒报道,Facebook表示,他们正在使用人工智能(AI)技术主动检测出更多的仇恨言论。周四发布的一份新透明度报告则更详细地说明了该公司于今年早些时候公布政策变化后其社交媒体上的仇恨情绪情况,不过报告中仍对一些重大问题没有做出回答。
Facebook的季度报告包括了仇恨言论盛行的新信息。该公司估计,Facebook用户看到的内容中有0.10到0.11%违反了仇恨言论规定,相当于“每1万次浏览内容,就有10到11次会看到仇恨言论”。这是基于帖子的随机样本,其衡量的是内容的范围而非单纯的帖子数量。不过它还没有得到外部资源的评估。Facebook负责诚信的副总裁Guy Rosen在跟记者的电话交谈中表示,公司正在计划并努力进行一次审计。
Facebook坚称,在用户举报之前,它会主动删除大多数仇恨言论。该公司表示,在过去三个月里,Facebook和Instagram上约95%的的仇恨言论被删除是他们主动进行的。
这跟它最初的努力相比是一个巨大的飞跃--在2017年底,它仅主动删除了约24%的数据。另外,Facebook还加大了删除仇恨言论的力度:在2019年第四季度,约64.5万条内容被删除,而在2020年第三季度,这个数字则飙升到了650万。有组织的仇恨组织被归为一个独立的温和类别,其增长幅度则要小得多,从139,900个增加到224,700个。
Facebook表示,其中一些被取消的原因是AI的改进。今年5月,Facebook发起了一项研究竞赛,其目的是研究能更好地检测“仇恨网络迷因”的系统。在其最新的报告中,该公司就提到了自己能同时分析文字和图片、捕捉像下面展示的图像宏等内容。
责编AJX
-
AI
+关注
关注
87文章
29635浏览量
267971 -
Facebook
+关注
关注
3文章
1429浏览量
54604
发布评论请先 登录
相关推荐
评论