日本富士通的一支研究团队利用有向无环图模型(DAG)研究AI生成艺术中的偏见现象。该研究发现,目前的AI模型在艺术创作时展现出对特定流派、创作风格、种族、思想运动等因素的明显倾向性。
据分析,这种偏见现象的背后有两层原因,一方面是标记数据集中各类样本数量不均衡,一方面是标记过程受标记员主观影响较大。
该研究发表在康奈尔大学的论文库arXiv上,名为《艺术史视角下分析AI生成艺术中偏见产生的原因(Biases in Generative Art—A Causal Look from the Lens of Art History)》。
一、研究方法:采用DAG进行因果关系分析
随着人工智能技术研究的不断深入,人工智能的应用领域也越来越广泛,其中就有AI生成艺术。从创作绘画到开辟新的艺术风格,AI被应用到艺术创作的方方面面。
然而,随着AI艺术创作工具不断涌现,日本富士通的研究团队却指出:社会偏见可能会渗透到AI的艺术创作过程中。
为了验证猜想是否属实,富士通研究人员从相关学术论文、在线平台、应用程序入手,从中挑选出描摹现有流派和风格的样本并展开研究。
研究团队首先对影响AI创作的主要因素进行了分类,从而确定研究样本。他们最终选定的样本均由业内领先的AI系统创作,这些AI系统接受了文艺思潮、流派、创作材料、艺术家等各类标记数据集的训练。
文艺思潮方面,有文艺复兴、立体主义、未来主义、印象派、表现主义、后印象派、浪漫主义等。流派方面,有风景画、肖像、战斗绘画、素描等。材料方面,有木版画、版画、油漆等。艺术家方面,则有克莱门汀·亨特(Clementine Hunter)、玛丽·卡萨特(Mary Cassatt)、文森特·梵高(Vincent van Gogh)、古斯塔夫·多雷(Gustave Doré)、吉诺·塞维里尼(Gino Severini)等。
该文共同作者称,该研究利用了一个名为“有向无环图”(Directed Acyclic Graphs,“DAG”)的因果模型,他们能够通过这个模型识别出和AI艺术生成有关的因素,以及这些因素相互影响的方式。
比如,艺术思潮会影响创作材料的选择,肖像主体会影响艺术家风格的选择,而DAG能够将这些复杂的关系可视化,从而更好地分析不同因素之间的因果关系。
二、研究结果:AI艺术创作工具存在种族、性别歧视
经分析,AI系统在进行艺术创作时,存在对特定流派、风格、种族的明显偏好。
以艺术渲染工具DeepArt为例,用户可以在DeepArt上导入图片并添加艺术化渲染效果,最终生成具有特定艺术家风格的图片。
在处理立体派画家费尔南·莱热(Fernand Léger)的作品《推进器(Propellers)》时,DeepArt未能成功将其转换至未来派风格。在将玛丽·卡萨特(Mary Cassatt)的现实主义画作《玛丽·埃里森小姐(Miss Mary Ellison)》转换成表现主义风格时,DeepArt又未能展现出表现主义的典型特征。
更有甚者,DeepArt同类平台GoArt在为克莱门汀·亨特(Clementine Hunter)的画作《黑族长(Black Matriarch)》添加表现主义滤镜时,直接将主体人物的黑肤色变成了红色,在加工狄赛德里奥的雕塑作品《小男孩(Giovinetto)》时,却保留了艺术品中人物原本的白色肤色。
另一款艺术加工工具Abacus直接把拉斐尔(Raphael)和皮耶罗·迪科西莫(Piero di Cosimo)作品中的长发年轻男子识别为女性。
三、原因分析:标记数据集的样本失衡
富士康的研究团队认为,这种偏见主要来自前期训练AI时使用的标记数据集。一方面,受到研发人员偏好影响,这些标记数据集涉及的样本数量可能不够均衡。以AI Portraits为例,该应用程序的训练样本便是以文艺复兴时期的白人肖像为主。
另一方面,给数据集做标注或是打标签的过程中可能存在标准不一致的情况。注释者拥有不同的偏好、文化和信念,这些差异可能会在他们创建的标签中得到反映。
论文指出,各类训练样本的数量并不均衡,比如照片很多、雕塑很少;欧洲艺术家很多、本土艺术家很少;文艺复兴、现代艺术运动作品居多,其他思潮作品很少。数据集也未能体现出不同种族、风格的面孔差异,因此出现了代表性偏差。
研究团队警告说,为艺术生成AI建模时,如果忽略某些细微因素,将造成社会、文化、政治方面的错误历史认知,从而影响人们正确地认识某些重要史实。
他们敦促AI研究人员和从业人员在考虑相关社会政治因素的前提下,应谨慎检查AI系统的设计原理。
结语:机器理性仍靠人智实现
还记得《终结者》系列中,施瓦辛格扮演的机器人T-800眼冒红光、冷面无情的模样,然而事实和科幻相去甚远,机器人目前既没有自主思考能力,更没有人类独有的情感和欲望。
人工智能仍依赖算法编程实现。因此,人工智能的好与坏、公平与偏颇全掌握在人类手中,这就对人类软件开发专家提出了更高的要求。
俗话说“上梁不正下梁歪”,如果人类开发者在训练AI的过程中,没有很好地考虑到社会公平的因素,那么个人认识的局限性和偏差便会传递到AI上。
比如说,谷歌BERT等大语言模型的训练样本就忽略了贫困地区尚不能联网的弱势群体,艺术生成AI的训练样本又主要以西方白人肖像为主。
不管是在艺术创作领域,还是在语言模型领域,AI训练样本不均衡导致的代表性偏差都是一个值得关注和深思的问题。若想充分发挥机器的理性优势,人类开发者在设计系统架构和训练AI的过程中必须更加谨慎细致。
原文标题:AI画画也有种族歧视?艺术加工软件把黑人变白人
文章出处:【微信公众号:物联网技术】欢迎添加关注!文章转载请注明出处。
责任编辑:haq
-
AI
+关注
关注
87文章
29611浏览量
267905 -
人工智能
+关注
关注
1789文章
46545浏览量
236823
原文标题:AI画画也有种族歧视?艺术加工软件把黑人变白人
文章出处:【微信号:iotmag,微信公众号:iotmag】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论