ABAGo

一个关于欧洲的,严肃、有趣、激进的思想视觉文化志

导语:

当机器学习和计算机运用到艺术研究、复原重现、选美比赛中时,观众往往会认为结果是科学、客观和公正的。但事实真的如此吗?


人工智能歧视(人工智能的种族偏见)(1)

Beauty.AI 2.0网站的屏幕截图

近年来,机器学习(ML,machine learning)和人工智能(AI,artificial intelligence)在艺术分析和复原领域中得到了广泛应用。虽然这项技术经常被吹捧为是一种真正能够实现客观性的手段,但它并不能摆脱其创造者的主观观点。无论是为了追寻美和可信度,还是为了还原历史的准确性,学者和评论家们都已将看似公正的数字和数学方法融入到他们的工作中,也将自己的偏见编织到作品的结构中。美可以通过数学公式来定义这一概念,最早可以追溯到古希腊的黄金比例理论(golden ratio)。如今,计算机科学家们将机器学习作为评估所谓客观美的标准(机器学习是人工智能的一个分支领域,它使用数学算法来教会机器分析大量数据)。然而,赋予机器以观察美的能力本身已经出现了一些问题。

2016年,首届由人工智能评选的选美比赛在网上启动。人工智能Beauty.AI很快选出结果,在评估了6000多个参赛作品后,机器人评审团似乎并“不喜欢黑皮肤的人”。44名获奖者中只有一位黑皮肤的人。Beauty.AI的开发者青年实验室(Youth Laboratories,位于俄罗斯和香港的人工智能实验室)承认了他们所谓的“深度学习”(deep learning)算法中存在固有的种族主义。在第二次选美比赛之后,他们又发起了一项名为Diversity.AI的倡议。这一人工智能项目承诺要努力创建一个新的论坛,用于编写更具包容性的代码,并开发可供免费下载的数据集,从而使开发人员能够使用“少数族裔的数据集”对机器进行训练。

人工智能歧视(人工智能的种族偏见)(2)

编程人员和数据集的偏见创造出了人工智能Beauty.AI,美国社会学家鲁哈•本杰明(Ruha Benjamin)的新书《追赶技术》(Race After Technology,2019)由此探讨了许多其他人工智能项目。本杰明是普林斯顿大学(Princeton University)非裔美国人研究(African American Studies)的副教授,也是Ida B. Wells Just Data Lab数据实验室的创始人。该书证明了算法往往忽略等级的存在而扩大等级和复制社会分化。在这部书中,本杰明呼应了哥伦比亚大学(Columbia University)法学教授伯纳德·哈考特(Bernard E. Harcourt,1963,美国批判理论家)的“预测警务”(predictive policing)工作。哈考特警告我们,民众习惯性地认为人工智能和机器学习没有偏见,这种错误的认知可能会带来危险。哈考特在2016年为《卫报》(The Guardian)撰写的一篇文章中说道,“Beauty.AI的案例提醒我们,人工智能目前确实还是人类思维的延续,即使它被描述成算法的形式进行表达,而大众普遍认为它是中立和科学的。”本杰明、哈考特、萨菲亚·诺布尔(Safiya Umoja Noble,美国作家)和其他学者,都对公众对人工智能公正性的信念发出过警告。诺布尔辩称,人工智能应该支持和使用“技术红线”(technological redlining),这涉及从谷歌公司到执法机构的每个人使用的算法中的种族定性。甚至Twitter新出的图像裁剪算法也是优先处理浅色脸而不是深色脸。在《追赶技术》一书中,本杰明将这些“微妙但同样充满敌意的系统性偏见”称之为“新吉姆准则”(New Jim Code)。

人工智能歧视(人工智能的种族偏见)(3)

鲁哈.本杰明的新书《追赶技术》封面

“新吉姆准则”的例子也可以在更多的学术出版物中看到。由尼古拉斯·鲍玛(Nicolas Baumard)领导的法国科学团队,声称他们已经“通过机器学习分析绘画中的面部线索来追踪人像可信度的历史变化”。该团队里没有任何艺术史学家或艺术家,而是设计了一种算法来生成“可信度评估”(trustworthiness evaluations)。他们的研究工作基于两个数据库来分析欧洲肖像画中的面部动作(例如微笑、眉毛的运动)—— 从英国国家肖像艺术馆(National Portrait Gallery)中选取的1962幅英国肖像画(1550-2016年间);以及从网络画廊(Web Gallery of Art,一个虚拟的美术馆网站)中所选取的4106幅来自19个西欧国家的肖像画(1360-1918年间)。研究人员称,他们的“研究结果显示,从1500年到2000年,肖像画的可信度在不断提高,这与西欧战争的减少和民主价值观的兴起是相同步的。”此外,他们还声称“GDP增长与可信度上升之间存在关联”。

人工智能歧视(人工智能的种族偏见)(4)

由鲍玛等人对欧洲肖像画进行的可信性研究“使用机器学习分析绘画中的面部线索来追踪可信性的历史变化”

这两组数据集的美学假设也存在着很大缺陷。因为以白人为主的欧洲精英男性的肖像是不能够用来量化整个欧洲的社会信任程度。此外,尽管研究人员也试图评估民主对于国内生产总值的影响,但他们规避了评估殖民主义(colonialism)和帝国主义(imperialism)的作用。这类研究很可能是21世纪的披着机器学习和人工智能外衣的伪科学(pseudoscience)和颅相学(phrenology)。

人工智能歧视(人工智能的种族偏见)(5)

“使用机器学习分析绘画中的面部线索来追踪可信性的历史变化”中关于人物图像的分析数据。

算法偏见也隐含在在线图像搜索引擎中,这导致数以百万计的用户每天寻找着带有指向性的数字化艺术和照片。通过谷歌对“黑人女孩”和“白人女孩”的搜索量进行简单比较,就能揭示出种族主义和性别歧视是如何影响搜索结果的。在萨菲亚·诺布尔的《压迫的算法:搜索引擎如何强化种族主义》(Algorithms of Oppression: How Search Engines Reinforce Racism,2018)一书中,她讨论了黑人妇女和女孩的形象是如何受到贬低和被过度夸张的形象所歪曲。

人工智能歧视(人工智能的种族偏见)(6)

《压迫的算法:搜索引擎如何强化种族主义》封面

即使是为了娱乐而设计的科技产品,也暴露出了人类的偏见。例如,谷歌艺术与文化平台(Google Arts & Culture)就创建了一个很受欢迎的app,提供展品和博物馆收藏。它还具有一个与自拍相匹配功能 —— 可上传自拍照与类似的艺术品进行配对。尽管这款应用的目的是创造一种探索艺术的有趣方式,但许多有色人种都表示,他们的图片被匹配成描绘种族成见的作品,其中包括被异化的图片或扮演从属角色的人。

与此同时,艺术家们还用人工智能和机器学习涉及了许多历史复原的主题。在疫情隔离期间,加拿大摄影师丹尼尔·沃沙特(Daniel Voshart)就创作了这样一批古罗马皇帝的彩色肖像。然而,沃沙特的3D历史项目,并不是无害的消遣。相反,它们具有一些潜在的危险性,这可能会让人们对长期以来被认为是种族主义的“古代白色地中海世界”说法重拾信心。

人工智能歧视(人工智能的种族偏见)(7)

丹尼尔·沃沙特对罗马帝国时代元首制皇帝的3D复原重现。

沃沙特是来自多伦多的电影摄影师和虚拟现实(VR)专家。他创作了古罗马帝国时代(公元前27年至公元235年)从奥古斯都(Augustus,公元前63-公元14)到努梅里安(Numerian,254-284)等54位皇帝的肖像。这一作品如今在史密森尼博物馆(Smithsonian)和Mashable等网络媒体上引起了广泛关注和讨论。在54幅画像中,有一幅是女性卢碧娅·塞维丽娜(Lupia Severina)的肖像,她可能是在丈夫奥勒良皇帝(Aurelian,270-275)死后独自掌权统治帝国。

通过拍摄半身像的原始图像,然后使用Photoshop和Artbreeder(一种机器学习的混合照片的平台),沃沙特生成了他称之为“真实照片”(photoreal)的图像。他的项目引起了人们的关注,因为人们通常看到的白色大理石雕塑已经变成了模仿原始色彩的逼真肖像画。例如,奥古斯都被重塑成米色皮肤、灰色眼睛和淡金色头发。每一幅肖像都是独一无二的。沃沙特说道,他搜集了历史文本、铸币和雕塑来塑造他的形象,并注意到他们的年龄、头发、眼睛和种族。他还承认,他的项目涉及到艺术诠释,在没有原始肖像真实影像的情况下制作合成图像。沃沙特解释说:“我的目的不是要把皇帝浪漫化,或者让他们看起来像英雄。”尽管如此,因为这些图像看起来是如此的真实,它们很容易被误认为是精确的复原,特别是当整齐地组装成海报并可供购买时。

人工智能歧视(人工智能的种族偏见)(8)

奥古斯都皇帝的重建图的原始图像(左);由丹尼尔·沃沙特绘制的复原3D肖像图(右)

沃沙特对机器学习的运用,也为他的复原技术蒙上了一层科学价值的面纱。然而,正如他对《史密森尼》(Smithsonian)杂志所说的,“说到底,这些都是我对艺术的诠释,我被迫在没有肤色的情况下对肤色做出决定。”这种对技术的使用看似无害,但其中蕴含着一些人类根深蒂固的偏见。你只需回顾一下类似于被称为“Shirley cards”的摄影色彩校正指南 —— 这是根据柯达员工雪莉(Shirley)的白皮肤进行校准,以了解偏色标准的示例。

尽管最近关于沃沙特作品的新闻标题都在宣传使用机器学习来复原帝国肖像,但他的作品仍然是艺术选择的结果。古代艺术家给大理石雕塑全身涂上丰富的、充满活力的色彩,但我们很少见到有古代肖像上还留有颜料。即便能够看到颜料的遗迹,用于肤色的颜料仍然是艺术性的诠释,而不是历史的准确表述。

人工智能歧视(人工智能的种族偏见)(9)

从台伯河流域发掘出来的古罗马彩绘陶俑,现在放在罗马戴克里先浴场博物馆

由于沃沙尔的选择,他的作品并没有展示古代世界的种族多样性。更重要的是,它也只是针对罗马帝国的皇帝,而不是古代地中海的普通民众。当然,人们可以对这种解释给予某种艺术上的许可。然而,尽管沃沙特的图像包括了头发纹理、眼睛和皮肤颜色的一系列变化,但在最初的照片中没有一个人是棕色皮肤或发卷的。特别是考虑到他对肤色的选择,沃沙特主要是用浅肤色创作肖像画,这并不能反映出古老的多民族地中海世界。唯一的例外是,最初沃沙特对塞提米乌斯·塞维鲁斯皇帝(Septimius Severus,145-211)渲染的是深色皮肤。

人工智能歧视(人工智能的种族偏见)(10)

这是沃沙特的两个版本的肖像画之一,主人公来自北非的罗马皇帝塞提米乌斯·塞维鲁斯;该肖像是根据收藏于:哥本哈根的新嘉士伯博物馆(Ny Carlsberg Glyptotek)的塞提米乌斯·塞维鲁斯青铜头像(大约公元195-211);塞弗朗通多(约公元200年)和收藏于慕尼黑古代雕塑国博物馆( Munich Glyptotek Museum)塞维鲁斯大理石半身像制作而成的。

沃沙特声称,他曾试图将塞提米乌斯·塞维鲁斯的皮肤变黑,以匹配著名的塞维鲁斯壁画肖像《Severan Tondo》,但Artbreeder在处理制作神经网络方面有些困难。摄影师在谈到他使用理想化的肖像和雕塑时说:“我想,因为我有电影制作的背景,所以我不太关心对于历史事实的描绘。”因此,沃沙特侧重于对原始材料的选择和操作,而他对技术的使用并不是中立的。

人工智能歧视(人工智能的种族偏见)(11)

沃沙特的塞提米乌斯·塞维鲁斯的第二版肤色加深了,其借鉴了《Severan Tondo》壁画肖像。

在回应来自Twitter上古典主义者的质疑,沃沙特被迫修改了一些肖像照片,让肤色的范围稍加扩大了一些。这样的改变也只能说明这些肖像画不是为了写实,而主要是为了艺术表现。使用相同的文字来源、艺术图像和技术,不同的人可以创作出独特和明显不同于沃沙特的肖像作品。但大众会误以为那就是历史的再现,而在科学领域也有可能会引用这些艺术创作,作为还原真实历史的依据。

可以肯定的是,沃沙特的罗马皇帝会激发人们对于古代历史的兴趣,但是要强调的重点是,肤色的复原有其自身的局限性。比较复原的差异性,在教学环境中是非常有必要的。允许学生使用该技术来构建图像,可以让他们更好地了解古代世界的多样性以及该技术的局限性。然而,并不是所有的使用者都意识到,这些肖像仅仅是松散地基于文本和美学来源,大多数情况下,在肖像上没有任何显示原始皮肤颜色的底色(甚至在半身像上作画也只是一种理想化的艺术选择)。对学生和公众来说,重要的是要认识到,即使拥有最先进的技术,也没有艺术家或科学家能够创造出一幅确定的、凝固的古地中海居民的肖像。无论生成的肖像看起来多么逼真,我们都不可能百分百准确地知道古代的人实际上长什么样。

人工智能歧视(人工智能的种族偏见)(12)

考古和遗产协会在Facebook上发布了一篇推文,展示了他们对罗马皇帝的逼真重现。

当在艺术研究、复原重现或选美比赛中强调机器学习和使用计算机时,观众往往会认为结果是科学的、客观的、公正的。当这些发现和重构被广泛推广和传播时,它们几乎被普遍接受为历史事实。尽管人工智能提供了分析大量数据和生成逼真图像的工具,但必须强调从编程到设计和实现的各个阶段,人工智能和机器学习中隐含着更多的偏见,并伴随任何重塑过去的尝试。就像古代的白色大理石雕像一样,对于过去和现在不准确的事物,理想化的图象在我们的社会中根深蒂固,以至于我们很难想象它们原本的面貌不是这样的。


END .

本文由公众号【ABAGo】主理人快乐大胖原创

不可转载和复制

,