孟吉杰

上海市全面依法治市研究会会员

要目

一、发展与危机

二、焦点与保护

三、法律规制的路径设计

人工智能的快速进步给社会发展带来很多变化,深度合成(Deep Synthesis)这一概念也日益受到关注。深度合成有广义和狭义之说。狭义的深度合成,是指人脸替换、人脸合成、视频生成、语音模拟等;广义的深度合成,还包括用生成合成类算法制作文本、虚拟场景等。一般来说,社会大众普遍理解和熟悉的,是狭义的深度合成。

一、发展与危机

深度合成的兴起并不算早,2017年,美国新闻网站Reddit的一个名为“deepfakes”的用户上传了经过数字化篡改的色情视频,把这些视频中的成人演员的脸被替换成了电影明星的脸。这种AI换脸一时引起互联网用户的极大兴趣,同时也诞生了一个新名词“deepfakes”(深度伪造)。后来“deepfakes”又逐渐转变为更中性化的“Deep Synthesis”(深度合成)。根据清华大学人工智能研究院、国家工业信息安全发展研究中心等联合发布的《深度合成十大趋势报告(2022)》显示,2017年至2021年国内外主流音视频网站、社交媒体平台上,深度合成视频数量的年均增长率超过77.8%。2021年新发布的深度合成视频数量是2017年的11倍。与此同时,深度合成内容的曝光度、关注度、传播力也呈指数级增长,2021年新发布深度合成视频的点赞数已超3亿次。

深度合成在社会、生活各领域激发新形式、创造新内容的同时,也给社会发展带来了不容忽视的新威胁、新挑战,必须越来越引起我们的高度关注。从政治安全上说,这一技术如果被外国敌对势力利用,极有可能会用于煽动恐怖和暴力情绪,破坏国家政治稳定。从经济安全上说,利用这一技术制造逼真的假视频和假音频新闻会给金融稳定、经济稳定带来严峻的挑战。从个人财产保护上说,不法分子制作虚假视频,提供虚假证据,进行诈骗、勒索等违法行为,会严重威胁公民的财产安全。从法律体系上来说,深度合成技术能够自动生成高可信度的假视频和假音频,可能会对司法取证带来一定的挑战。从社会稳定上说,假消息的泛滥还可能会造成社会信任危机。

二、焦点与保护

笔者认为,深度合成没有善恶之分,当滥用这种技术,跨越道德和法律的边界时,才会出现“深度伪造”的行为,对社会产生危害。诚如前文所述,这种滥用技术的行为危害是广泛的,可能涉及到政治安全、经济安全、社会安全等诸多方面,但如果我们抽丝剥笋,查明其中侵害的“源点”,就可以有针对性的防范和处置。

深度合成之所以颠覆人们的认知,让坏人们可以“兴风作浪”,就在于千百年来,人们在与世界交互中所形成的传统观念是“眼见为实”(Seeing is believing)。当一切都可以被伪造,而没有足够的技术手段进行区分,真相与假象之间的界限就会变得日益模糊,使得“眼见也不一定为实”的时候,人们的整个信任体系就崩塌了。而这其中,信任体系的关键,是人与人之间的信任。所以,不良分子深度伪造的焦点,就是围绕着“人”来展开的,主要是伪造人的生物特征,尤其是“打击”人类感官最明显的视觉、声觉。所以,深度合成实施伪造行为所侵犯的法益,实际上就是公民的人格权益,核心的就是肖像权和声音权。

我国《民法典》虽然没有直接规定声音权,但在第1023条第二款作出规定,“对自然人声音的保护,参照适用肖像权保护的有关规定。”这就为深度合成的法益保护奠定了重要的基础。声音和肖像一样,具有人身属性,在某些场合是识别个人身份的重要标志。依据《民法典》第1023条的规定,对自然人声音的保护,参照适用肖像权保护的规定。所以,根据《民法典》第1019条和第1020条的规定,自然人的肖像和声音的保护有三个要点:第一,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像或者声音。第二,未经同意,不得制作、使用、公开他人的肖像或者声音,但个人学习、课堂教学等《民法典》第1020条规定的情形除外。第三,未经同意,作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开他人的肖像或者声音。在这些民事法益是深度合成法律制度保护的基础。在此之上,由此再衍生出来需要保护的其他法益,如公共安全、财产权等,即由民事保护向行政、刑事保护延伸。

三、法律规制的路径设计

探明了深度合成要保护的核心法益,就可以有针对性的开展相关法律制度设计。我国在这方面已经踏出了有力的一步,2022年1月28日,国家互联网信息办公室发布《互联网信息服务深度合成管理规定(征求意见稿)》(以下简称《规定(征求意见稿)》),旨在规范互联网信息服务深度合成活动,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。虽然这个规定还在征求意见中,离正式出台还有时日,但我们不妨探讨一下对于深度合成采取法律规制应建立哪些基本规则。

合理确定法律规制的基本立意

对于深度合成我们应当秉持什么样的态度,这一点特别重要,决定着未来深度合成的“生死”和“好坏”。从历史唯物论的角度看,一切事物都是在发展中的,人类社会和科学技术都要不断发展。近几十年来,互联网、信息技术不可避免地介入人们的生活,除了少部分人因为主观或者客观原因没有采纳,而成为“孤独的离群者”之外,人类社会作为整体,对于新技术实际上是共生共存的。这一点就决定了我们对于深度合成这类新技术不能采取简单的“一刀切”,既不能完全放任不管,让技术无遮拦地渗透、冲击所有生活,也不能坚决禁止或者强烈排斥,导致新技术被扼杀,经济和社会的发展“放慢脚步”。那么,正确的法律定位就应当是“包容审慎”,一方面鼓励技术发展,另一方面划定应用的禁止范围。

建立“技术 伦理 法律”的规制的体系

对于人工智能的发展,《上海市促进人工智能产业发展条例》在产业治理方面探索出了一条“技术 伦理 法律”的路径,对于深度合成的治理同样适用。

1.技术方面,通过政府引导和社会各方面参与,发展识别、检验深度合成的“对抗性”技术,保证深度合成技术的可控性。

目前,学界和业界均已对深度合成检测技术进行了大量研究,Meta(原脸书)、谷歌、微软等机构均推出了深度合成视频认证的方法或产品。在法律规制时,要鼓励和引导这类“对抗性”技术发展。

2.伦理方面,从源头着眼,设立开发者伦理规范。

一切技术的本身都是中立的,但设计和应用者在处理这些技术时是有立场的。深度合成技术在源头开发时,开发者就应当有风险意识、伦理意识,对可能造成高风险或者破坏性应用的,要谨慎开发,或者在技术等方面留有处理空间。这方面,可以借助正在设立的人工智能专家伦理委员会,通过行业内的专家,讨论、确定这种必须的伦理规范,进一步约束技术开发者,实现源头的风险管控。

3.法律方面,关键是明确合理开发使用的“绿线”,以及禁止性的“红线”。

让开发者或者使用者清楚明了地明白,哪些行为是可以做的,如何规范地做,哪些行为是绝对不能做的。如果出现了违法行为,又应当承担什么样的法律责任。

若干假设前提下的实证分析(深度合成的法律规制路径分析)(1)

划定合理开发使用的“绿线”

1.以“同意”为前提

深度合成针对的是自然人的肖像和声音等生物特征,必须建立“同意制度”,即必须是以取得自然人本人同意为前提,才能收集其个人生物特征信息,而且这种同意不能是“强制性的同意”。

2.建立分级分类制度

深度合成技术发展很快,场景应用也非常复杂,对于深度合成技术和产品及服务就不能简单地采取无差别管理的方法,要对其采取分级分类管理。在行业内,通过行业协会、企业深度参与,协助管理部门共同制定出技术和产品服务的分级分类方法,进行差异化管理。

3.显著标识

目前发布的《规定(征求意见稿)》要求深度合成服务提供者对使用其服务所制作的深度合成信息内容添加标识,标识有两种类别,第一种是使发布、传播的深度合成信息内容可被自身识别、追溯的标识(“追溯标识”),这是为了让深度合成服务提供者对其制作生成的内容予以追踪,在争议发生或其他需要确认合成信息来源时能够找到源头。第二种是以显著方式对社会公众有效提示信息内容的标识(“显著标识”),这是为了告知社会公众该信息内容是通过深度合成的方式得到的,提示公众注意内容的真实性与准确性,以防范与之相关的法律风险与道德风险。在图像类标识方面可以借鉴著作权的©标识,以D的形式进行提醒标注;在声音类的标识方面,需要在音频的前、后都以清晰明了的语音(如:本音频采取了深度合成技术,非原始语音)予以提示。

4.补救措施

深度合成的产品和服务具有传播快、影响力大的特点。一旦产生误解,影响范围和效果也很大,所以还必须要有一个补救措施,当产生社会误解时,要有方便、有效的方式进行辟谣。这种辟谣的责任主要建立在发布者或者相关平台上,另一方面也可以考虑通过有关社会组织或者政府建设特定的网络平台进行辟谣和说明,尽可能消除误解带来的不利社会影响。

划定禁止性行为的“红线”

1.对于深度合成技术的研发者,要符合伦理规范的要求,特别是在高风险产品和服务开发时,应当通过伦理委员会的评估方可进行。

2.对于深度合成产品和服务制作和发布者,绝对禁止将深度合成技术应用于政治干扰、淫秽色情、假冒身份等非法行为和活动。

3.除前述绝对禁止的行为之外,深度合成产品和服务制作和发布者在使用时不得误导大众,这是和前文显著标识的要求相对应的。例如,当AI机器人以商业或政治目的与人交流或互动时,必须披露其人工智能身份。

4.赋予互联网平台以特别义务,特别是社交媒体,这些主体需要建立假消息筛查机制,加强内容审核,在用户发布时确定其是否安照要求进行深度合成的标识,对没有标识的,要有甄别责任,禁止上传可能危害国家安全或造成负面社会影响的深度合成产品。

莫 莉 金惠珠

,