最终解释权归属是否合理(虽被个保法认可)(1)

【编者按】基于个人信息的算法自动化决策越来越普遍,但由于算法具有黑箱性、不确定性与复杂性,算法解释权应该理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在解释争议与适用困境。

《互联网法律评论》特约专家、中国人民大学法学院副教授丁晓东认为,应以信任机制重构自动化决策中的算法解释权,将算法解释权视为一种信任沟通机制。在制度层面,可以根据算法自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对算法解释权的内容、程度、时间和方式作不同要求。

本文发表于《中国法学》2022年第1期,原标题为《基于信任的自动化决策:算法解释权的原理反思与制度重构》。《互联网法律评论》今日获得作者授权编辑转发。

在大数据与人工智能时代,基于个人信息的算法自动化决策越来越普遍。于是,许多国家都在个人信息或个人数据保护法中引入算法决策的相关条款,但由于与算法相关的权利相对新颖,而且各国的法律规定都比较概括抽象,这些条款往往可以作不同解读。与此同时,研究者也对算法解释权的权利内容、程度、时间与方式给出了不同的法律解释。不同的算法解释权意味着个人可以主张行使的权利不同,个人信息处理者应当承担的义务不同。

1

算法解释权的解释争议

权利内容方面

一般性权利主张

限定性权利主张

程度要求

系统解释

个案解释

时间要求

算法决策前解释

算法决策后解释

解释方法

人工解释

机器解释

(一)一般主张与限定主张

在权利内容方面,算法解释权可以被解释为一般性权利主张,即此种权利赋予个体在所有情形下针对所有自动化决策者的算法解释权利。综合我国《个人信息保护法》中的相关法律条款,可以从中推导出一种基于透明性主张的算法解释权,个人可以对所有算法决策者提出算法解释与说明的主张,并且可以在信息处理者拒绝的情形下提起诉讼请求。但另一方面,《个人信息保护法》的相关规定又可以被理解为限定性的权利性主张,包括特定条件下的说明解释权与拒绝自动化处理的权利,但不包括一般情形下的算法解释权。

算法解释权的一般性主张与限定性主张之间的区别并不仅仅是概念性的,前者比后者为个人赋予了更宽泛的权利主张,其适用对象更广,而且对算法决策者施加了更多责任

(二)系统解释与个案解释

算法解释权的程度要求也存在两种理解:一种理解是,个人可以要求自动化决策者对算法的系统功能做出解释,即要求自动化决策者解释自动决策系统的逻辑、意义、预期后果和一般功能。另一种理解是,个人可以要求对个案决策做出解释,即要求自动化决策者解释“算法决策的基本原理、原因,以及限定自动决策的个别情况”。两种解释为个人赋予不同的信息权利,为自动化决策者施加不同的责任

(三)事前解释与事后解释

就解释的时间要求而言,算法解释权既可以视为要求自动化决策者进行算法决策前的解释,也可以视为要求自动化决策者进行算法决策后的解释。根据事前解释的要求,无论是网约车乘客还是各类资讯、广告、新闻的用户,都可以要求自动化决策者在算法决策前就公布其算法规则。根据事后解释,个体只能在算法决策作出之后提出请求。对于算法解释权的时间要求,我国《个人信息保护法》并未进行明确规定,欧盟的《一般数据保护条例》也可以作两种解释。

(四)人工解释与机器解释

就解释方法而言,算法解释权可以被认为要求进行人工解释。另一方面,也可以认为纯粹机器解释同样符合算法解释权的要求。目前,各国的个人信息保护法并未对解释方法作出明确规定。

最终解释权归属是否合理(虽被个保法认可)(2)

2

算法解释权的适用困境

算法解释权的困境不仅存在于法律解释层面,也存在于法律适用与效果层面。一旦对算法解释权的内容要求、程度要求、时间要求、方式要求作刚性的规则要求,就会带来各类问题。

(一)算法解释权的权利内容

就权利内容而言,将算法解释权界定为一般性权利主张,可能面临知情同意原则带来的问题。以“知情—同意”模式保护个人信息相关权益,本身就面临着很多困境,可能同时引发个人信息权益保护不足或者保护过度的问题。在涉及算法的自动化决策中,上述问题更为明显。相比个人信息的收集与非自动化决策的信息处理,涉及算法的规则往往更为复杂。因此,如果将绝对透明视为算法解释权的要求,未必现实。就效果而言,也未必能很好地维护个人的相关性权益,促使企业为个人提供更优服务

此外,将算法解释权视为一种限定性权利的主张,以拒绝算法自动化处理权作为核心,也面临不少困境与挑战。首先,在有的场景下,个人反对权的行使并不合理。其次,在原理层面,将反对或脱离算法决策上升为一种权利,也需要进一步论证。很多人可能更愿意采用自动化决策算法,而非人工算法。如果拒绝自动化决策可以作为一种权利,那么反对人类决策和采取自动化决策权是否也应该成为一种权利?

(二)算法解释权的解释程度

1.算法的系统性解释面临时时更新的难题

以机器学习为代表的人工智能算法可以从数据中学习,并随着时间的推移而提高其准确性。因此,在机器学习算法中,算法随着时间的演进而变化,而非一成不变。

2.算法的系统性解释难以引起个人注意,也难以为个人提供有效信息

在自动化决策者进行自动化决策之前对个人的告知中,个人对算法自动化决策系统的逻辑、意义、预期后果和一般功能往往就没有太多兴趣,更不用说去了解和阅读相关告知。在个人遭遇自动化决策,对算法产生相应疑虑之后,关于算法的一般系统解释也未必能打消个人疑虑。

3.算法的系统性解释面临知识产权与“算计”算法的难题

算法的系统性解释,往往意味着算法决策机制一定程度的公开,会对企业的知识产权保护带来一定的挑战。如果向包括社会公众在内的人员完全公开算法,可能导致社会主体钻算法的空子,采取各种方式来“算计”算法的问题。

相比算法的系统性解释,算法的个案性解释需要解释某个具体算法决策的逻辑,因而更贴近个人诉求。但个案性解释首先面临与系统性解释同样的问题,因为个案性解释以系统性解释为前提,其需要首先解释算法决策系统的一般规则。其次,个案性解释的解释难度更大、成本更高。最后,算法的个案性解释需要多具体?从逻辑上说,个案性解释可以无限具体,个人可以无限追问。

(三)算法解释权的时间要求

就算法解释的时间要求而言,事前解释的意义有限。事前解释只能是一般解释。个体往往对于告知不太在意或难以理解,而机器学习等算法又可能随时发生变化。在这样的背景下,对算法做事前解释无助于个体理解算法并且作出理性决策

同时,事后解释也面临难题。一方面,事后解释是在算法决策作出之后进行。自动化决策者无需提前告知个体其运行机制,那么个人对自动化决策与个人信息处理的选择权将形同虚设。此外,在一些具有风险性的算法决策中,事后解释可能面临更大的问题。另一方面,事后解释应当以体系性解释作为要求,还是应当以个案性解释作为要求,也是一个两难问题

在机器学习等算法中,算法可能在经过大数据训练后发生变化,因此,算法的事后解释既可以要求自动化决策者对算法进行一般解释,也可以针对决策时的算法系统进行个案解释。如果将事后解释的要求界定为体系性解释,那么企业等算法主体需要对算法的演化进行追踪了解,将决策时的算法告知用户即可。其好处是企业等算法主体的负担相对合理,但问题在于,个体对算法决策的困惑可能很难消除。如果将事后解释的要求界定为个案解释,则企业不但需要追踪算法的演化,还需要针对成千上万用户做出个性化解释。此类解释虽然有利于用户消除疑虑,但也会给企业等算法主体施加不现实的负担。

(四)算法解释权的方式要求

在解释方式要求上,机器解释与人工解释也难以作统一要求。如果将人工解释作为强制性与统一性要求,并不现实。这意味着在个人信息的收集、处理、申诉等各个阶段,使用算法的企业都需要单独通知个人,并在个人行使访问权、更正权、删除权、拒绝自动化决策权等权利时,都设置人工服务。事实上,即使对算法解释权最为推崇的欧盟,也将很多自动化决策视为符合法定要求的个人信息处理,毋需人工介入或人工解释

但是如果完全不作要求,允许企业以纯机器解释的方法进行算法解释,那么算法解释制度设计的初衷就可能大打折扣。特别是当算法对个人的“权益造成重大影响”,而个人又对机器的算法解释感到困惑与质疑,希望有人工解释介入时,此时企业如果仍然未能提供人工解释的选项,则所谓的算法解释制度将形同虚设。

最终解释权归属是否合理(虽被个保法认可)(3)

3

算法解释权的原理分析

(一)算法个体控制论的困境

在原理层面,算法解释权的提出与制定与个人信息控制权理论密切相关。20世纪60年代,美国学者阿兰·威斯丁(Alan Westin)首先提出个人对自身信息控制的权利,以回应传统隐私权在信息技术时代保护个人权益的不足。此后,这一个人信息控制权或个人信息自决权广泛传播,并在制度层面形成以“公平信息实践”为基础的个人信息保护制度。算法解释权作为一种新型权利,正是访问权、纠正权、删除权等传统个人信息控制权的进一步拓展。但将算法解释权视为绝对化的控制性权利,存在如下问题:

1.个人信息控制权本身存在可行性困境

虽然法律在个人信息收集、储存、流转的各个环节都赋予个体知情选择权,但个人很难通过“告知—同意”的方式来作出理性判断,以至于这种权利在很大程度上仍然是停留在“纸面上的权利”。同时,解决这种困境,也无法简单通过强化个人选择权来完成。在算法问题上,个人控制权面临更多问题。算法自动化决策比个人信息的收集、储存与流转更加复杂,更加具有黑箱属性与不可预测性。

2.个人控制权存在正当性困境

在很多自动化决策的场景中,自动化决策者与个人之间的关系具有互惠合作性,而不只具有对抗性,这就使得个人的算法解释权与控制权难以具备绝对化权利的正当性基础。

3.市场本身也具有调整能力

在企业算法决策中,并非所有不合理的算法问题都需要国家力量的介入。当某一领域的竞争较为充分,特别是已经形成市场良性竞争的前提下,当某企业利用算法对个人设置过高的价格或提供低水平服务,这家企业就很可能会被消费者抛弃,被市场淘汰。

因此,算法解释权应当更多针对那些对消费者产生重大影响的自动化决策,或者针对具有市场支配地位的企业。前者可以使政府力量集中,避免规制中经常出现的规制失灵、选择性规制、规制俘获等问题。后者则可以避免某些垄断企业利用算法和消费者的个人信息而滥用市场支配地位,支配消费者。

(二)抛弃算法解释权并不明智

算法解释权既然面临种种困境,那是否应当抛弃算法解释权的进路,以算法规制的进路作为替代?算法外部监管具有很多优势,但彻底放弃算法解释权的进路,代之以算法的外部监管,并不是合理的法律与制度选择。

1.算法的外部监管面临多重挑战

监管机构虽然专业能力、执法能力较强,但监管机构的数量和人员都有限度,发现问题能力较弱。尤其是在算法这类科技专业性较强的领域,一般监管机构的通用专业能力往往难以应付。此外,监管往往依赖全有全无的规则或命令,对于场景多元、权益多变的算法自动化决策来说,这类规则或命令也未必完全适合监管算法。

2.在算法外部监管面临困境的方面,算法解释权的合理行使恰巧可以弥补其不足

面对算法决策,个体虽然认知能力较弱,也一般倾向于息事宁人,不愿意介入法律诉讼,但用户是算法决策的最直接影响对象,算法的变化或更改,用户的感受往往最为直接深刻。即使其中有很小比例的用户发现问题,提起申诉或诉讼,也可以较快发现问题。因此,个人对算法的控制权虽然难以行使,但赋予个人对于算法的有限解释权,通过个人发现算法存在的问题,有利于对算法进行监督和合作治理。

3.算法解释权不仅可以扮演一种工具性权利,也可以成为一种价值本身

在日常交往与法律活动中,受到影响特别是受到伤害的一方寻求解释,这对于维护个体自治与尊严价值具有重要意义。

(三)迈向沟通信任的算法解释权

为避免以个人控制权为基础的算法解释权带来的困境,同时弥补算法外部监管的不足,应当重构算法解释权的基本原则。既然自动化决策者与个人既存在合作互惠关系,又存在对抗防范关系,那么算法解释权就应当以促进双方的合作互惠为目标,以消除个人的疑虑和防范自动化决策者的不合理支配为目标。换言之,算法解释权应当建立在沟通信任的原则之上。在算法自动化决策问题上,以信任原则重构算法解释权,比个人信息保护中的其他议题更为必要

(四)算法解释权的程序性特征

从沟通信任的原则出发,可以重新界定算法解释权的性质。既不应将算法解释权视为一种透明性要求,也不应将其视为一种静态、孤立、绝对化的实体性权利。相反,算法解释权应当被视为一种动态、沟通、相对性的程序性权利,因为信任本身就是持续性、关系性、程度性的。

首先,信任本身是一个过程,无法通过一次性授权而永久性建构,这使得算法解释权更类似一种动态性权利。

其次,信任需要在关系中进行建构,而不能通过孤立的权利行使来获取,这使得算法解释权更类似沟通性权利。因此,孤立和形式主义的权利行使无助于信任的建构,应以关系沟通的立场看待算法解释权。

最后,信任是程度性而非绝对性的,这使得算法解释权更接近于一种相对性权利。就信任而言,即使是最亲密的关系,也不可能实现百分之一百的信任。在商业算法决策等场景下,信任关系更不可能达到私人之间亲密关系中的信任程度,也毋需达到这种程度。因此,算法解释权的行使不应追求绝对信任。

最终解释权归属是否合理(虽被个保法认可)(4)

4

算法解释权的制度重构

从算法解释权的原理出发,重新建构算法解释权制度,可以结合算法解释权的沟通信任原则与程序性性质,对算法解释权的内容、程度、时间与方式作不同类别的要求

(一)权利内容:算法解释权不应被视为一种内容边界完全清晰的权利

无论是一般性主张还是限定性主张,其权利主张都是程序性的,其实体性边界应该根据具体场景下个人与算法决策者之间的沟通信任关系而确定。总体而言,当算法决策所处的场景具有严重的信任危机,而且难以通过市场竞争改善算法时,应当赋予个体一般性的算法解释权主张,而不仅仅是拒绝算法自动化决策的权利。同时,个体主张算法说明解释的权利也不应设置前提。相反,当算法决策所处的场景本身具有相对较高的信任度,或者该行业具有良性互动的竞争机制,则此时应将算法解释权限定为某些特定的权利主张。

(二)解释程度:自律与他律兼顾

一方面应要求企业充分了解和掌握算法的系统性解释。换言之,企业需要不断进行内部的自我监管,既需要在事前解释环节就对算法设计进行内部沟通,也需要在事后解释中倒查企业内部的算法运作机制,保持对算法的内部动态监管。另一方面,可以根据算法所处的领域特征、影响性不同而要求不同程度和类别的算法个案解释。

对于那些用户具有较多选择权、个案影响一般的算法决策,应允许自动化决策者自身设定个案解释的规则。对于企业应用算法进行不涉及意识形态与公共伦理的娱乐资讯的分发,应允许企业在个案解释中进行自我规制,避免国家过多的强制性监管。但对于具有公共性影响的算法以及对个体造成重大影响特别是实际伤害的算法决策,国家则应强制自动化决策者进行个案解释,以保护公共利益与个人的核心权益。

(三)解释时间:在告知环节可以要求或倡导企业在事前进行模糊性解释

由于算法的自我演化与不确定性,算法向公众的告知可以描述算法的整体运行,让用户或消费者感知算法的具体运行情况,帮助个体作出更佳决策,而非对算法的所有参数和所有细节进行描述。

(四)解释方式:具体情况,具体分析

自动化决策者可以根据自身能力、行业特征、用户数量与算法影响程度而选择人工解释或机器解释。在理念层面,人工解释具有一定的优先性,专业高效的人工解释更有利于信任的建立。同时,对于一些对个人或社会造成重大影响的算法,人工解释应成为兜底性要求,以便消费者或监管机构对企业或算法运用的主体进行算法监督。但对于其他并未产生重大影响、用户数量庞大的算法,要求企业或算法主体对所有个体都采取人工解释,并不现实。因此,应当允许企业在一般情况下运用机器解释或自动化客服。此外,还可以鼓励企业或算法主体建立机器与人工的混合解释机制。机器解释与人工解释的混合使用,将有助于减小自动化决策者的现实压力,更有效推动算法解释权的落地。

作者:丁晓东

《互联网法律评论》特约专家

中国人民大学未来法治研究院副院长、博士生导师

【免责声明】此文仅代表作者个人观点,与本平台无关。本平台对文中陈述、观点判断保持中立,不对所包含内容的准确性、完整性或可靠性提供任何明示或暗示的保证。

,