自动化|唐林垚:“脱离算法自动化决策权”的虚幻承诺( 五 )


长期以来 , 有关GDPR第22条所界定的权利性质、正当性与适用范围的争论从未停止 , 由此形成的学说千姿百态 , 其中存在两种常见的误解 。 一种误解是将GDPR第22条视为算法可解释性要求的圆心 , 与GDPR中“获解释权”的多个条款互为补强;另一种误解是将“脱离自动化决策权”与“被遗忘权”混为一谈 , 将数据主体脱离自动化决策的尝试等同于向数据控制者行使擦除个人数据的请求权 。 在应用层面上 , 将“脱离自动化决策权”视为数据主体请求“获解释”或者“被遗忘”的权利 , 具有一定的可操作性 , 实为将GDPR第22条作权利解的大前提下 , 权利思维向禁令思维有限度的靠拢的折衷之举 。 这两种不同的理解进路 , 正是导致“脱离自动化决策”被翻译为“反对自动化决策”或“不受自动化处理的决定的限制”的根本原因 , 也同时反映出各版本译者绝非生硬干涩地对原文进行单纯直译 , 而是在极高的人工智能法学造诣之上融入了自身对GDPR各条款的深入理解 , 缜密的法律思维可以从别具匠心的意译表达中窥见一斑 。 那么 , “脱离自动化决策权”同“获解释权”“被遗忘权”之间的区别是什么?各权利之间的区别是虚是实?从权利思维出发 , GDPR为即将到来的超级自动化时代建立了怎样的制度防火墙?“脱离自动化决策权”在自动化治理中的地位和功用是什么?
自动化|唐林垚:“脱离算法自动化决策权”的虚幻承诺文章插图

必也正名乎:三权并立的联动体系
本部分将从“脱离自动化决策权”同“获解释权”“被遗忘权”的差异入手 , 一则反思“脱离自动化决策权”的立法初衷;二则探讨“脱离自动化决策权”的实质内涵 。
(一)“脱离自动化决策权”非“获解释权”之补强
大数据、云计算和人工智能技术的突飞猛进 , “革命性地改变了网络空间内主体的能力差异和关系结构” , 传统的法律制度难以应对技术黑箱掩映之下受众操控、信息寻租和监管套利的三重失控 , 对算法可解释性的合规要求应运而生 。 虽有学者反复指出 , 旨在提升算法透明度的硬性规定“既不可行 , 也无必要” , 但在漫长的监管实践中 , 算法可解释性的合规要求还是成为了世界各国人工智能法律法规的核心要旨 , 即便是那些高度依赖事后问责机制的国家 , 也不否认算法可解释性实乃人工智能时代“对抗数据个体的主体性和自治性沦陷和丧失的内在之善” , 是明确自动化决策主体性、因果性和相关性以确定和分配算法责任的重要前提 。 究其根源 , 在公众问责空前加强的年代 , 任何新技术的批量部署都必然被置于传媒与社会持续性互动的场域之中 , 以逐渐打消公众质疑、充分回应社情民意以及成功取得多数人同意为其合法性基础 。
令人感到疑惑的是 , 在制定过程中反复强调算法可解释性有多么重要的GDPR , 只在条例第5条第1款笼统地要求对涉及数据主体的个人数据 , 应以合法、合理、透明的方式进行处理 。 显然 , 公开透明的数据处理方式并不足以确保算法可解释性 , 顶多被视为算法可解释性众多构成要件中不可或缺的一环 。 实践中 , 人们不得不结合GDPR的序言 , 为算法可解释性要求寻找依据 。 GDPR序言第71条指出 , 接受算法自动化决策的数据主体应当享有“适当的保护” , 因为潜在的机器错误和数据歧视极有可能给整个社会带来“偏见和不公” 。 第71条随即将“适当的保护”分为三类:一是获得人类干预的权利;二是表达异议和质疑的权利;三是获取相关决策解释的权利 。 就此而论 , GDPR是从数据主体“获解释权”的进路出发 , 来反向构建算法可解释性的合规要求 。 佐证这一现实的依据是 , GDPR第13条、第14条、第15条分别规定了直接从数据主体获得个人数据、间接从数据主体获得个人数据以及因各类原因访问个人数据的数据控制者向数据主体履行详细信息披露义务以及就特定事项进行进一步解释说明的义务 , 尤其是“决策过程所涉及的逻辑程序及其对数据主体的重要意义和可能影响” 。