自动化|唐林垚:“脱离算法自动化决策权”的虚幻承诺( 五 )


令人感到疑惑的是 , 在制定过程中反复强调算法可解释性有多么重要的GDPR , 只在条例第5条第1款笼统地要求对涉及数据主体的个人数据 , 应以合法、合理、透明的方式进行处理 。 显然 , 公开透明的数据处理方式并不足以确保算法可解释性 , 顶多被视为算法可解释性众多构成要件中不可或缺的一环 。 实践中 , 人们不得不结合GDPR的序言 , 为算法可解释性要求寻找依据 。 GDPR序言第71条指出 , 接受算法自动化决策的数据主体应当享有“适当的保护” , 因为潜在的机器错误和数据歧视极有可能给整个社会带来“偏见和不公” 。 第71条随即将“适当的保护”分为三类:一是获得人类干预的权利;二是表达异议和质疑的权利;三是获取相关决策解释的权利 。 就此而论 , GDPR是从数据主体“获解释权”的进路出发 , 来反向构建算法可解释性的合规要求 。 佐证这一现实的依据是 , GDPR第13条、第14条、第15条分别规定了直接从数据主体获得个人数据、间接从数据主体获得个人数据以及因各类原因访问个人数据的数据控制者向数据主体履行详细信息披露义务以及就特定事项进行进一步解释说明的义务 , 尤其是“决策过程所涉及的逻辑程序及其对数据主体的重要意义和可能影响” 。
但是 , 从GDPR第13至15条引申出来的“获解释权”完全局限于数据的搜集和处理阶段 , 如此“事前解释”只能肤浅地让数据主体得知自己个人数据的处理概况和潜在影响 , 并不能让数据主体真正知晓最终形成的自动化决策与其当下际遇之间的因果关联 。 很明显 , 处于信息极度弱势地位的数据主体 , 主动行使“获解释权”的理想预期 , 是要获得其在承受自动化决策阶段的事中和事后解释 , 而GDPR对此语焉不详 。 在此种背景下 , 部分学者将GDPR第22条视为同第13至15条的衔接 , 补足了事中和事后“获解释权”的法律真空 。
【自动化|唐林垚:“脱离算法自动化决策权”的虚幻承诺】诚然 , GDPR字面规定的“获解释权”确实存在事前、事中和事后脱节 , 导致权利难以覆盖自动化决策全过程的问题 , 但是 , 衔接断裂的问题完全可以通过直接补充规定的方式予以修复 , 实在没有必要在距离13至15条“至少7条开外的”第22条中以如此晦涩、隐蔽的方式对事中和事后的“获解释权”进行界定 。 欧盟立法者之所以不在GDPR中建立完整的“获解释权”链条 , 极有可能源于两个层面的思考和顾虑 。 其一 , 批评者们看到的是一个设定一项“获解释权”就可以让自动化决策可解释的世界 , 而这种理想愿景同当今技术运作的现实情况存在巨大鸿沟 。 尤其是在事中和事后阶段 , 随着机器学习模型的日益复杂、卷积神经网络的广泛适用、数据搜集源头的交汇重叠 , 要真正就自动化决策的运作原理与裁判机制作出详细且外行人也能理解的解释 , 可谓难上加难 。 事前的各类解释或许有助于数据主体作出是否同意自动化决策的判断 , 但考虑到人工智能是以技术手段对自然人的深度仿生 , 以预期效果为导向的、事中和事后的因果关联尝试极易将物质表象的经验规律同内在直觉的感性判断混淆起来 , 最终只能得到故弄玄虚、毫无根据的假设而非解释 。 其二 , 算法可解释性的合规要求 , 必然伴随相当可观的合规成本 。 “获解释权”的规定越是完整无遗漏 , 身处信息弱势地位的数据主体前期缔约和谈判的成本就越低 , 但因此增加的其他成本则完全由数据控制者或处理者概括承受 。 长期以来 , 对于此类成本转嫁是否合理的争论从未平息 。 一方面 , 正如上文所指出的那样 , 数据控制者针对自动化决策进行的事中和事后解释极有可能属于徒劳无功的解释 , 经常是“解释了也是白解释”;另一方面 , 完整意义上的“获解释权”至少在一定程度上有助于消弭算法歧视、降低数据控制者和数据主体之间的信息不对称 。 对于此类“或有或无”的法律规则 , 现代法经济学给我们的教义是:应当衡量法律实施的成本与潜在社会收益之间孰轻孰重 , 即那些看似公平的原则是否同时也是那些符合效率的原则 。 在全球人工智能竞争白热化的阶段 , 说服各国政府和跨国大型公司建立事前、事中和事后的“获解释权”闭环实属痴人说梦 。
(二)“脱离自动化决策权”不与“被遗忘权”混同
在“脱离自动化决策权”难同“获解释权”等量齐观的情况下 , 另有一些学者试图将GDPR第22条视为“被遗忘权”相关条款的延伸乃至重复 。 因为在历史上 , “被遗忘权”的创设同“脱离自动化决策权”的发展有着千丝万缕的联系 。