娄雪洋:论人工智能致人损害的法律规制( 三 )


需要注意的是 , 在归责原则方面 , 设计缺陷与制造缺陷不同 , 不宜适用无过错责任 。 首先 , 设计者的程序设计往往以其设计当时的科技水平和应用环境为基础 , 而科技水平与应用环境总是不断地变化发展的 , 从上帝视角要求存在于有限时间和空间的设计者 , 对其依据既有最新科技水平得出的设计方案承担其所不能预知的风险和责任 , 显然是不合理和不公平的;其次 , 如若对设计者苛以严格责任 , 就意味着即便其于设计当时已经穷尽了最新的技术水平和专业知识但仍需要为其注意义务和能力范围之外的风险负责 , 从而促使其以牺牲产品效用为代价来避免任何可能的风险即便这种风险相对于效用而言只是细微的 ,这种做法的宏观效应就是可能阻碍技术创新和产业进步 , 从而违背了立法的初衷 。 笔者认为 , 对设计者的设计责任应当采用过失责任原则 , 而对其过失的判断可采用“风险——效用”标准 , 即设计者“修改设计以消除危险”的边际收益大于边际成本,那么修改设计以消除危险就是一个谨慎合理的设计者所应当做的 , 若其未采取这种理应修改的设计方法就是有过错的 , 应当对其设计缺陷承担责任 。 否则 , 其设计就应该被认为没有缺陷 , 设计者无需担责 。 当然 , 关于设计缺陷的认定并非法律所能单独解决的问题 , 还需相关专业人群从技术层面展开细致的商讨和确定 。
此外 , 自动驾驶汽车作为具有一定自主决策和行为能力的智能机器人,其驾驶行为基于算法而产生 。 算法的内部设计和形成逻辑决定了自动驾驶汽车决策过程及最终的外部行为 , 然而算法在设计之初就融入了设计者的技术考量、行为模式和价值伦理选择 , 且算法自动化决策存在着信息茧房、引发隐私泄露、算法歧视等风险 , 这就意味着对算法的规制便成为必要 。 那么如何对自动驾驶汽车的自动化决策系统———算法进行规制呢?在现有的学术研究成果中 , 公开源代码增强算法透明和增设算法解释权成为众多国内外政策制定者和学者所提倡的主要监管思路 。 然而 , 公开源代码似乎并不能有效解决算法规制难题 , 即便算法透明可知 , 也并不意味着算法问题能够被发现 , 因为在算法生成后的运行过程中 , 就算是设计者也难以保证能够预测到算法在与其具体运行情景进行交互的过程中会产生何种结果 。 此外 ,公开源代码还与个人隐私、商业秘密、专利保护等问题存在潜在冲突 。 而增设算法解释权方案也面临着诸多问题 , 比如算法模型所采用的高度复杂和精密的运算方式难以用一般的语言表达方式阐明 , 也就是说欠缺可解释性 。 退一步讲 , 即便算法可以准确解释 , 但受害者作为非专业人士也很难理解 , 而若委托专业人士代为解读则增加了受害人的成本负担 。 故此 , 公开源代码增强算法透明和增设算法解释权两种方案均难以切实有效地规制算法风险 。 笔者认为 , 可以考虑在设计算法时通过法律强制或者行业标准等方式将特定的政策和价值标准嵌入设计者的编程 , 以代码规制代码 , 例如拟定人工智能设计的伦理准则、算法治理原则等等 , 比如阿西莫夫就提出了著名的“机器人三大定律” 。 该等准则、原则的确定需要计算机科学家、伦理学家、法学家等各界学者的协同努力 , 鉴于自身研究能力及专业领域十分有限 , 笔者对此不加妄议 。
2.生产者与销售者责任
与普通汽车无异 , 当由于自动驾驶汽车的制造缺陷、设计缺陷、警示说明缺陷等导致他人人身或财产损害时 , 生产者和销售者应承担产品责任 。 其中制造缺陷是指制造终端产品的原材料或零部件存在问题或者装配过程中存在操作失误 。 当然 , 在实践中原材料或零部件的缺陷可能并非由生产者或销售者所致 , 也可能是运输者、仓储者、零部件提供者、原材料提供者在相应环节存在问题 , 但由于产品责任系严格责任追责时不问过错 , 所以生产者和销售者仍要承担责任 , 只不过其现行赔付后可以向其他最终责任人追偿 。 且生产者与销售者之间为不真正连带责任 , 受害者可以就近选择任一方承担全部赔偿责任而对方不能拒绝 。
需要注意的是 , 智能产品的特殊性往往意味着其原材料比较特殊、零部件比较精细且各部件之间的相互影响较大 , 因而为了便于追责 , 其材料和零部件须做好标识且每个环节做好检验检测记录 。 此外 , 智能产品自治运行的特质也对生产者、销售者的警示说明义务提出了更高要求 。 以自动驾驶汽车为例 , 生产者必须标明其正确的操作方式以及紧急情况的应对措施 , 此外 , 由于自动驾驶汽车不可能一次性取代市场上的普通汽车 , 即二者可能在很长一段时间内会共用公共交通 , 为了普通汽车驾驶及乘车人员的安全 , 自动驾驶汽车必须以明确的标识标明其性质以提示其他普通车辆 。