娄雪洋:论人工智能致人损害的法律规制( 四 )


通过上述分析可知 , 智能机器人因产品缺陷致人损害的情形基本可以由我国现行《侵权责任法》《产品质量法》及《消费者权益保护法》来调整 , 但普通产品的主要区别在于关于设计者责任我国相关法律基本空白尤其是在设计缺陷的认定方面缺乏可操作的具体规则和标准 。 且当智能机器人因产品缺陷致人损害时其具体缺陷所在环节很难辨认 , 这就意味着:与普通产品相比 , 智能机器人致人损害时设计者、生产者、销售者、操作者之间的责任划分比较困难 , 而这本质上需要依赖技术手段 , 而非法律能够单独解决的 。 但随着责任主体的扩大 , 法律也需要作出适时的调整 。
(三)自动驾驶汽车的“自主行为”致损的归责方式
机器学习算法是人工智能的重要技术基础之一 。 机器学习就是让机器能够像人一样具备从周围的事物中学习并利用学到的知识进行推理和联想的能力 。 通过机器学习 , 智能机器人可以通过自组织、自适应、自学习从周围的环境中攫取数据、捕捉信息、总结规律从而生成新的规则并依照该规则进行自我调整和适应 , 进而使其行为和决策偏离预期 , 而即便是最专业的设计者对智能机器人投入使用后所接触的数据也是无法统计的 , 更难以预知和控制其依据自主学习生成的新规则所能作出的决策和行为 。 换言之 , 智能机器人完全可能存在其自主“意识”作用下的致损风险 , 而这种风险由于是设计者、生产者、销售者乃至操作者所无法预料和防控的因而不能列入其注意义务的范畴 , 如果强行让其担责 , 无疑会阻碍技术创新和产业发展 。 那么此种致损类型将如何归责呢?
首先 , 笔者并不赞成参照雇主责任、动物致损责任或者监护人责任等用替代责任解决此问题 。 第一 , 通过上文分析 , 设计者、生产者、销售者尚因人工智能“自主行为”致人损害的不可预料和难以控制性而不能成为归责主体 , 那么让无论在技术知识还是担责能力上相对于设计者、生产者、销售者等主体均往往处于弱势地位的所有者对智能机器人的失控行为承担替代责任显然不合情理 。 第二 , 人工智能自主侵权与雇主责任、动物致损责任和监护人责任在构成上存在本质区别:雇主责任中的直接侵权人雇员是具有人格的人而人工智能没有从而也无法区分职务行为或者非职务行为;监护人责任亦如此 , 因为被监护人也是具有生命和人格的人;也就是说雇主责任与监护责任均以相关主体间的人身关系为潜在的前提 , 而人工智能难以满足此要求除非赋予其法律人格 。 至于动物致损 , 自然人对动物的管控能力和对人工智能的管控能力是难以类比的 , 将二者适用同种归责方式难免牵强 。
那么 , 赋予人工智能以法律人格是一条可行的路径吗?笔者将从当前我国人工智能的发展阶段、智能机器人的应用范围、我国现行法体系等方面进行分析 。
就目前人工智能的发展阶段而言 , “我们正处于弱人工智能向人工智能的过渡阶段 。 ”此阶段的人工智能仍作为人类生产和生活的助手而存在 ,通常仅能代替人类完成某一方面的单一技能 , 且多在人的操作下进行 , 并不会高频率甚至大范围地出现完全脱离人控制的“自主行为” 。 其次 , 从我国人工智能的实际应用来看 , 人工智能的研究多处于基础层和链接层 , 应用层虽在图像识别、自动驾驶、医疗影像智能金融等方面有所突破 , 但基本还处于较低程度的人机协作阶段且并未大范围普及 。 以自动驾驶汽车为例 , 我国低端车型销售比例较大 , 辅助驾驶技术的渗透率仅为3%左右 , 且所谓的自动驾驶尚无法实现完全的无人驾驶 。 因而人工智能失控致人损害的概率较小 。 从现行法律体系来看 , 赋予人工智能以法律人格 , 将会颠覆我国民法人物二分法的体例 , 从而对整个民法规范产生牵一发而动全身的后果 。 最重要的是 , 值此人工智能技术发展尚不成熟、顶层设计基本缺位 , 技术鉴定、监管办法、保险制度等配套机制仍然空白的情况下 , 贸然赋予人工智能以法律人格无疑会沦为空中楼阁 , 虚有其表却不能发挥实际效用 。 虽然欧盟立法建议提出智能机器人应当取得独立人格 , 但也未说明具体的承担责任方式 , 且欧盟人工智能的发展和应用程度有异于我国 。 需要说明的是 , 笔者并非否定和排除了未来人工智能发展到一定程度通过法律拟制给予人工智能以独立人格的可能性 , 因为参照公司法人人格独立制度来看 , 独立人格并不以具有和自然人一样的天然生命为前提 。 至于意志能力 , 人工智能之所以称为“智能”就是因为其具有一定的思考和感知能力 , 而这种能力会随着技术的发展愈加强大 。 至于独立财产 , 亦可以像公司制度一样通过制度设计来实现 。 总而言之 , 不能赋予人工智能以独立人格的主要障碍不在于法律本身而在于其自身的发展及应用程度和社会的现实需求 。 至少在包括目前在内的很长一段时间内 , 这是没有现实意义的 。