当人工智能伤害了人,谁来承担责任?


当人工智能伤害了人,谁来承担责任?文章插图
就像硬币的两面 , 技术进步在便利人们生产生活的同时 , 也带来一个严峻的现实问题——当机器足够智能之后 , 其对人类造成的不可挽回的伤害该由谁负责?
虽然如科幻片中那样机器人“背叛”人类、攻击人类的场景短期内还不会到来 , 但机器的类型是多种多样的 。 现阶段 , 人类的生命安全最受智能机器威胁的场景恐怕就是交通出行上 。
2018年 , 全球首例自动驾驶撞击行人致死事故发生 。 美国时间3月18日晚22点 , 一辆Uber自动驾驶汽车在美国亚利桑那州坦佩市碰撞到一个横穿马路的行人——49九岁的女性流浪者Elaine Herzberg , Elaine Herzberg在被送往医院后不治身亡 。
当人工智能伤害了人,谁来承担责任?文章插图
坦佩市警方发言人称 , 初步调查发现 , 事件发生时 , 这辆Uber自动驾驶汽车处于L4级别的自动驾驶模式 , 并在最高时速35英里的道路上以时速38英里行驶 , 且没有及时刹车的动作 。 与此同时 , 驾驶位上的安全驾驶员没有收到任何信号 , 直到碰撞发生后才意识到发生了事故 。
今年9月 , 马里科帕县大陪审团作出裁决 , Uber自动驾驶汽车的安全驾驶员被指控犯有过失杀人罪 。 而这起案件也因此对后世类似判决带来了里程碑式的借鉴意义 。
事实上 , 当人工智能造成一个人受伤或死亡时 , 确定过错责任并不是一件容易的事情 。 如果人工智能有时失控有时正常 , 那么什么时候是可以把错归责于人类 , 什么时候可以归咎于人工智能?
当人工智能伤害了人,谁来承担责任?文章插图
今年10月2日 , 发表在《波士顿大学法律评论》上的一篇论文《疏忽与人工智能的人类使用者》(Negligence and AI's Human Users)就重点讨论了这个问题 。 在论文中 , 加州大学洛杉矶分校助理教授Andrew Selbst发现 , 人工智能与现有的人类过失行为法律产生了矛盾冲突 , 需要监管机构介入干预 。
论文链接:
Selbst表示 , Uber案件可能会有两种情况 。 其一 , 法官或陪审团可能会发现 , 让一个与半自动车辆打交道的人承担责任是不合理的;其二 , 可以将责任归给一个对自动或自主系统控制有限的人类行为者 。 这也就是文化人类学家Madeleine Elish所说的“道德碰撞区”——当机器和人类被同步考虑 , 但法律没有考虑到机器的智能时 , 人类就会承担责任 。
当人工智能伤害了人,谁来承担责任?文章插图
“如果过失法要求的谨慎标准高于人类所能管理的标准 , 那么它将把责任推给人类操作者 , 即使在普通人无法防止危险的情况下也是如此 , ”Selbst写道 。 “虽然Uber案件似乎指向了‘道德碰撞区”的方向 , 但也很容易想象到相反的情况——发现因为普通人无法及时做出反应或永远保持警惕 , 所以不这样做是合理的 。 归根结底 , 人工智能带来的是不确定性 。 ”
Selbst表示 , 法律学者倾向于区分完全自主的车辆和与人类合作的半自主机器 , 比如Uber车祸中的车辆 。 虽然完全自主车辆或通用人工智能(AGI)可能会将责任转移到硬件制造商或人工智能系统上 , 但当人类使用人工智能根据预测、分类或评估做出决定时 , 答案就不那么明确了 。 Selbst预计 , 这将给企业、政府和社会带来新的挑战 。
如今绝大多数的人工智能都是为了增强人类的决策能力而出现的 。 例如 , 从法官用来评估多次犯罪的算法 , 到医疗专业人员用来制定医疗计划或诊断的AI驱动工具 。 这些系统包括检测医学图像中的模式 , 以帮助专业人士诊断乳腺癌、肺癌和脑癌等疾病 。
当人工智能伤害了人,谁来承担责任?文章插图
Selbst表示 , 虽然技术是推动过失法律变革的关键因素 , 但人类和人工智能相互依赖决策的方式让人工智能与众不同 。 使问题更加复杂的是 , 人类可能会不加审视地接受自动决策 , 如果他们因太多通知而遭受警报疲劳 , 就会忽略AI , 或者依靠AI来识别太复杂的数据中的模式 。
Selbst表示 , 在一个充满人类和AI系统共同决策的世界里 , 政府需要考虑改革 , 让过失法律有机会赶上快速崛起的技术 。
“如果社会认为人工智能过于有利而不能搁置 , 那么我们可能需要一个新的监管模式 , 以补偿使用人工智能的受害者 , 而且这种模式应该是一种脱离了寻找过失的需求的模式 。 这可能是严格责任 , 可能是广义保险 , 也可能是事前监管 。 ”论文中写道 。