陈景辉:自动驾驶与乘客优先( 二 )


然而 , 单独强调自动驾驶的技术性条件 , 其实并不能真正切断乘客与驾驶行为之间的关联:如果关于决定在涉及生命损失情形之下撞谁的道德算法仍然是多样的且可由乘客(车主)个人设定或选择 , 那么车主或乘客也要对相应的损害结果承担责任;因为如果他选择或设定了其他的算法 , 那么损害结果将会明显不同 。
现在请想象一个场景:自动驾驶汽车需要在杀死一个儿童和杀死一个老人之间进行选择 , 并且车主选择了优先保护儿童的道德算法 , 于是它最终杀死了老人以避免撞死儿童 。 一旦发生这种情形 , 那么车主将无法与这场交通事故切割 , 因为是“他的选择”导致了老人的死亡 , 否则死亡者可能就是他人而非此人;进而 , 车主也就需要为老人的死亡承担责任 , 尽管未必是全部责任 。 综上 , 如果车主可选择自动驾驶汽车的道德算法 , 那么他至少会以间接的方式与交通事故有关 。
因此 , 要想彻底切割乘客与自动驾驶行为之间的关系 , 就必须反对乘客就道德算法做个人偏好式的选择或设定 。 那么 , 有什么样的理由来反对道德算法个人设定呢?一个基本的思考是:由于道德算法的个人伦理设定(personal ethics setting)存在明显的道德缺陷 , 以至于自动驾驶的道德算法 , 最终只能是强制性的伦理设定(mandatory ethics setting) 。 如果这个思考是成立的 , 那么自动驾驶汽车的道德算法 , 就不能由乘客来选择设定 。 既然它不是乘客个人选择的结果 , 并且动态驾驶行为也不是由乘客决定的 , 于是乘客就与安装了该种算法的自动驾驶汽车所引发的交通事故彻底失去了关联 , 当然也就无需为此负责 。
反对个人伦理设定的核心理由 , 由如下五个关联部分组成:(1)群体由各自持有不同道德观念的个体成员组成 , 他们既可能是自利(私)的 , 也可能是利他的 , 也可能是公共利益考量优先的;(2)由于特定群体中一定会存在道德上自私的主体 , 自私主体必然会选择最有助于自身安全的道德算法;(3)那些并非自私的道德主体 , 如果选择利他的或者公共利益考量优先的算法 , 那么无论他们是行人还是乘客 , 一旦与安置自私道德算法的汽车碰撞 , 他们的安全将会受到自私算法的更大威胁;(4)为了自己的安全着想 , 最理性的做法是 , 他们同样会选择最有助于自身安全的道德算法 , 也就是自私的道德算法;(5)将这些条件叠加在一起 , 必将以为这意味着 , 个人化的伦理设定一定会导致“囚徒困境” , 于是每个人的安全都处在比过去更大的危险当中 。 因此 , 为了避免囚徒困境 , 强制性的伦理设定就成了唯一的选择 。
稍做总结:既然传统人类驾驶者完全被自动驾驶技术所取代 , 成为睡在后座上的乘客 , 那么他就与动态驾驶行为失去了直接的联系 , 也就与自动驾驶汽车所引发的交通事故失去了直接的联系;同时 , 既然决定自动驾驶汽车在事故中应该撞谁的道德算法是车主所无法人为选择的 , 那么车主(人类驾驶者)就与这种类型的交通事故失去了间接的关联 。 既然人类驾驶者与自动驾驶的事故 , 不存在直接和间接的联系 , 那么他也就应当被排除在事故责任之外 。
二、相互竞争的原则:乘客优先还是最小损害?
现在请考虑“大树案” 。 未来的某一天 , 一辆自动驾驶汽车正在路上以正常速度行驶 , 车主正在后座熟睡 , 一棵大树突然遭到雷劈 , 倒在汽车行驶正前方的路中央 , 自动驾驶的人工智能系统(可以叫它“查理”)面对三种选择:情形一 , 查理决定汽车向左转 , 但那条路上有一群事先已经申请了路权的示威者 , 并且汽车的转向将会杀死这群人;情形二 , 查理决定向右转 , 但那会使得汽车进入自行车道 , 并杀死一名自行车骑手;情形三 , 为避免情形一和情形二 , 查理决定继续向前 , 但这会杀死后座熟睡的车主 。 在面对这种无法避免的情形时 , 查理到底应该怎样做?查理的制造者应该为查理制定怎样的“道德算法”?