当人工智能伤害了人,谁来承担责任?( 二 )


为了解决这个问题 , 人们开发了各种模式 , 比如安德鲁·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm) , 这是一个机构 , 其运作方式与 FDA 在调查药品方面的运作方式非常相似 。 还有一种想法是 , 类似于环境影响评估的算法评估 , 以此来加强监督和公开披露 。
当人工智能伤害了人,谁来承担责任?文章插图
“最终 , 由于人工智能在决策和结果之间插入了一层难以捉摸的、不直观的、统计学上衍生的、通常是专有的代码 , 人类的选择、行动和结果之间的联系受到了考验 , ”论文中写道 。 “虽然可能有一种方法可以利用解释和透明度要求将一些决定与其结果联系起来 , 但疏忽需要一系列外部干预措施 , 才能真正有机会为使用人工智能造成的伤害提供补救 。 ”
这样做可能会给过失法律标准一些时间 , 以便在未来范式转变发生和标准进一步落后之前赶上人工智能的进步 。
这篇论文还探讨了当算法偏差在伤害中发挥作用时会发生什么的问题 。 回到自主车辆问题 , 研究表明 , 计算机视觉系统在检测白人行人方面比黑人行人做得更好 。 接受这种系统的使用 , 可以从整体上减少交通事故的数量 , 但同时对黑人行人就不怎么友好了 。
Selbst表示 , 如果没有监管部门的干预 , 人工智能有可能会将某些群体的不良结果正常化 , 同时拒绝他们任何求助 。 这有可能会放大人们在网上遇到算法偏见或遭遇伤害时已经感受到的无助感 。
当人工智能伤害了人,谁来承担责任?文章插图
“令人担忧的是 , 虽然人工智能可能会成功地减少伤害的总体数量 , 但它不会消除这些伤害 , 甚至剥夺了受害者的求助能力 。 ”该论文写道 。
在问责制方面 , 人工智能行业的保密性是一个主要障碍 。 过失法律通常会随着时间的推移而演变 , 以反映关于什么构成合理行为的共同定义 。 但企业的保密性很可能使导致伤害的人工智能缺陷不为公众所知 。 而人工智能的快速发展有可能会压倒过失法或侵权法的修改步伐 , 进一步加剧这种情况 。
“由于保密 , 我们对各个AI公司产品中的错误和漏洞知之甚少 。 在这种情况下 , 公众不可能对什么样的故障是合理的或不合理的作出任何结论 。 ”论文指出 。
参考资料:
[1]
[2]
【当人工智能伤害了人,谁来承担责任?】[3]