当人工智能伤害了人,谁来承担责任?( 二 )
为了解决这个问题 , 人们开发了各种模式 , 比如安德鲁·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm) , 这是一个机构 , 其运作方式与 FDA 在调查药品方面的运作方式非常相似 。 还有一种想法是 , 类似于环境影响评估的算法评估 , 以此来加强监督和公开披露 。
文章插图
“最终 , 由于人工智能在决策和结果之间插入了一层难以捉摸的、不直观的、统计学上衍生的、通常是专有的代码 , 人类的选择、行动和结果之间的联系受到了考验 , ”论文中写道 。 “虽然可能有一种方法可以利用解释和透明度要求将一些决定与其结果联系起来 , 但疏忽需要一系列外部干预措施 , 才能真正有机会为使用人工智能造成的伤害提供补救 。 ”
这样做可能会给过失法律标准一些时间 , 以便在未来范式转变发生和标准进一步落后之前赶上人工智能的进步 。
这篇论文还探讨了当算法偏差在伤害中发挥作用时会发生什么的问题 。 回到自主车辆问题 , 研究表明 , 计算机视觉系统在检测白人行人方面比黑人行人做得更好 。 接受这种系统的使用 , 可以从整体上减少交通事故的数量 , 但同时对黑人行人就不怎么友好了 。
Selbst表示 , 如果没有监管部门的干预 , 人工智能有可能会将某些群体的不良结果正常化 , 同时拒绝他们任何求助 。 这有可能会放大人们在网上遇到算法偏见或遭遇伤害时已经感受到的无助感 。
文章插图
“令人担忧的是 , 虽然人工智能可能会成功地减少伤害的总体数量 , 但它不会消除这些伤害 , 甚至剥夺了受害者的求助能力 。 ”该论文写道 。
在问责制方面 , 人工智能行业的保密性是一个主要障碍 。 过失法律通常会随着时间的推移而演变 , 以反映关于什么构成合理行为的共同定义 。 但企业的保密性很可能使导致伤害的人工智能缺陷不为公众所知 。 而人工智能的快速发展有可能会压倒过失法或侵权法的修改步伐 , 进一步加剧这种情况 。
“由于保密 , 我们对各个AI公司产品中的错误和漏洞知之甚少 。 在这种情况下 , 公众不可能对什么样的故障是合理的或不合理的作出任何结论 。 ”论文指出 。
参考资料:
[1]
[2]
【当人工智能伤害了人,谁来承担责任?】[3]
- 当初|这是我的第一部华为手机,当初花6799元买的,现在“一文不值”?
- 定制|业绩宝APP创始人戴宏伟:依靠人工智能主动获客,打通全链路
- 余额|中兴通讯:现有资金余额仅能确保公司当前经营规模下现金流安全
- 发生|差评遭外卖员上门辱骂拍摄?不给差评是善解人意,不是理所当然!
- 职工组一等|全国人工智能应用技术技能大赛落幕 青岛四名选手获一等奖
- 介绍|5分钟介绍各种类型的人工智能技术
- 资本|2020年中国人工智能医疗行业发展现状分析 处于成长期且资本热度高
- 骁龙|骁龙865很受伤!联发科新SoC竟然比我还强?!
- mini|电影、mini 与「当日完稿」工作流
- 体验|VR\/AR体验、3D打印、机器人“对决”……松江这所中学人工智能创新实验室真的赞