栈外|别再把人类那套偏见歧视带到AI!( 二 )


但是 , 这些既不是AI创新的规范也不是重点 。
2019年剑桥大学的一项研究表明 , “按照目前的速度 , 人工智能的发展将继续基于性别的歧视……人工智能系统的设计增强了限制性性别刻板印象 , 不关注性别平等问题的法律和政策 , 广泛使用偏见数据集 , 而且AI工作者缺乏多样性 。 ”
尽管这项强大的技术存在一个未解决、心照不宣的重大缺陷 , 但我们仍在不断前进、越来越多地使用该技术 。
女权主义理论与人工智能的交汇带来了具有深远影响的新可能性 。 在上述研究中标题为“性别理论与人工智能实践融合”的部分中 , 作者指出:“性别理论家与技术专家之间的对话将有助于实现社会平等的目标 。 但目前 , 性别理论和AI实践‘说的是完全不同的语言’ 。 ”
简而言之 , 精通性别和种族理论的研究人员没有在写IBM或Facebook团队可读的、有关消除偏见的论文 。
这篇文章还强调了设计和部署这些系统的人与受这些系统影响的人员之间的隔阂越来越深 。
“普通人将如何应对挑战、适应和提供反馈 , 这对于这些系统的积极发展至关重要吗?”研究人员问 。 他们继续说:“我们必须考虑‘人工智能对社会塑形’的重要性 , 这将包括与用户一起参与设计研讨会 , 并让他们参与如何使系统对他们有益的讨论中 。 ”
真正的创新是一种有潜力改变世界的创新 , 比如未来的人工智能——它不仅可以复制人类的偏见 , 而且可以纠正它 。
技术企业家、开发人员和投资者以大胆而出名 , 但也许他们的格局还不够大 。 当天交付的程序包、了解我们的日历的虚拟助手或知道我们想听什么歌的App无法解决我们面临的最紧迫的问题 。
在创新方面大胆思考意味着对重大社会问题直言不讳 , 例如有色人种的监禁过多 , 或者为什么仅仅在社交媒体上浏览1小时就会导致妇女和女孩的自尊心降低 。
也许我们应该构建一个以另一种科幻小说为蓝本的科技未来——在那里我们可以使用AI解决系统性歧视并减少由于根深蒂固的偏见而造成的不良决定 。
对于勒古恩、巴特勒、哈拉维而言 , 技术和社会的包容性(或缺乏包容性)是主要关注焦点 , 也是反乌托邦与乌托邦之间区别的症结所在 。
【栈外|别再把人类那套偏见歧视带到AI!】为了追求更好的技术和更美好的世界 , 让我们也应将包容性作为AI叙事的重点 。