栈外|别再把人类那套偏见歧视带到AI!

本文看点
?在创新方面大胆思考意味着直面重大社会问题 。 如果我们的创新受到女性主义科幻小说作家和理论家的启发 , 将技术领域转移到使社会朝着和平与平等的方向发展的发明和改进 , 则包容性驱动的人工智能(AI)将是技术创新的基石 。
?
包容性AI首先要解决的问题是偏见 。 受过人工训练的机器 , 复制和加剧了社会歧视 。 剑桥大学研究表明 , 人工智能系统的设计增强了性别刻板印象 , 不关注性别平等问题的法律和政策 , 广泛使用偏见数据集 , 而且AI工作者缺乏多样性 。
?
目前 , AI系统的另一个问题是设计和部署系统的人与受这些系统影响的人员之间的隔阂越来越深 。 女权主义理论与人工智能的交汇带来了具有深远影响的新可能性 。 性别理论家与技术专家之间的对话将有助于实现社会平等的目标 , 但性别理论和AI实践使用的是完全不同的语言 。
栈外|别再把人类那套偏见歧视带到AI!
文章图片
原文来自Forbes , 作者AnnieBrown
当我们想到人工智能(AI)的未来时 , 许多人都想到了有感知力的机器人或自动驾驶汽车 。 这些当前的构想以及为实现它们而采取的后续行动 , 在很大程度上受到科幻小说的影响 , 如黑色反乌托邦科幻电影《银翼杀手》或美国爱情科幻电影《她》 。
但是 , 如果我们的创新受到女性主义科幻小说作家和理论家厄休拉·勒古恩、奥克塔维娅·巴特勒和唐娜·哈拉维的启发 , 会怎样呢?
当你将技术领域对“进步”的定义从新机器或更快的系统 , 转移到使社会朝着和平与平等的方向发展的发明和改进——包容性驱动的AI突然变得不仅仅是一件美好的事情 , 而是技术创新的基石 。
当我们谈论包容性AI时 , 首先要解决的问题是偏见——尤其是受过人工训练的机器复制和加剧社会歧视的方式 。 《连线》杂志报道了一个有趣但悲惨的例子 , 它说明了训练AI过程中的个人偏见指数效应:
在其他练习中 , 员工有时会根据自身固有的偏见对广告进行错误描述 。 举一个明显的例子 , 某员工错误地将保守派组织的支持LGBT的广告归为反LGBT广告 。 当我指出她对保守派团体在LGBT问题上观点的假设导致归类错误时 , 回应我的只有沉默 。
这些错误的特征会被整合到培训人工审阅者和机器的手册中 。 这些是在尝试做正确的事情时犯的错误 。 但是 , 它们证明了为什么在更广泛的层面上 , 对未经培训的工程师和数据科学家进行纠正偏见是天真的 , 在领导层面来看则是不真诚的 。
众所周知 , 算法中的不平等的根源在于技术领域的长期缺乏多样性 , 该问题亟待解决 。 我们需要听取不同的声音去建设、训练以及监督平台 。
多样性意味着人们具有不同经历、种族、性别、宗教、社会经济背景等 。 算法不是仅仅为了一种类型的人构建的 , 而是为所有类型的人 。
我们当前的算法是由具有系统性偏见的人创建的 , 这些人未经训练就可以识别甚至被灌输这些偏见 。 例如 , 社交媒体审核算法更可能标记女性、同志和跨性别者分享的内容 。
难以置信?《赫芬顿邮报》最近发表了一篇文章 , 引用了Instagram上的一种常见做法 , 该做法有助于提高曝光率和参与度——帐户将性别从女性更改为男性 。
问题是 , 许多技术公司和创新者没有试图解决这些问题 , 而是继续推动有缺陷的AI的发展 。 关于包容性AI的讨论被边缘化 , 结果是目前的AI效率低下、不准确 , 并且远远没有为社会带来任何有意义的进步 。
这并不是说没有人提及包容性AI或正在推动一些激动人心的举措 。 例如 , IBM的AIFairness360是一个开源工具包 , 可帮助开发人员测试其数据集中的偏差 。
5月 , FacebookAI宣布了一项标记数据集内图像的新技术 , 以便研究人员可以了解是否使用这些图像训练了机器学习模型 。 这种验证方法称为“放射性”数据 , 可以提高训练模型的数据透明度 。