偏见|谁才是让AI产生偏见的幕后推手?

_原题为 谁才是让AI产生偏见的幕后推手?
美国麻省理工学院媒体实验室研究项目显示 , 人工智能识别浅色皮肤男性的平均错误率不超过1% , 识别深色皮肤女性的平均错误率达35%……
人脸识别所导致的偏见问题一直受到广泛关注 。 近期 , 一篇关于图像超分辨率的论文引发了对于产生偏见原因的新争论 。
网友利用论文中的开源代码进行了模型推理 , 在使用时发现 , 非白人面孔的高糊照片被还原成了一张白人面孔 。 对此 , 2018年图灵奖得主、AI领军人物杨立昆(Yann LeCun)在推特上指出 , 当数据有偏见时 , 机器学习系统就变得有偏见 。 而这一观点 , 掀起一场争论浪潮 。 有人说 , 机器学习系统产生偏见不应只归咎于数据集 , 这种甩锅的做法是不公平的 , 还有技术、人类观念等原因 。
【偏见|谁才是让AI产生偏见的幕后推手?】现在还没有100%无偏见的数据集
随着人工智能时代的到来 , 人脸识别技术正被越来越广泛地应用在执法、广告及其他领域 。 然而 , 这项技术在识别性别、肤色等过程中 , 存在着一定偏见 。
“在美国 , 人脸识别系统中白人男性的识别率最高 , 而黑皮肤女性的识别率则最低;在亚洲国家的人脸识别系统中黄种人的识别率相比白种人的识别率差距就会小一些 。 ”福州大学数学与计算机科学学院、福建省新媒体行业技术开发基地副主任柯逍博士说 。
这次陷入争论中心的人脸识别偏见问题其实是一个存在很久、热度很高的话题 。
早前 , 美国麻省理工学院媒体实验室主导的一项名为《Gender Shades》的研究项目在研究了各个前沿科技公司的面部识别系统后发现 , 各系统在识别男性面脸与浅色面脸方面表现更佳 , 浅色皮肤男性的平均识别错误率不超过1% , 浅色皮肤女性的平均识别错误率约为7% , 深色皮肤男性的平均识别错误率约为12% , 深色皮肤女性的平均识别错误率则高达35% 。
那么本次争议中 , 杨立昆指出的数据集问题是如何产生偏见的?有无100%没有偏见的数据集?“不均衡的数据 , 导致了系统在学习时,更好地拟合了比重较大的数据 , 而对占比小的数据的拟合则表现不佳 , 这就可能最终导致了偏见的产生 。 ”柯逍介绍说 , 如一个常见的人脸识别数据集LFW , 数据集中有近77%的男性 , 同时超过80%是白人 。
“目前 , 几乎可以肯定的是没有100%无偏见的数据集 。 ”柯逍举例说 , 在收集数据时 , 可以针对性地让男性与女性数目一样 , 甚至也可以让各种肤色的数据数目都一样 。 但是 , 其中可能大部分人是没有戴眼镜的 , 这可能就对戴眼镜的人进行识别时带来了偏见 。 进一步讲 , 各个年龄段的人脸也很难做到完全一致 , 导致最后学习到的模型可能对戴眼镜、年长或年幼的人脸产生偏见 。 所以有时候讨论数据偏见的产生 , 会发现其产生的原因是考虑问题的角度不同 。
出现偏见不能只归咎于数据
众多专家也指出 , 数据可能是机器学习系统中偏见的来源 , 但不是唯一的来源 。
其实 , 在本次争议中 , 杨立昆在推特中已经很明确地表示 , 他的本意并不是说问题都出在数据集上 , 只是针对这篇论文 , 其算法在特定场景下 , 换个数据集就能解决问题 , 但并不是说所有的机器学习系统偏见都来源于数据集 。
那么 , 谁才是产生偏见真正的“幕后推手”?
AI学习过程应该是架构、数据、训练算法等的相互作用 。 算法包括了特征的选择、损失函数的选择、训练方法的选择以及超参数调节等 , 其本身的缺陷也是偏见产生的一个原因 。
2019年12月 , 美国国家标准技术研究院进行的一项研究发现 , 在大多数当前评估的人脸识别算法中 , 跨人种差异确实存在广泛的准确性偏差 。
柯逍介绍说 , 在算法设计的时候 , 往往会选择L1损失函数或者L2损失函数 。 若在将一个低分辨率人脸图像还原成高分辨率人脸图像的方法中 , 使用L2损失函数 , 得到的大多数人脸图像更像白人;而使用L1损失函数 , 得到大多数人脸图像更像黑人 。 这说明由于损失函数的选择不同 , 某个群体(黑人或白人)在一定程度上就会受算法的忽视 , 进而产生偏见 。
这当中还存在另一种情况 , 假如数据带有少量的偏见 , 算法系统会将其放大 , 并变得更具有偏见 。 一项研究表明 , 如果初始数据中 , 下厨与女性的联系概率是66% , 将这些数据喂给人工智能后 , 其预测下厨与女性联系起来的概率会放大到84% 。 一般来说 , 机器学习系统会选择最符合通用情况的策略 , 然而这样会导致一些非典型情况或较为特殊情况被忽略 。
除此之外 , 产生偏见的原因还有相似性的偏见 。 信息推送系统总会向用户推荐他已经看到、检索过的相关内容 。 最终的结果是导致流向用户的信息流都是基于现存的观点和看法 。 “系统会自动帮助用户屏蔽与他们意见相左的信息 , 这就催生了一个信息泡沫 , 用户看到的都是人工智能让你看到的 。 这种偏见根本上也是数据与算法共同作用产生的 。 ”柯逍说 。
“总体而言 , 偏见还是源于规则制定者 。 ”中锐网络人工智能产品总监叶亮说 , 工程师从头到尾参与了整个系统设计 , 尤其是机器学习的目标设定 。 算法就好像一只嗅探犬 , 当工程师向它展示特定东西的气味后 , 它才能够更加精准地找到目标 。分页标题
算法纠偏工具已经上岗
近期 , 国际多家机构相继宣布禁用人脸识别技术 。 有色人种被还原成白人的事件 , 再次掀起了人们对于人工智能系统产生偏见的批判浪潮 , 也再次警醒人们 , 技术带有偏见所带来的潜在危机 。
偏见可能导致无辜者蒙冤 。 在2018年夏天 , 英国媒体就报道过 , 由于人脸识别技术的误判 , 导致一名年轻黑人男性被误认为嫌疑犯 , 在公众场合被警察搜身 。
也有报告显示 , 一些国外执法机构可以根据AI识别出的发色、肤色和面部特征对视频中的人物进行检索 。 这种技术上的偏见也在一定程度上放大了人们的偏见 。
除了对人种与性别的识别偏差之外 , 人脸识别技术还因其在侵犯隐私方面的问题而引起担忧 。 2020年初 , 美国一家人脸识别技术公司便受到了严密的审查 , 有关部门发现 , 其面部识别工具由超过30亿张图像构建而成 , 然而这些图像大部分都是通过抓取社交媒体网站收集的 , 并且已被许多企业广泛使用 。
偏见存在的同时 , 一批新兴的算法纠偏工具也涌入了人工智能 。
早在2018年 , 脸书曾发布一个算法模型 , 表示会在算法因种族、性别、年龄等因素做出不公正判断时发出警告以提醒开发者;2019年麻省理工学院就提出了一种纠偏算法 , 可以通过重新采样来自动消除数据偏见 。
那么克服偏见还需要人工智能技术做出哪些努力?“开源方法和开源技术都有着极大的潜力改变算法偏见 。 ”叶亮指出 , 开源方法本身十分适合消除偏见程序 , 开源社区已经证明它能够开发出强健的、经得住严酷测试的机器学习工具 。 如果线上社团、组织和院校能够接受这些开源特质 , 那么由开源社区进行消除算法偏见的机器设计将会顺利很多 。
柯逍认为 , 可以看出偏见基本来源于数据与算法 , 加强对人工智能所使用的数据、算法以及模型的评估 , 能够在一定程度上缓解潜在的、可导致偏见与歧视的因素 。 同时 , 人工智能的偏见其实都是人类偏见的反映与放大 , 因此人们放下偏见才是最根本的解决方案 。 (采访人员 谢开飞 通 讯 员 许晓凤 王忆希)