『人工智能』当谈论机器学习中的公平公正时,我们该谈论些什么?( 十 )
结果分析
本文使用 RNN 进行模型训练 。 结果见表 4 。 数据集的整体偏见可由μ表征 , 较大的μ表示语料库存在较大的性别偏见 。 由表 4 中的实验结果可知 , 随着λ值增大 , μ逐渐减小直至稳定 , 因此λ的优化存在一个区间 。 本文还对单个单词的偏差分数进行了对比以评估去偏的效果 。 β的倾斜程度表示了模型相对于训练语料库的放大或减弱效果 , β值的大幅下降表示减弱偏差 , 反之亦然 。 β的负值则假定损失项没有产生其它影响 。 本文给出的实验结果中 , λ较大时β也会增大 , 作者认为这可能是因为模型不稳定所造成的 。 此外 , 对于去偏处理参数μ和σ的影响很小 , 作者认为它们无法捕获单次级别的改进 。 基于上述实验结果 , 作者推荐使用单词级别的评估项 , 例如β , 来评估语料库级别的去偏处理效果的鲁棒性 。
本文插图
本文插图
本文插图
表 4. PTB、WikiText-2、CNN/Daily Mail 中的实验结果
表 5 为从 CNN/Daily Mail 的生成语料中选择的目标词汇 。 特别强调与女性相关的词 crying 和 fragile , 而一般认为与男性相关的词汇 Leadership 和 prisoners 。 当λ=0 时 , 这些偏见非常明显 。 对于 fragile , 当λ=1.0 时 , 生成文本中几乎没有对女性的词汇提及 , 从而得到大量的中立文本 。 对于 prisoners , λ=0.5 时情况也类似 。
本文插图
表 5. 不同λ值时 CNN/Daily Mail 中的生成文本比较
小结
本文使用了两个不同的指标量化语料级别的性别偏见:绝对平均值μ和标准偏差σ 。 此外 , 提出了一个用于评估去偏效果的相关矩阵β , 作者通过对训练语料库生成的文本语料库中的单词级别的性别偏见进行回归分析来计算β 。
本文提出的方法可以处理语言模型中单词级别的词分布问题 。 该方法的目标是测量性别偏差 , 但并不能检测在去偏模型和数据中仍然存在的显著的偏见 。 此外 , 作者也提出 , 本文的方法在传统的语言模型中增加了一个去偏正则化项 , 这可能会带来复杂度与偏见处理权衡的问题 , 例如 , 在一个无偏的模型中 , 男性和女性的语言被预测的概率几乎相等 , 减小性别偏见会导致语言模型的复杂度增高 。
4、本文总结
随着经合组织的《经合组织人工智能原则》、欧盟《人工智能伦理指南》和《人工智能政策与投资建议》、20 国集团《人工智能原则》以及《北京人工智能原则》等一系列文件的发布 , 人工智能治理成为了 2020 年广泛关注的议题 , 本文所探讨的「机器学习中的公平公正」 , 就是人工智能治理中最关键的问题 。
本文对机器学习中的公平公正问题进行了简要回顾 , 包括数据偏见和算法偏见两类 。 在此基础上 , 本文结合 ICML 2019 中的三篇文章 , 针对算法偏见分别对机器学习领域中的图嵌入问题、回归问题 , 以及自然语言处理领域中的语言模型问题进行了详细分析 。 目前 , 关于算法去偏的处理还停留在理论分析和实验的阶段 , 主要通过引入不同的损失函数、约束矩阵等约束项弱化模型结果中的偏见 , 包括第一篇文章中的对抗损失函数、第二篇文章中的统计奇偶性和有界群体损失函数 , 以及第三篇文章中的去偏正则化项等 。 算法优化的最终目的是希望加入这些约束项去除偏见的同时 , 不会严重影响原有机器学习模型的主要任务性能 。
由本文的分析可知 , 通过使用去偏算法或模型 , 能够在一定的实验环境下去除偏见 , 但并不能保证对所有数据有效 。 此外 , 本文(包括现在已经发表的其他文献)探讨的去偏主要还是集中于性别偏见、种族偏见这一类常见的、容易区分的偏见属性 , 对于真实应用场景下的复杂去偏问题 , 研究之路还很漫长 , 需要更多的挖掘与探索 。
- 军人驿站国际观察俄土科技差距显露无疑,美称此战可载入史册,叙利亚爆发机器人大战
- 埃尔法哥哥还可以做扫地机器人啊,自动驾驶不做了
- 湖南省人工智能产业联盟每日AI报0510
- 掘金界参与主,5月8日,由全球领先的人工智能平台公司商汤科技SenseTime
- 埃尔法哥哥人工智能与人类的未来
- 界面新闻MIT:美国制造业每多1个机器人,平均取代3.3名工人
- 读懂新金融营销、城市、机器人、养牛养鱼……新型科技公司的十八般武艺
- 极客公园机器人大爆发的时代来了?风口上的优必选说要「保持冷静」
- 15个最流行的GitHub机器学习项目
- 科技智能制造TB细数机器人十大工控产品,没有这些机器人自动化就不能实现
