算法中的性别歧视,应被看见被纠正


算法中的性别歧视,应被看见被纠正文章插图
本版插图:小丽
“如何避免算法中的偏见和歧视”“AI时代 , 女性如何向前一步”等话题 , 在刚刚召开的“世界互联网大会·互联网发展论坛”上 , 引起了普遍关注 。
算法是以数学方式或计算机代码表达的意见 , 由算法模型和数据输入决定着预测的后果 。 随着人工智能时代的加速到来 , 我们将生活在一个算法无所不在的世界 , 尤其是随着算法决策开始介入并主导人类社会事务 , 算法对我们的生活和未来都将产生不可估量的影响 。 基于此 , 由于算法偏见可能带来的法律与伦理风险也开始引起人们重视 。
算法中的偏见之所以能引起注意 , 源于几次刷爆互联网的新闻:2015年 , 谷歌图片软件的自动标记功能 , 误将两名黑人标记为“大猩猩”;2016年 , 微软的首个聊天机器人Tay上线 , 由于事先没有为它植入规则 , 希望它在与人互动中产生自己的愿望与想法 , 结果Tay一上线聊天就被网民们“教坏” , 成了一个集反犹太人、性别歧视、种族歧视于一身的“不良少女” , 不到一天就被紧急下线;2018年 , 亚马逊的招聘软件在招聘员工时被发现 , 在读取到带有女性、女子相关词汇时 , 算法会降低简历的权重 , 当简历中出现女子学院等关键词时 , 算法更会直接对她们作降级处理——这打破了人们对计算机技术的一个广为人知的误解:算法决策倾向是公平的 。 而算法背后隐藏的“性别歧视” , 也作为AI时代的伦理问题之一开始浮现 。
算法中的性别歧视是如何发生的?虚拟世界的算法偏见首先源于算法决策 。 英国作家乔治·奥威尔在他的政治小说《一九八四》中写到:“谁掌握过去 , 谁就掌握未来 。 ”这也可以拿来类比算法 , 如果给算法录入的用于学习的海量数据是带有偏见的 , 算法就会在一次次推演中把原本细小的偏见撕的越来越大 , 最后一根针被撕成了一道裂缝 。
因此 , 算法偏见是人带给机器的人类固有偏见 。 因为智能算法的背后是人 , 算法的开发和应用都会有大量的人工因素和人为判断 , 要想让算法没有偏见 , 首先人类要克服自身易产生偏见和其他诸多思维的缺陷 。 比如 , 若想在未来打破固有的性别歧视 , 就要从现在开始 , 在给机器提供的学习数据中尽可能多元化 , 不让性别歧视在算法中得到巩固并在未来得到加强 。 因为过去不完美数据中的性别歧视是人为造成的 , 这种歧视理应随着社会的发展而改变 。 同时 , 还要鼓励更多女性从事人工智能领域的工作 , 以便通过引入“女性视角” , 提出实现算法性别平等的技术方案 。
从现实情况看 , 算法中性别歧视的产生也与AI领域从业者男性居多不无关系 。 据统计 , 谷歌技术部中仅有21%是女性 , 而人工智能部只有10%的女性 。 Facebook的技术员工中22%是女性 , 但只有15%的女性从事人工智能领域 。 其实 , 人工智能不仅仅是一种基于算法的技术 , 同时也是人的意识的延伸 , 在人与机器合作、人与机器互动的过程中 , 人类会不自觉把固有偏见带入到新世界 , 而也只有人 , 才能改变这一切 。
我们究竟要带给未来什么样的新观念?要给年轻一代怎样的新世界?我们希望那是一个没有性别歧视的公平世界 , 是一个科技更好造福人类的美好世界 。 因为性别平等 , 不只是保护女性 , 更关乎社会治理 , 关乎国家发展和全球进步 。
让我们开始改变 , 从当下开始 , 从互联网等新技术的开发应用开始 。
【算法中的性别歧视,应被看见被纠正】来源:中国妇女报