为什么人工智能是有缺陷的?

人工智能的公平性和人工智能的偏见
为什么人工智能是有缺陷的?文章插图
> Photo by Bill Oxford on Unsplash
人工智能已经成为每个人生活中不可或缺的一部分 。从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务 , 它已经无处不在 。它以比我们意识到的更多的方式影响着我们的生活 。
但是 , 人工智能公平吗? 不 , 绝对不是 。
定义一个公平的AI很难 。这是我能想到的最好的解释 。如果输出独立于已经受到社会歧视影响的特定任务的敏感参数(例如性别 , 种族 , 性别 , 宗教信仰 , 残疾等) , 则给定的AI模型是公平的 。
在此博客中 , 我将撰写有关AI偏差 , AI偏差的现实示例以及解决方法的文章 。
问题AI偏差是由于用于训练模型的数据固有的偏见引起的 , 从而导致社会歧视 。这导致缺乏平等机会 。
例如 , 假设我的任务是创建一个模型 , 以位置为参数来计算一个人的信用评分 。某些种族集中在某些地方 。这将使我的模型在种族上偏向那些种族群体 , 从而在获得信用卡和银行贷款时影响他们 。
偏爱的AI模型加剧了当前的社会歧视 , 并为压迫铺平了道路 。
现实生活中AI偏见的例子这是AI偏见的一些现实例子
· COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美国法院用来判断被告(被控犯罪的人)成为累犯(重犯先前犯罪的行为)的软件 。由于数据的严重偏差 , 该模型预测的黑人违犯累犯率是白人的两倍 。
· 亚马逊的招聘:2014年 , 亚马逊开发了一个AI招聘系统 , 以简化其招聘流程 。由于用于训练模型的数据来自过去10年 , 由于技术行业中男性占主导地位 , 因此大多数被选为男性的申请人被发现具有歧视性 。亚马逊在2018年取消了该系统 。
· 美国医疗保健:美国医疗保健系统使用的AI模型为黑人分配的相同疾病发病率低于白人 。这是因为该模型针对成本进行了优化 , 并且由于人们认为黑人支付能力较差 , 因此该模型将其健康风险等级低于白人 。这导致黑人的医疗保健标准降低 。
· Twitter图像裁剪:2020年9月 , Twitter用户发现图像裁剪算法更喜欢白脸而不是黑脸 。即 , 当将宽高比与预览窗口不同的图像发布到Twitter时 , 该算法会裁剪图像的一部分 , 并仅显示图像的特定部分作为预览 。这种AI模型经常在预览窗口中以白色和黑色面孔显示白色面孔 。
· Facebook的广告算法:2019年 , Facebook允许广告商根据种族 , 性别和宗教信仰来定位人群 。这导致护理和秘书等工作针对女性 , 而看门人和出租车司机等工作针对男性 , 尤其是有色男人 。该模型还了解到 , 向白人展示房地产广告时 , 其点击率更高 , 从而导致向少数群体提供房地产广告的情况有所减少 。
这些只是AI偏见的一些常见示例 。无论是否有开发人员的知识 , 都有许多不公平的AI做法实例 。
那么如何解决?
为什么人工智能是有缺陷的?文章插图
> Photo by Yancy Min on Unsplash
迈向公平AI的第一步就是承认这个问题 。人工智能是不完美的 。数据不完美 。我们的算法不完善 。我们的技术不完善 。假装没有问题 , 就不可能找到解决方案 。
其次 , 问问自己这个解决方案是否需要AI 。
不要害怕在没有机器学习的情况下发布产品-Google
存在一些不依赖于数据的问题 。诸如发现被告再犯的可能性之类的任务更多地取决于情感而不是数据 。
【为什么人工智能是有缺陷的?】第三 , 遵循负责任的AI实践 。我在下面添加了Google负责任的AI实践指南中的要点 。
负责任的AI实践:
· 使用以人为本的设计方法:内置适当披露的设计模型 , 并在部署之前合并测试人员的反馈 。
· 确定多个度量标准以评估培训和监视:使用适合任务的不同度量标准 , 以了解不同错误和经验之间的权衡 。这些指标可以是来自消费者的反馈 , 误报率和误报率等 。
· 如有可能 , 请检查您的原始数据:AI模型反映了用于训练模型的数据 。如果数据有问题 , 则模型也将有问题 。尝试获得平衡的数据 。
· 了解模型的局限性:经过训练可检测相关性的模型不一定有助于建立因果关系 。例如 , 一个模型可能会得知购买篮球鞋的人通常平均会更高 , 但这并不意味着购买篮球鞋的用户会因此变高 。
· 测试:进行严格的单元测试以确定模型中的故障 。