如果Siri也是养成类游戏,该如何避免它成为种族主义者?
无人驾驶真的安全吗?智能管家可以依靠吗?人脸识别又是否准确呢?
近日 , 澳大利亚五家机构发布了一份报告-《使用人工智能做出决策:解决算法偏见问题》(Using artificial intelligence to make decisions: Addressing the problem of algorithmic bias) , 详细讲述了人工智能在演算中可能存在的算法偏见 , 与解决办法 。
文章插图
《使用人工智能做出决策:解决算法偏见问题》
人工智能也有“偏见” 可能加剧社会歧视
人工智能(AI , Artificial Intelligence)已渗入我们的日常生活当中 , 我们使用电子设备所留下的每一个足迹 , 点赞的每一支抖音视频 , 在淘宝购入的每一件商品 , 都将构成我们的虚拟形象 , 在算法的推演下 , 以推荐、预测我们的下一个行为 。
不仅如此 , AI在政府决策与商业投资中也逐渐扮演着重要角色 , 影响着人们的日常生活 , 例如银行可以使用大数据来判断是否为某一申请人提供房屋贷款 , 政府也可以通过计算机图像识别等技术对食品加工场所、建筑工地、交通要塞等进行监管 。
但AI并不是绝对正确的 , 在决策过程中也存在着算法偏见(Algorithmic Bias) , 导致社会歧视与不公平的现象加剧 。
什么是算法偏见?研究者认为算法偏见是指在经由人工智能所导出的预测或结果中存在错误或对不同群体的差异与不公正的对待 。 例如 , 曾经谷歌照片(Google Photo)在对图像进行分类时 , 将两名黑人的照片标记为大猩猩 。
报告中提出了一些假设情况 , 例如在招聘网站中 , 系统推给男性与女性的工作在工资上具有明显的区别 , 男性获得更多的高薪工作 , 而女性则正好相反 。
算法偏见直接或间接地影响着我们的生活 , 它可能不经意地出现在我们的手机中 , 例如你的淘宝推荐中突然出现你完全没有兴趣的商品 。
或是因为你的肤色、所居住的位置、宗教信仰等因素 , 将你归类为易犯罪群体中 。 为了尽量避免这种情况的发生 , 研究者认为人们需要进一步了解造成算法偏见的原因 。
原始数据与算法结构是造成偏见的关键
造成这些算法偏见的原因有三个:第一 , 是算法系统本身固有的设计与配置造成预判的错误 , 即代码上的错误 。 这便好比是我们在做数学题时 , 用错了数学公式 , 将加号写成了除号 , 于是便得到了错误的结果 。
第二 , 研究者认为原始数据是产生算法偏见的另一源头 。 无论是机器学习 , 还是深度学习 , 对原始数据都存在一定的依赖性 , 当原始数据存在不精准、不完整、没有代表性、没有时效性等问题时 , 人工智能便会输出错误的结果 。 例如上述Google对于图片的错误标注 , 便是因为黑人照片的样本过少 , 无法准确地对其进行识别 。
数据缺失与不完整是较为显性的问题 , 相比之下 , 社会原有的不公正与事实造成的算法偏见则较为隐性 , 不易被察觉 , 也较难解决 。
招聘网站的推荐系统对于男女职业的差异推荐便是基于社会原有的性别结构所做出的判断 , 当这部分的数据越精准与具有代表性 , 其输出的结果便越容易存在偏见 。
【如果Siri也是养成类游戏,该如何避免它成为种族主义者?】又例如在2016年年初 , 微软曾推出一款人工智能聊天机器人Tay , 它能够在与推特用户的交流过程中学习与成长 , 但不到24小时 , 受到推特用户输入信息的影响 , Tay从一张白纸 , 变成了推崇厌女文化的种族主义者 。
试想一下 , 如果Siri在与我们的日常交流中学习与成长 , 它又会变成一个怎样的机器人呢?是否也会像Tay一样 , 成为一名种族主义者呢?
文章插图
- 教你用Siri来控制电脑:真香
- 未来科技:苹果AR眼镜苹果 Siri可控制眼镜
- 手机能用多久?如果出现这3种征兆,说明“默认使用时间”已到
- 支付宝发布新规,用户如果出现这3种情况,花呗或将直接封停
- 不止有Mate40,另一张“底牌”也被曝光,华为也是迫不得已
- 谁能打败 Siri
- 计算机专业大三学生,如果想主攻前端开发,该重视哪些内容
- 大数据专业的同学,如果要往人工智能方向发展,该怎么选课
- 物联网专业本科生,如果未来想从事程序开发岗位,该如何准备
- 天生鸿蒙必有用:内在升华高于表象