如果Siri也是养成类游戏,该如何避免它成为种族主义者?

无人驾驶真的安全吗?智能管家可以依靠吗?人脸识别又是否准确呢?
近日 , 澳大利亚五家机构发布了一份报告-《使用人工智能做出决策:解决算法偏见问题》(Using artificial intelligence to make decisions: Addressing the problem of algorithmic bias) , 详细讲述了人工智能在演算中可能存在的算法偏见 , 与解决办法 。
如果Siri也是养成类游戏,该如何避免它成为种族主义者?文章插图
《使用人工智能做出决策:解决算法偏见问题》
人工智能也有“偏见” 可能加剧社会歧视
人工智能(AI , Artificial Intelligence)已渗入我们的日常生活当中 , 我们使用电子设备所留下的每一个足迹 , 点赞的每一支抖音视频 , 在淘宝购入的每一件商品 , 都将构成我们的虚拟形象 , 在算法的推演下 , 以推荐、预测我们的下一个行为 。
不仅如此 , AI在政府决策与商业投资中也逐渐扮演着重要角色 , 影响着人们的日常生活 , 例如银行可以使用大数据来判断是否为某一申请人提供房屋贷款 , 政府也可以通过计算机图像识别等技术对食品加工场所、建筑工地、交通要塞等进行监管 。
但AI并不是绝对正确的 , 在决策过程中也存在着算法偏见(Algorithmic Bias) , 导致社会歧视与不公平的现象加剧 。
什么是算法偏见?研究者认为算法偏见是指在经由人工智能所导出的预测或结果中存在错误或对不同群体的差异与不公正的对待 。 例如 , 曾经谷歌照片(Google Photo)在对图像进行分类时 , 将两名黑人的照片标记为大猩猩 。
报告中提出了一些假设情况 , 例如在招聘网站中 , 系统推给男性与女性的工作在工资上具有明显的区别 , 男性获得更多的高薪工作 , 而女性则正好相反 。
算法偏见直接或间接地影响着我们的生活 , 它可能不经意地出现在我们的手机中 , 例如你的淘宝推荐中突然出现你完全没有兴趣的商品 。
或是因为你的肤色、所居住的位置、宗教信仰等因素 , 将你归类为易犯罪群体中 。 为了尽量避免这种情况的发生 , 研究者认为人们需要进一步了解造成算法偏见的原因 。
原始数据与算法结构是造成偏见的关键
造成这些算法偏见的原因有三个:第一 , 是算法系统本身固有的设计与配置造成预判的错误 , 即代码上的错误 。 这便好比是我们在做数学题时 , 用错了数学公式 , 将加号写成了除号 , 于是便得到了错误的结果 。
第二 , 研究者认为原始数据是产生算法偏见的另一源头 。 无论是机器学习 , 还是深度学习 , 对原始数据都存在一定的依赖性 , 当原始数据存在不精准、不完整、没有代表性、没有时效性等问题时 , 人工智能便会输出错误的结果 。 例如上述Google对于图片的错误标注 , 便是因为黑人照片的样本过少 , 无法准确地对其进行识别 。
数据缺失与不完整是较为显性的问题 , 相比之下 , 社会原有的不公正与事实造成的算法偏见则较为隐性 , 不易被察觉 , 也较难解决 。
招聘网站的推荐系统对于男女职业的差异推荐便是基于社会原有的性别结构所做出的判断 , 当这部分的数据越精准与具有代表性 , 其输出的结果便越容易存在偏见 。
【如果Siri也是养成类游戏,该如何避免它成为种族主义者?】又例如在2016年年初 , 微软曾推出一款人工智能聊天机器人Tay , 它能够在与推特用户的交流过程中学习与成长 , 但不到24小时 , 受到推特用户输入信息的影响 , Tay从一张白纸 , 变成了推崇厌女文化的种族主义者 。
试想一下 , 如果Siri在与我们的日常交流中学习与成长 , 它又会变成一个怎样的机器人呢?是否也会像Tay一样 , 成为一名种族主义者呢?
如果Siri也是养成类游戏,该如何避免它成为种族主义者?文章插图