为什么人工智能是有缺陷的?( 二 )
· 部署后继续监视和更新模型:考虑用户反馈 , 并在部署后根据此模型定期更新模型 。
· 设计一个具有公平性和包容性具体目标的模型:与来自伦理学和社会研究领域的专家合作 , 以理解和解释各种观点 。尝试使您的模型尽可能公平 。
· 使用代表性的数据集来训练和测试模型:尝试评估数据的公平性 。即 , 寻找特征和标签之间的偏见或歧视性关联 。
· 检查是否存在不公正的偏见:从不同背景的测试人员那里获得单元测试输入 。这可以帮助确定该模型可能影响的人群 。
· 分析效果:考虑不同的指标 。一个指标的改进可能会损害另一个指标的性能 。
开发公平AI的工具· FATE:Microsoft提供的AI中的公平性 , 问责制 , 透明度和道德规范(FATE) , 由Microsoft提供评估可视化仪表板和缓解偏差算法的工具 。它主要用于比较系统的公平性和性能之间的权衡 。
· AI Fairness 360:AI Fairness 360是IBM提供的一个开源工具包 , 可帮助您检查 , 报告和减轻机器学习模型中的歧视和偏见 。
· ML Fairness Gym:ML Fairness Gym是Google提供的一种工具 , 用于探索机器学习系统对AI偏见的长期影响 。
结论在过去的几年中 , 公司和政府已经开始认真对待AI偏见 。许多公司已经开发了评估AI公平性的工具 , 并且正在竭尽全力对抗AI偏见 。尽管AI具有巨大的潜力 , 但对我们而言 , 现在要比以往任何时候都更加重要 , 要牢记AI系统的潜在歧视性危险并帮助开发公平的AI模型 。
关于我我喜欢写一些较少谈论的AI主题 , 例如联合学习 , 图神经网络 , AI公平性 , 量子机器学习 , TinyML等 。 关注我 , 以保持最新信息 。
您可以在Twitter , LinkedIn和Github上找到我 。
(本文翻译自Tivadar Danka的文章《AI is Flawed — Here's Why》 , 参考:)
- 看不上|为什么还有用户看不上华为Mate40系列来看看内行人怎么说
- 对手|一加9Pro全面曝光,或是小米11最大对手
- 行业|现在行业内客服托管费用是怎么算的
- 王兴称美团优选目前重点是建设核心能力;苏宁旗下云网万店融资60亿元;阿里小米拟增资居然之家|8点1氪 | 美团
- 手机基带|为了5G降低4G网速?中国移动回应来了:罪魁祸首不是运营商
- 技术|做“视频”绿厂是专业的,这项技术获人民日报评论点赞
- 互联网|苏宁跳出“零售商”重组互联网平台业务 融资60亿只是第一步
- 体验|闭上眼睛点外卖是什么感觉?时隔一年再次体验,进步令人欣慰
- 再次|华为Mate40Pro干瞪眼?P50再次曝光,这次是真香!
- 当初|这是我的第一部华为手机,当初花6799元买的,现在“一文不值”?