埃尔法哥哥▲AI的五个真正危险


埃尔法哥哥▲AI的五个真正危险
文章图片
假冒 , 算法偏见和其他问题如何影响我们的日常生活
在过去的几年中 , 人工智能以惊人的速度提升了我们的技术 。 从完全自动化的劳动密集型工作到诊断肺癌 , 人工智能已经实现了以前认为不可能的壮举 。 但是 , 如果使用不当 , 算法可能是破坏性武器 。 为确保恶意行为者不会对我们的社会造成破坏 , 我们必须解决几个关键挑战 。
AI的真正危险不是像SkyNet这样的有感觉的算法接管世界 。 即使这种情况完全是科幻小说 , 也存在一些合理的问题 。 不要惧怕技术 , 我们应该仔细识别它们并负责解决它们 。 在这篇文章中 , 我将收集五个特别重要的领域 , 这些领域已经每天影响着我们的生活 。
1.Deepfake
在我们的现代社会中 , 信息是无限的 。 通过打开浏览器并浏览网络半小时 , 您遇到的信息比中世纪一生中遇到的普通人要多 。 信息就是力量 。 您会立即收到有关地球另一端发生的事件的通知 , 但有一个陷阱:您如何知道该相信什么以及哪些来源可信?
当然 , 这完全是假的 , 但是对于一个随意的观察者来说 , 可能很难检测到 。 这些称为"深度伪造" , 起源于技术术语"深度学习" , 是一类算法 , 能够生成像这样的逼真的伪造图像 。 尽管这一特定行为只是该技术的精心展示 , 但如果新闻源中出现的伪造品比例达到一定阈值 , 它们就会变得非常危险 。 在这种情况下 , 将不可能检测到哪些信息是真实的 , 哪些不是 。
毫不奇怪 , 打击深层假货的一种非常有前途的工具是AI本身 。 DARPA的MediFor计划或Google的Deepfake检测挑战赛等多项引人注目的计划旨在开发出过滤错误信息的方法 。
尽管在我们的生活中不存在深层的假货 , 但肯定是最具破坏力的假货之一 。
2.算法偏差
如果您过去几年曾申请过工作 , 那么您可能受到了算法偏见的影响 , 无论是正面的还是负面的 。 开发基于AI的算法以筛选求职申请的候选人可能是一个好主意 , 但是 , 这存在很多问题 。 机器学习需要历史数据来了解哪些候选人值得招聘 。 问题在于 , 过去接受和拒绝的数据受到人类固有的偏见的严重影响 , 这些偏见主要针对妇女和代表性不足的少数民族 。 该算法只是从呈现的内容中学习 , 并且如果以前的招聘做法具有区别性(通常是这种情况) , 则该算法的行为将类似 。
最好的健身教育网络游戏的生存就是这种现象的绝佳发人深省的例证 , 值得一试 。
此问题影响许多其他应用程序领域 , 例如信用评分估算 , 执法等 。 由于这些因素在涉及人员的生活中产生了巨大影响 , 因此除非我们可以保证公平性 , 否则这些决策不应涉及算法 。 为此 , 人们产生了一个新的 , 非常活跃的研究领域 。 除了确保预测不受变量(如性别 , 种族和受负面偏见影响的相似变量)的独立性之外 , 关键是要生成不存在这些变量的数据 。 为了解决这个问题 , 需要付出更大的努力 。 要从数据中完全消除偏见 , 我们还需要消除思维中的偏见 , 因为最终 , 数据是我们行动的结果 。
3.群众监督
那些放弃基本的自由以购买一点临时安全的人 , 既不应该自由也不应该安全 。 -本杰明·富兰克林
几十年来 , 面部识别一直是计算机视觉中的关键问题 。 但是 , 自从深度学习革命以来 , 我们不仅可以更准确地识别人脸 , 而且还可以立即做到 。 如果您的智能手机随处可见 , 请尝试打开相机应用程序并进行自拍照:它将立即在您的脸部周围放置一个边界框 , 表明已成功检测到它 。 如果您拥有最新的iPhone , 甚至可以用脸作为手机密码 。
如果将本技术用于错误的目的 , 则会有其自身的危险 。 在中国 , 它被用于前所未有的大规模监视 。 结合最近引入的社会信用系统 , 您可以对自己的行为进行评分 , 并且可以通过例如乱穿马路或仅仅参加某些活动来得分 , 没有什么可以隐藏在天空中 。