人工智能的安全问题不容忽视


现在有很多技术可以欺骗人工智能 , 也有很多人工智能技术被用来欺骗人 。 在人工智能(AI)时代 , 安全问题不容忽视 。
文/姜育刚
近几年 , 人工智能技术在很多领域都取得了初步的成功 , 无论是图像分类、视频监控领域的目标跟踪 , 还是自动驾驶、人脸识别、围棋等方面 , 都取得了非常好的进展 。 那么 , 人工智能技术到底安全不安全?事实上 , 目前的人工智能技术还存在很多问题 。
人工智能并不安全
现在有很多技术可以欺骗人工智能 , 如在图片上加入一些对抗干扰 。 所谓对抗干扰 , 就是针对智能判别式模型的缺陷 , 设计算法精心构造与正常样本差异极小、能使模型错误识别的样本 。 如图1所示 , 本来是一幅手枪的图片 , 如果加入一些对抗干扰 , 识别结果就会产生错误 , 模型会识别为不是枪 。 在人的前面挂一块具有特定图案的牌子 , 就能使人在视频监控系统中“隐身”(见图2) 。 在自动驾驶场景下 , 如果对限速标识牌加一些扰动 , 就可以误导自动驾驶系统识别成“Stop”(见图3) , 显然这在交通上会引起很大的安全隐患 。 另一方面 , 人工智能的一些技术现在正在被滥用来欺骗人 。 例如 , 利用人工智能生成虚假内容 , 包括换脸视频、虚假新闻、虚假人脸、虚拟社交账户等 。
人工智能的安全问题不容忽视
本文插图
【人工智能的安全问题不容忽视】

人工智能的安全问题不容忽视
本文插图
人工智能的安全问题不容忽视
本文插图
不只在图片和视频领域 , 在语音识别领域也存在这样的安全隐患 。 例如 , 在语音中任意加入非常微小的干扰 , 语音识别系统也可能会把这段语音识别错 。 同样 , 在文本识别领域 , 只需要改变一个字母就可以使文本内容被错误分类 。
除了对抗攻击这种攻击类型外 , 还有一种叫后门攻击的攻击类型 。 后门攻击是指向智能识别系统的训练数据安插后门 , 使其对特定信号敏感 , 并诱导其产生攻击者指定的错误行为 。 例如 , 我们在对机器进行训练时 , 在某一类的某些样本中插入一个后门模式 , 如给人的图像加上特定的眼镜作为后门 , 用一些训练上的技巧让机器人学习到眼镜与某个判断结果(如特定的一个名人)的关联 。 训练结束后 , 这个模型针对这样一个人还是能够做出正确的识别 , 但如果输入另一个人的图片 , 让他戴上特定的眼镜 , 他就会被识别成前面那个人 。 训练的时候 , 模型里留了一个后门 , 这同样也是安全隐患 。
除了对抗样本、后门外 , 如果AI技术被滥用 , 还可能会形成一些新的安全隐患 。 例如 , 生成假的内容 , 但这不全都是人工智能生成的 , 也有人为生成的 。 此前 , 《深圳特区报》报道了深圳最美女孩给残疾乞丐喂饭 , 感动路人 , ***、新华社各大媒体都有报道 。 后来 , 人们深入挖掘 , 发现这个新闻是人为制造的 。 现在社交网络上有很多这样的例子 , 很多所谓的新闻其实是不真实的 。 一方面 , 人工智能可以发挥重要作用 , 可以检测新闻的真假;另一方面 , 人工智能也可以用来生成虚假内容 , 用智能算法生成一个根本不存在的人脸 。
用人工智能技术生成虚假视频 , 尤其是使用视频换脸生成某个特定人的视频 , 有可能对社会稳定甚至国家安全造成威胁 。 例如 , 模仿领导人讲话可能就会欺骗社会大众 。 因此 , 生成技术是否需要一些鉴别手段或者相应的管理规范 , 这也是亟须探讨的 。 例如 , 生成虚假人脸 , 建立虚假的社交账户 , 让它与很多真实的人建立关联关系 , 甚至形成一些自动对话 , 看起来好像是一个真实人的账号 , 实际上完全是虚拟生成的 。 这样的情况该如何管理还需要我们进一步探索和研究 。