如何系统地欺骗图像识别神经网络( 三 )

走出数据集的限制性和完美条件的世界 , 进入不那么有序的现实世界变得越来越重要 。 通过发现有效的策略来欺骗我们的图像识别模型 , 我们就可以在它们被用于更恶意的目的之前对其进行屏蔽 。
推荐阅读

  • 《解释和利用对抗性样本》(Explaining and Harnessing Adversarial Examples) , Goodfellow 等人 。 该论文以比本文更严谨的数学方法禁烧了 FGSM , 并对实验结果进行了深入分析 , 讨论了 FGSM 的卢纶解释和启示 。
  • 《建立抵抗对抗性攻击的深度学习模型》(Towards Deep Learning Models Resistant to Adversarial Attacks) , Madry 等人 。 在 FGSM 的研究工作的基础上 , 开发了一种更为复杂的对抗性样本生成方法 。
  • 《 TensorFlow 教程:FGSM 的对抗性样本》(TensorFlow Tutorial: Adversarial Example with FGSM) 。 在 TensorFlow 中实现 FGSM 的代码教程 。
作者介绍:
Andre Ye , Critiq 联合创始人 。 机器学习、计算机科学与数学爱好者 。
原文链接:
关注我并转发此篇文章 , 私信我“领取资料” , 即可免费获得InfoQ价值4999元迷你书 , 点击文末「了解更多」 , 即可移步InfoQ官网 , 获取最新资讯~