「算法」AI无间道!清华团队推出AI安全平台,欺骗顶尖人脸算法后又修复漏洞( 三 )

  • 可视化、可量化的评测结果:为了帮助用户提高对模型安全性的概念 , RealSafe平台采用可量化的形式对安全评测结果进行展示 , 根据模型在对抗样本攻击下的表现进行评分 , 评分越高则模型安全性越高 。 此外 , RealSafe平台提供安全性变化展示 , 经过防御处理后的安全评分变化以及模型效果变化一目了然 。
  • 四、落地安全周边产品 , 为更多场景保驾护航 其实对抗样本原本是机器学习模型的一个有趣现象 , 但经过不断的升级演化 , “对抗样本”已经演变成一种新型攻击手段 , 并从数字世界蔓延到物理世界:在路面上粘贴对抗样本贴纸模仿合并条带误导自动驾驶汽车拐进逆行车道、胸前张贴一张对抗样本贴纸在监控设备下实现隐身……
    所以 , 除了针对数字世界的算法模型推出安全评测平台 , RealAI团队也联合清华大学AI研究院围绕多年来积累的领先世界的研究成果落地了一系列AI攻防安全产品 , 旨在满足更多场景的AI安全需求 。
    比如 , 攻击技术方面 , RealAI团队实现了世界首个通过“对抗样本”技术实现破解商用手机刷脸解锁 , 让手机将佩戴“特制眼镜”的黑客误识为机主 。
    「算法」AI无间道!清华团队推出AI安全平台,欺骗顶尖人脸算法后又修复漏洞
    本文插图
    【「算法」AI无间道!清华团队推出AI安全平台,欺骗顶尖人脸算法后又修复漏洞】
    △ 图:世界唯一通过AI对抗样本技术攻破商用手机人脸解锁案例
    通过在目标人服装上张贴特制花纹使AI监控无法检测到该人物 , 实现“隐身” , 以及通过在车辆上涂装特殊花纹 , 躲避AI对车辆的检测 。
    「算法」AI无间道!清华团队推出AI安全平台,欺骗顶尖人脸算法后又修复漏洞
    本文插图
    △ 图:通过AI对抗样本图案躲避AI车辆检测
    在发现以上各种新型漏洞的同时 , RealAI也推出相应的防御技术 , 支持对主流AI算法中的安全漏洞进行检测 , 并提供AI安全防火墙对攻击AI模型的行为进行有效拦截 。
    人工智能的大潮滚滚而来 , 随之而来的安全风险也将越来越多样化 , 尤其近年来因AI技术不成熟导致的侵害风险也频频发生 , 可以说 , 算法漏洞已逐渐成为继网络安全、数据安全后又一大安全难题 。
    所幸的是 , 以RealAI为代表的这些顶尖AI团队早已开始了AI安全领域的征程 , 并开始以标准化的产品助力行业降低应对安全风险的门槛与成本 。 此次上线RealSafe人工智能安全平台是RealAI的一小步尝试 , 但对于整个行业而言 , 这将是人工智能产业迈向健康可控发展之路的一大步 。
    — 完 —
    量子位 QbitAI · ***签约作者
    ?'?' ? 追踪AI技术和产品新动态