安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞

随着技术的进步 , 车载驾驶辅助系统的安全性得到了不断的提升 , 但其可靠性仍未能让我们感到满意 。 安全研究人员已经证明 , 通过被劫持的互联网广告牌 , 就可诱导特斯拉电动汽车的 Autopilot 等系统采取突然的制动、驻车或转弯等操作 。 《连线》杂志报道称 , 位于以色列内盖夫的本·古里安大学的研究人员 , 一直在对所谓的“鬼影”图像展开试验 。
安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞文章插图
资料图(来自:Tesla)
具体说来是 , 这些图像可能让自动驾驶 / 驾驶辅助系统感到困惑 , 其中涉及到营造瞬间的光线投射、让系统“看到”不存在的物体(比如停车指示牌) 。
这项技术的早期示例 , 是将路标和人的影像投射到道路上 。 即便只显示几毫秒的时间 , 就足以误导高级驾驶辅助系统(ADAS) 。
【安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞】Securing Advanced Driver-Assistance Systems(via)
虽然本文介绍的这项新研究基于类似的方法 , 但演示中并未使用投影的图像 , 而是利用了联网的数字广告牌 。
在侵入某款数字广告板之后 , 攻击者可注入一些可能导致汽车发生碰撞的内容 , 但不会留下明显的痕迹(司机只会感到一头雾水) 。
Phantom Attacks on Driving Assistance Systems(via)
据悉 , 研究人员针对特斯拉 Autopilot 和 MobileEye 630 系统开展过测试 , 前者会被出现仅 0.42 秒的鬼影图像所欺骗、后者则是 1/8 秒 。
有关这项研究的详情 , 将在今年 11 月的 ACM 计算机和通信安全会议上作介绍 。 让人担忧的是 , 这类数字广告牌鬼影攻击可能波及更多车型和导致大范围的误伤 。