特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留任何痕迹

伴随着技术的发展 , 汽车驾驶辅助系统不断迭代 , 安全性逐渐提高 , 但辅助驾驶系统的可靠性还远没有完善 。 近日 , 有研究人员表示 , 通过入侵互联网广告牌 , 就可以诱使特斯拉的自动驾驶系统采取紧急制动、停车或者转弯等动作 。
特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留任何痕迹文章插图
以色列的本·古里安大学一直在对迷惑自动驾驶系统的“鬼影”图像进行试验 。
【特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留任何痕迹】简单来说 , 一些图像可以迷惑自动驾驶和辅助驾驶系统 , 只需要营造瞬间的光线投影 , 让系统注意到不存在的物体即可 , 比如一个停车指示牌 。
特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留任何痕迹文章插图
该研究最早的演示 , 是把路标和人影投射到路面上 。 只需要几毫秒的图像 , 就可以误导高级辅助驾驶系统了 。 据悉 , 当黑客黑入某些数字广告牌之后 , 黑客可以通过令广告牌显示特定内容 , 引导汽车发生事故 , 并且不会留下任何明显痕迹 , 至少不会被司机注意到 。
特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留任何痕迹文章插图
研究人员表示 , 针对的是特斯拉的Autopilot和MobileEye 630系统 , 前者会对0.42秒的虚假影响作出反应 , 对后者只需要1/8秒就够了 。