AutoR智驾|自动驾驶汽车事故正在引发信任危机


AutoR智驾|自动驾驶汽车事故正在引发信任危机
文章图片
智驾注:本文作者:JeffDavise他于2019年2月加入BlackBerry , 主要负责智能交通市场的战略创新和开发工作 。 Jeff在国防和交通运输领域拥有15年以上的技术和项目开发经验 , 他开发过的项目主要涉及网络安全、移动出行和互联性 , 特别关注人与先进技术及新概念的交互 。
人类的信任感是一个很微妙的东西 , 虽然它与生俱来 , 但需要随着时间逐渐积累 , 而信任感一旦丢失 , 则需要花很长的时间才能找回来 。 对于自动驾驶汽车上的安全性等技术而言 , 这种信任感也尤为重要 。 很多时候 , 一旦自动驾驶汽车发生了一次事故 , 便会人尽皆知 , 即使这些汽车已经经过了许多次安全测试 。
去年的优步和最近的特斯拉撞车事故都绝不仅仅是一个企业的问题 , 而是整个行业的信任危机 。
人们对某次撞车事故进行了调查 , 发现特斯拉汽车在高速公路的某特定路段失控 , 最终撞上了混凝土护栏 。 前几次 , 驾驶员都能通过手动操作控制住车辆 , 但最后一次驾驶员注意力不集中 , 导致了撞车 。 更令人担忧的是 , 就在撞向障碍物之前 , 车速从62英里/小时陡然升至71英里/小时 。
美国国家运输安全委员会(NTSB)曾调查过另一起事故 。 在该起事故中 , 一辆具有自动驾驶功能的汽车与一辆慢速行驶的卡车发生了致命碰撞 , 事故部分原因也是由于驾驶员未能及时恢复对车辆的控制 。 此外 , NTSB还提到 , 在此前的一起事故中 , “自动紧急制动(AEB)系统仅能识别其他车辆的尾部 , 部分原因是基于雷达的系统难以区分马路上的物体和马路旁的物体 。 ”
AutoR智驾|自动驾驶汽车事故正在引发信任危机
文章图片
这是当前自动驾驶汽车技术正在面临的挑战 。 驾驶员不再将注意力集中在驾驶上 , 而是将过多责任赋予低级自动驾驶功能 , 让技术超越其能力范围进行工作 , 最终造成难以挽回的损失 。 其实 , 无论是自动驾驶车辆还是传统车辆 , 不专心驾驶都会给生命带来威胁 。
人们对自动驾驶存在这样的误解有两方面的原因 。 一方面 , 一些企业过于相信汽车的自动驾驶功能 , 将消费者置于危险之中 , 这是一种错误且危险的引导 。 另一方面 , 某些企业对于自动驾驶功能并没有清晰的了解 。 低级自动驾驶是为了增强人类驾驶员的能力 , 而非取代 , 它只能帮助驾驶员做一些人类不擅长的事情 , 例如长时间集中注意力或检查所有盲区 。
然而 , 有些方面人类却比汽车更擅长 , 例如情境理解和物体识别 。 在任何情况下 , 人们都更倾向于将责任归咎于技术而不是人类自己 , 这就导致了人们对技术的信任感缺失 , 从而影响了整个汽车行业 。
使消费者丧失信任感的另一个原因是网络安全事件的频发 。 如果某次自动驾驶功能出现故障是因为网络攻击 , 那么铺天盖地的舆论可能会让自动驾驶技术彻底停滞 。 即便在驾驶员人工控制车辆的情况下 , 这些高度互联的车辆在连接到移动设备、下载交通报告或对潜在维护问题进行更新时 , 还是有可能被恶意软件感染 , 最终造成灾难性的后果 。
人们脑海里可能会出现因网络攻击引发的很多场景:例如黑客操控汽车让彼此相撞 , 或操控高速上的汽车把交通要道堵住 。 但现实中 , 攻击者更有可能利用恶意软件窃取存储在汽车系统中的支付凭证 , 在驾驶员无需下车即可购物的商区进行自动付款 , 例如加油站、免下车餐厅、洗车店等 。
还有一种几乎无法避免的情况是:营销数据采集公司可能会监控车主的通信 , 了解他们的驾车时间、地点、时长、收听或收看的内容等 。
因此 , 与防火墙、终端检测与响应(EDR)、分布式账本技术(DLT)等安全技术一样 , 互联与自动驾驶汽车也需要同样的安全技术 。 如今大量的移动终端为现代汽车带来了更多安全隐患 , 但不能回避这样一个问题:目前的安全解决方案能否很好地应用到自动驾驶汽车上?