网络安全研究人员可以让自动驾驶汽车产生幻觉
盖世汽车讯 据外媒报道,美国东北大学(Northeastern University)工程和计算机科学教授Kevin Fu认为,通过全新的网络攻击,可以让自动驾驶汽车产生幻觉。

(图片来源:美国东北大学)
Fu及其团队将这种“声学对抗(acoustic adversarial)”式机器学习称为Poltergeist(吵闹鬼)攻击。研究人员希望领先于黑客利用这些技术的方式,以避免带来灾难性的后果。Fu表示:“这可能有十亿分之一的机率,但在计算机安全领域,对手会使十亿分之一的可能性在100%的情况下发生。”
Poltergeist不仅仅是像其他网络攻击形式那样干扰或影响技术。Fu表示,这种方法可以创造“虚假的连贯现实”,使利用机器学习做出决策的计算机产生光学错觉。
与Fu从静止图像中提取音频的工作类似,Poltergeist利用了大多数现代相机的光学防抖功能。该技术旨在检测摄影师的移动和晃动行为,并调整镜头以确保照片不模糊混乱。Fu表示:“通常情况下,这是用来消除模糊的。但它里面有一个传感器,如果能够击中传感器材料的声学共振频率,就像歌剧演员唱高音时击碎酒杯,可以使传感器感知到错误的信息。”
通过计算出这些传感器(通常是超声波)材料的共振频率,研究人员可以向摄像镜头发射相应的声波并使图像变模糊。Fu表示:“然后可以利用模糊图案来制作假轮廓。当在自动驾驶汽车中进行机器学习时,它就会开始错误地标记物体。”
在研究过程中,该团队能够增加、删除和修改自动驾驶汽车和无人机对环境的感知方式。以人眼来看,Poltergeist攻击产生的模糊图像可能什么也不像。但通过扰乱无人驾驶汽车的目标检测算法,Poltergeist攻击所产生的轮廓和幻影会变成人、停车标志,以及攻击者想让汽车看到或看不到的任何东西。
Fu表示,对于安装在快速行驶的车辆上的自动驾驶系统来说,这可能产生可怕的后果,比如让无人驾驶汽车在没有停车标志的情况下看到停车标志,从而在繁忙的道路上突然停车。Poltergeist攻击甚至可以“诱骗一辆车移除一个物体(包括一个人或另一辆车)”,让汽车向前滚动并穿过该“物体”。“这取决于很多东西,比如软件栈。但这显示人们对机器学习的信任已经开始出现裂缝。”
Fu希望工程师们未来能够设计出这些漏洞,否则随着机器学习和自主技术日益普及,这些威胁将发展成为消费者、公司和整个科技界的更大问题。他表示:“技术人员希望看到消费者接受新的技术,但是如果这些技术不能真正抵抗这些类型的网络安全威胁,消费者就不会有信心,也不会使用它们。”
欢欢@盖世汽车供应链
悠悠@盖世汽车
豆豆@盖世汽车







