—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 新技术 > 网络安全研究人员可以让自动驾驶汽车产生幻

网络安全研究人员可以让自动驾驶汽车产生幻觉

盖世汽车 Elisha 2023-09-27 15:18:11
分享

盖世汽车讯 据外媒报道,美国东北大学(Northeastern University)工程和计算机科学教授Kevin Fu认为,通过全新的网络攻击,可以让自动驾驶汽车产生幻觉。

图片1.png

(图片来源:美国东北大学)

Fu及其团队将这种“声学对抗(acoustic adversarial)”式机器学习称为Poltergeist(吵闹鬼)攻击。研究人员希望领先于黑客利用这些技术的方式,以避免带来灾难性的后果。Fu表示:“这可能有十亿分之一的机率,但在计算机安全领域,对手会使十亿分之一的可能性在100%的情况下发生。”

Poltergeist不仅仅是像其他网络攻击形式那样干扰或影响技术。Fu表示,这种方法可以创造“虚假的连贯现实”,使利用机器学习做出决策的计算机产生光学错觉。

与Fu从静止图像中提取音频的工作类似,Poltergeist利用了大多数现代相机的光学防抖功能。该技术旨在检测摄影师的移动和晃动行为,并调整镜头以确保照片不模糊混乱。Fu表示:“通常情况下,这是用来消除模糊的。但它里面有一个传感器,如果能够击中传感器材料的声学共振频率,就像歌剧演员唱高音时击碎酒杯,可以使传感器感知到错误的信息。”

通过计算出这些传感器(通常是超声波)材料的共振频率,研究人员可以向摄像镜头发射相应的声波并使图像变模糊。Fu表示:“然后可以利用模糊图案来制作假轮廓。当在自动驾驶汽车中进行机器学习时,它就会开始错误地标记物体。”

在研究过程中,该团队能够增加、删除和修改自动驾驶汽车和无人机对环境的感知方式。以人眼来看,Poltergeist攻击产生的模糊图像可能什么也不像。但通过扰乱无人驾驶汽车的目标检测算法,Poltergeist攻击所产生的轮廓和幻影会变成人、停车标志,以及攻击者想让汽车看到或看不到的任何东西。

Fu表示,对于安装在快速行驶的车辆上的自动驾驶系统来说,这可能产生可怕的后果,比如让无人驾驶汽车在没有停车标志的情况下看到停车标志,从而在繁忙的道路上突然停车。Poltergeist攻击甚至可以“诱骗一辆车移除一个物体(包括一个人或另一辆车)”,让汽车向前滚动并穿过该“物体”。“这取决于很多东西,比如软件栈。但这显示人们对机器学习的信任已经开始出现裂缝。”

Fu希望工程师们未来能够设计出这些漏洞,否则随着机器学习和自主技术日益普及,这些威胁将发展成为消费者、公司和整个科技界的更大问题。他表示:“技术人员希望看到消费者接受新的技术,但是如果这些技术不能真正抵抗这些类型的网络安全威胁,消费者就不会有信心,也不会使用它们。”

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。