—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 新技术 > 内布拉斯加大学创建新工具 或使自动驾驶汽

内布拉斯加大学创建新工具 或使自动驾驶汽车更安全、更智能

盖世汽车 Elisha 2023-11-30 11:30:14
分享

盖世汽车讯 现在,自动驾驶汽车不断发展,但全面应用这种技术仍面临安全挑战。据外媒报道,内布拉斯加大学林肯分校(University of Nebraska–Lincln)的Dung Hoang Tran致力于探讨新的解决方案来改变这一现状。

图片1.png

(图片来源:内布拉斯加大学林肯分校)

在美国国家科学基金会(National Science Foundation)的拨款支持下,Tran将继续开发验证工具,以使自动驾驶汽车和其他机器人机械装置变得更安全、更智能。

得益于根据真实场景建模并集成到其系统中的学习组件,自动驾驶汽车能够在陌生的环境中运行。对工程师来说,当这么多的组件遇到现实环境中不可预测、前所未有的因素,进行安全评估和风险管理可能相当具有挑战性。内布拉斯加大学林肯分校计算机学院助理教授Tran表示:“我们必须建立一个非常复杂的数学和计算框架,才能分析这样复杂的系统。在设计此类系统时,深度学习模型的行为方式可能导致系统进入不理想的场景。”

Tran还创建了神经网络验证(Neural Network Verification)工具,目前这类安全验证软件仍在许多行业的大公司(包括苹果、波音和丰田)广泛使用。Tran的新工具将建立在其之前的工作基础上,为工程师们提供更全面的安全评估和结果。

Tran的新工具将通过定性和定量方法来测量安全性。除了证明相关系统通过或未通过安全测试,新工具还可以分析风险概率,以在系统层面提供及时、详细和准确的评估。Tran表示:“在新框架中,我们还可以提问,‘如果不安全,那么不安全到什么程度呢?’通过对环境不确定性进行建模,它可以提供违反规范或要求的概率,这对于进行决策或控制非常重要。”

Tran的项目将使用其为NNV开发的相同的创新语言,即概率星时序逻辑规范语言(probabilistic star temporal logic specification language)。工程师们可以通过该语言来确定使系统正确、安全运行的必要要求。接下来,Tran及其团队将致力于设计有效的验证技术和算法,以根据要求测量系统安全性。Tran表示:“如果无法证明系统是安全的,即需要生成所谓的‘反例’,或证明系统实际上不安全。研究人员可以利用这些反例来返回深度学习模型或改变系统设计,从而增强系统安全性。”

Tran在实验室中构建测试台,以测试机器人机械装置和软件。F1TENTH测试台是支持学习的小型系统,可用于为自动驾驶汽车创建真实场景,以评估其适用性、可扩展性和可靠性。为了确保自动驾驶汽车的安全,不仅要使这些车辆按照设计正确运行,而且需要它们在发生意外情况时做出智能反应。Tran表示:“仅仅通过测试,难以保证系统在现实世界中运行时的安全性。研究人员希望确保系统本身拥有若干内部决策过程,这样当车内发生问题时,它可以自动计算出接下来会发生什么并执行适当的智能决策,从而防止发生其他问题。”

Tran希望继续深入研究这种工具,以在未来创建对其他机器人技术开发人员有用的工具。Tran表示:“最终目标是构建每个人都可以使用的软件工具。”

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。