—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 高端访谈 > 【汽车与环境】金康新能源总监高继勇:智能

【汽车与环境】金康新能源总监高继勇:智能车嵌入式计算平台研发和其深度学习应用

盖世汽车综合 2018-12-11 16:43:09
分享

2018年12月7日-8日,以“创新驱动、技术引领”为主题的2018第六届“汽车与环境”创新论坛在上海·安亭正式举办。本次论坛完整覆盖汽车行业技术领域的研讨,旨在进一步促进整车企业与零部件企业之间对技术发展趋势的探讨、加强汽车行业专家之间的交流互动、增强整车与零部件企业的交流、搭建合作平台,通过活动促进汽车零部件产业创新转型升级、打造更具竞争力的整零协同创新关系,助力实现向汽车强国的转变。以下是金康新能源电子电器和智能驾驶总监高继勇在本次论坛上的发言:

BF0I1126_w_b.JPG

金康新能源电子电器和智能驾驶总监 高继勇

现在自动驾驶它当中离不开一个控制大脑,也称为智能驾驶域控制器或者计算平台,我这里称其为计算平台,它主要用来做传感器数据融合和智能驾驶的规划与决策。我一直是从事汽车电子研发的,从2013年、2014年开始做一些人工智能的研究,在国外也发表过一些论文。今天想汇报一下控制大脑用了什么样的人工智能技术和计算平台一些情况。

第一,智能驾驶分级与计算平台的关系,什么的自动驾驶级别上需要计算平台。这里我大概介绍一下,2015年9月份特斯拉OTA Model S实现L2.5智能驾驶,2017年10月份GM大批量生产卡迪拉克CT6实现了Super Cruise 的L2.5智能驾驶, Audi A8 在2018年4月份生产了TJP的L3智能驾驶,主要是60公里/小时下的拥堵L3,现在只在欧洲有这个功能,即使在美国市场也是无限推迟。这张图是中国自主品牌和市场情况,受时间限制我不详细展开了。

这张图是斯坦福大学的预测,预测L4在Platooning上首先实现,另外有高速和全程L3的预测,不是TJP。

什么时候和级别的智能驾驶需要计算平台?首先业界在L2定义上有些争论,但L3定义上争论不大。L2就是一定手要离开方向盘和脚离开刹车踏板,L3是眼睛加上手脚都要离开,但这非常难,主要是主机厂要告诉客户眼睛不需要开车看路了,承担了巨大的法律风险。后面的级别不详细讨论了,L4就是你不用管开车了,它的接管是机器,只是有ODD概念。这和L5不一样, L5 ODD不限制了。

L2是否需要计算平台?TJA和ICA是不需要计算平台的,但是通用汽车的Super Cruise是需要的,特斯拉的Autopilot 是需要的,为什么? 主要是Super Cruise, Autopilot的手和脚都完全不参加驾驶和增加了很多智能驾驶功能,需要传感器的数据融合,大家看一下不同传感器的物理特性,像激光雷达在某些天气恶劣情况下它也是不可靠的,比如大雾和温度低的情况下激光雷达数据是受影响的,微波雷达是全天候的,但数据和信息量太小,摄像头对于颜色和标识等效果非常好,但是受环境影响大,这时候就需要把它们的传感数据等融合起来,可靠的进行感知环境。L3以上的驾驶需要零False positive和False negative感知,也是实现横向与纵向控制的必须条件。 这种融合技术是无法通过分离控制电子的汽车CAN总线来完成的,因为CAN是一个“事件触发”系统,不支持数据融合,带宽和速率等都不满足传感器数据融合要求,所以Super Cruise 和Autopilot等需要一个计算平台在车上。

第二,智能车嵌入式计算平台研发探讨。现在有两种方式计算平台,第一种量产计算平台,像EOCM、ProAI、ACU、iECU、zFAS(奥迪A8),第二种智能车研究阶段的计算平台也就是DEMO车,比如S32V的Bluebox、Pegasus, Snapdragon 820a、Intel Xeon等,Xeon也就是Waymo用的方案。量产的计算平台到底分哪几种呢?大概分4种,现在市场上量产的基本上都是Mobileye方案,这是第一种ASIC方案,还有一种是英伟达GPU。第三种就是FPGA,特别一些国际的供应商和国内一流供应商也在用这个方案,包括Xilinx和Altera。再就是我们讲CPU方案,这个月NXP要发布新的AI Runner,要把人工智能算法的通过它转化到CPU上运行,这种方案功耗小,成本低,这是非常有前途和前景的方案。

这是两个芯片厂商Mobileye和Nvidia与很多厂家的合作伙伴情况总结,就里不详细介绍了。这四种方案的比较,GPU研发容易但功耗大,Xavier的功耗38瓦,非常大,汽车应用不太适合和比较难,功耗大影响了计算平台的整车布置,冷却方式,设计尺寸,电池容量设计等。ASIC方式改动难、投资大,知识和计算都是封闭的,但是量产成本低。FPGA主要是研发难度大,也是通向ASIC的一步。CPU易于编程应用和掌握核心技术。对于主机厂来讲,CPU潜力非常大和希望,而且面临的问题是人工智能应用边缘计算算力和车规级的开发等,我个人认为并从主机厂的角度考虑,CPU是未来的发展方向和选择。

计算平台有什么特点?第一要做数据融合,有简单融合和深度融合,简单融合我们也叫后融合或者目标融合,现在有各种不同的算法实现简单融合比如卡尔曼滤波等。深度融合是比较难的,举例来讲,摄像头和雷达要融合,摄像头数据是一个立马就有了的Instant数据,雷达不是instant和立马数据的,两个时间不一致,不是一个Time Stamp, 还有传输的时候要考虑有时间损失,要把它们标定在一个时间轴上,汽车还有ego motion, 这就造成了融合非常不容易。夸大一点说吧,不能把其他时间的摄像头数据和现在时刻的雷达数据融合,所以大家很难做到所有传感器数据的完全深度融合, TSN也许提供了一种未来的融合技术。实时性控制要求,比如在奥迪A8上采用了TTE(Time Trigger Ethernet)。 功能安全ASILD要求,然后多个RTOS操作系统融合,SOTIF的实施,Global timing 等, 另外批量生产质量要求高,不能像普通汽车电子控制器常出现的死机,黑屏,虚焊等质量问题等等。

第三,深度学习的汽车应用。从这个图看出,2012年著名的AlexNet是个巨大突破,极大地提高了ImageNet的识别率,到了2015年有了非常著名的ResNet, 误差是3%左右,很多中国公司都采用Resnet, 2017年的模型可以做到误差大概1%左右, 人的错误识别率大概是5%, 是不是可以说自动驾驶人工智能识别超过了人类?答案:不是的。比如受传感器技术影响,我们的传感器摄像头是一百多米,毫米波雷达比较好的也就200米, 还面临了很多因素, 并不是说在感知方面能超过人类的。人工智能在汽车上应用已经很广泛了,比如语音识别、脸部识别、DMS,手势识别,localization, Traffic Sign Recognition等在车上已经量产很多了。在自动驾驶方面举个例子,2017年,英伟达DriveWorks用多个人工模型组合来实现了端对端的人工智能控制,只有经过三天的培训,在奥迪车上就能实现自动驾驶,但是这个技术不能用在量产汽车上,主要是无法克服我们常说的Corner case 或者Edge case 等问题。这是在2017年,英伟达只用了120万dataset数据训练后,能够完全100%正确的把3D bounding box加到所有的物体上包括行人和汽车等, 原来的传统方法是不可能做这些的,很多国际著名公司很多年前都采取了很多传统办法比如SVM,但都失败了,因为误差率太高。深度学习提供解决了自动驾驶中的关键问题之一感知技术问题,也是目前唯一可行的技术。

这张图代表了深度学习汽车应用的研发,是一个端到端的过程,从数据中心data center端到车机端的研发流程,data center做模型研发和训练training, 这是inference, 这是车机端边缘计算和车机应用。在感知方面,深度学习的自动驾驶应用主要完成下面几个: Image Classification, Object Detection and Semantic segmentation 等。 在决策上主要是有强化学习和深度强化学习,这是人工智能在自动驾驶方面它的研发实现过程。  当然应用还是需要很多技术融合了,比如车道线的检测,一种是有车道线,另外很多情况是没有车道线,如何建立一个虚拟的车道线?  这个图说明几个地方的Semantic free space 是一样的,如何构建一个虚拟车道线让智能车沿着虚拟车道线开? 所以很多的方法需要融合起来才能得到车道线,这就是我们讲人工智能在量产车上的应用。另外一个例子是人工智能在自动泊车上应用,比如停车线不清,停车场地有禁止停车标记等等,目前的自动泊车都不能比较好的解决,但是人工智能的深度学习克服不同的场景并提高自动泊车的性能特别是valet parking。

第四,智能车量产人工智能的机遇和局限。很多年前就有深度学习了,但是只是在有了大数据,GPU算力和新的算法后才能让深度学习应用成为现实和实现。人工智能是智能车量产的Enabler,没有DNN人工智能就没有自动驾驶, 也就是在2012年以后才有自动驾驶的炒作。深度学习的应用还有很多的潜在和前景。汽车的自动驾驶应用需要人工智能决策的强化学习输出的确定性deterministic。如何在成千上万的人工智能模型中选择适合自己公司的模型。

我举几个例子想说明人工智能强化学习的一些挑战与局限,这是Waymo的几个车上,为什么在决策上受到挑战呢?这是两台车,从这里开过来的时候,因为要避免这边里面有人开门,所以要离这边远一点,跑到十字口,正好对面又过来一个车,位置太小它进不来了,两个车形成了对持,这时候我们的AI算法就难以对应,就要马上人工接管和干预,像这种corner case场景目前人工智能很难克服。第二个例子,这也是Waymo今年的,这本来停了一个静止车,waymo车停在静止车后面等着拐弯,它没有检测到前面是个静止车辆, 后面人工干预一下,开到静止车前面停一下再拐弯,但是到这地方不知道前面车是要拐弯的还是直行的还是静止的,这时候也是目前人工智能corner case的挑战。

另外一个问题是在汽车当中还面临着机器学习没有技术要求,按照汽车研发的V字模型,左边是V字的技术要求,中间是设计或者Integration, 右边是Test和测试等,但是在人工智能在汽车研发中没法满足V字形模型,比如写不出技术要求来, 没有Design Insight, 没法进行black box 或者white box 测试, 这也是汽车人的一个挑战。

另外人工智能模块如何功能安全如何认证?功能安全实施最难的就是它的软件认证,硬件相对来讲容易做一些。深度学习的感知满足确定性deterministic的智能驾驶要求,但是如果智能驾驶需要1000倍超过人类, 那么人工智能感知误差率1/P要求是0.005%?这个很难达到, 另外感知的深度学习比较成熟算法集中在视觉领域,雷达方面比较少,有些人应用在激光雷达的3D point cloud中,比如PointNet、OctNet、SqueezNet等,但是实际应用中尚没有看到。自动驾驶Multi-Agents下的规划与决策采用强化学习有deterministic 挑战和问题,自动驾驶的决策和Alfa go, Atari 场景不一样。另外一个问题是强化学习往往太defensive, 那么是否叠加RSS和其他决策算法能否满足自动驾驶需求?

最后总结几个方面。第一,L2.5以上的智能或者自动驾驶都需要引入计算平台或者域控制器的整车中。第二,汽车量产有不同技术路线的计算平台,对于我们来讲实现量产的话一定是成本低、功耗低才能够容易实施,才能够满足市场需求。实时控制,要有可靠的软件与硬件。其次,人工智能自动驾驶应用更大的挑战在“规划和决策”层面的确定性,实时性、可靠与成熟。汽车电子功能安全和SOTIF给计算平台和传感器的研发提出了巨大的挑战,原来2011年的功能安全制定时没有考虑自动驾驶,第二版的功能安全主要是把SOTIF和自动驾驶加入考虑。这里面特别对于中国的主机厂挑战非常大,今天受时间现在不展开讨论功能安全和SOTIF,我的汇报就到这里,谢谢大家。

敬请关注盖世汽车“2018汽车与环境创新论坛”直播专题

PC:http://auto.gasgoo.com/NewsTopic/157.html

移动:http://m.gasgoo.com/news/topic/157

提示:本文为现场速记,未经专家审核,请勿转载!

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。