自动驾驶卡在L2,传感器成为瓶颈?

2023-03-09  

自动驾驶,或称无人驾驶概念,在进入21世纪之后就受到广泛讨论。2012年美国率先发布自动驾驶牌照,向全世界宣布自动驾驶时代的来临。2017年12月,北京率先发布自动驾驶细则,打出了国内自动驾驶领域的第一枪。2023年的今天,全国各地已经普遍允许自动驾驶车辆上路行驶。


然而,细看自动驾驶方式,我们发现无论是中国还是美国,目前在路上行驶的自动驾驶仍然局限于L2级别,即仅实现自动跟车与自动变道等辅助驾驶功能,距离真正的“双手离开方向盘”自动驾驶还有相当大的差距。2020年3月,工信部发布了《推荐性国家标准报批公示》,标志着中国正式拥有自己的自动驾驶汽车分级标准。《公示》中提到,L3 级驾驶自动化(有条件自动驾驶)在其设计运行条件内持续地执行全部动态驾驶任务,由系统承担责任,所以L3以上才被认为是真正的自动驾驶。


自动驾驶技术,卡在哪里了?在最近举办的上海传感器大会上,钟志华院士就自动驾驶与传感器技术发表演讲,分享了未来自动驾驶技术的发展方向。其中车路协同与单车智能两条发展路线被钟院士着重提及。这两类方向,虽然目的都是实现自动驾驶,但在传感器与算法的发展方向上却截然不同。要找到自动驾驶技术究竟卡在哪里,要分成两条发展路径分析。


单车智能:指车辆通过硬件设备对周边环境、状态的感知,将信息交由软件系统分析决策,并控制车辆完成既定的动作。


车路协同系统:以路侧系统和车载系统为基础进行构建,通过无线通讯设备实现车路信息交互和共享的系统,是推动自动驾驶步入L3及以上更高等级的必要系统。


QQ截图01.jpg

车路协同概念  图源:程序员客栈


其实无论是单车智能还是车路协同,它们本质上都是要车辆进行自动避障与安全行驶。不过这两个方向有一点重要,车辆怎么知道前方路途如何,是否有障碍物在阻碍行驶。目前网络上对于车路协同与单车智能的讨论有很多,本文将带你了解这两种方案在硬件或传感器上的区别,也就是为你解答,“谁”来告诉自动驾驶车辆怎么走?为什么感觉自动驾驶发展“停滞”了?


单车智能:车辆自己决定怎么走


QQ截图02.jpg

自动驾驶  图源:澎湃新闻


单车智能其实很好理解,我们目前的自动驾驶发展方向主要就是单车智能,也就是在自动驾驶车辆上搭载大量高精度传感器,再配合高算力芯片,自行分析路况,制定行车决策。


单车智能其实就是模拟传统驾驶方式。在传统驾驶中,司机通过听与看获取外界信息,然后作出相应的驾驶动作。例如看到红灯会停车,看到路人横穿马路会减速避让等。为了模拟人类对于外界信息的收集能力,无人驾驶工程师不得不在车辆上装载大量传感器,而这些传感器与它们背后的处理芯片,目前是无人驾驶发展的关键。


单车智能路线的传感器,既有几乎百分百车辆覆盖的摄像头(视觉传感),也有适用复杂环境的毫米波雷达与激光雷达,适用夜间环境的红外传感器,以及辅助倒车泊车的超声波雷达或微波雷达等。总的来说,单车智能大致能分成“视觉派”与“雷达派”两种。


“视觉派”即是纯视觉方案,利用高清摄像头模拟人眼进行道路识别。目前特斯拉、极氪、百度Apollo还坚持使用纯视觉方案自动驾驶。这种方式需要在车辆周围布置大量摄像头来感知周边环境,尽管摄像头用量较大,但由于摄像头拥有大量成熟的技术与算法方案支持,与雷达方案相比反而成本更低,较容易实现大部分ADAS功能。纯视觉方案在工作时对算力需求较高,且并不擅长测距,在复杂与恶劣环境下容易失效。纯视觉方案受限于其物理特性,很难做到高级别自动驾驶。


QQ截图03.jpg

纯视觉方案  图源:电子工程专辑


“雷达派”则在视觉方案的加装了毫米波雷达或激光雷达。毫米波雷达是使用毫米波段的探测雷达,它利用高频电路产生特定频率的电磁波,通过天线发送出去,然后接收从目标返回来的电磁波,来判断外界目标的各个参数,例如大小、距离、速度等。激光雷达则是发射激光脉冲点阵,通过探测器接收回波来判断外界物体的特征。雷达方案相比纯视觉方案,能够规避可见光波段的种种缺陷,例如无法直接判断景深、容易受环境影响、低分辨率误判等。


不过目前雷达方案成本相比视觉方案要高不少,尤其是激光雷达,虽然拥有优秀的测距性能与精确的物块分析能力,但成本也是最高的。此外,较低成本的雷达测量范围有限,往往需要使用多个传感器来覆盖整个车辆周围的环境,这进一步增加了成本和复杂性。此前马斯克就曾扬言特斯拉不会搭载激光雷达,因为彼时一台雷达价格就接近10万美元。近日禾赛科技在纳斯达克IPO,中国激光雷达迎来第一股,它IPO的背后功臣是一款销量6万台的激光雷达。不过禾赛科技也被爆出热销的原因是“亏本赚吆喝”,每销售一台就要亏一千块。不过特斯拉和禾赛的例子也意味着,若激光雷达的成本进一步降低,是完全有更大规模上车的潜力的。因此,在港口、工厂等小环境中,以雷达为主的自动驾驶技术应用较快,再进一步发展普及就需要等待技术突破来压低成本了。


车路协同:怎么走,道路说


QQ截图04.jpg

车路协同交互的传感器  图源:武汉大学官网


钟院士的演讲有一点很有意思,他将未来的城市比喻成一个大车间,无人车辆在统一的规划下有序行驶。车路协同(V2X)就与这种“大车间”的运作模式十分相似。目前上海洋山港已经建成完备的无人港口。据官方资料介绍,洋山港的车路协同技术引入AI人工智能控制、5G、V2X通讯、北斗导航等技术,在全球范围内实现特定场景下的L4级别无人驾驶。所以,理论上,我们把洋山港放大几百倍,让它的面积大到能覆盖整个城市不就行了吗?


其实,当特定的无人驾驶区域超越了所谓的“车间”大小,自驾难度就会指数级上升。其中最大的变化就是引入行人、非机动车、野生动物等不稳定因素。此外,城市中的堵车、乱停车、交通事故等突发情况也会对自动驾驶产生影响。


此前,密歇根州立大学和谷歌母公司Alphabet旗下的基础设施初创公司Cavnue合作建设世界上第一条大规模自动驾驶专用道路。项目中的人类因素专家表示自动驾驶在大多数情况下表现良好,但“它们与人类司机互动的方式有点令人担忧”。他表示这种车辆很难识别人类,导致致命事故的发生。也就是说,在完全遵守规则的情况下,车路协同下的自动驾驶很容易实现,但现实情况并非如此。车路协同对外界环境的变化判断依赖超算“大脑”,执行的指令则需要通过高速传输通道,以极低的延时传输到车辆中。所以,在与外界进行快速数据交换中,5G传感器的优势就凸现出来。在“低延时”这一点,有国外专家表示:当你在4G或5G的手机上看流媒体视频时,如果你的视频延迟半秒开始,大多数人都无法察觉。但对于车辆来说,那半秒的信息延迟可能会造成事故。”


在车路协同的“车”中,除了通信外,也需要很多传感器相互配合工作。目前车路协同技术路径下可能会用到以下传感器:5G传感器(基带):用于与云计算相连,接收智慧城市系统信号;激光雷达、毫米波雷达:用于检测和跟踪车辆、行人和其他障碍物;摄像头:用于识别和跟踪车辆、行人和道路标志等;GPS定位传感器:用于确定车辆的位置和方向;车辆识别传感器:用于云端识别车辆类型和车牌号码等信息;压力传感器:用于检测道路表面状态,例如温度和湿度等;磁力传感器:用于监测道路交通流量。车路协同使用的传感器种类相比单车智能更多,其目的是收集和分析交通、车辆和环境等方面的数据,以实现智能化交通控制和车辆管理。


QQ截图05.jpg

车路协同  图源:德勤分析


但车路协同是一项涉及多方面的技术,尤其在数据传输与数据收集传感器上需要更多投入。


通信传输:为了实现实时、可靠和安全的通信,需要使用高速、低延迟、高可靠性和安全性的通信技术。5G网络提供了更高的带宽和更低的延迟,这使得车辆和基础设施之间的通信更加可靠和快速。5G网络还可以支持更多的设备连接,这对于车路协同系统来说非常重要,因为它需要大量的设备连接,例如车辆、道路设施和传感器等。不过现有的5G网络还需要进一步解决在高密度交通环境中的应用以及通信带宽上限等问题。


数据收集:车路协同需要收集和处理大量的数据,包括车辆位置、速度、方向、道路状况、天气状况等,用来对交通状况进行预测和优化。因此,高效、耐用且精确的多维度数据车辆传感器也是车路协同的关键。目前北京雄安新区已经开始建设布满传感器的自动驾驶“专用路”,未来随着基础设施的铺设,车路协同也将更快实现。


QQ截图06.jpg

实装的车路协同传感器  图源:新智元

 

写在最后


单车智能方案起步较早,但受限于传感器价格目前发展较慢。车路协同技术虽然对单车高质量传感器需求较少,但尚处于市场初级阶段,在技术上还存在诸多难点。此外,在商业落地方面,车路协同还面临着投资积极性不足、后期运营困难的问题。例如传感器过几年就要更新,这将消耗大量设备采购资金与人工成本。


总的来说,无论是单车智能还是车路协同,目前成本是限制自动驾驶发展的最大障碍。相信未来随着两种技术路线的规模化应用,传感器的价格将进一步下降。在智能化的大趋势下,这两项技术将不断优化和完善,为人们带来更加安全、便捷、高效的出行体验。人们带来更加安全、便捷、高效的出行体验。


文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。