自动驾驶车辆和机器人依靠雷达通过使用大量前端和 MIMO 天线来检测周围环境。 但要做到这一点需要大量雷达意味着管理大量数据,这通常会引起问题。总部位于加州的芯片制造商 Ambarella 希望克服这些挑战,并通过其新型中央处理 4D 成像雷达系统简化整个流程。它允许对原始雷达进行中央处理,并与其他传感器输入(包括摄像头、超声波和激光雷达)进行深度、低级融合。
为什么要让处理集中化? 集中处理可在基于人工智能的高级驾驶员辅助系统 (ADAS) 和 L2+ 至 L5 自动驾驶系统(包括自动机器人和无人机)中提供更好的环境感知和更安全的路径规划。 新系统采用在 5 纳米 CV3 AI 域控制 SoC 上运行的 Ambarella Oculii 雷达技术,以及可动态调整雷达波形以适应周围环境的 AI 软件算法。
Ambarella 表示,通过使用更少的 MIMO 通道,它可以减少数据带宽,并实现比其他 4D 成像雷达更低的功耗。 其采用集中式 4D 成像雷达的 Oculii 技术提供了灵活且高性能的架构,使系统集成商能够确保其雷达设计面向未来。
Yole Group 旗下 Yole Intelligence 射频活动团队首席分析师 Cédric Malaquin 解释道:“2021 年,汽车 ADAS 市场约 1 亿个雷达单元。考虑到更严格的安全法规以及更先进的驾驶自动化系统的上路,我们预计到 2027 年这一销量将增长 2.5 倍。 事实上,原始设备制造商将从目前每辆车配备 1 到 3 个雷达传感器,转变为每辆车配备 5 个雷达传感器作为基准。”
“此外,关于雷达处理划分和许多相关发展存在着令人兴奋的争论。 一种方法是集中式雷达计算,它将使 OEM 能够提供性能显着提高的成像雷达系统和新的 ADAS/AD 功能,同时优化雷达传感的成本。”
Oculii Algos 是 CV3 家族的核心
为了实现这一集中式系统,Ambarella 优化了 5 纳米的 CV3 AI 域控制器 SoC 系列的 Oculii 算法,并添加了特定的雷达信号处理加速功能。CV3 的每瓦人工智能性能提供了实现高雷达密度、范围和灵敏度所需的高算力和内存容量。 据该公司称,单个 CV3 可同时提供高性能、实时的感知处理、低级传感器融合和路径规划。
这并不是说 4D 成像雷达技术不会面临自身的挑战。通常,4D 雷达的数据集太大,无法集中传输和处理。 这是因为它们每个模块每秒生成多个太比特数据,并且每个雷达模块消耗超过 20 W 的功率。 当覆盖车辆所需的六个或更多雷达模块相乘时,中央处理器可能难以处理。
传感器融合
安霸将如何解决这个问题?其传感器融合使系统能够根据应用改变车辆雷达的扫描特性,例如停车时视野和范围的不同设置。 这减少了每个无处理器 MMIC 雷达头的天线阵列,同时实现了 0.5 度的联合方位角和仰角分辨率。集中式架构在最大工作周期下的功耗也更低,并将数据传输带宽减少了84%。
此外,它还允许根据实时条件动态分配 CV3 的处理资源。 例如,如果您在雨中在高速公路上行驶,CV3 可以专注于来自前置雷达传感器的数据,以进一步扩大车辆的检测范围,同时提供更快的反应时间。 集中式架构的其他好处包括更轻松的无线 (OTA) 软件更新,以实现不间断升级。
随着我们开始看到更多的智能汽车,尤其是自动驾驶汽车出现在道路上,Ambarella 的中央处理系统似乎很有吸引力。 然而,到目前为止,该公司尚未透露何时上市或哪些制造商表示了兴趣。 早在 1 月份,他们就在 CES 2023 上展示了这项技术,但此后一直保密。