2022年末,ChatGPT横空出世,不仅点燃了一场史无前例的科技舆论风暴,还让各行各业都面临着一场AI的行业革命。
汽车行业也不例外。不少车企卷起了AI,积极布局并拥抱大模型。蔚小理等新势力相继公开自研大模型计划,商汤绝影、毫末智行等供应商也推出自家的大模型。可以说,大模型上车成为了一个趋势。
2023年,百度发布了中国版ChatGPT——文心一言,众多车企如长城、吉利、岚图等品牌跟进,宣布加入文心一言生态。背后,是车企对AI大模型应用于汽车的敏感嗅觉。
而在高度同质化的智能座舱领域,AI大模型迎来了最好的上车机会。
从车载语音系统到智能交互,再到舱驾一体,AI大模型都能使智能座舱再度迎来进化,让智能座舱更智能。
01
更聪明的车载交互
汽车上最容易引入AI大模型技术的系统应该就是语音交互系统,不仅接入的操作难度较低,还能取得比较好的效果。
AI的高级自然语言处理技术够解析复杂的语言结构和语境,使语音系统能够理解用户的自然语言指令,使语音交互更加流畅、自然。区别于传统的语音助手,AI能够维护对话的上下文信息,支持多轮对话,提供更加连贯的交互体验。
以拥抱大模型最积极的新势力为例,2023年6月,理想就发布了自研认知大模型Mind GPT,使车载语音助手理想同学更聪明。
通过大模型的高知识储备,Mind GPT可使理想同学的对话能力、理解能力得到提升,并且具备逻辑推理能力,问答体验更加流畅。Mind GPT自带的记忆网络还赋予了理想同学基于历史对话记住个性化偏好和习惯的能力,从而更好理解用户。
不仅如此,当AI大模型逐渐从单模态走向多模态,车载交互系统还能从单一的语音交互转变为结合语音、视觉和触觉等多种感官输入的交互。
在触觉交互方面,多模态大模型能够使用压力传感器检测触摸力度和位置,利用电容变化检测触摸事件,并通过振动马达等设备提供触觉反馈,增强交互的直观性。
在视觉交互方面,多模态大模型能够使用计算机视觉技术处理摄像头捕获的图像和视频,识别面部特征、视线方向和手势,进而通过面部识别进行驾驶员身份验证,分析驾驶员的视线方向,提供相应的交互反馈或辅助功能,并通过摄像头捕捉和分析手势动作,实现非接触式控制。
如果再加上使用结构光、ToF(Time of Flight)等技术获取三维空间的视觉信息,多模态大模型还能实现更精确的手势和面部识别。
人脸、手势、静脉,甚至眼球追踪……搭载了多模态大模型的车载交互简直就像开了黑科技。
以理想L7为例,它配备了3D深度传感器,如Melexis的MLX75027,能够识别用户的手势动作,允许用户通过手势来控制车内的导航、空调等。只要食指指向车窗,就能自动实现升降。
还有魏牌蓝山DHT PHEV,能够将语音和头姿结合,通过车载摄像头捕捉驾驶员的头部动作,进行确定或否定答复。
02
更智能的舱驾融合
在智能化的下半场,由于汽车电子电气架构向中央集成式发展,舱驾融合无疑成为了目前公认的电动车的发展趋势。
航盛集团技术中心中央研究院副院长钱乾认为:“跨域融合能够通过一体化设计,解决算力的高效利用问题;不同部门之间也可以在流程上进行协同,提高开发效率。反映在整车产品上,是产品力的提升,系统间的数据传输将更快、系统效率与响应速度将更高;系统在复杂场景下的适应性将提升,用户的人机共驾体验将改善;而车型的平台化延展性也可以借助舱驾融合实现提升。”
而在此趋势下,AI大模型还能发挥更大的优势。
座舱从最开始的机械座舱,转变为带触摸技术、大屏的智能空间,而在舱驾融合的趋势下,很多智能驾驶的功能将由智能座舱向用户传递,智能座舱正承担着越来越多的使用场景。
在平时,AI可以收集驾驶者的驾驶习惯、偏好,从而在智驾时提供个性化设置,比如定制的驾驶模式、驾驶路线等等。
并且,在驾驶途中,AI还能利用多模态交互收集传感器数据,以语音或可视化的形式向驾驶员传递车辆性能和路况的信息,并根据驾驶员的指令做出相应的行为。
以商汤绝影的DriveAGI为例,用户不仅可以通过问询让DriveAGI解释自己的决策过程,还能通过语音或手势指令来控制自动驾驶行为。
例如,未来在自动驾驶状态下,导航指示车辆需在下个路口调头以抵达目的地,但驾驶员知晓可在前方有近路可以直接转弯,那么他只需对系统说出「直接左拐」,系统便会根据当前路况来执行这一指令。
目前ADAS和智能座舱结合得不深,未来将二者融合可能会成为一个新的趋势,能够创造出许多新功能和交互模态,从而提升驾驶体验和安全性。
在蔚来科技日最新发布的Banyan 3中,也能感受到AI正在越来越多地影响舱驾融合。例如,对NOMI说“找个好停的停车场”,它就会主动分析停车场和目的地的步行距离,在天气热的时候推荐地下停车场,甚至车位是否机械车位等信息。
不仅如此,NOMI还可以调用车端记录仪,推理并总结包括人靠近、车靠近、人驻留、开门杀等在内的八大场景。
2024年ATC第八届汽车人机交互技术峰会上,亿咖通也展示了他们基于中央计算平台所打造的舱驾一体大模型架构,包括超拟人AI出行助手和拟人驾驶技术。这些技术不仅提升了用户的个性化体验,还实现了基于中央计算的多维度多模态类人决策。
华为的新一代鸿蒙座舱也有AI大模型千悟引擎的上车,不仅可实现舱内毫米级精准感知,主驾后视镜、方向盘、HUD高度等的自适应调节,还支持全舱骨骼级人体感知,多模态融合控车,挥手即可控制遮阳帘、车门、空调风向。
由此可见,AI大模型赋能智能座舱已成为行业的趋势,智能座舱4.0时代正在飞速到来。AI将让智能座舱更智能,打造多模态、更个性的交互体验。