最近几年,超大屏幕,杜比音效,女王座椅以及多样的驾驶模式,从30万元以上车型到20万元左右新车,逐渐成为标配。根据盖世汽车研究院数据,2023年上半年,中控大屏、车载语音交互和车联网的渗透率均超过70%。同时随着智能座舱功能愈加丰富,域控、HUD和DMS的渗透率也在不断提高。
汽车智能化水平的提高为产业发展按下加速键,但由此也引发出更多思考。如面对智能座舱明显的同质化趋势,车企该如何应对?当人机交互设计遭遇瓶颈,车企又该从哪里创新?
图片来源:华人运通
10月20日举办的汽车与环境创新论坛上,华人运通智能座舱产品及AI交互负责人吴晓敏直言,“在2022年、2023年,几乎所有人(车企)都在做相同的事。”不遗余力地搞智能、搞联网、结合场景化需求提高用户体验。
可问题是做了这么多,给用户带来的体验改善其实是有限的。用户感知不到,或者感知不敏感,都可能导致其活跃度不达预期。这让智能座舱的发展一度陷入尴尬境地。“大家不知道该何去何从,只能不断往下卷。”既卷应用,又卷技术创新。
大模型 助力打造下一代智能化体验
其中一个最直观的应用便是车载语音助手。自2023年以来,大模型上车的速度明显加快,从ChatGPT发布到国内厂商纷纷推出自己的大模型,再到现阶段,大模型已经成为打造车载语音助手的最重要途径。
究其原因,传统语音交互无法实现个性化和情感化的交互能力,而这恰恰是当下用户所需的。
今年早些时候,理想旗下语音助手“理想同学”就加入了其自研的MindGPT,可以支持声纹识别、内容识别、AI绘画、AI计算等功能。10月份,随着智己LS6上市,其自研的GPT大模型也正式上线。而蔚来也已申请NIOGPT、NOMIGPT等商标。
国内首批大模型玩家当属阿里、腾讯等科技大厂,不过要论上车速度,则一定有百度、科大讯飞等AI公司。科大讯飞“LION AI”大模型已经首搭奇瑞星纪元ES,文心一言也将随着极越01量产落地。
近日,百度CEO李彦宏用视频形式展示了极越01智能座舱所搭载的语音交互能力,包括车外语音、四路同说、多模态融合等能力。
李彦宏表示,当大模型与智能座舱相结合,交互得越多,大模型就越能理解人的需求。大模型上车,让智能座舱拥有逻辑推理、策略规划和内容生成等诸多能力,即便是七嘴八舌、多人指令、声音交织、连续对话的情况下,它也能理解每个人不同的需求,并且满足。
吴晓敏也有同样的感触。“过去,语音交互的所有技能都是由产品经理定义。产品经理写各个技能,写完技能的上限有多少就是多少。现在不一样了,AI大模型的自学习能力,给智能座舱的未来发展带来了更多想象空间。”
除了能够降本增效,引入大模型一来可以有效改善座舱产品体验。包括语音助手、导航地图等;二来,通过大模型有望得到一些新产品新需求。以大模型为中心,叠加场景化需求,可能会产生新的座舱服务。
图片来源:盖世汽车研究院
大模型带来的挑战也显而易见。首先,大模型以海量训练数据作为基础,之后更是需要投喂源源不断的新数据,对初步总结下来的模型特征或者规则进行不断调优。也因此,高质量的数据被认为是大模型的核心竞争力。
另外在吴晓敏看来,如何把大模型的效果调优好,也是一个非常大的难题。除了要在获取高质量数据上下功夫,解决大模型答非所问、胡说八道的问题也是其中关键。
从大模型的训练本身来看,由于美国进一步收紧对中国高端芯片的出口管制,GPU成本问题以及供应都是行业亟需解决的重点问题。不过,吴晓敏仍乐观认为,接下来座舱体验将会迎来革新式升级,区别于智能语音助手产品,大模型的应用将给用户带来下一代智能化体验。
实际上,华人运通在大模型方面有着更深入的思考。基于智能汽车(高合)、智捷交通和智慧城市的三位一体战略,华人运通通过运用5G、车路协同、大数据、云计算和AI技术,持续推动车路云协同进程,并通过软件定义汽车,实现以模型驱动未来的长远目标。
毋庸置疑,大模型的规模化量产意味着AI新时代已经开启,而随着汽车智能化功能不断渗透,人机交互也明显有了更新的突破。
AR-HUD催生新的人机交互革命
结合盖世汽车研究院的观点,在中短期内,大屏、多屏依然是智能座舱发展的主流趋势。但不能忽视的是,液晶仪表正逐渐被滑移屏、方向盘交互屏以及W/AR-HUD所取代。
尤其在汽车消费升级和驾驶安全越来越被重视的趋势下,HUD装车率呈现出逐年上升趋势。
10月20日举办的汽车与环境创新论坛上,思必驰科技股份有限公司HUD业务负责人苗顺平表示,“我们非常坚定AR-HUD增强现实的抬头显示器,会成为人工智能多模态交互完美融合的产品。它兼顾了信息输出与驾车安全。”
以市面上主流的HUD产品形态来看,C-HUD是第一代产品,因其成像效果差、成像尺寸有限且存在安全隐患,正逐渐被淘汰;第二代产品W-HUD在成像尺寸、成像质量等方面均有所提升,但W-HUD仍没有从根本上解决成像距离近的问题。
第三代产品也就是AR-HUD,通过结合虚拟现实技术,成像距离更远、成像效果更佳。
图片来源:思必驰
具体地看,AR-HUD的虚像更大。W-HUD可能只有7~9寸,或者是11~12寸,而AR-HUD一般是55寸起;目前W-HUD可量产的虚像距离大约2~3米,即车头位置再稍微远一点;而AR-HUD可以实现平铺到路面,虚像距离超过7米。
视场角FOA方面,W-HUD大约能达到6×3°或者5×5.25°;AR-HUD起步基本就是10×4°或者9×3°,FOV通常会更大、更宽、更广。相比之下,AR-HUD分辨率和画面亮度也会更高。部分在量产车型上应用的AR-HUD分辨率已经接近2K水平。
在显示画面上,AR-HUD可以提供双焦面,近处一个场,远处一个景。然而体积上,AR-HUD则面临着一个不小的问题,W-HUD的安装体积大约为2~4L,AR-HUD的安装体积大约在8L以上,整体需要车企预留足够的安装空间。
可以看到,从2020年奔驰全新一代S搭载AR-HUD量产上市,到2023年AR-HUD逐步普及至20万元以内的车型,AR-HUD所带来的新一轮人机交互革命已然上演。
在苗顺平看来,AR-HUD主要给车载HMI的设计带来了三大改变。
一是,AR-HUD因为能呈现更大的视场角和画面,可以给HMI设计留出更多的自由度。但该如何利用如何进行布局是一项挑战;二是,AR-HUD因为虚像距离可以更远,基于虚实结合,可以有效降低视线离焦时间。通俗点说,是人可以看到更直观的信息提示,而降低分神的可能。
还有一点,AR-HUD除了和语音结合,也可以和DMS等结合,实现创新的交互形式。此外,AR-HUD已越来越多的和智能驾驶相结合,目前其已经打通包括车辆偏离预警、ACC自适应巡航、AR导航、盲区监测、前车碰撞预警以及行人检测等在内的六个场景,在提供信息便利的同时,保障驾驶安全。
试想一下,如果无人驾驶时代最终到来,或许一款AR-HUD就能够满足车内的屏幕需求。这实际也符合“软件定义汽车”的发展需求。
智能汽车的发展与迭代离不开大模型、大数据还有大算力的支持,但归根究底,底层技术创新才是推动产业革新的唯一驱动力,语音交互、AR-HUD仅是其中的一个代表缩影,更多的创新还需要产业链上下游协作推进。