GPT-4爆火,“多模态大模型”能否成为自动驾驶技术“新范式”?

发布时间:2023-03-16  

今天,你的朋友圈可能被一个词刷屏了——GPT-4。


这是OpenAI刚刚发布的新一代多模态预训练大模型,它的上一代产品GPT-3就是此前爆火的、堪称“无所不知、无所不能”的“聊天机器人”ChatGPT的基础模型。



如今GPT-4的发布,也让ChatGPT迎来了一次大更新:ChatGPT不仅支持文字输入,还能看得懂图片、甚至是漫画、梗图,让吃瓜群众直呼:太太太太强了!


而在汽车领域,功能强大的GPT-4也为我们带来了更多联想:以GPT-4为代表的多模态大模型,能否应用在自动驾驶技术?是否会成为自动驾驶的下一个颠覆性技术?


下面,我们好好聊聊。


什么是“多模态大模型”?


实际上,这个词应该拆开来看:“多模态”和“大模型”。


“多模态”比较好理解,简单来说,就是指模型可以处理多种结构/类型的数据,例如GPT-4,它既可以处理你输入的文本,也可以处理你上传的图片。


而“大模型”,其实目前还没有一个明确的定义,一般来讲它是指“Foundation Model”,又译作“基础模型”,它最大的特点就是“大规模”。


“大模型”往往包含了上亿的参数量,例如前面提到的GPT,从GPT-1到GPT-3,模型的参数量从1.1亿个增长到了1750亿个,几年的时间内增长了一千多倍。


这是因为,在Transformer网络提出后,研究人员惊讶地发现,模型参数量的不断提升,会让模型的能力持续提高。于是,人民便开始在模型中加入越来越多的参数,导致模型规模屡创新高。


同时,“大模型”还有另一个特点——“无监督预训练”。


大模型参数量大、结构大,还需要大量的数据集进行训练,而对如此庞大的数据进行人工标注显然是困难的。因此,针对大模型的特性,往往会采用“无监督预训练”(亦称“自监督学习”)模式,可以让模型在海量数据中自行学习,无需人类干预,这让模型可以快速地在训练中成长,提高了训练效率。


而在预训练后,还会对大模型进行RLHF(人类反馈强化学习),在这个阶段则引入了大量的人工,通过数据标注等方式帮助模型进化,进一步提升模型的推理能力。



因此,多模态大模型其实可以通俗理解成一种“可以处理多种类型数据的包含大量参数的AI模型”,而它的最大优势就在于推理能力强,准确率高,可以完成复杂的任务(例如帮你写一段代码、解读搞笑图片等等)。


多模态大模型与自动驾驶


现在回到最初的问题:多模态大模型对自动驾驶有帮助吗?


答案是肯定的。


其实,在自动驾驶领域,“多模态”早已得到应用,这是因为自动驾驶任务本就是适合多模态场景的。


例如环境感知,现在的感知系统往往包含多种数据结构,例如视觉信号、雷达信号、地图数据等等。而不同的数据类型间存在不同的特性,例如视觉信号数据量大,但受光线影响大;雷达信号数据量小,但受光线影响小。



如果针对不同数据使用单模态感知,则有可能出现推理结果的冲突和错误,影响系统稳定性,因此,基于多模态的融合感知技术成为了许多自动驾驶厂商的研发核心。


而如果基于多模态大模型,甚至可以让自动驾驶技术更上一层。


从结构上讲,多模态大模型中含有处理多种类型数据的AI网络,这种网络可以称之为“专家网络”。


想要处理什么数据,就要在大模型中置入这种数据的专家网络,甚至可以针对某一模态数据的不同方面特征而配备多个相同模态的专家网络。



在实际推理时,各个专家网络根据输入的数据给出相对应的结果,再通过算法或者融合模型对结果进行融合分析,从而实现多模态数据的处理。


也就是说,如果存在一个自动驾驶多模态大模型,只要向大模型输入视觉信号、雷达信号、地图数据、定位信息等,即可直接推理出行驶路线。


如果把这个概念继续引申,将自动驾驶大模型扩展为车载多模态大模型,则还可以接入文字和语音数据,让AI不仅可以负责自动驾驶,还能同时担负起智能座舱的交互任务,让AI司机和AI管家合二为一。


可惜的是,以上皆为构想。因为多模态大模型要想应用在车载自动驾驶技术上,仍然面临许多困难。


首先是延迟问题。


由于多模态大模型的规模十分庞大,这就导致了它的推理耗时的增加。例如与ChatGPT对话,往往需要等待数秒才能得到完整的回答。


这种“等待”对于ChatGPT这类AIGC(AI创作)来说并不敏感,但对于自动驾驶这种场景来说则极为关键。要知道,在汽车高速行驶时,每秒都会行驶出几十米,很多交通事故往往是瞬间发生的,多模态大模型难以应对这种场景。


其次是部署问题。


由于自动驾驶的车载特性,任何关键功能都要求本地化脱网运行。而多模态大模型由于规模庞大,内含数以亿计的参数量,则很难实现本地化部署。


同时,大模型工作的算力需求,相比传统模型也是呈指数级上升的,例如2019年谷歌发表的T5模型,参数量110亿,如果以单张英伟达V100训练,则理论上训练一次需要66年。



当然了,虽然高延迟、难部署,让多模态大模型距离自动驾驶还有相当的距离,但这也不代表它对现有自动驾驶技术没有帮助。


例如前段时间推出的百度文心大模型和毫末智行DriveGPT,虽然都无法直接部署在车端,但百度文心大模型可以帮助自动驾驶感知模型的训练,增强车载小模型的感知能力;而毫末智行DriveGPT则可以采用RLHF(人类反馈强化学习)技术,通过引入真实人驾接管数据,对自动驾驶认知决策模型进行持续优化。


至于前面提到的高延迟、难部署,说到底也只是个阶段性问题:只要算力足够大、延迟就可以降低,部署问题也会迎刃而解。


或许随着车载AI芯片的算力的持续“膨胀”,多模态大模型上车离我们并不遥远。


文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>