个人电脑 (PC) 行业正在升温,迎来了一个新的最佳点:这就是具有人工智能(AI)功能的PC。包括英特尔(Intel)和微软(Microsoft)等这一波PC革命的主要受益者,目前正积极推动配备AI CPU和AI软件助理的PC,并逐渐将AI应用从云端移至PC领域。
换句话说,嵌入专用芯片的AI PC可以在本地执行AI模型,而无需依赖云端。英特尔首席执行官Pat Gelsinger认为,相较于使用以云为中心的数据中心服务,这将使AI服务变得更便宜、更快速,也更具有稳私性。他在年初于美国拉斯维加斯举行的CES 2024上说:“未来,你将为每个人、每个用例以及每个地点释放这种力量。”
在服务器领域与AI巨擘Nvidia展开竞争的同时,英特尔显然也看到了在自己的强项—“PC处理器”领域迎头赶上的机会。英特尔目前正积极地将其神经处理器单元(NPU)整合于PC处理器中;NPU正是专门用于处理AI任务的专用半导体。
英特尔的Meteor Lake笔记本电脑CPU中内建了一款NPU,以支持协力厂商的AI软件功能。其于PC硬件领域的老对手AMD也在推出AI PC处理器。紧接着,Nvidia在其于CES 2024前的一次线上活动中则发表了三款新的产品,包括GPU–RTX 4060 Super、RTX 4070 Ti Super和RTX 4080 Super,用于支持AI功能的笔记本电脑。
图1:Meteor Lake CPU整合了一款NPU,以支持AI应用。 (来源:Intel)
除了支持AI的处理器,美光(Micron)、三星(Samsung)和SK海力士(SK Hynix)等存储芯片制造商也在关注AI PC,期望让AI加速器得以PC上执行强大的辅助功能。目前,新款笔记本电脑搭配容量高达8MB的RAM,而基于Windows的AI PC所支持的容量很可能倍增。事实上,执行AI助理的大型语言模型(LLM)可能需要超过16MB的存储。
以Meta创建的Llama 2系列AI模型为例,其一般的变化版本就需要将近30GB的存储。此外,随着更强大的AI加速器和处理器的出现,AI PC的存储容量可能必须要再增加。
图2:Copilot AI助理是以OpenAI的GPT-4模型为基础而建构的 (来源:Microsoft)
目前,消费者对于AI PC的热情可以说才刚刚在“暖身“阶段,要能够为AI PC提供更多原生应用还需要一段时间。然而,随着时间的进展,AI PC的硬件和软件都将变得更加强大,而这对于CPU、GPU和DRAM等半导体组件来说更是大好消息。
原文刊登于EDN美国版,参考链接: 由Susan Hong编译