随着AI技术应用的不断深入,微软正在重新构想云基础设施,以确保每一层硬件和软件堆栈都获得优化。
11月16日,微软在Ignite技术大会发布了基于微软数据中心集群的创新产品,包括行业合作伙伴推出的最新AI优化芯片,以及微软设计的两款芯片。
一款是AI加速器芯片,其名为Microsoft Azure Maia ,它可用于OpenAI模型、Bing、GitHub Copilot和 ChatGPT 等AI工作负载运行云端训练和推理。 另一款则是基于 Arm 架构的云原生芯片 Microsoft Azure Cobalt,它是针对通用工作负载的性能、功率和成本效益进行了优化。 此外,Azure Boost也将正式商用。该系统可将存储和网络进程从主机服务器转迁移到专用硬件和软件上,从而提高存储和网络速度。
作为定制芯片的补充,微软正在拓展与芯片供应商的合作伙伴关系,为客户提供基础设施选项。为此,微软将在其智能云 Azure 中添加 AMD MI300X 加速虚拟机(VMs)。ND MI300 虚拟机(VMs)将采用 AMD 最新的 GPU——AMD Instinct MI300X,旨在加速AI工作负载的处理,以实现高范围的AI模型训练和生成式推理。 为英伟达H100 Tensor Core GPU打造的全新NC H100 v5虚拟机系列开放预览,将提高大中型AI训练和生成式推理的性能、可靠性和效率。
微软还发布了 ND H200 v5 虚拟机系列计划,这是一款AI优化虚拟机,配备了即将推出的英伟达 H200 Tensor Core GPU。
此外,微软还与 OpenAI 建立合作伙伴关系,并将 ChatGPT 功能集成于搜索、协作、工作和学习工具中。据悉,新的 GPT-3.5 Turbo 模型(支持16K token提示词长度)将正式商用,GPT-4 Turbo 将于2023年11月底在Azure OpenAI服务中公开预览。GPT-4 Turbo将使客户能够扩展提示词长度,为生成式AI应用带来更多控制和效率。