半导体行业观察NVIDIA(英伟达)21 日宣布推出 Pascal 架构深度学习平台的最新生力军 NVIDIA Tesla P4 及 P40 GPU 加速器与全新软件,在效能及速度提供大幅度的提升以加速人工智能服务的推论生产作业负载。
语音助理、待过滤垃圾邮件及电影与产品推荐引擎等现代人工智能(AI)服务越来越复杂,与一年前的神经网络相比需要高出 10 倍的运算。目前以 CPU 为主的技术无法提供现代人工智能服务所需要的即时回应能力,导致不佳的使用者经验。
Tesla P4 及 P40 特别针对推论设计,使用经训练的深度神经网络辨识语音、影像及文字以回应使用者和设备要求。Pascal 架构 GPU 具备以 8 位(INT8)运算为主的专门推论指令,提供比 CPU 快 45 倍的反应速度,与不到一年前推出的 GPU 解决方案相比则提升了 4 倍。
Tesla P4 为数据中心带来最高的能源效率,其小尺寸及最小 50 瓦特的低功率设计可安装于任何服务器内,让生产作业负载推论的能源效率达 CPU 的 40 倍。在进行视讯推论作业负载时,单一服务器里安装单颗 Tesla P4 即可取代 13 台仅采用 CPU 的服务器;而包含服务器及用电量的总持有成本则能节省达 8 倍。
Tesla P40 为深度学习作业负载带来最大的处理量。一台搭载 8 颗 Tesla P40 加速器的服务器拥有每秒 47 兆次运算(TOPS)的推论效能及 INT8 指令,可取代 140 台以上的 CPU 服务器的效能。若以每台 CPU 服务器约 5,000 美元计算,可节省 65 万美元以上的服务器采购成本。
NVIDIA 加速运算总经理 Ian Buck 表示:“有了 Tesla P100 以及新推出的 Tesla P4 及 P40,NVIDIA 为数据中心提供唯一的端对端深度学习平台,为各大产业释放庞大的人工智能潜力。将训练时间从数天大幅缩短至数小时,能立即解析资料,并透过人工智能服务即时对消费者做出回应。”
实现更快速推论的软件工具
另外与 Tesla P4 及 P40 推出的包含两项加速人工智能推论的创新软件:NVIDIA TensorRT 及 NVIDIA DeepStream SDK。
TensorRT 为针对优化生产部署所设计的深度学习模型函式库,具有立即回应极度复杂网络的能力。透过训练过的 32 位或 16 位定义神经网络以及设定以降低精度的 INT8 运算为目的进行优化,将深度学习应用的处理量及效率极大化。
NVIDIA DeepStream SDK 衔接强大的 Pascal 服务器,与双 CPU 只能处理 7 个串流的运算能力相比,能即时同步解码并分析高达 93 个 HD 视讯串流。这解决人工智能的其中一项重大挑战:处理大规模的影音内容分析以应用到如自驾车、互动式机器人、过滤及广告投放等领域。深度学习整合至视讯应用中让企业能提供前所未有、智能且创新的视讯服务。
协助客户向前迈进
NVIDIA 的客户提供越来越多需要最高运算效能的创新人工智能服务。其中中国台湾厂商广达持续在服务器业务与 NVIDIA 合作,从世上首座人工智能超级电脑系统 DGX-1、Facebook Big Sur 推论服务器到搭载 NVIDIA 糖果盒大小 Tesla P4 轻巧 1U 服务器,皆透过该公司而得以打造出优异的产品阵容。
NVIDIA 共同创办人暨CEO黄仁勋表示:“广达从早期便与我们一同致力于 GPU 服务器发展,不论想建造何种类型数据中心,透过我们与广达及云达的合作都能达成。”
云达科技总经理杨晴华表示:“我们的客户相当倚重云达在超大规模 、高密度融合机架式等级解决方案中的领导地位,这些解决方案通常都需要高效能的作业负载。以深度学习的应用而言,平行运算回应之间的延迟性表现十分重要,而 Tesla P40 和 P4 正是能表现出准确与灵敏效能的新一代 GPU 解决方案。”
如需获取更多资讯,请关注微信公众账号:半导体行业观察