【IT168 资讯】NVIDIA日前宣布在语言理解方面取得了突破性成果,令企业能够以更加自然的方式,使用实时会话 AI与客户进行互动。
BERT是当前最先的AI语言模型之一,NVIDIA 借助其 AI 平台率先将BERT的训练时间控制在一小时之内,并以仅比2 毫秒多一点的时间完成了 AI 推理。这种具有突破性的性能水平能够让开发者将先进的语言理解技术应用于大型应用程序之上,为全球数亿消费者提供服务。
早期采用 NVIDIA 性能提升技术的公司中包括Microsoft,平安科技以及全球范围内一些最具创新性的初创公司。借助于NVIDIA平台,这些公司为客户开发了高度直观、响应即时且基于语言的服务。
有限的会话 AI 服务已经存在多年。但由于此前无法实现超大型AI 模型的实时部署,聊天机器人、智能个人助理和搜索引擎的理解能力很难达到与人类相当的水平。然而,NVIDIA通过在其AI平台中添加关键性的优化功能,将此问题迎刃而解,在 AI 训练和推理方面都创造了新的速度纪录,并构建了迄今为止同类型中最大的语言模型。
NVIDIA 深度学习应用研究副总裁 Bryan Catanzaro 表示:“对于适用于自然语言的AI而言,大型语言模型正在为其带来革新。它们正在帮助我们解决那些最为棘手的语言问题,让我们距离实现真正的会话 AI 更进了一步。NVIDIA 所取得的突破性工作成果加速了这些模型的创建,让企业能够打造全新的高质量服务,以前所未有的方式服务客户,为其带来愉快的客户体验。”
最快的训练速度、最短的推理时间和最大的模型规模
预计未来几年,基于自然语言理解的 AI 服务将呈指数级增长。根据Juniper Research 的研究表明,在未来4年中,仅数字语音助手的数量就将有望从25 亿攀升到 80 亿。此外,据Gartner 预计,到 2021 年,15% 的客服互动都将完全通过 AI 完成,相比于2017 年,将增长 4 倍。
在引领这个新时代的过程中,NVIDIA 对其 AI 平台进行了多项关键性优化,从而创造了三项新的自然语言理解性能记录:
● 最快的训练速度:BERT(Bidirectional Encoder Representations from Transformers)是世界上非常先进的AI语言模型之一。NVIDIA使用搭载了92台 NVIDIA DGX-2H™ 系统的 NVIDIA DGX SuperPOD™运行该模型的大型版本,凭借 1,472 个 NVIDIA V100 GPU的强大性能,NVIDIA将 BERT-Large 的典型训练时间从几天缩短至仅仅 53 分钟。此外,NVIDIA还在单独一台NVIDIA DGX-2系统上执行了BERT-Large 模型的训练任务,用时也仅为 2.8天,这充分体现了 NVIDIA GPU 在会话 AI 方面的可扩展性。
● 最短的推理时间:借助于运行了 NVIDIA TensorRT™ 的 NVIDIA T4 GPU,NVIDIA 执行 BERT-Base SQuAD 数据集的推理任务,用时仅为 2.2 毫秒,远低于许多实时应用程序所需的 10 毫秒处理阈值,与使用高度优化的 CPU 代码时所测得的 40 多毫秒相比,有着显著改进。
● 最大的模型规模:开发者们对于更大模型的需求正在日益增长,NVIDIA 研究团队基于Transformer构建并训练了世界上最大的语言模型, Transformer是 BERT 的技术构件,也正被越来越多的其他自然语言 AI 模型所使用。NVIDIA定制的模型包含 83 亿个参数,是 BERT-Large 的 24 倍。