暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

NVIDIA从GPU发展到xPU,别人怎么办?

开源云中文社区 2021-04-19
414

在GTC 2021上,NVIDIA有一系列重要的宣布,包括:

携Grace项目进军CPU市场

从历史上看,NVIDIA一直致力于GPU,但从未对CPU的价值提出异议。它确实指出了摩尔定律正在失去动力,CPU的性能正在趋于稳定,这是理所当然的。关于如何重新推动摩尔定律,已经有了一些理论。在GTC 2021,NVIDIA宣布了Grace项目,该项目的名字来自Grace Hopper,上世纪50年代计算机编程的先驱。Grace旨在消除传统x86架构的许多限制。

x86的好处是能够为不同配置的CPU、内存、PCI express和外围设备提供服务,以满足应用程序的需要。然而,处理大量数据一直是一个问题,而且将继续是一个问题。这对于transformer和推荐系统来说尤其如此,也是CPU领先者英特尔从未在AI市场破冰的一个重要原因。

Grace解决了CPU瓶颈问题

在4月13日的主旨演讲中,NVIDIA CEO黄仁勋举例说明了瓶颈,一个场景是,一个CPU的内存是GPU的3倍,运行速度慢了40倍。为什么?答案在于CPU处理的数据必须通过PCI express总线的架构,这使其成为瓶颈。通过使用GPU、NVLink技术,NVIDIA创建的产品可以同时处理多个GPU之间的数据。

这就是Grace背后的概念,该架构是为加速计算和处理大量数据(如AI)而专门构建的。Grace使用了ARM处理器,NVLink则可以创建更快的CPU性能。

Grace并不是个人电脑中CPU的替代品,它是一种高度专业化的处理器,针对具有数十亿甚至万亿参数的NLP模型等工作负载。NVIDIA声称,当Grace与其GPU相结合时,该系统的性能将是同类x86系统的10倍。鉴于NVIDIA在构建加速计算系统方面的专业知识,这似乎是合理的。 

宣布推出BlueField-3 DPU

去年,NVIDIA宣布了其数据处理单元,也称为DPU。对于那些不熟悉DPU的人来说,一个简单的思考方法是,它是一个网络接口卡(NIC),已经被配置成卸载许多CPU任务。通过卸载这些功能,服务器上的CPU可以处理更多的工作负载。对于传统系统,NIC完成基本的联网工作,并让CPU处理诸如安全性、软件定义的存储和其他任务。

去年10月,NVIDIA发布了BlueField-2和2x DPU。上周,该公司发布了首款为人工智能和加速计算设计的DPU,BlueField-3。该卡针对多租户、云原生环境进行了优化,并以数据中心的速度提供软件定义、硬件加速的网络、存储、安全和管理功能。一个BlueField-3具有300个CPU内核的处理能力,释放了服务器上宝贵的CPU周期。

新的DPU将有16个ARMA78内核,提供400 Gbit/秒的带宽。它还将包括用于存储、网络、网络安全、流媒体、线速率加密和精确定时5G电信环境的硬件加速器。作为比较,BlueField-2包含8个Arm A72内核,提供了200Gbit/秒的性能。

NVIDIA的成功来自于硬件和软件的创新

就像NVIDIA的大多数产品一样,硬件并不是全部。NVIDIA的DOCA软件开发工具包允许开发人员使用标准化的API创建DPU加速服务。正是这种硬件和软件的结合,使NVIDIA得以在竞争对手英特尔的轰鸣中大起大落,并拓展了领先优势。

BlueField已经拥有一个庞大的生态系统,包括戴尔科技、浪潮、联想和超微,他们正在将BlueField整合到自己的系统中。云提供商百度、京东UCloud宣布他们将使用DPU。此外,安全供应商Fortinet和Guardicore宣布支持,边缘系统供应商Cloudflare、Juniper和F5也宣布支持。

对于那些想知道何时能看到BlueField-4的人,黄仁勋表示,2024年公布。

这一切意味着,NVIDIA将硅专业技术扩展到DPU和CPU,并与GPU结合起来。

其他厂商呢?

对于NVIDIA的举动, 英特尔CEO Pat Gelsinger表示,这并没有真正对其数据中心业务构成迫在眉睫的威胁。

他在接受《财富》杂志采访时表示:“我们前不久宣布推出了Ice Lake(服务器用处理器),反响非常积极。Ice Lake显示出我们的人工智能能力有了非凡的发展。是NVIDIA在回应我们,而不是我们在回应他们。显然,这种人工智能增强的CPU理念所属的领域是英特尔是领导者的领域。”

总的来说,随着对人工智能和超级计算的需求快速增长,Arm、AMD、英特尔、Nvidia和许多其他公司正在努力提高其处理器(CPU、GPU、IPU、VPU等)在AI和/或HPC工作负载中的性能。因此,未来几年,人工智能和高性能计算将比前30年有更多的进展。激动人心的时刻即将到来。

需要注意的是,Nvidia目前显示Grace CPU位于其GPU旁边,而不是单独使用。因此,虽然Grace处理器本身可能具有许多人工智能助推器,但Nvidia将把它们与数据中心GPU一起销售,这些GPU针对计算进行了优化,因此为人工智能和HPC工作负载提供了一个具有令人印象深刻的功能的平台。

与此同时,英特尔将在2022年拥有这样一个平台。英特尔的第四代至强可扩展的“Sapphire Rapids”处理器,带有高达56核和各种工作负载的众多增强功能,还有明年用在Aurora超级计算机的1000亿晶体管Ponte Vecchio计算GPU。该GPU具有约1 FP16 PFLOPS性能,或1000 TFLOPS FP16性能,这三倍于Nvidia A100的312 FP16 TFLOPS。

原文链接:

https://www.eweek.com/networking/how-nvidia-is-evolving-from-gpus-to-xpus/

https://www.tomshardware.com/news/intel-nvidia-is-responding-to-us

文章转载自开源云中文社区,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论