0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用NVIDIA H100 CNX构建人工智能系统

星星科技指导员 来源:NVIDIA 作者:About Charu Chaubal 2022-03-31 14:49 次阅读

人们对能够以更快的速度将数据从网络传输到 GPU 的服务器的需求不断增加。随着人工智能模型不断变大,训练所需的数据量需要多节点训练等技术才能在合理的时间范围内取得成果。 5G信号处理比前几代更复杂, GPU 可以帮助提高这种情况发生的速度。机器人传感器等设备也开始使用 5G 与边缘服务器通信,以实现基于人工智能的决策和行动。

专门构建的人工智能系统,比如最近发布的 NVIDIA DGX H100 ,是专门为支持数据中心用例的这些需求而设计的。现在,另一种新产品可以帮助企业获得更快的数据传输和更高的边缘设备性能,但不需要高端或定制系统。

NVIDIA 首席执行官 Jensen Huang 上周在 NVIDIA 公司 GTC 宣布, NVIDIA H100 CNX 是一个高性能的企业包。它结合了 NVIDIA H100 的能力与 NVIDIA ConnectX-7 SmartNIC 先进的网络能力。这种先进的体系结构在 PCIe 板上提供,为主流数据中心和边缘系统的 GPU 供电和 I / O 密集型工作负载提供了前所未有的性能。

H100 CNX 的设计优势

在标准 PCIe 设备中,控制平面和数据平面共享相同的物理连接。然而,在 H100 CNX 中, GPU 和网络适配器通过直接 PCIe Gen5 通道连接。这为 GPU 和使用 GPUDirect RDMA 的网络之间的数据传输提供了专用的高速路径,并消除了通过主机的数据瓶颈。

通过将 GPU 和 SmartNIC 组合在一块板上,客户可以利用 PCIe Gen4 甚至 Gen3 上的服务器。通过高端或专门构建的系统实现一次性能水平可以节省硬件成本。将这些组件放在一块物理板上也可以提高空间和能源效率。

将 GPU 和 SmartNIC 集成到单个设备中,通过设计创建了一个平衡的体系结构。在具有多个 GPU 和 NIC 的系统中,聚合加速卡强制 GPU 与 NIC 的比例为 1:1 。这避免了服务器 PCIe 总线上的争用,因此性能会随着附加设备线性扩展。

NVIDIA 的核心加速软件库(如 NCCL 和 UCX )自动利用性能最佳的路径将数据传输到 GPU 。现有的加速多节点应用程序可以在不做任何修改的情况下利用 H100 CNX ,因此客户可以立即从高性能和可扩展性中受益。

H100 CNX 用例

H100 CNX 提供 GPU 加速,同时具有低延迟和高速网络。这是在较低的功耗下完成的,与两个分立的卡相比,占用空间更小,性能更高。许多用例可以从这种组合中受益,但以下几点尤其值得注意。

5G 信号处理

使用 GPU 进行 5G 信号处理需要尽快将数据从网络移动到 GPU ,并且具有可预测的延迟也是至关重要的。 NVIDIA 聚合加速器与 NVIDIA Aerial SDK 相结合,为运行 5G 应用程序提供了性能最高的平台。由于数据不经过主机 PCIe 系统,因此处理延迟大大减少。在使用速度较慢的 PCIe 系统的商品服务器时,甚至可以看到这种性能的提高。

加速 5G 以上的边缘人工智能

NVIDIA AI on 5G 由 NVIDIA EGX 企业平台、 NVIDIA 公司的 SDK 软件定义的 5G 虚拟无线局域网和企业 AI 框架组成。这包括像 NVIDIA ISAAC 和 NVIDIA Metropolis 这样的 SDK 。摄像机、工业传感器和机器人等边缘设备可以使用人工智能,并通过 5G 与服务器通信。

H100 CNX 可以在单个企业服务器中提供此功能,而无需部署昂贵的专用系统。与NVIDIA 多实例 GPU 技术相比,应用于 5G 信号处理的相同加速器可用于边缘 AI 。这使得共享 GPU 用于多种不同目的成为可能。

多节点人工智能训练

多节点培训涉及不同主机上 GPU 之间的数据传输。在一个典型的数据中心网络中,服务器通常会在性能、规模和密度方面受到各种限制。大多数企业服务器不包括 PCIe 交换机,因此 CPU 成为这种流量的瓶颈。数据传输受主机 PCIe 背板的速度限制。虽然 GPU:NIC 的比例为 1:1 是理想的,但服务器中 PCIe 通道和插槽的数量可能会限制设备的总数。

H100 CNX 的设计缓解了这些问题。从网络到 GPU 有一条专用路径,供 GPUDirect RDMA 以接近线路速度运行。无论主机 PCIe 背板如何,数据传输也会以 PCIe Gen5 的速度进行。主机内 GPU 功率的放大可以以平衡的方式进行,因为 GPU:NIC 的比例是 1:1 。服务器还可以配备更多的加速能力,因为与离散卡相比,聚合加速器所需的 PCIe 通道和设备插槽更少。

NVIDIA H100 CNX 预计可在今年下半年购买。如果你有一个用例可以从这个独特而创新的产品中受益,请联系你最喜欢的系统供应商,询问他们计划何时将其与服务器一起提供。

关于作者:About Charu Chaubal

Charu Chaubal 在NVIDIA 企业计算平台集团从事产品营销工作。他在市场营销、客户教育以及技术产品和服务的售前工作方面拥有 20 多年的经验。 Charu 曾在云计算、超融合基础设施和 IT 安全等多个领域工作。作为 VMware 的技术营销领导者,他帮助推出了许多产品,这些产品共同发展成为数十亿美元的业务。此前,他曾在 Sun Microsystems 工作,在那里他设计了分布式资源管理和 HPC 基础设施软件解决方案。查鲁拥有化学工程博士学位,并拥有多项专利。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1743

    文章

    40884

    浏览量

    227803
  • 5G
    5G
    +关注

    关注

    1329

    文章

    46969

    浏览量

    525963
  • H100
    +关注

    关注

    0

    文章

    26

    浏览量

    89
收藏 人收藏

    评论

    相关推荐

    解读人工智能的未来

    人工智能的主要原因,他们恐慌的原因是都相信我们将构建出一个无人监督的学习者,它将以人类无法控制的速度递归地进化自己,如此日复一日,年复一年,AGI
    发表于 11-14 10:43

    如何构建人工智能的未来?

    构建人工智能(AI)的未来?
    发表于 03-03 07:06

    Arm Neoverse NVIDIA Grace CPU 超级芯片:为人工智能的未来设定步伐

    人工智能的承诺将利用整个 Arm 生态系统的人才,从系统和芯片设计人员到开发人员微调神经网络以提高速度、准确性和效率。我们要感谢 NVIDIA 帮助设置课程。
    发表于 03-29 14:40

    NVIDIA发布新一代产品—NVIDIA H100

    NVIDIA发布新一代产品—NVIDIA H100H100是一款超大的芯片,采用TSMC 4N工艺,具有800亿个晶体管,也是首款采用HBM3标准的GPU。
    的头像 发表于 03-23 17:21 2234次阅读
    <b>NVIDIA</b>发布新一代产品—<b>NVIDIA</b> <b>H100</b>

    GTC2022大会亮点:NVIDIA发布全新AI计算系统—DGX H100

    NVIDIA发布全新AI计算系统—DGX H100,借助NVLink连接,DGX使八块H100成为了一个巨型GPU。
    的头像 发表于 03-24 15:06 1382次阅读
    GTC2022大会亮点:<b>NVIDIA</b>发布全新AI计算<b>系统</b>—DGX <b>H100</b>

    NVIDIA发布DGX H100系统 罗德与施瓦茨提供O-RAN无线电单元方案

    NVIDIA 近日宣布推出第四代 NVIDIA® DGX™ 系统,这是世界上第一个使用全新NVIDIA H100 Tensor Core GPU 构建的 AI 平台。
    的头像 发表于 03-25 11:44 4296次阅读

    NVIDIA发布最新Hopper架构的H100系列GPU和Grace CPU超级芯片

    NVIDIA(英伟达)发布了基于最新Hopper架构的H100系列GPU和Grace CPU超级芯片!
    的头像 发表于 03-26 09:07 2069次阅读

    蓝海大脑服务器全力支持NVIDIA H100 GPU

    NVIDIA H100 GPU。蓝海大脑服务器产品在单机上最多可支持4、8甚至9个H100 GPU,可为多种人工智能场景提供超强算力、灵活的资源调度和成熟的生态支持。
    的头像 发表于 03-31 11:47 894次阅读

    关于NVIDIA H100 GPU的问题解答

    NVIDIA 发布其首款基于 Hopper 架构的 GPU —NVIDIA H100
    的头像 发表于 07-18 10:35 1030次阅读

    详解NVIDIA H100 TransformerEngine

    H100发布之际,英伟达还带来一个“重磅产品”——Transformer Engine。在Transformer大火之际推出这么一个产品,无疑是炼丹师福音。
    的头像 发表于 10-24 15:26 1667次阅读

    GTC 2023上英伟达发布NVIDIA DGX Cloud人工智能云服务

    人工智能和其他开创性应用训练高级模型所需的基础设施和软件。DGX Cloud提供NVIDIA DGX AI超级计算专用集群,每个DGX Cloud中都集成了8个NVIDIA H100 GPU模组
    的头像 发表于 03-22 19:16 2923次阅读
    GTC 2023上英伟达发布<b>NVIDIA</b> DGX Cloud<b>人工智能</b>云服务

    英伟达a100h100哪个强?

    100h100哪个强? 英伟达A100H100更强。英伟达A100在处理大型模型和数据集时可能比V100表现更优秀。 H100 是一款针对大模型专门优化过的芯片,使用台积电 5nm 定制
    的头像 发表于 08-07 17:32 4954次阅读

    英伟达A100H100的区别

    100H100的区别 英伟达A100H100是两种不同的产品。A100是英伟达在2020年推出的一款基于Ampere架构的数据中心GPU,主要用于高性能计算和人工智能应用。A100具有
    的头像 发表于 08-07 18:06 1.2w次阅读

    英伟达h800和h100的区别

    NVIDIA H100 的中国版本就是:NVIDIA H800。        H800的的带宽仅为H100(900 GB/s)的约一半。 NVIDIA H100 搭载多项先进技术可将推理
    的头像 发表于 08-08 16:06 4867次阅读
    英伟达<b>h</b>800和<b>h100</b>的区别

    英伟达a100h100哪个强?英伟达A100H100的区别

    人工智能和机器学习等领域而设计。它拥有高达6912个CUDA核心(在32GB版本中),是目前最强大的数据中心GPU之一。A100支持更快的训练速度和更大的模型容量,适用于需要进行大规模并行计算的应用程序。 H100是英伟达公司的InfiniBand适
    的头像 发表于 08-09 17:31 1.3w次阅读