0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU利用率低常见原因分析及优化

3D视觉工坊 来源:小白学视觉 2023-04-04 09:52 次阅读

一、GPU 利用率的定义

本文的 GPU 利用率主要指 GPU 在时间片上的利用率,即通过 nvidia-smi 显示的 GPU-util 这个指标。统计方式为:在采样周期内,GPU 上面有 kernel 执行的时间百分比。

二、GPU 利用率低的本质

常见 GPU 任务运行流程图如下:

9462a4b0-d274-11ed-bfe3-dac502259ad0.jpg

如上图所示,GPU 任务会交替的使用 CPU 和 GPU 进行计算,当 CPU 计算成为瓶颈时,就会出现 GPU 等待的问题,GPU 空跑那利用率就低了。那么优化的方向就是缩短一切使用 CPU 计算环节的耗时,减少 CPU 计算对 GPU 的阻塞情况。常见的 CPU 计算操作如下:

数据加载

数据预处理

模型保存

loss 计算

评估指标计算

日志打印

指标上报

进度上报

三、常见 GPU 利用率低原因分析

1、数据加载相关

1)存储和计算跨城了,跨城加载数据太慢导致 GPU 利用率低

说明:例如数据存储在“深圳 ceph”,但是 GPU 计算集群在“重庆”,那就涉及跨城使用了,影响很大。

优化:要么迁移数据,要么更换计算资源,确保存储及计算是同城的。

2)存储介质性能太差

说明:不同存储介质读写性能比较:本机 SSD > ceph > cfs-1.5 > hdfs > mdfs

优化:将数据先同步到本机 SSD,然后读本机 SSD 进行训练。本机 SSD 盘为“/dockerdata”,可先将其他介质下的数据同步到此盘下进行测试,排除存储介质的影响。

3)小文件太多,导致文件 io 耗时太长

说明:多个小文件不是连续的存储,读取会浪费很多时间在寻道上

优化:将数据打包成一个大的文件,比如将许多图片文件转成一个 hdf5/pth/lmdb/TFRecord 等大文件

其他格式转换方式请自行谷歌

4)未启用多进程并行读取数据

说明:未设置 num_workers参数或者设置的不合理,导致 cpu 性能没有跑起来,从而成为瓶颈,卡住 GPU

优化:设置 torch.utils.data.DataLoader 方法的 num_workers 参数、tf.data.TFRecordDataset 方法的 num_parallel_reads 参数或者 tf.data.Dataset.map 的 num_parallel_calls 参数。

5)未启用提前加载机制来实现 CPU 和 GPU 的并行

说明:未设置 prefetch_factor 等参数或者设置的不合理,导致 CPU 与 GPU 在时间上串行,CPU 运行时 GPU 利用率直接掉 0

优化:设置 torch.utils.data.DataLoader 方法的 prefetch_factor 参数 或者 tf.data.Dataset.prefetch()方法。prefetch_factor 表示每个 worker 提前加载的 sample 数量 (使用该参数需升级到 pytorch1.7 及以上),Dataset.prefetch()方法的参数 buffer_size 一般设置为:tf.data.experimental.AUTOTUNE,从而由 TensorFlow 自动选择合适的数值。

6)未设置共享内存 pin_memory

说明:未设置 torch.utils.data.DataLoader 方法的 pin_memory 或者设置成 False,则数据需从 CPU 传入到缓存 RAM 里面,再给传输到 GPU 上

优化:如果内存比较富裕,可以设置 pin_memory=True,直接将数据映射到 GPU 的相关内存块上,省掉一点数据传输时间

2、数据预处理相关

1)数据预处理逻辑太复杂

说明:数据预处理部分超过一个 for 循环的,都不应该和 GPU 训练部分放到一起

优化:

a、设置 tf.data.Dataset.map 的 num_parallel_calls 参数,提高并行度,一般设置为 tf.data.experimental.AUTOTUNE,可让 TensorFlow 自动选择合适的数值。

b、将部分数据预处理步骤挪出训练任务,例如对图片的归一化等操作,提前开启一个 spark 分布式任务或者 cpu 任务处理好,再进行训练。

c、提前将预处理部分需要用到的配置文件等信息加载到内存中,不要每次计算的时候再去读取。

d、关于查询操作,多使用 dict 加速查询操作;减少 for、while 循环,降低预处理复杂度。

2)利用 GPU 进行数据预处理 -- Nvidia DALI

说明:Nvidia DALI 是一个专门用于加速数据预处理过程的库,既支持 GPU 又支持 CPU

优化:采用 DALI,将基于 CPU 的数据预处理流程改造成用 GPU 来计算

DALI 文档如下:https://zhuanlan.zhihu.com/p/105056158

3、模型保存相关

1)模型保存太频繁

说明:模型保存为 CPU 操作,太频繁容易导致 GPU 等待

优化:减少保存模型(checkpoint)的频率

4、指标相关

1)loss 计算太复杂

说明:含有 for 循环的复杂 loss 计算,导致 CPU 计算时间太长从而阻塞 GPU

优化:该用低复杂度的 loss 或者使用多进程或多线程进行加速

2)指标上报太频繁

说明:指标上报操作太频繁,CPU 和 GPU 频繁切换导致 GPU 利用率低

优化:改成抽样上报,例如每 100 个 step 上报一次

5、日志相关

1)日志打印太频繁

说明:日志打印操作太频繁,CPU 和 GPU 频繁切换导致 GPU 利用率低

优化:改成抽样打印,例如每 100 个 step 打印一次

四、常见数据加载方法说明

1、pytorch 的 torch.utils.data.DataLoader

DataLoader(dataset,batch_size=1,shuffle=False,sampler=None,
batch_sampler=None,num_workers=0,collate_fn=None,
pin_memory=False,drop_last=False,timeout=0,
worker_init_fn=None,*,prefetch_factor=2,
persistent_workers=False)
94795ba6-d274-11ed-bfe3-dac502259ad0.jpg

从参数定义中,我们可以看到 DataLoader 主要支持以下几个功能:

支持加载 map-style 和 iterable-style 的 dataset,主要涉及到的参数是 dataset

自定义数据加载顺序,主要涉及到的参数有 shuffle, sampler, batch_sampler, collate_fn

自动把数据整理成 batch 序列,主要涉及到的参数有 batch_size, batch_sampler, collate_fn, drop_last

单进程和多进程的数据加载,主要涉及到的参数有 num_workers, worker_init_fn

自动进行锁页内存读取 (memory pinning),主要涉及到的参数 pin_memory

支持数据预加载,主要涉及的参数 prefetch_factor

参考文档:https://pytorch.org/docs/stable/data.html

2、tensorflow 的 tf.data.Dataset

ds_train = tf.data.Dataset.from_tensor_slices((x,y))
    .shuffle(5000)
    .batch(batchs)
    .map(preprocess,num_parallel_calls=tf.data.experimental.AUTOTUNE)
    .prefetch(tf.data.experimental.AUTOTUNE)

Dataset.prefetch(): 可以让数据集对象 Dataset 在 å 训练时预取出若干个元素,使得在 GPU 训练的同时 CPU 可以准备数据,提升训练流程的效率

Dataset.map(f): 转换函数 f 映射到数据集每一个元素; 可以利用多 CPU 资源,充分利用多核心的优势对数据进行并行化变换, num_parallel_calls 设置为 tf.data.experimental.AUTOTUNE 以让 TensorFlow 自动选择合适的数值,数据转换过程多进程执行,设置 num_parallel_calls 参数能发挥 cpu 多核心的优势

Dataset.shuffle(buffer_size): 将数据集打乱,取出前 buffer_size 个元素放入,并从缓冲区中随机采样,采样后的数据用后续数据替换

Dataset.batch(batch_size):将数据集分成批次,即对每 batch_size 个元素,使用 tf.stack() 在第 0 维合并,成为一个元素

五、分布式任务常见的 GPU 利用率低问题

分布式任务相比单机任务多了一个机器间通信环节。如果在单机上面运行的好好的,扩展到多机后出现 GPU 利用率低,运行速度慢等问题,大概率是机器间通信时间太长导致的。请排查以下几点:

1、机器节点是否处在同一 modules?

答:机器节点处于不同 modules 时,多机间通信时间会长很多,deepspeed 组件已从平台层面增加调度到同一 modules 的策略,用户不需要操作;其他组件需联系我们开启。

2、多机时是否启用 GDRDMA

答:能否启用 GDRDMA 和 NCCL 版本有关,经测试,使用 PyTorch1.7(自带 NCCL2.7.8)时,启动 GDRDMA 失败,和 Nvidia 的人沟通后确定是 NCCL 高版本的 bug,暂时使用的运行注入的方式来修复;使用 PyTorch1.6(自带 NCCL2.4.8)时,能够启用 GDRDMA。经测试,“NCCL2.4.8 + 启用 GDRDMA ” 比 “NCCL2.7.8 + 未启用 GDRDMA”提升 4%。通过设置 export NCCL_DEBUG=INFO,查看日志中是否出现[receive] via NET/IB/0/GDRDMA 和 [send] via NET/IB/0/GDRDMA,出现则说明启用 GDRDMA 成功,否则失败。

94a88494-d274-11ed-bfe3-dac502259ad0.jpg

3、pytorch 数据并行是否采用 DistributedDataParallel ?

答:PyTorch 里的数据并行训练,涉及 nn.DataParallel (DP) 和nn.parallel.DistributedDataParallel (DDP) ,我们推荐使用 nn.parallel.DistributedDataParallel (DDP)。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    9390

    浏览量

    204821
  • 存储
    +关注

    关注

    12

    文章

    3387

    浏览量

    84269
  • gpu
    gpu
    +关注

    关注

    27

    文章

    3811

    浏览量

    125125
  • 计算
    +关注

    关注

    2

    文章

    426

    浏览量

    38344
  • 利用率
    +关注

    关注

    0

    文章

    10

    浏览量

    6993
收藏 人收藏

    评论

    相关推荐

    GPU-Z可以监控每个vGPU的总GPU利用率吗?

    GPU-Z监控每个vGPU。我发现了一个有趣的结果。如果我将所有vGPU
    发表于 09-19 16:59

    是否可以看到每个VM的vGPU利用率

    利用率。不在操作系统内,而是来自Grid K1卡。例如,如果GPU 0为80%,那么如果我知道45%的数字来自特定的VM,那就太棒了。我查看了论坛,但没有
    发表于 09-21 11:06

    如何利用UCOSII中的统计任务 OS_TaskStat()知道了CPU利用率100%把利用率降下来?

    利用UCOSII中的统计任务 OS_TaskStat()知道了CPU利用率100%,则应该怎样操作,把利用率降下来?另外,利用率太高的话会不会不太好?
    发表于 07-12 04:36

    Post综合后的利用率只不过是实施后的利用率

    利用率只不过是实施后的利用率......?谢谢娜文G K.
    发表于 05-12 08:57

    CUP利用率怎么计算?

    利用率,是不是就使能OS_TASK_STAT_EN就可以了,并不要单独建立一个任务去执行OSTaskStat(),是这样吗?参看战舰例程,没有找到哪里执行了OSTaskStat()!
    发表于 05-18 22:05

    请问一下如何提高无线信道利用率

    利用率的因素有哪些?无线利用率与网络质量间的关系是什么?调整和提高无线信道利用率的建议有哪些?
    发表于 05-27 06:46

    如何获取栈利用率

    利用率
    发表于 02-16 07:34

    openEuler 资源利用率提升之道 01:概论

    利用率低于 20%,存在巨大的资源浪费。因此,提升数据中心资源利用率是当前急需解决的一个重要问题[2]。问题成因资源利用率低下的主要原因是任务和资源调配失衡,这种失衡又有多种表现形式,例如:调度系统
    发表于 07-06 09:54

    CPU利用率问题求解

    利用率。如果利用率过高,则应发出警告。如果我们可以使用空闲时间,那么我们就可以衡量利用率。为了设置这个监视器
    发表于 12-06 06:00

    关于Swarm和Mesos资源利用率优化实践分析

    利用率而正在进行的实践活动,深度剖析了Mesos资源的收集和调度原理,以及如何在Mesos中提供Revocable资源来提高Mesos
    发表于 10-10 11:54 0次下载
    关于Swarm和Mesos资源<b>利用率</b><b>优化</b>实践<b>分析</b>

    利用率的获取

    利用率获取RT-THREAD的统计方法是将线程栈都填充为’#’, 当需要的时候, 检查是否被修改为其他
    发表于 12-20 19:03 8次下载
    栈<b>利用率</b>的获取

    活性物质利用率

    利用率 电池具有活性物质的量与按法拉弟定律计算应产生的电量称为理论容量。要求电极给出一定的电量时,电极的活性物质
    发表于 11-06 11:02 1944次阅读

    采用发电量可利用率指标的意义

    利用率指标,以时间为统计对象,根据将外部原因导致停机视为可用和不可用,区分为综合发电小时可利用率(GHA)和技术发电小时可利用率(THA)。
    的头像 发表于 05-10 15:46 8517次阅读

    提高Kubernetes的GPU利用率

    利用 GPU 的资源,您可以使用简单的超额订阅策略来利用 GPU 的时间切片调度器。
    的头像 发表于 06-21 15:46 1645次阅读
    提高Kubernetes的<b>GPU</b><b>利用率</b>

    常见GPU利用率原因分析

    GPU 任务会交替的使用 CPU 和 GPU 进行计算,当 CPU 计算成为瓶颈时,就会出现 GPU 等待的问题,GPU 空跑那利用率就低了。
    发表于 06-19 12:22 480次阅读
    <b>常见</b><b>GPU</b><b>利用率</b><b>低</b><b>原因</b><b>分析</b>