当前位置: 代码迷 >> 综合 >> YOLO-V3-SPP 梯度累积的实现方式accumulate
  详细解决方案

YOLO-V3-SPP 梯度累积的实现方式accumulate

热度:33   发布时间:2023-12-06 00:42:01.0

前言

链接至YOLO-V3-SPP详细解析
在显存不够用的时候,YOLO采用了梯度累积的策略

源码实现

accumulate定义

train.py文件中定义了该accumulate参数:

accumulate = max(round(24 / batch_size), 1)
  1. round() 方法返回浮点数 24batchsize\frac{24}{batchsize}batchsize24? 的四舍五入值,准确的说保留值将保留到离上一位更近的一端(四舍六入)
  2. max取24batchsize\frac{24}{batchsize}batchsize24?和1之间的最大值

我将batch_sizebatch\_sizebatch_size设为12,因此accumulate为2,意味着梯度累积次数为2

如何梯度累积?

from torch.cuda import amp

这里提出了一个amp混合精度训练的知识,参考:
PyTorch 源码解读之 torch.cuda.amp: 自动混合精度详解

对混合精度需要了解FP16和FP32的解释:

  • 彻底搞懂float16与float32的计算方式
  • 【PyTorch】唯快不破:基于Apex的混合精度加速
            losses *= 1. / accumulate  # scale loss# backwardscaler.scale(losses).backward()# optimize# 每训练64张图片更新一次权重if ni % accumulate == 0:scaler.step(optimizer)scaler.update()optimizer.zero_grad()

losses为一次batch求出的loss值
乘以1accumulate\frac{1}{accumulate}accumulate1?得本次累积loss的占比
scaler.scale(losses).backward()放大loss梯度,并且累积这次的梯度信息
scaler.step(optimizer)将本次放大的梯度,放缩回来
scaler.update()检查是否需要梯度放大

optimizer.zero_grad()正常更新权重

  相关解决方案