当前位置: 代码迷 >> 综合 >> 机器学习速成课程笔记8:降低损失 (Reducing Loss)-随机梯度下降法
  详细解决方案

机器学习速成课程笔记8:降低损失 (Reducing Loss)-随机梯度下降法

热度:52   发布时间:2023-11-25 06:20:04.0

快速翻阅,快速学习

     1.在梯度下降法中,批量指的是用于在单次迭代中计算梯度的样本总数。到目前为止,我们一直假定批量是指整个数据集。就 Google 的规模而言,数据集通常包含数十亿甚至数千亿个样本。此外,Google 数据集通常包含海量特征。因此,一个批量可能相当巨大。如果是超大批量,则单次迭代就可能要花费很长时间进行计算。

      2.包含随机抽样样本的大型数据集可能包含冗余数据。实际上,批量大小越大,出现冗余的可能性就越高。一些冗余可能有助于消除杂乱的梯度,但超大批量所具备的预测价值往往并不比大型批量高。

     3.如果我们可以通过更少的计算量得出正确的平均梯度,会怎么样?通过从我们的数据集中随机选择样本,我们可以通过小得多的数据集估算(尽管过程非常杂乱)出较大的平均值。随机梯度下降法 (SGD) 将这种想法运用到极致,它每次迭代只使用一个样本批量大小为 1)。如果进行足够的迭代,SGD 也可以发挥作用,但过程会非常杂乱。“随机”这一术语表示构成各个批量的一个样本都是随机选择的。

    4.小批量随机梯度下降法小批量 SGD)是介于全批量迭代与 SGD 之间的折衷方案。小批量通常包含 10-1000 个随机选择的样本。小批量 SGD 可以减少 SGD 中的杂乱样本数量,但仍然比全批量更高效。为了简化说明,我们只针对单个特征重点介绍了梯度下降法。请放心,梯度下降法也适用于包含多个特征的特征集。

------------------------------------------关键词分界线------------------------------

划重点!!!关键字词:

1.批次 (batch)

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

另请参阅批次规模


2.小批次 (mini-batch)

从训练或推断过程的一次迭代中一起运行的整批样本内随机选择的一小部分。小批次的规模通常介于 10 到 1000 之间。与基于完整的训练数据计算损失相比,基于小批次数据计算损失要高效得多。

关于三种梯度下降的方式:批量梯度下降、小批量梯度下降、随机梯度下降的比较可以参考

https://blog.csdn.net/uestc_c2_403/article/details/74910107


  相关解决方案