返回
AI百科
小批次随机梯度下降法 (SGD, mini-batch stochastic gradient descent)
回复:0 浏览:
413
楼主
小小程序员
圈主
2021-05-15 22:45
一种采用
小批次
样本的
梯度下降法
。也就是说,小批次 SGD 会根据一小部分训练数据来估算梯度。
Vanilla SGD
使用的小批次的规模为 1。