SGD:随机梯度下降法
随机梯度下降法是机器学习领域中一种重要的优化算法,通常简称为SGD。这种简写形式便于书写和日常使用,常见于各类技术文档和研究文献。SGD通过随机选取样本计算梯度来更新模型参数,具有计算效率高、适用于大规模数据集的优点,广泛应用于深度学习、数据挖掘等综合性技术领域。
Stochastic Gradient Descent具体释义
Stochastic Gradient Descent的英文发音
例句
- The search method of blind equalization based on fractionally spaced orthogonal wavelet transform is stochastic gradient descent method, this algorithm is prone to local minimum, so it is necessary to propose a algorithm to avoid local minimum.
- 而小波分数间隔盲均衡算法是利用随机梯度下降法(SGD)来搜索最优化权向量,这种算法很容易出现局部最小化,提出一种可以避免局部最小化的算法是很有必要的。
- The scoring model uses concepts both in positive example set and negative example set to guide the selection process, and adopts active learning strategy with stochastic gradient descent algorithm to update parameter.
- 打分模型使用正例概念集合和反例概念集合来引导筛选过程,采用主动学习策略结合随机梯度下降算法更新参数。
- Stochastic parallel gradient descent algorithm for adaptive optics system based on Zernike mode
- 基于Zernike模式的自适应光学系统随机并行梯度下降算法
- This paper researches the application of the stochastic parallel gradient descent ( SPGD ) optimization algorithm on the beam cleanup system.
- 就随机并行梯度下降(SPGD)最优化算法在光束净化系统中的应用展开研究。
- Beam Cleanup Experiments for Master Oscillator Power Amplifier Laser System by Adaptive Optics Based on Stochastic Parallel Gradient Descent Algorithm
- 随机并行梯度下降自适应光学对主振荡功率放大器激光系统的光束净化实验
本站英语缩略词为个人收集整理,可供非商业用途的复制、使用及分享,但严禁任何形式的采集或批量盗用
若SGD词条信息存在错误、不当之处或涉及侵权,请及时联系我们处理:675289112@qq.com。