源码之家

  • 首页
  • 文章
  • 问答
  • 下载
您的位置: 首页  >  文章  >  机器学习之GD、SGD

机器学习之GD、SGD

分类: 文章 • 2024-11-11 20:17:40

机器学习之GD、SGD

  • 1. 梯度下降法 GD
  • 2. 随机梯度下降法 SGD


 

1. 梯度下降法 GD

机器学习之GD、SGD


 

2. 随机梯度下降法 SGD

机器学习之GD、SGD

  • SGD和之前的GD区别在于,GD是对函数进行求导,对整个训练集每个样本来计算,但是SGD则是对一个或者多个样本来操作,例如有10000个样本,但每次只对100个或1000个来计算梯度,从而更新参数;
  • SGD存在一个弊端:因为求得的梯度不是严格的梯度,可能会使得结果变差,但在工程应用里效果却很好。

参考:机器学习入门(8):梯度下降法

相关推荐

  • 机器学习之特征转换与过拟合(机器学习基石)
  • 机器学习之线性回归(机器学习基石)
  • 机器学习(26)之K-Means实战与调优详解
  • 机器学习之决策树算法-概念和学习过程
  • ****-机器学习之支持向量机理论与代码实践-机器学习
  • 机器学习笔记之十八——分别从象限和泰勒理解牛顿法
  • 机器学习之西瓜书-大纲
  • 《机器学习之特征锦囊.pdf》打包奉送,28个锦囊等你开启
  • 机器学习中的范数规则化之(二)核范数与规则项参数选择
  • 机器学习中的范数规则化之(二)核范数与规则项参数选择
  • Python中机器学习的特征选择工具
  • 目标检测之三 Win10 +VS2015+双gtx Titan X使用YOLO v2训练VOC数据
    网站免责声明 网站地图 最新文章 用户隐私 版权申明
本站所有数据收集于网络,如果侵犯到您的权益,请联系网站进行下架处理。   

Copyright © 2018-2021   Powered By 源码之家    备案号:   粤ICP备20058927号