机器学习速成课程|机器学习速成课程 学习笔记7: 降低损失
https://developers.google.cn/machine-learning/crash-course/reducing-loss/an-iterative-approach
- 迭代方法
- 梯度下降法
- 学习速率
- 随机梯度下降法
迷路了的金发姑娘未经允许就进入了熊的房子,她尝了三只碗里的粥,试了三把椅子,又在三张床上躺了躺,最后决定小碗里的粥最可口,小椅子坐着最舒服,小床上躺着最惬意,因为那是最适合她的,不大不小刚刚好。
金发姑娘选择事物的原则被称作:金发姑娘原则(Goldilocks principle)。
注意:在实践中,成功的模型训练并不意味着要找到“完美”(或接近完美)的学习速率。我们的目标是找到一个足够高的学习速率,该速率要能够使梯度下降过程高效收敛,但又不会高到使该过程永远无法收敛。
推荐阅读
- 美丽的变化,成长的沃土——2019兴成长计划学习心得
- 深度学习论文研读|目标检测网络R-CNN系列与yolov1算法原理概述
- 研发管理|学习笔记(16):英特尔?OpenVINO?工具套件中级课程-Gstreamer框架
- 社群营销学习笔记(一)
- 六项精进营学习第五天
- 学习工作中想要高效率(真|学习工作中想要高效率?真 ? 小众手机APP神器满足你!)
- 斯科特·扬《如何高效学习》读书感悟
- 父母成长训练营~好好学习100天第65天—《正面管教》读书心得
- Excel中的GPS,你会用吗()
- 【进击的Vimmer】vim学习路线图1——基本移动hjkl