14. EM算法
文章目录
-
- 14. EM算法
-
- 14.1 简介
- 14.2 算法计算流程
-
- 14.2.1 算法基本流程
- 14.3 极大似然估计
- 14.4 EM算法的实现思路
14.1 简介
期望最大化(Expectation-Maximum,简称EM)算法
一种迭代优化策略,由于它的计算方法中每一次迭代都分两步
- 期望步(E步)
- 极大步(M步)
文章图片
14.2.1 算法基本流程
- 初始化参数
- 计算分布
- 重新估计参数
- 重复1~3步,直到参数不发生变化为止
根据已知条件,通过极大似然估计,求出未知参数
【人工智能机器学习|机器学习——EM算法】用来估计模型参数的统计学方法
14.4 EM算法的实现思路
- 首先根据己经给出的观测数据,估计出模型参数的值
- 然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计
- 然后反复迭代,直至最后收敛,迭代结束
推荐阅读
- 大数据|首席数据官(从哪里来(到哪里去?))
- Python数据分析|Python数据分析之Matplotlib的应用
- 计算机图形学|【计算机图形学】基础 - Colorization using Optimization
- 数据结构与算法|『数据结构与算法』之时间复杂度与空间复杂度,看这一篇就够啦
- 深度学习|Jupyter Notebook(Anaconda)——两个环境分别修改默认打开目录(深度学习第一周番外篇)
- 神经网络与深度学习|【神经网络与深度学习】CIFAR10数据集介绍,并使用卷积神经网络训练图像分类模型——[附完整训练代码]
- 机器学习|深度学习经典数据集汇总
- ISP算法|isp算法之对比度调整-颜色不变的彩色图像对比度调整
- Machine|线性分类(一)-- 感知机算法 PLA