线性回归和逻辑回归的极大似然估计
离散变量预测,称之为分类;连续变量预测,称之为回归。
本文总结,通过极大似然估计得到:
- 1)线性回归的代价函数为均方误差。
- 2)逻辑回归的代价函数为(经过映射后的)二元交叉熵。
中心极限定理 中心极限定理是指,给定足够大的样本量,无论变量在总体中的分布如何,变量均值的抽样分布都将近似于正态分布。详细来讲,给定一个任意分布的总体,从这个总体中抽取n个样本,总共随机抽取m次(n、m越大越好),计算这m次的样本的平均值,则这些平均值的分布是正态分布,并且这些平均值的均值近似等于总体均值,平均值的方差为总体方差除以n。
误差 误差指的是实际值与预测值之间的差值:
我们期望预测结果尽量接近实际值,即希望误差最小,因此需要对误差进行分析,以进行数学建模。
我们假设误差是独立同分布,且服从的高斯分布,则其概率密度函数为:
似然函数 对于已经观察到的样本的结果,它的似然函数为:
它表示在已知条件下,发生的概率值,显然越大越好。
两边取对数,并展开化简得:
约去定值,并乘-1,将求最大值转换为求最小值:
代价函数称为L2损失或MSE(均方误差)。
二、逻辑斯蒂回归(解决分类问题)
伯努利分布 如果随机变量X只取0和1两个值,且相应的概率为:
则称随机变量X服从参数为的伯努利分布。
基于线性回归的思考 如何用线性回归来解决二分类问题?
1.通过函数将值域映射到(0, 1)之间,表示其为正样本的概率值。
文章图片
文章图片
2.若继续模仿线性回归,利用MSE作为代价函数,则此时代价函数是一个非凸函数,会有许多局部极小值,不利于求解,我们应该换一种思路。
文章图片
似然函数 在二分类问题中,y取值0,1服从伯努利分布,则有:
时的概率为:
时的概率为:
合并得,
对于已经观察到的样本的结果,它的似然函数为:
它表示在已知条件下,发生的概率值,显然越大越好。
【线性回归和逻辑回归的极大似然估计】两边取对数,并展开化简得:
乘以-1,将求最大值转换为求最小值:
代价函数称为二元交叉熵损失(BCE)。
推荐阅读
- 急于表达——往往欲速则不达
- 第三节|第三节 快乐和幸福(12)
- 20170612时间和注意力开销记录
- 2.6|2.6 Photoshop操作步骤的撤消和重做 [Ps教程]
- 对称加密和非对称加密的区别
- 眼光要放高远
- 樱花雨
- 前任
- 2020-04-07vue中Axios的封装和API接口的管理
- 烦恼和幸福