一、线性回归 需要通过训练集
文章图片
和
文章图片
求解x,y之间的映射关系
文章图片
文章图片
1.线性回归
①模型
【机器学习|神经网络(二)回归与线性模型】
文章图片
增广权重向量&增广特征向量:在x和
文章图片
上添加一个b,可将模型中原有的b消除。
文章图片
模型转换为:
文章图片
②训练集D上的经验风险
文章图片
X矩阵:其中每行为一个样本
Y向量:列向量,每一列为一个结果
文章图片
文章图片
文章图片
③经验风险最小化
文章图片
以此公式求解w
推导:
文章图片
文章图片
文章图片
文章图片
条件:
文章图片
必须存在
若
文章图片
不存在(特征之间存在共线性),可以采用以下两种方法求解
①SGD(随机数下降)②降维
结构风险:
文章图片
,其中
文章图片
被称为正则化项,
文章图片
为正则化参数。
使其最小化:
文章图片
!!!Attention矩阵微积分
文章图片
2.多项式回归
①模型
文章图片
多项式曲线拟合
②损失函数
文章图片
③经验风险最小化
求解过程与线性回归类似
④选择合适的多项式次数
文章图片
控制过拟合:正则化
惩罚大的系数:
文章图片
其中
文章图片
为正则化项,
文章图片
为正则化系数
控制过拟合:增加训练样本数量
3.从概率视角来看线性回归
文章图片
①似然函数
参数w固定时,描述随机变量x的分布情况,称p(x;
w)为概率
已知随机变量x时,不同参数w对其分布的影响,称p(x;
w)为似然
线性回归中的似然函数:
文章图片
文章图片
②最大似然估计
求一组参数w,使
文章图片
取最大值(求导)
??????????????
文章图片
③贝叶斯学习
将参数w也视为随机变量;给定一组数据X,求参数w的分布p(w|X),也称后验分布
贝叶斯公式:
文章图片
先验:
文章图片
后验 正比于似然 X 先验
文章图片
最大后验估计:
文章图片
文章图片
正则化系数
文章图片
⑤四种准则
平方误差 | 经验风险最小化 | ![]() 文章图片 |
结构风险最小化 | ![]() 文章图片 |
|
概率 | 最大似然估计 | (XX^T)^{-1}Xy |
最大后验估计 | ![]() 文章图片 |
但不能以训练错误高低来选择模型;
选择模型时,测试集不可见。
①引入验证集
可将训练集分为两部分训练集和验证集,在验证集上挑选一个错误最小的模型。
解决数据稀疏问题(样本过少):交叉验证,将训练集分为S组,每次使用S-1组作为训练集,剩下一组作验证集;取验证集平均性能最好的一组。
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414423593-44.jpg)
文章图片
②使用准则
赤池信息量准则、贝叶斯信息准则
③偏差-方差分解
平衡模型复杂度和期望风险
期望风险:
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414423404-45.gif)
文章图片
最优模型:
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414424J3-46.gif)
文章图片
期望风险可以分解为:
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414423413-47.gif)
文章图片
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/14144235D-48.gif)
文章图片
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414426432-49.gif)
文章图片
通常由样本分布及噪声引起,无法通过优化模型消除。
目的:模型
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/14144262V-50.gif)
文章图片
与最优模型
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414424G0-51.gif)
文章图片
尽可能贴近
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414424H4-52.jpg)
文章图片
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414422B7-53.jpg)
文章图片
由偏差与方差进行模型选择
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/141442Dc-54.jpg)
文章图片
随着模型复杂度↑,方差↑,偏差↓
5.常用定理 ①没有免费午餐定理
不存在某种算法对所有问题都有效
②丑小鸭定理
丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大(未给定具体条件的情况下)
③奥卡姆剃刀定理
若无必要,勿增实体
④归纳偏置
做出的假设称为归纳偏置,在贝叶斯学习中称为先验
⑤PAC学习
由大数定律,训练集趋于无穷大时,泛化误差趋近于0
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414426202-55.gif)
文章图片
![机器学习|神经网络(二)回归与线性模型](http://img.readke.com/220816/1414423S6-56.gif)
文章图片
???????
推荐阅读
- 机器学习|(8)机器学习——SVM、决策树、朴素贝叶斯、KNN、K-means、随机森林、Adaboost
- 机器学习|机器学习(八)KNN,SVM,朴素贝叶斯,决策树与随机森林
- 机器学习|神经网络(一)基本概念
- 基于深度学习的图像识别|#21天学习挑战赛—深度学习实战100例#——乳腺癌识别
- 深度学习|循环神经网络(RNN)实现股票预测
- 神经网络|神经网络方法研究及应用,神经网络算法简单例子
- 深度学习|神经网络讲解与实例,如何理解神经网络
- 深度学习|迁移学习 & 凯明初始化
- 关于点击率模型,你知道这三点就够了 点击率预估的几个经典模型简介