决策函数:sigmoid
文章图片
损失函数:cross-entropy
文章图片
文章图片
为什么不用平方误差做损失函数?
文章图片
因为我们希望接近最优解的地方梯度小,而远离最优解的地方梯度大。从下图可以看出来,平方误差不满足我们的要求。平方误差在这里不好用是因为sigmoid的导数有一个f项,线性回归使用平方误差就没有这个问题。
文章图片
文章图片
文章图片
逻辑回归的缺点:对数据严格线性不可分的情况无能为力。
文章图片
解决办法:特征转换,使得转换后的数据线性可分。转换规则一般不好设定,有一种方法是级联逻辑回归模型,或者用核方法。
文章图片
【机器学习|机器学习笔记——逻辑回归】
推荐阅读
- python|机器学习python——线性回归模型的正规方程(吴恩达课后作业)
- Azure|Azure(什么是回归)
- 机器学习|机器学习笔记——逻辑回归之二分类
- 大数据|UCLA李婧翌(女性最不需要做的就是「怀疑自己」| 妇女节特辑)
- #|基于蒙特卡洛法的规模化电动汽车充电负荷预测(Python&Matlab实现)
- 可视化|用可视化探索数据特征的N种姿势
- 机器学习|AlexNet网络结构详解及TensorFlow代码实现
- 深度学习|一文理解深度学习框架中的InstanceNorm
- 人工智能|抢工程师的饭碗(业内人士这样评价AlphaCode | 今夜科技谈)