图文详解梯度下降算法的原理及Python实现

目录

  • 1.引例
  • 2.数值解法
  • 3.梯度下降算法
  • 4.代码实战:Logistic回归

1.引例 给定如图所示的某个函数,如何通过计算机算法编程求f(x)min?
图文详解梯度下降算法的原理及Python实现
文章图片


2.数值解法 传统方法是数值解法,如图所示
图文详解梯度下降算法的原理及Python实现
文章图片

按照以下步骤迭代循环直至最优:
① 任意给定一个初值x0;
② 随机生成增量方向,结合步长生成Δx;
③ 计算比较f(x0)与f(x0+Δx)的大小,若f(x0+Δx) ④ 重复②③直至收敛到最优f(x)min。
数值解法最大的优点是编程简明,但缺陷也很明显:
① 初值的设定对结果收敛快慢影响很大;
② 增量方向随机生成,效率较低;
③ 容易陷入局部最优解;
④ 无法处理“高原”类型函数。
所谓陷入局部最优解是指当迭代进入到某个极小值或其邻域时,由于步长选择不恰当,无论正方向还是负方向,学习效果都不如当前,导致无法向全局最优迭代。就本问题而言如图所示,当迭代陷入x=xj时,由于学习步长step的限制,无法使f(xj±Step) 图文详解梯度下降算法的原理及Python实现
文章图片

若出现下图所示的“高原”函数,也可能使迭代得不到更新。
图文详解梯度下降算法的原理及Python实现
文章图片


3.梯度下降算法 梯度下降算法可视为数值解法的一种改进,阐述如下:
记第k轮迭代后,自变量更新为x=xk,令目标函数f(x)在x=xk泰勒展开:
f(x)=f(xk?)+f′(xk?)(x?xk?)+o(x)
考察f(x)min ,则期望f(xk+1) f(xk+1?)?f(xk?)=f′(xk?)(xk+1??xk?)<0
若f′(xk)>0则xk+1 在工程上,学习率γ \gammaγ要结合实际应用合理选择,γ \gammaγ过大会使迭代在极小值两侧振荡,算法无法收敛;γ \gammaγ过小会使学习效率下降,算法收敛慢。
对于向量 ,将上述迭代公式推广为
xk+1?=xk??γ?xk??
其中
图文详解梯度下降算法的原理及Python实现
文章图片

为多元函数的梯度,故此迭代算法也称为梯度下降算法
图文详解梯度下降算法的原理及Python实现
文章图片

梯度下降算法通过函数梯度确定了每一次迭代的方向和步长,提高了算法效率。但从原理上可以知道,此算法并不能解决数值解法中初值设定、局部最优陷落和部分函数锁死的问题。

4.代码实战:Logistic回归
import pandas as pdimport numpy as npimport osimport matplotlib.pyplot as pltimport matplotlib as mplfrom Logit import Logit'''* @breif: 从CSV中加载指定数据* @param[in]: file -> 文件名* @param[in]: colName -> 要加载的列名* @param[in]: mode -> 加载模式, set: 列名与该列数据组成的字典, df: df类型* @retval: mode模式下的返回值'''def loadCsvData(file, colName, mode='df'):assert mode in ('set', 'df')df = pd.read_csv(file, encoding='utf-8-sig', usecols=colName)if mode == 'df':return dfif mode == 'set':res = {}for col in colName:res[col] = df[col].valuesreturn resif __name__ == '__main__':# ============================# 读取CSV数据# ============================csvPath = os.path.abspath(os.path.join(__file__, "../../data/dataset3.0alpha.csv"))dataX = loadCsvData(csvPath, ["含糖率", "密度"], 'df')dataY = loadCsvData(csvPath, ["好瓜"], 'df')label = np.array([1 if i == "是" else 0for i in list(map(lambda s: s.strip(), list(dataY['好瓜'])))])# ============================# 绘制样本点# ============================line_x = np.array([np.min(dataX['密度']), np.max(dataX['密度'])])mpl.rcParams['font.sans-serif'] = [u'SimHei']plt.title('对数几率回归模拟\nLogistic Regression Simulation')plt.xlabel('density')plt.ylabel('sugarRate')plt.scatter(dataX['密度'][label==0],dataX['含糖率'][label==0],marker='^',color='k',s=100,label='坏瓜')plt.scatter(dataX['密度'][label==1],dataX['含糖率'][label==1],marker='^',color='r',s=100,label='好瓜')# ============================# 实例化对数几率回归模型# ============================logit = Logit(dataX, label)# 采用梯度下降法logit.logitRegression(logit.gradientDescent)line_y = -logit.w[0, 0] / logit.w[1, 0] * line_x - logit.w[2, 0] / logit.w[1, 0]plt.plot(line_x, line_y, 'b-', label="梯度下降法")# 绘图plt.legend(loc='upper left')plt.show()

图文详解梯度下降算法的原理及Python实现
文章图片

【图文详解梯度下降算法的原理及Python实现】到此这篇关于图文详解梯度下降算法的原理及Python实现的文章就介绍到这了,更多相关Python梯度下降算法内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    推荐阅读