MATLAB之机器学习——BP神经网络

要开始慢慢谢谢自己的博客,作为一个刚刚开始写博客的萌新,将自己的想法,学习内容总结变成文字进行输出。不管写得怎样,有时间都会坚持写下去。(#^.^#)
MATLAB之机器学习——BP神经网络
文章图片

有什么建议,欢迎指正。
开始进入正题,上篇博客写了一个十分简单的三帧间差分法,其实存在很多的缺点的,会出现“空洞”现象,“双影”现象(物体轮廓太粗啦),不能提取区域物体的完整区域,只能提取轮廓,算法十分简单。
好像走题了,还没讲我们的“猪脚“——BP神经网络。
Backpropagation is a common method of teaching artificial neural networks how to perform a given task.这就是BP神经网络,简单讲就是信号的前项传播,误差的反向传播。
下面是一个简单的神经网络结构,第一层是输入层(3个神经元), 第二层是隐含层(2个神经元),第三层是输出层。
MATLAB之机器学习——BP神经网络
文章图片

BP神经网络算法,Goole上一大推。。。。。我在这推荐一篇。
我觉得BP神经网络中比较重要的就是数据归一化。
1.什么是数据归一化?
就是将数据映射到[0,1]或[-1,1]区间或其他的区间。
【MATLAB之机器学习——BP神经网络】2.为什么要数据归一化

  1. 输入数据的范围不一致,例如一些时0-10,一些是20-100,这样神经网络收敛慢、训练时间长。
  2. 数据范围大的输入在模式分类就会偏大,小的反之。
  3. 还有一个就是神经网络的输出层的激活函数使有限的
MATLAB之机器学习——BP神经网络
文章图片

3.归一化算法
y=(x-min)/(max-min)归一化到[0,1]
y=2*(x-min)/(max-min)-1归一化到[-1,1]
以上就是我对数据归一化的了解。下面附上我学习时的代码!
%% I. 清空环境变量 clear all clc%% II. 训练集/测试集产生 %% % 1. 导入数据 load spectra_data.mat%% % 2. 随机产生训练集和测试集 temp = randperm(size(NIR,1)); % 训练集——50个样本 P_train = NIR(temp(1:50),:)'; T_train = octane(temp(1:50),:)'; % 测试集——10个样本 P_test = NIR(temp(51:end),:)'; T_test = octane(temp(51:end),:)'; N = size(P_test,2); %% III. 数据归一化 [p_train, ps_input] = mapminmax(P_train,0,1); p_test = mapminmax('apply',P_test,ps_input); [t_train, ps_output] = mapminmax(T_train,0,1); %% IV. BP神经网络创建、训练及仿真测试 %% % 1. 创建网络 net = newff(p_train,t_train,9); %% % 2. 设置训练参数 net.trainParam.epochs = 1000; net.trainParam.goal = 1e-3; net.trainParam.lr = 0.01; %% % 3. 训练网络 net = train(net,p_train,t_train); %% % 4. 仿真测试 t_sim = sim(net,p_test); %% % 5. 数据反归一化 T_sim = mapminmax('reverse',t_sim,ps_output); %% V. 性能评价 %% % 1. 相对误差error error = abs(T_sim - T_test)./T_test; %% % 2. 决定系数R^2 R2 = (N * sum(T_sim .* T_test) - sum(T_sim) * sum(T_test))^2 / ((N * sum((T_sim).^2) - (sum(T_sim))^2) * (N * sum((T_test).^2) - (sum(T_test))^2)); %% % 3. 结果对比 result = [T_test' T_sim' error']%% VI. 绘图 figure plot(1:N,T_test,'b:*',1:N,T_sim,'r-o') legend('真实值','预测值') xlabel('预测样本') ylabel('辛烷值') string = {'测试集辛烷值含量预测结果对比'; ['R^2=' num2str(R2)]}; title(string)

哇哇!!发现写一篇博客是真的难受,发现自己写的和自己想的出入还是很大的!
学习的内容输入和输出终究还是不成正比的。
代码数据集在这里上传

    推荐阅读