神经网络逼近函数c语言 c语言 神经网络( 五 )


(2)方法:ReLU函数在训练多层神经网络时 , 更容易收敛,并且预测性能更好 。
(3)优点:① 易于构建 , 表达能力强 , 基本单元便可扩展为复杂的非线性函数
② 并行性号,有利于在分布是系统上应用
(4)局限:① 优化算法只能获得局部极值 , 性能与初始值相关
② 调参理论性缺乏
③ 不可解释,与实际任务关联性模糊
(1)原理:由手工设计卷积核变成自动学习卷积核
(2)卷积(Convolutional layer): 输入与卷积核相乘再累加 (内积、加权叠加)
① 公式:
② 目的:提取输入的不同特征 , 得到维度很大的 特征图(feature map)
③ 卷积核:需要训练的参数 。一般为奇数维,有中心像素点,便于定位卷积核
④ 特点:局部感知、参数变少、权重共享、分层提取
(3)池化(Pooling Layer):用更高层的抽象表达来表示主要特征 , 又称“降采样”
① 分类: 最大 (出现与否)、平均(保留整体)、随机(避免过拟合)
② 目的:降维,不需要训练参数,得到新的、维度较小的特征
(4)步长(stride):若假设输入大小是n?n,卷积核的大小是f?f,步长是s,则最后的feature map的大小为o?o , 其中
(5)填充(zero-padding)
① Full模式:即从卷积核(fileter)和输入刚相交开始做卷积 , 没有元素的部分做补0操作 。
② Valid模式:卷积核和输入完全相交开始做卷积,这种模式不需要补0 。
③ Same模式:当卷积核的中心C和输入开始相交时做卷积 。没有元素的部分做补0操作 。
(7)激活函数:加入非线性特征
(8)全连接层(Fully-connected layer)
如果说卷积层、池化层和激活函数层等是将原始数据映射到隐层特征空间(决定计算速度) , 全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用(决定参数个数) 。
参考:
[1]神经网络(入门最详细)_ruthy的博客-CSDN博客_神经网络算法入门
[2]神经网络(容易被忽视的基础知识) - Evan的文章 - 知乎
[3]人工神经网络——王的机器
[4]如何简单形象又有趣地讲解神经网络是什么神经网络逼近函数c语言? - 舒小曼的回答 - 知乎
[5]神经网络15分钟入门!足够通俗易懂了吧 - Mr.括号的文章 - 知乎
[6]神经网络——最易懂最清晰的一篇文章_illikang的博客-CSDN博客_神经网络
[7]直觉化深度学习教程——什么是前向传播——CSDN
[8]“反向传播算法”过程及公式推导(超直观好懂的Backpropagation)_aift的专栏-CSDN
[9]卷积、反卷积、池化、反池化——CSDN
[10]浙大机器学习课程- bilibili.com
关于神经网络逼近函数c语言和c语言 神经网络的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息 , 记得收藏关注本站 。

推荐阅读