TCN|TCN时间卷积网络信息归纳整合

【TCN|TCN时间卷积网络信息归纳整合】看了一些关于TCN的分析文章,边看边归纳了张表格辅助记忆

名称 TCN
优点 1、TCN 可以比LSTM更实在的留住长远以前的记忆
2、整个框架设计上比 LSTM 更为简单和精确。
缺点 \
特点 1、稳定性
其卷积网络层层之间是有因果关系的,意味着不会有“漏接”的历史信息或是未来数据的情况发生
2、预判机制
可以根据一个已知序列出现的先后顺序去评判未来的 t 时间点上,什么东西出现的可能性更合适。
3、并行性
由于CNN每一层使用相同的卷积核,因此一个长序列输入可以用TCN并行处理
4、灵活的感受视野
比如改变卷积核的参数,容易控制模型的记忆大小;
5、 固定的梯度
6、 更小的内存训练
7、可变的输入长度
技术 1、Gradient Descent 和 backpropagation训练
2、Causal Convolutions 思维可以用来应付“不漏接”的初衷,卷积层在 t 时间的 output 只与当层和前一个层的元素做卷积
3、1D 的 fully-convolutional network (FCN) ,让每个输出层都可以保持和输入层一样多的长宽被继续传递,使用的手法是 zero padding
4、Dilated Convolutions 来解决反向训练的问题
精确度 1、在下列数据集中,TCN 都得到了比 RNN 更为准确的结果。
数据集 1、Polyphonic music model
2、Words and character-level language model
3、Synthetic stress tests
链接 https://github.com/LOCUSLAB/tcn
公式 Dilated Convolutions 运作在 s 元素上,并有一个 filter: {0, 1, 2, …, k-1} 其内部的元素都是实数 R,公式描述如下(空洞卷积核):TCN|TCN时间卷积网络信息归纳整合
文章图片
相关图 TCN|TCN时间卷积网络信息归纳整合
文章图片

    推荐阅读