文章图片
用同一个模型能解决很多任务
【[李宏毅-机器学习]终身学习 Life-long learning】
文章图片
knowledge retention
文章图片
在task1上训练的model,在用于task2的训练后,发现在task1上的performance就下降了
文章图片
文章图片
让在新任务上学习到的参数,使得其与之前任务上得到的参数的距离不是很远,每个参数都有一个b来控制它的重要程度
文章图片
文章图片
文章图片
knowledge transfer
文章图片
文章图片
文章图片
model expansion
文章图片
文章图片
推荐阅读
- C语言学习|第十一届蓝桥杯省赛 大学B组 C/C++ 第一场
- paddle|动手从头实现LSTM
- pytorch|使用pytorch从头实现多层LSTM
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- pytorch|YOLOX 阅读笔记
- 前沿论文|论文精读(Neural Architecture Search without Training)
- 联邦学习|【阅读笔记】Towards Efficient and Privacy-preserving Federated Deep Learning
- OpenCV|OpenCV-Python实战(18)——深度学习简介与入门示例
- 深度学习|深度学习笔记总结
- 《繁凡的深度学习笔记》|一文绝对让你完全弄懂信息熵、相对熵、交叉熵的意义《繁凡的深度学习笔记》第 3 章 分类问题与信息论基础(中)(DL笔记整理