元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)
论文:J. Rajasegaran, S. Khan, M. Hayat, F. S. Khan, M. Shah, itaml: An incremental task-agnostic meta-learning approach, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 13588–13597.
在CVPR2020上发表的一篇结合元学习和增量学习的文章,提出模型iTAML:提出学习一个任务不可知的模型,该模型自动预测任务,并通过元更新快速适应预测的任务。
【原创,转载需标明出处】论文解析(内含论文原文、代码链接):论文笔记 iTAML: An Incremental Task-Agnostic Meta-learning Approach
总体架构
文章图片
元更新的流程
文章图片
注意 Notion笔记中有关下图中红框中的箭头,部分点开会有详细的笔记信息(可能会被默认收进)
文章图片
【元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)】
推荐阅读
- 宽容谁
- 我要做大厨
- 增长黑客的海盗法则
- 画画吗()
- 2019-02-13——今天谈梦想()
- 远去的风筝
- 三十年后的广场舞大爷
- 叙述作文
- 20190302|20190302 复盘翻盘
- 学无止境,人生还很长