元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)

论文:J. Rajasegaran, S. Khan, M. Hayat, F. S. Khan, M. Shah, itaml: An incremental task-agnostic meta-learning approach, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 13588–13597.
在CVPR2020上发表的一篇结合元学习和增量学习的文章,提出模型iTAML:提出学习一个任务不可知的模型,该模型自动预测任务,并通过元更新快速适应预测的任务。
【原创,转载需标明出处】论文解析(内含论文原文、代码链接):论文笔记 iTAML: An Incremental Task-Agnostic Meta-learning Approach
总体架构 元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)
文章图片

元更新的流程 元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)
文章图片

注意 Notion笔记中有关下图中红框中的箭头,部分点开会有详细的笔记信息(可能会被默认收进)
元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)
文章图片






【元学习|【元学习】iTAML论文精读(持续/增量学习下与任务无关的元学习模型)】

    推荐阅读