Simple and Effective Multi-Paragraph Reading Comprehension读书笔记

发表于ACL2018
从paragraph QA到多paragraph QA有两种常用方法:pipeline方法先选取一个paragr,再用paragraph QA;confidence方法对所有paragraph都找答案并给出置信度,最后输出最高的。但后者较难训练。
本文首先改进了pipeline方法,再结合confidence方法,取得了STOA的效果。
用TF-IDF+classifier选取paragraph,利用sum objective function解决多答案噪音问题。
【Simple and Effective Multi-Paragraph Reading Comprehension读书笔记】对于多paragraph QA,直接用上述模型的(未归一化)输出作为confidence效果不好。提出四种方法:shared-normalization,merge,No-answer option和Sigmoid。


    推荐阅读