算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)

点击上方,选择星标或置顶,每天给你送干货! 鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI 2020年,GPT-3可谓火出了圈。
不仅讲故事的本职工作做得风生水起,还跨界玩起了网页设计、运维、下象棋……
不过,尽管表现惊艳,GPT-3背后到底是实实在在的1750亿参数,想要在实际应用场景中落地,难度着实不小。
现在,针对这个问题,普林斯顿的陈丹琦、高天宇师徒和MIT博士生Adam Fisch在最新论文中提出,使用较小的语言模型,并用少量样本来微调语言模型的权重。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

并且,实验证明,这一名为LM-BFF(better few-shot fine-tuning fo language models)的方法相比于普通微调方法,性能最多可以提升30%。
详情如何,一起往下看。
方法原理 首先,研究人员采用了基于提示的预测路线。
所谓基于提示的预测,是将下游任务视为一个有遮盖(mask)的语言建模问题,模型会直接为给定的提示生成文本响应。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

这里要解决的问题,是寻找正确的提示。这既需要该领域的专业知识,也需要对语言模型内部工作原理的理解。
在本文中,研究人员提出引入一个新的解码目标来解决这个问题,即使用谷歌提出的T5模型,在指定的小样本训练数据中自动生成提示。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

其次,研究人员在每个输入中,以额外上下文的形式添加了示例。
问题的关键在于,要有限考虑信息量大的示例,一方面,因为可用示例的数量会受到模型最大输入长度的限制;另一方面,不同类型的大量随机示例混杂在一起,会产生很长的上下文,不利于模型学习。
为此,研究人员开发了一种动态的、有选择性的精细策略:对于每个输入,从每一类中随机抽取一个样本,以创建多样化的最小演示集。
另外,研究人员还设计了一种新的抽样策略,将输入与相似的样本配对,以此为模型提供更多有价值的比较。
实验结果 【算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)】那么,这样的小样本学习方法能实现怎样的效果?
研究人员在8个单句、7个句子对NLP任务上,对其进行了系统性评估,这些任务涵盖分类和回归。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

结果显示:

  • 基于提示的微调在很大程度上优于标准微调;
  • 自动提示搜索能匹敌、甚至优于手动提示;
  • 加入示例对于微调而言很有效,并提高了少样本学习的性能。

算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

在K=16(即每一类样本数为16)的情况下,从上表结果可以看到,该方法在所有任务中,平均能实现11%的性能增益,显著优于标准微调程序。在SNLI任务中,提升达到30%。
不过,该方法目前仍存在明显的局限性,性能仍大大落后于采用大量样本训练获得的微调结果。
关于作者 论文有两位共同一作。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

高天宇,清华大学本科生特等奖学金获得者,本科期间即发表4篇顶会论文,师从THUNLP实验室的刘知远副教授。

今年夏天,他本科毕业后赴普林斯顿攻读博士,师从本文的另一位作者陈丹琦。
此前,量子位曾经分享过他在写论文、做实验、与导师相处方面的经验。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

Adam Fisch,MIT电气工程与计算机科学专业在读博士,是CSAIL和NLP研究小组的成员,主要研究方向是应用于NLP的迁移学习和多任务学习。
他本科毕业于普林斯顿大学,2015-2017年期间曾任Facebook AI研究院研究工程师。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

至于陈丹琦大神,想必大家已经很熟悉了。她本科毕业于清华姚班,后于斯坦福大学拿下博士学位,2019年秋成为普林斯顿计算机科学系助理教授。
最后,该论文代码即将开源,如果还想了解更多论文细节,请戳文末论文链接详读~
传送门 论文地址:
https://arxiv.org/abs/2012.15723v1
项目地址:
https://github.com/princeton-nlp/LM-BFF
说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:
(1)点击页面最上方“深度学习自然语言处理”,进入公众号主页。
(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
算法|【前沿】陈丹琦团队最新论文(受GPT-3启发,用小样本学习给语言模型做微调,性能最高提升30%...)
文章图片

记得备注呦
推荐两个专辑给大家:
专辑 | 李宏毅人类语言处理2020笔记
专辑 | NLP论文解读
专辑 | 情感分析

整理不易,还望给个在看!

    推荐阅读