公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)

“最近刚好在用ERNIE写毕业论文”“感觉还挺厉害的”“为什么叫ERNIE啊,这名字有什么深意吗?”“我想让艾尼帮我写作业”
看了上面火热的讨论,你一定很好奇“艾尼”、“ERNIE”到底是个啥? 自然语言处理( Natural Language Processing,简称NLP )被誉为人工智能“皇冠上的明珠”。 NLP为各类企业及开发者提供用于文本分析及挖掘的核心工具,已经广泛应用在电商、文化娱乐、金融、物流等行业客户的多项业务中。 而艾尼(ERNIE),可谓是目前NLP领域的最强中文预训练模型。 9月5日,百度资深研发工程师龙老师,就通过直播带开发者走近最强中文NLP预训练模型ERNIE,在线上解读了一系列艾尼ERNIE的强大特性,并现场与同为NLP模型的BERT直接PK,让开发者连连感叹,希望能把ERNIE运用到自己的工作与生活之中。 错过了直播没关系,让我们来回顾一下课上都讲了啥~ 什么是艾尼(ERINE)? 艾尼(ERNIE)是百度自研的持续学习语义理解框架,该框架支持增量引入词汇(lexical)、语法 (syntactic) 、语义(semantic)等3个层次的自定义预训练任务,能够全面捕捉训练语料中的词法、语法、语义等潜在信息。 这些任务通过多任务学习对模型进行训练更新,每当引入新任务时,该框架可在学习该任务的同时,不遗忘之前学到过的知识。 这也意味着,该框架可以通过持续构建不同的预训练任务,持续提升模型效果。 因此ERNIE具有了更好的语义理解能力。 公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)
文章图片

ERNIE 2.0持续学习语义理解框架 ERNIE好用么? 好不好用,摆事实才知道。 直播环节中,龙老师直接用填空题的形式展示了ERNIE与BERT在填空方面的表现。 例如题目: 中国历史上唯一的正统女皇帝是[? ][? ][? ],下面是直播中两种算法的表现: 公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)
文章图片
ERNIE的结果是“武则天”,而BERT的结果是“宋太帝”。 ERNIE能输出“武则天”说明它确实能学到“武则天”与“女皇帝”之间的关联。
而BERT输出的“宋太帝”虽然每个字“宋”、“太”、“帝”都与“皇帝”相关,但是连在一起就不是一个完整的词,而且也不能与“女皇帝”的形成照应。 再如,陈晓的妻子是[? ][? ][? ] 公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)
文章图片
ERNIE用答案向我们证明了自己不只懂百科,也懂八卦。
通过上面的DEMO测试,我们也就引出了这样一个问题: ERNIE和BERT最大的区别是什么? ERNIE1.0能够充分学习词语、短语、命名实体识别中字与字之间的关系,将其整体进行掩码。 而BERT不具备这样的能力。 ERNIE2.0则通过持续构造辅助任务让ERNIE进行学习,会的任务越多能力越强大。 这与BERT只靠一两个任务进行预训练的思路是完全不同的。 就像小学生做题,一直只练一种题型肯定是不行的,需要多种题型都会做,既要有专项突破也要有综合练习,这样才能成为真正的学霸。 随着多样的训练数据的增加,ERNIE通过持续学习就能够学得越来越好。 ERNIE作为模型,也需要与深度学习框架深度配合,才能实现最佳的效果。 百度开源的深度学习框架飞桨(PaddlePaddle)对ERNIE模型有非常好的定制优化,使得其加速比达到77%,可以说是ERNIE背后的神助攻。 ERNIE借助飞桨PaddlePaddle多机分布式训练优势,利用79亿tokens训练数据(约1/4的 XLNet 数据)和64张V100(约1/8的XLNet 硬件算力)训练的ERNIE 2.0预训练模型不仅实现了在中英文16个任务上的最优效果,而且为开发人员定制自己的 NLP 模型提供了方案。 目前,百度开源了ERNIE 2.0的Fine-tuning代码和英文预训练模型。 本次基于艾尼ERNIE的直播,同步在爱奇艺、IT大咖说、BiliBili、虎牙、斗鱼五个平台同步直播,收到了近3W开发者的关注与讨论。 直播回放视频已经上线,欢迎大家继续学习~ 回顾ERNIE的原理、优势以及案例,请戳 阅读原文 或以下链接查看回放视频: http://play.itdks.com/watch/8591895 【公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)】公开课视频(七)(最强中文NLP预训练模型艾尼ERNIE官方揭秘)
文章图片

    推荐阅读