Bert的基本使用:参考:https://www.jianshu.com/p/bfd0148b292e
bert词向量输出:https://blog.csdn.net/luoyexuge/article/details/84939755
基于bert的实体识别:https://github.com/lbda1/BERT-NER
谷歌开源的bert代码以及提供的训练好的模型:https://github.com/google-research/bert
对bert进行封装,提供一个输入给出对应的向量:https://github.com/lbda1/bert-as-service
Bert的各种模型:
https://www.jianshu.com/p/bfd0148b292e
https://blog.csdn.net/u012526436/article/details/84637834
Bert模型的学习:
https://www.jianshu.com/p/160c4800b9b5
【Bert的使用】Bert-Serving学习:
https://pypi.org/project/bert-serving-server/
推荐阅读
- 人工智能|hugginface-introduction 案例介绍
- 中文分词预处理之N最短路径法小结(转)
- 深度学习|2019年CS224N课程笔记-Lecture 17:Multitask Learning
- 深度学习|2018年度总结和2019年度计划
- BERT微调做中文文本分类
- 【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类Bert
- 【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类Word2Vec
- 自然语言处理|答案选择|语义匹配任务目前表现最好的几个模型
- 深度学习|NLP重铸篇之BERT如何微调文本分类
- NLP实践-Task1