零基础入门NLP-Task4|零基础入门NLP-Task4 基于深度学习的文本分类1
零基础入门NLP-新闻文本分类【Task4】
- Task4 基于深度学习的文本分类1
- 学习目标
- 文本表示方法
- 基于FastText的文本分类
- 如何使用验证集调参
- 本章小结
Task4 基于深度学习的文本分类1 学习目标
- 学习FastText的使用和基础原理
- 学会使用验证集进行调参
FastText 使用词袋以及 n-gram 袋表征语句,使用子字(subword)信息,并通过隐藏表征在类别间共享信息,另外采用一个softmax层级来加速运算过程。
FastText 的架构和 word2vec 中的CBOW的架构类似。
Continuous Bog-Of-Words的模型框架:
![零基础入门NLP-Task4|零基础入门NLP-Task4 基于深度学习的文本分类1](https://img.it610.com/image/info8/8fb91e868ec845ebb7ec1e26c7c742e6.jpg)
文章图片
FastText 的模型框架:
FastText在文本分类任务上,是优于TF-IDF的:
- FastText用单词的Embedding叠加获得的文档向量,将相似的句子分为一类
- FastText学习到的Embedding空间维度比较低,可以快速进行训练
# coding:utf-8
from __future__ import unicode_literalsfrom keras.models import Sequential
from keras.layers import Embedding
from keras.layers import GlobalAveragePooling1D
from keras.layers import DenseVOCAB_SIZE = 2000
EMBEDDING_DIM = 100
MAX_WORDS = 500
CLASS_NUM = 5def build_fastText():
model = Sequential()
# 通过 embedding 层,我们将词汇映射成 EMBEDDING_DIM 维向量
model.add(Embedding(VOCAB_SIZE, EMBEDDING_DIM, input_length=MAX_WORDS))
# 通过 GlobalAveragePooling1D ,我们平均了文档中所有词的 embedding
model.add(GlobalAveragePooling1D())
# 通过输出层 Softmax 分类(真实的 fastText 这里是分层 Softmax),得到类别概率分布
model.add(Dense(CLASS_NUM, activation='softmax'))
# 定义损失函数、优化器、分类度量指标
model.compile(loss='categorical_crossentropy', optimizer='SGD', metrics=['accuracy'])
return modelif __name__ == '__main__':
model = build_fastText()
print(model.summary())
基于FastText的文本分类 使用 FastText 对赛题的新闻数据进行文本分类
import pandas as pd
from sklearn.metrics import f1_score# 转换为FastText需要的格式
train_df = pd.read_csv('../input/train_set.csv', sep='\t', nrows=15000)
train_df['label_ft'] = '__label__' + train_df['label'].astype(str)
train_df[['text','label_ft']].iloc[:-5000].to_csv('train.csv', index=None, header=None, sep='\t')import fasttext
model = fasttext.train_supervised('train.csv', lr=1.0, wordNgrams=2,
verbose=2, minCount=1, epoch=25, loss="hs")val_pred = [model.predict(x)[0][0].split('__')[-1] for x in train_df.iloc[-5000:]['text']]
print(f1_score(train_df['label'].values[-5000:].astype(str), val_pred, average='macro'))
此时数据量比较小得分为0.82,当不断增加训练集数量时,FastText的精度也会不断增加5w条训练样本时,验证集得分可以到0.89-0.90左右。
如何使用验证集调参 在使用TF-IDF和FastText中,有一些模型的参数需要选择,这些参数会在一定程度上影响模型的精度,那么如何选择这些参数呢?
- 通过阅读文档,要弄清楚这些参数的大致含义,那些参数会增加模型的复杂度
- 通过在验证集上进行验证模型精度,找到模型在是否过拟合还是欠拟合
这里我们使用10折交叉验证,每折使用9/10的数据进行训练,剩余1/10作为验证集检验模型的效果。这里需要注意每折的划分必须保证标签的分布与整个数据集的分布一致。
label2id = {}
for i in range(total):
label = str(all_labels[i])
if label not in label2id:
label2id[label] = [i]
else:
label2id[label].append(i)
通过10折划分,我们一共得到了10份分布一致的数据,索引分别为0到9,每次通过将一份数据作为验证集,剩余数据作为训练集,获得了所有数据的10种分割。不失一般性,我们选择最后一份完成剩余的实验,即索引为9的一份做为验证集,索引为1-8的作为训练集,然后基于验证集的结果调整超参数,使得模型性能更优。
本章小结 本章介绍了FastText的原理和基础使用,并进行相应的实践。然后介绍了通过10折交叉验证划分数据集。
推荐阅读
- 日志打卡
- Python基础|Python基础 - 练习1
- Java|Java基础——数组
- Java基础-高级特性-枚举实现状态机
- 营养基础学20180331(课间随笔)??
- iOS面试题--基础
- HTML基础--基本概念--跟着李南江学编程
- 八零后也已经老了
- typeScript入门基础介绍
- c++基础概念笔记