文本的离散表示(2022-03-07)
- one-hot表示
- 词袋模型
- TF-IDF
- N-gram
文章图片
文章图片
one-hot表示
"""
oneHotencoder举例
"""from sklearn import preprocessing
enc = preprocessing.OneHotEncoder()
enc.fit([[0,0,3],[1,1,0],[0,2,1],[1,0,2]])#fit来学习编码
res=enc.transform([[0,1,3]]).toarray()#结果转化为数组
print(res)
文章图片
词袋模型
文章图片
文章图片
"""
词袋模型
"""from sklearn.feature_extraction.text import CountVectorizertexts = ["orange banana apple grape","banana apple apple","grape","orange apple"]
cv =CountVectorizer()#统计词频(词袋模型)
cv_fit = cv.fit_transform(texts)# 训练文本
print(cv.vocabulary_)
print(cv_fit)#训练后的结果在矩阵中有值内容
print(cv_fit.toarray())#以后在做模型训练时,我们应该使用数组的模
文章图片
TF-IDF
文章图片
文章图片
"""
词频逆文档频率
"""from sklearn.feature_extraction.text import TfidfVectorizertexts = ["orange banana apple grape","banana apple apple","grape","orange apple"]cv = TfidfVectorizer()
cv_fit = cv.fit_transform(texts)#训练样本
print(cv.vocabulary_)#打印词汇表:4个单词,apple,banana,grape,orange
print(cv_fit)#非零的词权重
print(cv_fit.toarray)#数组形式
N-gram 【深度学习|NLP文本的离散表示】N-Gram是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。
文章图片
"""
n_garm
"""from sklearn.feature_extraction.text import CountVectorizertexts = ["orange banana apple grape",
"banana apple apple",
"grape",
"orange apple"]
ngram_vectorizer =CountVectorizer(ngram_range=(1,3),
decode_error="ignore",
token_pattern=r'\b\w+\b',
min_df=1)x1 = ngram_vectorizer.fit_transform(texts)
print(x1.toarray())
print(ngram_vectorizer.vocabulary_)
推荐阅读
- 深度学习(基于pytorch)|深度学习笔记(七)——pytorch数据处理工具箱(一)
- tensorflow|ubuntu18系统anaconda安装tensorflow
- 深度学习|【吴恩达深度学习】03_week2_quiz Autonomous driving (case study)
- 语义分割|cv2 interpolate插值-align_corners
- 大数据|升级版NanoDet-Plus来了!简单辅助模块加速训练收敛,精度大幅提升!
- python|3-张量API-下
- 目标检测算法讲解与部署|NanoDet代码逐行精读与修改(四)动态软标签分配(dynamic soft label assigner)
- 界面化小程序|女友问(你上班怎么摸鱼没被发现(我反手就给她开发了个桌面宠物—爽))
- 爬虫|Python爬虫(批量爬取变形金刚图片,下载保存到本地。)