sklearn中的数据预处理工程
概述
数据与处理与特征工程
数据挖掘的五大流程: |
---|
1. 获取数据 2. 数据预处理数据预处理是从数据中检测,纠正或删除损坏,不准确或不适用于模型的记录的过程 可能面对的问题有:数据类型不同,比如有的是文字,有的是数字,有的含时间序列,有的连续,有的间断。也可能,数据的质量不行,有噪声,有异常,有缺失,数据出错,量纲不一,有重复,数据是偏态,数据量太大或太小 数据预处理的目的:让数据适应模型,匹配模型的需求 3. 特征工程:特征工程是将原始数据转换为更能代表预测模型潜在问题的特征的过程,可以通过挑选最相关的特征,提取特征以及创造特征来实现。其中创造特征又经常以降维算法的方式实现。 可能面对的问题有:特征之间有相关性,特征和标签无关,特征太多或太小,或者干脆就无法表现出应有的数据现象或无法展示数据的 真实面貌特征工程的目的:1) 降低计算成本,2) 提升模型上限 4. 建模,测试模型并预测出结果 5. 上线,验证模型效果 |
sklearn中包含众多数据预处理和特征工程相关的模块,虽然刚接触sklearn时,大家都会为其中包含的各种算法的广度深度所震惊,但其实sklearn六大板块中有两块都是关于数据预处理和特征工程的,两个板块互相交互,为建模之前的全部工程打下基础。
- 模块preprocessing:几乎包含数据预处理的所有内容
- 模块Impute:填补缺失值专用
- 模块feature_selection:包含特征选择的各种方法的实践
- 模块decomposition:包含降维算法
在机器学习算法实践中,我们往往有着将不同规格的数据转换到同一规格,或不同分布的数据转换到某个特定分布的需求,这种需求统称为将数据“无量纲化”。譬如梯度和矩阵为核心的算法中,譬如逻辑回归,支持向量机,神经网络,无量纲化可以加快求解速度;而在距离类模型,譬如K近邻,K-Means聚类中,无量纲化可以帮我们提升模型精度,避免某一个取值范围特别大的特征对距离计算造成影响。(一个特例是决策树和树的集成算法们,对决策树我们不需要无量纲化,决策树可以把任意数据都处理得很好。)
数据的无量纲化可以是线性的,也可以是非线性的。线性的无量纲化包括中心化(Zero-centered或者Meansubtraction)处理和缩放处理(Scale)。中心化的本质是让所有记录减去一个固定值,即让数据样本数据平移到某个位置。缩放的本质是通过除以一个固定值,将数据固定在某个范围之中,取对数也算是一种缩放处理。
- preprocessing.MinMaxScaler
x ? = x ? m i n ( x ) m a x ( x ) ? m i n ( x ) x^*=\frac{x-min(x)}{max(x)-min(x)} x?=max(x)?min(x)x?min(x)?
在sklearn当中,我们使用preprocessing.MinMaxScaler来实现这个功能。MinMaxScaler有一个重要参数,feature_range,控制我们希望把数据压缩到的范围,默认是[0,1]。
from sklearn.preprocessing import MinMaxScaler
data = https://www.it610.com/article/[[-1, 2], [-0.5, 6], [0, 10], [1, 18]]
import pandas as pd
pd.Dataframe(data)scaler = MinMaxScaler() #实例化
scaler = scaler.fit(data) #fit,在这里本质是生成min(x)和max(x)
result = scaler.transform(data) #通过接口导出结果
resultresult_ = scaler.fit_transform(data) #训练和导出结果一步达成
scaler.inverse_transform(result) #将归一化后的结果逆转
#使用MinMaxScaler的参数feature_range实现将数据归一化到[0,1]以外的范围中data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]
scaler = MinMaxScaler(feature_range=[5,10]) #依然实例化
preprocessing.StandardScaler#当数据(x)按均值(μ)中心化后,再按标准差(σ)缩放,数据就会服从为均值为0,方差为1的正态分布(即标准正态分
#布),而这个过程,就叫做数据标准化(Standardization,又称Z-score normalization),公式如下:result = scaler.fit_transform(data) #fit_transform一步导出结果
result
#当X中的特征数量非常多的时候,fit会报错并表示,数据量太大了我计算不了
#此时使用partial_fit作为训练接口
#scaler = scaler.partial_fit(data)
- preprocessing.StandardScaler
x ? = x ? μ σ x^*=\frac{x-μ}{σ} x?=σx?μ?
from sklearn.preprocessing import StandardScaler
data = https://www.it610.com/article/[[-1, 2], [-0.5, 6], [0, 10], [1, 18]]scaler = StandardScaler() #实例化
scaler.fit(data) #fit,本质是生成均值和方差scaler.mean_ #查看均值的属性mean_
scaler.var_ #查看方差的属性var_x_std = scaler.transform(data) #通过接口导出结果x_std.mean() #导出的结果是一个数组,用mean()查看均值
x_std.std() #用std()查看方差scaler.fit_transform(data) #使用fit_transform(data)一步达成结果
scaler.inverse_transform(x_std) #使用inverse_transform逆转标准化
对于StandardScaler和MinMaxScaler来说,空值NaN会被当做是缺失值,在fit的时候忽略,在transform的时候保持缺失NaN的状态显示。并且,尽管去量纲化过程不是具体的算法,但在fit接口中,依然只允许导入至少二维数组,一维数组导入会报错。通常来说,我们输入的X会是我们的特征矩阵,现实案例中特征矩阵不太可能是一维所以不会存在这个问题。
缺失值
机器学习和数据挖掘中所使用的数据,永远不可能是完美的。很多特征,对于分析和建模来说意义非凡,但对于实际收集数据的人却不是如此,因此数据挖掘之中,常常会有重要的字段缺失值很多,但又不能舍弃字段的情况。因此,数据预处理中非常重要的一项就是处理缺失值。
import pandas as pd
data = https://www.it610.com/article/pd.read_csv(",/Narrativedata.csv")data.drop(labels="Unnamed: 0",axis=1,inplace=True)#删除列索引位Unnamed:0这一列data.loc[:,"Age"] = SimpleImputer(strategy="median").fit_transform(data.loc[:,"Age"].values.reshape(-1,1))#将训练,训练模型导出覆盖源数据等操作一行实现
print(data.info())#发现Embarked这一列缺失两个数据,由于缺失值少,所以直接删除缺失数据的两行data.dropna(axis=0,inplace=Ture)#删除缺失数据的两行data.iloc[:,-1] = LabelEncoder().fit_transform(data.iloc[:,-1])#分类标签
result = OneHotEncoder(categories="auto").fit_transform(data.iloc[:,1:-1]).toarray()#将第一列至倒数第二列的数据转换位哑变量,并转为位数组newdata = https://www.it610.com/article/pd.concat([data,pd.DataFrame(result)],axis=1)#将result与data合并newdata.dropna(axis=0,inplace=True)#将含有缺失值的数据删除
newdata.drop(["Sex","Embarked"],axis=1,inplace=True)#将前两行删除
newdata.columns = ["Age","Survived","Female","Male","Embarked_C","Embarked_Q","Embarked_S"]#重新命名列索引
编码与哑变量 | 功能 | 重要参数 | 重要属性 | 重要接口 |
---|---|---|---|---|
.LabelEncoder | 分类标签编码 | N/A | .categories | fiit transform fit_transform inverse_transform |
.OrdinalEncoder | 分类特征编码 | N/A | .categories | fit transfrom fit_transform inverse_transform |
.OneHotEncoder | 独热编码,为名义变量创建哑变量 | categories:每个特征都有哪些类别,默认"auto" | .categories查看特征中究竟有多少类别 | fit transform fit_transform inverse_transform get_feature_names:查看生成的哑变量中每一列都有什么样的值 |
推荐阅读
- sklearn|数据挖掘的五大流程、sklearn中常用的模块介绍、数据预处理、特征选择(过滤法+Embedded嵌入法+Wrapper包装法)
- sklearn|【数据预处理】sklearn实现数据预处理(归一化、标准化)
- sklearn机器学习|学习笔记——sklearn数据预处理和特征工程(过滤法、嵌入法、包装法)
- jupyter|pandas数据处理简单实例 ——基于jupyter
- sklearn|Sklearn中数据预处理
- Python|Python数据分析与挖掘进阶篇3——数据的预处理(清洗、集成、变换)附实例!
- #|【Python数据分析学习实例】pandas库数据预处理
- pandas|数据挖掘代码实例学习——Pandas、sklearn数据预处理(包含pandas库以及所需依赖包安装教程)
- network|PYTHONP网络编程Pycharm新版本自动设置虚拟开发环境