sklearn|sklearn中的数据预处理

sklearn中的数据预处理工程 概述 数据与处理与特征工程

数据挖掘的五大流程:
1. 获取数据

2. 数据预处理数据预处理是从数据中检测,纠正或删除损坏,不准确或不适用于模型的记录的过程
可能面对的问题有:数据类型不同,比如有的是文字,有的是数字,有的含时间序列,有的连续,有的间断。也可能,数据的质量不行,有噪声,有异常,有缺失,数据出错,量纲不一,有重复,数据是偏态,数据量太大或太小
数据预处理的目的:让数据适应模型,匹配模型的需求

3. 特征工程:特征工程是将原始数据转换为更能代表预测模型潜在问题的特征的过程,可以通过挑选最相关的特征,提取特征以及创造特征来实现。其中创造特征又经常以降维算法的方式实现。
可能面对的问题有:特征之间有相关性,特征和标签无关,特征太多或太小,或者干脆就无法表现出应有的数据现象或无法展示数据的
真实面貌特征工程的目的:1) 降低计算成本,2) 提升模型上限

4. 建模,测试模型并预测出结果

5. 上线,验证模型效果
sklearn中的数据预处理和特征工程
sklearn中包含众多数据预处理和特征工程相关的模块,虽然刚接触sklearn时,大家都会为其中包含的各种算法的广度深度所震惊,但其实sklearn六大板块中有两块都是关于数据预处理和特征工程的,两个板块互相交互,为建模之前的全部工程打下基础。
  • 模块preprocessing:几乎包含数据预处理的所有内容
  • 模块Impute:填补缺失值专用
  • 模块feature_selection:包含特征选择的各种方法的实践
  • 模块decomposition:包含降维算法
数据预处理 Preprocessing & Impute 数据无量纲化
在机器学习算法实践中,我们往往有着将不同规格的数据转换到同一规格,或不同分布的数据转换到某个特定分布的需求,这种需求统称为将数据“无量纲化”。譬如梯度和矩阵为核心的算法中,譬如逻辑回归,支持向量机,神经网络,无量纲化可以加快求解速度;而在距离类模型,譬如K近邻,K-Means聚类中,无量纲化可以帮我们提升模型精度,避免某一个取值范围特别大的特征对距离计算造成影响。(一个特例是决策树和树的集成算法们,对决策树我们不需要无量纲化,决策树可以把任意数据都处理得很好。)
数据的无量纲化可以是线性的,也可以是非线性的。线性的无量纲化包括中心化(Zero-centered或者Meansubtraction)处理和缩放处理(Scale)。中心化的本质是让所有记录减去一个固定值,即让数据样本数据平移到某个位置。缩放的本质是通过除以一个固定值,将数据固定在某个范围之中,取对数也算是一种缩放处理。
  • preprocessing.MinMaxScaler
【sklearn|sklearn中的数据预处理】当数据(x)按照最小值中心化后,再按极差(最大值 - 最小值)缩放,数据移动了最小值个单位,并且会被收敛到[0,1]之间,而这个过程,就叫做数据归一化(Normalization,又称Min-Max Scaling)。注意,Normalization是归一化,不是正则化,真正的正则化是regularization,不是数据预处理的一种手段。归一化之后的数据服从正态分布,公式如下:
x ? = x ? m i n ( x ) m a x ( x ) ? m i n ( x ) x^*=\frac{x-min(x)}{max(x)-min(x)} x?=max(x)?min(x)x?min(x)?
在sklearn当中,我们使用preprocessing.MinMaxScaler来实现这个功能。MinMaxScaler有一个重要参数,feature_range,控制我们希望把数据压缩到的范围,默认是[0,1]。
from sklearn.preprocessing import MinMaxScaler data = https://www.it610.com/article/[[-1, 2], [-0.5, 6], [0, 10], [1, 18]] import pandas as pd pd.Dataframe(data)scaler = MinMaxScaler() #实例化 scaler = scaler.fit(data) #fit,在这里本质是生成min(x)和max(x) result = scaler.transform(data) #通过接口导出结果 resultresult_ = scaler.fit_transform(data) #训练和导出结果一步达成 scaler.inverse_transform(result) #将归一化后的结果逆转 #使用MinMaxScaler的参数feature_range实现将数据归一化到[0,1]以外的范围中data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]] scaler = MinMaxScaler(feature_range=[5,10]) #依然实例化 preprocessing.StandardScaler#当数据(x)按均值(μ)中心化后,再按标准差(σ)缩放,数据就会服从为均值为0,方差为1的正态分布(即标准正态分 #布),而这个过程,就叫做数据标准化(Standardization,又称Z-score normalization),公式如下:result = scaler.fit_transform(data) #fit_transform一步导出结果 result #当X中的特征数量非常多的时候,fit会报错并表示,数据量太大了我计算不了 #此时使用partial_fit作为训练接口 #scaler = scaler.partial_fit(data)

  • preprocessing.StandardScaler
当数据(x)按均值(μ)中心化后,再按标准差(σ)缩放,数据就会服从为均值为0,方差为1的正态分布(即标准正态分布),而这个过程,就叫做数据标准化(Standardization,又称Z-score normalization),公式如下:
x ? = x ? μ σ x^*=\frac{x-μ}{σ} x?=σx?μ?
from sklearn.preprocessing import StandardScaler data = https://www.it610.com/article/[[-1, 2], [-0.5, 6], [0, 10], [1, 18]]scaler = StandardScaler() #实例化 scaler.fit(data) #fit,本质是生成均值和方差scaler.mean_ #查看均值的属性mean_ scaler.var_ #查看方差的属性var_x_std = scaler.transform(data) #通过接口导出结果x_std.mean() #导出的结果是一个数组,用mean()查看均值 x_std.std() #用std()查看方差scaler.fit_transform(data) #使用fit_transform(data)一步达成结果 scaler.inverse_transform(x_std) #使用inverse_transform逆转标准化

对于StandardScaler和MinMaxScaler来说,空值NaN会被当做是缺失值,在fit的时候忽略,在transform的时候保持缺失NaN的状态显示。并且,尽管去量纲化过程不是具体的算法,但在fit接口中,依然只允许导入至少二维数组,一维数组导入会报错。通常来说,我们输入的X会是我们的特征矩阵,现实案例中特征矩阵不太可能是一维所以不会存在这个问题。
缺失值
机器学习和数据挖掘中所使用的数据,永远不可能是完美的。很多特征,对于分析和建模来说意义非凡,但对于实际收集数据的人却不是如此,因此数据挖掘之中,常常会有重要的字段缺失值很多,但又不能舍弃字段的情况。因此,数据预处理中非常重要的一项就是处理缺失值。
import pandas as pd data = https://www.it610.com/article/pd.read_csv(",/Narrativedata.csv")data.drop(labels="Unnamed: 0",axis=1,inplace=True)#删除列索引位Unnamed:0这一列data.loc[:,"Age"] = SimpleImputer(strategy="median").fit_transform(data.loc[:,"Age"].values.reshape(-1,1))#将训练,训练模型导出覆盖源数据等操作一行实现 print(data.info())#发现Embarked这一列缺失两个数据,由于缺失值少,所以直接删除缺失数据的两行data.dropna(axis=0,inplace=Ture)#删除缺失数据的两行data.iloc[:,-1] = LabelEncoder().fit_transform(data.iloc[:,-1])#分类标签 result = OneHotEncoder(categories="auto").fit_transform(data.iloc[:,1:-1]).toarray()#将第一列至倒数第二列的数据转换位哑变量,并转为位数组newdata = https://www.it610.com/article/pd.concat([data,pd.DataFrame(result)],axis=1)#将result与data合并newdata.dropna(axis=0,inplace=True)#将含有缺失值的数据删除 newdata.drop(["Sex","Embarked"],axis=1,inplace=True)#将前两行删除 newdata.columns = ["Age","Survived","Female","Male","Embarked_C","Embarked_Q","Embarked_S"]#重新命名列索引

编码与哑变量 功能 重要参数 重要属性 重要接口
.LabelEncoder 分类标签编码 N/A .categories fiit
transform
fit_transform
inverse_transform
.OrdinalEncoder 分类特征编码 N/A .categories fit
transfrom
fit_transform
inverse_transform
.OneHotEncoder 独热编码,为名义变量创建哑变量 categories:每个特征都有哪些类别,默认"auto" .categories查看特征中究竟有多少类别 fit
transform
fit_transform
inverse_transform
get_feature_names:查看生成的哑变量中每一列都有什么样的值

    推荐阅读