标签:math 分享图片 ref str 大全 div 一句话 方差 选择
有一句话在业界广为流传:特征工程决定了模型的上界,调参决定模型能够有多逼近这个上界。
这里以sklearn为例讲讲特征工程。
虽然说分了这么多部分,但特征工程最重要的部分还是特征处理,特征处理主要包含三个方面,特征预处理,特征选择和降维度。
数据预处理一方面把特征转为合适的编码喂给我们学习算法,另一方面就是把数据都转化到一个同一个规格。我们平时会用公制单位,那么对于特征也要转化到这样的公制单位。都是身高体重的数据,转化到公制下比较方便。
即把特征转化到“公制”。
标准化,使得特征均值为0。
from sklearn.preprocessing import StandardScaler
。
\[ x = \frac { x - \overline { X } } { s } \]
归一化,使得特征为一个单位向量。
from sklearn.preprocessing import Normalizer
。
\[ x ^ { \prime } = \frac { x } { \sqrt { \sum _ { j } ^ { m } x [ j ] ^ { 2} } } \]
特征编码即将男女这样的特征进行编码,转化为01值。
二值化,设定一个阈值,大于等于阈值为一类,小于阈值为一类。
from sklearn.preprocessing import Binarizer
。
one-hot编码,将多分类的特征变成一个特征向量。
from sklearn.preprocessing import OneHotEncoder
。
filter方法就是对特征进行评分,然后选择评分高的特征。那么既然是评分就要涉及到评分方法了。一般有四个评分方法。
from sklearn.feature_selection import VarianceThreshold
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import SelectKBest
详细翻阅参考。
降维两种方法其实之前已经讲过了即PAC和LDA。
from sklearn.decomposition import PCA
#主成分分析法,返回降维后的数据
#参数n_components为主成分数目
PCA(n_components=2).fit_transform(iris.data)
from sklearn.lda import LDA
#线性判别分析法,返回降维后的数据
#参数n_components为降维后的维数
LDA(n_components=2).fit_transform(iris.data, iris.target)
使用sklearn做单机特征工程
机器学习特征工程实用技巧大全
标签:math 分享图片 ref str 大全 div 一句话 方差 选择
原文地址:https://www.cnblogs.com/nevermoes/p/feature_engineering.html