創(chuàng)新互聯(lián)-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比浦江網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式浦江網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋浦江地區(qū)。費用合理售后完善,十余年實體公司更值得信賴。>#過濾式特征選擇
#根據(jù)方差進行選擇,方差越小,代表該屬性識別能力很差,可以剔除
from sklearn.feature_selection import VarianceThreshold
x=[[100,1,2,3],
[100,4,5,6],
[100,7,8,9],
[101,11,12,13]]
selector=VarianceThreshold(1) #方差閾值值,
selector.fit(x)
selector.variances_ #展現(xiàn)屬性的方差
selector.transform(x)#進行特征選擇
selector.get_support(True) #選擇結(jié)果后,特征之前的索引
selector.inverse_transform(selector.transform(x)) #將特征選擇后的結(jié)果還原成原始數(shù)據(jù)
#被剔除掉的數(shù)據(jù),顯示為0
#單變量特征選擇
from sklearn.feature_selection import SelectKBest,f_classif
x=[[1,2,3,4,5],
[5,4,3,2,1],
[3,3,3,3,3],
[1,1,1,1,1]]
y=[0,1,0,1]
selector=SelectKBest(score_func=f_classif,k=3)#選擇3個特征,指標使用的是方差分析F值
selector.fit(x,y)
selector.scores_ #每一個特征的得分
selector.pvalues_
selector.get_support(True) #如果為true,則返回被選出的特征下標,如果選擇False,則
#返回的是一個布爾值組成的數(shù)組,該數(shù)組只是那些特征被選擇
selector.transform(x)
#包裹時特征選擇
from sklearn.feature_selection import RFE
from sklearn.svm import LinearSVC #選擇svm作為評定算法
from sklearn.datasets import load_iris #加載數(shù)據(jù)集
iris=load_iris()
x=iris.data
y=iris.target
estimator=LinearSVC()
selector=RFE(estimator=estimator,n_features_to_select=2) #選擇2個特征
selector.fit(x,y)
selector.n_features_ #給出被選出的特征的數(shù)量
selector.support_ #給出了被選擇特征的mask
selector.ranking_ #特征排名,被選出特征的排名為1
#注意:特征提取對于預測性能的提升沒有必然的聯(lián)系,接下來進行比較;
from sklearn.feature_selection import RFE
from sklearn.svm import LinearSVC
from sklearn import cross_validation
from sklearn.datasets import load_iris
#加載數(shù)據(jù)
iris=load_iris()
X=iris.data
y=iris.target
#特征提取
estimator=LinearSVC()
selector=RFE(estimator=estimator,n_features_to_select=2)
X_t=selector.fit_transform(X,y)
#切分測試集與驗證集
x_train,x_test,y_train,y_test=cross_validation.train_test_split(X,y,
test_size=0.25,random_state=0,stratify=y)
x_train_t,x_test_t,y_train_t,y_test_t=cross_validation.train_test_split(X_t,y,
test_size=0.25,random_state=0,stratify=y)
clf=LinearSVC()
clf_t=LinearSVC()
clf.fit(x_train,y_train)
clf_t.fit(x_train_t,y_train_t)
print('origin dataset test score:',clf.score(x_test,y_test))
#origin dataset test score: 0.973684210526
print('selected Dataset:test score:',clf_t.score(x_test_t,y_test_t))
#selected Dataset:test score: 0.947368421053
import numpy as np
from sklearn.feature_selection import RFECV
from sklearn.svm import LinearSVC
from sklearn.datasets import load_iris
iris=load_iris()
x=iris.data
y=iris.target
estimator=LinearSVC()
selector=RFECV(estimator=estimator,cv=3)
selector.fit(x,y)
selector.n_features_
selector.support_
selector.ranking_
selector.grid_scores_
#嵌入式特征選擇
import numpy as np
from sklearn.feature_selection import SelectFromModel
from sklearn.svm import LinearSVC
from sklearn.datasets import load_digits
digits=load_digits()
x=digits.data
y=digits.target
estimator=LinearSVC(penalty='l1',dual=False)
selector=SelectFromModel(estimator=estimator,threshold='mean')
selector.fit(x,y)
selector.transform(x)
selector.threshold_
selector.get_support(indices=True)
#scikitlearn提供了Pipeline來講多個學習器組成流水線,通常流水線的形式為:將數(shù)據(jù)標準化,
#--》特征提取的學習器————》執(zhí)行預測的學習器,除了最后一個學習器之后,
#前面的所有學習器必須提供transform方法,該方法用于數(shù)據(jù)轉(zhuǎn)化(如歸一化、正則化、
#以及特征提取
#學習器流水線(pipeline)
from sklearn.svm import LinearSVC
from sklearn.datasets import load_digits
from sklearn import cross_validation
from sklearn.linear_model import LogisticRegression
from sklearn.pipeline import Pipeline
def test_Pipeline(data):
x_train,x_test,y_train,y_test=data
steps=[('linear_svm',LinearSVC(C=1,penalty='l1',dual=False)),
('logisticregression',LogisticRegression(C=1))]
pipeline=Pipeline(steps)
pipeline.fit(x_train,y_train)
print('named steps',pipeline.named_steps)
print('pipeline score',pipeline.score(x_test,y_test))
if __name__=='__main__':
data=load_digits()
x=data.data
y=data.target
test_Pipeline(cross_validation.train_test_split(x,y,test_size=0.25,
random_state=0,stratify=y))
網(wǎng)站標題:Python進行特征提取的示例代碼-創(chuàng)新互聯(lián)
網(wǎng)站地址:
http://weahome.cn/article/psphh.html