真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Python中sklearn模型怎么用-創(chuàng)新互聯(lián)

這篇文章主要介紹Python中sklearn模型怎么用,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

創(chuàng)新互聯(lián)是一家專注于網(wǎng)站建設(shè)、網(wǎng)站制作與策劃設(shè)計,蘆淞網(wǎng)站建設(shè)哪家好?創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)十年,網(wǎng)設(shè)計領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:蘆淞等地區(qū)。蘆淞做網(wǎng)站價格咨詢:189808205751.主要功能如下:

1.classification分類
2.Regression回歸
3.Clustering聚類
4.Dimensionality reduction降維
5.Model selection模型選擇
6.Preprocessing預(yù)處理

2.主要模塊分類:

1.sklearn.base: Base classes and utility function基礎(chǔ)實用函數(shù)
2.sklearn.cluster: Clustering聚類
3.sklearn.cluster.bicluster: Biclustering 雙向聚類
4.sklearn.covariance: Covariance Estimators 協(xié)方差估計
5.sklearn.model_selection: Model Selection 模型選擇
6.sklearn.datasets: Datasets 數(shù)據(jù)集
7.sklearn.decomposition: Matrix Decomposition 矩陣分解
8.sklearn.dummy: Dummy estimators 虛擬估計
9.sklearn.ensemble: Ensemble Methods 集成方法
10.sklearn.exceptions: Exceptions and warnings 異常和警告
11.sklearn.feature_extraction: Feature Extraction 特征抽取
12.sklearn.feature_selection: Feature Selection 特征選擇
13。sklearn.gaussian_process: Gaussian Processes 高斯過程
14.sklearn.isotonic: Isotonic regression 保序回歸
15.sklearn.kernel_approximation: Kernel Approximation 核 逼近
16.sklearn.kernel_ridge: Kernel Ridge Regression 嶺回歸ridge
17.sklearn.discriminant_analysis: Discriminant Analysis 判別分析
18.sklearn.linear_model: Generalized Linear Models 廣義線性模型
19.sklearn.manifold: Manifold Learning 流形學(xué)習(xí)
20.sklearn.metrics: Metrics 度量 權(quán)值
21.sklearn.mixture: Gaussian Mixture Models 高斯混合模型
22.sklearn.multiclass: Multiclass and multilabel classification 多等級標簽分類
23.sklearn.multioutput: Multioutput regression and classification 多元回歸和分類
24.sklearn.naive_bayes: Naive Bayes 樸素貝葉斯
25.sklearn.neighbors: Nearest Neighbors 最近鄰
26.sklearn.neural_network: Neural network models 神經(jīng)網(wǎng)絡(luò)
27.sklearn.calibration: Probability Calibration 概率校準
28.sklearn.cross_decomposition: Cross decomposition 交叉求解
29.sklearn.pipeline: Pipeline 管道
30.sklearn.preprocessing: Preprocessing and Normalization 預(yù)處理和標準化
31.sklearn.random_projection: Random projection 隨機映射
32.sklearn.semi_supervised: Semi-Supervised Learning 半監(jiān)督學(xué)習(xí)
33.sklearn.svm: Support Vector Machines 支持向量機
34.sklearn.tree: Decision Tree 決策樹
35.sklearn.utils: Utilities 實用工具

3.數(shù)據(jù)預(yù)處理:

from sklearn import preprocessing

標準化處理函數(shù)

將數(shù)據(jù)轉(zhuǎn)化為標準正態(tài)分布(均值為0,方差為1)

preprocessing.scale(X,axis=0, with_mean=True, with_std=True, copy=True)

將數(shù)據(jù)在縮放在固定區(qū)間,默認縮放到區(qū)間 [0, 1]

preprocessing.minmax_scale(X,feature_range=(0, 1), axis=0, copy=True)

數(shù)據(jù)的縮放比例為絕對值大值,并保留正負號,即在區(qū)間 [-1.0, 1.0] 內(nèi)。唯一可用于稀疏數(shù)據(jù) scipy.sparse的標準化
preprocessing.maxabs_scale(X,axis=0, copy=True)

通過 Interquartile Range (IQR) 標準化數(shù)據(jù),即四分之一和四分之三分位點之間
preprocessing.robust_scale(X,axis=0, with_centering=True, with_scaling=True,copy=True)

標準化正態(tài)分布類

基于mean和std的標準化

 classpreprocessing.StandardScaler(copy=True, with_mean=True,with_std=True)
 # 屬性:
 # scale_:ndarray,縮放比例
 # mean_:ndarray,均值
 # var_:ndarray,方差
 # n_samples_seen_:int,已處理的樣本個數(shù),調(diào)用partial_fit()時會累加,調(diào)用fit()會重設(shè)
 # 這里可以根據(jù)訓(xùn)練集進行標準化,測試集沿用訓(xùn)練集的標準化方法!
 scaler = preprocessing.StandardScaler().fit(train_data)
 scaler.transform(train_data)
 scaler.transform(test_data)
 # 將每個特征值歸一化到一個固定范圍
 scaler = preprocessing.MinMaxScaler(feature_range=(0, 1)).fit(train_data)
 scaler.transform(train_data)
 scaler.transform(test_data)

將數(shù)據(jù)在縮放在固定區(qū)間的類,默認縮放到區(qū)間 [0, 1]

classpreprocessing.MinMaxScaler(feature_range=(0, 1),copy=True):
 # 屬性:
 # min_:ndarray,縮放后的最小值偏移量
 # scale_:ndarray,縮放比例
 # data_min_:ndarray,數(shù)據(jù)最小值
 # data_max_:ndarray,數(shù)據(jù)大值
 # data_range_:ndarray,數(shù)據(jù)大最小范圍的長度

數(shù)據(jù)的縮放比例為絕對值大值,并保留正負號,即在區(qū)間 [-1.0, 1.0] 內(nèi)??梢杂糜谙∈钄?shù)據(jù)scipy.sparse

classpreprocessing.MaxAbsScaler(copy=True):
 # 屬性:
 # scale_:ndarray,縮放比例
 # max_abs_:ndarray,絕對值大值
 # n_samples_seen_:int,已處理的樣本個數(shù)

通過 Interquartile Range (IQR) 標準化數(shù)據(jù),即四分之一和四分之三分位點之間

classpreprocessing.RobustScaler(with_centering=True,with_scaling=True, copy=True):
 # 屬性:
 # center_:ndarray,中心點
 # scale_:ndarray,縮放比例

生成 kernel 矩陣,用于將 svm kernel 的數(shù)據(jù)標準化

classpreprocessing.KernelCenterer:

以上幾個標準化類的方法:

fit(X[,y]):根據(jù)數(shù)據(jù) X 的值,設(shè)置標準化縮放的比例
transform(X[,y, copy]):用之前設(shè)置的比例標準化 X
fit_transform(X[, y]):根據(jù) X設(shè)置標準化縮放比例并標準化
partial_fit(X[,y]):累加性的計算縮放比例
inverse_transform(X[,copy]):將標準化后的數(shù)據(jù)轉(zhuǎn)換成原數(shù)據(jù)比例
get_params([deep]):獲取參數(shù)
set_params(**params):設(shè)置參數(shù)

正則化

# 計算兩個樣本的相似度時必不可少的一個操作,就是正則化。其思想是:首先求出樣本的p-范數(shù),然后該樣本的所有元素都要除以該范數(shù),這樣最終使得每個樣本的范數(shù)都為1。
# L1 norm 是指對每個樣本的每一個元素都除以該樣本的L1范數(shù). 使行和為1

 # eg. 0.47619048 = 10 /(10+4+5+2)
 X = np.array([[10,4,5,2], [1,4,5,7]])
 X_normalized = preprocessing.normalize(X, norm='l1')
 X_normalized          
 array([[ 0.47619048, 0.19047619, 0.23809524, 0.0952381 ],
   [ 0.05882353, 0.23529412, 0.29411765, 0.41176471]])

 #L2 norm 是指對每個樣本的每一個元素都除以該樣本的L2范數(shù). 
 # eg. 0.4 = 1/sqrt(1+1+4)
 X = [[ 1., -1., 2.],
   [ 2., 0., 0.],
   [ 0., 1., -1.]]
 X_normalized = preprocessing.normalize(X, norm='l2')

 X_normalized          
 array([[ 0.40, -0.40, 0.81],
   [ 1. , 0. , 0. ],
   [ 0. , 0.70, -0.70]])
4.數(shù)據(jù)集:

將數(shù)據(jù)集分為訓(xùn)練集和測試集

from sklearn.mode_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# arrays:樣本數(shù)組,包含特征向量和標簽

# test_size:
#  float-獲得多大比重的測試樣本 (默認:0.25)
#  int - 獲得多少個測試樣本
# train_size: 同test_size

# random_state: int - 隨機種子(種子固定,實驗可復(fù)現(xiàn))
  
# shuffle - 是否在分割之前對數(shù)據(jù)進行洗牌(默認True)
5.模型選擇:

模型流程:

# 擬合模型
model.fit(X_train, y_train)

# 模型預(yù)測
model.predict(X_test)

# 獲得這個模型的參數(shù)
model.get_params()

# 為模型進行打分
model.score(data_X, data_y)

線性回歸

from sklearn.linear_model import LinearRegression
 # 定義線性回歸模型
 model = LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1)
 """
 fit_intercept:是否計算截距。False-模型沒有截距

 normalize: 當(dāng)fit_intercept設(shè)置為False時,該參數(shù)將被忽略。 如果為真,則回歸前的回歸系數(shù)X將通過減去平均值并除以l2-范數(shù)而歸一化。

  n_jobs:指定線程數(shù)
 """

邏輯回歸

from sklearn.linear_model import LogisticRegression
 # 定義邏輯回歸模型
 model = LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, 
  fit_intercept=True, intercept_scaling=1, class_weight=None, 
  random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', 
  verbose=0, warm_start=False, n_jobs=1)

 """
  penalty:使用指定正則化項(默認:l2)
  dual: n_samples > n_features取False(默認)
  C:正則化強度的反,值越小正則化強度越大
  n_jobs: 指定線程數(shù)
  random_state:隨機數(shù)生成器
  fit_intercept: 是否需要常量
 """

樸素貝葉斯

from sklearn import naive_bayes
 model = naive_bayes.GaussianNB() 
 model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
 model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None)
 """

  alpha:平滑參數(shù)
  fit_prior:是否要學(xué)習(xí)類的先驗概率;false-使用統(tǒng)一的先驗概率
  class_prior: 是否指定類的先驗概率;若指定則不能根據(jù)參數(shù)調(diào)整
  binarize: 二值化的閾值,若為None,則假設(shè)輸入由二進制向量組成
 """

決策樹

from sklearn import tree 
 model = tree.DecisionTreeClassifier(criterion='gini', max_depth=None, 
  min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, 
  max_features=None, random_state=None, max_leaf_nodes=None, 
  min_impurity_decrease=0.0, min_impurity_split=None,
   class_weight=None, presort=False)
 """
  criterion :特征選擇準則gini/entropy
  max_depth:樹的大深度,None-盡量下分
  min_samples_split:分裂內(nèi)部節(jié)點,所需要的最小樣本樹
  min_samples_leaf:葉子節(jié)點所需要的最小樣本數(shù)
  max_features: 尋找最優(yōu)分割點時的大特征數(shù)
  max_leaf_nodes:優(yōu)先增長到大葉子節(jié)點數(shù)
  min_impurity_decrease:如果這種分離導(dǎo)致雜質(zhì)的減少大于或等于這個值,則節(jié)點將被拆分。
 """

支持向量機SVM

 from sklearn.svm import SVC
 model = SVC(C=1.0, kernel='rbf', gamma='auto')
 """
  C:誤差項的懲罰參數(shù)C
  gamma: 核相關(guān)系數(shù)。浮點數(shù),If gamma is ‘a(chǎn)uto' then 1/n_features will be used instead.
 """

knn最近鄰算法

 from sklearn import neighbors
 #定義kNN分類模型
 model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分類
 model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回歸
 """
  n_neighbors: 使用鄰居的數(shù)目
  n_jobs:并行任務(wù)數(shù)
 """

多層感知器

 from sklearn.neural_network import MLPClassifier
 # 定義多層感知機分類算法
 model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001)
 """
  hidden_layer_sizes: 元祖
  activation:激活函數(shù)
  solver :優(yōu)化算法{‘lbfgs', ‘sgd', ‘a(chǎn)dam'}
  alpha:L2懲罰(正則化項)參數(shù)。
 """

交叉驗證

 from sklearn.model_selection import cross_val_score
 cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1)
 """
  model:擬合數(shù)據(jù)的模型
  cv : k-fold
  scoring: 打分參數(shù)-‘a(chǎn)ccuracy'、‘f1'、‘precision'、‘recall' 、‘roc_auc'、'neg_log_loss'等等
 """

檢驗曲線

from sklearn.model_selection import validation_curve
 train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1)
 """
  model:用于fit和predict的對象
  X, y: 訓(xùn)練集的特征和標簽
  param_name:將被改變的參數(shù)的名字
  param_range: 參數(shù)的改變范圍
  cv:k-fold

 """
6.模型保存:
 # 保存為pickle文件
 import pickle

 # 保存模型
 with open('model.pickle', 'wb') as f:
  pickle.dump(model, f)

 # 讀取模型
 with open('model.pickle', 'rb') as f:
  model = pickle.load(f)
 model.predict(X_test)

 # sklearn自帶方法joblib
 from sklearn.externals import joblib
 # 保存模型
 joblib.dump(model, 'model.pickle')
 #載入模型
 model = joblib.load('model.pickle')

以上是“Python中sklearn模型怎么用”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!


文章名稱:Python中sklearn模型怎么用-創(chuàng)新互聯(lián)
網(wǎng)頁鏈接:http://weahome.cn/article/dhjddd.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部