這篇文章主要介紹“CatBoost怎么安裝使用”,在日常操作中,相信很多人在CatBoost怎么安裝使用問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”CatBoost怎么安裝使用”的疑惑有所幫助!接下來,請跟著小編一起來學(xué)習(xí)吧!
超過10多年行業(yè)經(jīng)驗(yàn),技術(shù)領(lǐng)先,服務(wù)至上的經(jīng)營模式,全靠網(wǎng)絡(luò)和口碑獲得客戶,為自己降低成本,也就是為客戶降低成本。到目前業(yè)務(wù)范圍包括了:網(wǎng)站制作、成都做網(wǎng)站,成都網(wǎng)站推廣,成都網(wǎng)站優(yōu)化,整體網(wǎng)絡(luò)托管,微信小程序,微信開發(fā),重慶APP開發(fā),同時(shí)也可以讓客戶的網(wǎng)站和網(wǎng)絡(luò)營銷和我們一樣獲得訂單和生意!
CatBoost不僅在你提供給它的任何數(shù)據(jù)集上構(gòu)建了一個(gè)最精確的模型,其中只需要最少的數(shù)據(jù)準(zhǔn)備。它還提供了迄今為止最好的開源解釋工具,以及快速生成模型的方法。
CatBoost引發(fā)了機(jī)器學(xué)習(xí)革命。學(xué)習(xí)使用它會提高你的技能。但更有趣的是,CatBoost對數(shù)據(jù)科學(xué)家(比如我自己)的現(xiàn)狀構(gòu)成了威脅,因?yàn)槲艺J(rèn)為在給定數(shù)據(jù)集的情況下,建立一個(gè)高精度的模型是很乏味的。但是CatBoost正在改變這種狀況。它使得每個(gè)人都可以使用高度精確的模型。
你試過在筆記本電腦上安裝XGBoost嗎?那你肯定知道有多麻煩。但是在另一端安裝運(yùn)行CatBoost卻是小菜一碟。
pip install catboost
這樣就安裝好了。
與目前大多數(shù)可用的機(jī)器學(xué)習(xí)模型不同,CatBoost只需要最少的數(shù)據(jù)準(zhǔn)備。它能處理:
數(shù)值變量的缺失值
沒有編碼的分類變量
注意:對于分類變量,必須事先處理缺失值。替換為新類別“missing”或最其他常用的類別。
對于GPU用戶,它也能處理文本變量。
不幸的是,我無法測試這個(gè)功能,因?yàn)槲艺谝慌_沒有GPU的筆記本電腦上工作。
與XGBoost一樣,你擁有熟悉的sklearn語法和一些特定于CatBoost的附加功能。
from catboost import CatBoostClassifier # 或者 CatBoostRegressor model_cb = CatBoostClassifier() model_cb.fit(X_train, y_train)
或者,如果你想要一個(gè)關(guān)于模型如何學(xué)習(xí)以及是否開始過擬合的可視化界面,請使用plot=True并在eval_set參數(shù)中插入測試集:
from catboost import CatBoostClassifier # 或者 CatBoostRegressor model_cb = CatBoostClassifier() model_cb.fit(X_train, y_train, plot=True, eval_set=(X_test, y_test))
注意,你可以同時(shí)顯示多個(gè)度量,甚至更人性化的度量,如準(zhǔn)確度或精確度。此處列出了支持的指標(biāo):https://catboost.ai/docs/concepts/loss-functions-classification.html。
請參見下面的示例:
你甚至可以使用交叉驗(yàn)證,在不同的分割上觀察模型準(zhǔn)確度的平均和標(biāo)準(zhǔn)偏差:
CatBoost與XGBoost非常相似。要對模型進(jìn)行適當(dāng)?shù)奈⒄{(diào),首先將early_stopping_rounds進(jìn)行設(shè)置(如10或50),然后開始調(diào)整模型的參數(shù)。
從他們的基準(zhǔn)測試中,你可以看到CatBoost比XGBoost更快,并且與LightGBM相對類似。眾所周知,LightGBM的訓(xùn)練速度很快。
不過,說到GPU,真正的魔力就來了。
即使使用相對較老的GPU,如K40(2013年發(fā)布),訓(xùn)練時(shí)間也將被至少快4倍,而其他更新的CPU最多能快40倍。
CatBoost的作者們明白的一件事是,這不僅僅是一個(gè)玩精確度的游戲。為什么在XGBoost和LightGBM可用時(shí)要使用CatBoost呢。所以,在可解釋性方面,CatBoost提供了開箱即用的函數(shù)。
CatBoost提供了3種不同的方法:PredictionValuesChange、LossFunctionChange和InternalFeatureImportance。這里有詳細(xì)的文檔:https://catboost.ai/docs/concepts/fstr.html
對于局部可理解性,CatBoost附帶SHAP,SHAP通常被認(rèn)為是唯一可靠的方法。
shap_values = model.get_feature_importance(Pool(X, y), type='ShapValues')
官方也提供了教程:https://github.com/catboost/tutorials/blob/master/model_analysis/shap_values_tutorial.ipynb。你可以使用進(jìn)行局部可理解性操作以及獲取特征重要性。
到目前為止,這是我最喜歡的東西。隨著高精度的商品化(特別是隨著AutoML的興起),當(dāng)今從更深層次上了解這些高精度模型變得越來越重要。
根據(jù)經(jīng)驗(yàn),以下圖表已成為模型分析的標(biāo)準(zhǔn)。CatBoos在它的包中直接提供它。
在這個(gè)圖標(biāo)上你觀察到
綠色的是數(shù)據(jù)分布
藍(lán)色的是每個(gè)箱子的平均目標(biāo)值
橙色的是每個(gè)箱子的平均預(yù)測值
紅色的是部分依賴圖( Partial Dependence)
在生產(chǎn)中實(shí)現(xiàn)你的模型變得非常容易。下面是如何導(dǎo)出CatBoost模型。
使用.save_model()方法可以獲得以下幫助文檔:
model_cb.save_model(‘model_CatBoost.py’, format=’python’, pool=X_train)
執(zhí)行后在你的repo中會有一個(gè)生成好的.py文件,如下所示:
這時(shí)候模型已經(jīng)準(zhǔn)備好生產(chǎn)了!而且你不需要在機(jī)器上設(shè)置一個(gè)特定的環(huán)境來獲得新的分?jǐn)?shù)。只需要Python 3就可以了!
二進(jìn)制顯然是獲得新數(shù)據(jù)的最快選擇。代碼中改成輸出.cbm文件。
載入時(shí)使用以下代碼重新加載模型:
from catboost import CatBoost model = CatBoost() model.load_model('filename', format='cbm')
大多數(shù)模型中通常都有詳細(xì)的輸入,以便查看你過程的進(jìn)展情況。CatBoost也有,但比其他的稍好一點(diǎn)。例如,使用verbose=50將每50次迭代顯示一次訓(xùn)練錯(cuò)誤,而不是每次迭代顯示一次,因?yàn)槿绻性S多次迭代,這可能會很煩人。
使用verbose=10訓(xùn)練同一模型。檢查起來好多了。
注意,剩余時(shí)間也會顯示出來。
微調(diào)模型需要時(shí)間。通常,你可能有幾個(gè)好的參數(shù)列表。為了將其提升結(jié)果你甚至可以使用不同的參數(shù)集學(xué)習(xí)模型來比較,以便幫助你對要選擇的參數(shù)的最終列表做出決定。
到此,關(guān)于“CatBoost怎么安裝使用”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識,請繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!