真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

R語言中的k折交叉驗證是怎樣的

這篇文章給大家介紹R語言中的k折交叉驗證是怎樣的,內(nèi)容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

創(chuàng)新互聯(lián)公司堅持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:網(wǎng)站設(shè)計制作、網(wǎng)站設(shè)計、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時代的鐵山港網(wǎng)站設(shè)計、移動媒體設(shè)計的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

 機器學習中需要把數(shù)據(jù)分為訓練集和測試集,因此如何劃分訓練集和測試集就成為影響模型效果的重要因素。本文介紹一種常用的劃分最優(yōu)訓練集和測試集的方法——k折交叉驗證。

  • k折交叉驗證

K折交叉驗證(k-fold cross-validation)首先將所有數(shù)據(jù)分割成K個子樣本,不重復的選取其中一個子樣本作為測試集,其他K-1個樣本用來訓練。共重復K次,平均K次的結(jié)果或者使用其它指標,最終得到一個單一估測。

這個方法的優(yōu)勢在于,保證每個子樣本都參與訓練且都被測試,降低泛化誤差。其中,10折交叉驗證是最常用的。

  • 實例代碼

在線性分類器與性能評價(R語言)中,我們將數(shù)據(jù)集隨機抽取70%作為訓練集,剩下30%作為測試集,通過線性回歸的方法進行預測,通過ROC和AUC評價模型效果。現(xiàn)在,我們使用k折交叉驗證的方法,選取最優(yōu)的訓練集和測試集,建立線性分類器并評價模型效果。

1、數(shù)據(jù)導入并分組。導入數(shù)據(jù),并使用caret包中的createFolds()函數(shù),根據(jù)標簽列將數(shù)據(jù)分成10份 。

target.url <- 'https://archive.ics.uci.edu/ml/machine-learning-databases/undocumented/connectionist-bench/sonar/sonar.all-data'

data <- read.csv(target.url,header = F) 

set.seed(17)  

require(caret)  

folds <- createFolds(y=data[,61],k=10)

2、選取最優(yōu)訓練集與測試集。構(gòu)建for循環(huán),得到十次交叉驗證預測的AUC值。并紀錄取值最大的一組,作為最優(yōu)的訓練集與測試集劃分。

library(pROC)

max=0  

num=0 

auc_value<-as.numeric()

for(i in 1:10){  

  fold_test <- data[folds[[i]],]   #取folds[[i]]作為測試集  

  fold_train <- data[-folds[[i]],]   # 剩下的數(shù)據(jù)作為訓練集    

  fold_pre <- lm(as.numeric(V61)~.,data=fold_train)  

  fold_predict <- predict(fold_pre,type='response',newdata=fold_test)  

  auc_value<- append(auc_value,as.numeric(auc(as.numeric(fold_test[,61]),fold_predict)))

}  

num<-which.max(auc_value)

print(auc_value)

10次auc取值結(jié)果如下:

 [1] 0.7636364 0.7474747 0.8484848 0.9363636 0.7272727 0.8454545 0.9181818 0.7454545 0.7979798

[10] 0.7916667

3、構(gòu)建分類器并判斷模型效果。根據(jù)前一步的結(jié)果,使用最優(yōu)劃分構(gòu)建線性分類器并預測。繪制出測試集的ROC曲線。

fold_test <- data[folds[[num]],]   

fold_train <- data[-folds[[num]],]

fold_pre <- lm(as.numeric(V61)~.,data=fold_train)  

fold_predict <- predict(fold_pre,type='response',newdata=fold_test)

roc_curve <- roc(as.numeric(fold_test[,61]),fold_predict)

plot(roc_curve, print.auc=TRUE, auc.polygon=TRUE, grid=c(0.1, 0.2),

     grid.col=c("green", "red"), max.auc.polygon=TRUE,

     auc.polygon.col="skyblue", print.thres=TRUE,main="ROC curve for the set with the largest AUC value")

R語言中的k折交叉驗證是怎樣的

線性分類器與性能評價(R語言)中隨機選取訓練集和測試集,最終測試集的AUC值僅為0.755,而本次我們通過k折交叉驗證選取訓練集和測試集,測試集AUC值達到0.936,可以看出模型效果提升顯著。

關(guān)于R語言中的k折交叉驗證是怎樣的就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。


本文題目:R語言中的k折交叉驗證是怎樣的
網(wǎng)頁路徑:http://weahome.cn/article/jjpdep.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部