這篇文章主要介紹了Python機(jī)器學(xué)習(xí)中l(wèi)ogistic回歸的示例分析,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
成都創(chuàng)新互聯(lián)成立10余年來,這條路我們正越走越好,積累了技術(shù)與客戶資源,形成了良好的口碑。為客戶提供網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、網(wǎng)站策劃、網(wǎng)頁(yè)設(shè)計(jì)、國(guó)際域名空間、網(wǎng)絡(luò)營(yíng)銷、VI設(shè)計(jì)、網(wǎng)站改版、漏洞修補(bǔ)等服務(wù)。網(wǎng)站是否美觀、功能強(qiáng)大、用戶體驗(yàn)好、性價(jià)比高、打開快等等,這些對(duì)于網(wǎng)站建設(shè)都非常重要,成都創(chuàng)新互聯(lián)通過對(duì)建站技術(shù)性的掌握、對(duì)創(chuàng)意設(shè)計(jì)的研究為客戶提供一站式互聯(lián)網(wǎng)解決方案,攜手廣大客戶,共同發(fā)展進(jìn)步。Logistic回歸的主要目的:尋找一個(gè)非線性函數(shù)sigmod最佳的擬合參數(shù)
擬合、插值和逼近是數(shù)值分析的三大工具
回歸:對(duì)一直公式的位置參數(shù)進(jìn)行估計(jì)
擬合:把平面上的一些系列點(diǎn),用一條光滑曲線連接起來
logistic主要思想:根據(jù)現(xiàn)有數(shù)據(jù)對(duì)分類邊界線建立回歸公式、以此進(jìn)行分類
sigmoid函數(shù):在神經(jīng)網(wǎng)絡(luò)中它是所謂的激勵(lì)函數(shù)。當(dāng)輸入大于0時(shí),輸出趨向于1,輸入小于0時(shí),輸出趨向0,輸入為0時(shí),輸出為0.5
梯度上升:要找到某個(gè)函數(shù)的大值,最好的方法是沿著該函數(shù)的梯度方向探尋
收斂:隨著迭代的運(yùn)行算法的結(jié)果和真實(shí)結(jié)果的誤差越來越小,且趨向于一個(gè)固定值。
爬山算法:是完完全全的貪心算法,每次鼠目寸光的選擇一個(gè)當(dāng)前最優(yōu)解,英雌只能搜尋到局部最優(yōu)值
模擬退火算法:也是一種貪心算法但它的sou索過程引入了隨機(jī)因素,模擬退火算法以一定的概念來接受一個(gè)比當(dāng)前解要差的解,因此有可能會(huì)跳出這個(gè)局部最優(yōu)解,達(dá)到全局最優(yōu)解。
處理數(shù)據(jù)中的缺失值:
使用可用特征的均值來填補(bǔ)缺失值
使用特殊值來填補(bǔ)缺失值,如-1
忽略有缺失值的樣本
使用相似樣本的均值添補(bǔ)缺失值
使用其它機(jī)器學(xué)習(xí)算法預(yù)測(cè)缺失值
標(biāo)簽與特征不同,很難確定采用某個(gè)合適的值來替換。
#coding:utf-8 from numpy import * import math def loadDataSet(): dataMat = []; labelMat = [] fr = open('testSet.txt') for line in fr.readlines(): lineArr = line.strip().split() dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) labelMat.append(int(lineArr[2])) return dataMat,labelMat def sigmoid(inX): return longfloat(1.0/(1+exp(-inX))) #sigmoid函數(shù)公式 def gradAscent(dataMatIn, classLabels): #dataMatIn 一個(gè)2維的數(shù)組;classLabels 類別標(biāo)簽 dataMatrix = mat(dataMatIn) #轉(zhuǎn)換為矩陣 labelMat = mat(classLabels).transpose() #得到矩陣的轉(zhuǎn)置矩陣 m,n = shape(dataMatrix) #讀取矩陣的長(zhǎng)度,二維矩陣,返回兩個(gè)值 alpha = 0.001 #向目標(biāo)移動(dòng)的步長(zhǎng) maxCycles = 500 #迭代次數(shù) weights = ones((n,1)) #ones()函數(shù)用以創(chuàng)建指定形狀和類型的數(shù)組,默認(rèn)情況下返回的類型是float64。但是,如果使用ones()函數(shù)時(shí)指定了數(shù)據(jù)類型,那么返回的就是該類型 for k in range(maxCycles): h = sigmoid(dataMatrix*weights) #matrix mult error = (labelMat - h) #vector subtraction weights = weights + alpha * dataMatrix.transpose()* error #matrix mult return weights def plotBestFit(weights): import matplotlib as mpl mpl.use('Agg') #為了防止出現(xiàn):RuntimeError: could not open display報(bào)錯(cuò) import matplotlib.pyplot as plt dataMat,labelMat=loadDataSet() dataArr = array(dataMat) n = shape(dataArr)[0] xcord1 = []; ycord1 = [] xcord2 = []; ycord2 = [] for i in range(n): if int(labelMat[i])== 1: xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2]) else: xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) fig = plt.figure() #figure: 控制dpi、邊界顏色、圖形大小、和子區(qū)( subplot)設(shè)置 ax = fig.add_subplot(111) # 參數(shù)111的意思是:將畫布分割成1行1列,圖像畫在從左到右從上到下的第1塊, ax.scatter(xcord1, ycord1, s=30, c='red', marker='s') ax.scatter(xcord2, ycord2, s=30, c='green') x = arange(-3.0, 3.0, 0.1) y = (-weights[0]-weights[1]*x)/weights[2] ax.plot(x, y) plt.xlabel('X1'); plt.ylabel('X2'); plt.savefig('plotBestFit.png') #因?yàn)槲沂球v訊云服務(wù)器,沒有圖形界面,所以我保存為圖片。 #隨機(jī)梯度上升算法 def stocGradAscent0(dataMatrix, classLabels): m,n = shape(dataMatrix) alpha = 0.01 weights = ones(n) #initialize to all ones for i in range(m): h = sigmoid(sum(dataMatrix[i]*weights)) error = classLabels[i] - h weights = weights + alpha * error * dataMatrix[i] #回歸系數(shù)的更新操作 return weights #改進(jìn)的隨機(jī)梯度上升算法 def stocGradAscent1(dataMatrix, classLabels, numIter=150): #較之前的增加了一個(gè)迭代次數(shù)作為第三個(gè)參數(shù),默認(rèn)值150 m,n = shape(dataMatrix) weights = ones(n) for j in range(numIter): dataIndex = range(m) for i in range(m): alpha = 4/(1.0+j+i)+0.0001 randIndex = int(random.uniform(0,len(dataIndex))) #樣本隨機(jī)選擇 h = sigmoid(sum(dataMatrix[randIndex]*weights)) error = classLabels[randIndex] - h weights = weights + alpha * error * dataMatrix[randIndex] #回歸系數(shù)的更新操作 del(dataIndex[randIndex]) return weights #以回歸系數(shù)和特征向量作為輸入計(jì)算對(duì)應(yīng)的sigmoid值 def classifyVector(inX, weights): prob = sigmoid(sum(inX*weights)) if prob > 0.5: return 1.0 #如果sigmoid值大于0.5函數(shù)返回1,否則返回0 else: return 0.0 #打開測(cè)試集和訓(xùn)練集,并對(duì)數(shù)據(jù)進(jìn)行格式化處理的函數(shù) def colicTest(): frTrain = open('horseColicTraining.txt'); frTest = open('horseColicTest.txt') trainingSet = []; trainingLabels = [] for line in frTrain.readlines(): currLine = line.strip().split('\t') lineArr =[] for i in range(21): lineArr.append(float(currLine[i])) trainingSet.append(lineArr) trainingLabels.append(float(currLine[21])) trainWeights = stocGradAscent1(array(trainingSet), trainingLabels, 1000) #計(jì)算回歸系數(shù)向量 errorCount = 0; numTestVec = 0.0 for line in frTest.readlines(): numTestVec += 1.0 currLine = line.strip().split('\t') lineArr =[] for i in range(21): lineArr.append(float(currLine[i])) if int(classifyVector(array(lineArr), trainWeights))!= int(currLine[21]): errorCount += 1 errorRate = (float(errorCount)/numTestVec) print "the error rate of this test is: %f" % errorRate return errorRate #調(diào)用函數(shù)colicTest()10次,并求結(jié)果的平均值 def multiTest(): numTests = 10; errorSum=0.0 for k in range(numTests): errorSum += colicTest() print "after %d iterations the average error rate is: %f" % (numTests, errorSum/float(numTests))
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“Python機(jī)器學(xué)習(xí)中l(wèi)ogistic回歸的示例分析”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計(jì)公司,關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計(jì)公司行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來學(xué)習(xí)!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、網(wǎng)站設(shè)計(jì)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。