這篇文章主要介紹了python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
創(chuàng)新互聯(lián)建站不只是一家網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司;我們對(duì)營(yíng)銷、技術(shù)、服務(wù)都有自己獨(dú)特見解,公司采取“創(chuàng)意+綜合+營(yíng)銷”一體化的方式為您提供更專業(yè)的服務(wù)!我們經(jīng)歷的每一步也許不一定是最完美的,但每一步都有值得深思的意義。我們珍視每一份信任,關(guān)注我們的網(wǎng)站制作、成都網(wǎng)站制作質(zhì)量和服務(wù)品質(zhì),在得到用戶滿意的同時(shí),也能得到同行業(yè)的專業(yè)認(rèn)可,能夠?yàn)樾袠I(yè)創(chuàng)新發(fā)展助力。未來(lái)將繼續(xù)專注于技術(shù)創(chuàng)新,服務(wù)升級(jí),滿足企業(yè)一站式營(yíng)銷型網(wǎng)站需求,讓再小的品牌網(wǎng)站制作也能產(chǎn)生價(jià)值!線性回歸是機(jī)器學(xué)習(xí)中的基礎(chǔ)算法之一,屬于監(jiān)督學(xué)習(xí)中的回歸問(wèn)題,算法的關(guān)鍵在于如何最小化代價(jià)函數(shù),通常使用梯度下降或者正規(guī)方程(最小二乘法),在這里對(duì)算法原理不過(guò)多贅述,建議看吳恩達(dá)發(fā)布在斯坦福大學(xué)上的課程進(jìn)行入門學(xué)習(xí)。
這里主要使用python的sklearn實(shí)現(xiàn)一個(gè)簡(jiǎn)單的單變量線性回歸。
sklearn對(duì)機(jī)器學(xué)習(xí)方法封裝的十分好,基本使用fit,predict,score,來(lái)訓(xùn)練,預(yù)測(cè),評(píng)價(jià)模型,
一個(gè)簡(jiǎn)單的事例如下:
from pandas import DataFrame from pandas import DataFrame import pandas as pd import matplotlib.pyplot as plt from sklearn import datasets,linear_model X=[] Y=[] with open("C:\\Users\\www\\ex1data1.txt","r") as f: #讀取txt文件。 for line in f: p_tmp, E_tmp = [float(i) for i in line.split(',')] X.append(p_tmp) Y.append(E_tmp) #'data=np.loadtxt('ex1data1.txt',delimiter=',')
# X=data[0]
# Y=data[1]
data=DataFrame(X,columns={'a'}) data['b']=b X=DataFrame(X) fig = plt.figure() ax1 = fig.add_subplot(1,1,1) plt.scatter(data['a'],data['b']) #顯示X,Y的散點(diǎn)圖 def linear_model_main(X,Y,predict_value): #定義一個(gè)使用線性回歸的函數(shù) regr=linear_model.LinearRegression() regr.fit(X,Y) #訓(xùn)練模型 predict_output=regr.predict(predict_value) #預(yù)測(cè) predictions={} #用一個(gè)集合裝以下元素 predictions['intercept']=regr.intercept_ #截距 predictions['codfficient']=regr.coef_ #斜率(參數(shù)) predictions['predict_value']=predict_output #預(yù)測(cè)值 return predictions result = linear_model_main(X,Y,1500) #調(diào)用函數(shù) print(result['predict_value']) def show_predict(X,Y): regr=linear_model.LinearRegression() regr.fit(X,Y) plt.scatter(X,Y,color='blue') plt.plot(X,regr.predict(X),color='red') show_predict(X,Y)
最后擬合結(jié)果如圖:
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!