真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法-創(chuàng)新互聯(lián)

這篇文章主要介紹了python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

創(chuàng)新互聯(lián)建站不只是一家網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司;我們對(duì)營(yíng)銷、技術(shù)、服務(wù)都有自己獨(dú)特見解,公司采取“創(chuàng)意+綜合+營(yíng)銷”一體化的方式為您提供更專業(yè)的服務(wù)!我們經(jīng)歷的每一步也許不一定是最完美的,但每一步都有值得深思的意義。我們珍視每一份信任,關(guān)注我們的網(wǎng)站制作、成都網(wǎng)站制作質(zhì)量和服務(wù)品質(zhì),在得到用戶滿意的同時(shí),也能得到同行業(yè)的專業(yè)認(rèn)可,能夠?yàn)樾袠I(yè)創(chuàng)新發(fā)展助力。未來(lái)將繼續(xù)專注于技術(shù)創(chuàng)新,服務(wù)升級(jí),滿足企業(yè)一站式營(yíng)銷型網(wǎng)站需求,讓再小的品牌網(wǎng)站制作也能產(chǎn)生價(jià)值!

線性回歸是機(jī)器學(xué)習(xí)中的基礎(chǔ)算法之一,屬于監(jiān)督學(xué)習(xí)中的回歸問(wèn)題,算法的關(guān)鍵在于如何最小化代價(jià)函數(shù),通常使用梯度下降或者正規(guī)方程(最小二乘法),在這里對(duì)算法原理不過(guò)多贅述,建議看吳恩達(dá)發(fā)布在斯坦福大學(xué)上的課程進(jìn)行入門學(xué)習(xí)。

這里主要使用python的sklearn實(shí)現(xiàn)一個(gè)簡(jiǎn)單的單變量線性回歸。

sklearn對(duì)機(jī)器學(xué)習(xí)方法封裝的十分好,基本使用fit,predict,score,來(lái)訓(xùn)練,預(yù)測(cè),評(píng)價(jià)模型,

一個(gè)簡(jiǎn)單的事例如下:

from pandas import DataFrame
from pandas import DataFrame
import pandas as pd
import matplotlib.pyplot as plt
from sklearn import datasets,linear_model
 
X=[]
Y=[]
with open("C:\\Users\\www\\ex1data1.txt","r") as f:  #讀取txt文件。
 for line in f:
  p_tmp, E_tmp = [float(i) for i in line.split(',')]
  X.append(p_tmp)
  Y.append(E_tmp)
 #'data=np.loadtxt('ex1data1.txt',delimiter=',')
# X=data[0]
# Y=data[1]
data=DataFrame(X,columns={'a'})
data['b']=b
X=DataFrame(X)
 
fig = plt.figure()         
ax1 = fig.add_subplot(1,1,1)
plt.scatter(data['a'],data['b'])   #顯示X,Y的散點(diǎn)圖
 
def linear_model_main(X,Y,predict_value): #定義一個(gè)使用線性回歸的函數(shù)
 regr=linear_model.LinearRegression()
 regr.fit(X,Y)  #訓(xùn)練模型
 predict_output=regr.predict(predict_value) #預(yù)測(cè)
 predictions={}        #用一個(gè)集合裝以下元素
 predictions['intercept']=regr.intercept_  #截距
 predictions['codfficient']=regr.coef_   #斜率(參數(shù))
 predictions['predict_value']=predict_output  #預(yù)測(cè)值
 return predictions
 
result = linear_model_main(X,Y,1500)    #調(diào)用函數(shù)
print(result['predict_value'])
 
 
def show_predict(X,Y):
 regr=linear_model.LinearRegression()
 regr.fit(X,Y) 
 plt.scatter(X,Y,color='blue')
 plt.plot(X,regr.predict(X),color='red')
 
show_predict(X,Y)

最后擬合結(jié)果如圖:

python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!


當(dāng)前文章:python怎么實(shí)現(xiàn)簡(jiǎn)單的單變量線性回歸方法-創(chuàng)新互聯(lián)
文章出自:http://weahome.cn/article/djhoco.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部