你好:
創(chuàng)新互聯(lián)建站是一家集網(wǎng)站建設(shè),象山企業(yè)網(wǎng)站建設(shè),象山品牌網(wǎng)站建設(shè),網(wǎng)站定制,象山網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營(yíng)銷,網(wǎng)絡(luò)優(yōu)化,象山網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競(jìng)爭(zhēng)力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長(zhǎng)自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。
上面的程序,請(qǐng)看如下代碼:
#?-*-?coding:?cp936?-*-
end=input("是否結(jié)束(y/n):")
while?end=="n":
print?"Number?of?coordinates:2"
xx=input("x's:")
yy=input("y's:")
a=float(list(xx)[0])
b=float(list(xx)[1])
c=float(list(yy)[0])
d=float(list(yy)[1])
print?"第一個(gè)點(diǎn)是:("+str(a)+","+str(c)+")"
print?"第一個(gè)點(diǎn)是:("+str(b)+","+str(d)+")"
x0=c-a
y0=float(d-b)
print?"直線方程為:",
if?x0==0:
print?"x=",a
else:
print?"y=%r(x-%r)+%r"%(y0/x0,a,c)
樣本中心點(diǎn)為橫坐標(biāo)是x的平均值,縱坐標(biāo)是y的平均值。
回歸方程所代表的直線經(jīng)過(guò)樣本中心點(diǎn),單單給出方程表達(dá)式,應(yīng)該是沒法求樣本中心點(diǎn)的!
基本形式
線性模型(linear model)就是試圖通過(guò)屬性的線性組合來(lái)進(jìn)行預(yù)測(cè)的函數(shù),基本形式如下:
f(x)=wTx+b
許多非線性模型可在線性模型的基礎(chǔ)上通過(guò)引入層結(jié)構(gòu)或者高維映射(比如核方法)來(lái)解決。線性模型有很好的解釋性。
線性回歸
線性回歸要求均方誤差最小:
(w?,b?)=argmin∑i=1m(f(xi)?yi)2
均方誤差有很好的幾何意義,它對(duì)應(yīng)了常用的歐式距離(Euclidean distance)。基于均方誤差最小化來(lái)進(jìn)行模型求解稱為最小二乘法(least square method),線性回歸中,最小二乘發(fā)就是試圖找到一條直線,使得所有樣本到直線的歐式距離之和最小。
我們把上式寫成矩陣的形式:
w?=argmin(y?Xw)T(y?Xw)
這里我們把b融合到w中,X中最后再加一列1。為了求最小值,我們對(duì)w求導(dǎo)并令其為0:
2XT(Xw?y)=0
當(dāng)XTX為滿秩矩陣(full-rank matrix)時(shí)是可逆的。此時(shí):
w=(XTX)?1XTy
令xi=(xi,1),可以得到線性回歸模型:
f(xi)=xTi(XTX)?1XTy