真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)-創(chuàng)新互聯(lián)

用Python實現(xiàn)出來的機器學(xué)習(xí)算法都是什么樣子呢? 前兩期線性回歸及邏輯回歸項目已發(fā)布(見文末鏈接),今天來講講BP神經(jīng)網(wǎng)絡(luò)。

讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對這個行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價值的長期合作伙伴,公司提供的服務(wù)項目有:主機域名網(wǎng)站空間、營銷軟件、網(wǎng)站建設(shè)、澄海網(wǎng)站維護、網(wǎng)站推廣。

BP神經(jīng)網(wǎng)絡(luò)

全部代碼

https://github.com/lawlite19/MachineLearning_Python/blob/master/NeuralNetwok/NeuralNetwork.py

神經(jīng)網(wǎng)絡(luò)model

先介紹個三層的神經(jīng)網(wǎng)絡(luò),如下圖所示

輸入層(input layer)有三個units(

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

為補上的bias,通常設(shè)為1)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

表示第j層的第i個激勵,也稱為為單元unit

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

為第j層到第j+1層映射的權(quán)重矩陣,就是每條邊的權(quán)重

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

所以可以得到:

隱含層:

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

輸出層

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

,

其中,S型函數(shù)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

,也成為激勵函數(shù)

可以看出

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

為3x4的矩陣,

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

為1x4的矩陣

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

==》j+1的單元數(shù)x(j層的單元數(shù)+1)

代價函數(shù)

假設(shè)最后輸出的

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

,即代表輸出層有K個單元

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

,

其中,

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

代表第i個單元輸出與邏輯回歸的代價函數(shù)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

差不多,就是累加上每個輸出(共有K個輸出)

正則化

L-->所有層的個數(shù)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

-->第l層unit的個數(shù)

正則化后的代價函數(shù)為

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)

共有L-1層,然后是累加對應(yīng)每一層的theta矩陣,注意不包含加上偏置項對應(yīng)的theta(0)

正則化后的代價函數(shù)實現(xiàn)代碼:

# 代價函數(shù)

def nnCostFunction(nn_params,input_layer_size,hidden_layer_size,num_labels,X,y,Lambda):

length = nn_params.shape[0] # theta的中長度

# 還原theta1和theta2

Theta1 = nn_params[0:hidden_layer_size*(input_layer_size+1)].reshape(hidden_layer_size,input_layer_size+1)

Theta2 = nn_params[hidden_layer_size*(input_layer_size+1):length].reshape(num_labels,hidden_layer_size+1)

# np.savetxt("Theta1.csv",Theta1,delimiter=',')

m = X.shape[0]

class_y = np.zeros((m,num_labels)) # 數(shù)據(jù)的y對應(yīng)0-9,需要映射為0/1的關(guān)系

# 映射y

for i in range(num_labels):

class_y[:,i] = np.int32(y==i).reshape(1,-1) # 注意reshape(1,-1)才可以賦值

'''去掉theta1和theta2的第一列,因為正則化時從1開始'''

Theta1_colCount = Theta1.shape[1]

Theta1_x = Theta1[:,1:Theta1_colCount]

Theta2_colCount = Theta2.shape[1]

Theta2_x = Theta2[:,1:Theta2_colCount]

# 正則化向theta^2

term = np.dot(np.transpose(np.vstack((Theta1_x.reshape(-1,1),Theta2_x.reshape(-1,1)))),np.vstack((Theta1_x.reshape(-1,1),Theta2_x.reshape(-1,1))))

'''正向傳播,每次需要補上一列1的偏置bias'''

a1 = np.hstack((np.ones((m,1)),X))

z2 = np.dot(a1,np.transpose(Theta1))

a2 = sigmoid(z2)

a2 = np.hstack((np.ones((m,1)),a2))

z3 = np.dot(a2,np.transpose(Theta2))

h = sigmoid(z3)

'''代價'''

J = -(np.dot(np.transpose(class_y.reshape(-1,1)),np.log(h.reshape(-1,1)))+np.dot(np.transpose(1-class_y.reshape(-1,1)),np.log(1-h.reshape(-1,1)))-Lambda*term/2)/m

return np.ravel(J)

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。


網(wǎng)站標(biāo)題:用Python實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)(附代碼)-創(chuàng)新互聯(lián)
地址分享:http://weahome.cn/article/cseipo.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部