真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

TensorFlow如何自定義損失函數(shù)來(lái)預(yù)測(cè)商品銷售量-創(chuàng)新互聯(lián)

這篇文章主要介紹TensorFlow如何自定義損失函數(shù)來(lái)預(yù)測(cè)商品銷售量,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

公司主營(yíng)業(yè)務(wù):做網(wǎng)站、網(wǎng)站制作、移動(dòng)網(wǎng)站開(kāi)發(fā)等業(yè)務(wù)。幫助企業(yè)客戶真正實(shí)現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競(jìng)爭(zhēng)能力。創(chuàng)新互聯(lián)是一支青春激揚(yáng)、勤奮敬業(yè)、活力青春激揚(yáng)、勤奮敬業(yè)、活力澎湃、和諧高效的團(tuán)隊(duì)。公司秉承以“開(kāi)放、自由、嚴(yán)謹(jǐn)、自律”為核心的企業(yè)文化,感謝他們對(duì)我們的高要求,感謝他們從不同領(lǐng)域給我們帶來(lái)的挑戰(zhàn),讓我們激情的團(tuán)隊(duì)有機(jī)會(huì)用頭腦與智慧不斷的給客戶帶來(lái)驚喜。創(chuàng)新互聯(lián)推出黃山區(qū)免費(fèi)做網(wǎng)站回饋大家。

在預(yù)測(cè)商品銷量時(shí),如果預(yù)測(cè)多了(預(yù)測(cè)值比真實(shí)銷量大),商家損失的是生產(chǎn)商品的成本;而如果預(yù)測(cè)少了(預(yù)測(cè)值比真實(shí)銷量?。?,損失的則是商品的利潤(rùn)。因?yàn)橐话闵唐返某杀竞蜕唐返睦麧?rùn)不會(huì)嚴(yán)格相等,比如如果一個(gè)商品的成本是1元,但是利潤(rùn)是10元,那么少預(yù)測(cè)一個(gè)就少掙10元;而多預(yù)測(cè)一個(gè)才少掙1元,所以如果神經(jīng)網(wǎng)絡(luò)模型最小化的是均方誤差損失函數(shù),那么很有可能此模型就無(wú)法大化預(yù)期的銷售利潤(rùn)。

為了大化預(yù)期利潤(rùn),需要將損失函數(shù)和利潤(rùn)直接聯(lián)系起來(lái),需要注意的是,損失函數(shù)定義的是損失,所以要將利潤(rùn)大化,定義的損失函數(shù)應(yīng)該刻畫成本或者代價(jià),下面的公式給出了一個(gè)當(dāng)預(yù)測(cè)多于真實(shí)值和預(yù)測(cè)少于真實(shí)值時(shí)有不同損失系數(shù)的損失函數(shù):

TensorFlow如何自定義損失函數(shù)來(lái)預(yù)測(cè)商品銷售量

其中,yi為一個(gè)batch中第i個(gè)數(shù)據(jù)的真實(shí)值,yi'為神經(jīng)網(wǎng)絡(luò)得到的預(yù)測(cè)值,a和b是常量,比如在上面介紹的銷量預(yù)測(cè)問(wèn)題中,a就等于10 (真實(shí)值多于預(yù)測(cè)值的代價(jià)),而b等于1 (真實(shí)值少于預(yù)測(cè)值的代價(jià))。

通過(guò)對(duì)這個(gè)自定義損失函數(shù)的優(yōu)化,模型提供的預(yù)測(cè)值更有可能大化收益,在TensorFlow中,可以通過(guò)以下代碼來(lái)實(shí)現(xiàn)這個(gè)損失函數(shù):

loss = tf.reduce_sum(tf.where(tf.greater(y_, y), (y_ - y) * loss_less, (y - y_) * loss_more))

①tf.greater函數(shù)的輸入是兩個(gè)張量,此函數(shù)會(huì)比較這兩個(gè)輸入張量中每一個(gè)元素的大小,并返回比較結(jié)果,當(dāng)tf.greater的輸入張量維度不一樣時(shí),TensorFlow會(huì)進(jìn)行類似NumPy廣播操作(broadcasting)的處理;

②tf.where函數(shù)有三個(gè)參數(shù),第一個(gè)為選擇條件,當(dāng)選擇條件為True時(shí),tf.where函數(shù)會(huì)選擇第二個(gè)參數(shù)中的值,否則使用第三個(gè)參數(shù)中的值,需要注意的是,tf.where函數(shù)的判斷和選擇都是在元素級(jí)別進(jìn)行的。

接下來(lái)使用一段TensorFlow代碼展示這兩個(gè)函數(shù)的使用:

import tensorflow as tf
v1 = tf.constant([1.0, 2.0, 3.0, 4.0])
v2 = tf.constant([4.0, 3.0, 2.0, 1.0])
with tf.Session() as sess:
 print(sess.run(tf.greater(v1, v2)))
 print(sess.run(tf.where(tf.greater(v1, v2), v1, v2)))
 '''輸出結(jié)果為:
 [False False True True]
 [4. 3. 3. 4.]'''

在了解如何使用這兩個(gè)函數(shù)之后,我們來(lái)看一看剛才的預(yù)測(cè)商品銷售量的實(shí)例如何通過(guò)具體的TensorFlow代碼實(shí)現(xiàn):

import tensorflow as tf
from numpy.random import RandomState

#聲明wl、W2兩個(gè)變量,通過(guò)seed參數(shù)設(shè)定了隨機(jī)種子,這樣可以保證每次運(yùn)行得到的結(jié)果是一樣的
w = tf.Variable(tf.random_normal([2, 1], stddev=1, seed=1))

x = tf.placeholder(tf.float32, shape=(None, 2), name="x-input")
y_ = tf.placeholder(tf.float32, shape=(None, 1), name="y-input")

#定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
y = tf.matmul(x, w)

#定義真實(shí)值與預(yù)測(cè)值之間的交叉熵?fù)p失函數(shù),來(lái)刻畫真實(shí)值與預(yù)測(cè)值之間的差距
loss_less = 10
loss_more = 1
loss = tf.reduce_sum(tf.where(tf.greater(y_, y), (y_ - y) * loss_less, (y - y_) * loss_more))

#定義反向傳播算法的優(yōu)化方法
train_step = tf.train.AdamOptimizer(learning_rate=0.001).minimize(loss)

#設(shè)置隨機(jī)數(shù)種子
rdm = RandomState(seed=1)
#設(shè)置隨機(jī)數(shù)據(jù)集大小
dataset_size = 128
X = rdm.rand(dataset_size, 2)
'''設(shè)置回歸的正確值為兩個(gè)輸入的和加上一個(gè)隨機(jī)量。
之所以要加上一個(gè)隨機(jī)量是為了加入不可預(yù)測(cè)的噪音,否則不同損失函數(shù)的意義就不大了,因?yàn)椴煌瑩p失函數(shù)都會(huì)在能完全預(yù)測(cè)正確的時(shí)候最低。
一般來(lái)說(shuō)噪音為一個(gè)均值為0的小量,所以這里的噪音設(shè)置為-0.05——0.05的隨機(jī)數(shù)。'''
Y = [[x1 + x2 + rdm.rand()/10.0 -0.05] for x1,x2 in X]

#創(chuàng)建會(huì)話
with tf.Session() as sess:
 #初始化變量
 init_op = tf.global_variables_initializer()
 sess.run(init_op)
 
 print(sess.run(w))
 
 #設(shè)置batch訓(xùn)練數(shù)據(jù)的大小
 batch_size = 8
 #設(shè)置訓(xùn)練得輪數(shù)
 STEPS = 5000
 for i in range(STEPS):
  #每次選取batch_size個(gè)樣本進(jìn)行訓(xùn)練
  start = (i * batch_size) % dataset_size
  end = min(start + batch_size, dataset_size)

  #通過(guò)選取的樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò)并更新參數(shù)
  sess.run(train_step, feed_dict={x:X[start:end], y_:Y[start:end]})
 
 print(sess.run(w))
 '''輸出結(jié)果為:
 [[-0.8113182]
 [ 1.4845988]]
 [[1.019347 ]
 [1.0428089]]'''

可以看到參數(shù)w優(yōu)化后,預(yù)測(cè)函數(shù)為1.019347 * x1 + 1.0428089 * x2,顯然是大于實(shí)際的預(yù)測(cè)函數(shù)x1 + x2的,這是因?yàn)槲覀兊膿p失函數(shù)中指定預(yù)測(cè)少了的損失更大(loss_less > loss_more),所以模型會(huì)偏向于預(yù)測(cè)多一點(diǎn)。

如果我們更換代碼,改為:

loss_less = 1
loss_more = 10

那么我們的結(jié)果就會(huì)變?yōu)椋?/p>

[[-0.8113182]
 [ 1.4845988]]
[[0.95561105]
 [0.98101896]]

預(yù)測(cè)函數(shù)變?yōu)榱?.95561105 * x1 + 0.98101896 * x2,可以看到這時(shí)候模型就會(huì)偏向于預(yù)測(cè)少一點(diǎn)。

因此,我們可以得出結(jié)論:對(duì)于相同的神經(jīng)網(wǎng)絡(luò),不同的損失函數(shù)會(huì)對(duì)訓(xùn)練得到的模型產(chǎn)生不同效果。

以上是“TensorFlow如何自定義損失函數(shù)來(lái)預(yù)測(cè)商品銷售量”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計(jì)公司行業(yè)資訊頻道!

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。


本文題目:TensorFlow如何自定義損失函數(shù)來(lái)預(yù)測(cè)商品銷售量-創(chuàng)新互聯(lián)
文章URL:http://weahome.cn/article/digopj.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部