真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

tensorflow實(shí)現(xiàn)softma識(shí)別MNIST-創(chuàng)新互聯(lián)

識(shí)別MNIST已經(jīng)成了深度學(xué)習(xí)的hello world,所以每次例程基本都會(huì)用到這個(gè)數(shù)據(jù)集,這個(gè)數(shù)據(jù)集在tensorflow內(nèi)部用著很好的封裝,因此可以方便地使用。

站在用戶的角度思考問(wèn)題,與客戶深入溝通,找到烏蘇網(wǎng)站設(shè)計(jì)與烏蘇網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗(yàn),讓設(shè)計(jì)與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個(gè)性化、用戶體驗(yàn)好的作品,建站類(lèi)型包括:網(wǎng)站建設(shè)、成都網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣、域名與空間、虛擬空間、企業(yè)郵箱。業(yè)務(wù)覆蓋烏蘇地區(qū)。

這次我們用tensorflow搭建一個(gè)softmax多分類(lèi)器,和之前搭建線性回歸差不多,第一步是通過(guò)確定變量建立圖模型,然后確定誤差函數(shù),最后調(diào)用優(yōu)化器優(yōu)化。

誤差函數(shù)與線性回歸不同,這里因?yàn)槭嵌喾诸?lèi)問(wèn)題,所以使用了交叉熵。

另外,有一點(diǎn)值得注意的是,這里構(gòu)建模型時(shí)我試圖想拆分多個(gè)函數(shù),但是后來(lái)發(fā)現(xiàn)這樣做難度很大,因?yàn)閳D是在規(guī)定變量就已經(jīng)定義好的,不能隨意拆分,也不能當(dāng)做變量傳來(lái)傳去,因此需要將他們寫(xiě)在一起。

代碼如下:

#encoding=utf-8 
__author__ = 'freedom' 
import tensorflow as tf 
 
def loadMNIST(): 
 from tensorflow.examples.tutorials.mnist import input_data 
 mnist = input_data.read_data_sets('MNIST_data',one_hot=True) 
 return mnist 
 
def softmax(mnist,rate=0.01,batchSize=50,epoch=20): 
 n = 784 # 向量的維度數(shù)目 
 m = None # 樣本數(shù),這里可以獲取,也可以不獲取 
 c = 10 # 類(lèi)別數(shù)目 
 
 x = tf.placeholder(tf.float32,[m,n]) 
 y = tf.placeholder(tf.float32,[m,c]) 
 
 w = tf.Variable(tf.zeros([n,c])) 
 b = tf.Variable(tf.zeros([c])) 
 
 pred= tf.nn.softmax(tf.matmul(x,w)+b) 
 loss = tf.reduce_mean(-tf.reduce_sum(y*tf.log(pred),reduction_indices=1)) 
 opt = tf.train.GradientDescentOptimizer(rate).minimize(loss) 
 
 init = tf.initialize_all_variables() 
 
 sess = tf.Session() 
 sess.run(init) 
 for index in range(epoch): 
  avgLoss = 0 
  batchNum = int(mnist.train.num_examples/batchSize) 
  for batch in range(batchNum): 
   batch_x,batch_y = mnist.train.next_batch(batchSize) 
   _,Loss = sess.run([opt,loss],{x:batch_x,y:batch_y}) 
   avgLoss += Loss 
  avgLoss /= batchNum 
  print 'every epoch average loss is ',avgLoss 
 
 right = tf.equal(tf.argmax(pred,1),tf.argmax(y,1)) 
 accuracy = tf.reduce_mean(tf.cast(right,tf.float32)) 
 print 'Accracy is ',sess.run(accuracy,({x:mnist.test.images,y:mnist.test.labels})) 
 
 
if __name__ == "__main__": 
 mnist = loadMNIST() 
 softmax(mnist) 

分享標(biāo)題:tensorflow實(shí)現(xiàn)softma識(shí)別MNIST-創(chuàng)新互聯(lián)
文章起源:http://weahome.cn/article/ggjso.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部