小編給大家分享一下如何使用tf.nn.dynamic_rnn展開時間維度,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
我們提供的服務有:成都做網(wǎng)站、成都網(wǎng)站設計、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認證、尼勒克ssl等。為上千家企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務,是有科學管理、有技術的尼勒克網(wǎng)站制作公司對于單個的 RNNCell , 使用色的 call 函數(shù)進行運算時 ,只是在序列時間上前進了一步 。
如使用 x1、 ho 得到此h2, 通過 x2 、 h2 得到 h3 等 。
tf.nn.dynamic_rnn的作用:
如果序列長度為n,要調(diào)用n次call函數(shù),比較麻煩。對此,TensorFlow提供了一個tf.nn.dynamic_mn函數(shù),使用該函數(shù)相當于調(diào)用了n次call函數(shù)。通過{ho, x1 , x2,…, xn} 直接得到{h2 , h3,…, hn} 。
具體來說,設輸入數(shù)據(jù)的格式為(batch_size, time_steps, input size),
其中batch_size表示batch的大小,即包含幾個序列。
time_steps表示序列長度,
input_size表示輸入數(shù)據(jù)單個序列單個時間維度上固有的長度。
此時,得到的outputs是time_steps步里所有的輸出。它的形狀為(batch_size, time_steps, cell.output size)。state 是最后一步的隱狀態(tài),形狀為(batch_size, cell . state_size) 。
至此,在對每一步的輸出進行變換,可以得到損失并進行訓練模型了。
以上是“如何使用tf.nn.dynamic_rnn展開時間維度”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)成都網(wǎng)站設計公司行業(yè)資訊頻道!
另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。