小編這次要給大家分享的是keras加入lambda層時shape出現(xiàn)問題怎么辦,文章內(nèi)容豐富,感興趣的小伙伴可以來了解一下,希望大家閱讀完這篇文章之后能夠有所收獲。
成都創(chuàng)新互聯(lián)公司-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設、高性價比呼和浩特網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式呼和浩特網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設找我們,業(yè)務覆蓋呼和浩特地區(qū)。費用合理售后完善,十載實體公司更值得信賴。使用keras時,加入keras的lambda層以實現(xiàn)自己定義的操作。但是,發(fā)現(xiàn)操作結果的shape信息有問題。
我的后端是theano,使用了sum操作。
比如輸入時,shape為(32,28,28),其中32為batch大小。
此時對應的ndim應該等于3。
但是,lambda處理后結果顯示_keras_shape為(32,28,28),而ndim卻是2。
這導致后邊各項操作都會出現(xiàn)問題。
此處sum函數(shù)加入?yún)?shù)keepdims=True即可。
此注意keras中的各種層幾乎都不用去理會batch的大小,系統(tǒng)會自動在shape中加入None占位,所以很多參數(shù)也不用加入batch的大小。但是進行sum等操作時,選擇按照哪個axis進行操作,要考慮batch的存在。
補充知識:keras Merge or merge
在使用keras merge層時,發(fā)現(xiàn)有Merge 、merge兩種:
from keras.layers import Merge
from keras.layers import merge
使用第一種是報錯
“TensorVariable object has no attribute 'get_output_shape_at' ”
使用第二種小寫即可。
看完這篇關于keras加入lambda層時shape出現(xiàn)問題怎么辦的文章,如果覺得文章內(nèi)容寫得不錯的話,可以把它分享出去給更多人看到。
另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。