真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

如何理解Tensorflow中的GER-VNet

如何理解Tensorflow中的GER-VNet,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來(lái)學(xué)習(xí)下,希望你能有所收獲。

成都創(chuàng)新互聯(lián)公司主營(yíng)鐵門(mén)關(guān)網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營(yíng)網(wǎng)站建設(shè)方案,app軟件開(kāi)發(fā)公司,鐵門(mén)關(guān)h5微信小程序搭建,鐵門(mén)關(guān)網(wǎng)站營(yíng)銷(xiāo)推廣歡迎鐵門(mén)關(guān)等地區(qū)企業(yè)咨詢

一、常規(guī)卷積網(wǎng)絡(luò)的局限性

1、常規(guī)的卷積神經(jīng)網(wǎng)絡(luò)只能利用變化的平移,而忽略醫(yī)學(xué)圖像中存在的其它固有對(duì)稱性,例如旋轉(zhuǎn)和反射。為了緩解這一缺點(diǎn),本文提出新穎的組不變性分割框架,其通過(guò)編碼那些固有的對(duì)稱性來(lái)學(xué)習(xí)更精確的表達(dá)。首先,在每個(gè)方向上都設(shè)計(jì)了基于核的不變運(yùn)算,可以有效地解決現(xiàn)有方法中學(xué)習(xí)對(duì)稱性的問(wèn)題。然后,為使分割網(wǎng)絡(luò)保持全局等價(jià),設(shè)計(jì)了具有分層對(duì)稱約束的獨(dú)特組層。通過(guò)利用更多的對(duì)稱性,新穎的分割CNN可以比常規(guī)CNN大大降低樣本復(fù)雜度和過(guò)濾器的冗余(大約2/3)。

2、為了讓常規(guī)CNN擁有更多的對(duì)稱屬性,常見(jiàn)有三個(gè)策略方法。第一個(gè)是數(shù)據(jù)增強(qiáng),是常見(jiàn)的有效方法,雖然數(shù)據(jù)增強(qiáng)可以讓CNN學(xué)習(xí)到不同變換特征,但是學(xué)習(xí)到的CNN特征參數(shù)大小會(huì)變大從而導(dǎo)致特征參數(shù)過(guò)度冗余,過(guò)擬合風(fēng)險(xiǎn)也越高。此外,這類(lèi)軟約束不能保證訓(xùn)練好的CNN模型在測(cè)試數(shù)據(jù)或訓(xùn)練數(shù)據(jù)上具有不變性。第二個(gè)是在現(xiàn)有旋轉(zhuǎn)不變網(wǎng)絡(luò)中可以在每一層維持多個(gè)旋轉(zhuǎn)特征圖,并且易于實(shí)現(xiàn)。但是在每一層旋轉(zhuǎn)和重復(fù)原始特征輸出,大大增加了存儲(chǔ)需求。第三個(gè)是通過(guò)作用于濾波器的旋轉(zhuǎn)等變性的方式,這已經(jīng)成為一個(gè)有希望的方向。盡管旋轉(zhuǎn)的卷積核可以在每個(gè)卷積層的不同方向上實(shí)現(xiàn)局部對(duì)稱,但是這些解決方案通過(guò)會(huì)限制了網(wǎng)絡(luò)的深度和全局旋轉(zhuǎn)不變性,這是由于維數(shù)爆炸和方向池化操作產(chǎn)生了加劇噪聲所致。

3、論文靈感來(lái)自于圖像常規(guī)分類(lèi)中的組不變CNN。通過(guò)將平移,旋轉(zhuǎn)和反射結(jié)合在一起來(lái)建立對(duì)稱組,以顯著提高每個(gè)內(nèi)核的利用率并減少過(guò)濾器的數(shù)量。設(shè)計(jì)了強(qiáng)大的分層約束以確保每個(gè)網(wǎng)絡(luò)的均等性并具有嚴(yán)格的數(shù)學(xué)證明。在過(guò)濾器而不是特征圖上執(zhí)行等變變換,以減少內(nèi)存需求。組不變層和模塊可以以端到端的方式使網(wǎng)絡(luò)全局不變。此外,它們可以堆疊到用于各種視覺(jué)分割任務(wù)的更深層次的體系結(jié)構(gòu)中,而基于常規(guī)CNN的對(duì)等對(duì)象的計(jì)算開(kāi)銷(xiāo)卻可以忽略不計(jì)。

二、GER-Unet網(wǎng)絡(luò)

1、組不變分割框架的核心模塊

所有的網(wǎng)絡(luò)操作都是基于相同對(duì)稱組,其由平移,旋轉(zhuǎn)90度和反射組成,因此一共有八個(gè)組即4個(gè)純旋轉(zhuǎn)和自己相應(yīng)反射。

組輸入層:第一層輸入是原始輸入圖像。將輸入圖像與8個(gè)旋轉(zhuǎn)和反射具有相同卷積核進(jìn)行卷積,最開(kāi)始是一個(gè)卷積核參數(shù),通過(guò)旋轉(zhuǎn)90度和自己反射生成8個(gè)方向卷積核,如下圖所示。

如何理解Tensorflow中的GER-VNet

組隱藏層:輸入是不同方向的特征圖。對(duì)輸入每個(gè)方向的特征圖與8個(gè)旋轉(zhuǎn)和反射對(duì)稱組進(jìn)行卷積計(jì)算,如圖所示。

如何理解Tensorflow中的GER-VNet

三、實(shí)驗(yàn)細(xì)節(jié)及結(jié)果

1、訓(xùn)練數(shù)據(jù):131例增強(qiáng)CT數(shù)據(jù)。

2、評(píng)價(jià)指標(biāo):為了比較不同分割方法的結(jié)果,采用dice,Hausdorff距離,Jaccard,精度(稱為正預(yù)測(cè)值),召回率(稱為靈敏度系數(shù)或真實(shí)陽(yáng)性率),特異性(稱為真實(shí)陰性率)和F1得分。

3、參數(shù)設(shè)置:訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)比值是4:1。在tesla V100(16g顯存)上訓(xùn)練,batchsize是4,學(xué)習(xí)率是0.0002,訓(xùn)練次數(shù)是300epochs,并采用早停止策略,采用交叉熵函數(shù),采用Adam優(yōu)化器。

4、結(jié)果比較

相比于其它網(wǎng)絡(luò)模型,GERUnet魯棒性更好,各項(xiàng)指標(biāo)都優(yōu)于其它網(wǎng)絡(luò)模型結(jié)果。收斂速度也比其它網(wǎng)絡(luò)模型速度快。

看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對(duì)創(chuàng)新互聯(lián)的支持。


本文名稱:如何理解Tensorflow中的GER-VNet
文章轉(zhuǎn)載:http://weahome.cn/article/gedcis.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部