本篇內(nèi)容主要講解“CNN中ReLU和Pooling操作是怎樣的”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強(qiáng)。下面就讓小編來(lái)帶大家學(xué)習(xí)“CNN中ReLU和Pooling操作是怎樣的”吧!
按需定制開(kāi)發(fā)可以根據(jù)自己的需求進(jìn)行定制,做網(wǎng)站、網(wǎng)站制作構(gòu)思過(guò)程中功能建設(shè)理應(yīng)排到主要部位公司做網(wǎng)站、網(wǎng)站制作的運(yùn)用實(shí)際效果公司網(wǎng)站制作網(wǎng)站建立與制做的實(shí)際意義
02
—
ReLU操作
CNN用的激活函數(shù)不是Sigmoid函數(shù),大家都知道Sigmoid函數(shù)最大的問(wèn)題是隨著深度學(xué)習(xí)會(huì)出現(xiàn)梯度消失,這樣會(huì)導(dǎo)致最后的收斂速度變得很慢,經(jīng)過(guò)實(shí)踐證明,采取另外一個(gè)函數(shù),性能會(huì)更好些,這就是 ReLU 函數(shù),它長(zhǎng)這樣:
可以看出在 x 大于 0 時(shí),它是線性函數(shù),在 x 小于 0 時(shí),它是非線性的函數(shù),因此ReLu綜合起來(lái)看為非線性函數(shù)。
ReLU函數(shù)對(duì)CNN的實(shí)際意義
可以看出CNN中的卷積操作是線性操作,對(duì)應(yīng)元素相乘,然后再求和,又知道在現(xiàn)實(shí)世界中,大部分的數(shù)據(jù)都是非線性的,所以有必要引入一個(gè)非線性的激活函數(shù),下面通過(guò)ReLU操作看下對(duì)圖片的影響:
原圖像
左圖為對(duì)原圖像卷積后的圖像,右圖為ReLU后的圖像,對(duì)于單通道圖上取值范圍為0-255,其中255為白色,0是黑色,因?yàn)榫矸e后的結(jié)果有可能為負(fù)值,所以經(jīng)過(guò)ReLU后,所有的值為非負(fù)值,不再出現(xiàn)有問(wèn)題的負(fù)值。
03
—
Pooling層
Pooling層能起到降低上一層輸入的特征的維數(shù)的作用,但是同時(shí)能保持其最重要的信息,Pooling操作分多種:最大池化,平均池化,求和池化等。
以最大池化為例,池化一般在ReLU操作之后,首先定義一個(gè)相鄰區(qū)域,然后求出這個(gè)區(qū)域的最大值,再選定一個(gè)步長(zhǎng),依次遍歷完圖像,如下圖所示:
Pooling 操作的實(shí)際意義
使得輸入的特征維數(shù)降低,更易于管理
有了第一條,也會(huì)使得權(quán)重參數(shù)個(gè)數(shù)變少,更易于收斂。
Pooling操作相當(dāng)于決策樹中的剪枝操作,能防止過(guò)擬合。
經(jīng)過(guò)池化操作后,CNN可以適應(yīng)圖片小的位移,扭曲,位移
經(jīng)過(guò)吃化操作后,CNN可以幫助我們達(dá)成在一定尺度上的不變性,這是非常重要的,因?yàn)閳D像不再受外界環(huán)境的干擾。
04
—
CNN總結(jié)
至此已經(jīng)介紹完了CNN使用的核心技術(shù),如果將卷積操作,ReLU操作,Pooling操作結(jié)合起來(lái),我們可以得到如下深度網(wǎng)絡(luò),可以看出共進(jìn)行了2次卷積和池化,完成對(duì)輸入的圖像的特征提取,接下來(lái)就是全連接層,所謂的全連接層與之前說(shuō)的DNN(全連接多層神經(jīng)網(wǎng)絡(luò))是一致的,大家可以參考之前的推送復(fù)習(xí)多層感知器。
經(jīng)過(guò)全連接層,會(huì)使用前一層提取的所有主要特征,使用一般的均值方差作為損失函數(shù),在輸出層可以使用softmax分類器完成多分類任務(wù)??梢钥闯鲱A(yù)測(cè)的結(jié)果為一只船,這是合理的。
下面總結(jié)下CNN的算法:
初始化所有的過(guò)濾核,超參數(shù),權(quán)重參數(shù)等
輸入訓(xùn)練的圖像數(shù)據(jù),經(jīng)過(guò)前向傳播,包括:卷積操作,ReLU操作,池化操作和全連接層的前向傳播,最后在輸出層得到屬于每個(gè)類的概率值。
計(jì)算在輸出層的總誤差,采用均方誤差項(xiàng):總誤差 = ∑ ? (目標(biāo)概率 – 輸出概率) 2
用反向傳播計(jì)算誤差項(xiàng)相對(duì)于權(quán)重參數(shù)和偏置項(xiàng)的梯度,以此最小化3中的誤差和,等達(dá)到某個(gè)閾值時(shí),停止訓(xùn)練。
對(duì)所有圖像數(shù)據(jù)重復(fù) 2-4 操作。
到此,相信大家對(duì)“CNN中ReLU和Pooling操作是怎樣的”有了更深的了解,不妨來(lái)實(shí)際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!