日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

什么事反向傳播算法 反向傳播算法過程

自從機(jī)器學(xué)習(xí)被引入到遞歸的非線性函數(shù)中(例如人工神經(jīng)網(wǎng)絡(luò))以來,對相關(guān)內(nèi)容的應(yīng)用得到了充足的發(fā)展 。在這種情況下,訓(xùn)練正確的神經(jīng)網(wǎng)絡(luò)是建立可靠模型最重要的方面 。這種訓(xùn)練通常與”反向傳播”一詞聯(lián)系在一起,這個術(shù)語對大多數(shù)新手來說是非常模糊的 。這也是本文所存在的意義 。

什么事反向傳播算法 反向傳播算法過程


反向傳播是神經(jīng)網(wǎng)絡(luò)訓(xùn)練的本質(zhì) 。它實(shí)際上是基于在前一歷元(即迭代)中獲得的誤差率(即損失)對神經(jīng)網(wǎng)絡(luò)的權(quán)重進(jìn)行微調(diào)的實(shí)踐 。適當(dāng)?shù)恼{(diào)整權(quán)重可確保較低的錯誤率,增加模型的適用性使模型更可靠 。
那么這個過程如何運(yùn)作的呢?讓我們通過例子學(xué)習(xí)!
為了使這個例子盡可能便于大家理解,我們只涉及相關(guān)概念(例如損失函數(shù)、優(yōu)化函數(shù)等)而不解釋它們,因?yàn)檫@些主題值得我們另起一篇文章進(jìn)行細(xì)說 。
首先,讓我們設(shè)置模型組件
想象一下,我們需要訓(xùn)練一個深層神經(jīng)網(wǎng)絡(luò) 。訓(xùn)練的目的是構(gòu)建一個模型,該模型使用兩個輸入和三個隱藏單元執(zhí)行XOR(異或)函數(shù),這樣訓(xùn)練集看起來如下所示:

什么事反向傳播算法 反向傳播算法過程


此外,我們需要一個激活函數(shù)來確定神經(jīng)網(wǎng)絡(luò)中每個節(jié)點(diǎn)的激活值 。為簡單起見,讓我們選擇一個激活函數(shù):

什么事反向傳播算法 反向傳播算法過程


我們還需要一個假設(shè)函數(shù)來確定激活函數(shù)的輸入是什么 。這個函數(shù)是:

什么事反向傳播算法 反向傳播算法過程


讓我們選擇損失函數(shù)作為邏輯回歸的一般成本函數(shù),看起來有點(diǎn)復(fù)雜,但實(shí)際上相當(dāng)簡單:

什么事反向傳播算法 反向傳播算法過程


此外,我們將使用批處理梯度下降優(yōu)化函數(shù),用于確定我們應(yīng)該調(diào)整權(quán)重的方向,以獲得比我們現(xiàn)有的更低的損失 。最后,學(xué)習(xí)率為0.1,所有權(quán)重將初始化為1 。
我們的神經(jīng)網(wǎng)絡(luò)
讓我們最后畫一張我們期待已久的神經(jīng)網(wǎng)絡(luò)圖 。它應(yīng)該看起來像這樣:

什么事反向傳播算法 反向傳播算法過程


最左邊的層是輸入層,它將X0作為值1的偏置項(xiàng),將X1和X2作為輸入特征 。中間的層是第一個隱藏層,它的偏置項(xiàng)Z0也取值為1 。最后,輸出層只有一個輸出單元D0,其激活值是模型的實(shí)際輸出(即h(x))。
現(xiàn)在我們向前傳播
現(xiàn)在是將信息從一個層前饋到另一個層的時候了 。這需要經(jīng)過兩個步驟,通過網(wǎng)絡(luò)中的每個節(jié)點(diǎn)/單元:
1. 使用我們之前定義的h(x)函數(shù)獲取特定單位輸入的加權(quán)和 。
2.將我們從步驟1得到的值插入我們的激活函數(shù)(本例中為f(a)= a)并使用我們得到的激活值(即激活函數(shù)的輸出)作為連接輸入特征的下一層中的節(jié)點(diǎn) 。
請注意,單位X0,X1,X2和Z0沒有任何連接到它們并任提供輸入的單位 。因此,上述步驟不會出現(xiàn)在這些節(jié)點(diǎn)中 。但是,對于其余的節(jié)點(diǎn)/單元,訓(xùn)練集中第一個輸入樣本的整個神經(jīng)網(wǎng)絡(luò)都是這樣的:

什么事反向傳播算法 反向傳播算法過程


其他單位也是如此:

什么事反向傳播算法 反向傳播算法過程



什么事反向傳播算法 反向傳播算法過程


如前所述,最終單位(D0)的激活值(z)是整個模型的激活值(z) 。因此,我們的模型預(yù)測輸入集{0,0}的輸出為1 。計算當(dāng)前迭代的損失/成本如下:

推薦閱讀