主頁 > 知識庫 > 淺談pytorch中的dropout的概率p

淺談pytorch中的dropout的概率p

熱門標(biāo)簽:天津電話機(jī)器人公司 開封語音外呼系統(tǒng)代理商 應(yīng)電話機(jī)器人打電話違法嗎 400電話辦理哪種 河北防封卡電銷卡 電銷機(jī)器人的風(fēng)險(xiǎn) 開封自動(dòng)外呼系統(tǒng)怎么收費(fèi) 手機(jī)網(wǎng)頁嵌入地圖標(biāo)注位置 地圖標(biāo)注線上如何操作

最近需要訓(xùn)練一個(gè)模型,在優(yōu)化模型時(shí)用了dropout函數(shù),為了減少過擬合。

訓(xùn)練的時(shí)候用dropout,測試的時(shí)候不用dropout。剛開始以為p是保留神經(jīng)元的比率,訓(xùn)練設(shè)置0.5,測試設(shè)置1,loss根本沒減小過,全設(shè)置成1也是一樣的效果,后來就考慮到是不是p設(shè)置錯(cuò)了。

上網(wǎng)一搜,果然是的?。?!p的含義理解錯(cuò)了!不是保留的,而是不保留的!

具體的代碼為:

x2 = F.dropout(x1, p)

x1是上一層網(wǎng)絡(luò)的輸出,p是需要?jiǎng)h除的神經(jīng)元的比例。

當(dāng)p=0時(shí),保留全部神經(jīng)元更新。當(dāng)p=1時(shí),神經(jīng)元輸出的值都為0。

補(bǔ)充:Pytorch--Dropout筆記

dropout常常用于抑制過擬合,pytorch也提供了很方便的函數(shù)。但是經(jīng)常不知道dropout的參數(shù)p是什么意思。

在TensorFlow中p叫做keep_prob,就一直以為pytorch中的p應(yīng)該就是保留節(jié)點(diǎn)數(shù)的比例,但是實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)反了,實(shí)際上表示的是不保留節(jié)點(diǎn)數(shù)的比例。

看下面的例子:

a = torch.randn(10,1)
>>> tensor([[ 0.0684],
        [-0.2395],
        [ 0.0785],
        [-0.3815],
        [-0.6080],
        [-0.1690],
        [ 1.0285],
        [ 1.1213],
        [ 0.5261],
        [ 1.1664]])

p=0.5

torch.nn.Dropout(0.5)(a)
>>> tensor([[ 0.0000],  
        [-0.0000],  
        [ 0.0000],  
        [-0.7631],  
        [-0.0000],  
        [-0.0000],  
        [ 0.0000],  
        [ 0.0000],  
        [ 1.0521],  
        [ 2.3328]]) 

p=0

torch.nn.Dropout(0)(a)
>>> tensor([[ 0.0684],
        [-0.2395],
        [ 0.0785],
        [-0.3815],
        [-0.6080],
        [-0.1690],
        [ 1.0285],
        [ 1.1213],
        [ 0.5261],
        [ 1.1664]]) 

p=1

torch.nn.Dropout(0)(a)
>>> tensor([[0.],  
        [-0.], 
        [0.],  
        [-0.], 
        [-0.], 
        [-0.], 
        [0.],  
        [0.],  
        [0.],  
        [0.]]) 

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch 實(shí)現(xiàn)在測試的時(shí)候啟用dropout
  • PyTorch 實(shí)現(xiàn)L2正則化以及Dropout的操作
  • Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用詳解解

標(biāo)簽:江蘇 六盤水 宿遷 成都 常州 駐馬店 山東 蘭州

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《淺談pytorch中的dropout的概率p》,本文關(guān)鍵詞  淺談,pytorch,中的,dropout,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《淺談pytorch中的dropout的概率p》相關(guān)的同類信息!
  • 本頁收集關(guān)于淺談pytorch中的dropout的概率p的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章