主頁 > 知識(shí)庫 > Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新問題及思路詳解

Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新問題及思路詳解

熱門標(biāo)簽:ai電銷機(jī)器人源碼 地圖標(biāo)注審核表 西藏房產(chǎn)智能外呼系統(tǒng)要多少錢 宿遷星美防封電銷卡 百度地圖標(biāo)注沒有了 外呼并發(fā)線路 ai電話機(jī)器人哪里好 湛江智能外呼系統(tǒng)廠家 長沙高頻外呼系統(tǒng)原理是什么

實(shí)際問題

Pytorch有的時(shí)候需要對(duì)一些層的參數(shù)進(jìn)行固定,這些層不進(jìn)行參數(shù)的梯度更新

問題解決思路

那么從理論上來說就有兩種辦法

  • 優(yōu)化器初始化的時(shí)候不包含這些不想被更新的參數(shù),這樣他們會(huì)進(jìn)行梯度回傳,但是不會(huì)被更新
  • 將這些不會(huì)被更新的參數(shù)梯度歸零,或者不計(jì)算它們的梯度

思路就是利用tensorrequires_grad,每一個(gè)tensor都有自己的requires_grad成員,值只能為TrueFalse。我們對(duì)不需要參與訓(xùn)練的參數(shù)的requires_grad設(shè)置為False

在optim參數(shù)模型參數(shù)中過濾掉requires_grad為False的參數(shù)。
還是以上面搭建的簡單網(wǎng)絡(luò)為例,我們固定第一個(gè)卷積層的參數(shù),訓(xùn)練其他層的所有參數(shù)。

代碼實(shí)現(xiàn)

class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        self.conv1 = nn.Conv2d(3,32,3)
        self.conv2 = nn.Conv2d(32,24,3)
        self.prelu = nn.PReLU()
        for m in self.modules():
            if isinstance(m,nn.Conv2d):
                nn.init.xavier_normal_(m.weight.data)
                nn.init.constant_(m.bias.data,0)
            if isinstance(m,nn.Linear):
                m.weight.data.normal_(0.01,0,1)
                m.bias.data.zero_()
    def forward(self, input):
        out = self.conv1(input)
        out = self.conv2(out)
        out = self.prelu(out)
        return out

遍歷第一層的參數(shù),然后為其設(shè)置requires_grad

model = Net()
for name, p in model.named_parameters():
    if name.startswith('conv1'):
        p.requires_grad = False
        
optimizer = torch.optim.Adam(filter(lambda x: x.requires_grad is not False ,model.parameters()),lr= 0.2)

為了驗(yàn)證一下我們的設(shè)置是否正確,我們分別看看model中的參數(shù)的requires_gradoptim中的params_group()。

for p in model.parameters():
    print(p.requires_grad)

能看出優(yōu)化器僅僅對(duì)requires_gradTrue的參數(shù)進(jìn)行迭代優(yōu)化。

LAST 參考文獻(xiàn)

Pytorch中,動(dòng)態(tài)調(diào)整學(xué)習(xí)率、不同層設(shè)置不同學(xué)習(xí)率和固定某些層訓(xùn)練的方法_我的博客有點(diǎn)東西-CSDN博客

到此這篇關(guān)于Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新的文章就介紹到這了,更多相關(guān)Pytorch網(wǎng)絡(luò)部分層內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • PyTorch實(shí)現(xiàn)更新部分網(wǎng)絡(luò),其他不更新
  • Pytorch訓(xùn)練網(wǎng)絡(luò)過程中l(wèi)oss突然變?yōu)?的解決方案
  • pytorch 一行代碼查看網(wǎng)絡(luò)參數(shù)總量的實(shí)現(xiàn)
  • pytorch 網(wǎng)絡(luò)參數(shù) weight bias 初始化詳解

標(biāo)簽:南平 林芝 普洱 漯河 海南 寧夏 盤錦 大同

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新問題及思路詳解》,本文關(guān)鍵詞  Pytorch,實(shí)現(xiàn),網(wǎng)絡(luò)部,分層,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新問題及思路詳解》相關(guān)的同類信息!
  • 本頁收集關(guān)于Pytorch實(shí)現(xiàn)網(wǎng)絡(luò)部分層的固定不進(jìn)行回傳更新問題及思路詳解的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章