parameters requires_grad=False和optimizer优化参数的探讨



class RESNET_attention(nn.Module): 
        def __init__(self, model, pretrained): 
                   super(RESNET_attetnion, self).__init__() 
                   self.resnet = model(pretrained) 
                   for p in self.parameters(): 
                              p.requires_grad = False
                              self.f = nn.Conv2d(2048, 512, 1)

请问下优化器中这样写optimizer = optim.Adam( model.f.parameters(), lr=0.0001, betas=(0.9, 0.999), eps=1e-08, weight_decay=1e-5)是不是只更新self.f中的参数,self.resnet的参数不更新是吗 
 
已邀请:

要回复问题请先登录注册