pytorch如何在两个网络之间共享权重?

在Torch中,我们可以用下面的代码在2个网络之间共享参数:
local r1 = nn.Recurrent(opt.embeddingSize,cnn,h2h,nn.Identity(),opt.sampleSeqLength)
local r2 = nn.Recurrent(opt.embeddingSize,cnn:clone('weight','bias','gradWeight','gradBias'),h2h:clone('weight','bias','gradWeight','gradBias'),nn.Identity(),opt.sampleSeqLength)
但是在Pytorch中如何在2个网络之间共享参数呢?
已邀请:

想念成都的美食 - 美帝苦逼Phd一枚

赞同来自:

可以建立一个model, 在其中再建立两个模型, sub-model1 和 sub-model2, 假设两个sub-model想要共享参数w,那么将w设置为model的一个参数(parameter),然后再将这个w直接赋值(=号)给 sub-model1 和 sub-model2 的w就行。

要回复问题请先登录注册