LSTM在哪里?

在LSTM的lua版本(https://github.com/Element-Research/rnn#rnn.​​LSTM)中,有一个rho参数指示backprob到达时间(BPTT)的数量。这个参数在pytorch版本的LSTM中?
The nn.LSTM(inputSize, outputSize, [rho]) constructor takes 3 arguments:

inputSize : a number specifying the size of the input;
outputSize : a number specifying the size of the output;
rho : the maximum amount of backpropagation steps to take back in time. Limits the number of previous steps kept in memory. Defaults to 9999.
已邀请:

想念成都的美食 - 美帝苦逼Phd一枚

赞同来自:

在pytorch中暂时还没有 truncated BPTT的这个功能, 不过variable.detach()可以实现类似功能,但也还不是真正意义上的 truncated BPTT.期待pytorch能够增加这个功能。

要回复问题请先登录注册