torch.nn.utils.rnn.pad_sequence(label_tokens, batch_first=True, padding_value=-1)
label_tokens: list矩陣,shape=[batch_size, N] ,N長度不一
batch_first:默認batch_size在第一維度
padding_value:填充的值
返回
[batch_size, M]
M爲batch中的最大長度
torch.nn.utils.rnn.pad_sequence(label_tokens, batch_first=True, padding_value=-1)
label_tokens: list矩陣,shape=[batch_size, N] ,N長度不一
batch_first:默認batch_size在第一維度
padding_value:填充的值
返回
[batch_size, M]
M爲batch中的最大長度
LSTM可能出現梯度爆炸,訓練時,加上梯度截斷 param.grad.data.clamp_(-grad_clip, grad_clip) torch.clamp(min,max)
LSTM可能出現梯度爆炸,訓練時,加上梯度截斷 param.grad.data.clamp_(-grad_clip, grad_clip) torch.clamp(min,max)