查看tensorflow源码其内部sequence_loss如果未指定softmax_loss_function使用的sparse_softmax_cross_entropy_with_logits
你也可以自己实现这个seq_loss:
使用这个tf.contrib.seq2seq.sequence_loss只需要传入masks。而单独使用这需要显式的写代码定义mask对sparse_softmax_cross_entropy_with_logits的操作,下面的loss是batch loss