zhiyu 你好, label = torch.zeros(scores.shape[0], dtype=torch.long).to(scores.device) # why zeros? irl_loss = F.cross_entropy(scores, label) 在计算损失函数时,交叉熵计算为什么设定label 标签都为零呢?
zhiyu 你好,
label = torch.zeros(scores.shape[0], dtype=torch.long).to(scores.device) # why zeros?
irl_loss = F.cross_entropy(scores, label)
在计算损失函数时,交叉熵计算为什么设定label 标签都为零呢?