Question

Ainsi, normalement l'entropie croisée catégorique pourrait être appliquée en utilisant une fonction de perte de l'entropie croisée à Pytorch ou en peignant un logsoftmax avec la fonction de probabilité de journal négatif comme suit:

m  = nn.LogSoftmax(dim=1)
loss = nn.NLLLoss()
pred   = torch.tensor([[-1,0,3,0,9,0,-7,0,5]], requires_grad=True, dtype=torch.float)
target = torch.tensor([4])
output = loss(m(pred), target)
print(output)

La chose est. Que se passe-t-il si les données de la sortie sont déjà dans un état avec les probabilités où la variable pré a déjà les probabilités. Où les données sont présentées comme celles suivantes:

pred = torch.tensor([[.25,0,0,0,.5,0,0,.25,0]], requires_grad=True, dtype=torch.float)

Comment l'entropie croisée pourrait-elle alors être terminée à Pytorch?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top