pytorch module 정리

F.log_softmax()

yuuuun 2021. 4. 21. 12:11
반응형
import torch.nn.functional as F

F.log_softmax(): log + softmax

Softmax함수

z = torch.FloatTensor([[1,2,3], [1,2,3]])

float tensor로 설정 후

1) dim = 0: column 기준

y = F.softmax(z, dim=0)
--> tensor([[0.5000, 0.5000, 0.5000],
        [0.5000, 0.5000, 0.5000]])

2) dim = 1: row 기준

y = F.softmax(z, dim=1)
--> tensor([[0.0900, 0.2447, 0.6652],
        [0.0900, 0.2447, 0.6652]])

합이 1이 되도록..

log_softmax = log(softmax)함수

 

 

http://wikidocs.net/60572

반응형