Papers/Machine learning

Cross-entropy

tomato13 2019. 11. 16. 22:53

 

 

 

https://3months.tistory.com/436

 

Loss function으로 사용할수 있다.

Log(p)에서 p는 예측(prediction) 의 확률이다. 해당 확률값이 클수록 log(p)는 0 으로 수렴하고 loss function의 값을 0에 가깝게 가져가야한다. log(p) 앞에 곱해지는 값는 실제 확률이다. 즉, 실제 발생가능한 경우에 비례하여 loss function에 반영된다.

'Papers > Machine learning' 카테고리의 다른 글

Transposed Convolution  (0) 2020.04.26
RPN(Region Proposal Network)  (0) 2020.04.04
Normalization  (0) 2019.10.29
Anchor width/height with ratio  (0) 2019.09.22
Triplet network ( Metric learning )  (0) 2019.08.23