Papers/Machine learning
Cross-entropy
tomato13
2019. 11. 16. 22:53
https://3months.tistory.com/436
Loss function으로 사용할수 있다.
Log(p)에서 p는 예측(prediction) 의 확률이다. 해당 확률값이 클수록 log(p)는 0 으로 수렴하고 loss function의 값을 0에 가깝게 가져가야한다. log(p) 앞에 곱해지는 값는 실제 확률이다. 즉, 실제 발생가능한 경우에 비례하여 loss function에 반영된다.