쿨백 라이블러 발산(Kullback-Leibler divergence, KLD)은 두 확률분포의 차이를 계산하는 데 사용하는 함수로, 어떤 이상적인 분포에 대해, 그 분포를 근사하는 다른 분포를 사용해 샘플링을 한다면 발생할 수 있는 정보 엔트로피 차이를 계산한다.
의미
어떠한 확률분포 P가 있을 때, 샘플링 과정에서 그 분포를 근사적으로 표현하는 확률분포 Q를 P 대신 사용할 경우 엔트로피 변화를 의미한다.
따라서, 원래의 분포가 가지는 엔트로피 H(P)와 P 대신 Q를 사용할 때의 교차 엔트로피 H(P,Q)의 차이를 구하면 다음과 같다.
DKL(P∥Q)=H(P,Q)−H(P)
=(−∑xp(x)logq(x))−(−∑xp(x)logp(x))
이를 정리하면 다음과 같다.
∑iP(i)logP(i)Q(i)
이는 확률분포 P, Q가 이산확률변수인 경우 쿨백-라이블러 발산의 정의와 동일하다.
'Deep Learning > etc' 카테고리의 다른 글
Bicubic Interpolation (0) | 2024.05.02 |
---|---|
사전 학습된 모델 (0) | 2024.01.13 |