조건부 엔트로피

Conditional entropy
상관 변수 X 과(와) 관련된 가법 및 감산 관계를 보여주는 Ven 도표 양쪽 원이 포함하는 영역은 관절 H, ) 왼쪽(빨간색 및 보라색)에 있는 원은 이다.vidual Entropy ( ) 빨간색은 조건부 엔트로피 H Y 입니다 오른쪽(파란색 및 보라색)의 원은 ) 이고 파란색은 X 입니다 바이올렛은 정보 I (; 입니다

정보이론에서 조건부 엔트로피다른 변수 의 값이 알려져 있다는 점에서 임의 변수 Y 의 결과를 기술하는 데 필요한 정보의 양을 정량화한다. 여기서 정보는 셰넌, 나트 또는 하틀리 단위로 측정된다. 조건화 엔트로피 ) X로 기록된다

정의

지정된 의 조건부 엔트로피는 다음과 같이 정의된다.

(Eq.1)

여기서 은(는) 의 지원 세트를 나타낸다

참고: 고정 > 에 대한 식 0 0{\ 0 0 0 을(를) 0으로 간주하는 것이 관례다. This is because and [1]

Intuitive explanation of the definition : According to the definition, where ( ( ,y ) {\\(y의 정보 컨텐츠에 되며 는 이벤트를 설명하는 데 필요한 정보의 양Y = )이다 given . According to the law of large numbers, is the arithmetic mean of a large number of independent realizations of .

동기

Let be the entropy of the discrete random variable conditioned on the discrete random variable taking a certain value . Denote the support sets of and by { 확률 Y( y) 의 무조건 엔트로피는 H( Y) [ ( ) 즉.

여기서 ( i) y 값을 사용한 결과정보 콘텐츠 에서 의 엔트로피는 조건부 예상에 의해 유사하게 정의된다.

) { X는) 취할 수 있는 값 x {\ 대해 = )를 평균한 결과라는 점에 유의하십시오. Also, if the above sum is taken over a sample , the expected value is known in some domains as equivocation.[2]

이미지 (가) 있는 이산 랜덤 변수 및 이미지 Y}이 있는 의 조건부 엔트로피는 의 가중 합으로 된다p() 을(를) 가중치로 사용하여 의 가능한 각 값에 대해 X[3]: 15


특성.

조건부 엔트로피는 0이다.

의 값이 displaystyle X의 값으로 완전히되는 에만 H )= 0 {\ {H}(Y X)=0

독립 랜덤 변수의 조건부 엔트로피

반대로 Y 이(가) 독립 랜덤 변수인 경우에만 (displaystyle 을(를) 한다.

체인 룰

Assume that the combined system determined by two random variables and has joint entropy , that is, we need bits of information on average to describe its exact state. 이제 우리가 X X의 값을 배운다면, 는 H( X) 비트의 정보를 얻었다. X이(가) 알려지면 전체 시스템의 상태를 설명하려면 , Y)- ) - H( ) 비트만 있으면 된다. 이 수량은 정확히 ( X) 이며 조건부 엔트로피의 체인 규칙을 제공한다.

[3]: 17

체인 규칙은 위의 조건부 엔트로피 정의에서 따른다.

일반적으로 다중 랜덤 변수에 대한 체인 규칙은 다음을 유지한다.

[3]: 22

곱셈대신 덧셈을 쓴다는 점을 제외하면 확률론에서 체인룰과 비슷한 형태를 띠고 있다.

베이즈 법칙

조건부 엔트로피 상태에 대한 베이스의 규칙

Proof. and . Symmetry entails 두 방정식을 빼는 것은 베이지스의 지배를 내포하고 있다.

이(가) X 조건부로 독립되어 있는 경우:

기타 속성

모든 의 경우

여기서 ( ; Y) 은(는 {\) Y {\displaysty 사이의 상호 정보

독립형 의 경우

)= ) = H(Y ) H = X(X)\,},},},},},},},},},},},},},},},},}

Although the specific-conditional entropy can be either less or greater than for a given random variate of , can never exceEd ( ) .

조건부 미분 엔트로피

정의

위의 정의는 이산 랜덤 변수에 대한 것이다. 이산 조건부 엔트로피의 연속 버전을 조건부 차등(또는 연속) 엔트로피라고 한다. Y 을(를) 접합 확률밀도함수 ( y) 을(를) 가진 연속 랜덤 변수로 설정 차등 조건부 h( ) 는 다음과[3]: 249 같이 정의된다.

(Eq.2)

특성.

이산 랜덤 변수에 대한 조건부 엔트로피와 대조적으로 조건부 미분 엔트로피는 음수일 수 있다.

이산형 사례에서와 같이 차동 엔트로피에 대한 체인 규칙이 있다.

[3]: 253

그러나 관련된 차동 엔트로피가 존재하지 않거나 무한인 경우에는 이 규칙이 적용되지 않을 수 있다는 점에 유의하십시오.

또한 연속 랜덤 변수 간의 상호 정보의 정의에는 공동 미분 엔트로피가 사용된다.

( ) h () ≤ ( X ) hX Y h이(가 X {\Y {\displaysty () 독립적인 경우에만 동일함.[3]: 253

추정기 오류와의 관계

조건부 차동 엔트로피는 추정기의 예상 제곱 오차에 대해 하한을 산출한다. 임의의 변수X {\ , Y {\Y} 및 X {\ {\X}}에 대해서는 다음이 유지된다.[3]: 255

이것은 양자역학불확실성 원리와 관련이 있다.

양자 이론으로의 일반화

양자정보이론에서 조건부 엔트로피는 조건부 양자 엔트로피로 일반화된다. 후자는 고전적인 상대와 달리 부정적인 가치를 가질 수 있다.

참고 항목

참조

  1. ^ "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
  2. ^ Hellman, M.; Raviv, J. (1970). "Probability of error, equivocation, and the Chernoff bound". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
  3. ^ a b c d e f g T. Cover; J. Thomas (1991). Elements of Information Theory. ISBN 0-471-06259-6.