확률 이론에서의 상대적 정보의 측정
상관 변수 X 및 과(와) 관련된 가법 및 감산 관계를 보여주는 Ven 도표 양쪽 원이 포함하는 영역은 관절 H, ) 왼쪽(빨간색 및 보라색)에 있는 원은 원이다.vidual Entropy ( ) 빨간색은 조건부 엔트로피 H Y 입니다 오른쪽(파란색 및 보라색)의 원은 ) 이고 파란색은 X 입니다 바이올렛은 정보 I (; 입니다 정보이론에서 조건부 엔트로피는 다른 변수 의 값이 알려져 있다는 점에서 임의 변수 Y 의 결과를 기술하는 데 필요한 정보의 양을 정량화한다. 여기서 정보는 셰넌, 나트 또는 하틀리 단위로 측정된다. 에 조건화된 의 엔트로피는 ) X로 기록된다
정의
에 지정된 의 조건부 엔트로피는 다음과 같이 정의된다.
| | (Eq.1) |
여기서 및 은(는) 및 의 지원 세트를 나타낸다
참고: 고정 > 에 대한 식 0 0{\ 0 0 0 을(를) 0으로 간주하는 것이 관례다. This is because and [1]
Intuitive explanation of the definition : According to the definition, where 이( ( ,y ) {\\(y의 정보 컨텐츠에 되며 는 이벤트를 설명하는 데 필요한 정보의 양Y = )이다 given . According to the law of large numbers, is the arithmetic mean of a large number of independent realizations of .
동기
Let be the entropy of the discrete random variable conditioned on the discrete random variable taking a certain value . Denote the support sets of and by 및 { 에 확률 Y( y) 의 무조건 엔트로피는 H( Y) [ ( ) 즉.
여기서 ( i) 은 y 값을 사용한 결과의 정보 콘텐츠다 에서 한 의 엔트로피는 조건부 예상에 의해 유사하게 정의된다.
) { X은는) 이 취할 수 있는 값 x {\에 대해 = )를 평균한 결과라는 점에 유의하십시오. Also, if the above sum is taken over a sample , the expected value is known in some domains as equivocation.[2]
이미지 이(가) 있는 이산 랜덤 변수 및 이미지 Y}이 있는 의 조건부 엔트로피는 의 가중 합으로 된다p() 을(를) 가중치로 사용하여 의 가능한 각 값에 대해 X[3]: 15
특성.
조건부 엔트로피는 0이다.
의 값이 displaystyle X의 값으로 완전히되는 에만 H )= 0 {\ {H}(Y X)=0
독립 랜덤 변수의 조건부 엔트로피
반대로 Y과 이(가) 독립 랜덤 변수인 경우에만 (displaystyle 을(를) 한다.
체인 룰
Assume that the combined system determined by two random variables and has joint entropy , that is, we need bits of information on average to describe its exact state. 이제 우리가 X X의 값을 배운다면, 는 H( X) 비트의 정보를 얻었다. X이(가) 알려지면 전체 시스템의 상태를 설명하려면 , Y)- ) - H( ) 비트만 있으면 된다. 이 수량은 정확히 ( X) 이며 조건부 엔트로피의 체인 규칙을 제공한다.
- [3]: 17
체인 규칙은 위의 조건부 엔트로피 정의에서 따른다.
일반적으로 다중 랜덤 변수에 대한 체인 규칙은 다음을 유지한다.
- [3]: 22
곱셈대신 덧셈을 쓴다는 점을 제외하면 확률론에서 체인룰과 비슷한 형태를 띠고 있다.
베이즈 법칙
조건부 엔트로피 상태에 대한 베이스의 규칙
Proof. and . Symmetry entails 두 방정식을 빼는 것은 베이지스의 지배를 내포하고 있다.
이(가) X 에 조건부로 독립되어 있는 경우:
기타 속성
모든 및 의 경우
여기서 ( ; Y) 은(는 {\과) Y {\displaysty 사이의 상호 정보다
독립형 및 의 경우
- )= ) = H(Y ) H = X(X)\,},},},},},},},},},},},},},},},},}
Although the specific-conditional entropy can be either less or greater than for a given random variate of , can never exceEd ( ) .
조건부 미분 엔트로피
정의
위의 정의는 이산 랜덤 변수에 대한 것이다. 이산 조건부 엔트로피의 연속 버전을 조건부 차등(또는 연속) 엔트로피라고 한다. Y 을(를) 접합 확률밀도함수 ( y) 을(를) 가진 연속 랜덤 변수로 설정 차등 조건부 h( ) 는 다음과[3]: 249 같이 정의된다.
| | (Eq.2) |
특성.
이산 랜덤 변수에 대한 조건부 엔트로피와 대조적으로 조건부 미분 엔트로피는 음수일 수 있다.
이산형 사례에서와 같이 차동 엔트로피에 대한 체인 규칙이 있다.
- [3]: 253
그러나 관련된 차동 엔트로피가 존재하지 않거나 무한인 경우에는 이 규칙이 적용되지 않을 수 있다는 점에 유의하십시오.
또한 연속 랜덤 변수 간의 상호 정보의 정의에는 공동 미분 엔트로피가 사용된다.
( ) h () ≤ ( X ) hX Y h이(가 X {\과Y {\displaysty 이() 독립적인 경우에만 동일함.[3]: 253
추정기 오류와의 관계
조건부 차동 엔트로피는 추정기의 예상 제곱 오차에 대해 하한을 산출한다. 임의의 변수X {\ , Y {\Y} 및 X {\ {\X}}에 대해서는 다음이 유지된다.[3]: 255
이것은 양자역학의 불확실성 원리와 관련이 있다.
양자 이론으로의 일반화
양자정보이론에서 조건부 엔트로피는 조건부 양자 엔트로피로 일반화된다. 후자는 고전적인 상대와 달리 부정적인 가치를 가질 수 있다.
참고 항목
참조