조건상호정보

Conditional mutual information
각각 왼쪽 아래, 오른쪽 아래, 위쪽 원으로 표시된 x x y 에 대한 정보 이론적 측정의 Ven 도표.조건부 상호 정보 ; ) I y ) I ; ) I은 각각 황색, 청색 및 자홍색으로 표시된다.

확률론, 특히 정보이론에서 조건부 상호정보[1][2] 가장 기본적인 형태에서 3분의 1의 값이 주어진 두 랜덤 변수의 상호정보기대값이다.null

정의

지원 집합 X 및 Z Y 가) 임의 변수 X {\displaystysty}, Y} 및 {\displaystystysty}에 대해 조건부 상호 정보를 정의함

이는 예상 연산자 ( ; Z)= [ D ( ( , Y) Y ) 스타일 Z Z Z Z

Thus is the expected (with respect to ) Kullback–Leibler divergence from the conditional joint distribution to the product of the conditional marginals and Z 상호 정보의 정의와 비교해 보십시오.null

이산형 분포에 대한 pmf의 관점에서

For discrete random variables , , and with support sets , and , the conditional mutual information I Z(는) 다음과 같다.

여기서 한계, 관절 및/또는 조건부 확률 질량 함수는 적절한 첨자와 p 로 표시된다.이는 다음과 같이 단순화할 수 있다.

연속 분포를 위한 PDF의 측면

For (absolutely) continuous random variables , , and with support sets , and , the conditional mutual information Z(는) 다음과 같다.

여기서 한계, 관절 및/또는 조건부 확률 밀도 함수 첨자를 가진 p 로 표시된다.이는 다음과 같이 단순화할 수 있다.

어떤 정체성

대안적으로, 우리는 다음과[3] 같이 관절과 조건부 엔트로피의 관점에서 쓸 수 있다.

이것은 상호 정보와의 관계를 보여주기 위해 다시 쓰여질 수 있다.

보통 상호 정보에 대한 체인 규칙으로 재배열됨

또는

위의 다른 동등한 형태는


상호 정보와 마찬가지로 조건부 상호 정보는 Kullback-Leibler의 차이점으로 표현될 수 있다.

또는 단순한 Kullback-Leibler 분산의 기대값으로 다음과 같이 한다.

,
.

보다 일반적인 정의

연속적 또는 기타 임의적 분포를 가진 랜덤 변수에 적용되는 조건부 상호 정보의 보다 일반적인 정의는 정규 조건부 확률의 개념에 따라 달라질 것이다.(또한 참조)[4][5]null

Let be a probability space, and let the random variables , , and each be defined as a Borel-measurable function from to some state space endowed wi토폴로지 구조로군null

각 보렐 세트를 할당하여 정의된 각 랜덤 변수의 상태 공간에서 Borel 측정값개방 세트에 의해 생성된 σ-algebra에 대한)을 고려하십시오( {\ 이 값을 F 에서 premathcal} 측정값으로 한다 이를 푸시 포워드 X= P = P). 무작위 변수의 지원은 이 조치의 위상적 지원으로 정의된다. 즉, = . 스타일

이제 우리는 공식적으로 무작위 변수의 하나(또는 제품 토폴로지를 통해 더 많은) 값이 주어진 조건부 확률 측정을 정의할 수 있다.Let be a measurable subset of (i.e. ) and let Then, using the disintegration theorem:

여기서 제한은 x 개방된 U 에 대해 적용되며 이는 포함 설정과 관련하여 임의로 더 작아질 수 있기 때문이다.null

마지막으로 르베그 통합을 통해 조건부 상호 정보를 정의할 수 있다.

여기서 통합과 통합은 우리가 방금 정의한 조건부 확률 측정의 일부를 포함하는 라돈-Nikodym 파생상품의 로그다.null

표기 주의사항

( ), B C와 같은 표현에서 반드시 개별 랜덤 변수를 나타내는 것으로 제한될 필요는 없으며, 또한 정의한 임의 변수 집합의 공동 분포를 나타낼 수 있다.동일한 확률 공간확률 이론에서 흔히 볼 수 있듯이, 우리는 쉼표를 사용하여 그러한 공동 분포를 나타낼 수 있다. 예를 들어 ( B , , . },A_}; 따라서 상호 정보 기호의 주요 인수를 구분하기 위해 세미콜론(또는 때때로 콜론 또는 쐐기 을 사용한다.(임의 변수의 임의 개수의 관절 엔트로피는 관절 분포의 엔트로피와 같기 때문에 관절 엔트로피에 대한 기호에는 그러한 구분이 필요하지 않다.)null

특성.

비네거티

는 것은 언제나 사실이다.

( Y ) 0 Z 0

이산형, 공동 분포된 랜덤 변수 X Z Z의 경우결과는 정보 이론, 특히 샤논형 불평등이라고 알려진 것들의 다른 불평등을 입증하는 기본 구성 요소로 사용되어 왔다.조건부 상호 정보는 특정 정규성 조건 하에서 연속 랜덤 변수에 대해서도 음수가 아니다.[6]null

상호작용 정보

세 번째 랜덤 변수에 대한 조건화는 상호 작용 정보라 불리는 ; )- I; I Z의 차이를 증가시키거나 감소시킬 수 있다랜덤 변수가 쌍으로 독립되어 있어도 그렇다.다음의 경우에 해당된다.

이 경우 Z 쌍으로 독립적이며특히 ) = 그러나 I(X; Z= . Z

상호 정보에 대한 체인 규칙

상호작용 정보

조건부 상호 정보는 상호 작용 정보, 상호 정보의 일반화를 다음과 같이 유도적으로 정의하는데 사용된다.

어디에

조건부 상호 정보는 무조건적인 상대보다 크거나 작을 수 있기 때문에 상호작용 정보는 양수, 음수 또는 영이 될 수 있으므로 해석하기 어렵다.null

참조

  1. ^ Wyner, A. D. (1978). "A definition of conditional mutual information for arbitrary ensembles". Information and Control. 38 (1): 51–59. doi:10.1016/s0019-9958(78)90026-8.
  2. ^ Dobrushin, R. L. (1959). "General formulation of Shannon's main theorem in information theory". Uspekhi Mat. Nauk. 14: 3–104.
  3. ^ Cover, Thomas; Thomas, Joy A. (2006). Elements of Information Theory (2nd ed.). New York: Wiley-Interscience. ISBN 0-471-24195-4.
  4. ^ PlanetMath에서의 정규 조건부 확률
  5. ^ D. 리오 주니어 외정규 조건부 확률, 확률 분해 및 라돈 공간.프로예치온.제23권, 제1권, 페이지 15-29, 2004년 5월, Universidad Catolica del Norte, Antofagasta, 칠레 PDF
  6. ^ Polyanskiy, Yury; Wu, Yihong (2017). Lecture notes on information theory (PDF). p. 30.