등방 벡터

Entropic vector

내향성 벡터 또는 내향성 함수는 정보 이론에서 발생하는 개념이다.그것은 하나의 무작위 변수 집합의 하위 집합이 취할 수 있는 섀넌 정보 엔트로피의 가능한 값을 나타낸다.어떤 벡터가 내향성인지 이해하는 것은 다양한 하위 집합의 엔트로피 사이의 가능한 모든 불평등을 나타내는 방법이다.For example, for any two random variables , their joint entropy (the entropy of the random variable representing the pair ) is at most the sum of the entropies of and of :

조건부 정보, 상호 정보 또는 총 상관관계와 같은 기타 정보-이론적 척도는 공동 엔트로피의 관점에서 표현될 수 있으며 따라서 해당 불평등에 의해 관련된다.내향성 벡터에 의해 충족되는 많은 불평등은 섀넌형 불평등이라고 불리는 몇 가지 기본적인 불평등의 선형 결합으로 도출될 수 있다.그러나 n= 변수에 대해 모든 수반성 벡터를 특성화하기에 충분한 유한한 선형 불평등 집합은 없다는 것이 입증되었다.

정의

Shannon's information entropy of a random variable is denoted . For a tuple of random variables , we denote the joint entropy of a subset as , or more concisely as , where . Here can be understood as the random variable representing the tuple . For the empty subset , 엔트로피 0으로 결정론적 변수를 나타낸다.

A vector h in indexed by subsets of is called an entropic vector of order if there exists a tuple of random variables such ()= ( X ) 부분 집합 ,2, 에 대한 I

주문 n{n\displaystyle}의 모든 엔트로피의 벡터의 집합Γ n∗{\displaystyle \Gamma_{n}^{*}에 의해}. 장과 Yeung[1]이 있지 않았어(엔 ≥ 3{\displaystyle n\geq 3}),지만은 폐쇄,Γ n∗ ¯{\displaystyle{\bar{\Gamma_{n}^{*}}}}, 볼록 콘 그리고 charact을 증명 표시됩니다.eri그것이 만족하는 (무한히 많은) 선형 불평등에 의해 zered.따라서 지역 을(를) 설명하는 것은 공동 엔트로피에 발생할 수 있는 모든 불평등을 특징짓는 것과 같다.

X,Y를 세트{, 에 걸쳐 이산 균일한 분포를 갖는 두 개의 독립 랜덤 변수가 되도록 두십시오 그런 다음

(각각은 2개 세트에 걸쳐 균일하게 분포되어 있으므로)

(두 변수가 독립적이므로, 는 쌍 ,X ) 을 의미하며, 0, 0,,,에 걸쳐 균일하게 분포한다따라서 해당 엔티티 벡터는 다음과 같다.

On the other hand, the vector is not entropic (that is, ), because any pair of random variables (independent or not) should satisfy

특성화 집적 벡터: 지역 γn*

섀넌형 불평등과 Ⅱn

랜덤 변수 , 2 n 의 튜플의 경우 엔트로피는 다음을 충족한다

, for any

특히, ( I ) 0{\H( 0은(는) 모든 I { 1 ,n } {\I\{1에 대해

섀넌 불평등에서는 등방성 벡터가 하위모델이라고 말한다.

모든 I { , 에 대해.

는 조건부 상호 정보가 음성이 아니라고 명시하는 불평등에 해당한다.

(For one direction, observe this the last form expresses Shannon's inequality for subsets and of the tuple ; for the other direction, substitute = = X J ).

많은 불평등은 Shannon 불평등의 선형 결합으로 도출될 수 있다; 그것들은 Shannon형 불평등 또는 Shannon의 정보 조치의 기본적인 정보 불평등이라고 불린다.[2]이들을 만족시키는 벡터 세트를 }}라고 하는데 _n}^{*}}}}가 포함되어 있다

섀넌형 불평등 입증 과제를 자동화하는 소프트웨어가 개발됐다.[3][4]불평등이 주어진다면, 그러한 소프트웨어는 주어진 불평등이 유효한 섀넌형 불평등인지(즉, 원뿔 판단할 수 있다.

비 섀넌형 불평등

섀넌형 불평등만이 유일한 인가이 그 지역을 완전히 특성화하는 에 대한 질문은 1981년[2] 테수한으로부터 처음 니콜라스 피펜거가 더 하게 물었다[5]이 두 변수에 대한 진정한 것을 보여 줄 것이다Γ 2∗)Γ 2{\displaystyle \Gamma_{2}^{*}=\Gamma _{2}}. 3변수 들어, 장과 Yeung[1]이 Γ 3∗ ≠ Γ 3{\displaystyle \Gamma_{3}^{*}\neq \Gamma _{3}}증명하지만, 아직도 점차적으로 진정한 경우 폐쇄 같다는 것을 의미하며 어렵지 않다.:Γ 3∗ ¯)Γ 3{\displaystyle{\overline{\Gamma_{3}^{*}}}=\Gamma _{3}}. 1988년, 장과 Yeung[2][6]다는 것을 보여 줘Γ n∗ ¯≠Γ n{\displaystyle{\overline{\Gamma_{n}^{*}}}\neq \Gamma _{n}}에 대한 모든 n≥ 4{\displaystyle n\geq 4}에 의해다는 것을 입증하는 다음 불평등에 대한 4개의 확률 변수(에 착륙.조건부 상호 정보의 ms)는 모든 등방성 벡터에 대해 참이지만 섀넌 타입은 아니다.

더 많은 불평등과 무한 불평등 가정이 발견되었다.[7][8][9][10]These inequalities provide outer bounds for better than the Shannon-type bound . In 2007, Matus proved that no finite set of linear inequalities is sufficient (to deduce all as linear combinations), for 개의 변수.즉, 은 다면체가 아니다.[11]그것들이 어떤 다른 방식으로 특징지어질 수 있는지 여부(벡터가 내향성인지 여부를 효과적으로 결정할 수 있도록 허용)는 여전히 열린 문제로 남아 있다.

양자정보 이론에서 폰 노이만 엔트로피에 대한 유사한 질문이 고려되었다.[12]

이너 한계

n}{*}}}}{\}^}}}}}}의 일부 내부 경계도 알려져 있다. {\ 의 모든 벡터가 포함되어 엔트로피에 대한 잉글턴의 불평등이라고 알려진 다음과 같은 불평등(및 변수를 허용하여 얻은 것)을 추가로 만족시키는 것이 한 예다.[13]

[2]

엔트로피 및 그룹

그룹 특성화 벡터 및 준균일 분포

그룹 {\ G}과(와) 하위 그룹 ,G , {(를) 고려하십시오 G displaystytle n}. G I {\ G_G_G_G_G} denote for ; this is also a subgroup of . It is possible to construct a probability distribution for random variables

[14]

(건설은 으로 G 요소 을(를) 임의로 균일하게 취하며 을(를) 로 한다.그러므로 정보이론적 불평등은 집단이론적 불평등을 내포하고 있다.예를 들어, H( X, ) H( X)+ ( ) 는 다음을 함축하고 있다.

그 반대는 본질적으로 사실인 것으로 밝혀졌다.좀 더 정확히 말하면 벡터는 위와 같이 부분군의 튜플에서 얻을 수 있다면 집단특성이 있다고 한다.The set of group-characterizable vectors is denoted . As said above, . On the other hand, (and thus 의 볼록 폐쇄 위상학적 폐쇄에 포함되어 있다[15] I = {\ 형식의 모든 h h에 대해 고정되어 있는 경우에만 선형 불평등이 모든 이방성 벡터에 대해 유지된다. {\이(가) G 있는 하위 G ,, n{의 일부 튜플의 하위 세트 위로 이동한다

아벨 그룹 출신 그룹별 특징적인 벡터는 잉글턴의 불평등을 만족시킨다.

콜모고로프 복잡성

Kolmogorov 복잡성은 엔트로피와 본질적으로 동일한 불평등을 만족시킨다.즉, 유한 x 의 Kolmogorov 복잡성을 ) , x x을(를) 출력하는 최단 프로그램의 길이)로 나타낸다.The joint complexity of two strings , defined as the complexity of an encoding of the pair , can be denoted . Similarly, the conditional complexity can be denoted (the length of 주어진 를 출력하는 가장 짧은 프로그램안드레이 콜모고로프는 이러한 관념이 예를 들어 샤논 엔트로피와 비슷하게 작용한다는 것을 알아차렸다.

2000년에 해머 외 연구진은 Kolmogorov 복잡성 측면에서 상응하는 불평등이 모든 문자열의 튜플에 대해 로그 조건을 유지하는 경우에만 등방성 벡터를 실제로 지탱한다는 것을 증명했다.[16]

참고 항목

참조

  1. ^ a b Zhang, Z.; Yeung, R.W. (1997). "A Non-Shannon-Type Conditional Inequality of Information Quantities". IEEE Trans. Inf. Theory. 43 (6).
  2. ^ a b c d Zhang, Z.; Yeung, R.W. (1998). "On Characterization of Entropy Function via Information Inequalities". IEEE Trans. Inf. Theory. 44 (4): 1440–1452. doi:10.1109/18.681320.
  3. ^ Yeung, R.W.; Yan, Y.O. (1996). "ITIP - Information Theoretic Inequality Prover". {{cite journal}}:Cite 저널은 필요로 한다. journal=(도움말)
  4. ^ Pulikkoonattu, R.; E.Perron, E.; S.Diggavi, S. (2007). "Xitip - Information Theoretic Inequalities Prover". {{cite journal}}:Cite 저널은 필요로 한다. journal=(도움말)
  5. ^ Kaced, Tarik (2013). Equivalence of Two Proof Techniques for Non-Shannon-type Inequalities. 2013 IEEE International Symposium on Information Theory. arXiv:1302.2994.
  6. ^ Yeung. 정보이론 제1과, 정리 14.7
  7. ^ Dougherty, R.; Freiling, C.; Zeger, K. (2006). Six New Non-Shannon Information Inequalities. 2006 IEEE International Symposium on Information Theory.
  8. ^ Matus, F. (1999). "Conditional independences among four random variables III: Final conclusion". Combinatorics, Probability and Computing. 8 (3): 269–276. doi:10.1017/s0963548399003740.
  9. ^ Makarychev, K.; et al. (2002). "A new class of non-Shannon-type inequalities for entropies" (PDF). Communications in Information and Systems. 2 (2): 147–166. doi:10.4310/cis.2002.v2.n2.a3. Archived from the original (PDF) on 2007-06-12. Retrieved 2008-07-08.
  10. ^ Zhang, Z. (2003). "On a new non-Shannon-type information inequality" (PDF). Communications in Information and Systems. 3 (1): 47–60. doi:10.4310/cis.2003.v3.n1.a4. Archived from the original (PDF) on 2007-06-12. Retrieved 2008-07-08.
  11. ^ Matus, F. (2007). Infinitely many information inequalities. 2007 IEEE International Symposium on Information Theory.
  12. ^ Linden; Winter (2005). "A New Inequality for the von Neumann Entropy". Commun. Math. Phys. 259 (1). arXiv:quant-ph/0406162. doi:10.1007/s00220-005-1361-2.
  13. ^ Yeung. 정보이론강좌 386 페이지 386
  14. ^ Yeung. 정보이론 제1과, 정리 16.16
  15. ^ Yeung. 정보이론 제1과, 정리 16.22
  16. ^ Hammer; Romashchenko; Shen; Vereshchagin (2000). "Inequalities for Shannon Entropy and Kolmogorov Complexity". Journal of Computer and System Sciences. 60: 442–464. doi:10.1006/jcss.1999.1677.
  • 토마스 M.커버, 조이 A.토마스.정보 이론의 요소들 뉴욕: Wiley, 1991.ISBN 0-471-06259-6
  • 레이먼드 영.정보이론 제1과정 12장 정보불평등, 2002년, ISBN 0-306-46791-7 인쇄