상호 작용 정보

Interaction information
왼쪽 아래, 오른쪽 아래 및 위쪽 원으로 각각 표시되는 세 변수 x, y 및 z에 대한 정보 이론적 측도의 Venn 다이어그램입니다.교호작용 정보는 회색 영역으로 표시되며 음수일 수 있는 유일한 영역입니다.

상호 작용 정보는 세 개 이상의 변수에 대한 상호 정보를 일반화한 것입니다.

상호 작용 정보에는 [1]정보의 양, 정보 상관 관계,[2] 공동 정보,[3] 단순한 상호 [4]정보 등 많은 이름이 있습니다.상호 작용 정보는 변수 집합에 묶인 정보(용장성 또는 시너지)의 양을 나타내며, 이러한 변수의 하위 집합에 존재하는 정보량을 초과합니다.상호 정보와 달리 상호 작용 정보는 양수이거나 음수일 수 있습니다.이러한 함수, 그 부정성과 최소값은 대수 위상에서 [5]직접 해석됩니다.

정의.

조건부 상호 정보를 사용하여 다음과 같이 유한한 수의 변수에 대한 상호 작용 정보를 유도적으로 정의할 수 있습니다.

어디에

일부[6] 저자는 앞의 방정식에서 빼는 두 개의 항을 교환함으로써 상호작용 정보를 다르게 정의한다.이는 홀수 개수의 변수에 대해 부호를 반전시키는 효과가 있습니다.

3가지 변수의 경우 상호작용 I I 다음과 같습니다.

서 I { I 변수X X 변수 Y(\ Y 사이의 상호 이며 I(Z { I Z XX Y(\display Y) 사이의 조건부 상호 정보입니다. Z 입니다.교호작용 정보는 대칭이므로 어떤 변수를 조건으로 하는지는 중요하지 않습니다.이는 상호작용 정보가 다음과 같이 엔트로피 및 관절 엔트로피의 관점에서 작성되면 쉽게 알 수 있다.

일반적으로 V { , 2 , , n { { \ { V } = \ {_ {1} X _ {2} , , X _ { 의 경우 상호작용 정보는 다음과 같은 형태로 작성될 수 있습니다(커크우드 근사치 참조).

3개의 변수에 대해 상호 작용 정보는 Z(\ ZX(\ XY(\ Y 에 공유되는 정보의 양에 미치는 영향을 측정합니다. 왜냐하면 I라는 는 Y Y)보다 클 수 있기 때문입니다, 상호작용 정보는 긍정적일 뿐만 아니라 부정적일 수도 있습니다.예를 들어 X X Y Y 독립적이지만 Z({Z가 조건적으로 독립적이지 않은 발생합니다. 양의 상호 작용 정보는 Z({ ZX 사이의 관계를 억제(: 일부 설명 또는 설명)하고 있음을 나타냅니다. X Y Y는 음의 상호 작용 정보로 변수 Z 상관 관계를 촉진하거나 강화합니다.

특성.

상호 작용 정보는 한정되어 있습니다.세 가지 변수 사례에서, 그것은 다음과 같이 제한된다[4].

3개의 변수가 마르코프 X (\ XY하면 I; Y) I Y) =이지만 I ; ) 0 I; Z) ≥ 0≥ 0()그러므로

양의 상호작용 정보

양의 상호작용 정보는 그러한 설명 효과가 일반적인 원인 구조에서 전형적이라는 점에서 음의 상호작용 정보보다 훨씬 더 자연스러운 것으로 보인다.를 들어 구름은 비를 유발하고 태양을 가리기 때문에 비와 어둠의 상관관계는 구름의 존재에 의해 부분적으로 설명됩니다(; ){ I ( { \ { ; { \{ }그 결과 양성 상호작용 I ( ; ;) { I ( { \ { rain } ; { \ { } ; { \ { cloud ) 。

음의 상호작용 정보

자동차의 엔진은 배터리가 방전되거나 연료 펌프가 막혀 시동이 걸리지 않을 수 있습니다.일반적으로 배터리 방전 및 연료 펌프 막힘은 독립적인 이라고 가정합니다. I차단; 방전) I fuel battery}}})= 그러나 차량 시동이 걸리지 않는 것을 알고 점검 결과 배터리가 정상인 것으로 확인되면 연료 펌프 블록이어야 합니다.ked I, 0text{ battery 0가 됩니다.

해석의 어려움

상호작용 정보의 가능한 음성이 [3]혼동의 원인이 될 수 있습니다.많은 저자들이 세 개 이상의 랜덤 변수가 교호작용하지 않는다는 신호로 교호작용 정보를 0으로 받아들였지만 이러한 해석은 잘못된 것입니다.[7]

해석이 얼마나 어려운지를 확인하려면 8개의 독립된 바이너리 변수 }, 를 검토합니다.

는 3개의 바이너리 { X_X_{에서 서로 겹치기 때문에 상호 작용 I 1 가 필요합니다 33)비트와 .그러나 이제 집적된 변수를 고려해보십시오.

변수는 Y 4 { , 8 { _ { 4 } = \ { _ { } , X _ { 8 the as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as as = { ; ; 2; 3; 4 ) these these ) ) ) ( Y _ { 1 ; Y { these these these these these these these these these these these these these these these these these these these these these these 경우 Y_ 실제로는 +비트와같기 때문에 용장성이 낮아집니다.이것은 라는 점에서 옳다

하지만 해석하기는 여전히 어렵습니다.

사용하다

  • Jakulin과 Bratko(2003b)는 상호작용 정보를 사용하는 기계 학습 알고리즘을 제공한다.
  • Killian, Kravitz 및 Gilson(2007)은 분자 시뮬레이션에서 엔트로피 추정치를 추출하기 위해 상호 정보 확장을 사용한다.
  • LeVine과 Weinstein(2014)은 분자 시뮬레이션에서 알로스테릭 커플링을 정량화하기 위해 상호작용 정보와 기타 N-체 정보 측정을 사용한다.
  • 무어 등(2006), 찬다 P, 장 A, 브라조 D, 수체스턴 L, 프로이트하임 JL, 암브로손 C, 라마나단 M.(2007) 및 찬다 P, 수체스턴 L, 장 A, 브라조 D, 프로이트하임 JL, 암브로손 C.
  • Pandey와 Sarkar(2017)는 대규모 환경이 은하 특성에 미치는 영향을 연구하기 위해 우주론의 상호작용 정보를 사용한다.
  • n개의 변수 데이터 집합에서 모든 다변량 상호작용 또는 상호 정보, 조건부 상호 정보, 공동 엔트로피, 총 상관 관계, 정보 거리를 계산하기 위한 파이썬 패키지를 사용할 [8]수 있습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Ting, Hu Kuo (January 1962). "On the Amount of Information". Theory of Probability & Its Applications. 7 (4): 439–447. doi:10.1137/1107041. ISSN 0040-585X.
  2. ^ Wolf, David (May 1, 1996). The Generalization of Mutual Information as the Information between a Set of Variables: The Information Correlation Function Hierarchy and the Information Structure of Multi-Agent Systems (Technical report). NASA Ames Research Center.
  3. ^ a b Bell, Anthony (2003). The co-information lattice. 4th Int. Symp. Independent Component Analysis and Blind Source Separation.
  4. ^ a b Yeung, R.W. (May 1991). "A new outlook on Shannon's information measures". IEEE Transactions on Information Theory. 37 (3): 466–474. doi:10.1109/18.79902. ISSN 0018-9448.
  5. ^ Baudot, Pierre; Bennequin, Daniel (2015-05-13). "The Homological Nature of Entropy". Entropy. 17 (5): 3253–3318. Bibcode:2015Entrp..17.3253B. doi:10.3390/e17053253. ISSN 1099-4300.
  6. ^ McGill, William J. (June 1954). "Multivariate information transmission". Psychometrika. 19 (2): 97–116. doi:10.1007/bf02289159. ISSN 0033-3123. S2CID 126431489.
  7. ^ Krippendorff, Klaus (August 2009). "Information of interactions in complex systems". International Journal of General Systems. 38 (6): 669–680. doi:10.1080/03081070902993160. ISSN 0308-1079. S2CID 13923485.
  8. ^ "InfoTopo: Topological Information Data Analysis. Deep statistical unsupervised and supervised learning - File Exchange - Github". github.com/pierrebaudot/infotopopy/. Retrieved 26 September 2020.