정보 병목 현상 방법
Information bottleneck method정보 병목현상은 페르난도 C의 나프탈리 티슈비(Naftali Tishby)가 도입한 정보이론의 기법이다.페레이라,[1] 윌리엄 비알렉이요X와 관측된 관련 변수 Y - 사이의 공동 확률 분포 p(X,Y)를 감안할 때 랜덤 변수 X를 요약(예: 클러스터링)할 때 정확도와 복잡성(압축) 사이의 최상의 절충을 찾도록 설계되었으며, "사인(signa)의 다양한 문제를 논의하기 위한 놀랍도록 풍부한 프레임워크"로 설명된다.l 처리 및 학습".[1]
응용 프로그램에는 분포 클러스터링과 치수 축소가 포함되며, 최근에는 딥러닝을 위한 이론적 토대로서 제안되고 있다.그것은 파라메트릭 통계에서 임의 분포에 이르는 최소한의 충분한 통계에 대한 고전적 개념을 일반화시켰는데, 반드시 지수적 형태는 아니었다.그것은 관련 변수 Y와 상호 정보의 일부를 포착하기 위해 충분조건의 완화를 통해 그렇게 한다.
정보 병목현상은 X로부터의 직접적인 예측에 비해 압축된 표현 T로부터 Y가 얼마나 잘 예측되는지를 측정하는 왜곡 기능이 있어 속도 왜곡 문제로도 볼 수 있다.이 해석은 정보 병목현상을 해결하고, 분배 p(X,Y)에서 정보 곡선을 계산하기 위한 일반적인 반복 알고리즘을 제공한다.
랜덤 변수 T에 의해 압축 표현을 제공하도록 한다 알고리즘은 조건부 분포 ( ) x에 대해 다음과 같은 기능을 최소화한다
where and are the mutual information of and , and of and , respectively, and is a Lagrange multiplier.
최소의 충분한 통계량
자기 일치 방정식
학습이론
위상 전환
딥러닝 정보이론
정보 병목 이론은 최근 심층신경망(DNN)을 연구하는 데 이용되고 있다.[2] Y 을(를) DNN의 입력 및 출력 계층으로 간주하고 T 을(를) 네트워크의 숨겨진 계층으로 설정하십시오.Shwartz-Ziv and Tishby proposed the information bottleneck that expresses the tradeoff between the mutual information measures and . In this case, and respectively quantify the숨겨진 레이어가 입력 및 출력에 대해 포함하는 정보의 양.그들은 DNN의 훈련 과정이 ) I( , Y) I Y이 증가하는 초기 피팅 단계와 2) ( X, T (이 감소하는 후속 압축 단계 두 단계로 구성된다고 추측했다.작센 외는 슈워츠-지브와 티쉬비의 주장에 대해 DNNs의 이러한 압축 현상은 포괄적이지 않으며, 특정 활성화 기능에 따라 다르다고 반박했다.[2]특히 르루 활성화 기능으로는 압축이 이뤄지지 않는다고 주장했다.슈워츠-지브와 티쉬비는 작센 외가 상호 정보의 추정치가 약하기 때문에 압축을 관찰하지 못했다고 주장하면서 이러한 주장에 대해 반박했다.최근, 노샤드 외최적의 해시 기반 추정기가 ReLu 및 maxpooling 활성화가 있는 더 넓은 범위의 네트워크에서 압축 현상을 드러내는 것을 관찰하면서, 상호 정보의 비율 최적 추정기를 사용하여 이 논란을 탐구했다.[4]반면 최근 골드펠드 외 연구진.관찰된 압축은 기하학적 결과물이며, 정보-발현상의 결과물이 아니며,[5] 또한 공유되어 온 관점이라고 주장해 왔다.[6]
변동 병목 현상
가우스 병목 현상
가우스 병목현상,[7] 즉 가우스 변수에 정보 병목현상 접근법을 적용하면 표준 상관 분석과 관련된 해결책이 나온다., X이(가) 공분산 X , 과(와) 함께 다변량 평균 0인 벡터라고 가정합시다.과 은(는) 의 압축된 버전으로, 과(와) 상호 정보의 주어진 값을 유지해야 하며 의 T T은 , = 의 원소의 선형 조합으로 구성된 정상 벡터임을 알 수 있다\,} A{\ A에 직교 행이 있는 \displaystyle X,\,\,T=AX
투영 매트릭스 A 사실상 매트릭스의 단수 값 분해(일반적으로 비대칭)의 가중 왼쪽 고유 벡터에서 선택한 개의 행을 포함한다.
단수 값 분해 정의
그리고 비판적 가치들
그런 다음 투영에서 활성 고유 벡터의 M 또는 근사치 순서가 주어진다.
그리고 우리는 마침내 알게 되었다.
가중치가 주어지는 위치
여기서 = X i.
시계열(프로세스)에 가우스 정보 병목 현상을 적용하면 최적의 예측 코딩과 관련된 해결책이 나온다.이 절차는 공식적으로 선형 저속 형상 분석과 동일하다.[8]
선형 동적 시스템에서 최적의 시간적 구조는 가우스 표본이 아닌 데이터에 병목현상을 적용하는 이른바 과거-미래 정보 병목현상을 통해 밝혀질 수 있다.[9]크로이츠히히, 티슈비 외 연구진에서 다루듯이, 그 개념은 두 개의 독립적 단계가 연습에서 구성되기 때문에 복잡하지 않다: 첫째, 데이터 샘플이 추출되는 알려지지 않은 부모 확률 밀도의 추정과 둘째, 병목현상의 정보 이론적 프레임워크 내에서 이러한 밀도의 사용이다.
밀도 추정
병목현상 방법은 통계적 용어가 아닌 확률론적 관점에서 프레임을 설정하므로 표본점 = 의 기저 확률 밀도를 추정해야 한다.이것은 실버맨이 설명한 여러 해결책의 잘 알려진 문제다.[10]현재의 방법에서는 마르코프 전환 매트릭스 방법을 사용함으로써 공동 샘플 확률이 발견되며, 이것은 병목 현상 방법 자체와 약간의 수학적 시너지를 갖는다.
The arbitrarily increasing distance metric between all sample pairs and distance matrix is . Then transition probabilities between sample pairs 일부 > 의 경우 계산해야 한다.표본을 상태로 처리하고 의 정규화된 버전을 마르코프 상태 전환 확률 매트릭스로 처리하며, t 단계 후 '상태'의 확률 벡터는 p( ) p에서 조건화되며p= ( 0 ) stylease). The equilibrium probability vector given, in the usual way, by the dominant eigenvector of matrix which is independent of the initialising vector . This Markov transition method establishes a probability at the sa확률 밀도에 비례한다고 주장되는 mple 점.
거리 행렬 의 고유값 사용에 대한 다른 해석은 Silverman의 통계 및 데이터 분석 밀도 추정에 설명되어 있다.[10]
클러스터
다음의 소프트 클러스터링 예에서 참조 벡터 Y은(는 샘플 범주를 포함하며, 확률 p(, Y ){\,Y은(는) 알려져 있다고 가정한다.소프트 클러스터 은(는) 데이터 샘플 x : p ( k ) 에 대한 확률 분포로 정의된다Tishby 외 연구진은 비율 왜곡 이론에서 개발된 Blahut-Arimoto 알고리즘의 일반화인 군집을 결정하기 위해 다음과 같은 반복 방정식 세트를 제시했다[1].신경망에서 이러한 유형의 알고리즘의 적용은 결정론적 분석에서 Gibbs 분포의 적용에서 발생하는 엔트로피 논쟁에서 비롯되는 것으로 보인다.[11][12]
반복의 각 라인의 기능은 다음과 같이 확장된다.
선 1: 이것은 조건부 확률의 매트릭스 값 집합이다.
샘플 데이터 에 의해 된 Y 벡터와 감소된 정보 프록시 c 사이에 Kullback-Libler 차이 샘플 데이터 x {\}에 의해 생성된 벡터 간을 적용하여 압축 벡터에 대한 충실도를 평가한다.참조(또는 범주형) 데이터 기본 병목 방정식에 따름. ( ) D 분포 , 사이의 Kullback-Leibler 차이
K K는 스칼라 정상화다.거리 지수의 음수 지수에 의한 가중치는 Kullback-Leibler 분산이 클 때 선 1에서 이전 군집 확률이 낮아져 성공적인 군집은 확률적으로 증가하는 반면 성공하지 못한 군집은 붕괴하는 것을 의미한다.
선 2: 조건부 확률의 두 번째 행렬 값 집합.정의에 따라
서 Bayes ID ( a ,)= ( ) ( b )=( ) ( )p)=p(a(a이 사용된다.
라인 3: 이 선은 군집 의 한계 분포를 찾는다.
이것은 표준적인 결과다.
알고리즘에 대한 추가 입력은 샘플 분포 ( x ) {\이며, P 의 지배적 고유 벡터와 매트릭스 값 Kullback-Leibler 발산 함수에 의해 이미 결정되었다.
표본 스페이스 및 전환 확률에서 파생됨.
매트릭스 ( i ) 매트릭스 j 는 사전 값이 필요하지 않다.알고리즘이 수렴되지만, 해결이 필요한 다중 미니마가 존재할 수 있다.[13]
의사 결정 등고선
교육 세트 의 외부에 있는 새 샘플 을를) 분류하려면 이전 거리 메트릭은 과(를) 의 모든샘플 {\ X ~( i =)= = = k . with a normalization.두 번째로 3행 알고리즘의 마지막 두 줄을 적용하여 군집 및 조건부 범주 확률을 구한다.
드디어.
매개변수 은(는) 0에서 증가함에 따라 범주 확률 공간에서 형상의 수가 증가하므로 특정 임계 임계값에서 포커스에 스냅되기 때문에 면밀하게 관리해야 한다.
예를 들면.
사례에서는 무작위 입력 , 과와y= v) y 1 두 의 출력 범주로 클러스터링을 조사한다 이 기능은 각 범주에 대해 두 개의 공간적으로 분리된 클러스터를 가지고 있다.따라서 이 방법이 그러한 분포를 처리할 수 있음을 입증한다.
20개의 샘플을 채취하여 정사각형- , 범주 수 이상으로 사용되는 클러스터 수는 성능에 거의 영향을 주지 않으며, 이 경우 2개의 클러스터는 파라미터 = 3,= 2. style 을 사용하여 결과가 표시된다.
거리 함수는 d j= i = -x 2 ,j}}이고 서 ( , i ) {\{i_{i_{i_{i}}}}}})^}}}}}}}}}^{{ii}^{i} 분포 ( ) 이(가) 2 × 20 행렬인 경우
그리고 다른 곳에서는 0이다.
2행의 합계는 +1 또는 -1의 훈련 값을 나타내는 두 개의 값만 포함하지만, 그럼에도 불구하고 잘 작동한다.그림은 '0'이 Y = 1을 나타내고 'x'가 Y = -1을 나타내는 20개 표본의 위치를 나타낸다.통합우도비 수준의 등고선이 표시된다.
새 샘플 x이(가) 사각형 위로 스캔됨.이론적으로 등고선은 = 0 및 = 좌표에 맞춰야 하지만, 이렇게 작은 표본 번호의 경우 표본 점의 가상 군집을 대신 따랐다.
신경망/퍼지 논리 유사점
이 알고리즘은 하나의 숨겨진 층을 가진 신경망과 다소 유사하다.내부 노드는 클러스터 로 표시되며, 네트워크 가중치의 첫 번째 및 두 번째 계층은 각각 조건 확률 x )p {j} c_로 표시됨).그러나 표준 신경망과 달리 알고리즘은 표본 값 자체보다는 입력으로 전적으로 확률에 의존하는 반면, 내부 및 출력 값은 모두 조건부 확률밀도 분포다.비선형 함수는 거리 메트릭 (.) f또는 영향 함수/방사선 기준 함수) 및 s자형 함수 대신 전환 확률로 캡슐화된다.
Blahut-Arimoto 3행 알고리즘은 종종 수십 번의 반복으로 빠르게 수렴되며, 클러스터 카디널리티를 변화시킴으로써 기능에 대한 다양한 수준의 집중을 달성할 수 있다.
통계 소프트 클러스터링 정의 p j) 는 퍼지 논리의 언어 퍼지 멤버십 개념과 일부 겹친다.
확장
흥미로운 확장은 측면 정보로 인한 정보 병목 현상의 경우다.[14]여기서 정보는 데이터의 선택된 측면에 대해 유용한 표현을 학습하면서 하나의 대상 변수에 대해 최대화되고 다른 변수에 대해 최소화된다.정식으로
참고 문헌 목록
- Weiss, Y. (1999), "Segmentation using eigenvectors: a unifying view", Proceedings IEEE International Conference on Computer Vision (PDF), pp. 975–982
- P. 하레모스와 N.티쉬비 "정보 병목현상 재방문 또는 좋은 왜곡 대책 선택 방법" 2007년 국제정보이론 심포지엄 진행 중
참조
- ^ a b c Tishby, Naftali; Pereira, Fernando C.; Bialek, William (September 1999). The Information Bottleneck Method (PDF). The 37th annual Allerton Conference on Communication, Control, and Computing. pp. 368–377.
- ^ a b Shwartz-Ziv, Ravid; Tishby, Naftali (2017). "Opening the black box of deep neural networks via information". arXiv:1703.00810 [cs.LG].
- ^ Andrew M, Saxe; et al. (2018). "On the information bottleneck theory of deep learning". ICLR 2018 Conference Blind Submission. 2019 (12): 124020. Bibcode:2019JSMTE..12.4020S. doi:10.1088/1742-5468/ab3985. S2CID 49584497.
- ^ Noshad, Morteza; et al. (2018). "Scalable Mutual Information Estimation using Dependence Graphs". arXiv:1801.09125 [cs.IT].
- ^ Goldfeld, Ziv; et al. (2019). "Estimating Information Flow in Deep Neural Networks". Icml 2019: 2299–2308. arXiv:1810.05728.
- ^ Geiger, Bernhard C. (2020). "On Information Plane Analyses of Neural Network Classifiers -- A Review". arXiv:2003.09671 [cs.LG].
- ^ Chechik, Gal; Globerson, Amir; Tishby, Naftali; Weiss, Yair (1 January 2005). Dayan, Peter (ed.). "Information Bottleneck for Gaussian Variables" (PDF). Journal of Machine Learning Research (published 1 May 2005) (6): 165–188.
- ^ Creutzig, Felix; Sprekeler, Henning (2007-12-17). "Predictive Coding and the Slowness Principle: An Information-Theoretic Approach". Neural Computation. 20 (4): 1026–1041. CiteSeerX 10.1.1.169.6917. doi:10.1162/neco.2008.01-07-455. ISSN 0899-7667. PMID 18085988. S2CID 2138951.
- ^ Creutzig, Felix; Globerson, Amir; Tishby, Naftali (2009-04-27). "Past-future information bottleneck in dynamical systems". Physical Review E. 79 (4): 041925. Bibcode:2009PhRvE..79d1925C. doi:10.1103/PhysRevE.79.041925. PMID 19518274.
- ^ a b Silverman, Bernie (1986). Density Estimation for Statistics and Data Analysis. Monographs on Statistics and Applied Probability. Chapman & Hall. Bibcode:1986desd.book.....S. ISBN 978-0412246203.
- ^ Slonim, Noam; Tishby, Naftali (2000-01-01). Document Clustering Using Word Clusters via the Information Bottleneck Method. Proceedings of the 23rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. SIGIR '00. New York, NY, USA: ACM. pp. 208–215. CiteSeerX 10.1.1.21.3062. doi:10.1145/345508.345578. ISBN 978-1-58113-226-7. S2CID 1373541.
- ^ D. J. 밀러, A. V. 라오, K. 로즈, A.게르쇼 : "신경망 분류를 위한 정보이론적 학습 알고리즘"NIPS 1995: 페이지 591–597
- ^ Tishby, Naftali; Slonim, N. Data clustering by Markovian Relaxation and the Information Bottleneck Method (PDF). Neural Information Processing Systems (NIPS) 2000. pp. 640–646.
- ^ Chechik, Gal; Tishby, Naftali (2002). "Extracting Relevant Structures with Side Information" (PDF). Advances in Neural Information Processing Systems: 857–864.
