매트릭스 체르노프 바인딩

Matrix Chernoff bound

선형대수학에서의 특정 적용의 경우, 유한한 양랜덤 행렬의 최대 고유값확률 분포의 속성을 아는 것이 유용하다. (가) 임의 행렬의 유한 시퀀스라고 가정해 보십시오.잘 알려진 체르노프(Chernoff)가 스칼라 합계에 바인딩된 것과 유사하게, 주어진 매개변수 t에 대해 다음과 같은 바운드가 모색된다.

다음의 이론들은 다양한 가정 하에서 이 일반적인 질문에 답한다; 이러한 가정들은 그들의 고전적이고 스칼라적인 상대와 유사하게 아래에 이름지어진다.이러한 모든 이론은 (Tropp 2010)에서 아래에 도출된 일반적인 결과의 특정 적용으로서 찾을 수 있다.관련 작품 요약을 한다.

매트릭스 가우스 및 라데마허 시리즈

자가 합격 매트릭스

및 {\displaystyle 의 고정된 자체 적응형 행렬을유한 염기서열로 간주하고 { \{\독립표준 랜덤 변수의 유한열로 간주한다.

그런 다음 모든 0에 대해

어디에

사각 케이스

Consider a finite sequence of fixed, self-adjoint matrices with dimension , and let be a finite sequence of independent standard normal or independent Rademacher random variables.분산 모수 정의

그런 다음 모든 0에 대해

매트릭스 체르노프 불평등

고전적인 Chernoff 경계는 독립 변수, 비부정 변수 및 균일하게 경계된 랜덤 변수의 합계에 관한 것이다.매트릭스 설정에서, 유사한 정리는 균일한 고유값의 구속에 따른 양의-세미드피니트 무작위 행렬의 합계와 관련이 있다.

매트릭스 체르노프 1세

차원 \{\X} 의 독립적이고 랜덤하며 자기 성장의 행렬을 고려하십시오 각 랜덤 행렬이 충족된다고 가정하십시오.

거의 틀림없이

정의

그러면

매트릭스 체르노프 2세

만족스러운 독립, 랜덤, 임의, 자체 승인 행렬의시퀀스 { : ,, 을(를) 고려하십시오.

거의 틀림없이

평균 기대치의 최소 및 최대 고유값을 계산한다.

그러면

2진수 정보 다양성은 다음과 같이 정의된다.

, [ 에 대해

매트릭스 베넷과 번스타인의 불평등

스칼라 설정에서 베넷과 번스타인의 불평등은 경계가 있거나 하위인 독립된 0만 랜덤 변수의 합계의 위쪽 꼬리를 설명한다.행렬의 경우, 유사한 결과는 0평균 랜덤 행렬의 합계와 관련이 있다.

경계 케이스

차원 \{\X} 의 독립적이고 랜덤하며 자기 성장의 행렬을 고려하십시오 각 랜덤 행렬이 충족된다고 가정하십시오.

거의 틀림없이

총 분산의 정규 분산을 계산한다.

그리고 다음의 불평등 사슬은 모든 t 0 0에 대해 유지된다

함수 ) 0에 대해 ) =(+ ) (된다

부차적인 경우

차원 의 독립, 랜덤, 자체 승인 행렬을 고려하십시오

= ,,,…의 경우,

분산 모수 계산,

그리고 다음의 불평등 사슬은 모든 t 0 0에 대해 유지된다

사각 케이스

차원 displaystyle }}개의 개별 랜덤 행렬이 충족된다고 가정하십시오

거의 틀림없이분산 모수 정의

그런 다음 모든 에 대해

쥐다[1]

매트릭스 아즈마, 호프딩, 맥디아미드 불평등

매트릭스 아즈마

아즈마의 불평등 스칼라 버전은 스칼라 마팅게일이 평균값에 대해 정상적인 농도를 보이며, 편차에 대한 척도는 차이 시퀀스의 총 제곱 범위에 의해 제어된다고 명시한다.다음은 매트릭스 설정의 확장이다.

차원 가) 있는 자기 성직 행렬의 유한 적응 시퀀스과( 충족되는 자기 성직 행렬의 고정 시퀀스{_{k}\}\}}}}}을(와)를 고려하십시오.

거의 틀림없이

분산 모수 계산,

그런 다음 모든 에 대해

상수 1/8은 추가 정보가 있을 때 1/2로 개선할 수 있다. Xk {\Xk}이(가) 조건부 대칭인 경우에 한 가지 경우가 발생한다. 예에서는 k 이(가) A k {\{A} _{와(와) 통근한다는 가정을 요구한다

매트릭스 호프딩

매트릭스 아즈마의 산지가 독립적이라는 추가 가정을 하면 호프딩의 불평등 행렬이 확장된다.

차원 가) 있는 독립, 랜덤, 자기 성직 행렬의유한 시퀀스}\}\}을(를) 고려하고 {} {\displaystyle {_{k을(를) 고정된 자가 성직 행렬의 시퀀스로 간주하십시오.각 랜덤 행렬이 만족한다고 가정해 보십시오.

거의 틀림없이

그런 다음 모든 에 대해

어디에

이 결과의 개선은 (Mackey et al. 2012): t 00}에 대해 확립되었다.

어디에

행렬 경계 차이(McDiarmid)

스칼라 환경에서 맥디아미드의 불평등아즈마의 불평등Dob martingale에 적용함으로써 차이를 좁히는 하나의 공통적인 방법을 제공한다.한정된 차이 불평등의 버전은 행렬 설정에 있다.

Let be an independent, family of random variables, and let be a function that maps variables to a self-adjoint matrix of dimension . Consider a sequence (를) 만족하는 고정 자가 승인 행렬

여기서 인덱스 한 모든 에 대한 범위 분산 매개 변수를 계산하십시오.

그런 다음 모든 에 대해

여기서 =( ,, ) {

이 결과의 개선은 (Paulin, Mackey & Tropp 2013)에서 확립되었다(Paulin, Mackey & Tropp 2016 참조): 모든

where and

관련 이론 조사

이 유형의 첫 번째 경계는 (Ahlswede & Winter 2003)에 의해 도출되었다.자가 적응 행렬 가우스 라데마커 경계에는 위의 정리를 기억하십시오.차원 이(가) 있는 고정된 자체 적응형 행렬의 유한 시퀀스{d}{ 대해 독립 표준 정규 또는 독립 Rademacher 랜덤 변수의 유한 시퀀스인 경우

어디에

Ahlswede와 Winter는 같은 결과를 주었을 것이다.

mathbf {2}\ .

이에 비해 위의 정리에서 }}은 로 통근한다. 즉, 가장 큰 고유값의 합보다 합이 가장 큰 고유값이다.앨스웨드-윈터 값(표준 삼각형 불평등 기준)보다 결코 크지 않지만 훨씬 더 작을 수 있다.따라서 위의 정리는 알스웨데-윈터 결과보다 더 엄격한 경계를 부여한다.

(Ahlswede & Winter 2003)의 주요 기여는 스칼라 체르노프 바운드(Chernoff bound# 참조)를 증명하는 데 사용되는 라플라스 변환법의 연장이었다.자가 부착 행렬의 경우 가법(절대 오차)대한 정리.아래 파생에서 주어진 절차.이 주제에 관한 최근의 모든 작품들은 이와 같은 절차를 따르며, 주요한 차이점들은 이후의 단계들로부터 따르게 된다.알스웨데 & 윈터 골든 사용-톰슨 부등식은 진행되나 트로프(Tropp 2010)는 리브의 정리를 사용한다.

우측을 거의 일정하게 유지하면서 시리즈 길이(n)와 행렬(d)의 치수를 변경하려고 한다고 가정합시다.그런 다음 n은 d의 로그에 따라 대략적으로 달라져야 한다.몇몇 논문이 차원에 의존하지 않고 구속을 확립하려고 시도했다.루델슨과 베르시닌(Rudelson & Vershyinn 2007)은 두 벡터의 외부 제품인 매트릭스에 대해 결과를 제공한다. (Magen & Zouzias 2010)은 하위 매트릭스에 대한 치수 의존성 없이 결과를 제공한다.원래 결과는 알스웨데-윈터 접근방식에서 독립적으로 도출되었지만 (올리베이라 2010b) 목표 는 알스웨데-윈터 접근방식을 사용하여 유사한 결과를 증명한다.

마지막으로 올리베이라(Oliviera 2010a) 는 알스웨데-윈터 프레임워크와는 독립적으로 매트릭스 마팅ales에 대한 결과를 증명한다.트로프(Tropp 2011)는 알스웨데-윈터 프레임워크를 사용하여 결과를 약간 개선한다.이 글에는 두 가지 결과가 모두 나와 있지 않다.

파생 및 증명

알스웨데와 겨울

(Ahlswede & Winter 2003)에서 발견된 라플라스 변환 인수는 그 자체로 중요한 결과물이다: Let 은(는) 임의의 자기 적응 행렬이다.그러면

이를 증명하려면 θ> 을(를) 수정하십시오그러면

두 번째에서 마지막 불평등은 마르코프의 불평등이다.The last inequality holds since . Since the left-most quantity is independent of , the infimum over> 은(는) 그것에 대한 상한으로 남아 있다.

Thus, our task is to understand Nevertheless, since trace and expectation are both linear, we can commute them, so it is sufficient to consider 이것을 행렬 생성 함수라고 부른다.여기서 (Ahlswede & Winter 2003)와 (Tropp 2010)의 방법이 갈라진다.바로 이어지는 프레젠테이션(Alswede & Winter 2003)이 이어진다.

골든-톰슨 부등식은 다음을 암시한다.

, where we used the linearity of expectation several times.

Suppose . We can find an upper bound for by iterating this result. ( ) () ( ) )\}(\ { )}}}}}}}}}}}}}}, 그 다음.

이걸 반복하면

지금까지 는 최소값의 한계를 found 에 대해 발견했다 그 결과, 이것은 한계일 수 있다.어쨌든 알스웨데-윈터 바운드가 어떻게 가장 큰 고유값의 합으로 발생하는지 알 수 있다.

트로프

(Tropp 2010)의 주요 공헌은 (Ahlswede & Winter 2003)이 황금-을 적용했던 리브의 정리 적용이다.톰슨 부등식.Tropp의 골격은 과 같다: H (가) 고정 자가 적응 행렬이고 X () 임의의 자가 적응 행렬이면

증명: Let = X = e 그렇다면 Lieb의 정리로는 다음과 같은 것을 알 수 있다.

오목하다마지막 단계는 젠센의 불평등을 이용하여 함수 내부의 기대치를 움직이는 것이다.

이것은 우리에게 논문의 주요 결과를 제공한다: 매트릭스 생성함수의 로그의 하위 부가성.

로그 mgf의 하위 가독성

을(를) 독립적이고 무작위적인 자기 적응 행렬의 유한 시퀀스가 되도록 한다.그런 다음 모든 {\

증명: = 정의를 확대하면 다음과 같은 것을 보여줄 필요가 있다.

그 증거를 완성하기 위해 우리는 완전한 기대의 법칙을 사용한다.E 에 기대 조건을 붙이십시오 X i { 모든 가 독립적이라고 가정하므로,

Define .

마침내, 우리는

매 단계마다 우리는 트로프의 코롤리를 사용한다.

마스터 테일 바운드

이전 결과에서 바로 다음과 같다.

위에 제시된 모든 이론들은 이 한계에서 파생된 것이다; 그 이론들은 최소를 한계로 묶기 위한 다양한 방법으로 구성된다.이 단계들은 주어진 증거보다 훨씬 간단하다.

참조

  • Ahlswede, R.; Winter, A. (2003). "Strong Converse for Identification via Quantum Channels". IEEE Transactions on Information Theory. 48 (3): 569–579. arXiv:quant-ph/0012127. doi:10.1109/18.985947. S2CID 523176.
  • Mackey, L.; Jordan, M. I.; Chen, R. Y.; Farrell, B.; Tropp, J. A. (2012). "Matrix Concentration Inequalities via the Method of Exchangeable Pairs". The Annals of Probability. 42 (3): 906–945. arXiv:1201.6002. doi:10.1214/13-AOP892. S2CID 9635314.
  • Magen, A.; Zouzias, A. (2010). "Low-Rank Matrix-valued Chernoff Bounds and Approximate Matrix Multiplication". arXiv:1005.2724 [cs.DS].
  • Oliveira, R.I. (2010). "Concentration of the adjacency matrix and of the Laplacian in random graphs with independent edges". arXiv:0911.0600 [math.CO].
  • Oliveira, R.I. (2010). "Sums of random Hermitian matrices and an inequality by Rudelson". arXiv:1004.3821 [math.PR].
  • Paulin, D.; Mackey, L.; Tropp, J. A. (2013). "Deriving Matrix Concentration Inequalities from Kernel Couplings". arXiv:1305.0612 [math.PR].
  • Paulin, D.; Mackey, L.; Tropp, J. A. (2016). "Efron–Stein inequalities for random matrices". The Annals of Probability. 44 (5): 3431–3473. arXiv:1408.3470. doi:10.1214/15-AOP1054. S2CID 16263460.
  • Rudelson, M.; Vershynin, R. (2007). "Sampling from large matrices: an approach through geometric functional analysis". J. Assoc. Comput. Mach. (4 ed.). 54. arXiv:math/9608208. Bibcode:1996math......8208R. doi:10.1145/1255443.1255449. S2CID 6054789.
  • Tropp, J. (2011). "Freedman's inequality for matrix martingales". arXiv:1101.3039 [math.PR].
  • Tropp, J. (2010). "User-friendly tail bounds for sums of random matrices". Foundations of Computational Mathematics. 12 (4): 389–434. arXiv:1004.4389. doi:10.1007/s10208-011-9099-z. S2CID 17735965.