In probability theory and statistics , two real-valued random variables , X {\displaystyle X} , Y {\displaystyle Y} , are said to be uncorrelated if their covariance , cov [ X , Y ] = E [ X Y ] − E [ X ] E [ Y ] {\displaystyle \operatorname {cov} [X,Y]=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]} , is 0. 두 변수의 상관 관계가 없으면 두 변수 사이에 선형 관계가 없다.
상관 관계가 없는 랜덤 변수는 Pearson 상관 계수 가 0이며, 두 변수 중 어느 한 변수가 0(상수)인 경우 사소한 경우를 제외한다. 이 경우 상관관계가 정의되지 않는다.
일반적으로 상관성이 없는 것은 직교성 (직교성)과 같지 않다. 단, 두 랜덤 변수 중 하나 이상의 기대값이 0인 특별한 경우를 제외한다. 이 경우 공분산 은 제품의 기대값이며, E [ X Y ] = 0 {\ displaystyle X} 및 Y {\displaystyle Y} 은(는) 0 {\displaysty \operatorname {E} [XY]=0} 인 경우 에만 상관 관계가 없다.
X {\displaystyle X} 및 Y {\displaystyle Y} 이(가) 유한한 두 번째 모멘트 로 독립 되어 있으면 상관 관계가 없는 것이다. 그러나 상관관계가 없는 변수가 모두 독립적인 것은 아니다.[1] : p. 155
정의 두 개의 실제 랜덤 변수에 대한 정의 Two random variables X , Y {\displaystyle X,Y} are called uncorrelated if their covariance Cov [ X , Y ] = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] {\displaystyle \operatorname {Cov} [X,Y]=\operatorname {E} [(X-\operatorname {E} [X])(Y-\operatorname {E} [Y])]} is zero.[1] : p. 153 [2] : p. 121 공식:
X , Y 상관없는 ⟺ E [ X Y ] = E [ X ] ⋅ E [ Y ] {\displaystyle X,Y{\text}\iff \quad \operatorname {E}[XY]=\operatorname {E}[X]\cdot \operatorname {E}[Y]}
두 개의 복잡한 랜덤 변수에 대한 정의 Two complex random variables Z , W {\displaystyle Z,W} are called uncorrelated if their covariance K Z W = E [ ( Z − E [ Z ] ) ( W − E [ W ] ) ¯ ] {\displaystyle \operatorname {K} _{ZW}=\operatorname {E} [(Z-\operatorname {E} [Z]) {\overline {(W-\operatorname {E}[W]]}} 과 (와) 해당 의사 공분산 J Z W = E [ Z ] [ ( Z - E [ Z ])(W - E [ W ]) ] {\displaysty \operatorname {J} _{Z }W}=\operatorname {E} [(Z-\operatorname {E} [Z])(W-\operatorname {E} [W])} 은 (는) 0이다.
Z , W 상관없는 ⟺ E [ Z W ¯ ] = E [ Z ] ⋅ E [ W ¯ ] 그리고 E [ Z W ] = E [ Z ] ⋅ E [ W ] (\displaystyle Z) W{\text{ uncorrelated}}\quad \iff \quad \operatorname {E} [Z{\overline {W}}]=\operatorname {E} [Z]\cdot \operatorname {E} [{\overline {W}}]{\text{ and }}\operatorname {E} [ZW]=\operatorname {E} [Z]\cdot \operatorname {E} [W]}
세 개 이상의 랜덤 변수에 대한 정의 두 개 이상의 랜덤 변수 X 1 , …, X n {\ displaystyle X_{1},\ldots, X_{n} 의 집합은 각 쌍이 상관 관계가 없는 경우 상관 관계가 없는 변수라고 불린다 . This is equivalent to the requirement that the non-diagonal elements of the autocovariance matrix K X X {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }} of the random vector X = ( X 1 , … , X n ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{n})^{\mathrm {T} }} are all zero. 자기 분산 행렬은 다음과 같이 정의된다.
K X X = 코브를 틀다 [ X , X ] = E [ ( X − E [ X ] ) ( X − E [ X ] ) T ] = E [ X X T ] − E [ X ] E [ X ] T {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }=\operatorname {cov} [\mathbf {X} ,\mathbf {X} ]=\operatorname {E} [(\mathbf {X} -\operatorname {E} [\mathbf {X} ])(\mathbf {X} -\operatorname {E} [\mathbf {X} ])^{\rm {T}}]=\operatorname {E} [\mathbf {X} \mathbf {X} ^{T}]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {X} ]^{T }} 상관 관계가 없는 의존의 예 예 1 X {\displaystyle X} 을 (를) 확률 1/2로 값 0을 취하고 확률 1/2로 값 1을 취하는 랜덤 변수가 되게 한다. Y {\displaystyle Y} 을(를) 확률 1/2로 -1 값을 취하고 확률 1/2을 갖는 X {\displaystyle X} 과( 와) 독립적 으로 랜덤 변수가 되게 한다. U {\displaystyle U} 을(를) U = X Y {\displaystyle U=XY} 로 구성된 랜덤 변수로 설정하십시오. U {\displaystyle U} 과 X {\displaystyle X} 의 공분산(따라서 상관 관계가 없음)이 0이지만 독립적이지 않다는 주장이다.
증명:
을 감안하여
E [ U ] = E [ X Y ] = E [ X ] E [ Y ] = E [ X ] ⋅ 0 = 0 , {\displaystyle \operatorname {E} [U]=\operatorname {E} [X]=\operatorname {E} [Y]=\operatorname {E}[X]\cdot 0=0,} 여기 서 X {\displaystyle X} 및 Y {\displaystyle Y} 이(가) 독립적이기 때문에 두 번째 평등이 열린다.
코브를 틀다 [ U , X ] = E [ ( U − E [ U ] ) ( X − E [ X ] ) ] = E [ U ( X − 1 2 ) ] = E [ X 2 Y − 1 2 X Y ] = E [ ( X 2 − 1 2 X ) Y ] = E [ ( X 2 − 1 2 X ) ] E [ Y ] = 0 {\displaystyle {\begin{aligned}\operatorname {cov} [U,X]&=\operatorname {E} [(U-\operatorname {E} [U])(X-\operatorname {E} [X])]=\operatorname {E} [U(X-{\tfrac {1}{2}})]\ \&=\operatorname {E} [X^{2}Y-{\tfrac {1}{1}{2}}XY]=\operatorname {E}[(X^{2}-{\tfrac {1}{1}2}}X) Y]=\operatorname {E} [(X^{2}-{\tfrac {1}{2}}X)]\operatorname {E}[Y]=0\end{aigned}}}}} 따라서 U {\displaystyle U} 과 X {\displaystyle X} 은(는) 상관 관계가 없다.
U {\displaystyle U} 및 X {\displaystyle X } 의 독립성은 모든 {\displaystyle a} 및 b {\displaystyle b}, Pr ( U = X = b ) {\displaysty \Pr(U=a)=\Pr(U=a)} 을 의미한다. 특히 a = 1 {\displaystyle a=1} 및 b = 0 {\displaystyle b=0} 에 대해서는 사실이 아니다.
Pr. ( U = 1 ∣ X = 0 ) = Pr. ( X Y = 1 ∣ X = 0 ) = 0 {\displaystyle \Pr(U=1\mid X=0)=\Pr(XY=1\mid X=0)=0} Pr. ( U = 1 ) = Pr. ( X Y = 1 ) = 1 / 4 {\displaystyle \Pr(U=1)=\Pr(XY=1)=1/4} 따라서 Pr ( U = 1 ∣ X = 0 ) ≠ Pr ( U = 1 ) \displaystyle \Pr(U=1\mid X=0)\neq \Pr(U=1 ) \ pr } 따라서 U {\displaysty U} 과 X {\displaystysty X} 은 독립적이지 않다.
Q.E.D.
예 2 If X {\displaystyle X} is a continuous random variable uniformly distributed on [ − 1 , 1 ] {\displaystyle [-1,1]} and Y = X 2 {\displaystyle Y=X^{2}} , then X {\displaystyle X} and Y {\displaystyle Y} are uncorrelated even though X {\displaystyle X} determines Y {\displaystyle Y} and a par Y {\displaystyle Y} 의 ticular 값은 다음 과 같은 X {\displaystyle X} 의 한 두 값만 생성할 수 있다.
f X ( t ) = 1 2 I [ − 1 , 1 ] ; f Y ( t ) = 1 2 t I ] 0 , 1 ] {\displaystyle f_{X}(t)={1 \over 2I_{[-1,1]};f_{Y}(t)={1 \over {2{\sqrt{t}}}}}}}}}}}}}}} I_{]0,1]}}}
반면 에 f X , Y {\ displaystyle f_{ X ,F X × F Y {\ displaystyle f_{X}\times f_ {{X}\ time f_{{{}}} 에 의해 정의된 삼각형에서 Y} 는 0이다. Y }은( 는) 이 도메인에서 null이 아니다 . 따라서 f X , Y ( X , Y ) × f ( X ) × f ( Y ) × F ( Y ) × (Y ) {\displaystyle f_{X,Y}(X,Y)\neq f_{X}(X)\times f_{Y}(Y)} 이며 변수는 독립적이지 않다.
E [ X ] = 1 − 1 2 = 0 ; E [ Y ] = 1 3 − ( − 1 ) 3 3 × 2 = 1 3 {\displaystyle E[X]={{1-1} \over 2}=0; E[Y]={{1^{3}-(-1)^{3}}}{3}}}{3}}} {3\times2}}={1\3}}}}}}}}{1\3}}}}}}}}}}}}}}}}
C o v [ X , Y ] = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] = E [ X 3 − X 3 ] = 1 4 − ( − 1 ) 4 4 × 2 = 0 [\displaystyle Cov[X,Y]=E\left[(X-E[X])(Y-E[Y])\right]= E\left[X^{3}-{X \over 3}\right]={1^{4}-(-1)^{4}}}{4\times2}}=0}
그러므로 그 변수들은 상관관계가 없다.
상관 관계가 없는 것이 독립성을 의미할 때 무관심이 독립성을 내포하는 경우가 있다. 이러한 경우 중 하나는 두 변수의 랜덤 변수가 모두 2개 값인 경우(따라서 각각 베르누이 분포 를 가지도록 선형 변환할 수 있다)이다.[3] 또한, 두 개의 공동 정규 분포 랜덤 변수는 상관 관계가 없는 경우 독립적이지만,[4] 한계 분포가 정규 분포이고 상관 관계가 없지만 공동 분포가 공동 정규 분포가 아닌 변수의 경우에는 독립적이다(정규 분포 및 상관 관계가 없는 것은 독립적임을 의미하지 않음 참조).
일반화 상관 관계가 없는 랜덤 벡터 두 개의 임의 벡터 X = ( X 1 , … , X m ) T {\ displaystyle \mathbf {X} = (X_{1}},\ldots ,X_{m}}^{{}}} T } 과 Y = (Y 1 , … , Y n ) T {\ displaystyle \mathbf {Y} =(Y_{1},\ldots ,Y_{n})^{{ n}T}} 은(는) 다음과 같이 무관하다고 한다 .
E [ X Y T ] = E [ X ] E [ Y ] T {\displaystyle \operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]=\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}} . 교차 공분산 행렬 K X Y {\ displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y}}}} 이(가) 0인 경우에만 상관 관계가 없다.[5] : p.337
두 개의 복잡한 랜덤 벡터 Z {\ displaystyle \mathbf {Z} 및 W {\ displaystyle \mathbf {W}은( 는) 교차 공분산 행렬과 유사 교차 공분산 행렬이 0이면 상관 관계가 없는 것으로 불린다 .
K Z W = J Z W = 0 {\displaystyle \operatorname {K} _{\mathbf {Z} \mathbf {W} }=\mathbf {Z} _{\mathbf {W} }=0} , where
K Z W = E [ ( Z − E [ Z ] ) ( W − E [ W ] ) H ] {\displaystyle \operatorname {K} _{\mathbf {Z} \mathbf {W} }=\operatorname {E} [(\mathbf {Z} -\operatorname {E} [\mathbf {Z} ]){(\mathbf {W} -\operatorname {E} [\mathbf {W} ])}^{\mathrm {H} }]} 그리고
J Z W = E [ ( Z − E [ Z ] ) ( W − E [ W ] ) T ] {\displaystyle \operatorname {J} _{\mathbf {Z} \mathbf {W} }=\operatorname {E} [(\mathbf {Z} -\operatorname {E} [\mathbf {Z} ]){(\mathbf {W} -\operatorname {E} [\mathbf {W} ])}^{\mathrm {T} }]} . 상관관계가 없는 확률적 공정 두 개의 확률적 프로세스 {X t } {\ displaystyle \left\{X_{t}\right\} 및 {Y t } {\ displaystyle \left\} Y_{t}\right\}} are called uncorrelated if their cross-covariance K X Y ( t 1 , t 2 ) = E [ ( X ( t 1 ) − μ X ( t 1 ) ) ( Y ( t 2 ) − μ Y ( t 2 ) ) ] {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right)\l eft(Y(t_{2})-\mu _{Y}(t_{2}\right)\right]} 은(는) 항상 0이다 .[2] : p. 142 공식:
{ X t } , { Y t } 상관없는 ⟺ K X Y ( t 1 , t 2 ) = 0 ∀ t 1 , t 2 . {\displaystyle \left\{X_{t}\right\},\left\{{} Y_{t}\right\}{\text{noncorrelated}}\iff \quad \quad \operatorname {K} _{\mathbf {X} \mathbf {Y}}}{1},t_{2}=0\quad \fall t_{1},t_{2}. }
참고 항목 참조 ^ a b Papoulis, Athanasios (1991). Probability, Random Variables and Stochastic Processes . MCGraw Hill. ISBN 0-07-048477-5 . ^ a b 박군일, 스프링거, 2018, 978-3-319-68074-3 통신에 응용한 확률과 확률 프로세스의 기초 ^ 확률과 통계에서의 가상 실험실: 공분산 및 상관 관계 항목 17. ^ Bain, Lee; Engelhardt, Max (1992). "Chapter 5.5 Conditional Expectation". Introduction to Probability and Mathematical Statistics (2nd ed.). pp. 185–186. ISBN 0534929303 . ^ Gubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers . Cambridge University Press. ISBN 978-0-521-86470-1 .
추가 읽기