통계 에서 불확실성의 전파 (또는 오류의 전파 )는 변수 에 기초 한 함수 의 불확실성에 대한 변수의 불확실성(또는 오류, 더 구체적으로는 무작위 오류)의 영향이다. 변수가 실험 측정값인 경우, 측정 한계 (예: 계측기 정밀도)로 인한 불확도 가 있으며, 이는 함수의 변수 조합으로 인해 전파된다.
그 불확실성은 여러 가지 방법으로 표현될 수 있다. 절대 오차 Δx로 정의할 수 있다. 불확실성은 상대 오차 ( Δx)/x 로 정의할 수도 있는데, 보통 백분율로 표기된다. 가장 일반적으로 수량에 대한 불확실성은 분산 의 양의 제곱근인 표준 편차 σ 의 관점에서 정량화된다. 수량의 값과 그 오차는 간격 x ± u 로 표현된다. 변수의 통계적 확률 분포 를 알거나 가정할 수 있는 경우 변수의 실제 값이 발견될 수 있는 영역을 설명하는 신뢰 한계 를 도출할 수 있다. 예를 들어 정규 분포 에 속하는 1차원 변수에 대한 68% 신뢰 한계는 중심 값 x 에서 약 ± 1 표준 편차 σ 이며, 이는 지역 x ± σ 이 사례의 약 68%에서 참 값을 포함한다는 것을 의미한다.
불확실성이 상관 되는 경우 공분산 을 고려해야 한다. 상관관계는 두 가지 다른 출처에서 발생할 수 있다. 첫째, 측정 오차 는 상관관계가 있을 수 있다. 둘째, 기초 값이 모집단 전체에서 상관되는 경우 그룹 평균의 불확실성 은 상관된다.[1]
선형 결합 Let { f k ( x 1 , x 2 , … , x n ) } {\displaystyle \{f_{k}(x_{1},x_{2},\dots ,x_{n})\}} be a set of m functions, which are linear combinations of n {\displaystyle n} variables x 1 , x 2 , … , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} with combination coefficients A k 1 , A k 2 , … , A k n , ( k = 1 , … , m ) {\displaystyle A_{k1}, A_{k2},\dots ,A_{kn}, (k=1,\dots ,m )} :
f k = ∑ i = 1 n A k i x i , {\displaystyle f_{k}=\sum _{i=1}^{n}A_{ki}x_{i}}}} 또는 행렬 표기법,
f = A x . {\displaystyle \mathbf {f} =\mathbf {Ax}. } 또한 x = (x 1 , ..., x n )의 분산-공분산 행렬 을 σx x {\displaystyle {\boldsymbol {\Sigma }}^{x}} 로 표시하고 평균 값 은 μ {\displaystyle \mathbf {\\mu}} 로 표시하도록 한다.
Σ x = E [ ( x − μ ) ⊗ ( x − μ ) ] = ( σ 1 2 σ 12 σ 13 ⋯ σ 21 σ 2 2 σ 23 ⋯ σ 31 σ 32 σ 3 2 ⋯ ⋮ ⋮ ⋮ ⋱ ) = ( Σ 11 x Σ 12 x Σ 13 x ⋯ Σ 21 x Σ 22 x Σ 23 x ⋯ Σ 31 x Σ 32 x Σ 33 x ⋯ ⋮ ⋮ ⋮ ⋱ ) . {\displaystyle {\boldsymbol {\Sigma }^{x}= E[\mathbf {(x-\mu )} \otimes \mathbf {(x-\mu )} ]={\begin{pmatrix}\sigma _{1}^{2}&\sigma _{12}&\sigma _{13}&\cdots \\\sigma _{21}&\sigma _{2}^{2}&\sigma _{23}&\cdots \\\sigma _{31}&\sigma _{32}&\sigma _{3}^{2}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}={\begin{pmatrix}{\ Sigma }_{11}^{x}&{\Sigma }_{12}^{x}&{\Sigma }_{13}^{x}&\cdots \\{\Sigma }_{21}^{x}&{\Sigma }_{22}^{x}&{\Sigma }_{23}^{x}&\cdots \\{\Sigma }_{31}^{x}&{\Sigma }_{32}^{x}&{\Sigma }_{33}^{x}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}. } ⊗ {\displaystyle \otimes} 이(가) 아우터 제품 이다 .
그런 다음, f의 분산-공분산 행렬 σ f {\displaystyle {\boldsymbol {\Sigma }}^{f}} 가 주어진다.
Σ f = E [ ( f − E [ f ] ) ⊗ ( f − E [ f ] ) ] = E [ A ( x − μ ) ⊗ A ( x − μ ) ] = A E [ ( x − μ ) ⊗ ( x − μ ) ] A T = A Σ x A T {\displaystyle {\boldsymbol {\Sigma }^{f}=E[\mathbf {f] -E[\mathbf {f} ])\otimes(\mathbf {f} -E[\mathbf {f} ]]= E[\mathbf {A(x-\mu )} \otimes \mathbf {A(x-\mu )} ]=\mathbf {A} E[\mathbf {(x-\mu )} \otimes \mathbf {(x-\mu )} ]\mathbf {A} ^{\mathrm {T} }=\mathbf {A} {\boldsymbol {\Sigma }}^{x}\mathbf {A} ^{\mathrm {T} }} 성분 표기법에서 방정식
Σ f = A Σ x A T . {\displaystyle {\boldsymbol {\Sigma}^{f}=\mathbf {A}{\boldsymbol {\Sigma}}}^{x}\mathbf {A}^{\mathrmp {T}}}}}}} 읽는다
Σ i j f = ∑ k n ∑ l n A i k Σ k l x A j l . {\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}\sum _{l}^{n}} A_{ik}{\Sigma }_{kl}^{x}A_{jl}. } 이것은 한 변수 집합에서 다른 변수 집합으로 오류를 전파하기 위한 가장 일반적인 표현이다. x 의 오류가 상관 관계가 없을 때 일반 표현은 다음과 같이 단순화된다.
Σ i j f = ∑ k n A i k Σ k x A j k , {\displaystyle \Sigma \{ij}^{f}=\sum _{k}^{n}A_{ik}\Sigma _{k}^{x}A_{jk}}}}}}} 여기서 σk x = σ x k 2 {\ displaystyle \Sigma _{k}^{x}=\sigma _{x_{k}}^{2 }}은 x 벡터의 k번째 원소의 분산이다 . x 의 오류는 상관관계가 없을 수 있지만, f 의 오류는 일반적으로 상관관계가 있다. 즉, σ x {\ displaystyle {\boldsymbol {\Sigma }}:{x}} 이 (가) 대각 행렬이라 하더라도 σ f {\ displaystyle {\boldsymbol{\\\sigmbol}}}}}}}}}}}}{f }}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}은( 가 일반 행렬에 해당된다 .
스칼라 값 함수 f 에 대한 일반 표현식은 약간 단순하다(여기 서 a는 행 벡터).
f = ∑ i n a i x i = a x , {\displaystyle f=\sum _{i}^{n}a_{i}x_{i}=\mathbf {ax},} σ f 2 = ∑ i n ∑ j n a i Σ i j x a j = a Σ x a T . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}\sum _{j}^{n}a_{i}\Sigma _{ij}^{x}a_{j}=\mathbf {a} {\boldsymbol {\Sigma }}^{x}\mathbf {a} ^{\mathrm {T} }.} Each covariance term σ i j {\displaystyle \sigma _{ij}} can be expressed in terms of the correlation coefficient ρ i j {\displaystyle \rho _{ij}} by σ i j = ρ i j σ i σ j {\displaystyle \sigma _{ij}=\rho _{ij}\sigma _{i}\sigma _{j}} , so that an alternative expression for the variance of f is
σ f 2 = ∑ i n a i 2 σ i 2 + ∑ i n ∑ j ( j ≠ i ) n a i a j ρ i j σ i σ j . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^{n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}. } x 의 변수들이 상관관계가 없는 경우, 이것은 다음과 같이 단순화된다.
σ f 2 = ∑ i n a i 2 σ i 2 . {\displaystyle \f}^{f}^{2}=\sum _{i}^{n}a_{i}^{2}\i}^{i}^. } 계수와 분산이 동일한 단순한 경우에서, 우리는
σ f = n a σ . {\displaystyle \sigma _{f}={\sqrt{n}\, \sigma .} 산술 평균 a = 1 / n {\displaystyle a=1/n} 의 경우 결과는 평균의 표준 오차 가 된다.
σ f = σ / n . {\displaystyle \fma _{f}=\fma /{\sqrt {n}. } 비선형 조합 f 가 변수 x 의 비선형 조합 집합인 경우 변수에 대한 모든 일관된 값을 포함하는 구간을 계산하기 위해 구간 전파 를 수행할 수 있다. 확률론적 접근법에서 함수 f 는 일반적으로 1차 테일러 시리즈 확장에 근사치로 선형화해야 하지만, 어떤 경우에는 제품의 정확한 분산의 경우처럼 확장에 의존하지 않는 정확한 공식을 도출할 수 있다.[2] Taylor의 확대는 다음과 같다.
f k ≈ f k 0 + ∑ i n ∂ f k ∂ x i x i {\displaystyle f_{k}\관련 f_{k}^{0}+\sum _{i}^{n}{\frac {\frac {\flac f_{k}}{x_}}}}{i}}}}}}} 여기서 ∂ f k / ∂ x i {\ displaystyle \partial f_{k}/\partial x_{i}}} 는 i번째 변수에 대한 f 의k 부분파생물 을 나타내며 , 벡터 x의 모든 성분의 평균값으로 평가된다. 또는 행렬 표기법 으로,
f ≈ f 0 + J x {\displaystyle \mathrm {f} \약 \mathrm {f} ^{0}+\mathrm {J} \mathrm {x} \mathrm {x} \,} 여기서 J는 자코비안 행렬이다. f는0 상수이므로 f의 오류에 기여하지 않는다. 따라서, 오류의 전파, 위, 하지만 선형 계수를 대체하고 아키와 Akj가 일부 파생 상품에 의해,∂ fk∂)나는{\displaystyle{\frac{\partial f_{k}}{\partial x_{나는}}}}과∂ fk∂)j{\displaystyle{\frac{\partial f_{k}}{\partial x_{j}}}}. 선형 경우 다음에서 행렬.태팅을 하다 이온,[3]
Σ f = J Σ x J ⊤ . {\displaystyle \mathrm {\Sigma } ^{\mathrm {f}=\mathrm {\Sigma {J} ^{\mathrm {x}\mathrm {J} ^{\top }}}}}} 즉, 함수의 Jacobian은 인수의 분산-공분산 행렬의 행과 열을 변환하는 데 사용된다. 참고 이는 J = A {\ displaystyle \mathrm {J=A}을( 를) 사용하는 선형 대소문자의 행렬 식과 동일하다는 점에 유의하십시오.
단순화 상관 관계를 무시하거나 독립 변수를 가정하면 엔지니어 및 실험 과학자 간에 오류 전파를 계산하기 위한 공통 공식이 생성되는데, 분산 공식은 다음과 같다.[4]
s f = ( ∂ f ∂ x ) 2 s x 2 + ( ∂ f ∂ y ) 2 s y 2 + ( ∂ f ∂ z ) 2 s z 2 + ⋯ {\displaystyle s_{f}={\sqrt {\left({\frac {\partial f}{\partial x}}\right)^{2}s_{x}^{2}+\left({\frac {\partial f}{\partial y}}\right)^{2}s_{y}^{2}+\left({\frac {\partial f}{\partial z}}\right)^{2}s_{z}^{2}+\cdots }}} 여기서 s {\ displaystyle s_{f}는 함수 f {\displaystyle f}의 표준 편차 를 나타내고, s x {\ displaystyle s_{x} 는 x {\ displaystyle x} 의 표준 편차를 나타내고, s {\displaystyle s_ {y} 는 y} 등의 표준 편차를 나타낸다 .
이 공식은 f {\displaystyle f} 의 구배의 선형 특성에 기초하므로 s x , s , s , s , z , … {\displaystyle s_{x},s_{y}, s_{z},\ldots } 의 표준 편차에 대한 좋은 추정이라는 점에 유의해야 한다. 특히, f {\displaystyle f} 의 선형 근사치는 반경 s x , s y , s z , … {\displaystyle s_{x},s_{y},s_{z},\ldots } 의 근거리 내에서 f {\displaystystyle f} 에 가까워야 한다. [5]
예 두 변수({\displaystyle a} 및 b {\displaystyle b}) 중 f (, b ) {\displaystyle f(a,b )}} 를 비선형 차별화 함수로 확장할 수 있다.
f ≈ f 0 + ∂ f ∂ a a + ∂ f ∂ b b {\displaystyle f\reason f^{0}+{\frac {\frac}{\frac}{\frac}{\frac b}}{\frac b}}}} 따라서:
σ f 2 ≈ ∂ f ∂ a 2 σ a 2 + ∂ f ∂ b 2 σ b 2 + 2 ∂ f ∂ a ∂ f ∂ b σ a b {\displaystyle \sigma _{f}^{2}\approx \left {\frac {\partial f}{\partial a}}\right ^{2}\sigma _{a}^{2}+\left {\frac {\partial f}{\partial b}}\right ^{2}\sigma _{b}^{2}+2{\frac {\partial f}{\partial a}}{\frac {\partial f}{\partial b}}\sigma _{ab}} 여기서 σ f {\ displaystyle \ sigma_ {f} 는 f {\displaystyle f} 함수 의 표준 편차, , a {\displaystyle a}, , b {\displaystyle \ \ma_ {b} 는 b}의 표준 편차, σ a = σ . σ b b {\ displaystyle \ \ma _{ab}=\displayma _{a}\probma _{b}\rho_{ab}}} 는 {\displaystyle a } 과 b {\ displaysty b} 사이의 공분산 이다.
특히 f = b {\displaystyle f=ab}, , f ∂ a = b , ∂ f ∂ b = {\displaystyle {\frac {\partial f}{\partial a}=b,{\partial f}{\partial f}{\partial b}=a }. 그러면
σ f 2 ≈ b 2 σ a 2 + a 2 σ b 2 + 2 a b σ a b {\displaystyle \protema \{f}^{2}\closma _{a}^{2}+a^{2} }}\sigma _{b}^{2}+2ab\,\sigma _{ab}}} 또는
( σ f f ) 2 ≈ ( σ a a ) 2 + ( σ b b ) 2 + 2 ( σ a a ) ( σ b b ) ρ a b {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right)^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}+2\left({\frac {\sigma _{a}}{a}}\right)\left({\frac {\sigma _{b}}{b}}\right)\rho _{ab}} 여기서 ρ b {\ displaystyle \rho_{ab} 는 {\displaystyle a} 과(와 ) b {\displaystyle b} 사이 의 상관 관계다.
변수 a {\displaystyle a} 과 b {\displaystyle b} 이(가) 상관 관계가 없는 경우 ρ a = 0 {\displaystyle \rho _{ab}=0 } . 그러면
( σ f f ) 2 ≈ ( σ a a ) 2 + ( σ b b ) 2 . {\displaystyle \left({\frac {\f}{f}}\{f}\{f}\오른쪽)^{2}\reft({\frac {\reftma _{b}}^{b}}{b}\right}}}}}} 주의사항 및 경고 비선형 함수에 대한 오차 추정치는 잘린 직렬 확장 사용으로 인해 편향된다. 이 편향의 정도는 함수의 성격에 따라 달라진다. 예를 들어, x 로 확장하는 것이 x 가 0에 가까울 때만 좋은 근사치가 되기 때문에, 로그(1+x )에 대해 계산된 오차의 편향은 x 가 증가함에 따라 증가한다.
비선형 함수의 경우 불확실성 전파를 위한 확률론적 접근방식의 5개 범주가 존재한다.[6] 자세한 내용은 불확실성 정량화 § 전방 불확실성 전파를 위한 방법론 을 참조한다.
역수 및 시프트 역수 역수 또는 역수 1 / B {\displaystyle 1/B} 의 특별한 경우, 여기서 B = N ( 0 , 1 ) {\displaystyle B=N(0 ,1)은 표준 정규 분포 를 따르므로 결과 분포는 역수 표준 정규 분포이며, 정의 가능한 분산이 없다.[7]
그러나 일반적인 정규 분포 다음에 B = N ( μ , μ , μ , σ ) {\displaystyle B=N(\mu ,\sigma )에 대해 약간 더 일반적인 이동 역수함수 1 / ( p - B ){\ display p {\display }의 경우 평균과 분산 통계량이 주 값 의미 에 존재한다. style p} 과 (와) 평균 μ {\displaystyle \mu } 은 (는) 실제 값이다.[8]
비율 비율 또한 문제가 있다; 어떤 조건에서는 정상적인 근사치가 존재한다.
공식의 예 This table shows the variances and standard deviations of simple functions of the real variables A , B {\displaystyle A,B\!} , with standard deviations σ A , σ B , {\displaystyle \sigma _{A},\sigma _{B},\,} covariance σ A B = ρ A B σ A σ B {\displaystyle \sigma _{ AB}=\rho _{AB}\sigma _{A}\sigma _{B}\,} , and correlation ρ A B {\displaystyle \rho _{AB}} . The real-valued coefficients a and b are assumed exactly known (deterministic), i.e., σ a = σ b = 0 {\displaystyle \sigma _{a}=\sigma _{b}=0} .
"분산" 및 "표준 편차" 열에서 A 와 B 를 기대값(즉, 불확실성을 추정하는 값)으로 이해해야 하며, f {\displaystyle f} 을(를) 기대값 A , B {\displaystyle A,B\!} 에서 계산된 함수의 값으로 이해해야 한다.
함수 분산 표준 편차 f = a A f=A\,} σ f 2 = a 2 σ A 2 {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}} σ f = a σ A \displaystyle \sigma _{f}= \sigma _{A}} f = a A + b B {\displaystyle f=A+bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2} }\sigma _{B}^{2}+2ab\,\sigma _{} AB} σ f = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2} }\sigma _{B}^{2}+2ab\,\sigma _{} AB}}} f = a A − b B (\displaystyle f=a-bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 − 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2} }\sigma _{B}^{2}-2ab\,\sigma _{} AB} σ f = a 2 σ A 2 + b 2 σ B 2 − 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2} }\sigma _{B}^{2}-2ab\,\sigma _{} AB}}} f = A − B , {\displaystyle f=A-B,} σ f 2 = σ A 2 + σ B 2 − 2 σ A B {\displaystyle \sigma _{f}^{2}=\sigma _{A}^{2}+\sigma _{B}^{2}-2\sigma _{}}} AB} σ f = σ A 2 + σ B 2 − 2 σ A B {\displaystyle \sigma _{f}={\sqrt {\sigma _{A}^{2}+\sigma _{B}^{B}^{2}-2\sigma _{}}}}{\sigma _{}}}}} AB}}} f = a A − a A , {\displaystyle f=A-AA,} σ f 2 = 2 a 2 σ A 2 ( 1 − ρ A ) {\displaystyle \sigma _{f}^{2}=2a^{2}\sigma _{A}^{A}} σ f = 2 a σ A ( 1 − ρ A ) 1 / 2 {\displaystyle \sigma _{f}={\sqrt{2}}\왼쪽 a\\오른쪽 \sigma _{A}^{1/2}} f = A B (\displaystyle f= AB\,} σ f 2 ≈ f 2 [ ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B ] {\displaystyle \sigma \sigma _{f}^{2}\왼쪽[{\frac {\sigma _{A}\오른쪽)^{2}+\{\fracma _{B}}}^{2+2}{\frac {\sigma _{{\sigma}{{{{{{{{{{}}}}}}}}{{{{{{{{}}}}}}}}}}}}}}{{{{{{{{{{{ AB}{AB}\오른쪽]} [9] [10] σ f ≈ f ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B {\displaystyle \sigma _{f}\cHBFFFFF\오른쪽 {\sqrt}\\\\\fRAC {\sigma _{A}\오른쪽)^{2}+\{\frac _{B}}}^{2}+2}{\frac {\sigma _{{{{{{{{{{{{{}}}}}}}{{{{{{{{{}}}}}}{{{{{{{{{}}}}}}}}} AB}{AB}}} f = A B {\displaystyle f={\frac {A}{B}\,} σ f 2 ≈ f 2 [ ( σ A A ) 2 + ( σ B B ) 2 − 2 σ A B A B ] {\displaystyle \sigma \sigma _{f}^{2}\좌측[{\frac {\sigma _{A}\우측)^{2}+\좌측({\frac {\sigma _{B}\우측)^{2}-2{{\frac {\sigma} AB}{AB}\오른쪽]} [11] σ f ≈ f ( σ A A ) 2 + ( σ B B ) 2 − 2 σ A B A B {\displaystyle \sigma _{f}\cHBFFFFF\오른쪽 {\sqrt}\\\\\fRAC {\sigma _{A}\오른쪽)^{2}+\{\frac{B}}^{2}-2}{\frac {\sigma _{{{{}{{{{{{sigma}}}}}}}{{{{{{{{{{}}}}}}{{{{{}}}}}}}}}}}{{{ AB}{AB}}} f = a A b {\displaystyle f=A^{b}\,} σ f 2 ≈ ( a b A b − 1 σ A ) 2 = ( f b σ A A ) 2 {\displaystyle \putma _{f}^{2}\cHB\reason \leftlefta}{b}{b}{ A}^{b-1}{\sigma _{A}\오른쪽)^{2}=\왼쪽({\frac {{f}{b}{\sigma _{A}}{A}\오른쪽)^{2}} σ f ≈ a b A b − 1 σ A = f b σ A A {\displaystyle \protema _{f}\reason \left {a}{b}{b}{ A}^{b-1}{{A}\sigma _{A}\오른쪽 =\왼쪽 {\frac {{f}{b}{\sigma _{A}}{A}}\오른쪽 }} f = a ln ( b A ) \displaystyle f=a\ln(bA)\,} σ f 2 ≈ ( a σ A A ) 2 {\displaystyle \sigma \sigma _{f}^{2}\cHBFFB\reaks \\sigma _{A}\right)^{2}} [12] σ f ≈ a σ A A {\displaystyle \sigma _{f}\reason \left a{\frac {\sigma _{A}}{A}\right}} f = a 통나무를 하다 10 ( b A ) {\displaystyle f=a\log _{10}(bA)\,} σ f 2 ≈ ( a σ A A ln ( 10 ) ) 2 {\displaystyle \sigma \sigma _{f}^{2}\cHB\ln({A}}{A}}}}}}{A\ln(오른쪽)^{2}} [12] σ f ≈ a σ A A ln ( 10 ) {\displaystyle \sigma _{f}\rema \{A}{A}}{A\ln(10)}\오른쪽 } f = a e b A f=ae^{b.f=ae^{b A}\,} σ f 2 ≈ f 2 ( b σ A ) 2 {\displaystyle \sigma \sigma _{f}^{2}\remat f^{2}\reft(b\sigma _{A}\right)^{2}} [13] σ f ≈ f ( b σ A ) \displaystyle \sigma _{f}\reason \left f\right \left \left \left(b\sigma _{A}\right)\right}} f = a b A f=a^{b A}\,} σ f 2 ≈ f 2 ( b ln ( a ) σ A ) 2 {\displaystyle \sigma _{f}^{2}\관련 f^{2}(b\ln(a)\sigma _{A}^{2}} σ f ≈ f ( b ln ( a ) σ A ) \displaystyle \sigma _{f}\cHB \left f\right \left (b\ln(a)\sigma _{A}\right} f = a 죄를 짓다 ( b A ) \displaystyle f=a\sin(bA)\,} σ f 2 ≈ [ a b cas ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\에 대한 \left[ab\cos(bA)\sigma _{A}\rigma _{A}\right]^{2}} σ f ≈ a b cas ( b A ) σ A \displaystyle \sigma _{f}\cos(bA)\sigma _{A}오른쪽 \} f = a cas ( b A ) \displaystyle f=a\cos \왼쪽(bA\오른쪽)\,} σ f 2 ≈ [ a b 죄를 짓다 ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\cHB(ab\sin(bA)\sigma _{A}\rigma _{A}\right]^{2}} σ f ≈ a b 죄를 짓다 ( b A ) σ A \displaystyle \sigma _{f}\cHB\sin(bA)\sigma _{A}오른쪽 \} f = a 햇볕에 그을리다 ( b A ) \displaystyle f=a\tan \left(bA\right)\,} σ f 2 ≈ [ a b 초 2 ( b A ) σ A ] 2 {\displaystyle \sigma \sigma _{f}^{2}\sec \reft[ab\sec ^{2}(bA)\sigma _{A}\rigma _{A}\right]^{2}}: σ f ≈ a b 초 2 ( b A ) σ A {\displaystyle \sigma _{f}\cHB\sec ^{2}(bA)\sigma _{A}\오른쪽 } f = A B {\displaystyle f=A^{B}\,} σ f 2 ≈ f 2 [ ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B ] {\displaystyle \sigma \sigma _{f}^{2}\약속 f^{2}\왼쪽[\frac {B}}{ A}\sigma _{A}\오른쪽)^{2}+\왼쪽(\ln(A)\sigma _{B}\오른쪽)^{2}+2{\frac {B\ln(A)} {A}\sigma _{AB}\오른쪽]} σ f ≈ f ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B \\displaystyle \sigma _{f}\reason \left f\right {\sqrt {\frac {B}{ A}\sigma _{A}\오른쪽)^{2}+\왼쪽(\ln(A)\sigma _{B}\오른쪽)^{2}+2{\frac {B\ln(A)} {A}\sigma _{ AB}}} f = a A 2 ± b B 2 {\displaystyle f={\sqrt {A^{2}\pm bB^{2}}:}\,} σ f 2 ≈ ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}^{2}\approx \left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{ AB} σ f ≈ ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}\approx {\sqrt {\left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{ AB}}}
상관 관계가 없는 변수(ρ A B = 0 {\displaystyle \rho_{ AB}=0} , σ A B = 0 {\displaystyle \sigma _{ 더 복잡한 함수에 대한 AB}=0 } 식은 더 간단한 함수를 결합하여 도출할 수 있다. 예를 들어, 상관관계가 없다고 가정할 때 반복적인 곱셈은
f = A B C ; ( σ f f ) 2 ≈ ( σ A A ) 2 + ( σ B B ) 2 + ( σ C C ) 2 . {\displaystyle f=ABC;\qquad \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+\left({\frac {\sigma _{C}}{C}}\right)^{2}.} 사례 f = A B {\displaystyle f= AB} 또한 Goodman의 정확한 분산에 대한 표현을[2] 가지고 있다: 상관관계가 없는 경우.
V ( X Y ) = E ( X ) 2 V ( Y ) + E ( Y ) 2 V ( X ) + E ( ( X − E ( X ) ) 2 ( Y − E ( Y ) ) 2 ) {\displaystyle V(XY)=E(X)^{2}V(Y)+E(X)^{2}V(X)+E(X-E(X))^{2}(Y-E(Y)^{2}} 따라서 다음과 같은 이점을 얻을 수 있다.
σ f 2 = A 2 σ B 2 + B 2 σ A 2 + σ A 2 σ B 2 {\displaystyle \sigma _{f}^{2}= A^{2}\sigma _{B}^{2}+B^{2}\}\sigma _{A}^{2}+\sigma _{A}^{2}\sigma _{B}^{B}}} 상관관계가 차이에 미치는 영향 A 와 B 가 상관관계가 없다면 A-B 의 차이점은 둘 중 하나보다 분산이 많을 것이다. 증가하는 양의 상관 관계 ( ( A B → 1 {\displaystyle \rho _{AB}\to 1 }) 는 차이의 분산을 감소시켜 같은 분산 을 가진 완벽하게 상관된 변수에 대해 0 분산으로 수렴한다. 한편, 상관관계가 없는 경우에 비해 차이의 분산을 더욱 증가시키는 부정적인 상관관계(ρ A B → - 1 {\displaystyle \rho _{AB}\to -1 }) 가 있다.
예를 들어, 자가 굴절 f=A-A 는 변수와 완벽하게 자동 상관 관계가 있는 경우에만 분산이 0인 σ f 2 = 0 {\displaystyle \sigma _{f}^{2}=0} 이다(ρ A = 1 {\displaystyle \rho _{A}=1}). If A is uncorrelated, ρ A = 0 {\displaystyle \rho _{A}=0} , then the output variance is twice the input variance, σ f 2 = 2 σ A 2 {\displaystyle \sigma _{f}^{2}=2\sigma _{A}^{2}} . And if A is perfectly anticorrelated, ρ A = − 1 {\displaystyle \rho _{A}=-1} , then the input variance is quadrupled in the out put, σ f 2 = 4 σ A 2 {\ displaystyle \sigma _{f}^{f }^{2}=4\sigma _{A}^2}}( f = A - A 의 경우 통지서 1 - ρ = 2 {\displaystystyle 1-\rho _{A}=2}).
계산 예제 역 탄젠트 함수 부분파생상품을 사용하여 오차를 전파하는 예로서 역접선함수에 대한 불확실성 전파를 계산할 수 있다.
정의
f ( x ) = 아크탄의 ( x ) , {\displaystyle f(x)=\arctan(x),} 여기서 Δ x {\ displaystyle \Delta _{x} 는 x 의 측정에 대한 절대적인 불확실성이다. x 에 관한 f (x ) 의 파생상품은
d f d x = 1 1 + x 2 . {\displaystyle {\frac {df}{dx}}={\frac {1}{1+x^{2}}. } 그러므로 우리의 전파된 불확실성은
Δ f ≈ Δ x 1 + x 2 , {\displaystyle \Delta _{f}\약간 {\frac {\Delta _{x}{1+x^{2} }}},} 여기서 Δ f {\ displaystyle \Delta _{f} 는 절대 확산 불확실성이다.
저항 측정 실제 적용은 옴 의 법칙 R = V / I 를 이용하여 저항 R을 결정 하기 위해 저항기 상에서 전류 I 및 전압 V 를 측정하는 실험 이다.
불확도가 있는 측정 변수 I I ± ±과 V ± σ 을V 고려할 때, 가능한 상관관계를 무시하면 계산된 수량 σ 의R 불확실성은 다음과 같다.
σ R ≈ σ V 2 ( 1 I ) 2 + σ I 2 ( − V I 2 ) 2 = R ( σ V V ) 2 + ( σ I I ) 2 . {\displaystyle \sigma _{R}\cHB {\sigma _{V}^{2}\좌측({\frac {1}{\frac {1}{}{\}{\}{\}}{\frc}{}}}{}}} I}\오른쪽)^{2}+\sigma _{I}^{2}\왼쪽({\frac {-V}{ I^{2}}}\오른쪽)^{2}}=R{\\sqrt {\\좌({\frac {\sigma _{V}\우)^{2}+\좌({\frac {\sigma _{I}}}}}}{\frac {\sigma}}{{{}}}}}}}}}}}}}}}{{ I}\오른쪽)^{2}}. }
참고 항목 참조 ^ Kirchner, James. "Data Analysis Toolkit #5: Uncertainty Analysis and Error Propagation" (PDF) . Berkeley Seismology Laboratory . University of California. Retrieved 22 April 2016 . ^ Jump up to: a b Goodman, Leo (1960). "On the Exact Variance of Products". Journal of the American Statistical Association . 55 (292): 708–713. doi :10.2307/2281592 . JSTOR 2281592 . ^ 오초아1, 벤자민; 세르게이 "가이드 매칭을 위한 공분산 전파" 웨이백 기계 에 2011-07-20 보관 ^ Ku, H. H. (October 1966). "Notes on the use of propagation of error formulas" . Journal of Research of the National Bureau of Standards . 70C (4): 262. doi :10.6028/jres.070c.025 . ISSN 0022-4316 . Retrieved 3 October 2012 . ^ Clifford, A. A. (1973). Multivariate error analysis: a handbook of error propagation and calculation in many-parameter systems . John Wiley & Sons. ISBN 978-0470160558 . [페이지 필요 ] ^ Lee, S. H.; Chen, W. (2009). "A comparative study of uncertainty propagation methods for black-box-type problems". Structural and Multidisciplinary Optimization . 37 (3): 239–253. doi :10.1007/s00158-008-0234-7 . S2CID 119988015 . ^ Johnson, Norman L.; Kotz, Samuel; Balakrishnan, Narayanaswamy (1994). Continuous Univariate Distributions, Volume 1 . Wiley. p. 171. ISBN 0-471-58495-9 . ^ Lecomte, Christophe (May 2013). "Exact statistics of systems with uncertainties: an analytical theory of rank-one stochastic dynamic systems". Journal of Sound and Vibration . 332 (11): 2750–2776. doi :10.1016/j.jsv.2012.12.009 . ^ "A Summary of Error Propagation" (PDF) . p. 2. Archived from the original (PDF) on 2016-12-13. Retrieved 2016-04-04 . ^ "Propagation of Uncertainty through Mathematical Operations" (PDF) . p. 5. Retrieved 2016-04-04 . ^ "Strategies for Variance Estimation" (PDF) . p. 37. Retrieved 2013-01-18 . ^ Jump up to: a b Harris, Daniel C. (2003), Quantitative chemical analysis (6th ed.), Macmillan, p. 56, ISBN 978-0-7167-4464-1 ^ "Error Propagation tutorial" (PDF) . Foothill College . October 9, 2009. Retrieved 2012-03-01 .
추가 읽기 Bevington, Philip R.; Robinson, D. Keith (2002), Data Reduction and Error Analysis for the Physical Sciences (3rd ed.), McGraw-Hill, ISBN 978-0-07-119926-1 Fornasini, Paolo (2008), The uncertainty in physical measurements: an introduction to data analysis in the physics laboratory , Springer, p. 161, ISBN 978-0-387-78649-0 Meyer, Stuart L. (1975), Data Analysis for Scientists and Engineers , Wiley, ISBN 978-0-471-59995-1 Peralta, M. (2012), Propagation Of Errors: How To Mathematically Predict Measurement Errors , CreateSpace Rouaud, M. (2013), Probability, Statistics and Estimation: Propagation of Uncertainties in Experimental Measurement (PDF) (short ed.) Taylor, J. R. (1997), An Introduction to Error Analysis: The Study of Uncertainties in Physical Measurements (2nd ed.), University Science Books Wang, C M; Iyer, Hari K (2005-09-07). "On higher-order corrections for propagating uncertainties". Metrologia . 42 (5): 406–410. doi :10.1088/0026-1394/42/5/011 . ISSN 0026-1394 . 외부 링크