평균 확률로 분포 함수를 도출하는 방법
통계 역학 에서 다윈-폴러 방법 은 평균 확률로 분포 함수 를 도출하는 데 사용된다.그것은 찰스 갈튼 다윈 과 랄프 H. 파울러 에 의해 1922–1923년에 개발되었다.[1] [2]
분포 함수는 에너지 수준(직업 번호라고도 함)을 점유하는 평균 입자 수를 추정하기 위해 통계 물리학에서 사용된다. 이러한 분포는 대부분 고려 중인 시스템이 최대 확률 상태에 있는 숫자로 도출된다. 하지만 하나는 정말 평균적인 숫자를 필요로 한다. 이러한 평균 수치는 다윈-폴러 방식으로 얻을 수 있다. 물론, 열역학적 한계 (입자 수가 많음)에 있는 시스템의 경우, 통계 역학에서와 마찬가지로 결과는 최대화와 동일하다.
다윈-폴러 방식 통계역학 에 관한 대부분의 본문에서 Maxwell-Boltzmann 통계 , Bose-Ainstein 통계, Fermi-Dirac 통계량 의 통계분포함수 f {\displaystyle f} 는 시스템이 최대 확률 상태에 있는 것을 결정함으로써 도출된다. 그러나 통계 역학에서와 같이, 물론 그 결과는 매우 많은 수의 요소가 있는 시스템에서 대개 동일하지만, 평균 또는 평균 확률을 가진 사람들을 실제로 요구한다. 평균 확률로 분포 함수를 도출하는 방법은 C. G. 다윈 과 파울러 에[2] 의해 개발되었으며, 따라서 다윈-폴러 방법으로 알려져 있다. 이 방법은 통계분포함수를 도출하기 위한 가장 신뢰할 수 있는 일반 절차다. 이 방법은 선택 변수(각 원소에 대해 계수 절차를 허용하기 위해 도입된 요인)를 사용하기 때문에 선택 변수의 다윈-폴러 방법이라고도 한다. 분포 함수는 확률 – cf와 같지 않다는 점에 유의하십시오. 맥스웰-볼츠만 분포, 보스-아인슈타인 분포 , 페르미-디락 분포. Also note that the distribution function f i {\displaystyle f_{i}} which is a measure of the fraction of those states which are actually occupied by elements, is given by f i = n i / g i {\displaystyle f_{i}=n_{i}/g_{i}} or n i = f i g i {\displaystyle n_{i}=f_{i}g_{i}} , where g i {\ displaystyle g_{i} 는 에너지 i i {\ displaystyle \var렙실론_{i} 의 에너지 수준 i {\ displaystyle i} 의 퇴보이며 n {\displaystyn_{i} 는 이 수준을 점유하는 요소의 수입니다(예: Fermi-Dirac 통계 0 또는 1).총 에너지 E {\displaystyle E} 과(와 ) N {\displaystyle N} 의 총 개수는 E = ∑ i { i {\displaystyle E=\sum _{ i }\varepsilon _ {i} 및 N = ∑ n ∑ n {n {\ displaystyle N=\sum n_} 에 의해 주어진다.
다윈-폴러 방법은 K 의 [5] E. 슈뢰딩거 ,[3] 파울러[4] , 파울러, E. A. 구겐하임 의 본문에서 다루어져 왔다. H. [6] J. W. 뮐러-커스틴 의 황.[7] 이 방법은 R. B. 딩글 [de ][8] 의 저서에서 보세-아인슈타인 응축 의 유도에도 논의되고 사용된다.
고전 통계학 For N = ∑ i n i {\displaystyle N=\sum _{i}n_{i}} independent elements with n i {\displaystyle n_{i}} on level with energy ε i {\displaystyle \varepsilon _{i}} and E = ∑ i n i ε i {\displaystyle E=\sum _{i}n_{i}\varepsilon _{i}} for a canonical system in a heat bath with temperature T 우리 가 설정해 놓은 T.
Z = ∑ 채비 e − E / k T = ∑ 채비 ∏ i z i n i , z i = e − ε i / k T . {\displaystyle Z=\sum _{\text{arrangement}e^{-E/k T}=\sum _\text{arrangement}\prod _{i}^{n_{i}},\;\;z_{i}=e^{-\barepsilon _{i}/kT}. } 모든 준비의 평균은 평균 직업 수다.
( n i ) av = ∑ j n j Z Z = z j ∂ ∂ z j ln Z . {\displaystyle (n_{i}}_{\text{av}}}={\frac {\sum _{j}Z}}{Z}}}}}{\frac {\partial z_{j}}\ln Z. } 설정을 통해 선택 변수 Ω {\displaystyle \omega } 삽입
Z ω = ∑ ∏ i ( ω z i ) n i . {\displaystyle Z_{\omega }=\sum \prod _{i}(\omega z_{i})^{n_{i}}. } 고전적 통계 에서 N {\displaystyle N } 요소는 (a) 구별할 수 있으며, 번호가 있는 i i {\displaystyle n_{ i } 수준 의 n i {\displaystyle \varepsilon_{i } 요소 패킷으로 배열할 수 있다.
N ! ∏ i n i ! , 디스플레이 스타일 {\frac {N! }}{\prod _{i}n_{i}! }},} 그래서 이 경우에는
Z ω = N ! ∑ n i ∏ i ( ω z i ) n i n i ! . {\displaystyle Z_{\omega }=N!\sum _{n_{i}\prod _{i}{\frac {(\omega z_{i})^{n_{n_{i}}}! }}.} (b) 수준 ε i 의 퇴보성 g i {\ displaystyle g_{i} 를 허용하면 이 표현은 다음과 같이 된다.
Z ω = N ! ∏ i = 1 ∞ ( ∑ n i = 0 , 1 , 2 , … ( ω z i ) n i n i ! ) g i = N ! e ω ∑ i g i z i . {\displaystyle Z_{\omega }}=N!\prod _{i=1}^{n1}^{\inflt }\sum _{n_{n}=0,1,2,\ldots }{\frac {(\omega z_{i}^}}}}}}{n_{n_{i}! }}}\오른쪽)^{g_{i}^{n!e^{\omega \sum _{i}g_{i}z_{i}}}}. } 선택 변수 Ω {\displaystyle \omega } 을(를) 사용하면 Ω N {\ displaystyle \omega ^{N} 의 계수를 선택할 수 있으므로, Z {\displaysty Z}
Z = ( ∑ i g i z i ) N , {\displaystyle Z=\왼쪽(\sum _{i}g_{i}z_{i}\오른쪽)^ {N}} 그래서
( n j ) av = z j ∂ ∂ z j ln Z = N g j e − ε j / k T ∑ i g i e − ε i / k T . {\displaystyle (n_{j}}_{\text{av}}}=z_{j}}{\frac {\partial z_{j}}}}\ln Z=N{g_{j}e^{-\barepsilon_{j}/k T}{{{i}g_{i}g_{i}e^{-\barepsilon _{i}/kT}}}. } 최대화에 의해 얻어진 가장 개연성이 높은 값에 동의하는 이 결과는 하나의 근사치를 수반하지 않으며 따라서 정확하며 따라서 이 다윈-폴러 방법의 힘을 보여준다.
양자통계 위와 같다.
Z ω = ∑ ∏ ( ω z i ) n i , z i = e − ε i / k T , {\displaystyle Z_{\omega }=\sum \prod(\omega z_{i}}},\;z_{i}}=e^{-\varepsilon_{i}/kT}}}}} 여기서 n i {\ displaystyle n_{i} 는 에너지 수준의 원소 수 ε i {\ displaystyle \varepsilon _{i }}. 양자 통계에서 원소를 패킷 n 1 , n 3 으로 나누는 방법의 수에 대한 예비 계산은 불가능하기 때문에 . . . . . . . . . . .\displaystyle n_{1}n_{n_{ n_{n_{n_{n_{n_{n_}{n_}{ n_{n_ {n_{n_}} 3},...} 이 (가) 필요함.따라서 합계 ∑{\displaystyle \sum }은(는) n i {\ displaystyle n_{i} 의 가능한 값에 대한 합계만을 가리킨다.
페르미-디락 통계학 의 경우, 우리는
n i = 0 {\displaystyle n_{i}=0} 또는 n i = 1 {\displaystyle n_{i}=1 } 주 단위로 에너지 레벨에 대한 g i {\ displaystyle g_{i} 상태가 있음 ε i {\ displaystyle \varepsilon _{i }. 따라서 다음이 있다.
Z ω = ( 1 + ω z 1 ) g 1 ( 1 + ω z 2 ) g 2 ⋯ = ∏ ( 1 + ω z i ) g i . {\displaystyle Z_{i}=(1+\omega z_{1}^{g_{1}:{g_{1}:{g_{1}^{1}(1+\omega z_{2}){g_{2}}\cdots =\prod(1+\omega z_{i})^{g_{i}}}. } 보세-아인슈타인 통계학 의 경우 우리는
n i = 0 , 1 , 2 , 3 , … ∞ . {\displaystyle n_{i}=0,1,2,3,\ldots \inft.} 현재 사례에서 획득하기 전과 동일한 절차로
Z ω = ( 1 + ω z 1 + ( ω z 1 ) 2 + ( ω z 1 ) 3 + ⋯ ) g 1 ( 1 + ω z 2 + ( ω z 2 ) 2 + ⋯ ) g 2 ⋯ . {\displaystyle Z_{\omega }=(1+\omega z_{1}+(\omega z_{1})^{2}+(\omega z_{1})^{3}+\cdots )^{g_{1}}(1+\omega z_{2}+(\omega z_{2})^{2}+\cdots )^{g_{2}}\cdots .} 그렇지만
1 + ω z 1 + ( ω z 1 ) 2 + ⋯ = 1 ( 1 − ω z 1 ) . {\displaystyle 1+\omega z_{1}+(\omega z_{1})^{2}+\cdots ={\frac {1}{{1}}. } 그러므로
Z ω = ∏ i ( 1 − ω z i ) − g i . {\displaystyle Z_{\omega }=\prod _{i}(1-\omega z_{i})^{-g_{i}}. } 두 사례 를 모두 요약 하고 Z {\displaystyle Z} 의 정의를 상기하면 Z {\displaystyle Z}이( 가 ) Ω N {\ displaystyle \omega ^{N} 의 계수임을 알 수 있다.
Z ω = ∏ i ( 1 ± ω z i ) ± g i , {\displaystyle Z_{\omega }=\prod _{i}(1\pm \omega z_{i})^{\pm g_{i},} 여기서 상단 기호는 페르미-디락 통계에 적용되고 하단 기호는 보스-아인슈타인 통계에 적용된다.
다음에는 Z Ω 에서 Ω N {\ displaystyle \omega ^{N}} 의 계수를 평가해야 한다. {\displaystyle Z_{\omega }}}.} 함수 ϕ (Ω ) {\displaystyle \phi (\omega )} 의 경우, 이렇게 확장할 수 있다.
ϕ ( ω ) = a 0 + a 1 ω + a 2 ω 2 + ⋯ , {\displaystyle \phi(\omega )=a_{0}+a_{1 }}\omega +a_{2 }}\omega ^{2}+\cdots,} Ω N {\ displaystyle \omega ^{N} 의 계수는 Cauchy 의 잔류 정리 의 도움을 받아 ,
a N = 1 2 π i ∮ ϕ ( ω ) d ω ω N + 1 . {\displaystyle a_{N}={\frac {1}{2\pi i}\}\point {\frac {\pi(\omega)d\omega }{\omega ^{N+1}. } 마찬가지로 위의 계수 Z {\displaystyle Z} 도 다음과 같이 얻을 수 있다.
Z = 1 2 π i ∮ Z ω ω N + 1 d ω ≡ 1 2 π i ∫ e f ( ω ) d ω , {\displaystyle Z={\frac {1}{2\pi i}\point {\frac {Z_{\omega ^{N+1}d\equiv {\frac {1}{2\pi i}}\int e^{f(\omega )d\omega ,}} 어디에
f ( ω ) = ± ∑ i g i ln ( 1 ± ω z i ) − ( N + 1 ) ln ω . {\displaystyle f(\omega )=\pm \sum _{i}g_{i}\ln(1\pm \omega z_{i}-(N+1)\ln \omega.} 차별화를 통해 얻을 수 있는 이점
f ′ ( ω ) = 1 ω [ ∑ i g i ( ω z i ) − 1 ± 1 − ( N + 1 ) ] , {\displaystyle f'(\omega )={\frac {1}{\1}{\frac }}{g_{i}}{(\omega z_{i}}}}}}^{-1}\pm 1-(N+1)\right],}}} 그리고
f ″ ( ω ) = N + 1 ω 2 ∓ 1 ω 2 ∑ i g i [ ( ω z i ) − 1 ± 1 ] 2 . {\displaystyle f"(\omega )={\frac {N+1}{\frac ^{2}}:}\mp {1}{\frac {1}{1}{1}:{2}}:\frac {1}{g_{i}}}}{{ni}}}{-1}:{-1}:{2}}. } 이제 정지점 Ω 0 {\ displaystyle \omega _{0}} 에서 f(Ω 0 ) = 0. {\displaystyle f'(\omega _{0}=0.}) 의 첫 번째 및 두 번째 파생상품을 평가한다. 이 안장점 Ω 0 {\displaystyle \omega_{0} 주위에 있는 Z {\displaystyle Z }의 평가 방법은 가장 가파른 내리막길 의 방법으로 알려져 있다. 그러면 하나가 얻는다.
Z = e f ( ω 0 ) 2 π f ″ ( ω 0 ) . {\displaystyle Z={\frac {e^{f(\omega _{0}}}}}}}{\sqrt {2\pi f"(\omega _{0}}}}}). } f ′ (Ω 0 ) = 0 {\displaystyle f'(\omega _{0}=0}) 이 있으므로
N ( + 1 ) = ∑ i g i ( ω 0 z i ) − 1 ± 1 {\displaystyle N(+1)=\sum _{i}{\frac {g_{i}}{{{0}z_{i}}^{-1}\pm 1.}} (N {\displaystyle N} 이 (가) 크기 때문에 +1이 무시할 수 있음). 우리는 이 마지막 관계가 단순히 공식이라는 것을 곧 알게 될 것이다.
N = ∑ i n i . {\displaystyle N=\sum _{i}n_{i}. } 평가하여 평균 직업 번호(n i ) v {\ displaystyle (n_{i}_{av}}) 를 구한다.
( n j ) a v = z j d d z j ln Z = g j ( ω 0 z j ) − 1 ± 1 = g j e ( ε j − μ ) / k T ± 1 , e μ / k T = ω 0 . {\displaystyle (n_{j})_{av}=z_{j}{\frac {d}{dz_{j}}}\ln Z={\frac {g_{j}}{(\omega _{0}z_{j})^{-1}\pm 1}}={\frac {g_{j}}{e^{(\varepsilon _{j}-\mu )/k T}\pm 1.}\quad e^{\mu /kT}=\omega _{0}. } 이 표현식은 V {\ displaystyle T} 온도 J {\ displaystyle T}에 있는 N {\displaystyle V } 의 총 요소 수 평균을 제시하며, 이 값은 퇴보성 g {\ displaystyle g_{j} 을 참조 한다. 신뢰할 수 있는 관계를 위해서는 안장 지점 주변의 확장이 실제로 점증하지 않는 확장을 발생시키도록 초기에 높은 주문 기여도가 감소하고 있는지 확인해야 한다.
추가 읽기
참조 ^ "Darwin–Fowler method" . Encyclopedia of Mathematics . Retrieved 2018-09-27 . ^ a b C.G. 다윈과 R.H. 파울러, 필. Mag. 44(1922) 450–479, 823–842. ^ E. Schrödinger, 통계 열역학, 캠브리지 대학 출판부(1952년). ^ R.H. 파울러, 케임브리지 대학 출판부 통계학(1952년). ^ R.H. 파울러와 E. Guggenheim, Statistical Thermodynamics, Cambridge University Press (1960) ^ K. Huang, Statistical Mechanics, Wiley(1963년). ^ H. J. W. 뮐러-커스틴, 통계물리학의 기본, 제2편, 월드 사이언티픽(2013), ISBN 978-981-4449-53-3 . ^ R. B. 딩글, 점근 확장: 그들의 파생 및 해석, 학술지(1973); 페이지 267–271.