포아송 이항 분포
Poisson binomial distribution매개변수 | [ [ — 각 n 시행에 대한 성공 확률 | ||
---|---|---|---|
지원 | k ∈ { 0, …, n } | ||
PMF | |||
CDF | |||
평균 | |||
분산 | |||
왜도 | |||
엑스트라 쿠르토시스 | |||
MGF | |||
CF | |||
PGF |
확률 이론과 통계에서 포아송 이항 분포는 반드시 동일한 분포가 아닌 독립 베르누이 시험의 합계의 이산 확률 분포다.이 개념은 시메온 데니스 포아송의 이름을 따서 지어졌다.null
즉, 성공 확률 , 2,…, n개의 독립 예/노 실험 집합에서 성공 횟수의 확률 분포인 것이다일반적인 이항 분포는 포아송 이항 분포의 특별한 경우로서, 모든 성공 확률이 같을 때, 즉 1 = = = =
정의들
확률 질량 함수
총 n개 중에서 k개의 성공적인 시행이 있을 확률은 합으로 기록할 수 있다.
여기서 는 {1,2,3,...,n}에서 선택할 수 있는 k 정수의 모든 하위 집합의 집합이다.For example, if n = 3, then . is the complement of , i.e.={ ,,,}
는 /( ( n -)! ) 요소를 포함하며, n 시행 횟수가 작지 않은 경우(예: n = 30, 를 10개20 이상의 요소로 포함하지 않는다.그러나 (= 을(를) 계산하는 다른 보다 효율적인 방법이 있다
성공 확률이 1과 같지 않는 한, 재귀 공식을 사용하여 k 성공 확률을 계산할 수 있다.
어디에
재귀 공식은 숫자로 안정적이지 않으므로 이 (가) 약 20보다 클 경우 피해야 한다.또 다른 가능성은 이산 푸리에 변환을 사용하는 것이다.[4]null
여기서 = ( + ) C}\ =-1 {\i={\
여전히 다른 방법들이 에 설명되어 있다.[5]null
특성.
평균 및 분산
포아송 이항 분포 변수는 n개의 독립 베르누이 분포 변수의 합이므로, 평균과 분산은 단순히 n 베르누이 분포의 평균과 분산의 합이 될 것이다.
평균( 과 크기(n)의 고정값의 경우 모든 성공 확률이 같고 이항 분포가 있을 때 분산이 최대값이다.평균이 고정되어 있을 때, 분산은 n이 무한을 추구하는 경향과 같이 점증적으로[citation needed] 달성되는 평균과 같은 포아송 분포의 분산에 의해 위에서 경계된다.null
엔트로피
포아송 이항 분포의 엔트로피에 대한 단순한 공식은 없지만, 엔트로피는 같은 숫자 모수와 같은 평균을 가진 이항 분포의 엔트로피에 의해 위에서 경계된다.따라서 엔트로피도 같은 평균을 가진 포아송 분포의 엔트로피에 의해 위에서 경계된다.[6]null
1981년 로렌스 셰프와 잉그램 올킨으로 인한 셉-올킨의 뇌동성 추측에 따르면 포아송 이항 분포의 엔트로피는 확률 p , ,p …, p [7]의 오목함수라고 한다.이 추측은 2015년 에르완 릴리온과 올리버 존슨에 의해 증명되었다.[8]같은 1981년 논문에서 나온 헵-올킨 단조로움 추측 역시 엔트로피가 p 에서 증가한다는 것이다 이 도 Hillion과 에 의해 증명되었다.
체르노프 바운드
포아송 이항 분포가 커질 확률은 다음과 같은 모멘트 생성 함수를 사용하여 경계할 수 있다(μ 및 t >
여기서 = / i .이것은 이항 분포의 꼬리 한계와 비슷하다.null
계산 방법
참고문헌에서는 포아송 이항 분포의 확률 질량 함수를 평가하는 기법을 논한다.그것에 근거한 소프트웨어 구현은 다음과 같다.
- Poisson 이항 분포의 cdf, pmf, 퀀텀 함수 및 난수 생성에 사용할 수 있는 R 패키지 포이빈이 논문과 함께 제공되었다.[10]PMF 계산을 위해 정확한 PMF를 계산하기 위해 DFT 알고리즘이나 재귀 알고리즘을 지정할 수 있으며, 정규 분포와 포아송 분포를 사용한 근사법도 지정할 수 있다.
- Poibin - Python 구현 - PMF와 CDF를 계산할 수 있으며, 이를 위해 논문에 설명된 DFT 방법을 사용한다.
참고 항목
참조
- ^ Wang, Y. H. (1993). "On the number of successes in independent trials" (PDF). Statistica Sinica. 3 (2): 295–312.
- ^ Shah, B. K. (1994). "On the distribution of the sum of independent integer valued random variables". American Statistician. 27 (3): 123–124. JSTOR 2683639.
- ^ Chen, X. H.; A. P. Dempster; J. S. Liu (1994). "Weighted finite population sampling to maximize entropy" (PDF). Biometrika. 81 (3): 457. doi:10.1093/biomet/81.3.457.
- ^ Fernandez, M.; S. Williams (2010). "Closed-Form Expression for the Poisson-Binomial Probability Density Function". IEEE Transactions on Aerospace and Electronic Systems. 46 (2): 803–817. Bibcode:2010ITAES..46..803F. doi:10.1109/TAES.2010.5461658. S2CID 1456258.
- ^ Chen, S. X.; J. S. Liu (1997). "Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions". Statistica Sinica. 7: 875–892.
- ^ Harremoës, P. (2001). "Binomial and Poisson distributions as maximum entropy distributions" (PDF). IEEE Transactions on Information Theory. 47 (5): 2039–2041. doi:10.1109/18.930936.
- ^ Shepp, Lawrence; Olkin, Ingram (1981). "Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution". In Gani, J.; Rohatgi, V.K. (eds.). Contributions to probability: A collection of papers dedicated to Eugene Lukacs. New York: Academic Press. pp. 201–206. ISBN 0-12-274460-8. MR 0618689.
- ^ Hillion, Erwan; Johnson, Oliver (2015-03-05). "A proof of the Shepp-Olkin entropy concavity conjecture". Bernoulli. 23 (4B): 3638–3649. arXiv:1503.01570. doi:10.3150/16-BEJ860. S2CID 8358662.
- ^ Hillion, Erwan; Johnson, Oliver (2019-11-09). "A proof of the Shepp-Olkin entropy monotonicity conjecture". Electronic Journal of Probability. 24 (126): 1–14. doi:10.1214/19-EJP380.
- ^ a b Hong, Yili (March 2013). "On computing the distribution function for the Poisson binomial distribution". Computational Statistics & Data Analysis. 59. doi:10.1016/j.csda.2012.10.006.