후방 확률

Posterior probability

사후 확률베이즈 [1]정리를 적용하여 우도로 요약된 정보로 이전 확률을 업데이트한 결과 발생하는 조건부 확률의 한 유형이다.인식론적 관점에서, 사후 확률은 사전 지식과 특정 [2]시간에 이용 가능한 관찰을 기술하는 수학적 모델에 주어진 불확실한 명제에 대해 알아야 할 모든 것을 포함한다.새로운 정보가 도착한 후, 현재 사후 확률은 베이지안 업데이트의 또 다른 라운드에서 이전 확률로 작용할 수 있다.

베이지안 통계의 맥락에서 사후 확률 분포는 일반적으로 관측된 데이터의 수집에 따라 조건부 통계 매개변수에 대한 인식론적 불확실성을 설명한다.주어진 후방 분포로부터 최대 사후 밀도 간격(MAP) 또는 최고 후방 밀도 간격(HPDI)과 같은 다양한 지점 및 간격 추정치를 도출할 수 있다.그러나 개념적으로 단순하지만, 후방 분포는 일반적으로 다루기 어렵기 때문에 분석적으로 또는 수치적으로 [3]근사해야 한다.

배포 케이스에서의 정의

가변 베이지안 방법에서 사후 확률은 X(\ X가 주어진 파라미터\\ 확률이며 pδX됩니다

p( p 가 주어진 증거의 확률인 우도함수와 대비된다.

이 두 가지는 다음과 같이 관련되어 있습니다.

확률분포함수가 p { p이고 x { x 가 p {x \theta경우 사후확률은 다음과 같이 정의된다.

[4]

p ( p 정규화 상수이며 다음과 같이 계산됩니다.

연속ous \ \ theta 의 경우 또는 이산 }\ \ [5] 한 모든 값 \ p ( \ \ allall all for for for 。

따라서 후방 확률은 제품 가능성 및 이전 확률비례합니다.

남학생이 60%, 여학생이 40%인 학교가 있다고 가정해 봅시다.여자아이들은 바지나 치마를 똑같이 입는다; 남자아이들은 모두 바지를 입는다.관찰자는 멀리서 한 학생을 본다; 관찰자가 볼 수 있는 것은 이 학생이 바지를 입고 있다는 것 뿐이다.이 학생이 여학생일 확률은 얼마나 됩니까?정답은 베이즈의 정리를 사용하여 계산할 수 있다.

관찰한 학생이 여학생인 이 G이고 관찰한 이 바지를 입고 있는 것이 T이다.후방 P를 계산하려면 먼저 다음을 알아야 합니다.

  • () \ displaystyle P ( G ) 정보에 관계없이 이 여학생일 이 있습니다관찰자는 랜덤 학생을 볼 수 있습니다. 즉, 모든 학생이 같은 확률로 관찰되고 학생 중 여학생 비율이 40%이므로 이 확률은 0.4와 같습니다.
  • P또는 학생이 다른 정보에 관계없이 여학생(즉 남학생)이 아닐 가능성( B G G의 보충 이벤트입니다.이것은 60%(0.6)입니다.
  • 또는 학생이 여학생임을 감안할 때 바지를 입을 확률.치마를 바지처럼 입을 가능성이 높기 때문에 0.5입니다.
  • 학생이 남학생임을 감안할 때 바지를 입을 확률.이것은 1로 되어 있습니다.
  • 로 선택된) 학생이 바지를 입을 가능성, 즉, 다른 정보에 관계없이 P( P)\displaystyle P(T)\displaystyle P(Tdisplaystyle P(T)\displaystyle P(TP G + P B (\P( B) P(B)} (전확률의 법칙에 따라)이므로 G는 0T이다.

이 모든 정보를 고려할 때 관찰자가 바지를 입고 있는 여학생을 발견했을 확률은 공식에 다음 값을 대입하여 계산할 수 있다.

이것을 해결하는 직관적인 방법은 학교에 N명의 학생이 있다고 가정하는 것이다.남학생 수 = 0.6N, 여학생 수 = 0.4N.N이 충분히 클 경우 바지 착용자 총수는 0.6N+0.4N의 50%이다.그리고 여성 바지 착용자 수=0.4N의 50%.따라서 바지 인구에서 여자아이는 (0.4N의 50%)/(0.6N+0.4N의 50%)=25%이다.즉, 바지를 입는 그룹을 분리하면, 그 그룹의 4분의 1이 여자입니다.따라서 바지를 보면 25%가 여학생인 일부 학생으로부터 단일 표본을 보고 있다는 것을 추론할 수 있습니다.그리고 당연히, 이 무작위 학생이 여학생일 확률은 25%입니다.모든 베이즈 정리 문제는 이 방법으로 풀 수 있다.

계산

다른 변수의 값이 주어진 한 랜덤 변수의 사후 확률 분포는 다음과 같이 이전 확률 분포에 우도 함수를 곱한 다음 정규화 상수로 나누어 베이즈 정리로 계산할 수 있습니다.

Y {\y일 때 랜덤 X(\ X 대한 후방 확률 밀도 함수를 제공합니다.

  • X( XX의 이전 밀도입니다.
  • X x x의 함수로서 우도 함수입니다.
  • θ- f ( ) X Y ( ) d { display \_ { - \ }^{ \ X){\ { du}는 정규화 상수입니다
  • X Y () {\ Y}( y {\Y 밀도입니다.

신뢰할 수 있는 간격

사후 확률은 랜덤하게 관측된 데이터를 조건으로 하는 조건부 확률입니다.따라서 이것은 랜덤 변수입니다.랜덤 변수의 경우 불확실성의 양을 요약하는 것이 중요합니다.이 목표를 달성하는 한 가지 방법은 사후 확률의 신뢰할 수 있는 간격을 제공하는 것이다.

분류

분류에서 사후 확률은 특정 세분류에 대한 관측치 평가의 불확실성을 반영한다. 클래스 멤버십 확률도 참조한다.정의에 의한 통계 분류 방법은 사후 확률을 발생시키지만, 기계 학습자는 일반적으로 확률론적 신뢰를 유도하지 않는 구성원 자격 값을 제공한다.멤버십 값은 동등하고 후처리에 더 쉽게 적용할 수 있으므로 클래스 멤버십 확률로 변환 또는 재스케일링하는 것이 바람직합니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Lambert, Ben (2018). "The posterior – the goal of Bayesian inference". A Student's Guide to Bayesian Statistics. Sage. pp. 121–140. ISBN 978-1-4739-1636-4.
  2. ^ Grossman, Jason (2005). Inferences from observations to simple statistical hypotheses (PhD thesis). University of Sydney. hdl:2123/9107.
  3. ^ Press, S. James (1989). "Approximations, Numerical Methods, and Computer Programs". Bayesian Statistics : Principles, Models, and Applications. New York: John Wiley & Sons. pp. 69–102. ISBN 0-471-63729-7.
  4. ^ Christopher M. Bishop (2006). Pattern Recognition and Machine Learning. Springer. pp. 21–24. ISBN 978-0-387-31073-2.
  5. ^ Andrew Gelman, John B. Carlin, Hal S. Stern, David B. Dunson, Aki Vehtari and Donald B. Rubin (2014). Bayesian Data Analysis. CRC Press. p. 7. ISBN 978-1-4398-4095-5.{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크)

추가 정보

  • Lancaster, Tony (2004). An Introduction to Modern Bayesian Econometrics. Oxford: Blackwell. ISBN 1-4051-1720-6.
  • Lee, Peter M. (2004). Bayesian Statistics : An Introduction (3rd ed.). Wiley. ISBN 0-340-81405-5.