이항 엔트로피 함수

Binary entropy function
이항 엔트로피 함수로 불리는 이항 결과 확률의 함수로써 베르누이 실험의 엔트로피.

정보이론에서 ( ) 또는 H 로 표시된 이항 엔트로피 함수는 두 값 중 하나 p{\을 가진 베르누엘리 공정의 엔트로피로 정의된다.엔트로피 함수 X) 의 특수한 경우다.수학적으로 베르누이 재판은 0과 1의 두 값만 맡을 수 있는 랜덤 변수 로 모델링되는데, 이는 상호 배타적이고 철저한 것이다.null

= )= p = - {X 의 엔트로피가 주어지는 경우

,

서 0 은(는) 0으로 간주된다.이 공식의 로그는 대개 (그래프에 표시된 것처럼) 베이스 2로 가져간다.이진 로그를 참조하십시오.null

= 이항 엔트로피 함수가 최대값에 도달한다이것은 편향되지 않은 동전이 뒤집힌 경우다.null

( ) {은)은 전자가 하나의 실수를 매개 변수로 사용하는 반면 후자는 분포 또는 랜덤 변수를 매개 변수로 사용한다는 점에서 엔트로피 H X) 과 구별된다.때때로이항 엔트로피 함수는 H2((p){\displaystyle \operatorname{H}_ᆭ(p)}로표기되기도 하지만, H2(X){\displaysty \mathrm{H}_ᆯ(X)로 표기된 레니 엔트로피와 다르므로 혼동해서는 안 된다.

설명

정보이론의 관점에서 엔트로피는 메시지의 불확실성의 척도로 간주된다.직관적으로 말하면 = 을 가정해 보자 이 확률에서 사건은 절대 일어나지 않을 것이 확실하므로 불확실성이 전혀 없으므로 엔트로피가 0으로 이어진다.= 인 경우 결과는 다시 확실하므로 여기서도 엔트로피가 0이다.= / 일 때 불확실성은 최대치가 된다. 이 경우 결과에 공정한 베팅을 한다면 확률에 대한 사전 지식으로 얻을 이점은 없다.이 경우 엔트로피는 1비트 값으로 최대값이다.중간 값은 이러한 경우 사이에 속한다. 예를 들어, = / p= 결과에 대한 불확실성의 척도가 여전히 존재하지만, 여전히 결과를 정확하게 예측할 수 있는 경우가 더 많기 때문에 불확실성 측정치 또는 엔트로피는 1 가득 비트보다 작다.null

파생상품

이항 엔트로피 함수파생상품로짓 함수의 음수로 표현될 수 있다.

.

테일러 시리즈

1/2의 근방에 있는 이항 엔트로피 함수의 테일러 시리즈는

0 p\leq 1}의

경계

< [1]

그리고

여기서 은(는) 자연 로그를 의미한다.null

참고 항목

참조

  1. ^ Topsøe, Flemming (2001). "Bounds for entropy and divergence for distributions over a two-element set". JIPAM. Journal of Inequalities in Pure & Applied Mathematics. 2 (2): Paper No. 25, 13 p.-Paper No. 25, 13 p.

추가 읽기