오차 지수

Error exponent

정보 이론에서, 코드의 블록 길이에 대한 채널 코드 또는 소스 코드오류 지수는 코드의 블록 길이에 따라 오류 확률이 기하급수적으로 감소하는 비율이다. 형식적으로는 큰 블록 길이에 대한 코드 블록 길이에 대한 오류 확률의 음수 로그의 제한 비율로 정의된다. For example, if the probability of error of a decoder drops as , where is the block length, the error exponent is . In this example, 은(는) n }에 접근한다 예를 들어 채널 용량보다 작은 속도에 대해서는 채널 co의 오류 확률인 점증적 성격을 가진 정보가 많다.de는 블록 길이가 무한대로 될 때 0으로 만들 수 있다. 실제 상황에서는 통신 지연에 한계가 있으며 블록 길이는 제한적이어야 한다. 따라서 블록 길이가 무한대로 갈수록 오차의 확률은 어떻게 떨어지는지를 연구하는 것이 중요하다.

채널 코딩의 오류 지수

시간 내 DMC의 경우

채널 부호화 정리는 어떤 ε > 0에 대해서 그리고 채널 용량보다 작은 비율에 대해서, 충분히 긴 메시지 블록 X에 대해서 블록 오류의 확률을 > > 0보다 작게 하는 것을 보증하는 데 사용할 수 있는 인코딩 및 디코딩 체계가 있다고 기술하고 있다. 또한, 채널 용량보다 큰 비율의 경우, 수신기에서 블록 오차의 확률은 블록 길이가 무한대로 갈 때 1로 간다.

채널 코딩 설정을 다음과 같이 가정하면: 채널은 해당하는 코드 워드(길이 n)를 전송하여 = 개의 메시지를 전송할 수 있다. 코드북의 각 구성요소는 확률질량함수 Q와 함께 확률분포에 따라 I.I.d.를 그린다. 디코딩 엔드에서 최대우도 디코딩이 수행된다.

n 을(를) 코드북에 {\ 임의 코드 워드로 두십시오 여기서 i (는) 1에서 M 으)로 선택되었다고 가정하면 X {n}{1}{1}{n}}}}}}{n이 전송된다. 을(를) 수신한 경우 코드 워드가 로 잘못 탐지될 확률은 다음과 같다.

함수 (y )> ( y x )n}\}^{n p는 상한이다.

> 0 따라서

M 메시지가 있고, 코드북의 항목이 i.i.d이므로 X 이(가) 다른 메시지와 혼동될 확률은 위의 식에 배이다. 조합 바운드를 사용하면 X 과(와) 메시지가 혼동될 확률은 다음과 같다.

< > :

= - 을(를) 선택하고 위의 공식에서 에 대한 두 합을 결합하는 방법:

코드 워드 요소의 독립성 및 채널의 개별 메모리 없는 특성 사용:

코드 워드의 각 요소가 동일하게 분포되어 고정되어 있다는 사실을 사용하여 다음을 수행하십시오.

M을 2로nR 교체하고 정의하는 중

오차가 발생할 확률은

Q 을(를) 선택하여 바운드가 가장 티그되도록 해야 한다. 따라서 오차 지수를 다음과 같이 정의할 수 있다.

소스 코딩의 오류 지수

시간 불변 이산 메모리 소스의 경우

그 정보원 부호화 정리 김치는 어떤ε>X{X\displaystyle} 같은 0{\displaystyle \varepsilon>0}과 어떤discrete-time i.i.d. 소스와 속도를 원천의 엔트로피보다 적은 돈을 위해, 큰 충분한 n{n\displaystyle}과 n{n\displaystyle}i.i.d 인코더다. 월의 반복이다.esource, , and maps it to binary bits such that the source symbols are recoverable from the binary bits with probability at least .

= 을(를) 가능한 총 메시지 수입니다. 다음, 각 가능한 소스 출력 시퀀스를 동일한 분포를 사용하여 다른 모든 것과 독립적으로 메시지 중 하나에 매핑하십시오. 소스가 생성되면 해당 메시지 = 이(가) 대상으로 전송된다. 메시지는 가능한 소스 문자열 중 하나로 디코딩된다. In order to minimize the probability of error the decoder will decode to the source sequence that maximizes , where denotes the event that message was transmitted. 이 규칙은 (X )를 최대화하는 메시지 에 매핑되는 소스 시퀀스 집합 중에서 소스 시퀀스 m}을를) 찾는 것과 같다 이러한 감소는 메시지가 임의로 다른 모든 것들과 독립적으로 할당되었다는 사실에서 나타난다.

Thus, as an example of when an error occurs, supposed that the source sequence was mapped to message as was the source sequence . If was generated at the source, 그러나 ( ( )> ( ( 1)) 그러면 오류가 발생한다.

Let denote the event that the source sequence was generated at the source, so that Then the probability of error can be broken down as Thus, attention can be focused on finding an upper bound to the .

Let denote the event that the source sequence was mapped to the same message as the source sequence and that . 따라서 , (가) 두 원본 i와) {\ i'\,}이(가 동일한 메시지에 매핑되는 이벤트를 나타내도록 하면 다음과 같은 결과를 얻을 수 있다.

P, )= 다른 모든 것과 독립되어 있다는 사실을 사용하여

왼쪽의 용어에 대한 단순한 상한을 다음과 같이 설정할 수 있다.

어떤 임의의 실수 s>0. 예를 들면{\displaystyle s>, 0\,.}이 상한은 P(P(X1n(나는 ′))을 점에 주목함으로써&P(X1n(나는))){\displaystyle P(P(X_{1}^{n}(나는 '))>P(X_{1}^{n}(나는)))\와 같이,}중 하나는 1{1\\displaystyle,}또는 0{0\\displaystyle,}기 때문에 proba 확인할 수 있다.의 bilities 주어진 입력 순서는 완전히 결정론적이다. Thus, if then 이(가) 불평등이 그 경우에 버틸 수 있도록. 불평등은 다른 사례에서도 마찬가지인데, 그 이유는

모든 가능한 소스 문자열에 대해. 따라서 모든 것을 합쳐서 [ 0 를) 도입하면 다음과 같은 결과를 얻을 수 있다.

유니온 바운드에 대한 변화로부터 불평등이 뒤따르는 곳. 으로 P) 의 합계에 이 상한을 적용하면 다음과 같은 결과가 나온다.

이제 합계가 모든 i을(를) 인수할 수 있는 곳, 왜냐하면 그렇게 되면 한계만 증가할 것이기 때문이다. 궁극적으로 그것을 양보한다.

Now for simplicity let so that Substituting this new value of into the above bound on the probability of error and using the fact that is just a dummy variable in 합계는 오차 확률에 대한 상한을 다음과 같이 나타낸다.

= 1 n ( )의 각 구성요소는 독립적이다. 따라서, 위의 방정식을 단순화하면 산출된다.

오류 확률에서 가장 높은 상한을 달성하려면 지수 내 용어를 에 대해 최대화해야 한다.

Letting see that the error exponent for the source coding case is:

참고 항목

참조

R. 갤러거, 정보 이론 신뢰할 수 있는 커뮤니케이션, Wiley 1968