하틀리(단위)

Hartley (unit)

금지 또는 dit(십진수 자릿수의 줄임말)라고도 불리는 하틀리(기호하트)[1][2][3]는 10의 기본 로그와 힘을 바탕으로 정보엔트로피를 측정하는 로그 단위다.하나의 하틀리는 사건이 발생할 확률은 다음과 같은 경우에 사건의 정보내용이다.따라서 이것은 [4]각 가능한 값의 선행적 등가성을 가정하여 하나의 소수 자릿수(또는 dit)에 포함된 정보와 동일하다.그것은 랄프 하틀리의 이름을 따서 지어졌다.null

만약 기초 2 로그와 2의 힘을 대신 사용한다면, 정보의 단위는 비트, 즉 샤논이며, 이는 사건이 발생할 확률12일 경우 사건의 정보내용이다.자연 로그e의 힘이 냇을 정의한다.null

하나의 금지사항은 ln(10) nat = log2(10) 비트 또는 Sh, 또는 약 2.303 nat 또는 3.322 비트에 해당한다.[a]데시반은 금지(또는 약 0.332비트)의 10분의 1이다. 이름은 SI 접두사 데시-에 의해 금지로부터 형성된다.null

관련 SI 단위는 없지만, 정보 엔트로피국제 전기 표준 IEC 80000-13에 의해 정의된 국제 수량 시스템의 일부다.null

역사

하트리(Hartley)라는 용어는 랄프 하틀리(Ralph Hartley)가 1928년에 그 표현에서 구별할 수 있는 상태의 수와 동일한 로그 기준을 사용하여 정보를 측정하도록 제안했는데, 이 수치는 소수 자릿수에 대한 기준 10이 될 것이다.[5][6]null

금지해독기는 1940년 독일 해군 에니그마 암호기의 매일 알려지지 않은 설정을 결정하기 위해 어빙"잭 굿" 굿과 함께 앨런 튜링에 의해 발명되었는데, Banburismus 절차를 이용하여 Bletchley Park의 암호 해독자들이 추론할 수 있는 정보의 양을 측정하기 위해서였다.이 이름은 약 30마일 떨어진 밴버리 마을에서 인쇄된 거대한 카드 시트에서 영감을 받아 만들어졌으며, 이 과정에서 사용되었다.[7]null

Good는 가설을 지지하는 증거의 가중치를 측정하기 위한 데시반의 순차적 합계가 본질적으로 베이시안 추론이라고 주장했다.[7]도널드 A. 그러나 길리스는 이 금지가 사실상 시험의 심각성에 대한 칼 포퍼의 측정과 같다고 주장했다.[8]null

오즈의 단위로 사용

데시반은 특히 베이지 인자, 오즈비(오즈비, 그래서 로그는 로그오드의 차이), 또는 증거의 가중치 등의 정보를 측정하는 데 유용한 단위다. 10 데시반은 10:1의 오즈, 20 데시반에서 100:1의 오즈 등에 해당한다.굿에 따르면, 1 데시밴의 증거 무게의 변화(즉, 예언에서 약 5:4)는 인간이 가설에 대한 믿음의 정도를 수치화할 것으로 합리적으로 예상할 수 있는 정도만큼 미세하다.[9]null

정수 데시밴에 해당하는 오즈는 종종 단순한 정수비로 잘 추정될 수 있다. 이러한 오즈는 아래에 정렬되어 있다.소수점 이하 두 자리, 단순 근사치(약 5% 이내), 단순 근사치가 부정확할 경우 더 정확한 근사치(약 1% 이내):

데시밴스 정확한
가치를 매기다
거의
가치를 매기다
거의
비율
정확한
비율
개연성
0 100/10 1 1:1 50%
1 101/10 1.26 5:4 56%
2 102/10 1.58 3:2 8:5 61%
3 103/10 2.00 2:1 67%
4 104/10 2.51 5:2 71.5%
5 105/10 3.16 3:1 19:6, 16:5 76%
6 106/10 3.98 4:1 80%
7 107/10 5.01 5:1 83%
8 108/10 6.31 6:1 19:3, 25:4 86%
9 109/10 7.94 8:1 89%
10 1010/10 10 10:1 91%

참고 항목

메모들

  1. ^ 이 값은 약 103이지만 약간 적은 값으로 단순히 3 =, 0001, 2 1, : 3 십진수는 10 이진수보다 정보가 약간 적기 때문에 1자리는 103 이진수보다 약간 적다.

참조

  1. ^ Klar, 라이너(1970-02-01)."1.8.1 Begriffe aus der Informationstheorie"[1.8.1 조건 정보 이론에 사용되].Digitale Rechenautomaten 아이네 클라이네 Einführung[디지털 컴퓨터 도입 –]–.Sammlung Göschen(독일어로).Vol1241/1241a(1판).베를린 독일:월터 드 Gruyter&./G.J. Göschen'sche Verlagsbuchhandlung[드].페이지의 주 35. 아이 에스비엔 3-11-083160-0.아이 에스비엔 978-3-11-083160-3.Archiv-Nr. 7990709.그 2020-04-18에 원래에서 Archived..(205페이지)(NB다. 초판의 2019년 재판 ISBN3-11002793-3, 978-3-11002793-8에서 이용할 수 있다 2020-04-13 Retrieved.재작업 및 확장된 제4판도 존재한다.)
  2. ^ Klar, 라이너[1988-10-01](1989년)."1.9.1 Begriffe aus der Informationstheorie"[1.9.1 조건 정보 이론에 사용되].Digitale Rechenautomaten 다이의 폰 Computerhardware[디지털 컴퓨터 컴퓨터 하드웨어의 구조에 대한 소개 –]에 아이네 클라이네 Einführung –.Sammlung Göschen(독일어로).Vol2050년(4일 교육 reworked.).베를린 독일:월터 드 Gruyter&제조 업체 57p..아이 에스비엔 3-11011700-2.아이 에스비엔 978-3-11011700-4.(320페이지)
  3. ^ Lukoff, Herman (1979). From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567.
  4. ^ "IEC 80000-13:2008". International Organization for Standardization (ISO). Retrieved 2013-07-21.
  5. ^ Hartley, Ralph Vinton Lyon (July 1928). "Transmission of Information" (PDF). Bell System Technical Journal. VII (3): 535–563. Retrieved 2008-03-27.
  6. ^ Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover Publications. ISBN 0-486-68210-2.
  7. ^ a b Good, Irving John (1979). "Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II". Biometrika. 66 (2): 393–396. doi:10.1093/biomet/66.2.393. MR 0548210.
  8. ^ Gillies, Donald A. (1990). "The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test". British Journal for the Philosophy of Science. 41 (1): 143–146. doi:10.1093/bjps/41.1.143. JSTOR 688010. MR 0055678.
  9. ^ Good, Irving John (1985). "Weight of Evidence: A Brief Survey" (PDF). Bayesian Statistics. 2: 253. Retrieved 2012-12-13.