뉴콤의 역설

Newcomb's paradox
예측
선택.
실제.
선택.
A + B
(B는 $0)
B
(B는 $1,000,000)
A + B $1,000 $1,001,000
B $0 $1,000,000

철학과 수학에서 뉴콤의 문제라고도 불리는 뉴콤의 역설은 두 사람 사이의 게임을 포함하는 사고 실험이며, 그 중 한 사람은 미래를 예측할 수 있습니다.

뉴콤의 역설은 캘리포니아 대학로렌스 리버모어 연구소윌리엄 뉴콤이 만들었습니다. 그러나 1969년[1] 로버트 노직(Robert Nozick)의 철학 논문에서 처음 분석되었으며 1973년 3월 사이언티픽 아메리칸(Scientific American)지 마틴 가드너(Martin Gardner)의 "수학 게임"에 등장했습니다.[2] 오늘날 그것은 결정론의 철학적 분야에서 많은 논쟁이 되고 있는 문제입니다.[3]

문제가.

신뢰할 수 있는 예측 변수와 다른 플레이어, A와 B로 지정된 두 개의 상자가 있습니다. 플레이어는 B 상자만 가져가거나 A 상자와 B 상자를 모두 가져가거나 둘 중 하나를 선택할 수 있습니다. 플레이어는 다음을 알고 있습니다.[4]

  • 상자 A는 투명하며 항상 보이는 $1,000을 포함합니다.
  • 박스 B는 불투명하며, 그 내용은 예측 변수에 의해 이미 설정되어 있습니다.
    • 예측 변수가 플레이어가 상자 A와 B를 모두 가져갈 것이라고 예측했다면 상자 B에는 아무것도 포함되지 않습니다.
    • 예측 변수가 플레이어가 상자 B만 가져갈 것이라고 예측한 경우 상자 B에는 $1,000,000이 포함됩니다.

플레이어는 선택을 하는 동안 예측 변수가 무엇을 예측했는지 또는 상자 B가 무엇을 포함하고 있는지 알지 못합니다.

게임이론 전략

1969년 그의 글에서 노직은 "거의 모든 사람들에게 무엇을 해야 하는지는 완벽하게 분명하고 명백합니다. 어려운 점은 이 사람들이 문제에 대해 거의 균등하게 의견을 나누는 것처럼 보이는데, 많은 사람들은 반대쪽이 그저 바보 같은 것이라고 생각합니다."[4] 그 문제는 오늘날 철학자들을 계속 분열시키고 있습니다.[5][6] 2020년 조사에서 소수의 전문 철학자들이 두 상자를 모두 가져가기로 선택했습니다(39.0% 대 31.2%).[7]

게임 이론은 서로 다른 원칙에 의존하는 두 가지 전략, 즉 기대 효용 원칙과 전략적 지배 원칙을 제공합니다. 문제는 직관적으로 논리적으로 들리는 두 분석이 어떤 선택이 선수의 연봉을 극대화하느냐는 질문에 상반된 답을 주기 때문에 패러독스라고 불립니다.

  • 예측 변수가 맞을 확률이 확실하거나 거의 확실할 때의 기대 효용을 고려하면 플레이어는 상자 B를 선택해야 합니다. 이 선택은 통계적으로 플레이어의 승리를 극대화하여 게임당 약 1,000,000달러로 설정합니다.
  • 지배 원리 하에서 플레이어는 항상 더 나은 전략을 선택해야 합니다. 상자 A와 B를 모두 선택하면 B만 선택하는 것보다 항상 1,000달러를 더 많이 얻을 수 있습니다. 그러나 "B보다 항상 1,000달러 더 많이"의 기대 효용은 게임의 통계적 지불액에 달려 있습니다. 예측자의 예측이 거의 확실하거나 확실할 때 A와 B 모두 게임당 약 1,000달러로 플레이어의 승리를 결정합니다.

David WolpertGregory Benford는 문제의 모든 관련 세부 사항이 지정되지 않을 때 역설이 발생하며, 그러한 누락된 세부 사항을 채울 수 있는 "직관적으로 명백한" 방법이 하나 이상 있다고 지적합니다. 그들은 뉴콤의 역설의 경우, 두 전략 중 어느 것이 "분명히 옳은지"에 대한 갈등은 뉴콤의 문제에서 세부 사항을 채우는 것이 두 개의 다른 비협조적인 게임을 초래할 수 있고, 각 전략은 한 게임에는 합리적이지만 다른 게임에는 합리적이지 않다는 사실을 반영한다고 제안합니다. 그런 다음 두 게임 모두에 대한 최적의 전략을 도출하며, 이 전략은 예측자의 무과실, 인과관계의 질문, 결정론 및 자유의지와 무관한 것으로 밝혀집니다.[4]

인과관계와 자유의지

예측
선택.
실제.
선택.
A + B B
A + B $1,000 무리다
B 무리다 $1,000,000

인과성 문제는 예측자가 오류가 없는 것으로 가정하고 오류가 없는 것으로 가정할 때 발생합니다. 노직은 예측자의 예측이 "거의 확실하게" 정확하다고 가정함으로써 오류와 인과성 문제를 배제함으로써 이 문제를 방지합니다. 노직은 또한 예측 변수가 플레이어가 임의로 선택할 것이라고 예측하면 상자 B에 아무것도 포함되지 않는다고 명시합니다. 이는 자유의지양자적 마인드 프로세스와 같이 선택을 하는 과정에서 본질적으로 무작위적이거나 예측할 수 없는 사건이 어쨌든 발생하지 않을 것이라고 가정합니다.[8] 그러나 이러한 문제는 실수가 없는 예측 변수의 경우에도 여전히 탐구될 수 있습니다. 이 상태라면 B만 복용하는 것이 올바른 선택인 것 같습니다. 이 분석은 0달러와 1,001,000달러를 반환할 수 있는 가능성을 무시할 수 있다고 주장합니다. 예측 변수가 잘못된 예측을 했다는 것을 요구하는 것이고, 문제는 예측 변수가 결코 틀린 것이 아니라는 것을 의미하기 때문입니다. 따라서 선택은 두 상자 모두 1,000달러를 가져갈 것인지 아니면 1,000,000달러를 가져갈 것인지에 대한 것입니다. 따라서 B 상자만 가져가는 것이 항상 더 좋습니다.

윌리엄 레인 크레이그(William Lane Craig)는 완벽한 예측기(또는 타임머신)가 있는 세계에서, 타임머신이 예측을 위한 메커니즘으로 사용될 수 있기 때문에, 소급 인과성이 발생할 수 있다고 제안했습니다.[9] 선택자의 선택이 예측자의 예측을 초래했다고 할 수 있습니다. 어떤 사람들은 시간 기계나 완벽한 예측기가 존재할 수 있다면, 자유의지는 있을 수 없고 선택자들은 그들이 운명적으로 하는 일은 무엇이든 할 것이라고 결론지었습니다. 종합해보면, 이 역설은 결정론이 완벽한 예측자의 존재를 가능하게 하기 때문에 자유의지와 결정론은 양립할 수 없다는 오래된 주장을 되풀이한 것입니다. 즉, 이 역설은 할아버지 역설과 동일할 수 있습니다. 역설은 완벽한 예측자를 전제로 하며, "선택자"는 자유롭게 선택할 수 없지만 동시에 선택을 논의하고 결정할 수 있다고 가정합니다. 이는 역설이 이러한 모순된 가정의 산물이라는 것을 일부 사람들에게 시사합니다.[10]

Gary Drescher는 그의 책 Good and Real에서 그가 주장하는 상황이 비슷하다고 호소함으로써 올바른 결정은 박스 B만 가지고 가는 것이라고 주장합니다. 이것은 결정론적 우주에서 잠재적으로 붐비는 거리를 건너야 할지 말아야 할지를 결정하는 합리적인 대리인입니다.[11]

Andrew Irvine은 이 문제가 다양한 종류의 물리적 시스템의 평형점에 관한 직관적이지 않지만 궁극적으로는 역설적이지 않은 결과인 Braess의 역설과 구조적으로 동형이라고 주장합니다.[12]

사이먼 버지스(Simon Burgess)는 예측 변수가 예측의 기초가 될 모든 정보를 얻기 전 단계와 그 후 단계의 두 단계로 나눌 수 있다고 주장했습니다. 플레이어는 아직 첫 번째 단계에 있지만, 예를 들어 한 상자만 가져가기로 약속함으로써 예측자의 예측에 영향을 미칠 수 있습니다. 따라서 아직 1단계에 있는 선수들은 단순히 원박스에 전념해야 합니다.

버지스는 두 번째 단계에 있는 사람들이 두 상자를 모두 가져가야 한다는 것을 쉽게 인정합니다. 그러나 그가 강조하는 것처럼, 핵심을 벗어난 모든 실용적인 목적을 위해, "제안된 돈의 방대한 양에 어떤 일이 일어나는지를 결정하는 결정은 모두 첫 번째 단계에서 이루어집니다."[13] 따라서 이미 원박스에 전념하지 않고 두 번째 단계에 있는 플레이어는 항상 부와 비난할 사람이 없습니다. 버지스의 말을 빌자면, "당신은 나쁜 보이 스카우트였다."; "부자들은 준비된 사람들을 위해 남겨둔다."[14]

Burgess는 특정 비평가(예: Peter Slezak)의 페이스를 조절하는 것은 선수들이 예측자를 속이는 것을 권장하지 않는다고 강조했습니다. 또한 그는 예측자가 두 번째 단계에서 플레이어의 사고 과정을 예측할 수 없다고 가정하지 않습니다.[15] 반대로, 버지스는 Newcomb의 역설을 일반적인 원인 문제로 분석하고 있으며, 그는 암묵적이든 명시적이든 항상 완전히 일치하는 무조건적인 확률 값을 채택하는 것의 중요성에 특히 주목하고 있습니다. 패러독스를 공통 원인 문제로 취급하는 것은 단순히 플레이어의 결정과 예측자의 예측에 공통 원인이 있다고 가정하는 것입니다. (이 공통적인 원인은 예를 들어, 두 번째 단계가 시작되기 전 특정 시간에 플레이어의 뇌 상태일 수 있습니다.)

또한 버지스가 뉴콤의 역설과 카브카의 독소 퍼즐의 유사성을 강조한 점도 눈에 띕니다. 두 가지 문제 모두에서 사람은 어떤 일을 실제로 할 이유 없이 어떤 일을 의도할 이유를 가질 수 있습니다. 그러나 그 유사성을 인정하는 것은 Burgess가 Andy Egan에게 실제로 공을 돌린 것입니다.[16]

의식과 시뮬레이션

뉴콤의 역설은 또한 기계 의식의 문제, 특히 사람의 뇌에 대한 완벽한 시뮬레이션이 그 사람의 의식을 생성할 것인지와 관련될 수 있습니다.[17] 어떤 상자를 선택할지에 대한 문제에 직면했을 때 선택자의 뇌를 시뮬레이션함으로써 예측에 도달하는 기계라고 가정합니다. 만약 그 시뮬레이션이 선택자의 의식을 생성한다면, 선택자는 그들이 실제 세계에서 박스 앞에 서 있는지, 아니면 과거에 시뮬레이션에 의해 생성된 가상 세계에서 서 있는지 구별할 수 없습니다. 따라서 "가상" 선택자는 예측자에게 "진짜" 선택자가 어떤 "진짜" 선택을 할 것인지를 알려줄 것이고, 자신이 진짜 선택자인지 시뮬레이션인지 알지 못하는 선택자는 두 번째 상자만 가져가야 합니다.

운명론

뉴컴의 역설은 둘 다 미래에 대한 절대적 확신을 가정한다는 점에서 논리적 운명론과 관련이 있습니다. 논리적 운명론에서 확실성에 대한 이 가정은 순환 추론("미래의 사건이 일어날 것이 확실하므로 일어날 것이 확실하다")을 만들어내는 반면, 뉴컴의 역설은 게임의 참가자들이 미리 정해진 결과에 영향을 줄 수 있는지를 고려합니다.[18]

뉴콤 문제의 확장

뉴컴의 문제와 유사하거나 이에 기초한 많은 사고 실험들이 문헌에서 논의되어 왔습니다.[1] 예를 들어, 상자 B가 상자 A와 얽히는 뉴컴 문제의 양자 이론적 버전이 제안되었습니다.[19]

메타-뉴컴 문제

또 다른 관련 문제는 메타-뉴콤 문제입니다.[20] 이 문제의 설정은 원래 Newcomb 문제와 유사합니다. 그러나 여기서 반전은 플레이어가 선택한 후에 예측자가 상자 B를 채울지 여부를 선택할 수 있고 플레이어는 상자 B가 이미 채워졌는지 여부를 알 수 없다는 것입니다. 과거에 플레이어와 예측자 모두를 신뢰성 있게 예측한 '메타 예측자'도 있는데, 누가 다음을 예측하는지를 예측합니다. "당신이 두 상자를 모두 선택할 것이고, 예측자가 당신을 따라 결정을 내릴 것이고, 아니면 당신이 상자 B만 선택할 것이고, 예측자는 이미 결정을 내릴 것입니다."

이러한 상황에서 두 상자를 모두 선택하는 제안자는 다음과 같은 딜레마에 직면하게 됩니다. 플레이어가 두 상자를 모두 선택하면 예측자가 아직 결정을 내리지 않았기 때문에 플레이어가 상자 B만 선택하는 것이 더 합리적인 선택이 될 것입니다. 그러나 플레이어가 그렇게 선택하면 예측자는 이미 결정을 내렸을 것이고, 따라서 플레이어의 결정이 예측자의 결정에 영향을 미칠 수 없습니다.

참고 항목

메모들

  1. ^ a b Robert Nozick (1969). "Newcomb's Problem and Two Principles of Choice" (PDF). In Rescher, Nicholas (ed.). Essays in Honor of Carl G. Hempel. Springer. Archived from the original (PDF) on 2019-03-31.
  2. ^ Gardner, Martin (March 1974). "Mathematical Games". Scientific American. 231 (3): 102. Bibcode:1974SciAm.231c.187G. doi:10.1038/scientificamerican0974-187. 그의 책 The Gosal Book of Mathematics(ISBN 0-393-02023-1)에 부록과 주석이 달린 참고 문헌으로 재인쇄.
  3. ^ "Causal Decision Theory". Stanford Encyclopedia of Philosophy. The Metaphysics Research Lab, Stanford University. Retrieved 3 February 2016.
  4. ^ a b c Wolpert, D. H.; Benford, G. (June 2013). "The lesson of Newcomb's paradox". Synthese. 190 (9): 1637–1646. doi:10.1007/s11229-011-9899-3. JSTOR 41931515. S2CID 113227.
  5. ^ Bellos, Alex (28 November 2016). "Newcomb's problem divides philosophers. Which side are you on?". The Guardian. Retrieved 13 April 2018.
  6. ^ Bourget, D., Chalmers, D. J. (2014). "철학자들은 무엇을 믿습니까?" 철학 연구, 170(3), 465–500.
  7. ^ "PhilPapers Survey 2020".
  8. ^ Christopher Langan. "The Resolution of Newcomb's Paradox". Noesis (44).
  9. ^ Craig (1987). "Divine Foreknowledge and Newcomb's Paradox". Philosophia. 17 (3): 331–350. doi:10.1007/BF02455055. S2CID 143485859.
  10. ^ Craig, William Lane (1988). "Tachyons, Time Travel, and Divine Omniscience". The Journal of Philosophy. 85 (3): 135–150. doi:10.2307/2027068. JSTOR 2027068.
  11. ^ Drescher, Gary (2006). Good and Real: Demystifying Paradoxes from Physics to Ethics. ISBN 978-0262042338.
  12. ^ Irvine, Andrew (1993). "How Braess' paradox solves Newcomb's problem". International Studies in the Philosophy of Science. 7 (2): 141–60. doi:10.1080/02698599308573460.
  13. ^ Burgess, Simon (February 2012). "Newcomb's problem and its conditional evidence: a common cause of confusion". Synthese. 184 (3): 336. doi:10.1007/s11229-010-9816-1. JSTOR 41411196. S2CID 28725419.
  14. ^ Burgess, Simon (January 2004). "Newcomb's problem: an unqualified resolution". Synthese. 138 (2): 282. doi:10.1023/b:synt.0000013243.57433.e7. JSTOR 20118389. S2CID 33405473.
  15. ^ Burgess, Simon (February 2012). "Newcomb's problem and its conditional evidence: a common cause of confusion". Synthese. 184 (3): 329–330. doi:10.1007/s11229-010-9816-1. JSTOR 41411196. S2CID 28725419.
  16. ^ Burgess, Simon (February 2012). "Newcomb's problem and its conditional evidence: a common cause of confusion". Synthese. 184 (3): 338. doi:10.1007/s11229-010-9816-1. JSTOR 41411196. S2CID 28725419.
  17. ^ Neal, R. M. (2006). "Puzzles of Anthropic Reasoning Resolved Using Full Non-indexical Conditioning". arXiv:math.ST/0608592.
  18. ^ Dummett, Michael (1996), The Seas of Language, Clarendon Press Oxford, pp. 352–358.
  19. ^ Piotrowski, Edward; Jan Sladowski (2003). "Quantum solution to the Newcomb's paradox". International Journal of Quantum Information. 1 (3): 395–402. arXiv:quant-ph/0202074. doi:10.1142/S0219749903000279. S2CID 20417502.
  20. ^ Bostrom, Nick (2001). "The Meta-Newcomb Problem". Analysis. 61 (4): 309–310. doi:10.1093/analys/61.4.309.

참고문헌

  • Bar-Hillel, Maya; Margalit, Avishai (1972). "Newcomb's paradox revisited". British Journal for the Philosophy of Science. 23 (4): 295–304. doi:10.1093/bjps/23.4.295. JSTOR 686730.
  • Campbell, Richmond and Sowden, Lanning, Ed. (1985), 합리성과 협력의 역설: 죄수의 딜레마와 뉴콤의 문제, 밴쿠버: 브리티시컬럼비아 대학교 출판부. (Newcomb's Problem에 대한 광범위한 참고 문헌을 포함한 문집).
  • 콜린스, 존 "Newcomb's Problem", 국제 사회 및 행동 과학 백과사전, Neil Smelser and Paul Baltes (eds.), Elsevier Science (2001).
  • Gardner, Martin (1986). Knotted Doughnuts and Other Mathematical Entertainments. W. H. Freeman and Company. pp. 155–175. ISBN 0-7167-1794-8.
  • Levi, Isaac (1982). "A Note on Newcombmania". Journal of Philosophy. 79 (6): 337–342. doi:10.2307/2026081. JSTOR 2026081. (뉴콤 문제의 인기를 논한 기사)