확인편향

Confirmation bias

확인편향은 자신의 이전 신념이나 가치관을 확인하거나 지지하는 방식으로 정보를 탐색, 해석, 선호, 회상하는 경향입니다.[1]사람들은 자신의 견해를 지지하는 정보를 선택할 때 상반된 정보를 무시하거나 모호한 증거를 자신의 기존 태도를 지지하는 것으로 해석할 때 이러한 편견을 보여줍니다.그 효과는 원하는 결과, 감정적으로 충전된 문제, 그리고 깊이 자리잡은 신념에 가장 강력합니다.확인 편향은 대부분의 사람들에게 극복할 수 없지만, 예를 들어 비판적 사고 기술에 대한 교육과 훈련을 통해 그것을 관리할 수 있습니다.

정보에 대한 편향된 검색, 이 정보에 대한 편향된 해석 및 편향된 메모리 리콜은 다음과 같은 네 가지 특정 효과를 설명하기 위해 실행되었습니다.

  1. 태도 양극화(서로 다른 당사자가 동일한 증거에 노출되었음에도 불구하고 의견 차이가 더 극단적으로 될 때)
  2. 신념 인내(신념에 대한 증거가 거짓으로 밝혀진 후에도 신념이 지속될 때)
  3. 비합리적인 1차 효과(시리즈 초기에 접했던 정보에 대한 의존도 증가)
  4. 환상의 상관관계(사람들이 두 사건이나 상황 사이의 연관성을 잘못 인식하는 경우).

1960년대 일련의 심리학 실험은 사람들이 자신의 기존 믿음을 확인하는 데 치우친다는 것을 시사했습니다.이후의 연구는 이러한 결과를 하나의 가능성에 초점을 맞추고 대안을 무시한 채 일방적인 방식으로 아이디어를 시험하는 경향으로 다시 해석했습니다.관찰된 편견들에 대한 설명은 희망적인 사고와 정보를 처리하는 인간의 능력의 제한을 포함합니다.또 다른 제안은 사람들이 중립적이고 과학적인 방법으로 조사하기 보다는 잘못된 것에 대한 비용을 실용적으로 평가하고 있기 때문에 확인 편향을 보인다는 것입니다.

확인 편향으로 인한 결함 있는 결정은 광범위한 정치적, 조직적, 재정적, 과학적 맥락에서 발견되었습니다.이러한 편견은 개인적인 믿음에 대한 과신의 원인이 되고, 상반된 증거에 직면하여 믿음을 유지하거나 강화시킬 수 있습니다.예를 들어, 확인 편향은 귀납적 추론에 기초한 과학 연구에서 체계적인 오류를 발생시킵니다(지지적 증거의 점진적인 축적).마찬가지로, 경찰 형사는 수사 초기에 용의자를 특정할 수 있지만, 그 후에 증거를 확인하기 보다는 확인만을 추구할 수 있습니다.의료인은 진단 세션 초기에 특정 질환에 너무 일찍 초점을 맞춘 후, 증거 확인만을 추구할 수 있습니다.소셜 미디어에서 확인 편향은 필터 버블, 즉 개인에게 자신이 동의할 가능성이 높은 정보만 표시하고 반대되는 견해는 배제하는 '알고리즘 편집'을 사용함으로써 증폭됩니다.

정의 및 문맥

영국의 심리학자 피터 워슨이 만든 말인 확증 편향은 사람들이 자신의 신념이나 가치를 확인하거나 강화하는 정보를 선호하는 경향이며, 일단 확증되면 이탈하기 어렵습니다.[2]확증 편향은 인지 편향의 한 예입니다.

확인 편향(또는 확인 편향)은 또한 의 편의(side bias)라고 불립니다.[a]"일치성 편향(congenity bias.[4]

확인 편향은 정보 처리의 효과입니다.그들은 한 사람의 기대가 그들 자신의 행동에 영향을 미쳐 기대된 결과를 가져오는, 흔히 자기 충족 예언이라고 알려진, 행동 확인 효과라고 불리는 것과는 다릅니다.[5]

일부 심리학자들은 확인 편향이라는 용어를 다른 결론을 지지하는 증거를 무시하거나 거부하면서 자신이 이미 믿고 있는 것을 지지하는 증거를 선별적으로 수집하는 것으로 제한합니다.다른 사람들은 증거를 찾고, 해석하고, 기억으로부터 그것을 회상할 때, 그 사람의 기존 믿음을 보존하려는 경향에 그 용어를 더 넓게 적용합니다.[6][b]

확인 편향은 의도적인 속임수가 아닌 자동적이고 의도하지 않은 전략의 결과입니다.[8][9]확인 편향은 피하거나 제거할 수 없고, 교육과 비판적 사고력을 향상시켜야만 관리할 수 있습니다.

확인 편향(confirmation bias)은 여러 가지 가능한 설명, 즉 변조에 의한 가설 검증(hypothesis-testing), 양성 테스트 전략에 의한 가설 검증(hypothesis testing) 및 정보 처리 설명(information processing desponsibility)을 포함하는 광범위한 구성입니다.

확인편향의 유형

정보에 대한 편향적 검색

A drawing of a man sitting on a stool at a writing desk
확인 편향은 찰스 디킨스의 캐릭터 우리아 히프와 같은 사람의 신념을 되받아치는 내적인 "예스 맨"으로 묘사되어 왔습니다.[10]

실험은 사람들이 현재의 가설과 일치하는 증거를 검색함으로써 일방적인 방식으로 가설을 검정하는 경향이 있음을 반복적으로 발견했습니다.[1]: 177–178 [11]그들은 관련된 모든 증거들을 뒤지기 보다는, 그들의 이론을 뒷받침하는 긍정적인 답변을 받기 위해 질문들을 표현합니다.[12]그들은 자신의 가설이 거짓일 경우에 어떤 결과가 발생할지 보다는 사실일 경우에 예상할 수 있는 결과를 찾습니다.[12]예를 들어, 3번이라고 의심되는 번호를 찾기 위해 예/아니오 질문을 사용하는 사람은 "홀수 번호입니까?"라고 물을 수 있습니다.사람들은 "짝수인가?"와 같은 음성 판정이 정확히 같은 정보를 산출할 때에도 "양성 판정"이라고 불리는 이런 유형의 질문을 선호합니다.[13]그러나 이것이 사람들이 긍정적인 답을 보장하는 시험을 찾는다는 것을 의미하는 것은 아닙니다.피험자들이 그러한 유사 검사나 진정한 진단 검사 중 하나를 선택할 수 있는 연구에서는 진정한 진단을 선호했습니다.[14][15]

양성 판정을 선호하는 것 자체가 편견은 아닙니다. 양성 판정은 매우 유익할 수 있기 때문입니다.[16]그러나 이 전략은 다른 효과와 결합하여 기존의 믿음이나 가정을 사실 여부와 관계없이 확인할 수 있습니다.[8]실제 상황에서 증거는 종종 복잡하고 혼합됩니다.예를 들어, 어떤 사람에 대한 다양한 상반된 생각들은 그 또는 그녀의 행동의 한 측면에 집중함으로써 각각 지지될 수 있습니다.[11]따라서 가설을 지지하는 증거를 찾는 모든 연구가 성공할 가능성이 높습니다.[8]이것을 보여주는 한 가지 예는 질문의 표현이 답을 크게 바꿀 수 있는 방법입니다.[11]예를 들어, "사회생활에 만족하십니까?"라는 질문을 받은 사람들은 "사회생활에 만족하십니까?"[17]라는 질문을 받은 사람들보다 더 큰 만족감을 보고합니다.

질문의 표현을 조금만 바꿔도 사람들이 이용 가능한 정보를 검색하는 방식에 영향을 미칠 수 있고, 따라서 그들이 도달하는 결론에 영향을 미칠 수 있습니다.이것은 가상의 아동 양육권 사건을 이용하여 보여졌습니다.[18]참가자들은 부모 A가 보호자가 되기에 다방면에서 적당하다고 읽었습니다.부모 B는 아이와 친밀한 관계이지만 오랜 시간 동안 아이들을 데리고 갈 수 있는 직업이라는 두드러진 긍정적인 특징과 부정적인 특징이 혼재되어 있었습니다."자녀의 양육권은 어느 부모가 가져야 하는가?"라는 질문에 대부분의 참여자들은 주로 긍정적인 속성을 찾으며 부모 B를 선택했습니다.다만 '자녀 양육을 거부해야 하는 부모는 누구인가'[18]라는 질문에는 부정적 속성을 찾았고, B양이 양육을 거부해야 한다는 답변이 다수를 차지해 A양이 양육권을 가져야 한다는 것.

유사한 연구는 사람들이 어떻게 편향된 정보 탐색에 참여하는지 보여주었지만, 이러한 현상은 진정한 진단 테스트에 대한 선호로 제한될 수도 있습니다.초기 실험에서 참가자들은 인터뷰를 바탕으로 내향-외향 성격 차원에서 다른 사람을 평가했습니다.그들은 주어진 목록에서 인터뷰 질문을 선택했습니다.인터뷰 대상자가 내성적인 사람으로 소개되자, 참가자들은 "시끄러운 파티에 대해 불쾌하게 생각하는 점은 무엇인가?"와 같은 내성적인 사람으로 추정되는 질문을 선택했습니다.인터뷰 대상자를 외향적인 사람으로 묘사했을 때, 거의 모든 질문이 "재미없는 파티를 활성화하려면 어떻게 할 것인가?"와 같은 외향적인 사람을 가정했습니다.이렇게 많은 질문들은 인터뷰 대상자들에게 그들에 대한 가설을 조작할 기회를 거의 주지 않았습니다.[19]이후 버전의 실험은 참가자들에게 "당신은 사회적 상호작용을 피합니까?"[20]와 같이 선택할 수 있는 추정 질문을 덜 주었습니다.참가자들은 이러한 진단적 질문을 더 많이 하는 것을 선호했고, 단지 양성 판정에 대한 약한 편견을 보여주었습니다.진단 검사에 대한 주된 선호도와 양성 검사에 대한 더 약한 선호도의 이러한 패턴은 다른 연구에서 복제되었습니다.[20]

성격 특성은 편향된 검색 과정에 영향을 미치고 상호 작용합니다.[21]개인은 선택적 노출과 관련하여 외부 공격으로부터 자신의 태도를 방어하는 능력이 다양합니다.선택적 노출은 개인이 자신의 개인적 신념과 일치하지 않는 정보를 검색할 때 발생합니다.[22]한 실험은 개인이 자신의 개인적 신념에 반하는 주장을 반박할 수 있는 정도를 조사했습니다.[21]자신감이 높은 사람들은 논쟁을 형성하기 위해 자신의 개인적 입장에 모순되는 정보를 더 쉽게 찾아냅니다.이것은 반대 뉴스 소비의 형태를 취할 수 있는데, 이는 개인들이 반론하기 위해 반대 당파 뉴스를 추구하는 것입니다.[23]자신감 수준이 낮은 사람들은 모순된 정보를 찾아내지 않고 자신의 입장을 뒷받침하는 정보를 선호합니다.사람들은 자신의 신념과 의견에 치우친 논쟁에서 증거를 생성하고 평가합니다.[24]신뢰 수준이 높아지면 개인의 신념을 뒷받침하는 정보에 대한 선호도가 낮아집니다.

또 다른 실험은 참가자들에게 컴퓨터에 의해 시뮬레이션된 객체를 움직이는 것과 관련된 복잡한 규칙 발견 작업을 제공했습니다.[25]컴퓨터 화면의 물체들은 참가자들이 알아내야 하는 특정한 법칙들을 따랐습니다.그래서 참가자들은 자신의 가설을 시험하기 위해 화면을 가로질러 물체를 "발사"할 수 있었습니다.10시간 동안 많은 시도를 했음에도 불구하고, 참가자들 중 아무도 그 시스템의 규칙을 알아내지 못했습니다.그들은 일반적으로 자신들의 가설을 위조하기 보다는 확인하려고 시도했고, 대안을 고려하는 것을 꺼렸습니다.작업 가설을 반박하는 객관적인 증거를 보고도 동일한 검사를 계속하는 경우가 많았습니다.참가자들 중 일부는 적절한 가설 검증을 받았지만 이 지침은 거의 효과가 없었습니다.[25]

정보의 편향적 해석

똑똑한 사람들은 현명하지 못한 이유로 도달한 믿음을 방어하는 데 능숙하기 때문에 이상한 것들을 믿습니다.

Michael Shermer[26]

확인 편향은 증거 수집에만 국한되지 않습니다.두 사람이 같은 정보를 가지고 있더라도 그 정보를 해석하는 방식이 편향될 수 있습니다.

스탠포드 대학의 한 연구팀은 사형제도에 대해 강하게 느끼는 참가자들을 대상으로 실험을 실시했는데, 찬성하는 사람과 반대하는 사람이 반반이었습니다.[27][28]각 참가자들은 두 가지 연구에 대한 설명을 읽었습니다: 사형제도가 존재하는 미국 주와 존재하지 않는 에 대한 비교, 사형제도가 도입되기 전과 도입된 후의 주에서의 살인율에 대한 비교.각 연구에 대한 간단한 설명을 읽은 후, 참가자들은 그들의 의견이 바뀌었는지 질문을 받았습니다.그런 다음, 그들은 각 연구의 절차에 대한 더 자세한 설명을 읽고 그 연구가 잘 수행되고 설득력이 있는지 평가해야 했습니다.[27]사실, 이 연구들은 허구였습니다.참가자의 절반은 한 종류의 연구는 억제 효과를 지지하고 다른 연구는 억제 효과를 약화시킨다는 말을 들었고, 다른 참가자들은 결론을 맞바꾸었습니다.[27][28]

지지자든 반대자든 참가자들은 그들이 처음 읽은 연구 방향으로 약간 태도를 바꿨다고 보고했습니다.일단 두 연구에 대한 더 상세한 설명을 읽고 나면, 그들은 그들의 관점을 뒷받침하는 세부사항을 지적하고 반대되는 것은 무시하면서, 제공된 증거와 상관없이 거의 모두 원래의 신념으로 돌아갔습니다.참가자들은 자신의 기존 견해를 뒷받침하는 연구들이 이를 반박하는 연구들보다 더 뛰어나다고 상세하고 구체적으로 설명했습니다.[27][29]사형제 지지자는 억제 효과를 저해하는 것으로 보이는 연구에 대해 쓴 글에서 "그 연구는 충분히 오랜 기간 동안 다루어지지 않았다"고 쓴 반면, 같은 연구에 대한 반대자의 논평은 "연구자들과 모순될 만한 강력한 증거가 제시되지 않았다"[27]고 말했습니다.결과는 사람들이 현재의 예상과 어긋나는 가설에 대해 더 높은 증거 기준을 설정한다는 것을 보여주었습니다."불확증 편향"으로 알려진 이 효과는 다른 실험들에 의해 지지되어 왔습니다.[30]

편향된 해석에 대한 또 다른 연구는 2004년 미국 대통령 선거 동안에 발생했고, 후보자들에 대해 강한 감정을 가지고 있다고 보고한 참가자들을 포함했습니다.공화당의 조지 W. 부시 후보, 민주당의 존 케리 후보, 또는 정치적으로 중립적인 공인으로부터 명백히 상반된 진술을 받았습니다.그들은 또한 명백한 모순을 합리적으로 보이게 하는 추가적인 진술을 받았습니다.이 세 가지 정보로부터 각 개인의 진술이 일치하지 않는지 판단해야 했습니다.[31]: 1948 이러한 평가에는 강한 차이가 있었는데, 참가자들은 자신들이 반대한 후보자의 진술이 모순된다고 해석할 가능성이 훨씬 더 높았습니다.[31]: 1951

A large round machine with a hole in the middle, with a platter for a person to lie on so that their head can fit into the hole
MRI 스캐너는 연구원들이 인간의 뇌가 어떻게 불협화음의 정보를 다루는지 조사할 수 있게 해주었습니다.

이 실험에서 참가자들은 뇌 활동을 관찰하는 자기공명영상(MRI) 스캐너 안에서 판단을 내렸습니다.참가자들이 선호하는 후보자의 상반된 진술을 평가하면서, 그들의 뇌의 감정 중심이 자극되었습니다.이것은 다른 수치들의 진술에서는 일어나지 않았습니다.실험자들은 진술에 대한 다른 반응이 수동적인 추론 오류 때문이 아니라고 추론했습니다.대신, 참가자들은 그들이 선호하는 후보자의 비이성적이거나 위선적인 행동에 대해 읽음으로써 유발되는 인지 부조화를 적극적으로 줄이고 있었습니다.[31]: 1956

신념 해석의 편견은 지능 수준에 관계없이 지속적입니다.실험 참가자들은 지능 수준을 평가하기 위해 SAT 시험(미국에서 사용되는 대학 입학 시험)을 치렀습니다.그 후 그들은 차량의 안전 문제에 대한 정보를 읽고, 실험자들은 그 차의 국가 기원을 조작했습니다.미국인 참가자들은 자동차가 6점 척도로 금지되어야 하는지에 대한 의견을 제시했는데, 한 명은 "분명히 그렇다"를, 여섯 명은 "분명히 아니다"를 표시했습니다.참가자들은 우선 미국 거리에 위험한 독일 차를, 독일 거리에 위험한 미국 차를 허용할 것인지 평가했습니다.참가자들은 미국 거리의 위험한 독일 차가 독일 거리의 위험한 미국 차보다 더 빨리 금지되어야 한다고 믿었습니다.참가자들이 차를 금지하는 비율은 지능 수준에 따라 차이가 없었습니다.[24]

편향된 해석은 감정적으로 중요한 주제에 국한되지 않습니다.또 다른 실험에서 참가자들은 절도에 대한 이야기를 들었습니다.그들은 특정 인물이 책임을 지는 것을 지지하거나 반대하는 진술의 명백한 중요성을 평가해야 했습니다.그들이 그 인물의 죄책감을 가정했을 때, 그들은 그 가설을 지지하는 진술이 상반되는 진술보다 더 중요하다고 평가했습니다.[32]

정보의 편향된 메모리 호출

사람들은 중립적으로 증거를 수집하고 해석하더라도 자신의 기대를 강화하기 위해 선택적으로 증거를 기억할 수 있습니다.이 효과를 "선택적 리콜", "확인 메모리" 또는 "액세스 편향 메모리"라고 합니다.[33]심리학적 이론들은 선택적 기억에 대한 예측이 다릅니다.스키마 이론은 일치하지 않는 정보보다 사전 예상과 일치하는 정보가 더 쉽게 저장되고 기억될 것이라고 예측합니다.[34]몇몇 대안적인 접근법들은 놀라운 정보가 눈에 띄므로 기억에 남는다고 말합니다.[34]이 두 이론의 예측은 서로 다른 실험 맥락에서 확인되었으며, 어떤 이론도 완전히 승리하지는 않았습니다.[35]

한 연구에서, 참가자들은 내성적인 행동과 외향적인 행동의 혼합을 묘사한 한 여성의 프로필을 읽었습니다.[36]그들은 나중에 그녀의 내향성과 외향성의 예들을 떠올려야 했습니다.한 그룹은 이것이 여성에게 사서로서의 직업을 평가하기 위한 것이라고 들었고, 두 번째 그룹은 부동산 판매의 직업을 위한 것이라고 들었습니다.이 두 그룹이 기억하는 것 사이에는 상당한 차이가 있었는데, "도서관" 그룹은 내성적인 예를 더 많이 기억하고 "판매" 그룹은 외향적인 행동을 더 많이 기억합니다.[36]성격 유형의 만족도를 조작하는 실험에서도 선택적 기억 효과가 나타났습니다.[34][37]이들 중 한 그룹의 참가자들은 외향적인 사람들이 내향적인 사람들보다 더 성공적이라는 증거를 보여주었습니다.다른 그룹은 반대의 말을 들었습니다.관련이 없는 것으로 보이는 후속 연구에서 참가자들은 그들의 삶에서 내향적이거나 외향적이었던 사건들을 떠올리도록 요청 받았습니다.각 그룹의 참가자들은 더 바람직한 성격 유형과 연결되는 더 많은 기억을 제공했고, 그 기억들을 더 빨리 떠올렸습니다.[38]

감정 상태의 변화는 기억 회상에도 영향을 미칠 수 있습니다.[39][40]참가자들은 O. J. 심슨이 살인 혐의로 무죄 판결을 받았다는 것을 처음 알았을 때의 기분을 평가했습니다.[39]그들은 재판 후 1주일, 2개월, 1년 후의 평결에 대한 자신들의 감정적 반응과 자신감을 설명했습니다.결과는 심슨의 죄책감에 대한 참가자들의 평가가 시간이 지남에 따라 변했다는 것을 보여줍니다.참가자들의 평결에 대한 의견이 바뀔수록, 참가자들의 초기 감정 반응에 대한 기억은 안정적이지 않았습니다.참가자들이 두 달 1년 후의 초기 감정 반응을 떠올렸을 때, 과거의 감정 평가는 현재의 감정 평가와 매우 유사했습니다.사람들은 논쟁적인 주제에 대해 자신의 의견을 말할 때 상당한 나의 편애를 보여줍니다.[24]기억 회상과 경험의 구성은 상응하는 감정 상태와 관련하여 수정을 거칩니다.

제 쪽 편견이 기억 기억의 정확성에 영향을 미치는 것으로 나타났습니다.[40]한 실험에서, 과부와 홀아비들은 그들이 경험한 슬픔의 강도를 배우자의 죽음으로부터 6개월과 5년 후로 평가했습니다.참가자들은 슬픔의 경험이 5년보다 6개월이 더 높다고 지적했습니다.그러나, 5년 후에 그 참가자들에게 그들의 중요한 다른 사람이 죽은 지 6개월 후에 어떻게 느꼈는지를 물었을 때, 참가자들이 회상하는 슬픔의 강도는 그들의 현재 슬픔의 정도와 매우 높은 상관관계가 있었습니다.사람들은 과거의 사건을 경험할 때 어떤 감정을 느꼈을지 분석하기 위해 현재의 감정 상태를 이용하는 것으로 보입니다.[39]현재의 감정 상태는 감정적 기억을 재구성합니다.

한 연구는 선택적 기억이 어떻게 추가적인 감각지각(ESP)에 대한 믿음을 유지할 수 있는지 보여주었습니다.[41]ESP 실험에 대한 설명은 신봉자와 불신자에게 각각 제시되었습니다.각 그룹의 절반은 실험 결과가 ESP의 존재를 지지한다고 들은 반면, 나머지 그룹은 그렇지 않다고 들었습니다.이후 진행된 테스트에서 참가자들은 지지가 되지 않는 증거를 읽은 신도들과 별개로 정확하게 자료를 회상했습니다.이 그룹은 상당히 적은 정보를 기억하고 있었고 그들 중 일부는 결과를 ESP를 지원하는 것으로 잘못 기억했습니다.[41]

개인차

저의 측면 편견은 한때 지능과 상관관계가 있다고 여겨졌지만, 연구 결과에 따르면 저의 측면 편견은 지능의 수준과는 달리 이성적으로 생각하는 능력에 더 많은 영향을 받을 수 있다고 합니다.[24]나의 편견은 논쟁의 반대 측면을 효과적이고 논리적으로 평가하지 못하게 할 수 있습니다.연구에 따르면 저의 측면 편견은 "적극적인 개방적 사고방식"의 부재이며, 이는 초기 아이디어가 왜 틀릴 수 있는지에 대한 적극적인 탐색을 의미합니다.[42]일반적으로, 나의 측면 편향은 경험적 연구에서 반대 측면에 비해 측면을 지지하는 데 사용되는 증거의 양으로 작동됩니다.[43]

한 연구에서 제 편력의 개인차가 발견되었습니다.본 연구는 문화적 맥락에서 학습을 통해 습득하고 변화 가능한 개인차를 탐색하는 것입니다.연구원은 논증에서 중요한 개인차를 발견했습니다.연구들은 연역적 추론능력, 신념편향을 극복하는 능력, 인식론적 이해, 사고성향 등 개인차가 추론과 반론·반박을 발생시키는 중요한 예측요인임을 제시했습니다.[44][45][46]

크리스토퍼 울프와 앤 브릿의 연구는 "무엇이 좋은 주장을 만드는가?"에 대한 참가자들의 견해가 어떻게 한 사람이 자신의 주장을 공식화하는 방식에 영향을 미치는 나의 편견의 원천이 될 수 있는지도 조사했습니다.[43]이 연구는 논증 스키마의 개인차를 조사하고 참가자들에게 에세이를 쓰도록 했습니다.참가자들은 무작위로 논쟁에서 그들이 선호하는 쪽을 지지하거나 반대하는 에세이를 쓰도록 배정받았으며, 균형잡힌 접근법이나 자유로운 접근법을 취하는 연구 지침을 받았습니다.균형잡힌 연구 지침은 참가자들에게 "균형잡힌" 논증, 즉 장단점을 모두 포함하도록 지시했습니다. 제한 없는 연구 지침은 논증을 생성하는 방법에 대해 아무것도 포함하지 않았습니다.[43]

전체적으로 균형-연구 지침이 논쟁에서 반대 정보의 발생을 유의하게 증가시키는 것으로 나타났습니다.이 데이터는 또한 개인적인 믿음이 제 편에 치우친 이 아니라는 것을 보여줍니다. 그러나 좋은 주장은 사실에 기초한 것이라고 믿는 참가자들은 다른 참가자들보다 제 편에 치우친 것을 더 잘 보여줍니다.이 증거는 바론의 글에서 제안된 주장과 일치합니다. 즉, 무엇이 좋은 생각을 하게 만드는지에 대한 사람들의 의견이 논쟁을 생성하는 방법에 영향을 미칠 수 있다는 것입니다.[43]

디스커버리

비공식 관측치

Engraved head-and-shoulders portrait of Francis Bacon wearing a hat and ruff.
프랜시스 베이컨

이러한 현상은 확인편향에 대한 심리학적 연구 이전부터 역사적으로 관찰되어 왔습니다.펠로폰네소스 전쟁에서 잘못된 이성에 대해 쓴 그리스 역사가 투키디데스(기원전 460년기원전 395년)c.로부터 시작됩니다. "... 인류는 자신이 갈망하는 것을 부주의한 희망에 맡기고, 주권적 이성을 이용하여 자신이 원하지 않는 것을 제쳐두는 것이 습관이기 때문입니다."[47]이탈리아 시인 Dante Alighieri (1265–1321)는 그것을 신성희극에서 주목했습니다. 토마스 아퀴나스는 단테가 파라다이스에서 만날 때 "의견은 성급하게, 종종 잘못된 쪽으로 기울 수 있고, 그 다음에는 자신의 의견에 대한 애정이 마음을 구속하고, 마음을 구속한다"[48]고 경고합니다.이븐 칼둔은 그의 무카디마에서도 같은 효과를 발견했습니다.[49]

거짓은 자연스럽게 역사적인 정보를 괴롭힙니다.이것을 피할 수 없게 만드는 여러 가지 이유가 있습니다.그 중 하나는 의견과 학파에 대한 당파성입니다 영혼이 특정 의견이나 종파에 대한 당파성에 감염되면 그에 맞는 정보를 망설임 없이 받아들입니다편견과 당파성은 비판적인 교수진을 모호하게 하고 비판적인 조사를 배제합니다.그 결과 거짓이 받아들여지고 전달되는 것입니다.

노붐 오가눔에서 영국의 철학자이자 과학자인 프랜시스 베이컨(1561–1626)[50]은 증거에 대한 편향된 평가가 "점성학, 꿈, 징조, 신성한 판단 등에서 모든 미신을 몰아갔다"고 언급했습니다.[51]그는 이렇게 썼습니다.[51]

의견을 채택한 적이 있는 인간의 이해는 다른 모든 것들을 지지하고 동의하게 만듭니다.그리고 다른 쪽에 더 많은 수의 사례와 비중을 발견할 수 있지만, 이것들은 무시하거나 경멸하거나, 아니면 어떤 구별에 의해 무시하거나 거부합니다[].

독일 철학자 아르투르 쇼펜하우어(Arthur Schopenhauer)는 그의 의지와 표현으로서의 세계(The World as Will and Representation, 1844) 2권에서 "채택된 가설은 그것을 확인하는 모든 것에 대해 우리에게 스라소니-눈을 주고 그것에 모순되는 모든 것에 대해 우리를 눈을 멀게 만듭니다"[52]라고 관찰했습니다.

러시아 소설가 Leo Tolstoy는 그의 에세이 (1897)에서 다음과 같이 썼습니다.[53]

나는 대부분의 사람들이, 영리하다고 여겨지는 사람들뿐만 아니라, 심지어 매우 영리하고 가장 어려운 과학적, 수학적, 철학적 문제들을 이해할 수 있는 사람들조차도, 그들이 형성한 결론들의 거짓을 인정하도록 의무화하는 것과 같은 경우라면, 가장 단순하고 가장 명백한 진실조차 거의 분별할 수 없다는 것을 알고 있습니다.그러한 어려움—그들이 자랑스러워하고, 다른 사람들에게 가르쳐왔고, 그들이 자신의 삶을 구축해온 concl적인 환상들

톨스토이는 그의 수필(1894)에서 다음과 같이 썼습니다.[54]

가장 어려운 주제는 가장 머리가 느린 사람에게 설명될 수 있지만, 가장 간단한 것은 가장 똑똑한 사람에게 설명될 수 없습니다. 만약 그가 자신의 앞에 놓인 것을 의심의 여지 없이 이미 알고 있다고 확고히 설득한다면 가장 똑똑한 사람에게 가장 간단한 것은 분명해질 수 없습니다.

가설검정(허위화) 설명(와손)

1960년에 발표된 Peter Wasson의 첫 번째 실험("확인 편향"이라는 용어는 언급하지 않음)에서 그는 반복적으로 참가자들에게 숫자의 3배에 적용되는 규칙을 밝히라고 도전했습니다.그들은 (2,4,6)이 규칙에 적합하다고 들었습니다.그들은 세 개의 세 개를 만들어 냈고, 실험자는 그들에게 각 세 개의 세 개가 규칙에 부합하는지 여부를 알려주었습니다.[1]: 179

실제 규칙은 단순히 "어떤 오름차순"이었지만, 참가자들은 그것을 찾는데 큰 어려움을 겪었고, 종종 "중간 숫자는 처음과 마지막의 평균입니다"와 같은 훨씬 더 구체적인 규칙을 발표했습니다.[55]참가자들은 가설 규칙을 따르는 세배인 긍정적인 예만 시험하는 것처럼 보였습니다.예를 들어, 규칙이 "각 숫자는 이전 숫자보다 2가 크다"고 생각하는 경우, 규칙을 위반(오인화)한 3배수가 아니라 (11,13,15)와 같이 이 규칙에 적합(확인)[56]한 3배수를 제공합니다.

와슨은 자신의 결과가 위조보다 확인을 선호하는 것으로 해석해 '확인 편향'이라는 용어를 만들었습니다.[c][58]Wasson은 또한 확인 편향을 사용하여 선택 과제 실험의 결과를 설명했습니다.[59]참가자들은 이 테스트의 다양한 형태에서 반복적으로 나쁜 결과를 나타냈고, 대부분의 경우 지정된 규칙을 반박할 수 있는 정보를 무시했습니다.[60][61]

가설검정(양성검정전략) 설명(클레이만, 하)

클레이먼과 하(Ha)의 1987년 논문은 워슨 실험이 실제로 확증에 대한 편향을 보여주는 것이 아니라 작업 가설과 일치하는 검정을 하는 경향을 보여준다고 주장합니다.[16][62]그들은 이것을 "양성 검사 전략"이라고 불렀습니다.[11]이 전략은 휴리스틱의 한 예입니다. 불완전하지만 계산하기 쉬운 추론 바로가기입니다.[63]클레이먼과 하(Ha)는 베이즈 확률론정보론을 가설-검정의 기준으로 삼았습니다.이러한 생각에 따르면, 질문에 대한 각각의 대답은 서로 다른 양의 정보를 산출하는데, 이것은 사람의 이전의 신념에 달려 있습니다.따라서 가설의 과학적 검정은 가장 많은 정보를 생성할 것으로 예상되는 검정입니다.정보 내용은 초기 확률에 따라 달라지므로 양성 검정은 매우 유익할 수도 있고 그렇지 않을 수도 있습니다.클레이먼과 하씨는 사람들이 현실적인 문제에 대해 생각할 때, 그들은 작은 초기 확률로 특정한 답을 찾고 있다고 주장했습니다.이 경우 보통 양성 판정이 음성 판정보다 더 유익합니다.[16]그러나 Wasson의 규칙 발견 과제에서 답은 오름차순으로 세 개의 숫자로 매우 광범위하기 때문에 양성 판정은 유용한 답을 얻을 수 없습니다.클레이먼과 하(Ha)는 "규칙에 적합"하고 "규칙에 적합하지 않음" 대신 "DAX"와 "MED"라는 레이블을 사용한 실험을 인용하여 분석을 뒷받침했습니다.이것은 낮은 확률의 규칙을 찾는 것이 목적이라는 것을 암시하지 않았습니다.참가자들은 이 버전의 실험으로 훨씬 더 많은 성공을 거두었습니다.[64][65]

Within the universe of all possible triples, those that fit the true rule are shown schematically as a circle. The hypothesized rule is a smaller circle enclosed within it.
참 규칙(T)이 현재의 가설(H)을 포함하는 경우, 양의 검정(H를 검사하여 T인지 여부를 확인)은 가설이 거짓임을 보여주지 않습니다.
Two overlapping circles represent the true rule and the hypothesized rule. Any observation falling in the non-overlapping parts of the circles shows that the two rules are not exactly the same. In other words, those observations falsify the hypothesis.
참 규칙(T)이 현재 가설(H)과 겹치면 음의 검정 또는 양의 검정 중 하나가 H를 위조할 수 있습니다.
The triples fitting the hypothesis are represented as a circle within the universe of all triples. The true rule is a smaller circle within this.
작업 가설(H)에 참 규칙(T)이 포함되어 있으면 양의 검정만이 H를 위변조할 수 있는 유일한 방법입니다.

이것과 다른 비판들에 비추어 볼 때, 연구의 초점은 가설의 확인과 위조에서 벗어나 사람들이 정보적인 방법으로 가설을 시험하는지, 아니면 정보적이지 않지만 긍정적인 방법으로 가설을 시험하는지를 조사하는 것으로 옮겨갔습니다."진정한" 확인 편향에 대한 탐색은 심리학자들로 하여금 사람들이 정보를 처리하는 방법에 있어서 더 넓은 범위의 효과를 보도록 하였습니다.[66]

정보처리설명

현재 확인 편향에 대한 정보 처리 설명은 크게 세 가지이며, 최근에 추가된 내용도 있습니다.

인지적 대 동기적

행복한 일들은 더 기억될 가능성이 높습니다.

Robert MacCoun에 따르면, 대부분의 편향된 증거 처리는 "cold"(인지적) 메커니즘과 "hot"(동기 유발) 메커니즘의 조합을 통해 이루어집니다.[67]

확인 편향에 대한 인지적 설명은 사람들이 복잡한 일을 처리하는 능력의 한계와 그들이 사용하는 발견주의라고 불리는 바로가기에 근거합니다.[68]예를 들어, 사람들은 가용성 휴리스틱(availability heristic), 즉 특정 아이디어가 얼마나 쉽게 떠오를 수 있는지를 사용하여 증거의 신뢰성을 판단할 수 있습니다.[69]사람들이 한 번에 한 가지 생각에만 집중할 수 있기 때문에 대안 가설을 병렬적으로 검정하는 것이 어렵다는 것도 가능합니다.[1]: 198–199 또 다른 발견법은 클레이만과 하에 의해 확인된 긍정적인 검정 전략으로, 사람들은 어떤 특성이나 사건이 일어날 것으로 예상되는 경우를 조사하여 가설을 검정합니다.이 휴리스틱은 각각의 가능한 질문이 얼마나 진단적인지 알아내는 것이 어렵거나 불가능한 작업을 방지합니다.그러나, 그것은 보편적으로 신뢰할 수 없기 때문에, 사람들은 그들의 기존 믿음에 대한 도전을 간과할 수 있습니다.[16][1]: 200

동기적 설명은 신념대한 욕망의 영향을 포함합니다.[1]: 197 [70]사람들은 부정적인 생각보다 긍정적인 생각을 여러 가지 방법으로 선호하는 것으로 알려져 있습니다: 이것은 "폴리애나 원칙"이라고 불립니다.[71]주장이나 증거의 출처에 적용하면 원하는 결론이 더 진실로 믿어지는 이유를 설명할 수 있습니다.결론의 만족도를 조작하는 실험에 따르면, 사람들은 입맛에 맞지 않는 아이디어에 대해서는 높은 증거 기준을 요구하고 선호하는 아이디어에 대해서는 낮은 기준을 요구합니다.즉, 어떤 제안에 대해서는 "내가 이것을 믿어도 되는가?"라고 묻고, 다른 제안에 대해서는 "내가 이것을 믿어야 하는가?"라고 묻습니다.[72][73]일관성은 태도의 바람직한 특징이지만, 일관성에 대한 지나친 의욕은 사람들이 새롭고 놀라운 정보를 중립적으로 평가하는 것을 방해할 수 있기 때문에 또 다른 잠재적인 편견의 원인이 됩니다.사회심리학자 지바 쿤다는 인지이론과 동기이론을 결합해 동기가 편견을 만들어내지만 인지적 요인이 효과의 크기를 결정한다고 주장합니다.[1]: 198

비용편익

비용-편익 분석 측면의 설명은 사람들이 단순히 무관심한 방법으로 가설을 검증하는 것이 아니라 다양한 오류의 비용을 평가한다고 가정합니다.[74]진화 심리학의 아이디어를 사용하여, 제임스 프리드리히는 사람들이 가설을 시험할 때 주로 진리를 목표로 하지 않고, 가장 비용이 많이 드는 오류를 피하려고 노력한다고 제안합니다.예를 들어, 고용주들이 면접에서 일방적인 질문을 할 수도 있는데, 그 이유는 그들이 적합하지 않은 지원자들을 걸러내는 데 초점을 맞추고 있기 때문입니다.[75]Yaacov Trope와 Akiva Liberman의 이 이론의 정교화는 사람들이 잘못된 가설을 받아들이거나 진실한 가설을 거부하는 두 종류의 오류를 비교한다고 가정합니다.예를 들어, 친구의 정직성을 과소평가하는 사람은 그 또는 그녀를 의심스럽게 대할 수 있고 그래서 우정을 해칠 수 있습니다.친구의 정직성을 과대평가하는 것도 비용이 많이 들 수 있지만, 그렇지는 않습니다.이 경우에는 그들의 정직성에 대한 증거를 편향된 방식으로 찾고 평가하거나 기억하는 것이 합리적일 것입니다.[76]어떤 사람이 내향적이거나 외향적이라는 초기 인상을 줄 때, 그 인상과 일치하는 질문들은 더 감정이입적으로 다가옵니다.[77]이는 내성적인 사람으로 보이는 사람과 대화할 때 "시끄러운 파티를 좋아합니까?"라고 묻는 것보다 "사회적 상황에서 어색함을 느끼십니까?"라고 묻는 것이 더 나은 사회성의 신호임을 시사합니다.확인편향과 사회성과의 관계는 대학생들이 타인을 어떻게 알아가는지에 대한 연구를 통해 확인되었습니다.자기 환경과 사회적 규범에 더 민감한 자기 감시성이 높은 학생들은 높은 지위에 있는 직원을 인터뷰할 때 동료 학생들을 알게 될 때보다 더 많은 일치 질문을 했습니다.[77]

탐색 대 확인

심리학자 Jennifer Lerner와 Philip Tetlock은 두 가지 다른 종류의 사고 과정을 구분합니다.탐색적 사고는 여러 관점을 중립적으로 고려하고 특정한 위치에 대한 모든 가능한 반대를 예상하려고 노력하는 반면 확인적 사고는 특정한 관점을 정당화하려고 합니다.러너와 테틀록은 사람들이 자신이 이미 알고 있는 견해를 가진 다른 사람들에게 자신의 입장을 정당화하기를 기대할 때, 그들은 그 사람들과 비슷한 입장을 취하고 나서 자신의 신뢰성을 높이기 위해 확인적인 생각을 사용하는 경향이 있다고 말합니다.그러나 외부 당사자들이 지나치게 공격적이거나 비판적이면 국민들은 생각에서 완전히 벗어나 정당성 없이 자신의 개인적인 의견을 주장할 것입니다.러너와 테틀록은 사람들이 정보가 풍부하고 진실에 진심으로 관심이 있으며 자신이 아직 모르는 견해를 가진 다른 사람들에게 자신을 설명할 필요가 있다는 것을 미리 알고 있을 때에만 비판적이고 논리적으로 생각하도록 자신을 밀어붙인다고 말합니다.그런 조건은 거의 존재하지 않기 때문에 대부분의 사람들은 확인적인 생각을 사용한다고 그들은 주장합니다.[78][79][80]

메이크 빌리브

발달 심리학자 이브 휘트모어(Eve Whitmore)는 확인 편향과 관련된 신념과 편견은 "성년이 되어서야 더욱 복잡한 형태의 자기 기만과 환상의 기초"가 되는 메이크 빌리브(make-believe)를 통한 어린 시절 대처에 뿌리를 두고 있다고 주장했습니다.비판적 사고를 발달시키는 청소년 시절의 질문으로 인한 마찰은 잘못된 믿음의 합리화로 이어질 수 있고, 그러한 합리화의 습관은 세월이 흐르면서 무의식화될 수 있습니다.[81]

실세계효과

소셜 미디어

소셜 미디어에서 확인 편향은 필터 버블, 즉 반대되는 견해는 배제한 채 자신이 동의할 가능성이 높은 정보만 개인에게 보여주는 '알고리즘 편집'을 통해 증폭됩니다.[82]일부 사람들은 확인 편향이 사회가 필터 거품으로부터 결코 벗어날 수 없는 이유라고 주장했습니다. 개인들은 심리적으로 그들의 기존 가치와 신념에 동의하는 정보를 찾기 위해 연결되어 있기 때문입니다.[83]또 다른 사람들은 이 "알고리즘 편집"이 다양한 관점과 정보를 제거한다고 주장하면서, 두 가지의 혼합이 민주주의를 약화시키고 있으며, 필터 버블 알고리즘이 제거되지 않으면 유권자들은 완전히 정보에 입각한 정치적 결정을 내릴 수 없을 것이라고 주장하고 있습니다.[84][82]

소셜 미디어의 부상은 믿을만한 출처의 믿을만한 뉴스로 제시되는 가짜 뉴스, 즉 거짓되고 오해를 불러일으키는 정보의 급속한 확산에 큰 기여를 했습니다.확인 편향(자신의 신념을 뒷받침할 증거를 선택하거나 재해석하는 것)은 이러한 상황에서 비판적 사고가 왜 잘못되는지에 대해 언급되는 세 가지 주요 장애물 중 하나입니다.다른 두 가지는 바로 발견주의(압도적이거나 시간이 부족할 때 사람들은 그룹 합의나 전문가 또는 역할 모델의 신뢰와 같은 간단한 규칙에 의존합니다)와 사회적 목표(사회적 동기나 동료의 압력이 당면한 사실의 객관적 분석을 방해할 수 있음)입니다.[85]

가짜 뉴스의 확산을 막기 위해, 소셜 미디어 사이트들은 "디지털 나체"로 전환하는 것을 고려했습니다.[86]이 작업은 현재 두 가지 다른 방식으로 수행할 수 있습니다.여기에는 정보의 이동과 프레젠테이션의 이동이 포함됩니다.정보의 누딩은 소셜 미디어 사이트가 사용자에게 출처의 유효성에 대해 질문하거나 경고하는 면책 사항 또는 라벨을 제공하는 것을 수반하며, 프레젠테이션의 누딩은 사용자가 찾지 못했을 수도 있지만 사용자에게 자신의 확인 편향과 싸울 수 있는 관점을 소개할 수 있는 새로운 정보를 노출하는 것을 포함합니다.[87]

과학 및 과학 연구

과학적 사고의 구별되는 특징은 증거를 확인하거나 뒷받침하는 것(유도적 추론)과 증거를 위조하는 것입니다)입니다.특히 귀납적 연구는 확증 편향에 심각한 문제가 있을 수 있습니다.[88][89]

과학의 역사에서 과학자들은 불리한 자료를 선택적으로 해석하거나 무시함으로써 새로운 발견에 저항해왔습니다.[1]: 192–194 몇몇 연구들은 과학자들이 이전의 믿음과 일치하는 발견을 보고하는 연구들보다 이전의 믿음과 일치하는 발견을 보고하는 연구들을 더 좋게 평가한다는 것을 보여주었습니다.[9][90][91]

그러나 연구문제가 적절하고 실험설계가 적절하며 데이터가 명확하고 포괄적으로 기술되어 있다고 가정할 때, 얻은 경험적 데이터는 과학계에 중요해야 하며, 현재의 이론적 예측에 부합하는지 여부와 관계없이 편견적으로 보여서는 안 됩니다.[91]실제로, 연구자들은 그들의 선입견과 모순되는 모든 연구를 오해하거나, 잘못 해석하거나, 전혀 읽지 않거나, 또는 그들의 주장을 실제로 지지하는 것처럼 잘못 인용할 수 있습니다.[92]

또한, 확증 편향은 불충분하거나 심지어 모순된 증거에 직면하여 과학적 이론이나 연구 프로그램을 유지할 수 있습니다.[60][93]유사 심리학의 학문은 원생 과학인지 의사 과학인지의 맥락에서 종종 예로 인용됩니다.[94]

실험자의 확인 편의는 보고되는 데이터에 영향을 미칠 수 있습니다.실험자의 기대와 상충되는 데이터는 신뢰할 수 없는 것으로 폐기되어 소위 파일 드로어 효과가 발생할 수 있습니다.이러한 경향에 맞서기 위해 과학 훈련은 편견을 예방하는 방법을 가르칩니다.[95]예를 들어, 무작위 대조군 시행실험 설계(체계적 검토와 결합)는 편향의 원인을 최소화하는 것을 목표로 합니다.[95][96]

동료 심사의 사회적 과정은 과학자 개인의 편견의 영향을 완화하는 것을 목적으로 하고,동료 검토 과정 그 자체가 그러한 편향에[97][98][91][99][100] 영향을 받을 수 있음에도 불구하고, 확인 편향은 반대 증거를 원칙적으로 약하다고 생각하고 그들의 믿음을 수정하는 데 거의 진지한 생각을 주지 않을 수 있기 때문에 부적합한 결과에 대한 객관적인 평가에 특히 해로울 수 있습니다.[90]과학 혁신가들은 종종 과학계의 저항에 부딪히고, 논란의 여지가 있는 결과를 제시하는 연구는 종종 가혹한 동료 평가를 받습니다.[101]

자금

확인 편향은 투자자들이 자신들의 전략이 손해를 볼 것이라는 증거를 무시한 채 과신하게 만들 수 있습니다.[10][102]정치 주식 시장에 대한 연구에서 투자자들은 편견에 저항했을 때 더 많은 이익을 얻었습니다.예를 들어, 후보자의 토론 수행을 당파적인 방법보다는 중립적인 방법으로 해석한 참가자들은 이익을 얻을 가능성이 더 높았습니다.[103]확인 편향의 효과를 방지하기 위해 투자자들은 "논쟁을 위해" 반대되는 관점을 채택하려고 노력할 수 있습니다.[104]한 가지 기술로, 그들은 자신들의 투자가 무너졌다고 생각하고 왜 이런 일이 일어날 수 있는지 자문합니다.[10]

약과 건강

인지 편향은 의학 일반의(GP)와 의학 전문의의 임상 의사 결정에 중요한 변수입니다.두 가지 중요한 것은 확인 편향과 중복 가용성 편향입니다.GP는 검사 중 초기에 진단을 내리고, 증거를 위조하는 것이 아니라 증거를 확인하는 것을 추구할 수 있습니다.이 인지적 오류는 부분적으로 진단되는 추정되는 장애에 대한 증거의 가용성에 의해 발생합니다.예를 들어, 고객이 그 장애에 대해 언급했을 수도 있고, GP가 그 장애에 대해 최근에 많이 논의된 논문을 읽었을 수도 있습니다.이러한 인지적 단축 또는 휴리스틱(앵커링)의 기본은 의사가 증거에 근거하여 여러 가지 가능성을 고려하지 않고 하나의 원인에 대해 너무 일찍 고정(또는 앵커링)한다는 것입니다.[105]응급의학에서는 시간적 압박 때문에 의사결정의 밀도가 높고 단축키가 자주 적용됩니다.이러한 인지 결정의 잠재적 실패율은 적절한 디바이어징 전략을 수립하기 위해 발생할 수 있는 30개 이상의 인지 편향에 대한 교육에 의해 관리될 필요가 있습니다.[106]확진 편향은 의사가 완강한 환자의 압력으로 인해 불필요한 의료 시술을 할 수도 있습니다.[107]

심리학자인 레이먼드 니커슨은 과학의학이 도래하기 전 수세기 동안 사용되어 온 비효율적인 의료 절차의 원인을 확증 편향 탓으로 돌립니다.[1]: 192 환자가 회복되면 의료당국은 질병이 자연스럽게 진행됐다는 식의 대체 설명을 찾기보다는 치료가 성공한 것으로 집계했습니다.편향된 동화는 지지자들이 긍정적인 일화적 증거에 휘둘리지만 과학적 증거를 초비판적으로 다루는 대체 의학의 현대적 매력의 한 요소입니다.[108][109][110]

인지 요법Aaron T에 의해 개발되었습니다. 1960년대 에 벡은 인기있는 접근법이 되었습니다.[111]벡에 따르면 편향된 정보처리는 우울증의 한 요인이라고 합니다.[112]그의 접근법은 사람들에게 부정적인 전망을 선택적으로 강화하기 보다는 증거를 공평하게 다루라고 가르칩니다.[50]공포증저혼돈증은 또한 위협적인 정보에 대한 확인 편향을 수반하는 것으로 나타났습니다.[113]

정치, 법률, 치안

A woman and a man reading a document in a courtroom
모의실험을 통해 연구자들은 현실적인 환경에서 확인 편향을 조사할 수 있습니다.

니커슨은 사법적, 정치적 맥락에서의 추론은 때때로 잠재적으로 편향되어 있으며, 판사, 배심원, 정부가 이미 약속한 결론을 선호한다고 주장합니다.[1]: 191–193 배심재판의 증거가 복잡할 수 있고 배심원들이 일찍 평결에 대한 결정을 내리는 경우가 많기 때문에 태도 양극화 효과를 기대하는 것이 타당합니다.배심원들이 증거를 더 많이 볼수록 견해가 극단적이 될 것이라는 예측이 모의재판 실험에서 나왔습니다.[114][115]확인편향은 수사관제도적대적 형사사법제도 모두에 영향을 미칩니다.[116]

확증 편향은 감정적으로 격앙된 논쟁에서 전쟁에 이르기까지 갈등을 일으키거나 확대시키는 요인이 될 수 있습니다: 증거를 자신에게 유리하게 해석함으로써 각 반대파는 자신이 더 강한 입장에 있다고 과신하게 될 수 있습니다.[117]반면, 확인 편향은 사람들이 임박하거나 초기의 갈등의 징후를 무시하거나 잘못 해석하는 결과를 초래할 수 있습니다.예를 들어, 심리학자 Stuart Sutherland와 Thomas Kida는 각각 미국 해군 제독 Husband E. Kimmel이 일본진주만 공격의 첫 징후를 축소할 때 확인 편향을 보였다고 주장했습니다.[60][118]

필립 E가 정치 전문가들을 대상으로 한 20년 간의 연구. 테틀록은 전반적으로 그들의 예측이 우연보다 별로 좋지 않다는 것을 발견했습니다.테틀록은 전문가들을 여러 가설을 유지하는 "여우"와 더 독단적인 "헤지호그"로 나누었습니다.일반적으로, 고슴도치들은 훨씬 덜 정확했습니다.테틀록은 그들의 실패를 확인 편향, 특히 기존 이론과 모순되는 새로운 정보를 사용하지 못한 탓으로 돌렸습니다.[119]

경찰 조사에서 형사는 수사 초기에 용의자를 특정할 수도 있지만, 때로는 증거를 뒷받침하거나 확인하는 것을 크게 추구하고, 위조 증거를 무시하거나 경시하기도 합니다.[120]

사회심리학

사회심리학자들은 사람들이 자신에 대한 정보를 찾거나 해석하는 방식에서 두 가지 경향을 발견했습니다.자기 검증은 기존의 자기 이미지를 강화하는 추진력이며 자기 향상은 긍정적인 피드백을 추구하는 추진력입니다.두 가지 모두 확인 편향에 의해 제공됩니다.[121]자기 이미지와 충돌하는 피드백을 받는 실험에서는 자기 확인 피드백을 받았을 때보다 그것에 주의를 기울이거나 기억할 가능성이 적습니다.[122][123][124]신뢰할 수 없는 정보로 해석하여 그러한 정보의 영향을 줄입니다.[122][125][126]유사한 실험들은 부정적인 피드백보다 긍정적인 피드백과 그것을 주는 사람들에 대한 선호를 발견했습니다.[121]

대량 망상

확증 편향은 대량 망상의 전파에 핵심적인 역할을 할 수 있습니다.마녀재판은 자주 한 예로 꼽힙니다.[127][128]

또 다른 예로, 시애틀의 앞유리구르기 유행병에서는 원인을 알 수 없는 원인으로 인해 앞유리가 손상되는 '구르기 유행병'이 발생하는 것처럼 보였습니다.명백한 피해 소식이 전해지면서 앞유리를 점검하고 앞유리도 손상된 것을 발견하는 사람들이 늘고 있어 전염병으로 추정된다는 믿음이 확인됐습니다.사실, 앞 유리는 이전에 손상을 입었지만, 망상이 퍼지면서 사람들이 앞 유리를 확인할 때까지 그 손상은 눈에 띄지 않았습니다.[129]

초자연적인 믿음

심령술 판독에 대한 호소력의 한 가지 요인은 청취자들이 심령술사의 진술에 맞는 확인 편향을 자신의 삶에 적용한다는 것입니다.[130]심령술사는 각 좌석에서 많은 수의 모호한 진술을 함으로써 고객에게 일치하는 상대를 찾을 수 있는 더 많은 기회를 제공합니다.이것은 콜드 리딩의 기술 중 하나로, 심령술사가 고객에 대한 어떠한 사전 정보 없이 주관적으로 인상적인 리딩을 전달할 수 있습니다.[130]수사관 제임스 랜디는 독후감이 한 말에 대한 의뢰인의 보고서와 판독 결과를 비교한 결과, 의뢰인이 "히트"에 대해 강력하게 선택적으로 기억하는 모습을 보였다는 것을 발견했습니다.[131]

현실 세계에서의 확증 편향의 두드러진 예로서, Nickerson은 이집트 피라미드의 비율에서 의미를 찾는 관행인 수적 피라미드학을 언급합니다.[1]: 190 예를 들어 기자의 피라미드와 그것들을 결합하거나 조작하는 많은 방법들로 이루어질 수 있는 많은 다양한 길이 측정들이 있습니다.따라서 이러한 숫자를 선택적으로 보는 사람들은 예를 들어 지구의 치수와 같이 표면적으로 인상적인 일치를 발견하는 것이 거의 불가피합니다.[1]: 190

모집 및 선발

채용에서 무의식적인 인지 편향(확인 편향 포함)은 채용 결정에 영향을 미치며 다양하고 포괄적인 직장을 잠재적으로 금지할 수 있습니다.채용 결정에 영향을 미치는 다양한 무의식적 편견들이 존재하지만, 특히 면접 단계에서 확인적 편견이 주요한 것 중 하나입니다.[132]면접관은 종종 다른 후보자들이 동등하거나 더 나은 자격을 갖추고 있음에도 불구하고 자신의 신념을 확인하는 후보자를 선택할 것입니다.

관련 효과 및 결과

의견의 양극화

반대되는 견해를 가진 사람들이 새로운 정보를 편향된 방식으로 해석할 때, 그들의 견해는 더 멀리 갈 수 있습니다.이것은 "태도 양극화"라고 불립니다.[133]그 효과는 숨겨진 두 개의 "빙고 바구니" 중 하나에서 일련의 빨간색과 검은색 공을 뽑는 실험으로 입증되었습니다.참가자들은 한 바구니에 60퍼센트의 검은색과 40퍼센트의 빨간색 공이 들어있다는 것을 알고 있었고, 다른 바구니에는 40퍼센트의 검은색과 60퍼센트의 빨간색 공이 들어있었습니다.실험자들은 어떤 바구니에도 유리하지 않은 순서대로 번갈아 가며 색깔을 바꾸는 공들을 그릴 때 무슨 일이 일어나는지 보았습니다.각 공이 뽑힌 후, 한 그룹의 참가자들은 공이 한 바구니나 다른 바구니에서 뽑힐 확률에 대한 그들의 판단을 크게 진술하도록 요청 받았습니다.이 참가자들은 처음에 60퍼센트의 검은 공이 든 바구니나 60퍼센트의 빨간 공이 든 바구니가 더 가능성이 높다고 생각했든 간에 연속적으로 추첨을 할 때마다 더 자신감을 갖는 경향이 있었습니다.또 다른 참가자 그룹은 각 공 이후가 아니라 일련의 추첨된 공이 끝날 때만 확률 추정치를 진술하도록 요청 받았습니다.그들은 양극화 효과를 보여주지 않았는데, 그것은 사람들이 단순히 반대 입장을 가질 때 발생하는 것이 아니라, 그들이 그것을 공개적으로 약속할 때 발생한다는 것을 암시했습니다.[134]

덜 추상적인 연구는 사형제도에 대해 강한 의견을 가진 참가자들이 혼합된 실험 증거에 대해 읽는 스탠포드 편향 해석 실험이었습니다.참가자의 23%는 자신의 견해가 더 극단적이 되었다고 보고했고, 이 자기 보고된 변화는 그들의 초기 태도와 강한 상관관계가 있었습니다.[27]이후의 실험에서 참가자들은 모호한 정보에 대한 반응으로 자신들의 의견이 더 극단적이 되었다고 보고하기도 했습니다.그러나 새로운 증거 이전과 이후의 그들의 태도를 비교한 결과 큰 변화가 없었으며, 이는 자가 보고된 변화가 실제적이지 않을 수 있음을 시사합니다.[30][133][135]이러한 실험을 바탕으로 디애나 쿤과 조셉 라오는 양극화가 현실적인 현상이지만 필연적인 것과는 거리가 멀며, 단지 소수의 경우에만 일어나고, 혼합된 증거를 고려하는 것뿐만 아니라 주제에 대해 생각하는 것으로 촉발되었다고 결론 내렸습니다.[133]

찰스 테이버와 밀턴 로지는 스탠포드 팀의 결과가 감정적인 반응을 불러일으키기에는 너무 추상적이거나 혼란스러웠기 때문에 복제하기 어려웠다고 주장했습니다.Taber and Lodge 연구는 감정적으로 충전된 주제인 총기 규제긍정적 행동을 사용했습니다.[30]그들은 토론의 각 면에서 논쟁을 읽기 전과 후에 이러한 문제에 대한 참가자들의 태도를 측정했습니다.두 그룹의 참가자들은 강한 사전 의견을 가진 사람들과 정치적으로 아는 것이 있는 사람들의 태도 양극화를 보였습니다.이 연구의 일부에서 참가자들은 실험자들이 준비한 목록에서 어떤 정보원을 읽을 것인지 선택했습니다.예를 들어, 그들은 총기 규제에 대한 전미 소총 협회브래디권총 연합의 주장을 읽을 수 있었습니다.짝수가 되라는 지시를 받았을 때에도, 참가자들은 그렇지 않은 주장보다 자신의 기존 태도를 지지하는 주장을 더 많이 읽었습니다.이러한 편향된 정보 검색은 양극화 효과와 잘 상관관계가 있었습니다.[30]

역화 효과는 자신의 신념에 반하는 증거가 주어지면 사람들이 그 증거를 거부하고 훨씬 더 강하게 믿을 수 있다는 발견에 대한 이름입니다.[136][137]이 문구는 2010년 브렌던 니한과 제이슨 레이플러에 의해 만들어졌습니다.[138]그러나 이후의 연구는 역화 효과를 뒷받침하는 결과를 복제하지 못했습니다.[139]오하이오 주립 대학과 조지 워싱턴 대학에서 실시한 한 연구는 52개의 다른 문제들이 역효과를 유발할 것으로 예상되는 10,100명의 참가자들을 연구했습니다.연구 결과는 개인들이 이미 가지고 있는 이념과 모순되는 사실을 받아들이는 것을 꺼린다는 결론을 내렸지만, 역효과 사례는 발견되지 않았습니다.[140]그 후 역화 효과는 일반적인 현상이[141] 아닌 드문 현상으로 알려졌습니다(부메랑 효과와 비교).

신뢰를 잃은 믿음의 지속성

신념은 잠재적인 논리적 또는 경험적 도전에서 살아남을 수 있습니다.대부분의 헌신적이지 않은 관찰자들이 논리적으로 그러한 믿음의 약화를 요구한다는 것에 동의할 것이라는 증거에 의해 그들은 살아남고 심지어 힘을 얻을 수 있습니다.그들은 심지어 그들의 원래의 증거 기반을 완전히 파괴하는 것에서도 살아남을 수 있습니다.

—Lee Ross and Craig Anderson[142]

확인 편향은 신념에 대한 최초의 증거가 제거되거나 급격히 모순될 때 신념의 지속성에 대한 설득력 있는 설명을 제공합니다.[1]: 187 이 믿음의 인내 효과는 Festinger, Rieken, 그리고 Schachter에 의해 처음으로 실험적으로 증명되었습니다.이 심리학자들은 1954년 12월 21일에 세상이 끝날 것이라고 확신하는 신도들과 함께 시간을 보냈습니다.예측이 실패한 후에도 대부분의 신자들은 여전히 자신들의 믿음에 매달렸습니다.이 연구를 묘사한 그들의 책은 '예언이 실패했을 때'라는 적절한 이름을 갖고 있습니다.[143]

그러나 믿음 인내라는 용어는 "디브리핑 패러다임"이라고 불리는 것을 사용하는 일련의 실험에서 만들어졌습니다: 참가자들은 가설에 대한 가짜 증거를 읽고, 그들의 태도 변화를 측정한 후, 가짜가 자세히 노출됩니다.그런 다음 그들의 태도를 다시 한번 측정하여 그들의 믿음이 이전 수준으로 돌아가는지 확인합니다.[142]

공통적인 발견은 최초의 믿음 중 적어도 일부는 완전한 보고 후에도 남아 있다는 것입니다.[144]한 실험에서 참가자들은 진짜 유서와 가짜 유서를 구별해야 했습니다.어떤 사람들은 잘했다는 말을 듣고, 다른 사람들은 못했다는 말을 듣고, 어떤 사람들은 잘했다는 말을 들었습니다.완전히 보고를 받은 후에도 참가자들은 여전히 피드백에 영향을 받았습니다.그들은 처음에 들은 것에 따라, 여전히 그런 종류의 일에 있어서 자신들이 평균보다 낫거나 나쁘다고 생각했습니다.[145]

또 다른 연구에서 참가자들은 위험 회피 테스트에 대한 응답과 함께 두 명의 소방관의 직무 수행 등급을 읽었습니다.[142]이 가상의 데이터는 부정적이거나 긍정적인 연관성을 보여주기 위해 배열되었습니다: 어떤 참가자들은 위험을 감수하는 소방관이 더 잘했다는 말을 들은 반면, 다른 참가자들은 위험을 싫어하는 동료보다 덜 잘했다는 말을 들었습니다.[146]이 두 사례 연구가 사실이라 하더라도 일반적으로 소방관에 대한 결론을 내리기에는 과학적으로 빈약한 증거가 되었을 것입니다.하지만, 참가자들은 그들이 주관적으로 설득력이 있다는 것을 발견했습니다.[146]사례 연구가 허구적인 것으로 나타났을 때, 참가자들의 연결고리에 대한 믿음은 줄어들었지만, 원래 효과의 절반 정도는 남아 있었습니다.[142]후속 인터뷰를 통해 참가자들은 디브리핑을 이해하고 진지하게 임하고 있음을 확인했습니다.참가자들은 보고를 신뢰하는 것처럼 보였지만, 신뢰할 수 없는 정보는 그들의 개인적인 믿음과 무관하다고 생각했습니다.[146]

지속적인 영향 효과는 잘못된 정보가 취소되거나 수정되었음에도 불구하고 잘못된 정보가 사건에 대한 기억과 추론에 계속 영향을 미치는 경향입니다.이는 개인이 수정을 믿는 경우에도 발생합니다.[147]

초기 정보 선호

실험 결과, 정보가 일련의 초기 단계에서 나타나는 경우, 순서가 중요하지 않은 경우에도 더 강력하게 가중치가 부여되는 것으로 나타났습니다.예를 들어, 사람들은 같은 단어가 역순으로 주어졌을 때보다 "지적이고, 근면하고, 충동적이고, 비판적이고, 완고하고, 부러워하는" 누군가에 대해 더 긍정적인 인상을 형성합니다.[148]비합리적인 프라이머리 효과는 시리즈의 초기 항목이 더 강한 메모리 흔적을 남기는 메모리의 프라이머리 효과와는 무관합니다.[148]편향된 해석은 이러한 효과에 대한 설명을 제공합니다: 초기 증거를 보면, 사람들은 나머지 정보를 어떻게 해석하는지에 영향을 미치는 작동 가설을 형성합니다.[1]: 187

비합리적인 1차성을 보여주는 하나의 사례는 두 개의 항아리에서 추출한 것으로 추정되는 색 칩을 사용했습니다.참가자들은 항아리의 색상 분포를 듣고 그들 중 하나에서 칩이 추출될 확률을 추정해야 했습니다.[148]사실, 그 색깔들은 미리 배열된 순서대로 나타났습니다.처음 30명의 무승부는 한 차례를, 그 다음 30명의 무승부는 다른 차례를 선호했습니다.[1]: 187 시리즈는 전체적으로 중립적이었기 때문에 이성적으로는 두 유골함의 가능성이 똑같았습니다.그러나 참가자들은 60번의 추첨 끝에 처음 30번이 제시한 유골함을 선호했습니다.[148]

또 다른 실험은 처음에는 흐리게만 보여지고 이후의 슬라이드마다 약간 더 초점을 맞추는 것으로 보이는 단일 객체의 슬라이드 쇼를 포함했습니다.[148]각 슬라이드가 끝난 후, 참가자들은 그 물체가 무엇인지에 대한 가장 좋은 추측을 해야 했습니다.초기의 추측이 틀렸던 참가자들은 그림이 충분히 초점을 맞추고 있어서 다른 사람들이 쉽게 그 물체를 알아볼 수 있을 때에도 그러한 추측을 계속했습니다.[1]: 187

사건들 사이의 환상적인 연관성

가상 상관은 데이터 집합에서 존재하지 않는 상관 관계를 보는 경향입니다.[149]이러한 경향은 1960년대 후반 일련의 실험에서 처음으로 증명되었습니다.[150]한 실험에서 참가자들은 로르샤흐 잉크 블롯 테스트에 대한 반응을 포함한 일련의 정신 의학 사례 연구를 읽었습니다.참가자들은 촬영장에서 동성애 남성들이 잉크 블롯에서 엉덩이나 항문, 성적으로 모호한 모습을 보고하는 경우가 더 많았다고 보고했습니다.사실 가상의 사례 연구는 동성애자 남성이 이성애자 남성보다 이러한 이미지를 보고하지 않거나, 실험의 한 버전에서는 이성애자 남성보다 보고하지 않도록 구성되었습니다.[149]한 설문조사에서 경험이 많은 정신분석학자들은 동성애와 동일한 환상의 연관성을 보고했습니다.[149][150]

또 다른 연구는 15개월 동안의 날씨 상태와 함께 관절염 환자들이 경험한 증상들을 기록했습니다.실제 상관관계는 0이었지만, 거의 모든 환자들이 자신의 고통이 기상 조건과 상관관계가 있다고 보고했습니다.[151]

날들 비. 비가 오지않음
관절염 14 6
관절염없음 7 2

이러한 효과는 객관적으로 중립적이거나 불리한 증거가 기존의 신념을 뒷받침하는 것으로 해석된다는 점에서 일종의 편향적 해석입니다.또한 가설 검정 행동의 편향과도 관련이 있습니다.[152]질병과 악천후와 같은 두 사건이 상관관계가 있는지를 판단할 때 사람들은 긍정적인 경우의 수에 크게 의존합니다: 이 예에서, 고통과 악천후의 경우입니다.그들은 다른 종류의 관찰에 상대적으로 거의 신경을 쓰지 않습니다([153]고통이나 좋은 날씨가 아님).이는 가설 검정에서 양성 검정에 대한 의존도와 유사합니다.[152]또한 사람들이 두 사건이 함께 발생한 시간을 회상하는 것이 더 쉽기 때문에 두 사건이 상관 관계가 있다는 인식을 가질 수 있다는 점에서 선택적 기억을 반영할 수도 있습니다.[152]

참고 항목

메모들

  1. ^ 하버드 교육 대학원의 교수이자 연구원인 데이비드 퍼킨스(David Perkins)는 문제의 "나" 측면에 대한 선호를 나타내는 "나의 측면 편견"이라는 용어를 만들었습니다.[3]
  2. ^ "추정 편향"은 증거의 편향적 해석을 위해 사용되는 또 다른 용어입니다.[7]
  3. ^ 워슨은 또한 "검증 편향"이라는 용어를 사용했습니다.[57]

참고문헌

인용문

  1. ^ a b c d e f g h i j k l m n o p Nickerson 1998, pp. 175–220
  2. ^ Plus 1993, 페이지 233
  3. ^ 남작 2000, 페이지 195.
  4. ^ Hart, William; Albarracin, D.; Eagly, A. H.; Brechan, I.; Lindberg, M. J.; Merrill, L. (2009), "Feeling validated versus being correct: A meta-analysis of selective exposure to information", Psychological Bulletin, 135 (4): 555–588, doi:10.1037/a0015701, PMC 4797953, PMID 19586162
  5. ^ Darley, John M.; Gross, Paget H. (2000), "A hypothesis-confirming bias in labelling effects", in Stangor, Charles (ed.), Stereotypes and prejudice: essential readings, Psychology Press, p. 212, ISBN 978-0-86377-589-5, OCLC 42823720
  6. ^ 라이젠 & 길로비치 2007
  7. ^ Risen & Gilovich 2007, p. 113.
  8. ^ a b c Oswald & Grosjean 2004, 페이지 82–83
  9. ^ a b 헤르고비치, 쇼트 & 버거 2010
  10. ^ a b c Zweig, Jason (19 November 2009), "How to ignore the yes-man in your head", Wall Street Journal, archived from the original on 14 February 2015, retrieved 13 June 2010
  11. ^ a b c d Kunda 1999, 페이지 112-115
  12. ^ a b 남작 2000, 페이지 162-64
  13. ^ Kida 2006, 페이지 162-65
  14. ^ Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990), "Diagnostic and confirmation strategies in trait hypothesis testing", Journal of Personality and Social Psychology, 58 (6): 952–963, doi:10.1037/0022-3514.58.6.952, ISSN 1939-1315
  15. ^ Trope, Yaacov; Bassok, Miriam (1982), "Confirmatory and diagnosing strategies in social information gathering", Journal of Personality and Social Psychology, 43 (1): 22–34, doi:10.1037/0022-3514.43.1.22, ISSN 1939-1315
  16. ^ a b c d Klayman, Joshua; Ha, Young-Won (1987), "Confirmation, disconfirmation and information in hypothesis testing" (PDF), Psychological Review, 94 (2): 211–228, CiteSeerX 10.1.1.174.5232, doi:10.1037/0033-295X.94.2.211, ISSN 0033-295X, S2CID 10853196, archived (PDF) from the original on 1 October 2011, retrieved 14 August 2009
  17. ^ Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993), "Directional questions direct self-conceptions", Journal of Experimental Social Psychology, 29: 62–63, doi:10.1006/jesp.1993.1004, ISSN 0022-1031 Fine 2006, 페이지 63–65.
  18. ^ a b Shafir, E. (1993), "Choosing versus rejecting: why some options are both better and worse than others", Memory and Cognition, 21 (4): 546–556, doi:10.3758/bf03197186, PMID 8350746 Fine 2006, 페이지 63–65.
  19. ^ Snyder, Mark; Swann, William B. Jr. (1978), "Hypothesis-testing processes in social interaction", Journal of Personality and Social Psychology, 36 (11): 1202–1212, doi:10.1037/0022-3514.36.11.1202 Poletiek 2001, 페이지 131을 통해서
  20. ^ a b Kunda 1999, pp. 117–18
  21. ^ a b Albarracin, D.; Mitchell, A.L. (2004), "The role of defensive confidence in preference for proattitudinal information: How believing that one is strong can sometimes be a defensive weakness", Personality and Social Psychology Bulletin, 30 (12): 1565–1584, doi:10.1177/0146167204271180, PMC 4803283, PMID 15536240
  22. ^ Fischer, P.; Fischer, Julia K.; Aydin, Nilüfer; Frey, Dieter (2010), "Physically attractive social information sources lead to increased selective exposure to information", Basic and Applied Social Psychology, 32 (4): 340–347, doi:10.1080/01973533.2010.519208, S2CID 143133082
  23. ^ Dahlgren, Peter M. (2020), Media Echo Chambers: Selective Exposure and Confirmation Bias in Media Use, and its Consequences for Political Polarization, Gothenburg: University of Gothenburg, ISBN 978-91-88212-95-5, archived from the original on 6 April 2023, retrieved 16 October 2021
  24. ^ a b c d Stanovich, K.E.; West, R.F.; Toplak, M.E. (2013), "Myside bias, rational thinking, and intelligence", Current Directions in Psychological Science, 22 (4): 259–264, doi:10.1177/0963721413480174, S2CID 14505370
  25. ^ a b Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978), "Consequences of confirmation and disconfirmation in a simulated research environment", Quarterly Journal of Experimental Psychology, 30 (3): 395–406, doi:10.1080/00335557843000007, S2CID 145419628
  26. ^ Kida 2006, 페이지 157
  27. ^ a b c d e f Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979), "Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence", Journal of Personality and Social Psychology, 37 (11): 2098–2109, CiteSeerX 10.1.1.372.1743, doi:10.1037/0022-3514.37.11.2098, ISSN 0022-3514, S2CID 7465318
  28. ^ a b 남작 2000, pp. 201-202
  29. ^ Vyse 1997, 페이지 122
  30. ^ a b c d Taber, Charles S.; Lodge, Milton (July 2006), "Motivated skepticism in the evaluation of political beliefs", American Journal of Political Science, 50 (3): 755–769, CiteSeerX 10.1.1.472.7064, doi:10.1111/j.1540-5907.2006.00214.x, ISSN 0092-5853
  31. ^ a b c Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006), "Neural bases of motivated reasoning: An fMRI study of emotional constraints on partisan political judgment in the 2004 U.S. Presidential election", Journal of Cognitive Neuroscience, 18 (11): 1947–1958, CiteSeerX 10.1.1.578.8097, doi:10.1162/jocn.2006.18.11.1947, PMID 17069484, S2CID 8625992
  32. ^ Gadenne, V.; Oswald, M. (1986), "Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formation and alteration of confirmatory tendencies during the testing of hypotheses]", Zeitschrift für Experimentelle und Angewandte Psychologie, 33: 360–374 2004년 Oswald & Grosjean 경유, 페이지 89.
  33. ^ Hastie, Reid; Park, Bernadette (2005), "The relationship between memory and judgment depends on whether the judgment task is memory-based or on-line", in Hamilton, David L. (ed.), Social cognition: key readings, New York: Psychology Press, p. 394, ISBN 978-0-86377-591-8, OCLC 55078722
  34. ^ a b c Oswald & Grosjean 2004, 페이지 88-89
  35. ^ Stangor, Charles; McMillan, David (1992), "Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures", Psychological Bulletin, 111 (1): 42–61, doi:10.1037/0033-2909.111.1.42
  36. ^ a b Snyder, M.; Cantor, N. (1979), "Testing hypotheses about other people: the use of historical knowledge", Journal of Experimental Social Psychology, 15 (4): 330–342, doi:10.1016/0022-1031(79)90042-8 Goldacre 2008, 페이지 231.
  37. ^ Kunda 1999, 페이지 225–232
  38. ^ Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990), "Motivated recruitment of autobiographical memories", Journal of Personality and Social Psychology, 59 (2): 229–241, doi:10.1037/0022-3514.59.2.229, ISSN 0022-3514, PMID 2213492
  39. ^ a b c Levine, L.; Prohaska, V.; Burgess, S.L.; Rice, J.A.; Laulhere, T.M. (2001), "Remembering past emotions: The role of current appraisals", Cognition and Emotion, 15 (4): 393–417, doi:10.1080/02699930125955, S2CID 22743423
  40. ^ a b Safer, M.A.; Bonanno, G.A.; Field, N. (2001), "It was never that bad: Biased recall of grief and long-term adjustment to the death of a spouse", Memory, 9 (3): 195–203, doi:10.1080/09658210143000065, PMID 11469313, S2CID 24729233
  41. ^ a b Russell, Dan; Jones, Warren H. (1980), "When superstition fails: Reactions to disconfirmation of paranormal beliefs", Personality and Social Psychology Bulletin, 6 (1): 83–88, doi:10.1177/014616728061012, ISSN 1552-7433, S2CID 145060971 Vyse 1997, 페이지 121.
  42. ^ Baron, Jonathan (1995), "Myside bias in thinking about abortion.", Thinking & Reasoning, 1 (3): 221–235, CiteSeerX 10.1.1.112.1603, doi:10.1080/13546789508256909
  43. ^ a b c d Wolfe, Christopher; Anne Britt (2008), "The locus of the myside bias in written argumentation" (PDF), Thinking & Reasoning, 14: 1–27, doi:10.1080/13546780701527674, S2CID 40527220, archived (PDF) from the original on 4 March 2016, retrieved 11 November 2014
  44. ^ Mason, Lucia; Scirica, Fabio (October 2006), "Prediction of students' argumentation skills about controversial topics by epistemological understanding", Learning and Instruction, 16 (5): 492–509, doi:10.1016/j.learninstruc.2006.09.007
  45. ^ Weinstock, Michael (2009), "Relative expertise in an everyday reasoning task: Epistemic understanding, problem representation, and reasoning competence", Learning and Individual Differences, 19 (4): 423–434, doi:10.1016/j.lindif.2009.03.003
  46. ^ Weinstock, Michael; Neuman, Yair; Tabak, Iris (2004), "Missing the point or missing the norms? Epistemological norms as predictors of students' ability to identify fallacious arguments", Contemporary Educational Psychology, 29 (1): 77–94, doi:10.1016/S0361-476X(03)00024-9
  47. ^ 투키디데스 4.108.4.
  48. ^ 알리히에리, 단테.파라디소칸토 XIII: 118–120.트랜스.알렌 만델바움.
  49. ^ Ibn Khaldun (1958), The Muqadimmah, Princeton, NJ: Princeton University Press, p. 71.
  50. ^ a b 남작 2000, 페이지 195-196.
  51. ^ a b 베이컨, 프란시스 (1620)노붐 오르가눔.1998년 니커슨을 통해 재인쇄됨, 페이지 176.
  52. ^ Schopenhauer, Arthur (2011) [1844], Carus, David; Aquila, Richard E. (eds.), The World as Will and Presentation, vol. 2, New York: Routledge, p. 246.
  53. ^ 톨스토이, 레오 (1896)예술이란? ch. 143 2021년 8월 17일 웨이백 머신에서 보관.1904년, 아일머 모드 지음 러시아어 번역, 뉴욕.2021년 3월 23일 발매된 웨이백 머신에서 2021년 8월 7일 프로젝트 구텐베르크 에디션 보관.2021년 8월 17일 회수.
  54. ^ 톨스토이, 레오 (1894)신의 왕국은 당신 안에 있습니다. 49 2021년 8월 17일 웨이백 머신에서 보관.러시아어에서 번역, 콘스탄스 가넷, 뉴욕, 1894.프로젝트 구텐베르그 판 2013년 7월 26일 발매된 웨이백 머신에서 2021년 8월 17일 보관.2021년 8월 17일 회수.
  55. ^ 와손 1960
  56. ^ Lewicka 1998, 페이지 238
  57. ^ Poletiek 2001, 페이지 73.
  58. ^ Oswald & Grosjean 2004, pp. 79–96
  59. ^ Wason, Peter C. (1968), "Reasoning about a rule", Quarterly Journal of Experimental Psychology, 20 (3): 273–278, doi:10.1080/14640746808400161, ISSN 1747-0226, PMID 5683766, S2CID 1212273
  60. ^ a b c Sutherland, Stuart (2007), Irrationality (2nd ed.), London: Pinter and Martin, pp. 95–103, ISBN 978-1-905177-07-3, OCLC 72151566
  61. ^ Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995), The adapted mind: evolutionary psychology and the generation of culture, Oxford University Press US, pp. 181–184, ISBN 978-0-19-510107-2, OCLC 33832963
  62. ^ Oswald & Grosjean 2004, pp. 81–82, 86–87
  63. ^ Plus 1993, 페이지 233
  64. ^ Lewicka 1998, p. 239
  65. ^ Tweney, Ryan D.; Doherty, Michael E. (1980), "Strategies of rule discovery in an inference task", The Quarterly Journal of Experimental Psychology, 32 (1): 109–123, doi:10.1080/00335558008248237, ISSN 1747-0226, S2CID 143148831 (실험 IV)
  66. ^ Oswald & Grosjean 2004, 페이지 86–89
  67. ^ 맥카운 1998
  68. ^ 프리드리히 1993, 페이지 298
  69. ^ Kunda 1999, 페이지 94
  70. ^ 남작 2000, 페이지 206
  71. ^ Matlin, Margaret W. (2004), "Pollyanna Principle", in Pohl, Rüdiger F. (ed.), Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory, Hove, UK: Psychology Press, pp. 255–272, ISBN 978-1-84169-351-4, OCLC 55124398
  72. ^ Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (October 2002), "Motivated reasoning and performance on the Wason Selection Task", Personality and Social Psychology Bulletin, 28 (10): 1379–1387, doi:10.1177/014616702236869, S2CID 143957893
  73. ^ Ditto, Peter H.; Lopez, David F. (1992), "Motivated skepticism: Use of differential decision criteria for preferred and nonpreferred conclusions", Journal of Personality and Social Psychology, 63 (4): 568–584, doi:10.1037/0022-3514.63.4.568, ISSN 0022-3514
  74. ^ Oswald & Grosjean 2004, 페이지 91-93
  75. ^ 프리드리히 1993, pp. 299, 316–317
  76. ^ Trope, Y.; Liberman, A. (1996), "Social hypothesis testing: Cognitive and motivational mechanisms", in Higgins, E. Tory; Kruglanski, Arie W. (eds.), Social psychology: Handbook of basic principles, New York: Guilford Press, ISBN 978-1-57230-100-9, OCLC 34731629 Oswald & Grosjean 2004, 페이지 91-93.
  77. ^ a b Dardenne, Benoit; Leyens, Jacques-Philippe (1995), "Confirmation bias as a social skill" (PDF), Personality and Social Psychology Bulletin, 21 (11): 1229–1239, doi:10.1177/01461672952111011, ISSN 1552-7433, S2CID 146709087, archived (PDF) from the original on 9 September 2020, retrieved 25 September 2019
  78. ^ Shanteau, James (2003), Sandra L. Schneider (ed.), Emerging perspectives on judgment and decision research, Cambridge [u. a.]: Cambridge University Press, p. 445, ISBN 978-0-521-52718-7
  79. ^ Haidt, Jonathan (2013), The righteous mind: Why good people are divided by politics and religion, London: Penguin Books, pp. 87–88, ISBN 978-0-14-103916-9
  80. ^ Fiske, Susan T.; Gilbert, Daniel T.; Lindzey, Gardner, eds. (2010), The handbook of social psychology (5th ed.), Hoboken, NJ: Wiley, p. 811, ISBN 978-0-470-13749-9
  81. ^ American Psychological Association (2018), "Why we're susceptible to fake news – and how to defend against it", Skeptical Inquirer, 42 (6): 8–9
  82. ^ a b Pariser, Eli (2 May 2011), "Ted talk: Beware online "filter bubbles"", TED: Ideas Worth Spreading, archived from the original on 22 September 2017, retrieved 1 October 2017
  83. ^ Self, Will (28 November 2016), "Forget fake news on Facebook – the real filter bubble is you", NewStatesman, archived from the original on 11 November 2017, retrieved 24 October 2017
  84. ^ Pariser, Eli (7 May 2015), "Did Facebook's big study kill my filter bubble thesis?", Wired, archived from the original on 11 November 2017, retrieved 24 October 2017
  85. ^ Kendrick, Douglas T.; Cohen, Adam B.; Neuberg, Steven L.; Cialdini, Robert B. (2020), "The science of anti-science thinking", Scientific American, 29 (4, Fall, Special Issue): 84–89
  86. ^ Weinmann, Markus; Schneider, Christoph; vom Brocke, Jan (2015), "Digital nudging", SSRN, Rochester, NY, doi:10.2139/ssrn.2708250, S2CID 219380211, SSRN 2708250
  87. ^ Thornhill, Calum; Meeus, Quentin; Peperkamp, Jeroen; Berendt, Bettina (2019), "A digital nudge to counter confirmation bias", Frontiers in Big Data, 2: 11, doi:10.3389/fdata.2019.00011, ISSN 2624-909X, PMC 7931917, PMID 33693334
  88. ^ Mahoney, Michael J.; DeMonbreun, B.G. (1977), "Psychology of the scientist: An analysis of problem-solving bias", Cognitive Therapy and Research, 1 (3): 229–238, doi:10.1007/BF01186796, S2CID 9703186
  89. ^ Mitroff, I. I. (1974), "Norms and counter-norms in a select group of the Apollo moon scientists: A case study of the ambivalence of scientists", American Sociological Review, 39 (4): 579–395, doi:10.2307/2094423, JSTOR 2094423
  90. ^ a b 쾰러 1993
  91. ^ a b c 마호니 1977
  92. ^ Letrud, Kåre; Hernes, Sigbjørn (2019), "Affirmative citation bias in scientific myth debunking: A three-in-one case study", PLOS ONE, 14 (9): e0222213, Bibcode:2019PLoSO..1422213L, doi:10.1371/journal.pone.0222213, PMC 6733478, PMID 31498834
  93. ^ Ball, Phillip (14 May 2015), "The trouble with scientists: How one psychologist is tackling human biases in science", Nautilus, archived from the original on 7 October 2019, retrieved 6 October 2019
  94. ^ Sternberg, Robert J. (2007), "Critical thinking in psychology: It really is critical", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (eds.), Critical thinking in psychology, Cambridge University Press, p. 292, ISBN 978-0-521-60834-3, OCLC 69423179, Some of the worst examples of confirmation bias are in research on parapsychology ... Arguably, there is a whole field here with no powerful confirming data at all. But people want to believe, and so they find ways to believe.
  95. ^ a b Shadish, William R. (2007), "Critical thinking in quasi-experimentation", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (eds.), Critical Thinking in Psychology, Cambridge University Press, p. 49, ISBN 978-0-521-60834-3
  96. ^ Jüni, P.; Altman, D.G.; Egger, M. (2001), "Systematic reviews in health care: Assessing the quality of controlled clinical trials", BMJ (Clinical Research Ed.), 323 (7303): 42–46, doi:10.1136/bmj.323.7303.42, PMC 1120670, PMID 11440947
  97. ^ Lee, C.J.; Sugimoto, C.R.; Zhang, G.; Cronin, B. (2013), "Bias in peer review", Journal of the Association for Information Science and Technology, 64: 2–17, doi:10.1002/asi.22784
  98. ^ Shermer, Michael (July 2006), "The political brain: A recent brain-imaging study shows that our political predilections are a product of unconscious confirmation bias", Scientific American, 295 (1): 36, Bibcode:2006SciAm.295a..36S, doi:10.1038/scientificamerican0706-36, ISSN 0036-8733, PMID 16830675
  99. ^ Emerson, G.B.; Warme, W.J.; Wolf, F.M.; Heckman, J.D.; Brand, R.A.; Leopold, S.S. (2010), "Testing for the presence of positive-outcome bias in peer review: A randomized controlled trial", Archives of Internal Medicine, 170 (21): 1934–1339, doi:10.1001/archinternmed.2010.406, PMID 21098355
  100. ^ Bartlett, Steven James, "출판에서의 학대 심리: 동료 심사와 편집 편견", Chap. 7, pp. 147–177, Steven James Bartlett, Normality는 정신 건강과 동등하지 않습니다: 좋은 심리적 건강의 기준을 다른 곳에서 찾아볼 필요가 있습니다.샌타바버라, 캘리포니아: 프래거, 2011.
  101. ^ Horrobin, David F. (1990), "The philosophical basis of peer review and the suppression of innovation", Journal of the American Medical Association, 263 (10): 1438–1441, doi:10.1001/jama.263.10.1438, PMID 2304222
  102. ^ Pompian, Michael M. (2006), Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, pp. 187–190, ISBN 978-0-471-74517-4, OCLC 61864118
  103. ^ Hilton, Denis J. (2001), "The psychology of financial decision-making: Applications to trading, dealing, and investment analysis", Journal of Behavioral Finance, 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579, S2CID 153379653
  104. ^ Krueger, David; Mann, John David (2009), The secret language of money: How to make smarter financial decisions and live a richer life, McGraw Hill Professional, pp. 112–113, ISBN 978-0-07-162339-1, OCLC 277205993
  105. ^ Groopman, Jerome (2007), How doctor's think, Melbourne: Scribe Publications, pp. 64–66, ISBN 978-1-921215-69-8
  106. ^ Croskerry, Pat (2002), "Achieving quality in clinical decision making: Cognitive strategies and detection of bias", Academic Emergency Medicine, 9 (11): 1184–1204, doi:10.1197/aemj.9.11.1184, PMID 12414468.
  107. ^ Pang, Dominic; Bleetman, Anthony; Bleetman, David; Wynne, Max (2 June 2017), "The foreign body that never was: the effects of confirmation bias", British Journal of Hospital Medicine, 78 (6): 350–351, doi:10.12968/hmed.2017.78.6.350, PMID 28614014
  108. ^ Goldacre 2008, 페이지 233
  109. ^ Singh, Simon; Ernst, Edzard (2008), Trick or treatment?: Alternative medicine on trial, London: Bantam, pp. 287–288, ISBN 978-0-593-06129-9
  110. ^ Atwood, Kimball (2004), "Naturopathy, pseudoscience, and medicine: Myths and fallacies vs truth", Medscape General Medicine, 6 (1): 33, PMC 1140750, PMID 15208545
  111. ^ Neenan, Michael; Dryden, Windy (2004), Cognitive therapy: 100 key points and techniques, Psychology Press, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621
  112. ^ Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Cognitive therapy for depression & anxiety: a practitioner's guide (2 ed.), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443
  113. ^ Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, pp. 172–173, 176, ISBN 978-0-19-852888-3, OCLC 602015097
  114. ^ Myers, D.G.; Lamm, H. (1976), "The group polarization phenomenon", Psychological Bulletin, 83 (4): 602–527, doi:10.1037/0033-2909.83.4.602 Nickerson 1998, pp. 193-194를 경유하여
  115. ^ Halpern, Diane F. (1987), Critical thinking across the curriculum: A brief edition of thought and knowledge, Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6, OCLC 37180929
  116. ^ Roach, Kent (2010), "Wrongful convictions: Adversarial and inquisitorial themes", North Carolina Journal of International Law and Commercial Regulation, 35: 387–446, SSRN 1619124, Quote: Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias.
  117. ^ 남작 2000, 페이지 191, 195
  118. ^ Kida 2006, 페이지 155
  119. ^ Tetlock, Philip E. (2005), Expert political judgment: How good is it? How can we know?, Princeton, NJ: Princeton University Press, pp. 125–128, ISBN 978-0-691-12302-8, OCLC 56825108
  120. ^ O'Brien, B. (2009), "Prime suspect: An examination of factors that aggravate and counteract confirmation bias in criminal investigations", Psychology, Public Policy, and Law, 15 (4): 315–334, doi:10.1037/a0017881
  121. ^ a b Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), "Agreeable fancy or disagreeable truth? Reconciling self-enhancement and self-verification", Journal of Personality and Social Psychology, 57 (5): 782–791, doi:10.1037/0022-3514.57.5.782, ISSN 0022-3514, PMID 2810025
  122. ^ a b Swann, William B.; Read, Stephen J. (1981), "Self-verification processes: How we sustain our self-conceptions", Journal of Experimental Social Psychology, 17 (4): 351–372, doi:10.1016/0022-1031(81)90043-3, ISSN 0022-1031
  123. ^ Story, Amber L. (1998), "Self-esteem and memory for favorable and unfavorable personality feedback", Personality and Social Psychology Bulletin, 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433, S2CID 144945319
  124. ^ White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), "Confirmatory bias in evaluating personality test information: Am I really that kind of person?", Journal of Counseling Psychology, 40 (1): 120–126, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167
  125. ^ Swann, William B.; Read, Stephen J. (1981), "Acquiring self-knowledge: The search for feedback that fits", Journal of Personality and Social Psychology, 41 (6): 1119–1328, CiteSeerX 10.1.1.537.2324, doi:10.1037/0022-3514.41.6.1119, ISSN 0022-3514
  126. ^ Shrauger, J. Sidney; Lund, Adrian K. (1975), "Self-evaluation and reactions to evaluations from others", Journal of Personality, 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574.x, PMID 1142062
  127. ^ Lidén, Moa (2018). "3.2.4.1" (PDF). Confirmation bias in criminal cases (Thesis). Department of Law, Uppsala University. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.
  128. ^ Trevor-Roper, H.R. (1969). The European witch-craze of the sixteenth and seventeenth centuries and other essays. London: HarperCollins.[ISBN 누락]
  129. ^ Chrisler, Mark (24 September 2019), "The constant: A history of getting things wrong", constantpodcast.com (Podcast), retrieved 19 February 2020
  130. ^ a b Smith, Jonathan C. (2009), Pseudoscience and extraordinary claims of the paranormal: A critical thinker's toolkit, London: Wiley-Blackwell, pp. 149–151, ISBN 978-1-4051-8122-8, OCLC 319499491
  131. ^ Randi, James (1991), James Randi: Psychic investigator, London: Boxtree, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284
  132. ^ Agarwal, Dr Pragva (19 October 2018), "Here is how bias can affect recruitment in your organization", Forbes, archived from the original on 31 July 2019, retrieved 31 July 2019
  133. ^ a b c Kuhn, Deanna; Lao, Joseph (March 1996), "Effects of evidence on attitudes: Is polarization the norm?", Psychological Science, 7 (2): 115–120, doi:10.1111/j.1467-9280.1996.tb00340.x, S2CID 145659040
  134. ^ 남작 2000, p. 201
  135. ^ Miller, A.G.; McHoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993), "The attitude polarization phenomenon: Role of response measure, attitude extremity, and behavioral consequences of reported attitude change", Journal of Personality and Social Psychology, 64 (4): 561–574, doi:10.1037/0022-3514.64.4.561, S2CID 14102789
  136. ^ "Backfire effect", The Skeptic's Dictionary, archived from the original on 6 February 2017, retrieved 26 April 2012
  137. ^ Silverman, Craig (17 June 2011), "The backfire effect", Columbia Journalism Review, archived from the original on 25 April 2012, retrieved 1 May 2012, When your deepest convictions are challenged by contradictory evidence, your beliefs get stronger.
  138. ^ Nyhan, B. & Reifler, J. (2010).'수정 실패 시:정치적 오인식의 지속성."정치적 행동, 32, 303–320
  139. ^ "Facts matter after all: rejecting the "backfire effect"". Oxford Education Blog. 12 March 2018. Archived from the original on 23 October 2018. Retrieved 23 October 2018.
  140. ^ Wood, Thomas; Porter, Ethan (2019), "The elusive backfire effect: Mass attitudes' steadfast factual adherence", Political Behavior, 41: 135–163, doi:10.2139/ssrn.2819073, ISSN 1556-5068
  141. ^ "Fact-checking doesn't 'backfire,' new study suggests", Poynter, 2 November 2016, archived from the original on 24 October 2018, retrieved 23 October 2018
  142. ^ a b c d Ross, Lee; Anderson, Craig A. (1974), "Judgment under uncertainty: Heuristics and biases", Science, 185 (4157): 1124–1131, Bibcode:1974Sci...185.1124T, doi:10.1126/science.185.4157.1124, PMID 17835457, S2CID 143452957.
    Kahneman, Daniel; Slovic, Paul; Tversky, Amos, eds. (1982), "Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments", Judgment under uncertainty: Heuristics and biases, Cambridge University Press, ISBN 978-0-521-28414-1, OCLC 7578020
  143. ^ Festinger, Leon (1956), When prophecy fails: A social and psychological study of a modern group that predicted the destruction of the world, New York: Harper Torchbooks.
  144. ^ Kunda 1999, 페이지 99
  145. ^ Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975), "Perseverance in self-perception and social perception: Biased attributional processes in the debriefing paradigm", Journal of Personality and Social Psychology, 32 (5): 880–is 892, doi:10.1037/0022-3514.32.5.880, ISSN 0022-3514, PMID 1185517 Kunda 1999, 페이지 99를 경유
  146. ^ a b c Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980), "Perseverance of social theories: The role of explanation in the persistence of discredited information", Journal of Personality and Social Psychology, 39 (6): 1037–1049, CiteSeerX 10.1.1.130.933, doi:10.1037/h0077720, ISSN 0022-3514
  147. ^ Cacciatore, Michael A. (9 April 2021), "Misinformation and public opinion of science and health: Approaches, findings, and future directions", Proceedings of the National Academy of Sciences, 118 (15): e1912437117, Bibcode:2021PNAS..11812437C, doi:10.1073/pnas.1912437117, ISSN 0027-8424, PMC 8053916, PMID 33837143, p. 4: The CIE refers to the tendency for information that is initially presented as true, but later revealed to be false, to continue to affect memory and reasoning
  148. ^ a b c d e 남작 2000, pp. 197–200
  149. ^ a b c Fine 2006, 페이지 66–70
  150. ^ a b Plus 1993, pp. 164-166
  151. ^ Redelmeir, D.A.; Tversky, Amos (1996), "On the belief that arthritis pain is related to the weather", Proceedings of the National Academy of Sciences, 93 (7): 2895–2896, Bibcode:1996PNAS...93.2895R, doi:10.1073/pnas.93.7.2895, PMC 39730, PMID 8610138 Kunda 1999, 페이지 127을 통해
  152. ^ a b c Kunda 1999, 페이지 127-130
  153. ^ Plus 1993, 페이지 162-164

원천

추가열람

외부 링크