필터 버블

Filter bubble
필터 버블이라는 용어는 2010년경 인터넷 활동가 엘리 패리서가 만든 용어입니다.

필터 버블 또는 이데올로기 프레임은 웹 사이트 알고리즘이 위치, 과거 클릭 동작 및 검색 [2][3][4]이력 등의 사용자에 대한 정보를 기반으로 사용자가 보고 싶은 정보를 선택적으로 추측할 때 개인화된 검색에 의해 발생할 수 있는 지적 고립[1] 상태입니다.그 결과, 사용자는 자신의 관점과 일치하지 않는 정보로부터 분리되어, 자신의 문화적 또는 이념적 [5]거품 속에서 효과적으로 고립됩니다.이러한 알고리즘에 의한 선택이 항상 [6]투과적인 것은 아닙니다.대표적인 예로는 구글 퍼스낼라이즈드 검색 결과와 페이스북의 퍼스낼라이즈드 뉴스 스트림이 있다.

필터 버블이라는 용어2010년경 인터넷 활동가 엘리 패리서가 만든 으로 2011년 동명의 저서에서 논의되었다.패리셔에 따르면 거품 효과는 시민 담론에 부정적인 영향을 미칠 수 있지만 대조적인 견해는 그 효과를 최소화하고 해결할 [8]수 있는 것으로[7] 간주한다.2016년 미국 대통령 선거의 결과는 트위터와 Facebook,[9][10] 같은 소셜 미디어 플랫폼의 영향으로 결과적으로 질문에 뉴스와 메아리 chambers,[11] 많은 con과 term,[12]에 새로운 흥미를 갖게 것처럼 꾸미려고 그"필터 버블"현상의 사용자 노출에 미치는 영향이라고 알려져 왔다.는 흙 cernede현상은 잘못된 정보의 영향을 [13][14][12][15][16][17]악화시킴으로써 민주주의와 복지를 해칠 수 있다.

(소셜 미디어 등의 테크놀로지) "같은 생각을 가진 사람과 교제할 수 있기 때문에 다른 관점을 공유하고 이해하는 것이 아니라...정말 중요한 일이야그것은 저나 다른 많은 사람들이 예상했던 것보다 더 큰 문제임이 드러났습니다.

--

개념.

Pariser에 따르면 소셜 미디어는 사용자를 만족시키기 위해 사용자가 듣고 싶어할 것으로 추측되는 정보를 분산시킬 수 있지만 사용자가 알고 있는 정보를 부주의로 필터 버블에 격리시킬 수 있다.

Pariser에 따르면 사용자는 상충되는 관점에 덜 노출되고 정보 [19]거품 속에서 지적으로 고립된다.그는 한 사용자가 구글에서 "BP"를 검색해 브리티시 페트롤리엄에 대한 투자 소식을 얻고, 또 다른 검색자는 딥워터 호라이즌 기름 유출에 대한 정보를 얻었으며, 두 검색 결과 페이지가 "매우 다르다"[19][20][21][7]고 언급했다.

Pariser는 필터 버블에 대한 그의 개념을 좀 더 공식적인 용어로 "이 알고리즘에 의해 충족된 개인 정보의 생태계"[19]라고 정의했습니다.링크 클릭, 친구 보기, 영화 큐에 넣기, 뉴스 기사 읽기 [22]등 토픽에 대한 관심을 나타내는 인터넷 사용자의 과거 브라우징 및 검색 이력은 시간이 지남에 따라 축적됩니다.인터넷 회사는 이 정보를 사용하여 사용자에게 광고를 하거나 특정 유형의 정보를 검색 결과 페이지에 [22]더 두드러지게 표시하도록 합니다.

이 과정은 3단계 과정으로 진행되기 때문에 무작위로 진행되는 것이 아닙니다. 파리지앵은 이렇게 말합니다. "첫째, 사람들이 누구인지, 그들이 무엇을 좋아하는지 알아냅니다.그런 다음 고객에게 가장 적합한 콘텐츠와 서비스를 제공합니다.마지막으로, 딱 맞기 위해 채널을 맞춥니다.자신의 아이덴티티가 미디어를 [23]형성합니다.Pariser는 다음과 같이 보고합니다.

월스트리트저널의 한 조사에 따르면 CNN, 야후, MSN 등 상위 50개 인터넷 사이트에는 각각 평균 64개의 데이터 저장 쿠키와 개인 추적 비콘이 설치돼 있다.Dictionary.com에서 "우울증"과 같은 단어를 검색하면, 다른 웹사이트가 당신을 항우울제로 공격할 수 있도록, 이 사이트는 당신의 컴퓨터에 쿠키와 비콘을 최대 223개까지 추적합니다.ABC 뉴스에서 요리에 관한 기사를 공유하면 테프론 코팅 냄비 광고에 쫓길지도 모른다.잠시라도 당신의 배우자가 바람을 피우고 DNA [24]친자확인 광고에 시달릴 수 있다는 징후를 보여주는 페이지를 열어보세요.

사이트 트래픽 측정을 통해 표시되는 링크 클릭 데이터에 액세스하면 필터 버블이 집합적일 수도 있고 [25]개별적일 수도 있습니다.

2011년 현재, 한 엔지니어는 Pariser에게 구글이 57개의 다른 데이터를 조사하여 사용자의 검색 결과를 맞춤화했다고 말했다. 여기에는 사용 중인 컴퓨터의 종류와 사용자의 실제 [26]위치와 같은 요리 이외의 데이터가 포함되어 있다.

이 현상을 설명하기 위해 "이념 프레임"[20]과 "인터넷 검색 시 당신을 둘러싼 비유적 영역"[22]을 포함한 다른 용어들이 사용되었습니다.관련 용어인 "에코 챔버"는 원래 뉴스 미디어에 [27][28]사용되었지만, 지금은 소셜 미디어에도 [29][30]사용되고 있습니다.

필터 버블에 대한 Pariser의 아이디어는 2011년 5월 그가 필터 버블의 작동 원리와 볼 수 있는 위치에 대한 예를 제시하는 TED 강연 후에 대중화되었습니다.필터 버블 효과를 입증하기 위한 테스트에서 패리저는 몇몇 친구들에게 구글에서 "이집트"라는 단어를 검색해서 결과를 보내달라고 부탁했다.두 친구의 첫 페이지를 비교한 결과, 뉴스와 여행과 같은 주제에서 서로 겹치는 부분이 있었지만, 한 친구의 결과에는 2011년 이집트 혁명에 대한 정보와의 링크가 두드러지게 포함되어 있었고, 다른 친구의 첫 페이지에는 그러한 [31]링크가 포함되어 있지 않았다.

'필터 버블'에서 패리저는 필터링된 검색의 잠재적인 단점은 "새로운 생각, 주제, 그리고 중요한 정보에 우리를 빠트릴 수 있다"[32]고 경고하고 "우리의 편협한 이기심이 존재하는 전부라는 인상을 심어준다"[20]고 말한다.그의 관점에 따르면 필터 버블은 개인과 사회 모두에게 해로울 수 있다.그는 구글과 페이스북이 "사탕을 너무 많이 제공하고 [33]당근은 충분하지 않다"고 비난했다.그는 "보이지 않는 웹 알고리즘 편집"이 새로운 정보에 대한 노출을 제한하고 우리의 시야를 [33]좁힐 수 있다고 경고했다.패리셔에 따르면 필터 버블의 해로운 영향에는 시민 담론을 약화시키고 사람들을 "선전과 조작"[20]에 더 취약하게 만들 가능성이 있다는 점에서 일반 사회에 대한 해악이 포함된다.그는 다음과 같이 썼다.

익숙한 것으로 구성된 세계는 아무것도 배울 것이 없는 세상입니다. 보이지 않는 자동 파간다는 우리에게 우리 자신의 생각을 주입합니다.

--

많은 사람들은 필터 거품이 존재하는지조차 알지 못한다.이 가디언은 사실이 페이스북 사용자의 60퍼센트 이상 전적으로 페이스북에서 어떤 큐레이션에 대해서도 전혀, 대신은 그들의 친구들에게서 모든 이야기의 뒤를 따랐고 페이지를 뉴스 피드에 출연한 적 있다고 믿는 것은 모른다고 언급했다에 관한 기사에서 볼 수 있다."[35] 대한 간략한 설명을 페이스북이 어떻게 결정하는 것에 사용자의 소식이다.피드는 "과거 [35]유사한 게시물과 어떻게 상호작용했는가"를 고려한 알고리즘을 통해 이루어집니다.

필터 버블은 splinternet 또는 사이버 [Note 1]발칸화라고 불리는 현상을 악화시키는 것으로 묘사되어 왔다.이 현상은 인터넷이 자신의 온라인 커뮤니티 내에서 고립되어 다른 관점에 노출되지 못하는 동질적인 사람들의 하위 그룹으로 나뉘었을 때 발생한다.이러한 우려는 1996년에 "[36][37][38]사이버발칸화"라는 용어가 만들어지면서 공개적으로 접근할 수 있는 인터넷의 초창기로 거슬러 올라간다.

유사한 개념

뉴스 미디어에서 에코 챔버는 닫힌 시스템 내부의 커뮤니케이션과 반복에 의해 믿음이 증폭되거나 강화되는 상황을 은유적으로 묘사한다.「에코 챔버」를 방문함으로써, 사람들은 기존의 견해를 보강하는 정보를 찾을 수 있다.이는 잠재적으로 무의식적인 확인 편견의 행사일 수 있다.이것은 정치적, 사회적 양극화와 극단주의를 증가시킬 수 있다.이 용어는 음향 에코 챔버에 기초한 은유로서, 소리가 중공 인클로저에 울려 퍼집니다.에코 챔버는 사실적인 뒷받침 없이 개인의 신념을 강화한다.그들은 같은 [39]관점을 인정하고 따르는 사람들에게 둘러싸여 있다.

버락 오바마의 고별사에서는 거품을 걸러내는 것과 유사한 개념을 "미국 민주주의에 대한 위협"으로 규정했다. 즉, "우리 자신의 거품으로 후퇴하는 것, 특히 우리처럼 보이고 같은 정치적 견해를 공유하며 우리의 가정에 결코 도전하지 않는 사람들에 의해 둘러싸인"이다.그리고 점점 더 우리의 거품 속에서 안전해지기 때문에,[40] 우리는 우리의 의견이 존재하는 증거에 근거하는 것이 아니라, 그것이 사실이든 아니든 간에 오직 우리의 의견에 맞는 정보만을 받아들이기 시작합니다."

반응과 연구

미디어의 반응

퍼스낼라이즈된 필터링의 범위와 이러한 액티비티가 유익한지 해로운지에 대해서는 상반된 보고서가 있습니다.2011년 6월 슬레이트지에 기고한 분석가 제이콥 바이스버그는 파리지어의 이론을 테스트하기 위해 작은 비과학적인 실험을 했는데, 파리지어의 이론에는 " 베이너", "바니 프랭크", "라이언 플랜" 및 "오바마케어"가 일련의 검색을 수행하고 그들의 스크린샷을 보냈다.결과는 사람에 따라 사소한 점만 달랐을 뿐 이념과 관련이 있는 것 같지는 않아 바이스버그는 필터 거품이 효과가 없다고 결론내렸고 대부분의 인터넷 사용자들이 "일상적인 나를 먹고 있다"는 생각은 [20]부풀려졌다고 썼다.Weisberg는 구글에 코멘트를 요청했고, 대변인은 알고리즘이 의도적으로 "개인화를 제한하고 다양성을 [20]촉진하기 위한 것"이라고 말했다.서평가 폴 부탱은 다른 검색 기록을 가진 사람들 사이에서 바이스버그와 비슷한 실험을 했고, 또 다른 검색자들이 거의 동일한 [7]검색 결과를 받았다는 것을 발견했다.구글의 프로그래머들을 인터뷰한 결과, Per Grankvist는 사용자 데이터가 검색 결과를 결정하는 데 더 큰 역할을 하곤 했지만, 구글은 테스트를 [41]통해 검색 쿼리가 어떤 결과를 표시할지에 대한 최고의 결정 요소라는 것을 발견했다.

구글과 다른 사이트들은 사용자들에 대한 방대한 "자료"를 보유하고 있으며, 그들이 그렇게 하기로 결정한다면, 그들이 개인 인터넷 경험을 더욱 개인화할 수 있을 것이라는 보고가 있다.예를 들어, 이 기술은 사용자가 개인 구글 계정을 [7]가지고 있지 않거나 로그인하지 않았더라도 사용자의 과거 이력을 추적하기 위해 존재한다.한 보도는 구글은 비록 반대 보고서는 각 사용자에 대한 인터넷 개인화하도록 노력하고 기술적으로에 대한 인터넷 기업을 달성하는 것이 매우 어려웠다를 위한 정보의"10년 상당의"지 메일 구글 지도 및 기타 서비스의 검색 engine,[21][검증 실패한]외에도 같은 다양한 출처로부터 모았으며 수집됬다고 말했다.들어오는 막대한 규모에도 불구하고사용 가능한 데이터의 [citation needed]s.CNN의 분석가 Doug Gross는 필터링된 검색이 시민보다 소비자에게 더 도움이 되는 것으로 보이며, "피자"를 찾는 소비자가 개인화된 검색을 기반으로 지역 배달 옵션을 찾고 멀리 떨어진 피자 가게를 [21][failed verification]적절하게 걸러낼 수 있도록 도울 것이라고 제안했다.Washington Post, New York Times 등의 조직은 사용자가 좋아하거나 동의할 가능성이 [20]높은 검색 결과를 맞춤화할 목적으로 새로운 개인화된 정보 서비스를 만드는 실험을 실시했습니다.

학계의 연구 및 반응

개인화된 권장 사항을 분석와튼의 과학적 연구에서도 이러한 필터가 온라인 음악 [42]취향에서 조각화가 아닌 공통성을 실제로 만들어 낼 수 있다는 것이 밝혀졌습니다.소비자는 [42]필터를 제한하기보다는 자신의 취향을 확장하기 위해 사용하는 것으로 알려졌다.하버드 법대 조너선 지트레인 교수는 "검색 개인화의 효과는 [20]미미했다"며 개인화 필터가 구글 검색 결과를 왜곡하는 정도에 대해 반박했다.또한 구글은 구글의 검색 이력 기록을 삭제하고 구글이 [7]검색 키워드와 방문한 링크를 기억하지 못하도록 설정함으로써 사용자가 [43]원할 경우 개인화 기능을 차단할 수 있는 기능을 제공한다.

Internet Policy Review(인터넷 정책 리뷰)의 한 연구에서는 분야 간 필터 버블에 대한 명확하고 테스트 가능한 정의가 결여되어 있는 것을 해결했습니다.이를 통해 연구자들은 종종 필터 버블을 다른 방법으로 [44]정의하고 연구하게 됩니다.그 후, 연구는 분야 간 필터[11] 버블의 존재에 대한 경험적 데이터의 부족을 설명했고, 그것들에 기인하는 효과는 알고리즘보다는 기존의 이념적 편견에서 더 기인할 수 있다고 제안했다.필터 버블의 정의와 [45]그와 관련된 이념적 요소와 기술적 요소 사이의 관계에 대한 우려를 다루는 다른 학술 프로젝트에서도 비슷한 견해를 찾을 수 있다.필터 버블에 대한 비판적 리뷰에서는 필터 버블 논문이 강하고 유연한 의견을 가진 특별한 정치인을 내세우는 경우가 많다며 콘텐츠를 선택할 때는 적극적인 기관이 있지만 알고리즘에 노출되면 소극적인 수신자가 되는 것은 패러독스라고 지적했다.추천된 콘텐츠입니다.[46]

옥스퍼드, 스탠포드 및 마이크로소프트의 연구진이 2013년 3월부터 5월까지 Internet Explorer용 Bing Toolbar 추가 기능의 120만 미국 사용자의 브라우징 이력을 조사했습니다.이들은 뉴스의 적극적인 소비자인 이용자 5만 명을 선정한 뒤 2012년 대선에서 이용자 IP주소 관련 카운티 유권자 과반수가 오바마 후보나 롬니 후보에게 투표했는지에 따라 자신이 방문한 언론사가 좌편향인지 우편향인지 구분했다.그런 다음 뉴스 기사가 출판사 사이트에 직접 접속한 후, 구글 뉴스 집계 서비스를 통해, 웹 검색을 통해, 또는 소셜 미디어를 통해 읽혔는지 확인했습니다.연구진은 웹 검색과 소셜 미디어가 이념 분리에 기여하는 반면 온라인 뉴스 소비의 대부분은 사용자가 좌파와 우파의 주류 뉴스 사이트를 직접 방문함으로써 결과적으로 정치적 스펙트럼의 한 쪽에서만 보는 시각에 노출된다는 것을 발견했다.이 연구의 한계점에는 Internet Explorer 사용자의 연령이 일반 인터넷 인구보다 높아짐, Bing 툴바 사용 및 사생활에 대한 관심이 적은 사용자를 위한 자발적(또는 모르는) 브라우징 이력 공유, 좌편향 출판물의 모든 스토리가 왼쪽이라는 가정 등의 선택 문제가 있었습니다.t-silient 및 우경화도 마찬가지입니다.또, 액티브하지 않은 뉴스 소비자가 소셜 미디어를 통해 대부분의 뉴스를 얻을 수 있기 때문에, 기본적으로 뉴스 출판물의 선택을 통해서 자신의 편견을 선택하는 유저보다, 소셜 또는 알고리즘에 의한 편견의 영향을 강하게 받을 가능성이 있습니다(그 유저는, 뉴스 출판물을 선택하는 것을 의식하고 있습니다).출판물의 편견).[47]

프린스턴 대학과 뉴욕 대학의 연구진은 필터 버블과 알고리즘 필터링이 소셜 미디어 양극화에 미치는 영향을 연구하는 것을 목표로 했습니다.그들은 레딧과 트위터의 환경에서 그들의 가설을 테스트하기 위해 "파괴적 블록 모델"이라고 불리는 수학적 모델을 사용했다.연구진은 정규화된 소셜 미디어 네트워크와 비정규화된 네트워크에서의 양극화의 변화를 측정했으며, 특히 Reddit과 Twitter에서의 양극화의 변화와 불일치의 비율을 측정했다.그들은 편광은 비정형 네트워크에서 400%로 크게 증가한 반면, 정규화된 네트워크에서 편광은 4% 증가했고 불일치는 [48]5% 증가했다는 것을 발견했다.

플랫폼 연구

알고리즘은 정치적 다양성을 제한하지만 필터 버블의 일부는 사용자 [49]선택의 결과입니다.Facebook의 데이터 과학자들에 의한 연구는 이념을 공유하는 Facebook 친구 4명당 사용자는 대조적인 [50][51]견해를 가진 친구 1명을 가지고 있다는 것을 발견했다.Facebook의 뉴스 피드 알고리즘이 무엇이든 간에, 사람들은 [50]단지 비슷한 신념을 가진 사람들이 친구가 될 가능성이 더 높다.이 알고리즘의 성격은 사용자의 이력을 바탕으로 스토리의 순위를 매겨 "정치적으로 교차하는 콘텐츠"를 보수층에서는 5%, [50]진보층에서는 8% 감소시키는 것이다.그러나 대조적인 보기를 제공하는 링크를 클릭할 수 있는 옵션이 주어진 경우에도 가장 많이 본 [50]소스로 기본 설정됩니다.""User의 선택은 보수주의자들의 경우 17%,[50] 진보주의자들의 경우 6%까지 교차 연결 고리를 클릭할 가능성을 감소시킵니다."크로스 컷 링크는 사용자의 추정 시점 또는 웹사이트가 사용자의 [52]신념으로 간주한 것과는 다른 관점을 소개하는 링크입니다.Levi Boxell, Matthew Gentzkow, Jesse M의 최근 연구입니다.샤피로는 온라인 미디어가 정치적 [53]양극화의 원동력이 아니라고 주장한다.이 논문은 양극화가 온라인에서 가장 적은 시간을 보내는 인구통계학적 그룹에 의해 주도되었다고 주장한다.75세 이상의 미국인들 사이에서 가장 큰 이데올로기적 차이를 경험하고 있는 반면, 2012년 현재 소셜 미디어를 사용하는 비율은 20%에 불과합니다.반면, 2012년 기준으로 18-39세 미국인의 80%가 소셜 미디어를 사용한다고 보고했습니다.이 자료는 젊은 층의 인구통계학이 1996년 온라인 미디어가 거의 존재하지 않았던 때처럼 2012년에는 더 이상 양극화되지 않았음을 시사한다.이 연구는 사람들이 선입견에 호소하는 정보를 찾을 때 연령대 간의 차이와 뉴스 소비가 어떻게 양극화 상태를 유지하는지 강조한다.전통적인 미디어가 주요 뉴스 소스인 반면 온라인 미디어는 젊은 층의 인구통계학적 주요 소스이기 때문에 나이 든 미국인들은 대개 정치적 관점에 정체되어 있다.알고리즘과 필터 버블은 콘텐츠의 다양성을 약화시키지만, 이 연구는 정치적 양극화 추세가 주로 기존의 견해와 외부 소스를 인식하지 못함에 따라 추진된다는 것을 밝혀냈다.독일의 2020년 연구는 Big Five Psychology 모델을 사용하여 개인의 성격,[54] 인구통계 및 이데올로기가 사용자 뉴스 소비에 미치는 영향을 테스트했습니다.사용자가 소비하는 뉴스 소스의 수가 필터 버블에 걸릴 가능성에 영향을 미친다는 개념에 기초한 연구 결과에 따르면 특정 인구 통계(높은 연령과 남성)와 특정 성격 특성(높은 개방성)이 숫자 O와 긍정적인 상관관계가 있음을 알 수 있습니다.f 개인이 소비하는 뉴스 소스.이 연구는 또한 미디어 다양성과 사용자들이 우익 권위주의에 동조하는 정도 사이의 부정적인 이념적 연관성을 발견했다.본 연구에서는 사용자 선택의 역할에 영향을 미칠 수 있는 다양한 개별 사용자 요소를 제공할 뿐만 아니라 사용자가 필터 버블에 걸릴 가능성과 사용자 투표 [54]행동 사이에 의문과 연관성을 제기합니다.

Facebook의 연구는 알고리즘이 사람들[55]생각하는 것처럼 뉴스 피드를 필터링하는 데 큰 역할을 하는지 여부에 관계없이 "포용적"이라는 것을 발견했다.이 연구는 또한 "개별 선택" 또는 확인 편견이 뉴스 [55]피드에서도 걸러지는 것에 영향을 미친다는 것을 발견했다.하지만 일부 사회과학자들은 이 결론을 비판했습니다. 왜냐하면 필터 버블에 항의하는 요점은 알고리즘과 개인의 선택이 함께 작동하여 뉴스 [56]피드를 걸러내는 것이기 때문입니다.이들은 또 페이스북이 '실제 페이스북 사용자 중 9% 정도'인 작은 표본 크기, 페이스북이 외부 [57]연구자들에게 제공하지 않는 데이터에 접근할 수 있는 '페이스북 과학자'에 의해 연구가 진행돼 '재생이 불가능하다'는 점도 비판했다.

이 연구에서 평균 사용자의 페이스북 친구 중 약 15-20%만이 정치적 스펙트럼의 반대편에 가입하는 것으로 밝혀졌지만, Vox의 Julia Kaman은 이것이 잠재적으로 관점의 다양성에 긍정적인 영향을 미칠 수 있다고 이론화했다.이 "친구들"은 종종 인터넷 없이는 우리가 우리의 정치를 공유하지 않을 것 같은 지인들입니다.Facebook은, 유저가 이러한 「세컨드 티어」친구들이 투고 또는 재투고 한 컨텐츠를 보고, 그 컨텐츠와 대화할 수 있는, 독특한 환경을 조성할 가능성이 있습니다.조사 결과 진보 성향 뉴스의 24%는 보수 성향, 보수 성향 뉴스는 38%[58][59]가 진보 성향인 것으로 나타났다.이 상호작용은 사용자의 관점을 조정할 수 있는 다양한 정보와 소스를 제공할 수 있습니다.

이와 유사하게 뉴욕대학교의 트위터 필터 버블에 대한 연구는 다음과 같이 결론지었다. "개인들도 이제 뉴스 사건에 대한 더 넓은 관점에 접근할 수 있게 되었다. 그리고 이러한 정보의 대부분은 전통적인 채널을 통해서가 아니라 정치 행위자나 그들의 친구나 친척들로부터 직접 오고 있다.게다가 소셜 미디어의 인터랙티브한 성격은 개인이 사회적 유대가 약한 사람들을 포함하여 동료들과 정치적 사건에 대해 논의할 기회를 만들어 냅니다."[60]이러한 연구에 따르면, 소셜 미디어는 필터 버블과 더 깊은 정치적 양극화를 일으킬 수 있는 능력에 대한 많은 추측이 있지만, 사용자들이 접하는 정보와 의견을 다양화하고 있을 수 있다.

이 문제에 대한 하나의 동인이자 가능한 해결책은 온라인 콘텐츠에서 감정의 역할이다.2018년 연구에 따르면 메시지의 다양한 감정이 양극화 또는 수렴으로 이어질 수 있습니다. 기쁨은 감정 양극화에서 널리 퍼져 있는 반면 슬픔과 두려움은 감정 [61]수렴에서 중요한 역할을 합니다.메시지의 감정적인 내용을 비교적 쉽게 검출할 수 있기 때문에 알고리즘 권장사항의 감정적인 내용에 초점을 맞추어 보다 사회적 책임을 지는 알고리즘을 설계할 수 있습니다.

2019 Weibo 연구에 사용된 2개의 소셜 미디어 봇의 프로세스와 성장을 시각화합니다.연구에 따르면 이 다이어그램은 필터 버블 구조의 두 가지 측면을 나타내고 있습니다. 단일 토픽 주위에 사용자가 집중되어 있는 것과 주요 정보 흐름에 영향을 미치는 단방향 별 모양의 구조입니다.

소셜 봇은 필터 버블과 에코 [62][63]챔버에 기인하는 편광 및 관련 효과를 테스트하기 위해 여러 연구자들에 의해 사용되어 왔다.2018년 한 연구는 트위터의 소셜 봇을 사용하여 당파적 [62]관점에 대한 의도적인 사용자 노출을 테스트했다.이 연구는 비록 조사 결과가 정당에 등록된 미국 트위터 사용자들로 제한되어야 한다고 경고했지만, 다른 관점에 노출되는 것 사이의 당파적 차이를 보여준다고 주장했다.주요 조사 결과 중 하나는 (봇에 의해 제공된) 다른 견해에 노출된 후, 자기 등록 공화당은 더 보수적으로 변한 반면, 자기 등록 자유주의자들은 전혀 이데올로기적 변화를 보이지 않았다.중화인민공화국과 다른 연구에서는 중국에서 가장 큰 소셜 미디어 플랫폼인 웨이보(Weibo)의 소셜 봇을 사용하여 [63]양극화에 대한 필터 버블의 구조를 조사했습니다.그 연구는 양극화에 대한 두 가지 개념을 구별한다.하나는 비슷한 견해를 가진 사람들이 그룹을 형성하고, 비슷한 의견을 공유하며, 다른 관점을 차단하는 것이고(의견 양극화), 다른 하나는 사람들이 다양한 콘텐츠와 정보의 원천에 접근하지 않는 것이다(정보 양극화).연구진은 인간 자원자 대신 소셜 봇을 활용하고 의견 기반보다는 정보 양극화에 더 초점을 맞춤으로써 필터 버블의 두 가지 필수 요소, 즉 단일 주제 주위에 사용자가 집중되어 있는 것과 주요 정보 흐름에 영향을 미치는 단방향, 스타와 같은 구조가 있다는 결론을 내렸다.

2018년 6월, 플랫폼 DuckDuckGo는 Google Web Browser Platform에 대한 연구 조사를 실시했습니다.이 연구를 위해 미국 대륙의 다양한 장소에 있는 87명의 성인들은 이민, 총기 규제, 그리고 백신 접종이라는 세 개의 키워드를 동시에 검색했다.프라이빗 브라우징 모드에서도, 대부분의 유저가 독자적인 결과를 볼 수 있었습니다.구글은 다른 참가자들을 위해 포함하지 않은 일부 링크를 포함시켰고, 뉴스와 비디오 정보 상자는 상당한 변화를 보였다.구글은 검색엔진 결과 페이지(SERP) 개인화는 대부분 신화라며 공개적으로 반박했다.구글 검색 연락 담당자인 대니 설리번은 "수년에 걸쳐 구글 검색이 너무 많은 것을 개인화해서 같은 질의에 대해 다른 사람들이 서로 상당히 다른 결과를 얻을 수 있다는 신화가 발전했다"고 말했다.사실은 그렇지 않다.결과는 다를 수 있지만 대개 개인화되지 않은 [64]이유로 인해 발생합니다."

필터 기포가 설치되면 과학자들이 '후' 순간이라고 부르는 특정한 순간들을 만들어 낼 수 있다.'후' 순간은 현재 작업 또는 개체의 현재 사용과 관련된 기사, 광고, 게시물 등이 컴퓨터에 나타나는 순간입니다.과학자들은 한 젊은 여성이 커피를 마시는 것을 포함한 그녀의 일과를 수행하던 중 컴퓨터를 열고 그녀가 마시고 있는 것과 같은 브랜드의 커피에 대한 광고를 발견했을 때 이 용어를 발견했다.오늘 아침 커피를 마시면서 페이스북을 열었을 때 네스프레소 광고가 두 개 있었어요.마시고 있는 제품이 [65]눈앞의 화면에 뜨는 '와' 하는 순간입니다. '와' 하는 순간은 사람들이 발견되었을 때 발생합니다.즉, 광고 알고리즘은 판매 수익을 증가시키기 위해 특정 사용자의 "클릭 행동"에 따라 특정 사용자를 대상으로 합니다.

여러 설계자가 필터 버블의 영향을 상쇄하는 도구를 개발했습니다(see 대책 [66]참조).스위스 라디오 방송국 SRF는 2016년 [67]올해의 단어인 filterblase(필터 버블의 독일어 번역)를 선정했습니다.

대책

개인별

필터 버블: 인터넷 활동가 일라이 [68]패리저는 인터넷 거품의 증가가 로버트 퍼트먼에 의해 정의된 바와 같이 개인의 사회적 자본의 가치를 어떻게 더욱 강조하는지를 강조한다.사실, 유대 자본은 한편으로는 같은 생각을 가진 사람들 사이의 강한 유대감의 확립에 대응하고, 따라서 사회적 동질감을 강화하는 반면, 다른 한편으로는 사회적 자본을 연결하는 것은 잠재적으로 다른 이해와 관점을 가진 사람들 사이의 약한 유대감의 생성을 나타내며, 따라서 중요한 것을 도입한다.이질성이 [69]더 높아집니다.그런 의미에서 높은 가교자본은 틈새와 좁은 자기 이익을 초월하는 문제를 다루는 공간에 대한 우리의 노출을 증가시킴으로써 사회적 포용을 촉진할 가능성이 훨씬 높다.따라서 비공식적인 환경에서 더 많은 사람들과 연결함으로써 자신의 브리지 자본을 육성하는 것은 필터 버블 현상의 영향을 줄이는 효과적인 방법이 될 수 있다.

사용자는 실제로 필터 버블을 제거하기 위해 많은 액션을 취할 수 있습니다.예를 들어, 자신이 어떤 정보에 노출되어 있는지를 평가하거나 광범위한 [70]컨텐츠에 관여하고 있는지 비판적으로 생각하는 등입니다.이 견해는 사용자가 자신의 편견을 상쇄하기 위해 기술에 의존하기 보다는 미디어에 접근하는 방법에 대한 심리를 바꿔야 한다고 주장한다.사용자는 검증할 수 없거나 취약한 뉴스 소스를 의식적으로 피할 수 있습니다.IAB의 마케팅 담당 부사장인 Chris Glushko는 팩트 체크 사이트를 사용하여 가짜 [71]뉴스를 식별하는 것을 지지합니다.기술은 필터 거품을 [72]퇴치하는 데도 중요한 역할을 할 수 있습니다.

Media Bias Fact [73]Check와 같은 일부 추가 플러그인은 사람들이 필터 버블에서 벗어나 개인적인 관점을 인식하도록 돕는 것을 목적으로 합니다. 따라서 이러한 미디어는 그들의 신념과 의견과 상반되는 내용을 보여줍니다.예를 들어, Escape Your Bubble은 사용자에게 더 많은 정보를 얻고자 하는 특정 정당을 나타내도록 요청합니다.[74]그런 다음 플러그인은 잘 확립된 출처에서 해당 정당과 관련된 기사를 제안하여 사용자가 다른 [74]정당에 대해 더 많은 교육을 받을 수 있도록 장려합니다.플러그인 외에 에코 챔버를 열도록 유도한다는 미션을 가지고 만든 앱도 있습니다.UnFound.news는 AI(인공지능) 큐레이티드 뉴스 앱을 통해 독자들에게 다양하고 뚜렷한 관점에서 뉴스를 제공하고, 독자들이 자신의 편견에 굴복하지 않고 근거와 정보에 입각한 의견을 형성할 수 있도록 돕는다.또한 독자들의 독서 패턴이 한쪽으로 치우친 경우 [75][76]다른 관점을 읽도록 유도합니다.Read Across the Awally는 사용자가 다양한 [77]관점을 포함한 다양한 새로운 소스로부터 읽고 있는지 여부를 보여주는 뉴스 앱입니다.각 소스는 색상으로 조정되어 각 [77]기사의 정치적 성향을 나타냅니다.사용자가 하나의 관점에서만 뉴스를 읽을 때, 이 앱은 그것을 사용자에게 전달하고 독자들이 반대되는 [77]관점을 가진 다른 소스를 탐색하도록 장려한다.앱과 플러그인은 인간이 사용할 수 있는 도구이지만, Eli Pariser는 "분명히 당신과 [49]같지 않은 새로운 소스와 사람들을 찾는 것은 개인의 책임입니다."라고 말했다.

웹 기반 광고는 사용자를 동일한 콘텐츠에 더 많이 노출시킴으로써 필터 버블의 효과를 더욱 높일 수 있기 때문에 사용자는 검색 내역을 삭제하고 대상 광고를 끄거나 브라우저 [78][79]확장을 다운로드함으로써 많은 광고를 차단할 수 있습니다.Escape your[80] Bubble for Google Chrome과 같은 확장 기능은 콘텐츠를 큐레이팅하고 사용자가 편향된 정보에 노출되지 않도록 하는 것을 목적으로 하며, Lightbeam 및 Self-Destructing[82] Cookie와 같은[81] Mozilla Firefox 확장 기능은 사용자가 데이터 추적 방법을 시각화하고 일부 추적 쿠키를 제거할 수 있도록 합니다.일부 기업은 YaCy, DuckDuckGo, Qwant, Startpage.com, DisconnectSearx같은 익명 또는 비개인화 검색 엔진을 사용하여 웹 검색 데이터를 수집하는 것을 방지합니다.스위스 일간지 Neue Zürcher Zeitung은 기계 학습을 통해 사용자가 관심 있는 콘텐츠를 추측하는 개인화된 뉴스 엔진 앱을 베타 테스트하고 있으며,[83] "항상 놀라운 요소를 포함하고 있다"는 발상은 사용자가 과거에 팔로잉하지 않았을 것 같은 이야기들을 혼합하는 것이다.

유럽연합은 필터 버블의 영향을 줄이기 위한 조치를 취하고 있다.유럽의회는 필터 버블이 다양한 뉴스를 [84]접할 수 있는 사람들의 능력에 어떤 영향을 미치는지에 대한 조사를 후원하고 있다.또한, 그것은 시민들에게 소셜 [85]미디어에 대해 교육하는 것을 목표로 하는 프로그램을 도입했다.미국에서는 CSCW 패널이 미디어 소비자의 뉴스 취향을 넓히기 위해 뉴스 애그리게이터 앱을 사용할 것을 제안하고 있습니다.뉴스 애그리게이터 앱은 현재 뉴스 기사를 모두 스캔하여 특정 주제에 대한 다양한 관점으로 이동합니다.사용자는 다양한 인식의 뉴스 밸런서를 사용하여 뉴스를 읽을 때 왼쪽 또는 오른쪽을 시각적으로 보여주며 빨간색 막대가 크면 오른쪽, 파란색 막대가 크면 왼쪽을 나타낼 수 있다.이 뉴스 밸런서를 평가한 한 연구에서는 "제어 [86]그룹에 비해 피드백을 보는 사용자들 사이에서 보다 균형 잡힌 노출을 위해 작지만 눈에 띄는 읽기 행동 변화"가 발견되었습니다.

미디어 회사별

최근 소셜미디어 정보 필터링에 대한 우려에 비추어 페이스북은 필터 버블의 존재를 인정하고 [87]거품을 제거하기 위해 발걸음을 내디뎠다.2017년 1월, 페이스북은 일부 사용자들이 그 곳에서 [88]화제가 되는 이벤트를 보지 못하는 문제에 대응하여 트렌드 토픽 목록에서 개인화를 삭제했다.페이스북은 2013년 시행한 관련 기사 기능을 사용자가 공유 기사를 읽은 후 관련 기사를 게재하는 방식으로 되돌리겠다는 전략이다.수정된 전략은 이 과정을 뒤집고 동일한 주제에 대해 다른 관점에서 기사를 게시합니다.페이스북은 또한 평판이 좋은 출처의 기사들만 보여주는 검증 과정을 거치려고 시도하고 있다.Craigslist의 설립자와 몇몇 다른 회사들과 함께, 페이스북은 "전 세계 저널리즘에 대한 신뢰를 높이고 대중들에게 [87]더 나은 정보를 제공하기 위한" 노력에 1400만 달러를 투자했다.비록 사람들이 친구들로부터 공유된 게시물만 읽고 있어도, 적어도 이 게시물들은 신뢰할 수 있을 것이라는 생각이다.

마찬가지로, 2018년 1월 30일 현재 구글도 자사 플랫폼 내에 필터 버블 문제가 존재함을 인정했습니다.현재 구글 검색은 특정 검색 결과를 표시하고 숨기는 '권한성'과 '해당성'에 따라 알고리즘으로 순위가 매겨진 결과를 끌어내기 때문에 구글은 이에 맞서기 위해 노력하고 있다.구글은 검색엔진을 훈련시켜 질문의 문자 그대로 구문이 아닌 검색문의 의도를 인식하도록 함으로써 필터 버블의 크기를 제한하려 하고 있다.현재 이 훈련의 초기 단계는 2018년 2분기에 도입될 예정입니다.편견 및/또는 논쟁의 여지가 있는 의견과 관련된 질문은 나중까지 다루어지지 않을 것이며, 여전히 존재하는 더 큰 문제를 야기할 것이다: 검색 엔진이 진실의 결정자로 작용하는지 아니면 결정을 내리는 데 필요한 [89]지식 있는 지침으로 작용하는지.

2017년 4월 페이스북, Mozilla 및 Craigslist가 CUNY의 "News Integrity Initiative"에 1400만달러의 기부금 대부분을 기부하여 가짜 뉴스를 제거하고 보다 정직한 뉴스 미디어를 만드는 [90]데 기여했다는 소식이 알려졌다.

이후 8월 파이어폭스 웹 브라우저 제조업체인 Mozilla는 Mozilla Information Trust Initiative(MITI)의 설립을 발표했습니다.+MITI는 필터 버블의 영향과 가짜 뉴스의 확산과 싸우기 위한 제품, 연구 및 커뮤니티 기반 솔루션을 개발하기 위한 공동 노력의 역할을 할 것입니다.Mozilla의 오픈 이노베이션(Open Innovation) 팀은, 읽고 쓰는 능력, 연구, 창조적 [91]개입에 관한 제품에 특히 초점을 맞추어, 잘못된 정보에 대처하기 위해서, 이니셔티브를 리드하고 있습니다.

윤리적 영향

클라우드 서비스의 인기가 높아짐에 따라 필터 버블을 구축하는 데 사용되는 개인화된 알고리즘이 더욱 [92]확산될 것으로 예상됩니다.학자들은 특히 개인의 자유, 보안, 정보 [93]편향의 영역에서 필터 버블이 소셜 미디어 사용자에게 미치는 영향을 윤리적 관점에서 검토하기 시작했다.인기 있는 소셜 미디어나 개인화된 검색 사이트의 필터 버블에 의해 사용자가 직접 동의하거나 [92]인지하지 않고 볼 수 있는 특정 콘텐츠가 결정될 수 있습니다. 이 콘텐츠는 해당 콘텐츠를 큐레이션하는 데 사용되는 알고리즘에 의해 결정됩니다.행동 패턴에서 나타나는 자체 제작 콘텐츠는 부분적인 정보 [94]실명으로 이어질 수 있습니다.필터 버블의 사용에 대한 비판론자들은 필터 [92]버블의 확산으로 인해 개인이 자신의 소셜 미디어 경험에 대한 자율성을 잃고 그들의 정체성이 사회적으로 구축될 수 있다고 추측한다.

테크놀로지스트, 소셜 미디어 엔지니어, 컴퓨터 스페셜리스트도 필터 [95]버블의 유행을 조사했습니다.페이스북의 설립자인 마크 저커버그와 필터 버블의 저자 엘리 패리저는 사생활과 정보 [96][97]양극화의 위험에 대해 우려를 표명했다.개인화된 검색 엔진과 소셜 미디어 플랫폼 사용자의 정보는 개인 정보가 아니지만,[96] 일부 사람들은 그래야 한다고 생각한다.사생활에 대한 우려는 정보 기술자들이 사용자의 온라인 활동을 취하여 향후 [97]관련 정보에 대한 노출을 조작하는 것이 도덕적인지에 대한 논쟁을 낳았다.

일부 학자들은 필터 거품이 개인 및 사회 복지에 미치는 영향, 즉 일반 대중에게 건강 정보를 전파하고 건강 관련 [15][16][17][98]행동을 바꾸기 위한 인터넷 검색 엔진의 잠재적 영향에 대해 우려를 표명했다.2019년 다학제 도서는 건강 오보에 [17]관해 필터 버블이 수행하는 역할에 대한 연구와 관점을 보고했다.저널리즘, 법률, 의학, 건강심리학 등 다양한 분야에서 인용한 이 책은 다양한 논란이 되고 있는 건강신앙(예: 대체의학과 의사과학)뿐만 아니라 거품과 에코 챔버의 다양한 주제에 대한 부정적인 영향에 대한 잠재적 치료법을 다루고 있다.자살과 관련된 검색 엔진 결과에 대한 필터 버블의 잠재적 영향에 대한 2016년 연구는 알고리즘이 헬프라인과 유사한 검색 결과를 사용자에게 표시할지 여부에 중요한 역할을 한다는 것을 발견했고 그들의 연구가 건강 [16]정책에 미칠 수 있는 영향을 논의했다.크로아티아 의학 저널의 또 다른 2016년 연구는 필터 버블이 건강 정보에 미치는 잠재적인 유해한 영향을 완화하기 위한 몇 가지 전략을 제안했다. 예를 들어 필터 버블과 그 관련 효과에 대해 대중에게 더 많이 알리고, 사용자들은 [Google] 검색 엔진을 대체하기 위해 선택하며, 그 과정에 대한 더 많은 설명을 제공한다.검색 엔진은 표시되는 [15]결과를 결정하기 위해 사용합니다.

개별 소셜 미디어 사용자가 보는 컨텐츠는 필터 버블을 생성하는 알고리즘의 영향을 받기 때문에 소셜 미디어 플랫폼 사용자는 확인 편견[99]더 민감하고 편향되고 잘못된 [100]정보에 노출될 수 있습니다.개인화된 [101]필터링의 결과로 소셜 정렬 및 기타 의도하지 않은 차별적 관행도 예상됩니다.

2016년 미국 대선에 비추어 볼 때, 학자들은 필터 거품이 민주주의와 민주적 과정에 미치는 영향과 "이데올로기 미디어"[10]의 상승에 대해서도 우려를 표명했다.이러한 학자들은 필터 버블이 개인화된 소셜 피드를 만들어 다양한 관점과 [102]주변 커뮤니티로부터 고립되기 때문에 사용자가 "편협한 자기 이익을 넘어" 생각할 수 없게 될 것을 우려하고 있습니다.이러한 이유로 소셜 미디어를 보다 세렌디피티하게 설계할 수 있는 가능성이 높아지고 있습니다.즉, 도전적인 정치 정보를 포함해 자신의 필터 거품 밖에 있는 콘텐츠를 적극적으로 추천하고,[103][104][105] 최종적으로는 사용자에게 권한을 부여하는 필터와 도구를 제공하는 것입니다.필터 버블이 가짜 뉴스의 확산에 어떻게 기여하는지, 그리고 이것이 사용자들의 [10][106][107]투표 방식 등 정치적 성향에 어떤 영향을 미칠지도 관심사다.

2018년 3월 Cambridge Analytica가 2016년 대선 기간 동안 최소 8,700만 개의 페이스북 프로필에 대한 사용자 데이터를 수집 및 사용한 사실이 밝혀지면서 필터 [108]버블의 윤리적 의미가 강조되었습니다.Cambridge Analytica Christopher Wylie의 공동 설립자 겸 내부고발자는 이 회사가 이러한 사용자의 "심리적인" 프로필을 개발하고 그 정보를 사용하여 투표 행동을 [109]형성할 수 있는 방법을 자세히 설명했습니다.Cambridge Analytica와 같은 제3자가 사용자 데이터에 액세스하면 사용자가 만든 기존 필터 버블이 격앙되고 증폭되어 기존의 편견이 인위적으로 증가하고 사회가 더욱 분열될 수 있습니다.

위험들

필터 버블은 미디어 퍼스낼라이제이션의 급증에 기인하고 있으며, 이로 인해 사용자가 갇힐 수 있습니다.AI를 사용하여 제품을 개인화하면 사용자는 도전 없이 자신의 관점을 강화하는 콘텐츠만 볼 수 있습니다.페이스북과 같은 소셜 미디어 웹사이트는 또한 사용자들이 콘텐츠의 출처를 결정하는 것을 어렵게 만드는 방식으로 콘텐츠를 제공할 수 있으며, 그 출처가 신뢰할 수 있는 것인지 [110]가짜인지를 스스로 결정하도록 할 수 있다.그것은 사람들이 그들이 듣고 싶은 것을 듣는 것에 익숙해지도록 할 수 있고, 반대되는 관점을 볼 때 더 급진적으로 반응하게 할 수 있다.필터 버블에 의해, 상대적인 시점을 부정확하게 인식해,[111][110][112] 미디어가 소비자에게 표시를 강요할 수 있습니다.

필터 버블은 이미 생각하고 [113]있는 것을 보강한다는 것이 연구 결과다.따라서 다양한 관점을 [113]제공하는 자원을 활용하는 것이 매우 중요합니다.

개념의 확장

필터 버블의 개념은 다른 분야로 확장되어 정치적 관점에 따라 자기 분리되는 사회뿐만 아니라 경제적, 사회적, 문화적 [114]상황도 묘사하고 있다.그 거품이 튀는 것은 더 넓은 공동체의 상실을 초래하고, 예를 들어, 아이들이 [114]없는 어른들에게는 매력적이지 않게 하기 위해 특별히 계획되지 않은 한, 아이들은 사교 행사에 속하지 않는다는 느낌을 갖게 한다.

「 」를 참조해 주세요.

메모들

  1. ^ 사이버 발칸화(hyper-balkanization)란 용어는 인터넷과 관련된 사이버와 발칸화(Balcanization)의 혼합어로 역사적으로 언어, 종교 및 문화에 따라 세분화된 유럽의 지역을 가리킵니다.이 용어는 MIT 연구원 Van Alstyne와 Brynjolfsson의 논문에서 만들어졌습니다.

레퍼런스

  1. ^ Technopedia, Definition – 필터 버블의 의미2017-10-10 Wayback Machine에서 아카이브, 2017년 10월 10일 취득, "...필터 버블은 지적 고립입니다.웹사이트가 알고리즘을 사용하여 사용자가 보고 싶어하는 정보를 선택적으로 가정하고 이 가정에 따라 사용자에게 정보를 제공할 때 발생할 수 있습니다.따라서 필터 버블은 사용자가 모순되는 관점에 대한 접촉을 크게 줄여 사용자가 지적 고립을 초래할 수 있습니다."
  2. ^ Bozdag, Engin (September 2013). "Bias in algorithmic filtering and personalization". Ethics and Information Technology. 15 (3): 209–227. doi:10.1007/s10676-013-9321-6. S2CID 14970635.
  3. ^ 웹 버그(슬랭)
  4. ^ 웹사이트 방문자 추적
  5. ^ 허핑턴 포스트, 허핑턴 포스트 "필터 거품이 우리의 마음을 수축시키고 있나요?"Wayback Machine에서 2016-11-03년 아카이브 완료
  6. ^ Encrypt, Search (2019-02-26). "What Are Filter Bubbles & How To Avoid Them". Search Encrypt Blog. Archived from the original on 2019-02-25. Retrieved 2019-03-19.
  7. ^ a b c d e Boutin, Paul (May 20, 2011). "Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?". The Wall Street Journal. Archived from the original on April 5, 2015. Retrieved August 15, 2011. By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ...
  8. ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (2012). "Auralist: introducing serendipity into music recommendation". Proceedings of the Fifth ACM International Conference on Web Search and Data Mining - WSDM '12: 13. doi:10.1145/2124295.2124300. S2CID 2956587.
  9. ^ "The author of The Filter Bubble on how fake news is eroding trust in journalism". The Verge. 2016-11-16. Archived from the original on 2017-04-19. Retrieved 2017-04-19.
  10. ^ a b c Baer, Drake. "The 'Filter Bubble' Explains Why Trump Won and You Didn't See It Coming". Science of Us. Archived from the original on 2017-04-19. Retrieved 2017-04-19.
  11. ^ a b DiFranzo, Dominic; Gloria-Garcia, Kristine (5 April 2017). "Filter bubbles and fake news". XRDS. 23 (3): 32–35. doi:10.1145/3055153. S2CID 7069187.
  12. ^ a b Jasper Jackson (8 January 2017). "Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit: Upworthy chief warned about dangers of the internet's echo chambers five years before 2016's votes". The Guardian. Archived from the original on 7 March 2017. Retrieved March 3, 2017. ..."If you only see posts from folks who are like you, you're going to be surprised when someone very unlike you wins the presidency," Pariser tells the Guardian....
  13. ^ Mostafa M. El-Bermawy (November 18, 2016). "Your Filter Bubble is Destroying Democracy". Wired. Archived from the original on March 9, 2017. Retrieved March 3, 2017. ...The global village that was once the internet ... digital islands of isolation that are drifting further apart each day ... your experience online grows increasingly personalized ...
  14. ^ Drake Baer (November 9, 2016). "The 'Filter Bubble' Explains Why Trump Won and You Didn't See It Coming". New York Magazine. Archived from the original on February 26, 2017. Retrieved March 3, 2017. ...Trump's victory is blindsiding ... because, as media scholars understand it, we increasingly live in a "filter bubble": The information we take in is so personalized that we're blind to other perspectives....
  15. ^ a b c Holone, Harald (June 2016). "The filter bubble and its effect on online personal health information". Croatian Medical Journal. 57 (3): 298–301. doi:10.3325/cmj.2016.57.298. PMC 4937233. PMID 27374832.
  16. ^ a b c Haim, Mario; Arendt, Florian; Scherr, Sebastian (February 2017). "Abyss or Shelter? On the Relevance of Web Search Engines' Search Results When People Google for Suicide". Health Communication. 32 (2): 253–258. doi:10.1080/10410236.2015.1113484. PMID 27196394. S2CID 3399012.
  17. ^ a b c "Medical Misinformation and Social Harm in Non-Science Based Health Practices: A Multidisciplinary Perspective". CRC Press. Archived from the original on 2020-08-04. Retrieved 2020-04-22.
  18. ^ Kevin J. Delaney (February 21, 2017). "Filter bubbles are a serious problem with news, says Bill Gates". Quartz. Archived from the original on March 4, 2017. Retrieved March 3, 2017. ...Gates is one of a growing number of technology leaders wrestling with the issue of filter bubbles, ...
  19. ^ a b c Parramore, Lynn (October 10, 2010). "The Filter Bubble". The Atlantic. Archived from the original on August 22, 2017. Retrieved April 20, 2011. Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....
  20. ^ a b c d e f g h Weisberg, Jacob (June 10, 2011). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?". Slate. Archived from the original on June 12, 2011. Retrieved August 15, 2011.
  21. ^ a b c Gross, Doug (May 19, 2011). "What the Internet is hiding from you". CNN. Archived from the original on April 9, 2016. Retrieved August 15, 2011. I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.
  22. ^ a b c Lazar, Shira (June 1, 2011). "Algorithms and the Filter Bubble Ruining Your Online Experience?". Huffington Post. Archived from the original on April 13, 2016. Retrieved August 15, 2011. a filter bubble is the figurative sphere surrounding you as you search the Internet.
  23. ^ Pariser, Eli (2011-05-12). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin. ISBN 9781101515129. Archived from the original on 2021-01-19. Retrieved 2020-10-11.
  24. ^ "How Filter Bubbles Distort Reality: Everything You Need to Know". 2017-07-31. Archived from the original on 2019-07-03. Retrieved 2019-06-23.
  25. ^ Nikolov, Dimitar; Oliveira, Diego F.M.; Flammini, Alessandro; Menczer, Filippo (2 December 2015). "Measuring online social bubbles". PeerJ Computer Science. 1: e38. arXiv:1502.07162. Bibcode:2015arXiv150207162N. doi:10.7717/peerj-cs.38.
  26. ^ Pariser, Eli (March 2011). "Beware online "filter bubbles"". Archived from the original on 2018-05-28. Retrieved 2018-05-30.
  27. ^ sdf (2004-06-23). "John Gorenfeld, Moon the Messiah, and the Media Echo Chamber". Daily Kos. Archived from the original on 2016-05-02. Retrieved 2017-09-24.
  28. ^ Jamieson, Kathleen Hall; Cappella, Joseph N. (2008-07-22). Echo Chamber: Rush Limbaugh and the Conservative Media Establishment. Oxford University Press. ISBN 978-0-19-536682-2. Retrieved 2017-09-24.
  29. ^ Hosanagar, Kartik (2016-11-25). "Blame the Echo Chamber on Facebook. But Blame Yourself, Too". Wired. Archived from the original on 2017-09-25. Retrieved 2017-09-24.
  30. ^ DiFonzo, Nicholas (2011-04-21). "The Echo-Chamber Effect". The New York Times. Archived from the original on 2017-06-13. Retrieved 2017-09-24.
  31. ^ Pariser, Eli (March 2011). "Beware online 'filter bubbles'". TED.com. Archived from the original on 2017-09-22. Retrieved 2017-09-24.
  32. ^ "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Archived from the original on 2011-05-03. Retrieved April 20, 2011. Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.
  33. ^ a b Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Archived from the original on March 13, 2011. Retrieved April 20, 2011. When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.
  34. ^ "Invisible sieve: Hidden, specially for you". The Economist. 30 June 2011. Archived from the original on 3 July 2011. Retrieved June 27, 2011. Mr Pariser's book provides a survey of the internet's evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.
  35. ^ a b Hern (2017-05-22). "How social media filter bubbles and algorithms influence the election". The Guardian. Archived from the original on 2018-05-31. Retrieved 2018-05-30.
  36. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (March 1997) [Copyright 1996]. "Electronic Communities: Global Village or Cyberbalkans?" (PDF). Archived (PDF) from the original on 2016-04-05. Retrieved 2017-09-24.
  37. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). "Could the Internet Balkanize Science?". Science. 274 (5292): 1479–1480. Bibcode:1996Sci...274.1479V. doi:10.1126/science.274.5292.1479. S2CID 62546078.
  38. ^ Alex Pham; Jon Healey (September 24, 2005). "Systems hope to tell you what you'd like: 'Preference engines' guide users through the flood of content". Chicago Tribune. Archived from the original on December 8, 2015. Retrieved December 4, 2015. ...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools.
  39. ^ Elanor Colleoni; Alessandro Rozza; Adam Arvidsson (April 2014). "Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data". Journal of Communication. 64 (2): 317–332. doi:10.1111/jcom.12084. hdl:10281/66011.
  40. ^ Obama, Barack (10 January 2017). President Obama's Farewell Address (Speech). Washington, D.C. Archived from the original on 24 January 2017. Retrieved 24 January 2017.
  41. ^ Grankvist, Per (2018-02-08). The Big Bubble: How Technology Makes It Harder to Understand the World. United Stories Publishing. p. 179. ISBN 978-91-639-5990-5.
  42. ^ a b Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (December 2013). "Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers". Management Science, Forthcoming. SSRN 1321962.
  43. ^ Ludwig, Amber. "Google Personalization on Your Search Results Plus How to Turn it Off". NGNG. Archived from the original on August 17, 2011. Retrieved August 15, 2011. Google customizing search results is an automatic feature, but you can shut this feature off.
  44. ^ Bruns, Axel (29 November 2019). "Filter bubble". Internet Policy Review. 8 (4). doi:10.14763/2019.4.1426.
  45. ^ Davies, Huw C (September 2018). "Redefining Filter Bubbles as (Escapable) Socio-Technical Recursion". Sociological Research Online. 23 (3): 637–654. doi:10.1177/1360780418763824. S2CID 149367030. Archived from the original on 2021-01-19. Retrieved 2020-08-29.
  46. ^ Dahlgren, Peter M. (29 January 2021). "A critical review of filter bubbles and a comparison with selective exposure". Nordicom Review. 42 (1): 15–33. doi:10.2478/nor-2021-0002.
  47. ^ Flaxman, Seth; Goel, Sharad; Rao, Justin M. (2016). "Filter Bubbles, Echo Chambers, and Online News Consumption". Public Opinion Quarterly. 80 (S1): 298–320. doi:10.1093/poq/nfw006. S2CID 2386849.
  48. ^ Chitra, Uthsav; Musco, Christopher (2020). "Analyzing the Impact of Filter Bubbles on Social Network Polarization". WSDM '20: Proceedings of the 13th International Conference on Web Search and Data Mining. pp. 115–123. doi:10.1145/3336191.3371825.
  49. ^ a b "5 Questions with Eli Pariser, Author of 'The Filter Bubble'". Time. 16 May 2011. Archived from the original on 14 April 2017. Retrieved 24 May 2017.
  50. ^ a b c d e Bleiberg, Joshua; West, Darrell M. (2017-05-24). "Political polarization on Facebook". Brookings Institution. Archived from the original on 2017-10-10. Retrieved 2017-05-24.
  51. ^ Bakshy, E.; Messing, S.; Adamic, L. A. (5 June 2015). "Exposure to ideologically diverse news and opinion on Facebook". Science. 348 (6239): 1130–1132. Bibcode:2015Sci...348.1130B. doi:10.1126/science.aaa1160. PMID 25953820. S2CID 206632821.
  52. ^ Lumb (2015-05-08). "Why Scientists Are Upset About The Facebook Filter Bubble Study". Archived from the original on 2017-11-11. Retrieved 2017-11-10.
  53. ^ Oremus, Will (April 5, 2017). "The Filter Bubble Revisited". Slate Magazine. Archived from the original on February 6, 2020. Retrieved March 2, 2020.
  54. ^ a b Sindermann, Cornelia; Elhai, Jon D.; Moshagen, Morten; Montag, Christian (January 2020). "Age, gender, personality, ideological attitudes and individual differences in a person's news spectrum: how many and who might be prone to 'filter bubbles' and 'echo chambers' online?". Heliyon. 6 (1): e03214. doi:10.1016/j.heliyon.2020.e03214. PMC 7002846. PMID 32051860.
  55. ^ a b Pariser, Eli (May 7, 2015). "Fun facts from the new Facebook filter bubble study". Medium. Archived from the original on November 11, 2017. Retrieved October 24, 2017.
  56. ^ Lumb, David (May 8, 2015). "Why Scientists Are Upset About The Facebook Filter Bubble Study". Fast Company. Archived from the original on October 23, 2017. Retrieved October 24, 2017.
  57. ^ Pariser, Eli (May 7, 2015). "Did Facebook's Big Study Kill My Filter Bubble Thesis?". Wired. Archived from the original on November 11, 2017. Retrieved October 24, 2017.
  58. ^ "Contrary to what you've heard, Facebook can help puncture our political "bubbles"". Vox. Archived from the original on 2018-06-13. Retrieved 2018-05-30.
  59. ^ Bakshy, E.; Messing, S.; Adamic, L. A. (2015). "Exposure to ideologically diverse news and opinion on Facebook". Science. 348 (6239): 1130–1132. Bibcode:2015Sci...348.1130B. doi:10.1126/science.aaa1160. PMID 25953820. S2CID 206632821.
  60. ^ Barberá, Pabló (August 2015). "How Social Media Reduces Mass Political Polarization. Evidence from Germany, Spain, and the U.S.". Wall Street Journal. CiteSeerX 10.1.1.658.5476.
  61. ^ Hilbert, M., Ahmed, S., Cho, J., Liu, B. 및 Luu, J.(2018).알고리즘과의 통신: 온라인 에코 챔버로부터의 감정 기반 탈출의 전송 엔트로피 분석.커뮤니케이션 방법 및 측정, 12(4), 260–275.https://doi.org/10.1080/19312458.2018.1479843 Wayback Machine에서 2021-01-19 아카이브, https://www.martinhilbert.net/communicating-with-algorithms/ Wayback Machine에서 2019-05-09 아카이브
  62. ^ a b Bail, Christopher; Argyle, Lisa; Brown, Taylor; Chen, Haohan; Hunzaker, M.B.F.; Lee, Jaemin (2018). "Exposure to opposing views on social media can increase political polarization" (PDF). Proceedings of the National Academy of Sciences. 115 (37): 9216–9221. doi:10.1073/pnas.1804840115. PMC 6140520. PMID 30154168. Archived (PDF) from the original on 2020-04-10. Retrieved 2020-04-22.
  63. ^ a b Min, Yong; Jiang, Tingjun; Jin, Cheng; Li, Qu; Jin, Xiaogang (2019). "Endogenetic structure of filter bubble in social networks". Royal Society Open Science. 6 (11): 190868. arXiv:1907.02703. Bibcode:2019RSOS....690868M. doi:10.1098/rsos.190868. PMC 6894573. PMID 31827834.
  64. ^ Statt, Nick (2018-12-04). "Google personalizes search results even when you're logged out, new study claims". The Verge. Archived from the original on 2020-07-31. Retrieved 2020-04-22.
  65. ^ Bucher, Taina (25 Feb 2016). "The algorithmic imaginary: exploring the ordinary effects of Facebook algorithms". Information, Communication & Society. 20 – via Taylor & Francis Online.
  66. ^ "How do we break filter bubble and design for democracy?". March 3, 2017. Archived from the original on March 3, 2017. Retrieved March 3, 2017.
  67. ^ ""Filterblase" ist das Wort des Jahres 2016". December 7, 2016. Archived from the original on December 20, 2016. Retrieved December 27, 2016.
  68. ^ Eli Pariser (May 2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press. p. 17. ISBN 978-1-59420-300-8.
  69. ^ Stephen Baron; John Field; Tom Schuller (November 30, 2000). "Social capital: A review and critique.". Social Capital: Critical perspectives. Oxford University Press. ISBN 9780199243679.
  70. ^ "Are we stuck in filter bubbles? Here are five potential paths out". Nieman Lab. Archived from the original on 2017-03-04. Retrieved 2017-03-03.
  71. ^ Glushko, Chris (2017-02-08). "Pop the Personalization Filter Bubbles and Preserve Online Diversity". Marketing Land. Archived from the original on 2017-03-15. Retrieved 22 May 2017.
  72. ^ Ritholtz, Barry. "Try Breaking Your Media Filter Bubble". Bloomberg. Archived from the original on 2017-08-21. Retrieved 22 May 2017.
  73. ^ "Official Media Bias Fact Check Icon". chrome.google.com. Archived from the original on 2020-03-13. Retrieved 2020-04-30.
  74. ^ a b "Be More Accepting of Others – EscapeYourBubble". escapeyourbubble.com. Archived from the original on 2017-05-19. Retrieved 2017-05-24.
  75. ^ "AI meets News". unfound.news. Archived from the original on 2018-06-11. Retrieved 2018-06-12.
  76. ^ "Echo chambers, algorithms and start-ups". LiveMint. Archived from the original on 2018-10-02. Retrieved 2018-06-12.
  77. ^ a b c "A news app aims to burst filter bubbles by nudging readers toward a more "balanced" media diet". Nieman Lab. Archived from the original on 2017-05-15. Retrieved 2017-05-24.
  78. ^ "uBlock Origin – An efficient blocker for Chromium and Firefox. Fast and lean". GitHub. 2018-11-14. Archived from the original on 2017-02-25. Retrieved 2017-03-03.
  79. ^ "Privacy Badger". 2018-07-10. Archived from the original on 2015-07-26. Retrieved 2017-03-03.
  80. ^ "Who do you want to know better?". Escape Your Bubble. Archived from the original on 2017-03-04. Retrieved 2017-03-03.
  81. ^ "Shine a Light on Who's Watching You". Lightbeam. Archived from the original on 2017-03-04. Retrieved 2017-03-03.
  82. ^ "Self-destructing cookies". Add-ons. Archived from the original on 2017-03-13. Retrieved 2017-03-03.
  83. ^ Mădălina Ciobanu (3 March 2017). "NZZ is developing an app that gives readers personalised news without creating a filter bubble: The app uses machine learning to give readers a stream of 25 stories they might be interested in based on their preferences, but 'always including an element of surprise'". Journalism.co.uk. Archived from the original on 3 March 2017. Retrieved March 3, 2017. ... if, based on their consumption history, someone has not expressed an interest in sports, their stream will include news about big, important stories related to sports,...
  84. ^ Catalina Albeanu (17 November 2016). "Bursting the filter bubble after the US election: Is the media doomed to fail? At an event in Brussels this week, media and politicians discussed echo chambers on social media and the fight against fake news". Journalism.co.uk. Archived from the original on 10 March 2017. Retrieved March 3, 2017. ... EU referendum in the UK on a panel at the "Politicians in a communication storm" event... On top of the filter bubble, partisan Facebook pages also served up a diet heavy in fake news....
  85. ^ "European Commission". Archived from the original on 2017-03-04. Retrieved 2017-03-03.
  86. ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini (2013). "Bursting your (Filter) bubble". Proceedings of the 2013 conference on Computer supported cooperative work companion - CSCW '13. p. 95. doi:10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID 20865375.
  87. ^ a b Vanian, Jonathan (2017-04-25). "Facebook Tests Related Articles Feature to Fight Filter Bubbles". Fortune.com. Archived from the original on 2017-09-25. Retrieved 2017-09-24.
  88. ^ Sydell, Laura (25 January 2017). "Facebook Tweaks its 'Trending Topics' Algorithm to Better Reflect Real News". KQED Public Media. NPR. Archived from the original on 26 February 2018. Retrieved 5 April 2018.
  89. ^ Hao, Karen. "Google is finally admitting it has a filter-bubble problem". Quartz. Archived from the original on 2018-05-04. Retrieved 2018-05-30.
  90. ^ "Facebook, Mozilla and Craigslist Craig fund fake news firefighter". Archived from the original on 2018-11-23. Retrieved 2019-01-14.
  91. ^ "The Mozilla Information Trust Initiative: Building a movement to fight misinformation online". The Mozilla Blog. Archived from the original on 2019-01-14. Retrieved 2019-01-14.
  92. ^ a b c Bozdag, Engin; Timmerman, Job. "Values in the filter bubble Ethics of Personalization Algorithms in Cloud Computing". Research Gate. Archived from the original on 14 December 2020. Retrieved 6 March 2017.
  93. ^ Al-Rodhan, Nayef. "The Many Ethical Implications of Emerging Technologies". Scientific American. Archived from the original on 8 April 2017. Retrieved 6 March 2017.
  94. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd (16 March 2018). "Burst of the Filter Bubble?". Digital Journalism. 6 (3): 330–343. doi:10.1080/21670811.2017.1338145. S2CID 168906316.
  95. ^ "The Filter Bubble raises important issues – You just need to filter them out for yourself". Rainforest Action Network. Archived from the original on 8 April 2017. Retrieved 6 March 2017.
  96. ^ a b Sterling, Greg (2017-02-20). "Mark Zuckerberg's manifesto: How Facebook will connect the world, beat fake news and pop the filter bubble". Marketing Land. Archived from the original on 2017-03-08. Retrieved 6 March 2017.
  97. ^ a b Morozov, Evgeny (2011-06-10). "Your Own Facts". The New York Times. Archived from the original on 2017-03-04. Retrieved 6 March 2017.
  98. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (12 December 2005). "Trust and Sources of Health Information: The Impact of the Internet and Its Implications for Health Care Providers: Findings From the First Health Information National Trends Survey". Archives of Internal Medicine. 165 (22): 2618–24. doi:10.1001/archinte.165.22.2618. PMID 16344419.
  99. ^ El-Bermawy, Mostafa (2016-11-18). "Your filter bubble is destroying democracy". Wired. Archived from the original on 2017-03-09. Retrieved 6 March 2017.
  100. ^ "How to Burst the "Filter Bubble" that Protects Us from Opposing Views". MIT Technology Review. Archived from the original on 19 January 2021. Retrieved 6 March 2017.
  101. ^ Borgesius, Frederik; Trilling, Damian; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali (2016-03-31). "Should we worry about filter bubbles?". Internet Policy Review. Archived from the original on 2017-03-20. Retrieved 6 March 2017.
  102. ^ Pariser, Eli (2011). The Filter Bubble: How the New Personalized Web is Changing What We Read and How We Think. New York: Penguin Press. ISBN 978-1-59420-300-8.
  103. ^ "In praise of serendipity". The Economist. 9 March 2017. Archived from the original on 15 January 2019. Retrieved 14 January 2019.
  104. ^ Reviglio, Urbano (June 2019). "Serendipity as an emerging design principle of the infosphere: challenges and opportunities". Ethics and Information Technology. 21 (2): 151–166. doi:10.1007/s10676-018-9496-y. S2CID 57426650.
  105. ^ Harambam, Jaron; Helberger, Natali; van Hoboken, Joris (28 November 2018). "Democratizing algorithmic news recommenders: how to materialize voice in a technologically saturated media ecosystem". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180088. Bibcode:2018RSPTA.37680088H. doi:10.1098/rsta.2018.0088. PMC 6191663. PMID 30323002.
  106. ^ Herrman, John (August 24, 2016). "Inside Facebook's (Totally Insane, Unintentionally Gigantic, Hyperpartisan) Political-Media Machine". The New York Times. Archived from the original on October 19, 2017. Retrieved October 24, 2017.
  107. ^ Del Vicario, Michela; Bessi, Alessandro; Zollo, Fabiana; Petroni, Fabio; Scala, Antonio; Caldarelli, Guido; Stanley, H. Eugene; Quattrociocchi, Walter (19 January 2016). "The spreading of misinformation online". Proceedings of the National Academy of Sciences. 113 (3): 554–559. Bibcode:2016PNAS..113..554D. doi:10.1073/pnas.1517441113. PMC 4725489. PMID 26729863.
  108. ^ Granville, Kevin (19 March 2018). "Facebook and Cambridge Analytica: What You Need to Know as Fallout Widens". The New York Times. Archived from the original on 19 October 2018. Retrieved 19 October 2018.
  109. ^ Meredith, Sam (10 April 2018). "Facebook-Cambridge Analytica: A timeline of the data hijacking scandal". CNBC. Archived from the original on 19 October 2018. Retrieved 19 October 2018.
  110. ^ a b Gross, Michael (January 2017). "The dangers of a post-truth world". Current Biology. 27 (1): R1–R4. doi:10.1016/j.cub.2016.12.034.
  111. ^ "How Filter Bubbles Distort Reality: Everything You Need to Know". Farnam Street. 2017-07-31. Archived from the original on 2019-05-20. Retrieved 2019-05-21.
  112. ^ Dish, The Daily (2010-10-10). "The Filter Bubble". The Atlantic. Archived from the original on 2017-08-22. Retrieved 2019-05-21.
  113. ^ a b "Archived copy". Archived from the original on 2020-10-23. Retrieved 2020-10-22.{{cite web}}: CS1 maint: 제목으로 아카이브된 복사(링크)
  114. ^ a b Menkedick, Sarah (14 May 2020). "Why are American kids treated as a different species from adults?". Aeon. Archived from the original on 2020-05-15. Retrieved 2020-05-15.

추가 정보

외부 링크