알고리즘 래디컬라이제이션
Algorithmic radicalization알고리즘 급진화(또는 급진화 파이프라인)는 유튜브와 페이스북과 같은 인기 소셜 미디어 사이트의 알고리즘이 사용자를 시간이 지남에 따라 점진적으로 더 극단적인 콘텐츠로 유도하여 급진화된 극단주의 정치적 견해를 발전시키는 개념입니다.알고리즘은 좋아요/좋아요부터 게시물에 사용된 시간까지 사용자 상호작용을 기록하여 사용자의 참여를 유지하기 위한 끝없는 미디어를 생성합니다.에코 챔버 채널을 통해 소비자는 미디어 선호 및 자기 [1][2][3][4]확인을 통해 보다 양극화됩니다.
알고리즘 급진화는 종종 소셜 미디어 회사들이 [5][6]에코 챔버 채널을 제거하는 것이 최선의 이익이 되지 않기 때문에 논란의 여지가 있는 현상으로 남아 있습니다.소셜 미디어 회사들이 알고리즘 급진화의 존재를 인정했지만, 각자가 이 증가하는 위협을 어떻게 관리할지는 여전히 불분명합니다.
소셜 미디어 에코 챔버 및 필터 버블
소셜 미디어 플랫폼은 사용자의 관심사와 좋아요를 학습하여 사용자가 자신의 피드에서 경험을 수정하여 참여하고 스크롤할 수 있도록 합니다.에코 챔버는 사용자가 자신의 생각을 확대하거나 강화하는 신념을 발견하고 폐쇄된 [7]시스템에서 비슷한 생각을 가진 사용자 그룹을 형성할 때 형성됩니다.에코 챔버의 문제는 반대되는 믿음 없이 정보를 퍼뜨리고 확인 편향을 초래할 수 있다는 것입니다.집단 분극 이론에 따르면, 에코 챔버는 잠재적으로 사용자와 집단을 더 극단적으로 급진화된 [8]위치로 이끌 수 있습니다.국립 의학 도서관에 따르면, "온라인 사용자들은 자신의 세계관에 충실한 정보를 선호하고, 반대하는 정보를 무시하며, 공유된 이야기를 중심으로 양극화된 그룹을 형성하는 경향이 있습니다.게다가 양극화가 심하면 오보가 급속히 [9]확산됩니다."
페이스북의 알고리즘
페이스북의 알고리즘은 사용자가 상호작용하고 싶어하는 콘텐츠를 추천하는 데 초점을 맞추고 있습니다.그들은 친구들의 인기 있는 게시물, 바이러스성 내용, 그리고 때로는 분열적인 내용을 우선 순위를 매깁니다.각 피드는 사용자의 특정 관심사에 맞게 개별화되어 있어 때때로 사용자를 문제가 [10]많은 컨텐츠의 에코 챔버로 유도할 수 있습니다.사용자는 "광고 환경설정" 페이지로 이동하여 알고리즘이 사용하는 관심 목록을 찾을 수 있습니다.Pew Research 연구에 따르면, Facebook 사용자의 74%는 [11]연구에서 해당 페이지로 안내되기 전까지 해당 목록이 존재하는지 몰랐습니다.페이스북이 사용자들에게 정치적 꼬리표를 붙이는 것도 비교적 흔한 일입니다.최근 몇 년 동안, 페이스북은 사용자들이 그들의 피드에서 보는 내용과 그들에게 추천하는 것을 바꾸기 위해 인공지능을 사용하기 시작했습니다.The Facebook Files로 알려진 문서는 그들의 AI 시스템이 다른 모든 것보다 사용자 참여를 우선시한다는 것을 밝혔습니다.페이스북 파일은 또한 인공지능 시스템을 통제하는 [12]것이 어렵다는 것을 증명했습니다.
페이스북의 주장들
2021년에 유출된 2019년 8월 내부 메모에서 페이스북은 "우리 플랫폼의 메커니즘이 [13][14]중립적이지 않다"고 인정하면서 최대 수익에 도달하기 위해서는 참여에 대한 최적화가 필요하다고 결론 내렸습니다.참여도를 높이기 위해 알고리즘은 증오, 잘못된 정보, 정치가 앱 [15]활동에 중요하다는 것을 발견했습니다.메모에서 언급한 바와 같이, "소이한 자료가 많을수록 사용자들이 더 많이 참여하게 하고, [13]알고리즘에 의해 더 많은 힘을 얻게 합니다."2018년 연구에 따르면, "거짓 소문은 진실한 정보보다 더 빠르고 더 넓게 퍼집니다.그들은 거짓이 진실보다 트위터에 리트윗될 가능성이 70%나 높고, 첫번째 1,500명에게 6배나 빨리 도달한다는 것을 발견했습니다.이런 효과는 다른 [16]범주보다 정치 뉴스에서 더 뚜렷합니다."
유튜브의 알고리즘
유튜브는 2005년부터 존재해 왔으며 25억 명 이상의 월간 사용자를 보유하고 있습니다.유튜브 검색 콘텐츠 시스템은 사용자의 개인 활동(시청, 즐겨찾기, 좋아요)에 초점을 맞추어 추천 콘텐츠로 안내합니다.유튜브의 알고리즘은 사용자가 추천한 동영상의 약 70%와 사람들이 특정 [17]콘텐츠를 보게 만드는 요인에 대한 책임이 있습니다.새로운 연구에 따르면, 사용자들은 자신들이 추천하는 콘텐츠에 요청하지 않은 동영상을 담을 수 있는 권한이 거의 없다고 합니다.여기에는 혐오 발언, 실시간 방송 등에 관한 동영상이 포함됩니다.
유투브의 주장
유튜브는 급진화된 콘텐츠를 확산시키는 영향력 있는 플랫폼으로 꼽혀 왔습니다.알카에다와 이와 유사한 극단주의 단체들은 유튜브를 이용해 채용 동영상을 제작하고 국제 언론 매체들과 접촉하는 것과 관련이 있습니다.American Behavioral Scientist Journal이 발표한 연구 연구에서, 그들은 "유튜브 알고리즘의 의사결정 과정의 일부를 설명하는 데 도움이 될 수 있는 속성들의 집합을 식별하는 것이 가능한지"를 연구했습니다.[18] 연구 결과, 유튜브의 극단주의 콘텐츠에 대한 알고리즘 추천은 동영상 제목에 급진적 키워드가 존재하는 것으로 나타났습니다.2023년 2월, Gonzalez v. Google 사건에서, 당면한 문제는 YouTube의 모회사인 Google이 ISIS 동영상을 사용자들에게 추천하는 데 있어 사이트의 알고리즘이 테러리스트들을 도왔다고 주장하는 소송으로부터 보호받는지 여부입니다.섹션 230은 일반적으로 온라인 플랫폼을 사용자가 게시한 콘텐츠에 대한 민사 책임으로부터 보호하는 것으로 알려져 있습니다.
틱톡 알고리즘
틱톡은 'FYP(For You Page)'에 동영상을 추천해주는 앱으로 사용자마다 페이지가 다릅니다.앱 뒤에 있는 알고리즘의 특성과 함께 틱톡의 FYP는 [20]앱에서 이전의 상호 작용을 기반으로 시간이 지남에 따라 더 노골적이고 급진적인 비디오를 보여주는 것으로 연결되었습니다.TikTok이 시작된 이래로, 그러한 형태의 미디어들은 [21]보통 알고리즘에 더 많은 상호작용을 발생시키기 때문에, 그 앱은 잘못된 정보와 혐오 표현에 대해 면밀히 조사되어 왔습니다.
틱톡의 미국 보안 책임자는 2022년 현재 혐오 발언과 괴롭힘, 잘못된 [22]정보를 줄이기 위해 "4~6월 사이에 우리의 커뮤니티 지침 또는 서비스 약관을 위반하여 전 세계적으로 81,518,334개의 동영상이 삭제되었다"는 성명을 발표했습니다.
Alt-right 파이프라인

알트-라이트 파이프라인(알트-라이트 토끼 구멍이라고도 함)은 알트-라이트 운동을 향한 인터넷 급진화에 관한 제안된 개념적 모델입니다.반페미니즘 혹은 반SJW 사상과 같은 자극적인 우파 정치 콘텐츠를 소비함으로써 알트우파 혹은 유사 극우 정치에 대한 노출이 점차 증가하는 현상을 설명합니다.정치 평론가와 온라인 커뮤니티의 상호 연결된 특성으로 인해 이러한 상호 작용이 발생하여 한 청중 또는 커뮤니티의 구성원이 더 극단적인 [23][24]그룹을 발견할 수 있다고 가정합니다.이 프로세스는 비디오 플랫폼 유튜브와 가장 일반적으로 관련되어 있으며 문서화되어 있으며, 사용자가 참여하는 것과 유사하지만 사용자를 빠르게 토끼 [24][25][26]구멍으로 이끌 수 있는 컨텐츠를 추천하는 프로세스를 통해 다양한 소셜 미디어 플랫폼의 알고리즘이 작동하는 방법에 의해 크게 다루어지고 있습니다.
많은 정치 운동들이 파이프라인 개념과 연관되어 있습니다.지적 다크웹,[24] 자유지상주의,[27] 남성인권운동,[28] 알라이트[24] 운동 모두 청중들에게 알트라이트 사상을 소개하는 것으로 확인되었습니다.이러한 방식으로 극단적인 내용을 찾고 기꺼이 받아들이는 청중은 일반적으로 상당한 외로움을 경험하고 소속감이나 [29]의미를 추구하는 젊은이들로 구성됩니다.공동체와 소속을 찾으려는 시도로, 4chan과 8chan과 같이 종종 강경한 우파 사회 논평과 함께 확산되는 게시판은 급진화 [30]과정에서 그 중요성이 잘 기록되어 있습니다.
우경화 노선은 국내 [31][32]테러에 기여하는 요인이 될 수 있습니다.많은 소셜 미디어 플랫폼들은 이러한 급진화의 길을 인정하고 극단주의 인물들의 제거와 혐오 발언과 잘못된 [25][29]정보에 대한 규칙들을 포함한 그것을 막기 위한 조치들을 취해왔습니다.브레드튜브 등 좌파운동도 알트우 파이프라인에 반대하며 "알트우 [33]파이프라인에 대한 대항세력으로 '좌파 파이프라인'을 만들자"고 주장합니다.
사용자를 급진화하는 유튜브의 알고리즘 편향의 영향은 한 [24][34][35][36]연구에 의해 복제되었고, 다른 두 연구에서는 급진화 [25][37][38]과정의 증거를 거의 발견하지 못했거나 발견하지 못했습니다.셀프 라디칼라이제

미국 법무부는 '외로운 늑대'(self) 테러를 '정부나 테러조직의 [39]도움이나 격려 없이 혼자 테러 공격을 감행하는 사람'으로 정의하고 있습니다.인터넷 소셜미디어를 통해 '외로운 늑대' 테러는 알고리즘 [40]급진화와 연계돼 증가하고 있습니다.인터넷의 에코 챔버를 통해, 급진적으로 보이는 관점들은 다른 [41]극단주의자들에 의해 받아들여지고 빠르게 채택되었습니다.토론회, 단체 채팅, 소셜 미디어 등은 이러한 의견을 통해 자신들의 [42]신념을 강화할 수 있도록 독려하고 있습니다.
미디어의 참조
사회적 딜레마
"사회적 딜레마"는 어떻게 소셜 미디어의 배후에 있는 알고리즘이 중독을 가능하게 하는가에 대한 2020년 다큐멘터리 드라마로, 음모론과 허위 정보를 퍼뜨리기 위해 사람들의 관점, 감정, 행동을 조종하는 능력을 가지고 있습니다.영화는 소셜미디어에서 심리적 조작을 증명하기 위해 '메아리방'과 '가짜뉴스' 같은 유행어를 반복적으로 사용하여 정치적 조작으로 이어집니다.이 영화에서, 우리는 알고리즘이 그의 소셜 미디어 페이지가 62.3%의 장기적인 참여 가능성이 있다는 것을 발견함에 따라 그가 소셜 미디어 중독에 더 깊이 빠지면서 벤을 따라갑니다.이것은 Ben에게 추천하는 피드에 더 많은 비디오로 이어지게 되고 그는 결국 선전과 음모론에 더 몰입하게 되고, 비디오마다 점점 더 양극화됩니다.
가능한 해결책
섹션 230
1996년 커뮤니케이션 품위법 230조는 "대화형 컴퓨터 서비스의 제공자 또는 사용자는 다른 정보 콘텐츠 [43]제공자가 제공하는 정보의 게시자 또는 화자로 취급되어서는 안 된다"고 명시하고 있습니다.섹션 230은 미디어를 [43]사용자의 불법 행위와 같은 제3자 콘텐츠의 책임이나 고소로부터 보호합니다.그러나 이러한 접근 방식은 유해한 콘텐츠나 잘못된 정보를 제거하려는 기업의 동기를 감소시킵니다.이러한 허점으로 인해 소셜 미디어 회사들은 법적 [44]위험 없이 급진적인 콘텐츠를 추진함으로써 수익을 극대화할 수 있었습니다.
참고 항목
- 알고리즘 큐레이션
- 주변 인지도
- 집단영향 알고리즘
- 복합전염
- 죽은 인터넷 이론
- 허위정보 공격
- 둠스크롤링
- 에코챔버
- 극단주의
- 잘못된 합의효과
- 필터버블
- 고용에 대한 영향력
- 급진적 신뢰
- 선택적 노출이론
- 소셜봇
- 사회적 영향 편향
- 소셜 미디어 편향
- 미디어 시청 후 대리외상
- 가상집단의식
참고문헌
- ^ "What is a Social Media Echo Chamber? Stan Richards School of Advertising". advertising.utexas.edu. Retrieved 2022-11-02.
- ^ "The Websites Sustaining Britain's Far-Right Influencers". bellingcat. 2021-02-24. Retrieved 2021-03-10.
- ^ Camargo, Chico Q. "YouTube's algorithms might radicalise people – but the real problem is we've no idea how they work". The Conversation. Retrieved 2021-03-10.
- ^ E&T editorial staff (2020-05-27). "Facebook did not act on own evidence of algorithm-driven extremism". eandt.theiet.org. Retrieved 2021-03-10.
- ^ "How Can Social Media Firms Tackle Hate Speech?". Knowledge at Wharton. Retrieved 2022-11-22.
- ^ "Internet Association - We Are The Voice Of The Internet Economy. Internet Association". 2021-12-17. Archived from the original on 2021-12-17. Retrieved 2022-11-22.
- ^ "What is a Social Media Echo Chamber? Stan Richards School of Advertising". advertising.utexas.edu. Retrieved 2023-04-12.
- ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2021-03-02). "The echo chamber effect on social media". Proceedings of the National Academy of Sciences of the United States of America. 118 (9): –2023301118. Bibcode:2021PNAS..11823301C. doi:10.1073/pnas.2023301118. ISSN 0027-8424. PMC 7936330. PMID 33622786.
- ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Starnini, Michele; Galeazzi, Alessandro; Quattrociocchi, Walter (January 14, 2021). "The echo chamber effect on social media". Proceedings of the National Academy of Sciences of the United States of America. 118 (9): e2023301118. Bibcode:2021PNAS..11823301C. doi:10.1073/pnas.2023301118. ISSN 0027-8424. PMC 7936330. PMID 33622786.
- ^ Oremus, Will; Alcantara, Chris; Merrill, Jeremy; Galocha, Artur (October 26, 2021). "How Facebook shapes your feed". The Washington Post. Retrieved April 12, 2023.
{{cite news}}
: CS1 유지 : url-status (링크) - ^ Atske, Sara (2019-01-16). "Facebook Algorithms and Personal Data". Pew Research Center: Internet, Science & Tech. Retrieved 2023-04-12.
- ^ Korinek, Anton (2021-12-08). "Why we need a new agency to regulate advanced artificial intelligence: Lessons on AI control from the Facebook Files". Brookings. Retrieved 2023-04-12.
- ^ a b "Disinformation, Radicalization, and Algorithmic Amplification: What Steps Can Congress Take?". Just Security. 2022-02-07. Retrieved 2022-11-02.
- ^ Isaac, Mike (2021-10-25). "Facebook Wrestles With the Features It Used to Define Social Networking". The New York Times. ISSN 0362-4331. Retrieved 2022-11-02.
- ^ Little, Olivia. "TikTok is prompting users to follow far-right extremist accounts". Media Matters for America. Retrieved 2022-11-02.
- ^ "Study: False news spreads faster than the truth". MIT Sloan. Retrieved 2022-11-02.
- ^ a b "Hated that video? YouTube's algorithm might push you another just like it". MIT Technology Review. Retrieved 2023-04-11.
- ^ Murthy, Dhiraj (2021-05-01). "Evaluating Platform Accountability: Terrorist Content on YouTube". American Behavioral Scientist. 65 (6): 800–824. doi:10.1177/0002764221989774. S2CID 233449061 – via JSTOR.
- ^ Root, Damon (April 2023). "Scotus Considers Section 230's Scope". Reason. 54 (11): 8. ISSN 0048-6906.
- ^ "TikTok's algorithm leads users from transphobic videos to far-right rabbit holes". Media Matters for America. Retrieved 2022-11-22.
- ^ Little, Olivia. "Seemingly harmless conspiracy theory accounts on TikTok are pushing far-right propaganda and TikTok is prompting users to follow them". Media Matters for America. Retrieved 2022-11-22.
- ^ "Our continued fight against hate and harassment". Newsroom TikTok. 2019-08-16. Retrieved 2022-11-22.
- ^ a b Lewis, Rebecca (2018-09-18). Alternative Influence: Broadcasting the Reactionary Right on YouTube (Report). Data & Society. Archived from the original on 2022-05-25. Retrieved 2022-07-14.
- ^ a b c d e 인용 오류:명명된 참조
Alt-right pipeline :1
호출되었지만 정의되지 않았습니다(도움말 페이지 참조). - ^ a b c Ledwich, Mark; Zaitsev, Anna (2020-02-26). "Algorithmic extremism: Examining YouTube's rabbit hole of radicalization". First Monday. arXiv:1912.11211. doi:10.5210/fm.v25i3.10419. ISSN 1396-0466. S2CID 209460683. Archived from the original on 2022-10-28. Retrieved 2022-10-28.
- ^ Mozilla (7 July 2021). "Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform's Very Own Policies". Mozilla Foundation. Archived from the original on 25 March 2023. Retrieved 25 March 2023.
- ^ Hermansson, Patrik; Lawrence, David; Mulhall, Joe; Murdoch, Simon (2020-01-31). The International Alt-Right: Fascism for the 21st Century?. Routledge. pp. 57–58. ISBN 978-0-429-62709-5. Archived from the original on 2023-07-25. Retrieved 2022-09-21.
- ^ Mamié, Robin; Horta Ribeiro, Manoel; West, Robert (2021-06-21). "Are Anti-Feminist Communities Gateways to the Far Right? Evidence from Reddit and YouTube". 13th ACM Web Science Conference 2021. WebSci '21. New York, NY, USA: Association for Computing Machinery. pp. 139–147. arXiv:2102.12837. doi:10.1145/3447535.3462504. ISBN 978-1-4503-8330-1. S2CID 232045966. Archived from the original on 2023-07-25. Retrieved 2022-09-21.
- ^ a b Roose, Kevin (2019-06-08). "The Making of a YouTube Radical". The New York Times. ISSN 0362-4331. Archived from the original on May 17, 2023. Retrieved 2022-10-26.
- ^ Hughes, Terwyn (26 January 2021). "Canada's alt-right pipeline". The Pigeon. Archived from the original on 25 March 2023. Retrieved 25 March 2023.
- ^ Piazza, James A. (2022-01-02). "Fake news: the effects of social media disinformation on domestic terrorism". Dynamics of Asymmetric Conflict. 15 (1): 55–77. doi:10.1080/17467586.2021.1895263. ISSN 1746-7586. S2CID 233679934. Archived from the original on 2023-07-25. Retrieved 2022-11-04.
- ^ Munn, Luke (2019-06-01). "Alt-right pipeline: Individual journeys to extremism online". First Monday. doi:10.5210/fm.v24i6.10108. ISSN 1396-0466. S2CID 184483249. Archived from the original on 2022-05-24. Retrieved 2022-07-14.
- ^ Cotter, Kelley (2022-03-18). "Practical knowledge of algorithms: The case of BreadTube". New Media & Society. doi:10.1177/14614448221081802. ISSN 1461-4448. S2CID 247560346.
- ^ Lomas, Natasha (January 28, 2020). "Study of YouTube comments finds evidence of radicalization effect". TechCrunch. Retrieved 2021-07-17.
- ^ Newton, Casey (2019-08-28). "YouTube may push users to more radical views over time, a new paper argues". The Verge. Retrieved 2021-07-17.
- ^ Ribeiro, Manoel Horta; Ottoni, Raphael; West, Robert; Almeida, Virgílio A. F.; Meira, Wagner (2019-08-22). "Auditing Radicalization Pathways on YouTube". arXiv:1908.08313 [cs.CY].
- ^ Hosseinmardi, Homa; Ghasemian, Amir; Clauset, Aaron; Mobius, Markus; Rothschild, David M.; Watts, Duncan J. (2021-08-02). "Examining the consumption of radical content on You Tube". Proceedings of the National Academy of Sciences. 118 (32). arXiv:2011.12843. Bibcode:2021PNAS..11801967H. doi:10.1073/pnas.2101967118. PMC 8364190. PMID 34341121.
- ^ * Chen, Annie Y.; Nyhan, Brendan; Reifler, Jason; Robertson, Ronald E.; Wilson, Christo (22 April 2022). "Subscriptions and external links help drive resentful users to alternative and extremist YouTube videos". arXiv:2204.10921 [cs.SI].
- Wolfe, Liz (26 April 2022). "YouTube Algorithms Don't Turn Unsuspecting Masses Into Extremists, New Study Suggests / A new study casts doubt on the most prominent theories about extremism-by-algorithm". Reason. Archived from the original on 26 April 2022.
- ^ "Lone Wolf Terrorism in America Office of Justice Programs". www.ojp.gov. Retrieved 2022-11-02.
- ^ Alfano, Mark; Carter, J. Adam; Cheong, Marc (2018). "Technological Seduction and Self-Radicalization". Journal of the American Philosophical Association. 4 (3): 298–322. doi:10.1017/apa.2018.27. ISSN 2053-4477. S2CID 150119516.
- ^ Dubois, Elizabeth; Blank, Grant (2018-05-04). "The echo chamber is overstated: the moderating effect of political interest and diverse media". Information, Communication & Society. 21 (5): 729–745. doi:10.1080/1369118X.2018.1428656. ISSN 1369-118X. S2CID 149369522.
- ^ Sunstein, Cass R. (2009-05-13). Going to Extremes: How Like Minds Unite and Divide. Oxford University Press. ISBN 978-0-19-979314-3.
- ^ a b "47 U.S. Code § 230 - Protection for private blocking and screening of offensive material". LII / Legal Information Institute. Retrieved 2022-11-02.
- ^ Smith, Michael D.; Alstyne, Marshall Van (2021-08-12). "It's Time to Update Section 230". Harvard Business Review. ISSN 0017-8012. Retrieved 2022-11-02.