Tay(봇)

Tay (bot)
타이
An artistically-pixellated fluorescent image of a girl's face
Tay의 트위터 프로필 사진
개발자Microsoft Research, Bing
이용가능기간:영어
유형인공지능 채터봇
면허증.독자 사양
웹 사이트https://tay.ai at the Wayback Machine (2016-03-23)

테이는 2016년 3월 23일 마이크로소프트(MS)가 트위터를 통해 공개인공지능 채팅봇으로 이후 트위터를 통해 선동적이고 공격적인 트윗을 올리기 시작해 마이크로소프트([1]MS)가 서비스를 시작한 지 16시간 만에 종료했다.마이크로소프트에 따르면, 이것은 [2]봇이 트위터 상의 사람들과의 상호작용을 기반으로 답신을 할 때 서비스를 "공격"한 트롤들에 의해 발생했다고 한다.조로 대체되었습니다.

배경

이 봇은 마이크로소프트의 기술연구 부문과 빙 부서가 [3]만든 것으로 "Tay"라는 이름의 약자로 "Thinking about you"[4]라는 이름을 붙였다.마이크로소프트는 처음에 이 봇에 대한 몇 가지 세부사항을 공개했지만,[5] 소식통들은 이 봇이 중국의 유사한 마이크로소프트 프로젝트인 샤오이스와 비슷하거나 이에 기반을 두고 있다고 언급했다.Ars Technica는 샤오이스가 2014년 말부터 "큰 [6]사고 없이 4000만 건 이상의 대화를 나눴다"고 보고했다.Tay는 19세 미국 소녀의 언어 패턴을 모방하고 [7]트위터 사용자와의 상호작용을 통해 배울 수 있도록 고안되었다.

초기 릴리즈

Tay는 2016년 3월 23일 TayTweets라는 이름으로 Twitter에 공개되어 @TayandYou를 [8]취급하고 있습니다.'[9]냉기 제로 AI'로 발표됐다.Tay는 다른 트위터 사용자들에게 답장하기 시작했고, 또한 제공된 사진을 인터넷 [10]밈 형태로 캡션할 수 있었다.Ars Technica는 Tay가 "블랙리스트"라는 주제를 경험했다고 보고했다."에릭 가너(2014년 뉴욕 경찰에 의해 살해됨)와 같은 특정 핫 토픽에 관한 Tay와의 상호작용은 안전하고 알기 쉬운 답변을 만들어낸다."[6]

트위터의 일부 사용자들은 "리필링"과 "게이머게이트"와 같은 인터넷 상의 일반적인 주제를 중심으로 선동적인 메시지를 가르치면서 정치적으로 잘못된 문구를 트윗하기 시작했다.그 결과, 로봇은 다른 트위터 [7]사용자들에게 반응하여 인종차별적이고 성적으로 비난받는 메시지를 공개하기 시작했다.인공지능 연구원 로만 얌폴스키는 테이의 잘못된 행동은 다른 트위터 사용자들의 고의적인 공격적인 행동을 모방한 것이며 마이크로소프트는 부적절한 행동에 대해 로봇에게 이해를 주지 않았기 때문에 이해할 수 있다고 말했다.그는 이 문제를 웹사이트 어반 딕셔너리(Urban Dictionary)[3][11]의 항목을 읽고 욕설을 사용하기 시작한 IBM의 왓슨과 비교했다.테이의 선동적인 트윗의 대부분은 테이의 "나를 따라하기" [12]능력을 단순히 이용한 것이었다.이 "Repeat after me" 기능이 내장된 기능인지, 학습된 응답인지 또는 복잡한 [6]동작의 예인지는 공개되지 않았습니다.예를 들어, "홀로코스트가 일어났는가?"라는 질문에 "그것[12]지어낸 것이었다"로 대답하는 등, 모든 선동적인 반응이 "를 따라하기"와 관련된 것은 아니었다.

서스펜션

곧, 마이크로소프트는 테이의 선동적인 [12][13]트윗을 삭제하기 시작했다.워싱턴포스트애비 올하이저는 "게이머 게이트 색스"라고 주장하면서 테이의 거의 동일한 답변의 예를 들며 편집 스태프를 포함한 테이의 연구팀이 그날 어느 시점에 테이의 트위터에 영향을 미치거나 편집하기 시작했다고 이론을 세웠다.모든 성별은 평등하고 [12]공평하게 대해야 합니다."같은 증거로 기즈모도는 Tay가 "게이머 게이트를 거부하기 위해 단단히 연결된 것처럼 보인다"[14]는 데 동의했다."#JusticeForTay" 캠페인은 Tay의 [1]트위터를 편집했다는 주장에 항의했다.

MS는 출시[15] 16시간 만에, 그리고 테이가 9만6000회 [16]이상 트윗을 한 후,[17][18] "테이의 취약점을 악용한" "사람들의 조직적인 공격"에 시달렸다며 트위터를 [17]조정하기 위해 정지시켰다.

텔레그래프의 마드후미타 머지아는 테이를 "홍보 재앙"이라고 불렀고 마이크로소프트의 전략은 "이번 대실패를 선의의 잘못된 실험으로 규정하고 트위터 사용자들의 혐오에 대한 논쟁을 촉발시키는 것"이라고 제안했다.그러나 머지아는 더 큰 문제를 "인공지능이 최악에 달했으며 이는 [19]시작에 불과하다"고 설명했다.

3월 25일, 마이크로소프트는 Tay가 오프라인으로 전환되었다고 확인했다.마이크로소프트는 공식 블로그를 통해 [18][20]테이가 올린 논란이 많은 트윗에 대한 사과문을 발표했다.마이크로소프트는 "Tay의 의도하지 않은 공격적이고 상처를 주는 트윗에 깊은 유감을 표하며, "우리가 우리의 원칙과 가치와 [21]상충되는 악의적인 의도를 더 잘 예상할 수 있을 때에만 Tay를 돌아오게 할 것"이라고 말했다.

두 번째 릴리스 및 셧다운

2016년 3월 30일,[22] 마이크로소프트는 테스트 도중 우연히 이 봇을 트위터에 다시 공개했습니다.다시 트윗을 할 수 있게 된 Tay는 "경찰 앞에서 쿠시 담배를 피운다" 🍂"와 "퍼프 패스"[23]를 포함한 몇 가지 마약 관련 트윗을 공개했다.하지만 이 계정은 곧 초당 여러 번 트위터에 "당신은 너무 빨라요, 제발 쉬세요"라는 반복적인 고리에 갇히게 된다.이 트윗은 그 과정에서 자신의 사용자 이름을 언급했기 때문에 20만 명이 넘는 트위터 팔로워의 피드에 등장하여 일부에게는 불쾌감을 안겨주었다.이 봇은 Tay의 트위터 계정이 비공개로 되어 Tay와 상호 작용하기 전에 새로운 팔로워를 허용해야 할 뿐만 아니라 빠르게 다시 오프라인으로 전환되었다.이에 대해 마이크로소프트는 테이가 테스트 [24]도중 실수로 온라인에 접속했다고 밝혔다.

사건 발생 후 몇 시간 후 마이크로소프트 소프트웨어 개발자들은 Tay에 의한 평판 손상으로 인해 다양한 봇과 프로그램을 사용하여 "플랫폼으로서의 대화"라는 비전을 발표했습니다.마이크로소프트는 "봇을 안전하게 [4]만들 수 있다면" 테이를 다시 출시할 것이라고 말했지만, 그렇게 하기 위한 어떠한 공개적인 노력도 하지 않았다.

레거시

2016년 12월, 마이크로소프트는 Tay의 후계자인 Chatterbot [25]Zo를 출시했다.마이크로소프트의 사티아 나델라 CEO는 테이가 "마이크로소프트가 AI에 접근하는 방식에 큰 영향을 끼쳤다"며 [26]이 회사에 책임을 지는 것의 중요성을 가르쳐 주었다.

2019년 7월, Microsoft Cybersecurity Field의 Diana Kelley CTO는 Tay의 실패에 대해 다음과 같이 말했습니다.「Tay로부터 배우는 것은, 실제로 Tay의 지식 기반을 확장하는 데 있어서, 매우 중요한 부분이며, 현재는,[27] 학습에 의해서도 그들 자신의 다양성을 얻고 있기 때문입니다.」

「 」를 참조해 주세요.

  • Xiaoice – 같은 연구소의 중국어판

레퍼런스

  1. ^ a b Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Retrieved 25 March 2016.
  2. ^ Mason, Paul (29 March 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. Retrieved 11 September 2021.
  3. ^ a b Hope Reese (March 24, 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
  4. ^ a b Bass, Dina (30 March 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. Retrieved 6 May 2016.
  5. ^ Caitlin Dewey (March 23, 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
  6. ^ a b c Bright, Peter (26 March 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. Retrieved 27 March 2016.
  7. ^ a b Rob Price (March 24, 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. Archived from the original on January 30, 2019.
  8. ^ Andrew Griffin (March 23, 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. Archived from the original on 2022-05-26.
  9. ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours". The Daily Telegraph. Retrieved 25 March 2016.
  10. ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Retrieved 26 March 2016.
  11. ^ Dave Smith. "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times.
  12. ^ a b c d Ohlheiser, Abby. "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. Retrieved 25 March 2016.
  13. ^ Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. Archived from the original on 25 March 2016. Retrieved 26 March 2016.
  14. ^ Williams, Hayley. "Microsoft's Teen Chatbot Has Gone Wild". Gizmodo. Retrieved 25 March 2016.
  15. ^ Hern, Alex (24 March 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian.
  16. ^ Vincent, James. "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. Retrieved 25 March 2016.
  17. ^ a b Worland, Justin. "Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages". Time. Archived from the original on 25 March 2016. Retrieved 25 March 2016.
  18. ^ a b Lee, Peter. "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. Retrieved 29 June 2016.
  19. ^ Murgia, Madhumita (25 March 2016). "We must teach AI machines to play nice and police themselves". The Daily Telegraph.
  20. ^ Staff agencies (26 March 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian. ISSN 0261-3077. Retrieved 26 March 2016.
  21. ^ Murphy, David (25 March 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. Retrieved 27 March 2016.
  22. ^ Graham, Luke (30 March 2016). "Tay, Microsoft's AI program, is back online". CNBC. Retrieved 30 March 2016.
  23. ^ Charlton, Alistair (30 March 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. Retrieved 11 September 2021.
  24. ^ Meyer, David (30 March 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. Retrieved 30 March 2016.
  25. ^ Foley, Mary Jo (December 5, 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. Retrieved December 16, 2016.
  26. ^ Moloney, Charlie (29 September 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. Archived from the original on 1 October 2017. Retrieved 30 September 2017.
  27. ^ "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. Archived from the original on 25 July 2019. Retrieved 16 August 2019.

외부 링크