인공지능에 관한 공개 서한
Open Letter on Artificial Intelligence견고하고 유익한 인공지능을 위한 연구 우선순위:오픈 레터 | |
---|---|
창조했다 | 2015년 1월 |
작성자 | 스티븐 호킹, 엘론 머스크, 그리고 수십 명의 인공지능 전문가들 |
주제 | AI의 사회적 영향에 관한 연구 |
2015년 1월 스티븐 호킹, 엘론 머스크, 인공지능 전문가 수십 명이[1] 인공지능에 대한 공개서한에 서명해 AI의 사회적 영향에 대한 연구를 촉구했다.이 서한은 사회가 인공지능으로부터 큰 잠재적 이익을 얻을 수 있다고 단언했지만, 어떻게 하면 잠재적인 "함정"을 예방할 수 있는지에 대한 구체적인 연구를 요구했다: 인공지능은 질병과 가난을 근절할 잠재력을 가지고 있지만,[1] 연구자는 통제할 수 없는 것을 만들어내서는 안 된다."강력하고 유익한 인공지능을 위한 연구 우선순위: 공개 서한"은 12페이지 분량의 문서에 상세한 조사 우선순위를 제시한다.
배경
2014년까지, 물리학자 스티븐 호킹과 재계 거물 엘론 머스크는 초인류 인공지능이 헤아릴 수 없는 이점을 제공할 수 있을 뿐만 아니라 부주의하게 배치된다면 인류를 멸망시킬 수도 있다는 의견을 공개적으로 표명했다.당시 호킹과 머스크는 '인류가 직면한 실존적 위험을 완화하기 위한' 단체인 '미래 생명 연구소'의 과학 자문 위원회 위원이었다.연구소는 보다 광범위한 AI [2]연구 커뮤니티를 대상으로 한 공개 서한 초안을 작성하여 2015년 [3]첫 주말 푸에르토리코에서 열린 첫 회의 참석자들에게 배포했다.이 편지는 1월 [4]12일에 공개되었다.
목적
이 편지는 인공지능의 [5]긍정적인 효과와 부정적인 효과 모두를 강조하고 있다.블룸버그비즈니스에 따르면 MIT의 맥스 테그마크 교수는 슈퍼 인텔리전트 AI를 중대한 실존적 위험으로 여기는 서명자들과 AI 분야가 일방적인 [4]언론매체에 의해 "불안"되고 있다고 믿는 오렌 에치오니 교수와 같은 서명자들 사이에 공통점을 찾기 위해 이 서한을 배포했다.서한에는 다음과 같이 기술되어 있습니다.
문명이 제공해야 하는 모든 것이 인간의 지능의 산물이기 때문에 (AI의) 잠재적인 혜택은 엄청납니다. AI가 제공할 수 있는 도구에 의해 이 지능이 확대되었을 때 우리가 무엇을 얻을 수 있을지 예측할 수는 없지만 질병과 빈곤의 근절은 예측 불가능한 것은 아닙니다.AI의 잠재력이 크기 때문에,[6] 잠재적인 함정을 피하면서 어떻게 그 이익을 거둘 수 있는지를 연구하는 것이 중요하다.
서명자 중 한 명인 코넬 대학의 바트 셀먼 교수는 그 목적은 AI 연구원과 개발자들이 AI 안전에 더 많은 관심을 기울이도록 하는 것이라고 말했다.게다가, 정책 입안자들과 일반 대중들에게 이 서한은 정보 제공이지만 [2]경각심을 불러일으키는 것이 아니다.또 다른 서명자인 프란체스카 로시 교수는 "나는 AI 연구자들이 이러한 우려와 윤리적 문제에 대해 진지하게 생각하고 있다는 것을 모두가 아는 것이 매우 중요하다고 생각한다"[7]고 말했다.
서한에 의해 제기된 우려 사항
서명인은 다음과 같이 묻습니다.어떻게 하면 엔지니어가 사회에 이롭고 튼튼한 AI 시스템을 만들 수 있을까요?인간은 AI를 계속 통제해야 합니다. 우리의 AI 시스템은 "우리가 원하는 대로 해야 합니다."[1]필요한 연구는 경제학 및 법률에서 컴퓨터 보안 및 공식 검증과 같은 컴퓨터 과학의 다양한 분야에 이르기까지 학제 간 연구입니다.발생하는 과제는 검증("시스템이 올바르게 구축되었습니까?"), 유효성("시스템이 올바르게 구축되었습니까?"), 보안 및 제어("OK, 시스템을 잘못 구축했습니다. 수정할 수 있습니까?")[8]로 구분됩니다.
단기적인 우려 사항
일부 단기적인 우려는 민간 무인기와 자가 운전 자동차에서 나오는 자율 자동차와 관련이 있다.예를 들어, 비상시에는 자가운전 자동차가 큰 사고의 작은 위험과 작은 사고의 큰 가능성 사이에서 결정해야 할 수 있다.치명적인 지능형 자율 무기와 관련된 다른 우려 사항:그들은 금지되어야 하는가?그렇다면, '자율성'은 정확히 어떻게 정의되어야 할까요?그렇지 않은 경우, 오용 또는 오작동에 대한 책임을 어떻게 배분해야 합니까?
기타 문제로는 AI가 대규모 보안 감시 데이터셋을 해석할 수 있게 되면서 사생활 보호와 [2]AI가 대체한 일자리의 경제적 영향을 가장 잘 관리하는 방법이 있다.
장기적인 우려 사항
이 문서는 마이크로소프트 리서치 디렉터 Eric Horvitz의 다음과 같은 우려를 반영하여 마무리되었습니다.
우리는 언젠가 인간의 희망에 따라 행동하지 않는 초지능의 증가로 AI 시스템의 통제력을 잃을 수 있고, 그러한 강력한 시스템이 인류를 위협할 수도 있다.이러한 디스토픽 결과가 가능한가?그렇다면 이러한 상황은 어떻게 발생할까요?위험한 슈퍼 인텔리전스의 상승 또는 "지능 폭발"의 발생 가능성을 더 잘 이해하고 대처하기 위해 연구에 어떤 종류의 투자가 이루어져야 하는가?
강화 학습이나 단순한 효용 기능 등 AI를 활용하기 위한 기존 도구는 이를 해결하기에는 불충분하다. 따라서 "제어 문제"[8]에 대한 강력한 해결책을 찾고 검증하기 위해서는 더 많은 연구가 필요하다.
서명자
서명자에는 물리학자 스티븐 호킹, 기업 거물 일론 머스크, 딥마인드의 공동 설립자, 빅서리, 피터 노비그 [1]구글 연구 책임자, 스튜어트 J. 러셀 캘리포니아 [9]버클리대 교수, 그리고 다른 AI 전문가, 로봇 제작자, 프로그래머, 윤리학자 [10]등이 포함되어 있다.원래 서명자 수는 캠브리지, 옥스퍼드, 스탠포드, 하버드,[12] MIT의 학자들을 포함하여 150명이 [11]넘었습니다.
메모들
- ^ a b c d Sparkes, Matthew (13 January 2015). "Top scientists call for caution over artificial intelligence". The Telegraph (UK). Retrieved 24 April 2015.
- ^ a b c Chung, Emily (13 January 2015). "AI must turn focus to safety, Stephen Hawking and other researchers say". Canadian Broadcasting Corporation. Retrieved 24 April 2015.
- ^ McMillan, Robert (16 January 2015). "AI Has Arrived, and That Really Worries the World's Brightest Minds". Wired. Retrieved 24 April 2015.
- ^ a b Dina Bass; Jack Clark (4 February 2015). "Is Elon Musk Right About AI? Researchers Don't Think So". Bloomberg Business. Retrieved 24 April 2015.
- ^ Bradshaw, Tim (12 January 2015). "Scientists and investors warn on AI". The Financial Times. Retrieved 24 April 2015.
Rather than fear-mongering, the letter is careful to highlight both the positive and negative effects of artificial intelligence.
- ^ "Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter". Future of Life Institute. Retrieved 24 April 2015.
- ^ "Big science names sign open letter detailing AI danger". New Scientist. 14 January 2015. Retrieved 24 April 2015.
- ^ a b "Research priorities for robust and beneficial artificial intelligence" (PDF). Future of Life Institute. 23 January 2015. Retrieved 24 April 2015.
- ^ Wolchover, Natalie (21 April 2015). "Concerns of an Artificial Intelligence Pioneer". Quanta magazine. Retrieved 24 April 2015.
- ^ "Experts pledge to rein in AI research". BBC News. 12 January 2015. Retrieved 24 April 2015.
- ^ Hern, Alex (12 January 2015). "Experts including Elon Musk call for research to avoid AI 'pitfalls'". The Guardian. Retrieved 24 April 2015.
- ^ Griffin, Andrew (12 January 2015). "Stephen Hawking, Elon Musk and others call for research to avoid dangers of artificial intelligence". The Independent. Archived from the original on 2022-05-24. Retrieved 24 April 2015.