휴먼 호환

Human Compatible
휴먼 호환
Human Compatible (Stuart J. Russell, 2019) book cover.jpg
하드커버판
작가.스튜어트 J. 러셀
나라미국
언어영어
주제AI 제어 문제
장르.논픽션
출판인바이킹
발행일자
2019년 10월 8일
페이지352
ISBN978-0-525-55861-3
OCLC1083694322

휴먼 대응: 인공지능과 제어의 문제는 컴퓨터 과학자인 스튜어트 J. 러셀이 쓴 2019년 논픽션 책이다.미래 AI의 진보를 둘러싼 불확실성에도 불구하고 첨단 인공지능(AI)으로 인한 인류에 대한 위험은 심각한 문제라고 주장한다.또한 AI 제어 문제에 대한 접근방식을 제안한다.

요약

Russell은 AI 연구의 표준 모델이 인간 고유의 엄격한 목표를 달성하는 데 있어 점점 더 나아지고 있다는 것을 주장함으로써 시작합니다.이러한 목표는 목표에 포함되지 않은 인간의 가치를 고려하지 않음으로써 인간 설계자가 의도하는 바를 실제로 반영하지 못할 수 있다.표준 모델에 따라 개발된 인공지능이 초지능화되면 인간의 가치를 제대로 반영하지 못해 인류에 재앙을 초래할 수 있다.러셀 교수는 인간 수준이나 초지능형 AI 개발 일정이 불투명하기 때문에 이를 완료하는 데 얼마나 걸릴지도 매우 불확실한 만큼 안전 연구를 조속히 시작해야 한다고 주장한다.

러셀은 경제적 압박 때문에 AI 능력의 지속적인 발전이 불가피하다고 주장한다.이 같은 압박은 이미 자율주행차, 개인 보조 소프트웨어 등 기존 AI 기술 개발에서 확인할 수 있다.게다가, 인간 수준의 인공지능은 수조 달러의 가치가 있을 수 있다.그런 다음 러셀은 AI 위험을 둘러싼 현재의 논쟁을 조사합니다.그는 AI 위험을 무시한 많은 일반적인 주장에 반박하고 그들의 지속성의 대부분을 부족주의 탓으로 돌린다.AI 연구진은 AI 리스크에 대한 우려를 자신의 분야에 대한 '공격'으로 볼 수도 있다.그러나 러셀은 AI 위험 우려를 심각하게 받아들여야 할 정당한 이유가 있으며 경제적 압박이 AI의 지속적인 혁신을 불가피하게 만든다고 거듭 강조한다.

그 후 러셀은 인간에 대한 존중에 초점을 맞춘 입증할 수 있는 유익한 기계를 개발하는 접근방식을 제안합니다.목적이 엄격하고 확실한 AI의 표준 모델과 달리, 이 접근방식은 AI의 진정한 목적을 불확실하게 만들 것이며, AI는 인간과 세계에 대한 정보를 더 많이 얻을수록 그에 대한 확실성에 가까워질 것이다.이러한 불확실성은 이상적으로는 인간 선호에 대한 치명적인 오해를 방지하고 인간과의 협력과 커뮤니케이션을 장려할 것이다.러셀은 AI가 지배하는 세상에서 유지할 수 있는 적절한 자율성에 대한 문화적 자기성찰과 더불어 AI 연구개발의 보다 엄격한 통치를 촉구하며 끝을 맺는다.

러셀의 세 가지 원칙

러셀은 유익한 기계의 개발을 이끌 세 가지 원칙을 열거하고 있다.그는 이러한 원칙들이 기계에 명시적으로 코드화되도록 의도된 것이 아니라 인간 개발자들을 위한 것이라고 강조합니다.원칙은 다음과 같습니다.[1]: 173

1. 이 기계의 유일한 목적은 인간 선호의 실현을 극대화하는 것입니다.

2. 기계는 처음에 이러한 선호도가 무엇인지 확실하지 않습니다.

3. 인간의 취향에 대한 정보의 궁극적인 원천은 인간의 행동이다.

러셀이 말하는 "선호도"는 "모든 것을 포괄한다; 그것들은 임의로 먼 [1]: 173 미래까지 여러분이 관심을 가질 수 있는 모든 것을 포괄한다"고 말한다.마찬가지로, "행동"은 [1]: 177 옵션 사이의 선택을 포함하며, 불확실성은 매우 작을 수 있는 일부 확률을 논리적으로 가능한 모든 인간 [1]: 201 선호에 할당해야 한다.

러셀은 인간의 [1]: 191–193 선호도를 학습하는 메커니즘의 가능한 기초로서 기계가 관찰된 행동으로부터 보상 함수를 추론하는 역강화 학습을 탐구한다.

접수처

몇몇 평론가들은 그 책의 주장에 동의했다.가디언지의 Ian Sample은 이 책을 "설득할 만한 책" [2]"올해 AI에 관한 가장 중요한 책"이라고 평가했다.Financial Times의 Richard Waters는 이 책의 "대단한 지적 엄격함"[3]을 칭찬했다.Kirkus Reviews는 "기계가 우리를 [4]능가할 수 있는 날을 위한 계획을 세우는 강력한 사례"라고 지지했습니다.

같은 평론가들은 이 책의 특징을 "신기하고 [2]재치 있다"거나 "라코닉한 스타일과 무미건조한 유머"[3]로 인해 "접근하기 [4]쉽다"고 묘사했다.월스트리트 저널의 매튜 허슨은 "러셀 씨의 흥미진진한 책은 깊이가 있는 반면 무미건조한 위트리즘으로 빛난다"[5]고 말했다.Library Journal 리뷰어는 그것을 "적절한 시기에 적절한 가이드"[6]라고 불렀다.

타임스제임스 맥코나치는 "이 책은 AI가 시급히 필요로 하는 인기 있는 책이 아니다.그것의 기술적인 부분은 너무 어렵고, 그것의 철학적인 부분은 너무 쉽다.하지만 그것은 흥미롭고 중요합니다."[7]

반면, Human CompatibleAlan Turing Institute의 윤리 펠로우인 David Leslie의 네이처 리뷰에서, 그리고 Melanie Mitchell의 뉴욕 타임즈 의견 에세이에서도 마찬가지로 비판을 받았다.논쟁의 한 가지는 슈퍼 인텔리전스가 가능한가였다.레슬리는 러셀이 "우리가 '제2의 지능형 종족'의 도래를 보게 될 것이라는 것을 확신시키는 데 실패했다"고 말했고, 미첼은 기계가 "컴퓨터의 속도, 정밀도, 프로그래밍 가능성"을 잃지 않고 "인간 지능의 일반성과 유연성을 넘어설 수 있을 것"이라고 의심했다.두 번째 의견 불일치는 지능형 기계가 소위 말하는 "상식" 도덕적 가치를 자연스럽게 채택하는 경향이 있는가 하는 것이었다.러셀은 "바다를 탈산시키기 위해 인간을 질식시키는" 지구공학 로봇에 대한 사고 실험에 대해 "어떤 지능도 확인하려고 애쓴다"고 말했다.마찬가지로, Mitchell은 지능이 없으면 "일반 지능이 존재할 수 없는 상식, 가치관, 사회적 판단에 의해 성질"[8][9]이 자연스럽게 나타나는 경향이 있다고 믿는다.

이 책은 2019년 파이낸셜 타임즈/맥킨지상 [10]후보에 올랐다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b c d e Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  2. ^ a b Sample, Ian (October 24, 2019). "Human Compatible by Stuart Russell review – AI and our future". The Guardian.
  3. ^ a b Waters, Richard (18 October 2019). "Human Compatible — can we keep control over a superintelligence?". www.ft.com. Retrieved 23 February 2020.
  4. ^ a b "HUMAN COMPATIBLE Kirkus Reviews". Kirkus Reviews. 2019. Retrieved 23 February 2020.
  5. ^ Hutson, Matthew (November 19, 2019). "'Human Compatible' and 'Artificial Intelligence' Review: Learn Like a Machine". The Wall Street Journal.
  6. ^ Hahn, Jim (2019). "Human Compatible: Artificial Intelligence and the Problem of Control". Library Journal. Retrieved 23 February 2020.
  7. ^ McConnachie, James (October 6, 2019). "Human Compatible by Stuart Russell review — an AI expert's chilling warning". The Times.
  8. ^ Leslie, David (2 October 2019). "Raging robots, hapless humans: the AI dystopia". Nature. 574 (7776): 32–33. Bibcode:2019Natur.574...32L. doi:10.1038/d41586-019-02939-0.
  9. ^ Mitchell, Melanie (October 31, 2019). "We Shouldn't be Scared by 'Superintelligent A.I.'". The New York Times.
  10. ^ Hill, Andrew (11 August 2019). "Business Book of the Year Award 2019 — the longlist". www.ft.com. Retrieved 23 February 2020.

외부 링크