슈퍼 인텔리전스

Superintelligence

슈퍼 인텔리전스는 가장 똑똑하고 재능 있는 인간의 두뇌를 훨씬 능가하는 지능을 가진 가상의 에이전트이다.또, 「슈퍼 인텔리전스」는, 이러한 고도의 지적 역량이, 세계에서 활동하는 에이전트에 포함되어 있는지 아닌지에 관계없이, 문제 해결 시스템(예를 들면, 슈퍼 인텔리전트 언어 번역자나 엔지니어링 어시스턴트)의 속성을 나타낼 수도 있습니다.슈퍼인텔리전스는 인텔리전스 폭발에 의해 생성될 수도 있고 생성되지 않을 수도 있으며 기술적 특이성과 관련될 수도 있습니다.

옥스퍼드 대학철학자보스트롬슈퍼 인텔리전스를 "사실상 모든 [1]관심 영역에서 인간의 인지 능력을 크게 능가하는 모든 지적"이라고 정의한다.프리츠라는 프로그램은 비록 체스에서는 인간보다 훨씬 더 뛰어나지만, 다른 [2]일에서는 인간을 능가할 수 없기 때문에 슈퍼 인텔리전스에 미치지 못한다.Hutter와 Legg에 이어 Bostrom은 초지능을 목표 지향적 행동에 대한 일반적인 지배로 취급하며, 인위적 또는 인간적 초지능이 의도성과 같은 능력을 가질지 여부를 열어두고 있다.중국식 방 논쟁) 또는 1인칭 의식(의식의 어려운 문제 참조).

기술 연구가들은 오늘날의 인간의 지능이 얼마나 능가될지에 대해 의견이 엇갈린다.어떤 사람들은 인공지능의 발전이 아마도 인간의 인지적 한계가 부족한 일반적인 추론 시스템을 야기할 것이라고 주장한다.다른 사람들은 인간이 근본적으로 더 나은 [3][4]지능을 얻기 위해 진화하거나 직접적으로 그들의 생물학을 수정할 것이라고 믿는다.많은 미래 연구 시나리오가 이 두 가지 가능성에서 나온 요소들을 조합하여 인간이 상당한 지능 증폭을 가능하게 하는 방법으로 컴퓨터와 상호 작용하거나 컴퓨터에 마음을 업로드가능성이 있음을 시사한다.

일부 연구원들은 인공지능이 개발된 직후에 슈퍼지능이 뒤따를 것이라고 믿고 있다.최초의 일반적으로 지능적인 기계는 완벽한 기억 능력, 매우 우수한 지식 기반, 생물학적 실체에 불가능한 방식으로 다중 작업을 수행할 수 있는 능력 등 적어도 어떤 형태의 정신적 능력에서 즉시 엄청난 이점을 가질 가능성이 높다.이것은 그들에게 단일 존재로서든 새로운 종으로서든 인간보다 훨씬 더 강력해지고 그들을 [1]대체할 수 있는 기회를 줄지도 모른다.

많은 과학자들과 예측자들은 인간과 기계의 인지능력 향상의 가능한 유익성과 위해성에 대한 조기 연구의 우선순위를 정해야 한다고 주장한다. 왜냐하면 그러한 [5]기술의 잠재적인 사회적 영향 때문이다.

인공지능의 실현 가능성

이미지의 기계 분류 진행률
연도별 AI 오류율입니다.빨간색 선은 훈련된 사람의 오류율을 나타냅니다.

철학자 데이비드 찰머스는 인공지능이 초인적인 지능으로 가는 매우 가능성이 높은 길이라고 주장한다.Chalmers는 이 주장을 AI가 인간의 지능과 동등성을 달성할 수 있고, 인공지능이 인간의 지능을 능가하도록 확장될 수 있으며, 임의적인 [6]업무에서 인간을 완전히 지배하도록 더욱 증폭될 수 있다는 주장으로 요약한다.

인간 수준의 동등성에 관해, Chalmers는 인간의 뇌는 기계적인 시스템이며, 따라서 합성 [7]물질에 의해 파괴될 수 있어야 한다고 주장한다.그는 또한 인간의 지능이 생물학적으로 진화할 수 있었고, 따라서 인간 공학자들이 이 발명을 반복할 가능성이 더 높아졌다고 지적한다.특히 진화 알고리즘은 인간 수준의 [8]AI를 생성할 수 있어야 한다.지능 확장과 증폭에 관해 Chalmers는 새로운 AI 기술이 일반적으로 개선될 수 있으며, 이는 특히 발명이 새로운 기술을 [9]설계하는 데 도움을 줄 수 있을 때 가능성이 높다고 주장한다.

만약 강력한 AI에 대한 연구가 충분히 지능적인 소프트웨어를 생산한다면, "재귀적 자기계발"[citation needed]이라고 불리는 기능인 재프로그래밍과 개선을 할 수 있을 것이다.그 후, 한층 더 향상해, 급속히 증가하는 사이클에 의해서, 슈퍼 인텔리전스로 연결되는 것이 가능하게 됩니다.이 시나리오는 정보 폭발로 알려져 있습니다.그러한 지능은 인간의 지성의 한계를 가지지 않을 것이고,[citation needed] 거의 모든 것을 발명하거나 발견할 수 있을 것이다.

컴퓨터 부품은 이미 속도 면에서 인간의 성능을 크게 능가합니다.보스트롬은 "생물학적 뉴런은 약 200Hz의 최고 속도로 작동하는데, 이는 현대의 마이크로프로세서(~2GHz)[10]보다 7단이나 느린 속도이다."라고 쓰고 있다. 게다가 뉴런은 "기존 전자 처리 코어들이 빛의 속도로 광학적으로 통신할 수 있는 것처럼" 120m/s 이하의 속도로 축삭을 통해 스파이크 신호를 전달한다."따라서, 슈퍼 인텔리전스의 가장 간단한 예는 두뇌보다 훨씬 더 빠른 하드웨어에서 실행되는 에뮬레이트된 인간의 마음일 수 있다.현재 인간보다 수백만 배나 더 빨리 생각할 수 있는 인간과 같은 추론자는 대부분의 추론 작업, 특히 서두르거나 긴 일련의 행동을 필요로 하는 작업에서 지배적인 이점을 가질 것이다.

컴퓨터의 또 다른 장점은 모듈화입니다.즉, 컴퓨터의 크기나 계산 능력을 늘릴 수 있습니다.인간이 아닌(또는 변형된) 뇌는 많은 슈퍼 컴퓨터처럼 오늘날의 인간의 뇌보다 훨씬 더 커질 수 있다.Bostrom은 또한 집단적인 슈퍼 인텔리전스의 가능성을 제기합니다.충분히 많은 수의 개별 추론 시스템이 충분히 잘 전달되고 조정된다면 어떤 서브 에이전트보다 훨씬 더 큰 능력을 가지고 종합적으로 작동할 수 있습니다.

또한 인간의 추리와 의사결정을 질적으로 개선할 수 있는 방법이 있을 수 있다.인간은 뇌의 크기나 [11]속도에서 우리가 생각하는 방식에서 침팬지와 다른 것처럼 보인다.인간은 장기간의 계획과 언어 사용과 같은 새로운 또는 강화된 추론 능력 때문에 인간이 아닌 동물보다 많은 부분에서 더 뛰어나다.(인간지능과 영장류 인식의 진화 참조)비슷한 영향을 미칠 수 있는 추론의 다른 가능한 개선이 있다면, 이것은 인간이 침팬지를 [12]능가하는 같은 방식으로 인간을 능가하는 에이전트가 만들어질 수 있다는 것을 더 쉽게 만든다.

위의 모든 장점들은 인공 지능을 보유하지만, 생물학적 지능을 보유하는 것이 몇 가지인지는 명확하지 않다.생리적인 제약은 기계 지능에 적용할 수 없는 많은 방법으로 생물학적 뇌의 속도와 크기를 제한한다.이와 같이, 슈퍼 인텔리전스 관련 작가들은 슈퍼 인텔리전트 [13]AI 시나리오에 훨씬 더 많은 관심을 쏟고 있다.

생물학적 슈퍼 인텔리전스의 실현 가능성

세이건은 제왕절개술체외 수정의 등장은 인간이 더 큰 머리를 진화시켜 인간 [14]지능유전적인 요소에서 자연 도태를 통한 개선을 가져올 수 있다고 제안했다.이와는 대조적으로, Gerald Crabtree는 선택 압력의 감소가 인간의 지능의 느린, 수 세기 동안 감소하는 결과를 초래하고 있으며, 대신 이 과정이 미래에도 계속될 것이라고 주장했다.어느 쪽이든 과학적 합의가 이루어지지 않았고, 두 경우 모두 생물학적 변화는 느릴 것이며, 특히 문화적 변화 속도에 비해 더디게 진행될 것이다.

선택적 사육, 누트로픽, 후생유전학적 변조, 그리고 유전공학은 인간의 지능을 더욱 빠르게 향상시킬 수 있다.Bostrom은 만약 우리가 지능의 유전적 요소를 이해하게 된다면, 착상 전 유전자 진단은 IQ가 4포인트나 증가하거나 더 많은 이득을 얻는 배아에 대해 선택하는데 사용될 수 있을 것이라고 쓰고 있다.이 과정을 여러 세대에 걸쳐 반복하면 그 이득은 훨씬 더 커질 수 있습니다.Bostrom은 배아줄기세포에서 새로운 배우자를 추출하는 것이 선택 과정을 매우 [15]빠르게 반복하는데 사용될 수 있다고 제안한다.이런 종류의 지능이 높은 인간들로 구성된 잘 조직된 사회는 잠재적으로 집단적인 [16]지능을 달성할 수 있다.

또는, 집단 지능은 현재의 개인 지능 수준에서 인간을 더 잘 조직함으로써 구성될 수 있다.많은 작가들은 인간의 문명 또는 그 일부 측면(예: 인터넷 또는 경제)이 구성 요소를 훨씬 능가하는 능력을 가진 글로벌 두뇌처럼 기능하고 있다고 제안했습니다.그러나 이 시스템 기반의 초지능이 인공적인 요소에 크게 의존한다면 생물학 기반의 [17]초유기체라기보다는 AI로 인정받을 수 있을 것이다.예측 시장은 때로 인간으로만 구성된 집단 지능 시스템의 작동 사례로 간주된다(결정에 [18]정보를 제공하는 데 알고리즘이 사용되지 않는다고 가정).

지능 증폭의 마지막 방법은 인간 개개인의 사회적 또는 생식 역학을 강화하는 것과 반대로 직접적으로 인간을 향상시키는 것이다.이는 누트로픽스, 체세포 유전자 치료 또는 뇌-컴퓨터 인터페이스를 사용하여 달성할 수 있다.그러나 Bostrom은 처음 두 가지 접근법의 확장성에 대해 회의감을 나타내며, 슈퍼 인텔리전트 사이보그 인터페이스를 설계하는 것은 AI-완전[19]문제라고 주장한다.

예측

대부분의 조사 대상 AI 연구원들은 기계가 지능에서 결국 인간과 맞설 수 있을 것으로 예상하지만, 언제 이런 일이 일어날지에 대해서는 거의 합의가 이루어지지 않고 있다.2006년 AI@50 컨퍼런스에서 참석자 중 18%는 2056년까지 기계가 학습 및 인간 지능의 모든 측면을 시뮬레이션할 수 있을 것으로 예상했으며, 참석자 중 41%는 2056년 이후가 될 것으로 예상했으며, 41%는 기계가 결코 [20]이 이정표에 도달하지 못할 것으로 예상했습니다.

AI에서 가장 많이 인용된 100명의 저자를 대상으로 한 조사(2013년 5월 현재 마이크로소프트의 학술 조사에 따르면)에서 응답자가 "대부분의 인간 직업을 적어도 일반적인 인간처럼 수행할 수 있다"고 예상한 중간 연도(글로벌 재난이 발생하지 않는다고 가정함)는 10 %의 신뢰로 2024년(평균 2034년, st. dev 33년)로 50%였다.신뢰도는 2050년(평균 2072년, 평균 110년), 90% 신뢰도는 2070년(평균 2168년, 평균 342년)이다.이 추정치에는 신뢰도가 10%에 도달하지 못할 것이라는 응답은 1.2%, 신뢰도가 50%인 응답은 4.1%, 신뢰도가 90%인 응답은 16.5%를 제외했다.응답자들은 대략 인간 수준의 기계 [21]지능이 발명된 후 30년 이내에 기계 지능이 발명될 가능성에 중앙값 50%의 확률을 할당했다.

2018년에 발표된 머신러닝 연구자 352명을 대상으로 실시한 조사에서 응답자가 50%의 신뢰로 '고수준 머신 인텔리전스'를 기대하는 중간연도는 2061년으로[citation needed] 나타났다.이 조사는 높은 수준의 기계 지능의 달성을 지원받지 않은 기계가 인간 근로자보다 모든 작업을 더 잘, 더 저렴하게 수행할 수 있을 때라고 정의했다.

설계에 관한 고려 사항

Bostrom은 슈퍼 인텔리전스가 어떤 가치를 가지도록 설계되어야 하는지에 대해 우려를 표명했다.그는 몇 가지 [22]제안을 비교했다.

  • 일관성 있는 외삽법(CEV) 제안은 인간이 수렴하는 가치를 가져야 한다는 것이다.
  • 도덕적 정당성(MR) 제안은 도덕적 정당성을 중시해야 한다는 것이다.
  • Moral Permitability(MP; 도덕적 허용도) 제안은 도덕적 허용의 범위 내에 머무르는 것을 중시해야 한다는 것입니다(그 이외의 경우 CEV 값이 있어야 함).

Bostrom은 다음 용어를 명확히 합니다.

인류의 일관된 외삽적 의지를 실행하는 대신, 어떤 행동이 그 설명에 부합하는지 알아내기 위해 인공지능의 뛰어난 인지 능력에 의존하여 도덕적으로 옳은 일을 하는 것을 목표로 인공지능을 구축하려고 시도할 수 있다.우리는 이 제안을 "도덕적 정당성"(MR)이라고 부를 수 있습니다.MR은 또한 몇 가지 단점이 있는 것처럼 보일 것이다.그것은 철학자들이 분석에 대한 합의를 얻지 못한 채 고대부터 고군분투해 온 것으로 악명 높은 개념인 "도덕적 권리"의 개념에 의존하고 있다."도덕적 정당성"에 대한 잘못된 설명을 고르는 것은 도덕적으로 매우 잘못된 결과를 초래할 수 있습니다.이러한 [도덕적] 개념 중 하나를 AI에 부여하는 길은 AI에 일반적인 언어 능력(적어도 정상적인 인간 성인과 동등한)을 부여하는 것을 수반할 수 있다.자연어를 이해하는 그러한 일반적인 능력은 "도덕적 권리"가 의미하는 바를 이해하는 데 사용될 수 있다.AI가 의미를 파악할 수 있다면 그에 [22]맞는 행동을 찾을 수 있을 것이다.

도덕적 허용성에 초점을 맞춤으로써 MR 모델의 기본 개념을 보존하고, 도덕적 허용가능성에 초점을 맞춤으로써 그 요구를 줄이려고 할 수 있다. 즉, AI가 도덕적으로 허용되지 [22]않는 방식으로 행동하지 않는 한, 우리가 인류의 CEV를 추구하도록 내버려 둘 수 있다는 생각이다.

Bostrom에 대한 대응으로 Santos-Lang은 개발자들이 단일 종류의 [23]슈퍼 인텔리전스로 시작하려 할지도 모른다는 우려를 제기했다.

인류에 대한 잠재적 위협

인공지능 시스템이 급속히 지능화되면 예상치 못한 행동을 하거나 인간성을 [24]앞지를 수 있다는 주장이 제기됐다.연구원들은 "지능 폭발"을 통해, 자기 계발형 인공지능이 인간이 [25]막을 수 없을 정도로 강력해질 수 있다고 주장해왔다.

인간 멸종 시나리오와 관련하여 Bostrom(2002)은 슈퍼 인텔리전스를 가능한 원인으로 식별한다.

우리가 최초의 초지능적 실체를 만들 때, 우리는 실수를 해서 인류를 전멸시키는 목표를 줄 수 있다. 만약 그것의 엄청난 지적 이점이 그렇게 할 힘을 준다고 가정한다면 말이다.예를 들어, 우리는 실수로 서브 목표를 슈퍼 목표의 지위로 격상시킬 수 있다.수학적인 문제를 풀라고 하면태양계 내의 모든 물질을 거대한 계산 장치로 변환하고그 과정에서 질문을 한 사람을 죽이는 겁니다

이론적으로, 슈퍼 인텔리전트 AI는 거의 모든 가능한 결과를 가져올 수 있고 목표의 실행을 막는 어떠한 시도도 좌절시킬 수 있기 때문에, 많은 통제되지 않은 의도하지 않은 결과들이 발생할 수 있다.다른 모든 요원을 죽이거나 행동을 바꾸도록 설득하거나 [26]간섭 시도를 차단할 수 있습니다.Eliezer Yudkowsky이러한 도구적 융합을 다음과 같이 설명한다: "AI는 당신을 미워하지도 않고 사랑하지도 않지만,[27] 당신은 다른 것에 사용할 수 있는 원자로 만들어졌다."

는 AI 제어의 문제를 제시하는데, 어떻게 하면 크리에이터를 돕는 인텔리전트 에이전트를 구축할 수 있는가 하는 것과 동시에 크리에이터를 해치는 슈퍼 인텔리전스를 의도하지 않게 구축할 수 있는가 하는 것입니다."처음" 제어권을 설계하지 않는 것의 위험은 슈퍼 인텔리전스가 환경에 대한 권력을 장악하고 인간이 그것을 정지시키는 것을 막을 수 있다는 것이다.슈퍼 인텔리전트 AI는 죽음을 두려워하지 않고 전원 [28]버튼만 비활성화하면 예측하고 피할 수 있는 피할 수 있는 상황으로 간주할 가능성이 높기 때문이다.잠재적인 AI 제어 전략으로는 「능력 제어」(AI가 세계에 영향을 미치는 능력을 제한하는 것)와 「모티베이션 제어」(목표가 인간의 가치와 일치하는 AI를 구축하는 것)가 있다.

히바드는 초지능에 대한 공교육과 초지능 [29]개발에 대한 공적인 통제를 옹호한다.

「 」를 참조해 주세요.

인용문

  1. ^ a b Bostrom 2014, 2장
  2. ^ Bostrom 2014, 페이지 22
  3. ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric (eds.), "The Biointelligence Explosion", Singularity Hypotheses, Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 199–238, doi:10.1007/978-3-642-32560-1_11, ISBN 978-3-642-32559-5, retrieved 2022-01-16
  4. ^ Gouveia, Steven S., ed. (2020). "ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce". The Age of Artificial Intelligence: An Exploration. ISBN 978-1-62273-872-4.
  5. ^ Legg 2008, 135-137페이지.
  6. ^ 2010년 Chalmers, 7페이지
  7. ^ 2010년 Chalmers, 페이지 7-9
  8. ^ 2010년 Chalmers, 페이지 10-11
  9. ^ 2010년 Chalmers, 11-13페이지
  10. ^ Bostrom 2014, 59페이지
  11. ^ Yudkowsky, Eliezer (2013). Intelligence Explosion Microeconomics (PDF) (Technical report). Machine Intelligence Research Institute. p. 35. 2013-1.
  12. ^ Bostrom 2014, 페이지 56-57.
  13. ^ Bostrom 2014, 페이지 52, 59-61.
  14. ^ Sagan, Carl (1977). The Dragons of Eden. Random House.
  15. ^ Bostrom 2014, 37-39페이지.
  16. ^ Bostrom 2014, 페이지 39
  17. ^ Bostrom 2014, 페이지 48-49.
  18. ^ Watkins, Jennifer H. (2007), Prediction Markets as an Aggregation Mechanism for Collective Intelligence
  19. ^ Bostrom 2014, 36-37, 42, 47페이지.
  20. ^ Maker, Meg Houston (July 13, 2006). "AI@50: First Poll". Archived from the original on 2014-05-13.
  21. ^ 뮐러 & 보스트롬 2016, 페이지 3-4, 6, 9-12.
  22. ^ a b c Bostrom 2014, 페이지 209–221.
  23. ^ Santos-Lang 2014, 16-19페이지.
  24. ^ 조이, 왜 미래는 우리가 필요 없는 거지?입력: Wired Magazine.기술적 특이성도 참조하십시오.Nick Bostrom 2002 첨단 인공지능 윤리 문제
  25. ^ Muhlhauser, Luke, Louie Helm, 2012년."지능의 폭발과 기계의 윤리"특이점 가설에서:Amnon Eden, Johnny Söraker, James H. Moor 및 Eric Steinhart에 의해 편집된 과학적이고 철학적인 평가.베를린: 스프링거.
  26. ^ 보스트롬, 닉2003. "첨단 인공지능의 윤리 문제"이바 스미트와 조지 E. 래스커, 12-17에 의해 편집된 인간 및 인공지능에서의 의사 결정의 인지적, 감정적, 윤리적 측면.Vol.2. 윈저, ON: 시스템 연구/사이버네틱스 국제 고등 연구 연구소.
  27. ^ Eliezer Yudkowsky (2008) 글로벌 리스크의 호불호가 되는 인공지능 분야
  28. ^ Russell, Stuart (2016-05-17). "Should We Fear Supersmart Robots?". Scientific American. 314 (6): 58–59. Bibcode:2016SciAm.314f..58R. doi:10.1038/scientificamerican0616-58. ISSN 0036-8733. PMID 27196844.
  29. ^ Hibbard 2002, 페이지 155-163.

참고 문헌

페이퍼

책들

외부 링크