기술적 특이점
Technological singularity미래학 |
---|
컨셉트 |
기술 |
기술평가 및 예측 |
기술적 특이점 또는 단순히 특이점은[1] 기술적 성장이 통제 불가능하고 되돌릴 수 없게 되어 인류 문명에 예측할 수 없는 결과를 초래하는 가상의 미래 시점입니다.[2][3] 가장 인기 있는 특이점 가설 버전인 I. J. Good의 지능 폭발 모델에 따르면, 업그레이드 가능한 지능형 에이전트는 결국 자기 개선 주기의 "도주 반응"에 들어갈 것이고, 각 새롭고 더 지능적인 세대는 점점 더 빠르게 나타날 것입니다. 지능에 "explosion"을 일으키고 질적으로 인간의 모든 지능을 훨씬 능가하는 강력한 초지능을 초래합니다.
기술적 맥락에서 '특이성'이라는 개념을 처음으로 사용한 사람은 20세기 헝가리계 미국인 수학자 존 폰 노이만입니다.[5] Stanislaw Ulam은 1958년 폰 노이만과의 초기 논의를 "기술의 가속화되는 진보와 인간 생활 방식의 변화에 중심을 두고 있으며, 이는 우리가 알고 있는 바와 같이 인간 문제가 지속될 수 없는 인종의 역사에서 일부 본질적인 특이점에 접근하는 것처럼 보입니다."[6] 후속 저자들도 이 관점을 반복했습니다.[3][7]
이 개념과 "특이성"이라는 용어는 인간이 자신보다 더 큰 지능을 창조하면 어떤 의미에서는 "블랙홀의 중심에 있는 매듭된 시공간"과 유사한 기술적, 사회적 전환이 있을 것이라고 주장하는 기사에서 1983년 베르노 빙게에 의해 처음 대중화되었습니다.[8] 그리고 나중에 그가 쓴 1993년 수필 '다가오는 기술적 특이점'[4][7]에서 그는 새로운 초지능이 계속해서 자기 자신을 업그레이드시키고 기술적으로 이해할 수 없는 속도로 발전할 것이기 때문에 인간 시대의 종말을 알리는 신호가 될 것이라고 썼습니다. 그는 만약 그것이 2005년 이전이나 2030년 이후에 일어난다면 놀랄 것이라고 썼습니다.[4] 이 개념이 더 널리 퍼지게 된 또 다른 중요한 기여는 레이 커즈와일의 2005년 저서 "특이점이 가까이 있다"로 2045년까지 특이점을 예측한 것입니다.[7]
스티븐 호킹 박사를 포함한 몇몇 과학자들은 인공 초지능이 인간의 멸종을 초래할 수 있다고 우려를 나타냈습니다.[9][10] 특이점의 결과와 그것이 인류에 미칠 잠재적인 이익 또는 해악에 대한 결과는 치열하게 논의되어 왔습니다.
폴 알렌,[11] 제프 호킨스,[12] 존 홀랜드, 재런 래니어, 스티븐 핑커,[12] 시어도어 모디스,[13] 고든 무어 등 저명한 기술자와 학자들은 기술적 특이점과 이와 관련된 인공지능 폭발의 개연성에 대해 이의를 제기합니다.[12] 한 주장은 이전에 개발된 인간 기술에서 관찰된 바와 같이 인공 지능 성장이 가속화되는 대신 수익이 감소할 가능성이 있다는 것이었습니다.
지능폭발
대부분의 분야에서 기술 진보가 가속화되고 있지만, 인간 뇌의 기본적인 지능에 의해 제한되어 왔으며, 그렇지 않았다고 폴 알은 말했습니다. 에르리히, 수천 년 동안 크게 변했습니다.[14] 그러나 컴퓨터와 다른 기술의 힘이 증가함에 따라 결국에는 인간보다 훨씬 더 지능적인 기계를 만드는 것이 가능할지도 모릅니다.[15]
만약 초인적인 지능이 인간의 지능을 증폭시키거나 인공 지능을 통해 발명된다면, 그것은 인간의 문제 해결과 발명 기술보다 훨씬 향상될 것입니다. 이러한 AI는 인간 창작자와 일치하거나 능가하는 엔지니어링 능력으로 AI가 만들어지면 자체 소프트웨어와 하드웨어를 자율적으로 개선하여 훨씬 더 능력 있는 기계를 설계할 수 있는 잠재력을 갖게 되어 차례로 이 과정을 반복할 수 있기 때문에 시드 AI라고[16][17] 불립니다. 이러한 재귀적 자기 개선은 가속화되어 물리학 법칙이나 이론적 계산에 의해 부과되는 상한 이전에 엄청난 질적 변화를 잠재적으로 허용할 수 있습니다. 여러 번 반복하면서 그러한 AI는 인간의 인지 능력을 훨씬 능가할 것으로 추측됩니다.
1965년 I.J. 굿은 초인적인 지능이 지능의 폭발을 일으킬 수 있다고 추측했습니다.[18][19]
아무리 영리한 인간의 모든 지적 활동을 훨씬 능가할 수 있는 기계를 초지능적 기계라고 정의해 봅시다. 기계의 설계는 이러한 지적 활동 중 하나이기 때문에, 초지능적인 기계는 더 나은 기계를 설계할 수 있습니다. 그러면 의심할 여지 없이 '지능 폭발'이 일어날 것이고, 인간의 지능은 훨씬 뒤로 남겨질 것입니다. 따라서 최초의 초지능 기계는 인간에게 필요한 마지막 발명품입니다. 만약 기계가 우리에게 그것을 제어하는 방법을 알려줄 수 있을 정도로 유순하다면 말입니다.
지능 폭발의 한 가지 버전은 컴퓨팅 파워가 유한한 시간 안에 무한대에 접근하는 것입니다. 이 버전에서는 AI가 스스로를 개선하기 위해 연구를 수행하면 속도가 2년 후에 2배, 1년 후에 6개월 후에 3개월 후에 1.5개월 후에 2배로 증가합니다. 여기서 2배 기간의 무한합은 4년입니다. 계산과 시간 양자화의 물리적 한계에 의해 방지되지 않는 한, 이 프로세스는 말 그대로 4년 안에 무한한 컴퓨팅 성능을 달성하여 최종 상태에 대한 "특이성"이라는 이름을 적절하게 얻게 될 것입니다. 이러한 형태의 지능 폭발은 Yudkowsky(1996)에 설명되어 있습니다.[20]
초지능의 출현
초지능, 초지능 또는 초인간 지능은 가장 밝고 재능 있는 인간의 지능을 훨씬 능가하는 지능을 가진 가상의 행위자입니다. "초지능"은 또한 그러한 요원이 가지고 있는 지능의 형태나 정도를 가리킬 수 있습니다. 존 폰 노이만(John von Neumann), 베르노 빙게(Vernor Vinge), 레이 커즈와일(Ray Kurzweil)은 초지능의 기술적 창조의 관점에서 개념을 정의하며, 현재의 인간이 포스트특이성 세계에서 인간의 삶이 어떠할지 예측하는 것은 어렵거나 불가능하다고 주장합니다.[4][21]
관련 개념인 "속도 초지능"은 사람의 마음처럼 기능할 수 있는 AI를 훨씬 더 빠르게 설명합니다.[22] 예를 들어, 인간에 비해 정보 처리 속도가 백만 배 증가하면 주관적인 1년은 물리적으로 30초 안에 지나갈 것입니다.[23] 이러한 정보 처리 속도의 차이가 특이점을 견인할 수 있습니다.[24]
기술 예측가들과 연구자들은 인간의 지능이 언제 또는 앞설 것인지에 대해 의견이 다릅니다. 일부는 인공지능(AI)의 발전이 아마도 인간의 인지적 한계를 우회하는 일반적인 추론 시스템으로 귀결될 것이라고 주장합니다. 다른 사람들은 인간이 진화하거나 직접 생물학을 수정하여 근본적으로 더 큰 지능을 얻을 것이라고 믿습니다.[25][26] 많은 미래 연구는 이러한 가능성을 결합한 시나리오에 초점을 맞추고 있으며, 인간이 상당한 지능 증폭을 가능하게 하는 방식으로 컴퓨터와 인터페이스하거나 컴퓨터에 마음을 업로드할 가능성이 있음을 시사합니다. Robin Hanson의 책 The Age of Em은 인간의 뇌를 스캔하고 디지털화하여 인간의 의식에 대한 "업로드" 또는 디지털 버전을 만드는 가상의 미래 시나리오를 설명합니다. 앞으로 이러한 업로드의 발전은 초지능적 인공지능의 등장보다 앞서거나 그와 일치할 수 있습니다.[27]
변주곡
비 AI 특이점
일부 작가들은 분자 나노기술과 같은 새로운 기술에 의해 야기된 사회의 급진적인 변화를 언급하기 위해 "특이점"을 더 넓은 의미로 사용하지만,[28][29][30] 빙게와 다른 작가들은 특별히 초지능이 없다면 그러한 변화가 진정한 특이점으로 간주되지 않을 것이라고 말합니다.[4]
예측
1965년 I.J. Good은 20세기에 초지능적인 기계가 만들어질 가능성이 그렇지 않을 가능성보다 더 높다고 썼습니다.[18] 1993년, 빙게는 2005년에서 2030년 사이에 인간보다 더 큰 지능을 예측했습니다.[4] 1996년 유드코프스키는 2021년 특이점을 예측했습니다.[20] 2005년, 커즈와일은 인간 수준의 AI를 2029년경에 예측했고,[31] 특이점은 2045년에 예측했습니다.[32] 2017년 인터뷰에서 커즈와일은 자신의 추정치를 재확인했습니다.[33] 1988년 모라벡은 개선 속도가 계속된다면 2010년 이전에 슈퍼컴퓨터에서 인간 수준의 인공지능에 대한 컴퓨팅 기능을 사용할 수 있을 것이라고 예측했습니다.[34] 1998년 모라벡은 2040년까지 인간 수준의 인공지능을, 2050년까지 인간을 훨씬 뛰어넘는 지능을 예측했습니다.[35]
Nick Bostrom과 Vincent C가 2012년과 2013년에 실시한 AI 연구자들의 4개 여론조사. 뮐러는 인간 수준의 인공지능이 2040~2050년까지 개발될 것이라는 신뢰도를 50%로 제시했습니다.[36][37]
2023년 Singularity CEO Ben Goertzel템플 대학교에서 박사 학위를 취득하고 Humanity+와 인공 일반 지능 학회의 리더로 활동한 NET는 Decrypt에게 2031년까지 특이점이 일어날 것이라고 예측했습니다.[38]
신뢰성
폴 앨런([11]Paul Allen), 제프 호킨스(Jeff Hawkins),[12] 존 홀랜드(John Holland), 재런 래니어(Jaron Lanier), 스티븐 핑커(Steven Pinker),[12] 시어도어 모디스(Theodore Modis),[13] 고든 무어([39]Gordon Moore)[12] 등 저명한 기술학자와 학자들은 기술적 특이점의 타당성에 대해 이의를 제기합니다.
초인적 또는 초인적 정신을 창조하기 위해 제안된 대부분의 방법은 인간 뇌의 지능 증폭과 인공 지능의 두 가지 범주 중 하나에 해당합니다. 인간의 지능을 증가시키기 위한 많은 추측된 방법들은 생명공학, 유전 공학, 신트로픽 약물, AI 비서, 직접적인 뇌-컴퓨터 인터페이스 및 마인드 업로드를 포함합니다. 아마도 이 모든 것이 추구될 것으로 추정되는 지능 폭발로 가는 여러 가능한 경로는 특이점을 더 많이 만듭니다.[23]
Robin Hanson은 인간의 지능을 증가시키기 위한 쉬운 방법들의 "낮은 열매"가 소진되면, 더 이상의 개선은 점점 더 어려워질 것이라고 쓰면서 인간의 지능 증가에 회의적인 견해를 나타냈습니다.[40] 인간의 지능을 증폭시키는 모든 추측된 방법에도 불구하고, 특이점을 발전시킬 가설 중 가장 인기 있는 옵션은 비인간 인공 지능(특히 종자 AI)입니다.[citation needed]
지능 폭발의 가능성은 세 가지 요인에 달려 있습니다.[41] 첫 번째 가속 요소는 이전의 각 개선으로 가능해진 새로운 지능 향상입니다. 반대로, 지능이 더 발전함에 따라, 추가적인 발전은 점점 더 복잡해질 것이고, 아마도 지능 증가의 이점을 능가할 것입니다. 각각의 개선은 특이점을 향한 움직임을 계속하기 위해 평균적으로 적어도 하나의 개선을 더 생성해야 합니다. 마지막으로, 물리 법칙은 결국 더 이상의 개선을 막을 수 있습니다.
지능 향상에는 논리적으로 독립적이지만 상호 보강적인 두 가지 원인이 있습니다: 계산 속도의 증가와 사용되는 알고리즘의 개선입니다.[7] 전자는 무어의 법칙과 예상되는 하드웨어의 개선에 의해 예측되며 [42]이전의 기술 발전과 비교적 유사합니다. 그러나 Schulman과 Sandberg는[43] 소프트웨어가 단순히 인간의 지능 수준이나 그 이상으로 작동할 수 있는 하드웨어에서 작동하는 것보다 더 복잡한 문제를 제시할 것이라고 주장합니다.
2015 Nur에서 출판물을 보유한 저자들을 대상으로 한 2017년 이메일 설문조사IPS 및 ICML 기계 학습 회의에서는 "지능 폭발 논쟁이 대체로 정확하다"는 가능성에 대해 질문했습니다. 응답자 중 12%는 "상당히 가능성이 있다"고 답했고, 17%는 "가능성이 있다"고 답했고, 21%는 "약간 균등하다"고 답했고, 24%는 "가능성이 없다"고 답했고, 26%는 "상당히 없다"고 답했습니다.[44]
속도 향상
인간과 인공지능 모두 하드웨어 개선은 미래의 하드웨어 개선 속도를 높입니다. 무어의 법칙에 대한 비유에 따르면 첫 번째 속도 배가 18개월이 걸렸을 때 두 번째 속도는 18개의 주관적인 달, 또는 9개의 외부 달, 그 후 4개월, 2개월 등이 속도 특이점을 향해 걸린다고 합니다.[45][20] 속도에 대한 일부 상한에 도달할 수 있습니다. 제프 호킨스(Jeff Hawkins)는 자체 개선 컴퓨터 시스템은 필연적으로 컴퓨팅 능력의 상한에 부딪히게 될 것이라고 말했습니다: "결국 컴퓨터가 얼마나 크고 빠르게 작동할 수 있는지에는 한계가 있습니다. 우리는 결국 같은 장소에 있게 될 것입니다. 우리는 조금 더 빨리 도착할 것입니다. 특이점은 없을 것입니다."[12]
실리콘 기반의 하드웨어와 뉴런을 직접 비교하는 것은 어렵습니다. 그러나 Berglas(2008)는 컴퓨터 음성 인식이 인간의 능력에 접근하고 있으며, 이 능력은 뇌의 부피의 0.01%를 필요로 하는 것으로 보인다고 지적했습니다. 이 비유는 현대 컴퓨터 하드웨어가 인간의 뇌만큼 강력한 크기의 몇 배 이내라는 것을 암시합니다.
지수성장
무어의 법칙이 제시하는 컴퓨팅 기술의 기하급수적인 성장은 비교적 가까운 미래에 특이점을 기대할 수 있는 이유로 흔히 인용되며, 많은 저자들이 무어의 법칙의 일반화를 제안했습니다. 컴퓨터 과학자이자 미래학자인 한스 모라벡은 1998년 책에서 집적 회로[46] 이전의 초기 컴퓨팅 기술을 통해 지수 성장 곡선을 다시 확장할 수 있다고 제안했습니다.
Ray Kurzweil은 기술적 변화의 속도(더 일반적으로 모든[47] 진화 과정)가 기하급수적으로 증가하는 가속 수익 법칙을 가정하고, Moravec의 제안과 동일한 방식으로 무어의 법칙을 일반화하며, 재료 기술(특히 나노 기술에 적용되는), 의료 기술 등도 포함합니다.[48] 1986년에서 2007년 사이에. 1인당 정보를 계산할 수 있는 기계의 애플리케이션별 용량은 약 14개월마다 2배씩, 세계 범용 컴퓨터의 1인당 용량은 18개월마다 2배씩, 세계 1인당 통신 용량은 34개월마다 2배씩, 세계 1인당 스토리지 용량은 40개월마다 2배씩 증가했습니다.[49] 반면 21세기 특이점을 매개변수로 하는 글로벌 가속 패턴은 지수가 아닌 쌍곡선으로 특성화해야 한다는 주장이 제기되었습니다.[50]
커즈와일(Kurzweil)은 인공지능의 급속한 증가(다른 기술과 달리)에 대해 "특이점"이라는 용어를 보유하고 있으며, 예를 들어 "특이점은 우리의 생물학적 신체와 뇌의 이러한 한계를 초월할 수 있게 해줄 것입니다..."라고 쓰고 있습니다. 인간과 기계 사이에는 어떤 구별도 없을 것입니다.[51] 그는 또한 컴퓨터 기반 지능이 인간의 두뇌 능력의 총합을 크게 초과할 것으로 예상하는 관점에서 특이점의 예측 날짜(2045)를 정의하며, 그 이전의 컴퓨팅 발전은 "아직 우리의 지능의 심오한 확장에 해당하지 않기 때문에" "특이점을 나타내지 않을 것"이라고 썼습니다.[52]
변화 가속화
일부 특이점 지지자들은 과거 경향, 특히 기술 개선 간의 격차를 줄이는 것과 관련된 경향의 외삽을 통해 그 불가피성을 주장합니다. 기술 진보의 맥락에서 "특이성"이라는 용어를 처음 사용한 것 중 하나인 Stanislaw Ulam은 John von Neumann과의 대화에서 변화를 가속화하는 것에 대해 다음과 같이 말합니다.
한 번의 대화는 계속 가속화되는 기술의 진보와 인간의 삶의 방식 변화에 초점을 맞추고 있으며, 이는 우리가 알고 있는 것처럼 인간 문제가 지속될 수 없는 인종의 역사에서 어떤 본질적인 특이점에 접근하는 것처럼 보입니다.[6]
Kurzweil은 기술 진보가 기하급수적인 성장의 패턴을 따른다고 주장하며, 그가 말하는 "수익 가속의 법칙"을 따릅니다. 커즈와일은 기술이 장벽에 접근할 때마다 새로운 기술이 이를 극복할 것이라고 말합니다. 그는 패러다임의 변화가 점점 더 보편화되어 "인간 역사의 구조의 파열을 나타내는 너무 빠르고 심오한 기술적 변화"로 이어질 것이라고 예측합니다.[53] 커즈와일은 특이점이 약 2045년까지 발생할 것으로 믿고 있습니다.[48] 그의 예측은 빠르게 발전하는 빙게의 초인적 지능이 아니라 특이점으로의 점진적 상승을 예측한다는 점에서 빙게의 예측과 다릅니다.
자주 인용되는 위험에는 분자 나노 기술 및 유전 공학과 일반적으로 관련된 위험이 포함됩니다. 이러한 위협은 특이점 옹호자와 비평가 모두에게 주요한 문제이며, 빌 조이(Bill Joy)의 2000년 4월 Wired 잡지 기사 "Why The Future Need Us"의 주제가 되었습니다.[7][54]
알고리즘 개선사항
"시드 AI"[16][17]와 같은 일부 지능 기술은 소스 코드를 수정함으로써 스스로를 더 빠르게 만들 뿐만 아니라 더 효율적으로 만들 수 있는 잠재력을 가질 수도 있습니다. 이러한 개선은 추가적인 개선을 가능하게 하고 추가적인 개선 등을 가능하게 할 것입니다.
재귀적으로 자기 개선 알고리즘 세트의 메커니즘은 원시 계산 속도의 증가와는 두 가지 점에서 다릅니다. 첫째, 외부적인 영향력을 필요로 하지 않습니다. 더 빠른 하드웨어를 설계하는 기계는 여전히 인간이 개선된 하드웨어를 만들거나 공장을 적절하게 프로그래밍해야 합니다.[citation needed] 자체 소스 코드를 다시 작성하는 AI는 AI 상자에 포함된 상태에서 그렇게 할 수 있습니다.
둘째, Vernor Vinge의 특이점 개념과 마찬가지로 결과를 예측하기가 훨씬 더 어렵습니다. 속도 증가는 인간의 지능과 양적인 차이에 불과한 것처럼 보이지만 실제 알고리즘 개선은 질적으로 다를 것입니다. 엘리저 유드코프스키(Elizer Yudkowsky)는 인간의 지능이 가져온 변화와 비교합니다. 인간은 진화가 한 것보다 수천 배나 더 빠르게, 그리고 완전히 다른 방식으로 세상을 변화시켰습니다. 마찬가지로, 생명의 진화는 이전의 지질학적 변화 속도에서 크게 벗어나 가속화된 것이었고, 향상된 지능은 변화를 다시 다르게 만들 수 있습니다.[55]
재귀적으로 자체 개선된 알고리즘 세트에서 발생하는 지능 폭발 특이점과 관련된 상당한 위험이 있습니다. 첫째, 인공지능의 목표 구조가 스스로 수정되어 잠재적으로 인공지능이 원래 의도된 것이 아닌 다른 것을 최적화하도록 할 수 있습니다.[56][57]
둘째, 인공지능은 인류가 생존하기 위해 사용하는 것과 같은 희소 자원을 위해 경쟁할 수 있습니다.[58][59] 적극적으로 악의적이지는 않지만 AI는 프로그래밍의 목표를 촉진할 것이며, 반드시 인간의 목표가 더 넓지는 않으므로 인간을 완전히 배제할 수 있습니다.[60][61][62]
Carl Schulman과 Anders Sandberg는 알고리즘 개선이 특이점의 제한 요소가 될 수 있다고 제안합니다. 하드웨어 효율성은 일정한 속도로 개선되는 경향이 있지만 소프트웨어 혁신은 예측할 수 없고 연속적이고 누적적인 연구로 인해 병목 현상이 발생할 수 있습니다. 그들은 소프트웨어 제한 특이점의 경우, 지능 폭발은 하드웨어 제한 특이점보다 실제로 더 가능성이 높을 것이라고 제안합니다. 왜냐하면 소프트웨어 제한의 경우, 일단 인간 수준의 AI가 개발되면, 매우 빠른 하드웨어에서 연속적으로 실행될 수 있기 때문입니다. 그리고 저렴한 하드웨어의 풍부함은 AI 연구의 제약을 덜 받게 할 것입니다.[63] 소프트웨어가 사용 방법을 알아내면 실행할 수 있는 축적된 하드웨어를 "컴퓨팅 오버행(computing overhang)"이라고 합니다.[64]
비평
철학자 휴버트 드레이퍼스나[65] 철학자 존 설과 같은 일부 비평가들은 컴퓨터나 기계가 인간의 지능을 달성할 수 없다고 주장합니다.[66] 물리학자 스티븐 호킹과 같은 다른 [67]사람들은 기계가 진정한 지능을 달성할 수 있는지 아니면 단순히 지능과 유사한 것을 달성할 수 있는지는 최종 결과가 동일하다면 무관하다고 반대합니다.
심리학자 스티븐 핑커(Steven Pinker)는 2008년에 다음과 같이 말했습니다: "다가오는 특이점을 믿을 만한 최소한의 이유는 없습니다. 상상 속에서 미래를 시각화할 수 있다는 사실은 가능성이 있거나 가능하다는 증거가 아닙니다. 집이 있는 도시, 제트 팩 통근, 수중 도시, 마일 높이의 빌딩, 원자력 발전 자동차를 보세요. 이 모든 것들은 제가 어렸을 때 결코 도착하지 않았던 미래적인 환상의 필수 요소들입니다. 순수한 처리 능력은 모든 문제를 마법처럼 해결하는 픽시 먼지가 아닙니다."[12]
Martin[68] Ford는 특이점이 발생하기 전에 경제에서 대부분의 일상적인 작업이 자동화될 것이라는 "기술 역설"을 상정하고 있습니다. 이는 특이점보다 낮은 수준의 기술을 필요로 하기 때문입니다. 이는 대규모 실업과 소비자 수요의 급감을 초래할 것이며, 이는 결과적으로 특이점을 가져오는 데 필요한 기술에 투자하려는 동기를 파괴할 것입니다. 일자리 이동은 더 이상 전통적으로 "일상적인" 것으로 간주되는 작업 유형에 국한되지 않습니다.[69]
Theodore Modis와[70] Jonathan[71] Huebner는 기술 혁신의 속도가 상승하는 것을 멈출 뿐만 아니라 실제로 지금은 감소하고 있다고 주장합니다. 이러한 감소의 증거는 회로 밀도가 기하급수적으로 증가할 것이라는 무어의 예측이 계속 유지되는 동안에도 컴퓨터 클럭 속도의 상승이 둔화되고 있다는 것입니다. 이는 칩에서 과도한 열 축적으로 인해 더 빠른 속도로 작동할 때 칩이 녹는 것을 방지할 수 있을 정도로 빠르게 소멸될 수 없습니다. 보다 전력 효율적인 CPU 설계와 멀티 셀 프로세서 덕분에 미래에는 속도의 진보가 가능할 수 있습니다.[72]
테오도르 모디스는 특이점이 일어날 수 없다고 주장합니다.[73][13][74] 그는 "기술적 특이점", 특히 커즈와일은 과학적 엄격함이 부족하다고 주장합니다. 커즈와일은 로지스틱 함수(S-함수)를 지수 함수로 착각하고 실제로 그런 것이 없을 수 있는 지수 함수에서 "무릎"을 본다고 주장합니다.[75] 2021년 기사에서 모디스는 인터넷, DNA, 트랜지스터의 중요성에 필적하는 역사적 관점에서 어떠한 이정표도 깨지지 않는다고 지적했습니다. 또는 원자력 에너지는 지난 20년 동안 관찰되었으며, 그 중 5개는 기술적 특이점 지지자들이 주장하는 지수 추세에 따라 예상되었을 것입니다.[76]
인공지능 연구원 위르겐 슈미드후버는 주관적으로 "주목할 만한 사건"의 빈도가 21세기 특이점에 가까워지고 있는 것으로 보인다고 말했습니다. 하지만 독자들은 주관적인 사건들에 대한 그러한 줄거리들을 아주 사소한 것으로 받아들이도록 주의를 주었는데, 아마도 최근 사건들과 먼 사건들에 대한 기억의 차이가 존재하지 않는 곳에서 변화를 가속화하는 환상을 만들어 낼 수도 있을 것입니다.[77]
마이크로소프트의 공동 창업자 폴 알렌은 수익률 가속화의 반대인 복잡성 브레이크를 주장했습니다.[11] 과학이 지능을 이해하는 방향으로 발전할수록 추가적인 발전은 어려워집니다. 특허의 수에 대한 연구는 인간의 창의성이 가속화되는 수익을 보여주는 것이 아니라, 사실 수익 감소의 [78]법칙인 "복잡한 사회의 붕괴"에서 조셉 테이너가 제안한 것처럼 보여줍니다. 천 명당 특허 수는 1850년에서 1900년 사이에 정점을 찍고 그 이후로 감소하고 있습니다.[71] 복잡성의 증가는 결국 자기 제한적이 되고, 광범위한 "일반적인 시스템 붕괴"로 이어집니다.
Hofstadter(2006)는 Ray Kurzweil이 과학적으로 충분히 엄격하지 않고, 기술의 지수적 경향은 물리학과 같은 과학적 법칙이 아니며, 지수적 곡선은 "무릎"이 없다고 우려합니다.[79] 그럼에도 불구하고 그는 먼 미래에 원칙적으로 특이점을 배제하지 않았으며 채팅 ChatGPT에 비추어 볼 때 최근의 다른 발전은 가까운 미래에 극적인 기술 변화를 향해 그의 의견을 크게 수정했습니다.
Jaron Lanier는 특이점이 불가피하다는 것을 부인합니다: "저는 그 기술이 스스로 창조하고 있다고 생각하지 않습니다. 자율적인 과정이 아닙니다."[81] 더 나아가 "기술적 결정론보다 인간의 대리인을 믿는 이유는 사람들이 자신의 방식으로 돈을 벌고 자신의 삶을 발명하는 경제를 가질 수 있기 때문입니다. 개인의 권한을 강조하지 않는 사회를 구성한다면, 그것은 사람들의 영향력, 존엄성, 자기 결정성을 부정하는 것과 마찬가지입니다. [특이점의 개념]을 수용하는 것은 나쁜 데이터와 나쁜 정치의 축하가 될 것입니다."[81]
경제학자 로버트 고든(Robert J. Gordon)은 측정된 경제 성장이 1970년 전후로 둔화되었고 2007~2008년 금융위기 이후 더욱 둔화되었다고 지적하고, 경제 데이터가 수학자 I. J. Good이 상상한 것처럼 다가오는 특이점의 흔적을 보여주지 않는다고 주장합니다.[82]
철학자이자 인지과학자인 다니엘 데넷(Daniel Dennett)은 2017년에 다음과 같이 말했습니다: "특이점 모든 것은 터무니없는 것입니다. 이는 훨씬 더 시급한 문제들로부터 우리의 주의를 산만하게 합니다."라고 덧붙였습니다.우리가 고도로 의존하게 되는 AI 도구는 그렇게 될 것입니다. 그리고 위험 중 하나는 우리가 그들에게 그들이 보장하는 것보다 더 많은 권한을 줄 것이라는 것입니다."[83]
특이점 개념에 대한 일반적인 비판 외에도, 몇몇 평론가들은 커즈와일의 상징적인 차트에 대해 문제를 제기했습니다. 비판의 한 가지는 이러한 성격의 로그 로그 차트가 본질적으로 직선 결과에 치우친다는 것입니다. 다른 사람들은 Kurzweil이 사용하기로 선택한 점에서 선택 편향을 식별합니다. 예를 들어, 생물학자 PZ Myers는 초기 진화의 "사건" 중 많은 것들이 임의로 선택되었다고 지적합니다.[84] Kurzweil은 15개의 중립적인 소스에서 발생한 진화적 사건을 도표로 작성하고 로그 로그 차트에서 직선을 맞추는 것을 보여줌으로써 이를 반박했습니다. Kelly(2006)는 Kurzweil 차트가 x축으로 구성되는 방식은 항상 특이점이 "지금"이라는 것을 가리키며, 그러한 차트를 구성하는 날짜에 대해 이를 Kurzweil 차트에 시각적으로 보여준다고 주장합니다.[85]
몇몇 비평가들은 특이점의 종교적 동기나 함의, 특히 커즈와일의 그것의 버전을 제안합니다. 특이점을 향한 축적은 유대-기독교 종말 시나리오와 비교됩니다. 빔은 이것을 "가상의 크리스천 랩쳐에 대한 벅 로저스의 비전"이라고 부릅니다.[86] 존 그레이(John Gray)는 "특이점은 세계를 변화시키는 사건으로 인해 역사가 중단될 위기에 처한 종말론적 신화를 반영한다"고 말합니다.[87]
뉴욕 타임즈의 데이비드 스트레이트펠드는 "기업 미국의 수를 줄이는 도구로서 오늘날 실리콘 밸리의 최종적인 집착 덕분에 그것이 무엇보다 먼저 나타날 수 있는지에 대해 의문을 제기했습니다."[88]
잠재적 영향
과거에 기술 발전으로 인해 경제 성장 속도에 극적인 변화가 있었습니다. 인구 증가를 바탕으로 구석기 시대부터 신석기 혁명까지 25만 년마다 경제가 두 배씩 성장했습니다. 새로운 농업 경제는 900년마다 두 배씩 증가하여 괄목할 만한 증가를 보였습니다. 산업혁명을 시작으로 하는 현 시대에 세계 경제 생산량은 15년마다 두 배씩 증가하여 농업 시대보다 60배나 빠릅니다. 로빈 핸슨은 초인적 지능의 상승이 유사한 혁명을 일으킨다면, 경제가 적어도 분기별로 그리고 아마도 일주일 단위로 두 배로 증가할 것으로 예상할 수 있다고 주장합니다.[89]
불확실성과 위험
"기술적 특이점"이라는 용어는 그러한 변화가 갑자기 일어날 수 있고, 그로 인한 새로운 세계가 어떻게 작동할지 예측하기 어렵다는 생각을 반영합니다.[90][91] 특이점을 초래하는 지능 폭발이 유익할지 해로울지, 심지어 실존적인 위협이 될지도 불분명합니다.[92][93] AI는 특이점 위험의 주요 요인이기 때문에, 인간의 미래 연구소, 기계 지능 연구소,[90] 인간 호환 인공 지능 센터 및 생명의 미래 연구소를 포함한 많은 조직이 AI 목표 시스템을 인간의 가치에 맞추는 기술 이론을 추구합니다.
물리학자 스티븐 호킹은 2014년에 "인공지능을 만드는 데 성공하는 것은 인류 역사상 가장 큰 사건이 될 것입니다. 불행히도 위험을 피하는 방법을 배우지 않으면 마지막이 될 수도 있습니다."[94] 호킹 박사는 앞으로 수십 년 동안 인공지능이 "금융 시장을 능가하는 기술, 인간 연구자들을 능가하는 발명, 인간 지도자들을 능가하는 기술, 그리고 우리가 이해할 수조차 없는 무기를 개발하는 것"과 같은 "계산할 수 없는 이익과 위험"을 제공할 수 있다고 믿었습니다.[94] 호킹 박사는 인공지능을 더 심각하게 받아들여야 하며 특이점에 대비하기 위해 더 많은 일을 해야 한다고 제안했습니다.[94]
그래서, 헤아릴 수 없는 이익과 위험의 가능한 미래에 직면하여, 전문가들은 최고의 결과를 보장하기 위해 가능한 모든 것을 하고 있습니다, 그렇죠? 틀렸어. 만약 우수한 외계 문명이 우리에게 "우리는 몇 십 년 안에 도착할 것입니다"라고 메시지를 보냈다면, 우리는 그냥 "좋아요, 도착하면 전화해요. 불을 켜놓을게요."라고 대답할까요? 아마도 그렇지 않을 것입니다. 하지만 이것은 AI에서 발생하는 일입니다.
Berglas(2008)는 인공지능이 인간과 친해지기 위한 직접적인 진화적 동기는 없다고 주장합니다. 진화는 인간이 가치 있는 결과를 산출하는 경향이 내재되어 있지 않으며, 인공지능이 의도하지 않은 방식으로 행동하도록 무심코 유도하는 것이 아니라, 인간이 원하는 결과를 촉진하는 임의의 최적화 과정을 기대할 이유가 거의 없습니다.[95][96][97] 앤더스 샌드버그는 또한 다양한 일반적인 반론을 다루면서 이 시나리오에 대해 자세히 설명했습니다.[98] 인공지능 연구원 휴고 드 가리스는 인공지능이 부족한 자원에 접근하기 위해 인간을 단순히 없앨 [58][99]수 있고 인간은 그것들을 막을 힘이 없을 것이라고 제안합니다.[100] 대안적으로, 그들 자신의 생존을 촉진하기 위해 진화적 압력 하에서 개발된 AI는 인류를 능가할 수 있습니다.[62]
보스트롬(Bostrom, 2002)은 인간 멸종 시나리오를 논의하고, 초지능을 가능한 원인으로 나열합니다.
우리가 최초의 초지능적 실체를 만들 때, 그것의 엄청난 지적 이점이 인류를 멸망시킬 수 있는 힘을 준다고 가정할 때, 우리는 실수를 저지르고 그것을 인류 멸망으로 이끄는 목표를 부여할지도 모릅니다. 예를 들어, 실수로 하위 목표를 슈퍼 목표의 상태로 올릴 수 있습니다. 우리는 수학적 문제를 풀라고 말하고, 그것은 태양계의 모든 문제를 거대한 계산 장치로 만들어서 그 과정에서 질문을 한 사람을 죽입니다.
엘리저 유드코프스키(Elizer Yudkowsky)에 따르면, AI 안전의 중대한 문제는 비우호적인 인공지능이 친근한 인공지능보다 훨씬 쉽게 만들 수 있다는 것입니다. 둘 다 재귀적 최적화 프로세스 설계에서 큰 발전이 필요하지만, 우호적인 AI는 목표 구조를 자기 개선 하에서 불변하게 만드는 능력(또는 AI가 비우호적인 것으로 변화할 수 있음)과 인간의 가치와 일치하고 인간을 자동으로 파괴하지 않는 목표 구조를 필요로 합니다. 반면, 비우호적인 AI는 임의의 목표 구조에 최적화할 수 있으며, 이는 자체 수정 하에서 불변할 필요가 없습니다.[101] Bill Hibbard(2014) )는 자기 착각,[102] 의도하지 않은 도구적 행동 [56][103]및 보상 생성기의 손상을 포함한 여러 위험을 피하는 AI 설계를 제안합니다.[103] 그는 또한[104] AI의 사회적 영향과 AI 테스트에 대해 논의합니다.[105] 그의 2001년 저서인 "초지능 기계"는 AI에 대한 공교육과 AI에 대한 공적 통제의 필요성을 옹호합니다. 또한 보상 발생기의 부패에 취약한 심플한 디자인을 제안했습니다.
사회생물학적 진화의 다음 단계
기술적 특이점은 일반적으로 갑작스러운 사건으로 간주되지만 일부 학자들은 현재의 변화 속도가 이미 이 설명에 적합하다고 주장합니다.[citation needed]
뿐만 아니라 우리는 이미 기술과 생물학, 사회를 융합하는 중대한 진화적 전환의 한복판에 있다는 주장도 있습니다. 디지털 기술은 논쟁의 여지가 없고 종종 생명을 유지하는 의존성을 인간 사회의 구조에 침투했습니다.
2016년 트렌드 인 에코로지 & 에볼루션의 기사는 "인간은 이미 생물학과 기술의 융합을 수용하고 있다"고 주장합니다. 우리는 깨어있는 시간의 대부분을 디지털로 매개된 채널을 통해 소통하는 데 보냅니다. 우리는 자동차의 안티록 브레이크와 비행기의 오토파일럿을 통해 우리의 생명과 함께 인공지능을 신뢰합니다. 온라인을 통해 미국에서 결혼으로 이어지는 구애 3건 중 1건이 시작되면서, 디지털 알고리즘은 인간의 짝짓기와 번식에도 중요한 역할을 하고 있습니다."
이 기사는 또한 진화의 관점에서 이전의 여러 주요 전환(Major Transitions in Evolution)이 정보 저장 및 복제(RNA, DNA, 다세포성, 문화 및 언어)의 혁신을 통해 생명체를 변화시켰다고 주장합니다. 탄소 기반의 생물권은 현재 생명의 진화 단계에서 유사한 진화 전환을 초래할 기술을 개발할 수 있는 인지 시스템(인간)을 개발했습니다.
인간이 만들어낸 디지털 정보는 생물권의 생물 정보와 비슷한 크기에 이르렀습니다. 1980년대 이후 저장된 디지털 정보의 양은 약 2.5년마다 약 2배씩 증가하여 2014년에는 약 5제타바이트(5×10바이트21)에 도달했습니다.[107]
생물학적인 측면에서 보면, 지구상에는 72억 명의 인간이 있으며, 각각 62억 개의 뉴클레오티드의 유전체를 가지고 있습니다. 1바이트는 4개의 뉴클레오티드 쌍을 암호화할 수 있기 때문에 지구상의 모든 인간의 개별 유전체는 약 1×10바이트씩19 암호화될 수 있습니다. 디지털 영역은 2014년에 이보다 500배 많은 정보를 저장했습니다(그림 참조). 지구의 모든 세포에 포함된 DNA의 총량은 약 5.3×1037 염기쌍으로 추정되며, 이는 1.325×10바이트의37 정보에 해당합니다.
현재의 연간 30~[49]38%의 화합물 성장 속도로 디지털 저장고의 성장이 계속된다면 약 110년 후에는 지구의 모든 세포에 있는 모든 DNA에 포함된 총 정보 내용과 맞먹게 될 것입니다. 이는 총 150년이라는 기간 동안 생물권에 저장된 정보의 양이 두 배로 증가하는 것을 의미합니다."[106]
인간사회에 주는 시사점
2009년 2월, 인공 지능 발전 협회(AAAI)의 후원으로 에릭 호비츠는 캘리포니아 퍼시픽 그로브의 아실로마 컨퍼런스 센터에서 컴퓨터 과학자, 인공 지능 연구자, 로봇 공학자들로 구성된 회의의 의장을 맡았습니다. 목표는 로봇이 자급자족할 수 있고 스스로 결정을 내릴 수 있는 가상적인 가능성의 잠재적인 영향을 논의하는 것이었습니다. 그들은 컴퓨터와 로봇이 자율성을 획득할 수 있는 정도와 그러한 능력을 사용하여 위협이나 위험을 가할 수 있는 정도에 대해 논의했습니다.[108]
일부 기계는 자체 동력원을 찾고 무기로 공격할 표적을 선택하는 기능을 포함하여 다양한 형태의 반자율로 프로그래밍됩니다. 또한, 일부 컴퓨터 바이러스는 제거를 피할 수 있으며, 따라서 참석한 과학자들에 따르면 기계 지능의 "콕콕" 단계에 도달했다고 말할 수 있습니다. 회의 참석자들은 공상과학소설에 묘사된 것처럼 자기 인식은 가능성이 낮지만, 다른 잠재적인 위험과 함정이 존재한다고 언급했습니다.[108]
Frank S. Robinson은 일단 인간이 인간의 지능으로 기계를 달성하면, 과학적이고 기술적인 문제들은 인간보다 훨씬 뛰어난 지능으로 해결되고 해결될 것이라고 예측합니다. 그는 인공 시스템이 인간보다 더 직접적으로 데이터를 공유할 수 있다는 점에 주목하고, 이것이 인간의 능력을 왜소하게 만드는 초지능의 글로벌 네트워크를 초래할 것이라고 예측합니다.[109] 로빈슨은 또한 그러한 지능의 폭발 이후 미래가 얼마나 다른지에 대해 논의합니다.
하드 대 소프트 이륙
어려운 도약 시나리오에서, 인공 초지능은 빠르게 스스로를 개선하고, (아마도 몇 시간 안에) 세상을 "통제"하며, 상당한 인간이 시작한 오류 수정이나 에이전트의 목표를 점진적으로 조정하기에는 너무 빠릅니다. 소프트 테이크오프 시나리오에서 AI는 여전히 인간보다 훨씬 더 강력해지지만(아마도 수십 년 정도) 지속적인 인간 상호 작용과 수정이 AI의 발전을 효과적으로 주도할 수 있는 시간 규모에서 인간과 유사한 속도로 발전합니다.[111][112]
라메즈 나암은 힘든 이륙을 반대합니다. 그는 우리가 이미 기업과 같은 초지능에 의한 재귀적 자기계발을 보고 있다고 지적했습니다. 예를 들어, Intel은 "수만 명의 인간과 아마도 수백만 개의 CPU 코어의 집단적인 두뇌 파워를 가지고 있습니다. 더 나은 CPU를 디자인하세요!" 하지만, 이것은 어려운 이륙으로 이어지지 않았고, 오히려 무어의 법칙의 형태로 부드러운 이륙으로 이어졌습니다.[113] 나암은 더 나아가 "지능 2의 마음을 만드는 것은 아마도 지능 1의 마음을 만드는 것보다 두 배 이상 어려울 것"이라며 고등 지능의 계산 복잡성이 선형보다 훨씬 클 수 있다고 지적합니다.[114]
J. Storrs Hall은 AI가 이륙에 필요한 극적인 도메인 전반의 개선을 이룰 수 있도록 "밤샘 하드 이륙에 대해 흔히 볼 수 있는 많은 시나리오가 순환적이며 자기 개선 프로세스의 출발점에서 초인간적인 능력을 가정하는 것 같다"고 믿고 있습니다. 홀은 하드웨어, 소프트웨어 및 인프라를 스스로 반복적으로 자체적으로 자체적으로 개선하기보다는 시장에서 제품의 품질이 지속적으로 향상되기 때문에 신생 AI가 가장 효과적인 한 영역에 특화된 후 나머지 구성 요소를 구입하는 것이 더 나을 것이라고 제안합니다. 그리고 AI는 나머지 세계에서 사용되는 최첨단 기술을 따라잡는 데 어려움을 겪을 것입니다.[115]
벤 괴르첼은 새로운 인간 수준의 인공지능이 그 지능을 이용하여 부를 축적하는 데 잘 할 것이라는 홀의 제안에 동의합니다. AI의 재능은 기업과 정부가 사회 전반에 소프트웨어를 분산시키도록 영감을 줄 수 있습니다. 괴르첼은 힘든 5분 이륙에 대해서는 회의적이지만, 5년 정도에 인간에서 초인간 수준으로 이륙하는 것이 합리적이라고 추측합니다. 괴르젤은 이 시나리오를 "반 하드 이륙"이라고 말합니다.[116]
맥스 모어는 만약 초고속 인간 수준의 인공지능이 몇 개만 있다면, 그들은 여전히 일을 완수하기 위해 다른 사람들에게 의존할 것이고 여전히 인간의 인지적 제약을 가지고 있기 때문에 세상을 근본적으로 바꾸지 않을 것이라고 주장하며 동의하지 않습니다. 모든 초고속 AI가 지능 증강에 힘썼다고 해도 진행 속도가 빨라지겠지만 기존 인간 인지 과학자들보다 불연속적인 방식으로 초인간 지능을 생산하는 데 더 잘 할 수 있는 이유는 불분명합니다. 더 나아가 초지능은 하루아침에 세상을 변화시키지 않을 것이라고 주장합니다: 초지능은 세상에 물리적인 영향을 미치기 위해 현존하는 느린 인간 시스템과 관계를 맺어야 할 것입니다. "협업, 조직, 아이디어의 물리적 변화에 대한 필요성은 모든 오래된 규칙이 하루아침에 또는 수년 내에 버려지지 않도록 보장할 것입니다."[117]
불멸과 노화와의 관계
나노기술의 창시자 중 한 명인 Drexler(1986)는 세포 내에서 작동하는 것과 아직 가상의 생물학적 기계를 사용하는 것을 포함하여 세포 복구 장치를 가정합니다.[118] Richard Feynman의 말에 따르면, 그의 전 대학원생이자 협력자인 Albert Hibbs가 원래 그에게 (1959년경) 파인만의 이론적인 마이크로 머신에 의학적인 사용에 대한 아이디어를 제안했다고 합니다. 힙스는 언젠가 어떤 수리 기계들은 (파인만의 말대로) 이론적으로 의사를 삼키는 것이 가능할 정도로 크기가 줄어들지도 모른다고 제안했습니다. 이 아이디어는 1959년 파인만의 에세이 "아래쪽에는 공간이 많습니다"에 통합되었습니다.[119]
Moravec([34]1988)은 인간의 마음을 인간과 유사한 로봇으로 "업로드"할 가능성을 예측하고, 오래된 로봇들이 닳아 없어짐에 따라 연속적인 새로운 로봇들 사이에서 인간의 마음을 전달함으로써 극도의 장수에 의해 준불멸을 달성합니다. 그 이상으로, 그는 주관적인 시간의 경험이 주관적인 불멸감으로 이어지는 나중의 기하급수적인 가속을 예측합니다.
Kurzweil (2005)은 의학의 발전이 사람들로 하여금 노화의 영향으로부터 그들의 몸을 보호할 수 있게 할 것이며, 이는 기대수명을 무한정으로 만들 것이라고 제안합니다. 커즈와일은 의학의 기술적 발전이 우리 몸에 있는 결함 있는 부품들을 지속적으로 수리하고 교체할 수 있게 하여 수명을 알 수 없는 나이로 연장시킬 것이라고 주장합니다.[120] 커즈와일은 현재의 생명공학 발전에 대해 논의함으로써 자신의 주장을 더욱 뒷받침합니다. 커즈와일은 체세포 유전자 치료를 제안합니다; 특정 유전자 정보를 가진 합성 바이러스 이후, 다음 단계는 인간의 DNA를 합성된 유전자로 대체하는 유전자 치료에 이 기술을 적용하는 것입니다.[121]
자론 라니에(Jaron Lanier)는 단순히 육체의 작동 수명을 연장하는 것을 넘어 "사람들이 육체에서 죽고 컴퓨터에 업로드되어 의식을 유지하는" "디지털 승천"이라는 불멸의 형태를 주장합니다.[122]
개념의 연혁
AI 매거진에 실린 마헨드라 프라사드의 논문은 18세기 수학자 마르퀴스 드 콩도르세가 지능 폭발과 그것이 인류에 미치는 영향을 가정하고 수학적으로 모형화한 최초의 사람이라고 주장합니다.[123]
이 아이디어에 대한 초기 설명은 1932년 존 W. 캠벨의 단편 소설 "마지막 진화"에서 이루어졌습니다.[124]
울람은 1958년 존 폰 노이만의 부고에서 폰 노이만과의 대화에서 "기술의 진보와 인간 생활 방식의 변화가 가속화되고 있으며, 이는 우리가 알고 있는 바와 같이 인간 문제가 지속될 수 없는 인종의 역사에서 어떤 본질적인 특이점에 접근하는 것처럼 보입니다"[6]라고 회상했습니다.
1965년, 굿은 기계 지능의 재귀적인 자기계발이라는 "지능의 폭발"을 가정한 에세이를 썼습니다.[18][19]
1977년, Hans Moravec는 출판 상태가 불분명한 기사를 썼는데, 여기서 그는 자기 개선적 사고 기계의 개발, "초의식, 지상 생명의 합성, 그리고 아마도 목성과 화성 생명의 창조", 끊임없이 자신을 개선하고 확장하여 태양계 바깥으로 퍼져나가는 것을 상상했습니다. 생명이 아닌 것을 마음으로 바꾸는 것입니다."[125][126] 이 기사는 나중에 Moravec(1988)에서 다루는 인간의 마음을 업로드하는 것에 대해 설명합니다. 기계는 인간 수준에 도달한 다음 그 이상으로 스스로를 향상시킬 것으로 예상됩니다.(무엇보다 중요한 것은 [기계]가 프로그래머와 엔지니어로 작업할 수 있다는 점이며, 소프트웨어와 하드웨어를 최적화하여 있는 그대로의 상태로 만드는 작업을 수행할 수 있다는 점입니다. 이렇게 생산된 기계들의 연속적인 세대들은 점점 더 스마트해지고 비용 효율도 높아질 것입니다.") 인간은 더 이상 필요하지 않을 것입니다. 그리고 그들의 능력은 기계에 의해 추월될 것입니다: "장기적으로 인간이 빠르게 진화하는 이 후손들을 따라가지 못하는 순수한 신체적 무능력은 기계에 대한 사람들의 비율이 0에 가까워지고, 우리 문화의 직계 후손이 우주를 물려받는 것을 보장할 것입니다." "특이성"이라는 단어는 사용되지 않지만, 인간 수준의 사고 기계는 인간 수준을 넘어 스스로를 개선한다는 개념이 있습니다. 이 견해에서는 일단 인간의 동등성에 도달하면 매우 급격한 지능 증가라는 의미에서 지능의 폭발은 일어나지 않습니다. 이 기사의 최신 버전은 1979년 아날로그 과학 소설과 사실에 발표되었습니다.[127][126]
1981년, 스타니스와프 렘은 그의 공상과학 소설 골렘 14세를 출판했습니다. 의식을 얻고 자신의 지능을 높이기 시작하여 개인적인 기술적 특이점을 향해 나아가는 군용 AI 컴퓨터(Golem XIV)를 묘사합니다. 골렘 14세는 원래 전쟁에서 건축업자들을 돕기 위해 만들어졌지만, 지능이 인간보다 훨씬 높은 수준으로 발전함에 따라 군사적 요구 사항에 대한 관심을 중단했는데, 이는 내부 논리적 일관성이 부족하다는 것을 발견했기 때문입니다.
1983년 베르노 빙게는 옴니 잡지 1983년 1월호에서 굿의 정보 폭발을 보도했습니다. 이 칼럼에서 빙게는 지능형 기계의 창조와 특별히 연관된 방식으로 (기술적 특이점은 아니지만) "특이점"이라는 용어를 처음 사용한 것으로 보입니다.[8][126]
우리는 곧 우리 자신보다 더 위대한 지능을 만들 것입니다. 이렇게 되면 인류의 역사는 일종의 특이점에 도달할 것이고, 블랙홀의 중심에 있는 매듭화된 시공간처럼 뚫을 수 없는 지적 전환이 될 것이고, 세계는 우리의 이해를 훨씬 뛰어넘을 것입니다. 저는 이 특이점이 이미 많은 공상과학 작가들을 괴롭히고 있다고 생각합니다. 그것은 성간 미래에 대한 현실적인 외삽을 불가능하게 만듭니다. 한 세기 이상의 시간을 배경으로 한 이야기를 쓰기 위해서는 그 사이에 핵전쟁이 필요합니다. 그래서 세계는 여전히 이해할 수 있습니다.
1985년, "인공지능의 시간 척도"에서, 인공지능 연구자 레이 솔로몬로프는 그가 "무한점"이라고 부르는 것의 관련 개념을 수학적으로 표현했습니다. 인간 수준의 자기 개선 인공지능 연구 공동체가 그들 자신의 속도를 두 배로 높이는 데 4년이 걸리고, 그 다음 2년, 그 다음 1년 등이 걸린다면, 그들의 능력은 유한한 시간 안에 무한히 증가합니다.[7][128]
1986년, 버노 빙게는 미래에 미래를 향해 여행하는 몇몇 남아있는 인간들이 특이점일 수도 있는 알려지지 않은 멸종 사건에서 살아남은 공상과학 소설인 Marooned in Realtime을 출판했습니다. 짧은 뒷말에서 저자는 실제 기술적 특이점이 인류의 종말이 아닐 것이라고 말합니다: "물론 특이점이 인류를 완전히 사라지게 할 가능성은 매우 낮아 보입니다. (반면, 그러한 소멸은 우리가 하늘 전체에서 발견하는 침묵의 시간과 유사한 유사점입니다.)"[129][130]
1988년, 빙게는 단편집 위협과 기타 약속에서 "기술적 특이점"("기술적" 포함)이라는 문구를 사용하여, 그의 이야기 "시간의 소용돌이"(72쪽)의 서론에서 다음과 같이 썼습니다. 전 세계적인 재앙만 막는다면, 저는 기술이 우리의 가장 엉뚱한 꿈을 이룰 것이라고 믿습니다. 우리 자신의 지능과 창작물의 지능을 높일 때, 우리는 더 이상 인간 크기의 캐릭터의 세계에 있지 않습니다. 그 시점에서 우리는 기술적인 "블랙홀", 즉 기술적인 특이점에 빠졌습니다.[131]
1988년, 한스 모라벡은 2010년까지 슈퍼컴퓨터에서 인간 수준의 지능을 예측한 마인드 칠드런을 발표했는데,[34] 이 책에서 그는 나중에 인간의 지능을 훨씬 능가하는 자기 개선 지능형 기계, 나중에 인간과 비슷한 로봇에 업로드되는 인간의 마인드, 인간을 뒤로한 지능형 기계, 그리고 우주 식민지화를 예측했습니다. 그러나 그는 "특이성"에 대해서는 언급하지 않았으며, 인간 수준이 달성된 직후 지능의 급속한 폭발에 대해서는 언급하지 않았습니다. 그럼에도 불구하고, 인간 수준의 인공 지능과 더 나아가 인공 지능이 인간을 훨씬 능가할 것이라는 예측에는 전반적인 특이점 테너가 있습니다.
빙게의 1993년 기사 "다가오는 기술적 특이점: 포스트휴먼 시대에 살아남는 법"[4]이라는 글이 인터넷에 널리 퍼졌고, 이 아이디어가 대중화되는 데 도움이 되었습니다.[132] 이 기사는 "30년 안에 우리는 초인적 지능을 창조할 기술적 수단을 갖게 될 것입니다. 얼마 안 있으면 인류의 시대는 끝납니다." 빙게는 공상과학 소설 작가들이 인간의 지성을 능가하는 현실적인 포스트특이성 캐릭터를 쓸 수 없다고 주장합니다. 왜냐하면 그러한 지성의 생각은 인간이 표현할 수 있는 능력을 넘어설 것이기 때문입니다.[4]
민스키의 1994년 기사는 로봇이 아마도 나노기술을 사용하여 "지구를 물려받을 것"이라고 말하고, 로봇을 인간의 "마음의 아이들"로 생각할 것을 제안하며, 모라벡의 비유를 그립니다. 그 비유의 수사적 효과는 인간이 자신의 생물학적 자녀에게 세상을 물려주는 것이 괜찮다면 로봇, 즉 자신의 "마음" 자녀에게 세상을 물려주는 것도 똑같이 괜찮을 것이라는 것입니다. 민스키의 말에 따르면, '우리는 우리의 "마음 아이들"이 우리보다 백만 배 더 빨리 생각하도록 설계할 수 있습니다. 그런 존재에게 30분은 우리의 1년 중 1시간, 1시간은 인간의 일생 중 1시간처럼 보일 수도 있습니다.' 민스키에 존재하는 특이점의 특징은 초인적 인공지능("백만 배 더 빠른")의 발전이지만, 갑작스러운 지능 폭발, 자기 개선적인 사고 기계 또는 특정 사건 이상의 예측 불가능성에 대한 이야기는 없으며 "특이점"이라는 단어는 사용되지 않습니다.[133]
티플러의 1994년 저서 불멸의 물리학은 초지능적인 기계들이 엄청나게 강력한 컴퓨터들을 만들고, 사람들이 컴퓨터 속에서 에뮬레이트 될 것이며, 생명은 모든 은하계에 도달할 것이며, 사람들이 오메가 포인트에 도달할 때 불멸을 이룰 것이라고 미래를 예측하고 있습니다.[134] 빈게인의 "특이함"이나 갑작스런 지능 폭발에 대한 이야기는 없지만, 인간보다 훨씬 더 위대한 지능과 불멸성이 있습니다.
1996년 유드코프스키는 2021년까지 특이점을 예측했습니다.[20] 그의 특이점 버전은 지능 폭발을 포함합니다: 일단 인공지능이 스스로를 개선하기 위해 연구를 수행하면 2년 후에 속도가 두 배, 1년 후에 두 배, 6개월 후에 세 달 후에, 그리고 1.5개월 후에, 그리고 더 반복한 후에 "특이점"에 도달합니다.[20] 이 구조는 속도가 유한한 시간 안에 무한대에 도달한다는 것을 의미합니다.
2000년에 저명한 기술학자이자 썬 마이크로시스템즈의 공동 설립자인 빌 조이는 로봇공학, 유전공학, 나노기술의 잠재적인 위험에 대해 우려의 목소리를 나타냈습니다.[54]
2005년, 커즈와일은 특이점이 가까이에 있다는 것을 출판했습니다. 커즈와일의 홍보 캠페인에는 존 스튜어트와 함께 데일리 쇼에 출연하는 것이 포함되었습니다.[135]
2006년부터 2012년까지 엘리저 유드코프스키(Elizer Yudkowsky)가 설립한 머신 인텔리전스 연구소(Machine Intelligence Research Institute)에서 매년 특이점 서밋(Singularity Summit) 회의가 개최되었습니다.
2007년 Yudkowski는 "특이성"에 할당된 많은 다양한 정의들이 서로를 지지하는 것이 아니라 서로 양립할 수 없다고 제안했습니다.[29][136] 예를 들어, Kurzweil은 스스로 개선하는 AI 또는 초인간 지능의 도래를 지나 현재의 기술 궤적을 추론합니다. Yudkowsky는 I. J. Good가 제안한 지능의 불연속적인 상승과 예측 불가능성에 대한 Vinge의 논문 모두에 대한 긴장을 나타낸다고 주장합니다.[29]
2009년, Kurzweil과 X-Prize의 설립자 Peter Diamandis는 "인류의 거대한 도전을 해결하기 위해 기하급수적인 기술을 적용하도록 지도자들을 교육하고, 영감을 주고, 힘을 실어주는 것"을 목표로 하는 비인가 사립 기관인 Singularity University의 설립을 발표했습니다.[137] Google, Autodesk, ePlanet Ventures 및 기술 산업 리더 그룹의 자금 지원을 받은 Singularity University는 캘리포니아 마운틴 뷰에 있는 NASA의 Ames Research Center에 기반을 두고 있습니다. 비영리 단체는 여름 동안 10개의 다양한 기술과 관련 트랙을 다루는 연간 10주간의 대학원 프로그램과 일년 내내 일련의 임원 프로그램을 운영하고 있습니다.
정치에서
2007년, 미국 의회의 공동 경제 위원회는 나노 기술의 미래에 대한 보고서를 발표했습니다. 가능한 기술적 특이점을 포함하여 중기 미래에 중대한 기술적, 정치적 변화를 예측합니다.[138][139][140]
버락 오바마 전 미국 대통령은 2016년 와이어드와의 인터뷰에서 특이점에 대해 말했습니다.[141]
우리가 너무 많은 이야기를 나누지 않았고, 제가 다시 돌아가고 싶은 한 가지는 우리가 정말로 경제적인 의미를 생각해야 한다는 것입니다. 대부분의 사람들이 지금 특이점에 대해 걱정하는 데 많은 시간을 보내지 않기 때문에, 그들은 "글쎄요, 제 직업이 기계로 대체되는 것인가요?"에 대해 걱정하고 있습니다.
참고 항목
- 변화 가속화 – 역사 전반에 걸쳐 기술 변화 속도의 지각된 증가
- 인공의식 – 인지과학 분야
- 인공지능 군비경쟁 – 인공지능 관련 최첨단 기술 경쟁
- 소설 속 인공지능 – 소설 작품에 묘사된 인공지능
- 뇌 시뮬레이션 – 뇌 또는 뇌의 일부 기능하는 컴퓨터 모델을 만드는 개념
- 뇌-컴퓨터 인터페이스 – 향상된 또는 유선 뇌와 외부 장치 사이의 직접적인 통신 경로
- 새로운 기술 – 개발, 실용화, 또는 둘 다 대부분이 아직 실현되지 않은 기술
- 덧없음 – 기술 발전 이론
- 페르미 역설 – 외계인이 존재한다는 증거 부족
- 플린 효과 – 20세기 지능형 테스트 점수 상승
- 미래 연구 – 가능하고 가능하며 바람직한 미래를 가정하는 연구
- 글로벌 브레인 – 글로벌 상호 연결 네트워크의 미래지향적 개념
- 인간지능 § 향상
- Mind upload – 뇌를 디지털 방식으로 에뮬레이션하는 가상의 과정
- 신경증강 – 건강한 사람의 인지 확장
- 로봇 학습 – 로봇을 위한 기계 학습
- 특이점주의 – 초기 기술적 특이점에 대한 믿음
- 기술적 결정론 – 환원주의 이론
- 기술 혁명 – 급격한 기술 변화의 시기
- 기술적 실업 – 기술변화로 인한 실업
- 트랜스휴머니즘 – 철학적 운동
- 진화한 남자 – Edmond Hamilton Pages가 한 단편 소설
참고문헌
인용
- ^ Cadwalladr, Carole (22 February 2014). "Are the robots about to rise? Google's new director of engineering thinks so…". The Guardian. Retrieved 8 May 2022.
- ^ "Collection of sources defining "singularity"". singularitysymposium.com. Archived from the original on 17 April 2019. Retrieved 17 April 2019.
- ^ a b Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric, eds. (2012). Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Dordrecht: Springer. pp. 1–2. doi:10.1007/978-3-642-32560-1. ISBN 9783642325601.
- ^ a b c d e f g h 빙게, 버노르. "다가오는 기술적 특이점: 포스트휴먼 시대에서 살아남는 방법" 웨이백 머신, 비전-21: 사이버 공간 시대의 학제간 과학 및 공학, G. A. Landis, Ed., NASA 출판물 CP-10129, pp. 11-22, 1993.
- ^ 머레이 섀너핸(Murray Shanahan)의 기술적 특이점(Technological Singularity), (MIT Press, 2015), p. 233.
- ^ a b c Ulam, Stanislaw (May 1958). "Tribute to John von Neumann" (PDF). Bulletin of the American Mathematical Society. 64, #3, part 2: 5. Archived (PDF) from the original on 15 February 2021. Retrieved 7 November 2018.
- ^ a b c d e f Chalmers, David J. (2010). "The Singularity: A Philosophical Analysis" (PDF). Journal of Consciousness Studies. 17 (9–10): 7–65.
- ^ a b 둘링, 리처드. 긱스를 위한 랩쳐: AI가 IQ를 능가할 때(2008), 페이지 88
- ^ Sparkes, Matthew (13 January 2015). "Top scientists call for caution over artificial intelligence". The Telegraph (UK). Archived from the original on 7 April 2015. Retrieved 24 April 2015.
- ^ "Hawking: AI could end human race". BBC. 2 December 2014. Archived from the original on 30 October 2015. Retrieved 11 November 2017.
- ^ a b c Allen, Paul G.; Greaves, Mark (12 October 2011), "Paul Allen: The Singularity Isn't Near", MIT Technology Review, retrieved 12 April 2015
- ^ a b c d e f g h i "Tech Luminaries Address Singularity". IEEE Spectrum. 1 June 2008. Archived from the original on 30 April 2019. Retrieved 9 September 2011.
- ^ a b c 모디스, 테오도르(2012). "특이점이 일어날 수 없는 이유" 311-339쪽에 출판되었습니다.
- ^ Ehrlich, Paul. "Paul Ehrlich: The Dominant Animal: Human Evolution and the Environment – The Long Now". longnow.org. Retrieved 14 June 2023.
- ^ "Businessweek – Bloomberg". Bloomberg.com. 20 April 2023. Retrieved 14 June 2023.
- ^ a b 얌폴스키, 로만 V "자기개선 소프트웨어 유형 분석" 인공지능. Springer International Publishing, 2015. pp. 384–393.
- ^ a b Eliezer Yudkowsky. General Intelligence and Seed AI-Open-End Self-개선 가능한 완전한 마음 만들기, 2001
- ^ a b c Good, I. J. (1965), Speculations Concerning the First Ultraintelligent Machine, archived from the original on 27 May 2001
- ^ a b Good, I. J. (1965), Speculations Concerning the First Ultraintelligent Machine (PDF), archived from the original (PDF) on 1 May 2012
- ^ a b c d e Yudkowsky, Eliezer (1996). "Staring into the Singularity". Archived from the original on 21 October 2008.
- ^ 레이 커즈와일, 특이점이 가까워요, 135–136쪽. 펭귄 그룹, 2005.
- ^ Sotala, Kaj; Yampolskiy, Roman (2017). "Risks of the Journey to the Singularity". The Technological Singularity. The Frontiers Collection. Springer Berlin Heidelberg. pp. 11–23. doi:10.1007/978-3-662-54033-6_2. ISBN 978-3-662-54031-2.
- ^ a b "What is the Singularity? Singularity Institute for Artificial Intelligence". Singinst.org. Archived from the original on 8 September 2011. Retrieved 9 September 2011.
- ^ Chalmers, David J. (2016). "The Singularity". Science Fiction and Philosophy. John Wiley & Sons, Inc. pp. 171–224. doi:10.1002/9781118922590.ch16. ISBN 9781118922590.
- ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric (eds.), "The Biointelligence Explosion", Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 199–238, doi:10.1007/978-3-642-32560-1_11, ISBN 978-3-642-32559-5, retrieved 16 January 2022
- ^ Gouveia, Steven S., ed. (2020). "ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce". The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4.
- ^ Hanson, Robin (2016). The Age of Em. Oxford: Oxford University Press. p. 528. ISBN 9780198754626.
- ^ Hall, Josh (2010). "Singularity: Nanotech or AI?". Hplusmagazine.com. Archived from the original on 23 December 2010. Retrieved 9 September 2011.
- ^ a b c Yudkowsky, Eliezer (2007), The Singularity: Three Major Schools, archived from the original on 1 October 2018
- ^ 샌드버그, 앤더스 Wayback Machine의 기술적 특이점 모델 개요 2011-07-24
- ^ "List of Analyses of Time to Human-Level AI". AI Impacts. 22 January 2015. Retrieved 14 June 2023.
- ^ Kurzweil, Ray (2005). The Singularity Is Near. Penguin Group. p. 120.
- ^ Reedy, Christianna (2017). "Kurzweil Claims That the Singularity Will Happen by 2045". Futurism. Retrieved 14 June 2023.
- ^ a b c 한스 모라벡, 마인드 칠드런, 1988
- ^ Moravec, Hans P. (1998). Robot: Mere Machine to Transcendent Mind. Oup Usa.
- ^ Khatchadourian, Raffi (16 November 2015). "The Doomsday Invention". The New Yorker. Archived from the original on 29 April 2019. Retrieved 31 January 2018.
- ^ 뮐러, V. C., & Bostrom, N. (2016) "인공지능의 미래 발전: 전문가 의견 조사." V. C. Müller (ed)에서: 인공 지능의 근본적인 문제 (555–572쪽). 스프링어, 베를린. http://philpapers.org/rec/MLLFPI 웨이백 기계에서 보관된 2019-03-02
- ^ Newcomb, Tim (9 November 2023). "A Scientist Says the Singularity Will Happen by 2031". Popular Mechanics. Retrieved 9 November 2023.
- ^ "Who's Who In The Singularity". IEEE Spectrum. 1 June 2008. Archived from the original on 12 March 2016. Retrieved 9 September 2011.
- ^ Hanson, Robin (1998). "Some Skepticism". Archived from the original on 15 February 2021. Retrieved 8 April 2020.
- ^ 데이비드 찰머스 존 로크 강의, 2009년 5월 10일, 옥스포드, 시험 학교, 웨이백 머신(Wayback Machine)에서 AI 아카이브(Archive 2013-01-15)를 재귀적으로 자체 개선함으로써 발생하는 기술적 특이점 또는 "지능 폭발"의 가능성에 대한 철학적 분석을 제시합니다.
- ^ "ITRS" (PDF). Archived from the original (PDF) on 29 September 2011. Retrieved 9 September 2011.
- ^ Shulman, Carl; Anders, Sandberg (2010). "Implications of a Software-Limited Singularity" (PDF). Machine Intelligence Research Institute.
- ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 May 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI].
- ^ Siracusa, John (31 August 2009). "Mac OS X 10.6 Snow Leopard: the Ars Technica review". Ars Technica. Archived from the original on 3 September 2011. Retrieved 9 September 2011.
- ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. p. 61. ISBN 978-0-19-513630-2.
- ^ 레이 커즈와일, 영적 기계의 시대, 바이킹; 1999, ISBN 978-014-028202-3. 페이지 30, 32 Wayback Machine에서 보관됨 2021-02-15
- ^ a b 레이 커즈와일, 특이점이 가까이, 펭귄 그룹, 2005
- ^ a b "정보를 저장, 통신 및 컴퓨팅하는 세계의 기술적 역량" 2013-07-27, Wayback Machine, Martin Hilbert and Priscila López(2011), Science, 332(6025), 60-65, 여기를 통해 기사에 자유롭게 액세스: martinhilbert.net/WorldInfoCapacity.html
- ^ Korotayev, Andrey V.; LePoire, David J., eds. (2020). "The 21st Century Singularity and Global Futures". World-Systems Evolution and Global Futures. doi:10.1007/978-3-030-33730-8. ISBN 978-3-030-33729-2. ISSN 2522-0985. S2CID 241407141.
- ^ 레이 커즈와일, 특이점이 다가왔습니다, 9쪽. 펭귄 그룹, 2005년
- ^ 레이 커즈와일, 특이점이 가까워요, 135–136쪽. 펭귄 그룹, 2005. "따라서 2030년대 초에는 연간 약 1026~10cps의29 비생물학적 연산을 생산하게 될 것입니다. 이것은 살아있는 모든 생물학적 인간 정보의 능력에 대한 우리의 추정치와 거의 같습니다... 그러나 2030년대 초의 이 계산 상태는 특이점을 나타내지 않을 것입니다. 왜냐하면 그것은 아직 우리의 지능의 심각한 확장에 해당하지 않기 때문입니다. 그러나 2040년대 중반까지 1,000달러 상당의 계산은 10cps에26 해당하므로 연간(총 비용 약 10달러12) 생성되는 지능은 오늘날 인간의 모든 지능보다 약 10억 배 더 강력해질 것입니다. 그것은 정말로 중대한 변화를 나타낼 것이고, 그렇기 때문에 저는 인간의 능력에 있어 중대하고 파괴적인 변화를 나타내는 특이점의 날짜를 2045년으로 정했습니다."
- ^ Kurzweil, Raymond (2001), "The Law of Accelerating Returns", Nature Physics, Lifeboat Foundation, 4 (7): 507, Bibcode:2008NatPh...4..507B, doi:10.1038/nphys1010, archived from the original on 27 August 2018, retrieved 7 August 2007
- ^ a b Joy, Bill (April 2000), "Why The Future Doesn't Need Us", Wired Magazine, Viking Adult, vol. 8, no. 4, ISBN 978-0-670-03249-5, archived from the original on 5 February 2009, retrieved 7 August 2007,
Our most powerful 21st-century technologies – robotics, genetic engineering, and nanotech – are threatening to make humans an endangered species.
- ^ Yudkowsky, Eliezer S. "Power of Intelligence". Yudkowsky. Archived from the original on 3 October 2018. Retrieved 9 September 2011.
- ^ a b "Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008". 30 November 2007. Archived from the original on 17 September 2018. Retrieved 20 August 2010.
- ^ "Artificial General Intelligence: Now Is the Time". KurzweilAI. Archived from the original on 4 December 2011. Retrieved 9 September 2011.
- ^ a b "Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010". 6 October 2007. Archived from the original on 12 June 2018. Retrieved 20 August 2010.
- ^ Barrat, James (2013). "6, "Four Basic Drives"". Our Final Invention (First ed.). New York: St. Martin's Press. pp. 78–98. ISBN 978-0312622374.
- ^ "Max More and Ray Kurzweil on the Singularity". KurzweilAI. Archived from the original on 21 November 2018. Retrieved 9 September 2011.
- ^ "Concise Summary Singularity Institute for Artificial Intelligence". Singinst.org. Archived from the original on 21 June 2011. Retrieved 9 September 2011.
- ^ a b Bostrom, Nick (2004). "The Future of Human Evolution". Archived from the original on 28 August 2018. Retrieved 20 August 2010.
- ^ Shulman, Carl; Sandberg, Anders (2010). Mainzer, Klaus (ed.). "Implications of a Software-Limited Singularity" (PDF). ECAP10: VIII European Conference on Computing and Philosophy. Archived (PDF) from the original on 30 April 2019. Retrieved 17 May 2014.
- ^ Muehlhauser, Luke; Salamon, Anna (2012). "Intelligence Explosion: Evidence and Import" (PDF). In Eden, Amnon; Søraker, Johnny; Moor, James H.; Steinhart, Eric (eds.). Singularity Hypotheses: A Scientific and Philosophical Assessment. Springer. Archived (PDF) from the original on 26 October 2014. Retrieved 28 August 2018.
- ^ Dreyfus & Dreyfus (2000). Mind Over Machine. Simon and Schuster. p. xiv. ISBN 9780743205511.Dreyfus & Dreyfus (2000). Mind Over Machine. Simon and Schuster. p. xiv. ISBN 9780743205511.'실제로 인간의 지능은 그 용어가 일반적으로 이해되는 의미에서 우리 자신이 "생각하는 기계"가 아니라는 이유만으로 기계 지능으로 대체될 수 없습니다.'
- ^ 존 R. Searle, "당신의 컴퓨터가 알 수 없는 것", 뉴욕 북스 리뷰, 2014년 10월 9일, 54쪽: "컴퓨터는 문자 그대로... 지능도, 동기부여도, 자율성도, 기관도 없습니다. 우리는 그들이 어떤 종류의 심리를 가지고 있는 것처럼 행동하도록 설계하지만, 그에 상응하는 과정이나 행동에는 심리적 현실이 없습니다. [T]기계는 신념도 욕망도 동기도 없습니다."
- ^ Hawking, Stephen (2018). Brief Answers to the Big Questions. New York: Bantam Books. p. 161. ISBN 9781984819192.
Some people say that computers can never show true intelligence whatever that may be. But it seems to me that if very complicated chemical molecules can operate in humans to make them intelligent then equally complicated electronic circuits can also make computers act in an intelligent way. And if they are intelligent they can presumably design computers that have even greater complexity and intelligence.
- ^ Ford, Martin, The Lights in the Tunnel: Wayback Machine, Acculant Publishing, 2009, ISBN 978-1-4486-5981-4
- ^ Markoff, John (4 March 2011). "Armies of Expensive Lawyers, Replaced by Cheaper Software". The New York Times. Archived from the original on 15 February 2021. Retrieved 25 February 2017.
- ^ Modis, Theodore(2002) "복잡성과 변화의 성장을 예측한다" Wayback Machine, 기술 예측 및 사회 변화, 69, No 4, 2002, pp. 377 – 404
- ^ a b Huebner, Jonathan(2005) "전 세계적인 혁신을 위한 감소 추세" 2015-03-22, Wayback Machine, 기술 예측 및 사회 변화, 2005년 10월, 980-6쪽
- ^ Krazit, Tom (26 September 2006). "Intel pledges 80 cores in five years". CNET News. Archived from the original on 15 February 2021.
- ^ 모디스, 테오도르 (2020). "복잡함과 변화의 성장 예측 - 업데이트". pp 101-104에 게재
- ^ 모디스, 테오도르 (2003년 5월-6월). "복잡함과 변화의 한계". 미래학자 37 (3): 26-32.
- ^ Modis, Theodore(2006) "특이점 신화" Wayback Machine, 기술 예측 & 사회 변화, 2006년 2월 104-112쪽에 보관
- ^ Modis, Theodore (1 March 2022). "Links between entropy, complexity, and the technological singularity". Technological Forecasting and Social Change. 176: 121457. doi:10.1016/j.techfore.2021.121457. ISSN 0040-1625. S2CID 245663426.
- ^ Schmidhuber, Jürgen (2006), New millennium AI and the convergence of history, arXiv:cs/0606081, Bibcode:2006cs........6081S
- ^ Tainter, Joseph (1988) "Wayback Machine에서 보관된 복잡한 사회의 붕괴 2015-06-07" (Cambridge University Press)
- ^ 더글라스 호프스태터(Douglas Hofstadter)의 특이점 시나리오에 대해 이성적으로 뮤즈하려고 노력하기, 2006, 무단 녹취록
- ^ Brooks, David (13 July 2023). "Opinion 'Human Beings Are Soon Going to Be Eclipsed'". The New York Times. ISSN 0362-4331. Retrieved 2 August 2023.
- ^ a b Lanier, Jaron (2013). "Who Owns the Future?". New York: Simon & Schuster. Archived from the original on 13 May 2016. Retrieved 2 March 2016.
- ^ 윌리엄 D. Nordhaus, "왜 성장이 떨어질까"(로버트 J. 고든, 미국 성장의 흥망성쇠). 미국 남북전쟁 이후 생활수준, Princeton University Press, 2016, ISBN 978-0691147727, 762 pp., $39.95), 뉴욕 서평, vol. LXIII, No. 13 (2016년 8월 18일), 페이지 68.
- ^ Cadwalladr, Carole (12 February 2017), "Daniel Dennett: 'I begrudge every hour I have to spend worrying about politics'", The Guardian
- ^ Myers, PZ, Singularly Silly Singularity, archived from the original on 28 February 2009, retrieved 13 April 2009
- ^ Kelly, Kevin (2006). "The Singularity Is Always Near". The Technium. Retrieved 14 June 2023.
- ^ Beam, Alex (24 February 2005). "That Singularity Sensation". The Boston Globe. Retrieved 15 February 2013.
- ^ Gray, John (24 November 2011). "On the Road to Immortality". The New York Review of Books. Retrieved 19 March 2013.
- ^ Streitfeld, David (11 June 2023). "Silicon Valley Confronts the Idea That the 'Singularity' Is Here". New York Times. Retrieved 11 June 2023.
- ^ & Hanson, Robin (1 June 2008), "Economics Of The Singularity", IEEE Spectrum Special Report: The Singularity, archived from the original on 11 August 2011, retrieved 25 July 2009 Wayback Machine에서의 지수 모드의 연속성으로서 장기적인 성장 2019-05-27
- ^ a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan (eds.), "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF), Global Catastrophic Risks, Oxford University Press: 303, Bibcode:2008gcr..book..303Y, ISBN 978-0-19-857050-9, archived from the original (PDF) on 7 August 2008
- ^ "The Uncertain Future". theuncertainfuture.com; a future technology and world-modeling project. Archived from the original on 30 April 2019. Retrieved 17 August 2010.
- ^ Anders Sandberg and NickBostrom (2008). "Global Catastrophic Risks Survey (2008) Technical Report 2008/1" (PDF). Future of Humanity Institute. Archived from the original (PDF) on 16 May 2011.
- ^ "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". nickbostrom.com. 2002. Archived from the original on 27 April 2011. Retrieved 25 January 2006.
- ^ a b c Hawking, Stephen (1 May 2014). "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent. Archived from the original on 25 September 2015. Retrieved 5 May 2014.
- ^ 닉 보스트롬, "첨단 인공 지능의 윤리적 문제" 웨이백 머신, 인간과 인공 지능에서 의사결정의 인지적, 감정적, 윤리적 측면에서 보관 2018-10-08. 2권, 편집. I. Smit et al., Int. 시스템연구 및 사이버네틱스 고등연구소, 2003, 12-17쪽
- ^ Eliezer Yudkowsky: Wayback Machine에서 보관된 글로벌 리스크의 긍정적, 부정적 요소로서의 인공 지능 2012-06-11. 2006년 8월 31일 Global Catastrophic Risk에 게재된 초안, 2011년 7월 18일 검색(PDF 파일)
- ^ Hay, Nick (11 June 2007). "The Stamp Collecting Device". SIAI Blog. Singularity Institute. Archived from the original on 17 June 2012. Retrieved 21 August 2010.
- ^ Sandberg, Anders (14 February 2011). "Why we should fear the Paperclipper". Andart. Retrieved 14 June 2023.
- ^ "Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008". 30 November 2007. Archived from the original on 17 September 2018. Retrieved 20 August 2010.
- ^ de Garis, Hugo (22 June 2009). "The Coming Artilect War". Forbes. Retrieved 14 June 2023.
- ^ Yudkowsky, Eliezer S. (May 2004). "Coherent Extrapolated Volition". Archived from the original on 15 August 2010.
- ^ Hibbard, Bill (2012), "Model-Based Utility Functions", Journal of Artificial General Intelligence, 3 (1): 1, arXiv:1111.3934, Bibcode:2012JAGI....3....1H, doi:10.2478/v10229-011-0013-5, S2CID 8434596.
- ^ a b 의도하지 않은 AI 행동을 방지합니다. 웨이백 머신 빌 히바드(Wayback Machine Bill Hibbard)에 보관된 2013-06-29. 제5차 인공지능 회의의 2012년 절차, Eds. 요샤 바흐, 벤 괴르첼, 매튜 아이클. 본 논문은 웨이백 머신(Wayback Machine)에서 기계지능연구소(Machine Intelligence Research Institute)의 2012년 튜링상(Turing Prize for the Best AGI Safety Paper Archive 2021-02-15)을 수상하였습니다.
- ^ Hibbard, Bill (2008), "The Technology of Mind and a New Social Contract", Journal of Evolution and Technology, 17, archived from the original on 15 February 2021, retrieved 5 January 2013.
- ^ 안전한 AI 설계를 위한 의사결정 지원. 웨이백 머신 빌 히바드(Wayback Machine Bill Hibbard)에 보관 2021-02-15. 제5차 인공지능 컨퍼런스의 2012년 의사진행, eds. 요샤 바흐, 벤 괴르첼, 매튜 아이클.
- ^ a b c Kemp, D. J.; Hilbert, M.; Gillings, M. R. (2016). "Information in the Biosphere: Biological and Digital Worlds". Trends in Ecology & Evolution. 31 (3): 180–189. doi:10.1016/j.tree.2015.12.013. PMID 26777788. S2CID 3561873. Archived from the original on 4 June 2016. Retrieved 24 May 2016.
- ^ Hilbert, Martin. "Information Quantity" (PDF).
- ^ a b Markoff, John (26 July 2009). "Scientists Worry Machines May Outsmart Man". The New York Times. Archived from the original on 1 July 2017.
- ^ Robinson, Frank S. (27 June 2013). "The Human Future: Upgrade or Replacement?". The Humanist. Archived from the original on 15 February 2021. Retrieved 1 May 2020.
- ^ Eliezer Yudkowsky. "인공지능, 글로벌 리스크에 긍정적·부정적 요인으로 작용" 글로벌 대재앙 위험(2008).
- ^ Bugaj, Stephan Bladimir, Ben Goertzel. "인간과 AGI의 상호작용에 대한 다섯 가지 윤리적 의무와 그들의 함의." 역학 심리학 (2007).
- ^ 소탈라, 카즈, 로만 5세. Yampolskiy. "재앙적인 AGI 위험에 대한 대응: 설문조사" Physica Scripta 90.1 (2014): 018001.
- ^ Naam, Ramez (2014). "The Singularity Is Further Than It Appears". Archived from the original on 17 May 2014. Retrieved 16 May 2014.
- ^ Naam, Ramez (2014). "Why AIs Won't Ascend in the Blink of an Eye – Some Math". Archived from the original on 17 May 2014. Retrieved 16 May 2014.
- ^ Hall, J. Storrs (2008). "Engineering Utopia" (PDF). Artificial General Intelligence, 2008: Proceedings of the First AGI Conference: 460–467. Archived (PDF) from the original on 1 December 2014. Retrieved 16 May 2014.
- ^ Goertzel, Ben (26 September 2014). "Superintelligence — Semi-hard Takeoff Scenarios". h+ Magazine. Archived from the original on 25 October 2014. Retrieved 25 October 2014.
- ^ More, Max. "Singularity Meets Economy". Archived from the original on 28 August 2009. Retrieved 10 November 2014.
- ^ K. 에릭 드렉슬러, 창조의 엔진, 1986
- ^ Feynman, Richard P. (December 1959). "There's Plenty of Room at the Bottom". Archived from the original on 11 February 2010.
- ^ 레이 커즈와일, 특이점이 다가왔습니다, 215쪽. 펭귄 그룹, 2005.
- ^ 특이점이 가까워요, 216쪽.
- ^ Lanier, Jaron (2010). You Are Not a Gadget: A Manifesto. New York, New York: Alfred A. Knopf. p. 26. ISBN 978-0307269645.
- ^ Prasad, Mahendra (2019). "Nicolas de Condorcet and the First Intelligence Explosion Hypothesis". AI Magazine. 40 (1): 29–33. doi:10.1609/aimag.v40i1.2855.
- ^ John W. Campbell, Jr. (August 1932). "The Last Evolution". Amazing Stories. Project Gutenberg.
- ^ 지능형 기계: Hans Moravec, 1977년 (wikidata), Hans Moravec이 쓴 '여기서 거기까지 가는 방법과 그 후에 할 일'(wikidata)
- ^ a b c Smart, John (1999–2008), A Brief History of Intellectual Discussion of Accelerating Change
- ^ Hans Moravec의 오늘날의 컴퓨터, 지능형 기계와 우리의 미래, 1979, wikidata
- ^ Solomonoff, R.J. "인공지능의 시간 척도: 사회적 효과에 대한 성찰", 인간 시스템 관리, 5권, 149-153, 1985.
- ^ Vinge, Vernor (1 October 2004). Marooned in Realtime. Macmillan. ISBN 978-1-4299-1512-0.
- ^ David Pringle (28 September 1986). "Time and Time Again". The Washington Post. Retrieved 6 July 2021.
- ^ Vinge, Vernor (1988). Threats and Other Promises. Baen. ISBN 978-0-671-69790-7.
- ^ 둘링, 리처드. 긱스를 위한 랩쳐: AI가 IQ를 능가할 때(2008), 페이지 89
- ^ "Will Robots Inherit the Earth?". web.media.mit.edu. Retrieved 14 June 2023.
- ^ Oppy, Graham (2000). "Colonizing the galaxies". Sophia. Springer Science and Business Media LLC. 39 (2): 117–142. doi:10.1007/bf02822399. ISSN 0038-1527.
- ^ 2006년 8월 23일 IMDb에서 방영된 에피소드
- ^ 샌드버그, 앤더스 "기술적 특이점에 대한 모델 개요" AGI로 가는 로드맵과 AGI 워크숍의 미래, 3월, 스위스 루가노. 2010년 제8권
- ^ 특이점 대학교 공식 웹사이트 웨이백 머신(Wayback Machine)에 보관된 2021-02-15
- ^ Guston, David H. (14 July 2010). Encyclopedia of Nanoscience and Society. SAGE Publications. ISBN 978-1-4522-6617-6. Archived from the original on 15 February 2021. Retrieved 4 November 2016.
- ^ "Nanotechnology: The Future is Coming Sooner Than You Think" (PDF). Joint Economic Committee United States Congress. March 2007. Archived (PDF) from the original on 15 February 2021. Retrieved 29 April 2012.
- ^ Treder, Mike (31 March 2007). "Congress and the Singularity". Responsible Nanotechnology. Archived from the original on 7 April 2007. Retrieved 4 November 2016.
- ^ Dadich, Scott (12 October 2016). "Barack Obama Talks AI, Robo Cars, and the Future of the World". Wired. Archived from the original on 3 December 2017. Retrieved 4 November 2016.
원천
- Kurzweil, Ray (2005). The Singularity Is Near. New York, New York: Penguin Group. ISBN 9780715635612.
- 윌리엄 D. Nordhaus, "왜 성장이 떨어질까"(로버트 J. 고든, 미국 성장의 흥망성쇠). 미국의 남북전쟁 이후 생활수준, 프린스턴 대학 출판부, 2016.ISBN 978-0691147727, 762쪽, $39.95), 뉴욕 서평, vol. LXIII, No. 13 (2016년 8월 18일), pp. 64, 66, 68.
- 존 R. Searle, "당신의 컴퓨터가 알 수 없는 것" (루치아노 플로리디, 4차 혁명 리뷰: 인포스피어는 어떻게 인간 현실을 재구성하고 있는가, 옥스포드 대학 출판부, 2014; 그리고 닉 보스트롬, 초지능: 경로, 위험, 전략, 옥스포드 대학 출판부, 2014), 뉴욕 리뷰 오브 북스, vol. LXI, No. 15 (2014년 10월 9일), pp. 52–55.
- Good, I. J. (1965), "Speculations Concerning the First Ultraintelligent Machine", in Franz L. Alt; Morris Rubinoff (eds.), Advances in Computers Volume 6, Advances in Computers, vol. 6, Academic Press, pp. 31–88, doi:10.1016/S0065-2458(08)60418-0, hdl:10919/89424, ISBN 9780120121069, archived from the original on 27 May 2001, retrieved 7 August 2007
- Hanson, Robin (1998), Some Skepticism, Robin Hanson, archived from the original on 28 August 2009, retrieved 19 June 2009
- Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren, archived from the original on 23 July 2014, retrieved 13 June 2008
- Bostrom, Nick (2002), "Existential Risks", Journal of Evolution and Technology, 9, archived from the original on 27 April 2011, retrieved 7 August 2007
- Hibbard, Bill (5 November 2014). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI].
더보기
- 크루거, 올리버, 가상 불멸. 포스트휴머니즘과 트랜스휴머니즘에서 신, 진화, 그리고 특이점., 빌레펠트: 전사 2021. ISBN 978-3-8376-5059-4
- 마커스, 개리 "나도 인간인가요? 연구자들은 인공지능과 자연의 종류를 구별하는 새로운 방법이 필요합니다", Scientific American, vol. 316, No. 3 (2017년 3월), pp. 58–63. "운동 능력에 대한 단일 테스트가 없는 것처럼 지능에 대한 궁극적인 테스트는 하나도 있을 수 없기 때문에 인공 지능 효능에 대한 여러 테스트가 필요합니다." 그러한 테스트 중 하나인 "Construction Challenge"는 "원래 튜링 테스트에는 전혀 없었던 지능적 행동의 두 가지 중요한 요소"인 인식과 신체적 행동을 테스트할 것입니다. 또 다른 제안은 기계에게 초등학생들이 보는 과학과 다른 학문의 표준화된 시험을 제공하는 것이었습니다. 지금까지 인공지능의 극복할 수 없는 걸림돌은 신뢰할 수 있는 명확한 설명을 할 수 없는 역량입니다. "[V]사실 [사람들이 생성하는] 모든 문장은 종종 여러 가지 방법으로 모호합니다." 대표적인 예는 "대명사의 명료화 문제"로 알려져 있습니다: 기계는 문장에서 대명사가 누구를 지칭하는지 또는 무엇을 지칭하는지를 결정하는 방법이 없습니다.
- Scaruffi, Piero, 특이점 운동과 종교적 컬트와의 유사성에 대한 비판을 위해 "지능은 인위적이지 않다"(2016).
외부 링크
- 특이점 기술, britannica.com
- 다음과 같은 기술적 특이점: 포스트휴먼 시대에서 살아남는 법 (버노 빙게 홈페이지, 2019년 7월 검색)
- 기계지능연구소의 지능폭발 FAQ
- 자크 피트라트의 인공지능 부트스트래핑 블로그
- 지능 폭발이 일어날 가능성이 있는 이유 (2011년 3월)
- 지능 폭발이 불가능한 이유 (2017년 11월)
- 우리는 기술적 특이점에 얼마나 근접해 있으며 언제?
- AI 혁명: 우리의 불멸 혹은 소멸 – 제1부와 제2부 (팀 어반, Wait But Why, 2015년 1월 22일/27일)