Page semi-protected

인공지능

Artificial general intelligence

인공 일반 지능(AGI)은 가상의 지능형 에이전트 유형입니다.[1]만약 실현된다면, AGI는 인간이나 동물이 수행할 수 있는 지적인 일을 완수하는 것을 배울 수 있습니다.[2][3]또는, AGI는 경제적으로 가치 있는 대부분의 업무에서 인간의 능력을 능가하는 자율적인 시스템으로 정의되어 왔습니다.[4]AGI를 만드는 것은 몇몇 인공지능 연구와 오픈과 같은 회사들의 주요 목표입니다.인공지능,[4] 딥마인드, 인류학.AGI는 공상과학과 미래학에서 흔히 볼 수 있는 주제입니다.

AGI 개발 일정은 연구자들과 전문가들 사이에서 지속적인 논쟁의 대상으로 남아 있습니다.어떤 사람들은 몇 년 또는 수십 년 안에 가능할 수도 있다고 주장합니다. 다른 사람들은 그것이 1세기 또는 그 이상 걸릴 수도 있다고 주장합니다. 그리고 소수는 그것이 결코 성취되지 않을 수도 있다고 믿습니다.[5]또한, GPT-4와 같은 현대의 대형 언어 모델들이 AGI의[6] 초기의 불완전한 형태인지 또는 새로운 접근법이 필요한지에 대해서도 논의가 이루어지고 있습니다.[7]

AGI가 인류에 위협이 될 가능성에 대한 경합이 존재합니다. [1]예를 들어, OpenAI는 AGI를 실존적 위험으로 취급하는 반면, 다른 사람들은 AGI의 개발이 너무 멀리 떨어져 위험을 제시할 수 없다고 생각합니다.[8][5][7]

2020년 조사에서는 37개국에 퍼져 있는 72개의 AGI R&D 프로젝트가 확인되었습니다.[9]

용어.

AGI는 강한 인공지능,[10][11] 완전한 인공지능,[12] 인간 수준의 인공지능[5] 또는 일반 지능 행동으로도 알려져 있습니다.[13]그러나 일부 학계에서는 감각이나 의식을 경험하는 컴퓨터 프로그램에 대해 "강력한 인공지능"이라는 용어를 유보하고 있습니다.[a]이와 대조적으로 약한 인공지능(또는 좁은 인공지능)은 하나의 특정한 문제를 해결할 수 있지만 일반적인 인지 능력이 부족합니다.[14][11]일부 학계에서는 "약한 인공지능"을 사용하여 인간과 같은 의미로 의식을 경험하거나 마음을 갖지 못하는 프로그램을 더 광범위하게 언급합니다.[a]

관련 개념으로는 인공 초지능, 변형 AI 등이 있습니다.인공 초지능(ASI)은 인간보다 훨씬 더 일반적으로 지능적인 AGI의 가상적인 유형입니다.[15]그리고 변형 AI의 개념은 농업 혁명과 같은 AI가 사회에 큰 영향을 미치는 것과 관련이 있습니다.[16]

특성.

지능에 대한 다양한 기준이 제안되었지만(가장 유명한 튜링 테스트) 광범위하게 받아들여지는 정의는 없습니다.[b]

지능적 특성

그러나 연구원들은 일반적으로 다음과 같은 모든 것을 수행하는 데 지능이 필요하다고 생각합니다.[18]

많은 학제간 접근법(예: 인지과학, 컴퓨터 지능, 의사결정)은 상상력(새로운 정신적 이미지와 개념을 형성하는 능력)[19]과 자율성과 같은 추가적인 특성을 고려합니다.[20]

컴퓨터 기반 시스템에는 이러한 기능이 많이 있습니다(예: 컴퓨터 창의성, 자동화된 추론, 의사결정 지원 시스템, 로봇, 진화 계산, 지능형 에이전트 참조).그러나 현대의 인공지능 시스템이 적절한 수준으로 인공지능을 보유하고 있다는 데에는 어떠한 합의도 없습니다.

신체적 특성

지능형 시스템에서는 다른 기능들이 지능이나 그 표현에 도움을 줄 수 있기 때문에 바람직하다고 여겨집니다.여기에는 다음이 포함됩니다.[21]

  • 감지 능력(: 보기, 듣기 등) 및
  • 행동하는 능력(: 물체 이동 및 조작, 탐색할 위치 변경 등)

여기에는 위험을 감지하고 대응할 수 있는 기능이 포함됩니다.[22]

인체수준 AGI 시험

인간 수준의 AGI를 확인하기 위한 몇 가지 테스트가 고려되었으며 다음이 포함됩니다.[23][24]

튜링 테스트(튜링)
기계와 인간은 둘 다 보이지 않는 두 번째 인간과 대화를 하는데, 두 사람은 둘 중 어느 것이 기계인지 평가해야 하며, 평가자를 상당한 시간 속일 수 있다면 테스트를 통과합니다.참고: 튜링은 지능으로 자격을 부여해야 할 것을 규정하지 않으며, 기계라는 것을 아는 것이 지능을 박탈해야 합니다.인공지능 유진 구스트만은 2014년에 30%의 심사위원을 인간이라고 설득하는 튜링의 추정치를 달성했습니다.
로봇 대학생 시험 (Goertzel)
기계는 대학에 등록하고, 인간이 받을 수 있는 것과 같은 수업을 듣고 통과하고, 학위를 취득합니다.LLM들은 이제 수업에 참여하지 않고도 대학 학위 수준의 시험을 통과할 수 있습니다.[25]
고용 테스트 (닐슨)
기계는 적어도 같은 직업에서 사람만큼 경제적으로 중요한 일을 수행합니다.AI는 이제 패스트푸드와 마케팅처럼 다양한 역할로 인간을 대체하고 있습니다.[26]
이케아 테스트(Marcus)
플랫 팩 가구 테스트라고도 합니다.AI는 이케아 플랫팩 제품의 부품과 설명서를 보고 로봇이 가구를 올바르게 조립하도록 제어합니다.
커피 테스트 (워즈니악)
기계는 평균적인 미국 가정에 들어가서 커피를 만드는 방법을 알아내는데 필요합니다: 커피 기계를 찾고, 커피를 찾고, 물을 넣고, 머그잔을 찾고, 적절한 버튼을 눌러 커피를 끓입니다.아직 완료되지 않았습니다.

인공지능 완성형 문제

인간이 하는 것처럼 문제를 잘 해결하기 위해서는 일반적인 지능이 필요할 수도 있는 많은 문제들이 있습니다.예를 들어, 기계 번역과 같은 특정한 간단한 작업조차도 기계가 두 언어(NLP)로 읽고 쓰는 것, 저자의 주장(이유)을 따르고, 무엇이 이야기되고 있는지(지식), 저자의 초심(사회지능)을 충실히 재현해야 합니다.인간 수준의 기계 성능에 도달하기 위해서는 이 모든 문제를 동시에 해결해야 합니다.

문제를 해결하려면 강력한 AI를 구현해야 한다고 생각되면 비공식적으로 "AI-완전" 또는 "AI-하드"라고 하는데, 이는 솔루션이 목적별 알고리즘의 능력을 넘어서는 것이기 때문입니다.[27]

인공지능 완성형 문제는 일반적인 컴퓨터 비전, 자연어 이해, 실세계 문제를 해결하면서 예상치 못한 상황에 대처하는 것을 포함하는 것으로 가정됩니다.[28]

AI 완성형 문제는 현재의 컴퓨터 기술만으로는 해결할 수 없고, 사람의 계산이 필요합니다.이 제한은 CAPTCHA가 목표로 하는 것처럼 인간의 존재를 테스트하고 컴퓨터 보안이 무차별 공격을 물리치는 데 유용할 수 있습니다.[29][30]

역사

고전 인공지능

현대의 인공지능 연구는 1950년대 중반에 시작되었습니다.[31]인공지능 1세대 연구자들은 인공 일반 지능이 가능하고 몇 십 년 안에 존재할 것이라고 확신했습니다.[32]AI의 선구자 허버트 A. 사이먼은 1965년에 이렇게 썼습니다. "기계는 20년 안에 사람이 할 수 있는 어떤 일도 할 수 있을 것입니다."[33]

그들의 예언은 스탠리 큐브릭아서 C에게 영감을 주었습니다. 2001년까지 인공지능 연구자들이 만들 수 있다고 믿었던 것을 구체화한 클라크의 캐릭터 HAL 9000.AI의 선구자 마빈 민스키는 당시의 합의된 예측에 따라 HAL 9000을 최대한 현실적으로 만드는 프로젝트의 컨설턴트였습니다[34].그는 1967년 "한 세대 안에...'인공지능'을 만드는 문제는 실질적으로 해결될 것입니다."[35]

Doug LenatCyc 프로젝트(1984년 시작)와 Allen NewellSowar 프로젝트와 같은 몇 가지 고전적인 AI 프로젝트는 AGI를 대상으로 합니다.

그러나 1970년대 초, 연구원들이 프로젝트의 난이도를 심각하게 과소평가했다는 것이 명백해졌습니다.자금 조달 기관들은 AGI에 회의를 갖게 되었고, 연구원들에게 유용한 "응용 인공지능"을 생산하라는 압력을 증가시켰습니다.[c]1980년대 초, 일본의 제5세대 컴퓨터 프로젝트는 AGI에 대한 관심을 되살렸고, "평범한 대화를 계속하라"와 같은 AGI 목표를 포함한 10년간의 일정표를 제시했습니다.[39]전문가 시스템의 성공과 이에 대한 대응으로 업계와 정부는 이 분야에 자금을 투입했습니다.[37][40]그러나 1980년대 후반 AI에 대한 신뢰는 급격히 무너졌고, 5세대 컴퓨터 프로젝트의 목표는 결코 달성되지 않았습니다.[41]20년 만에 두 번째로 AGI 달성 임박을 예측한 AI 연구자들의 실수가 이어졌습니다.1990년대까지 인공지능 연구원들은 헛된 약속을 하는 것으로 평판이 나 있었습니다.그들은 전혀[d] 예측하기를 꺼려하게 되었고 "야생몽상가"라는 꼬리표가 붙을 것을 우려하여 "인간 수준"의 인공지능에 대한 언급을 피했습니다.[43]

협소한 인공지능 연구

1990년대와 21세기 초, 주류 AI는 AI가 검증 가능한 결과를 낼 수 있는 특정 하위 문제와 음성 인식추천 알고리즘과 같은 상업적 응용에 집중함으로써 상업적 성공과 학문적 존경을 받았습니다.[44]이러한 "응용 AI" 시스템은 현재 기술 산업 전반에 걸쳐 광범위하게 사용되고 있으며, 이러한 맥락에서 연구는 학계와 산업계 모두에서 많은 자금을 지원하고 있습니다.2018년 현재 이 분야의 발전은 새로운 트렌드로 여겨졌고, 10여 년 후에는 성숙한 단계에 도달할 것으로 예상되었습니다.[45]

세기의 전환기에, 많은 주류 AI 연구자들은[46] 다양한 하위 문제들을 해결하는 프로그램들을 결합함으로써 강력한 AI가 개발될 수 있기를 희망했습니다.한스 모라벡은 1988년에 다음과 같이 썼습니다.

인공지능에 대한 상향식 경로가 언젠가는 전통적인 하향식 경로를 절반 이상 충족시킬 수 있을 것이라고 확신하며, 현실 세계의 역량과 추론 프로그램에서 답답하게 찾기 어려웠던 상식적인 지식을 제공할 준비가 될 것입니다.완전히 지능화된 기계는 은유적인 황금 스파이크가 두 노력을 하나로 모을 때 발생할 것입니다.[46]

그러나 당시에도 이는 논란이 있었습니다.예를 들어, Princeton University의 Stevan Harnad는 Symbol Grounding Hypothesis에 대한 1990년 논문을 다음과 같이 기술하며 마무리했습니다.

모델링 인지에 대한 "하향식"(상징적) 접근 방식이 어떻게든 그 사이 어딘가에서 "하향식"(감각적) 접근 방식을 만나게 될 것이라는 기대가 종종 제기되어 왔습니다.만약 이 논문의 기초 고려 사항이 타당하다면, 이 기대는 절망적일 정도로 모듈화된 것이고, 감각에서 기호로 이어지는 유일한 실행 가능한 경로는 사실 처음부터입니다.컴퓨터의 소프트웨어 수준과 같은 자유롭게 떠다니는 상징적인 수준은 이 경로를 통해서는 결코 도달할 수 없을 것입니다. 또한 우리가 그러한 수준에 도달하려고 노력해야 할 이유도 분명하지 않습니다.그곳에 도달하는 것은 우리의 상징들을 그것들의 본질적인 의미들로부터 뿌리뽑는 것과 같아 보이기 때문입니다. (thereby는 단지 우리 자신을 프로그램 가능한 컴퓨터의 기능적인 동등한 것으로 줄이는 것입니다.)

현대 인공지능 일반 연구

마크 구브루드(Mark Gubrud)는 1997년부터 "인공[48] 일반 지능"이라는 용어를 사용하여 완전 자동화된 군사 생산과 작전의 의미를 논의했습니다.AGI의 수학적 형식주의는 2000년 마커스 허터에 의해 제안되었습니다.AIXI로 명명된 AGI 에이전트는 "다양한 환경에서 목표를 만족시킬 수 있는 능력"을 극대화합니다.[49]인간과 같은 행동을 보이기보다는 지능에 대한 수학적 정의를 극대화할 수 있는 것이 특징인 이러한 유형의 AGI는 보편적 인공지능이라고도 불렸습니다.[50][51]

AGI라는 용어는 2002년경 셰인 레그와 벤 괴르첼에 의해 다시 소개되고 대중화되었습니다.[52]2006년 AGI 연구 활동은 페이 왕과 벤 괴르첼에[53] 의해 "출판물과 예비 결과를 생산하는 것"으로 묘사되었습니다.AGI의 첫 번째 여름 학교는 2009년[54] 중국 샤먼에서 샤먼 대학의 인공 두뇌 연구소와 오픈코그에 의해 조직되었습니다.불가리아 플로브디프 대학교에서 토도르 아르노도프가 2010년과[55] 2011년에[56] 첫 대학 과정을 개설했습니다.MIT는 2018년에 렉스 프리드먼(Lex Fridman)이 주관하고 여러 명의 초청 강사가 참여하는 AGI 강좌를 발표했습니다.

2023년 현재 소수의 컴퓨터 과학자들이 AGI 연구에 참여하고 있으며, 다수는 일련의 AGI 컨퍼런스에 기여하고 있습니다.그러나 점점 더 많은 연구자들이 개방형 학습에 관심을 가지고 있는데,[57][58] 이는 AI가 인간처럼 지속적으로 학습하고 혁신할 수 있도록 하는 아이디어입니다.대부분의 개방형 학습 작업은 여전히 마인크래프트에서 수행되지만,[59][60][61] 응용 분야는 로봇 공학과 과학 분야로 확장될 수 있습니다.

실현가능성

2023년 현재, 완전한 형태의 AGI는 여전히 투기적입니다.[62][63]AGI에 대해 일반적으로 합의된 기준을 충족하는 시스템은 아직 입증되지 않았습니다.인공 일반 지능의 도래 여부와 시기에 대해서는 의견이 분분합니다.AI의 선구자 허버트 A. 1965년 사이먼은 "기계는 20년 안에 사람이 할 수 있는 어떤 일도 할 수 있을 것"이라고 추측했습니다.이 예측은 실현되지 못했습니다.마이크로소프트의 공동 설립자인 Paul Allen은 21세기에는 그러한 지능이 "예측할 수 없고 근본적으로 예측할 수 없는 돌파구"와 "인지에 대한 과학적인 깊은 이해"를 요구할 것이기 때문에 가능성이 낮다고 믿었습니다.[64]가디언지에 기고한 로봇공학자 앨런 윈필드는 현대 컴퓨팅과 인간 수준의 인공지능 사이의 거리가 현재의 우주비행과 실제적인 빛보다 빠른 우주비행 사이의 거리만큼 넓다고 주장했습니다.[65]

대부분의 인공지능 연구자들은 미래에 강력한 인공지능이 달성될 수 있다고 믿지만, 휴버트 드레퓌스로저 펜로즈와 같은 일부 사상가들은 강력한 인공지능의 달성 가능성을 부인합니다.[66][67]존 매카시는 인간 수준의 인공지능이 실현될 것이라고 믿지만 현재의 진전 수준은 날짜를 정확히 예측할 수 없을 정도라고 믿고 있습니다.[68]AGI 왁스앤웨인의 실현 가능성에 대한 AI 전문가들의 견해2012년과 2013년에 실시된 네 차례의 여론조사에서 AGI가 언제 도착할 것인지에 대한 전문가들의 중앙값 추정치는 여론조사에 따라 2040년에서 2050년 사이였으며 평균은 2081년이었습니다.전문가들 중 16.5%는 같은 질문을 했을 때 "절대"라고 대답했지만 대신 90%의 자신감을 보였습니다.[69][70]추가적인 현재 AGI 진행 고려사항은 인간 수준의 AGI확인하기 위한 테스트 위에서 확인할 수 있습니다.

기계 지능 연구소의 스튜어트 암스트롱과 카즈 소탈라의 보고서는 "60년의 기간 동안 예측이 이루어진 시점으로부터 15년에서 25년 사이에 인간 수준의 인공지능의 도래를 예측하는 것에 대한 강한 편견이 있습니다."라고 밝혔습니다.그들은 1950년에서 2012년 사이에 인간 수준의 인공지능이 언제 나타날지에 대한 95개의 예측을 분석했습니다.[71]

2023년 마이크로소프트 연구진은 GPT-4에 대한 상세한 평가를 발표했습니다.그들은 "GPT-4의 능력의 폭과 깊이를 고려할 때, 우리는 그것이 인공 일반 지능(AGI) 시스템의 초기(아직도 불완전한) 버전으로 합리적으로 볼 수 있다고 믿습니다."[72]라고 결론을 내렸습니다.

타임스케일

Goertzel은 2006년 저서의 소개에서 진정으로 유연한 AGI가 만들어지기까지 필요한 시간의 추정치는 10년에서 100년 이상으로 다양하다고 말합니다.[73]2007년 현재, AGI 연구계의 의견 일치는 2005년 Ray CurzweilThe Singularity is Near[74] (즉, 2015년에서 2045년 사이)에서 논의한 타임라인이 그럴듯하다는 것으로 보입니다.[75]주류 AI 연구자들은 진전이 이렇게 빠를지에 대해 폭넓은 의견을 내놨습니다.그러한 의견 95개에 대한 2012년 메타 분석에서는 AGI의 시작이 현대 및 역사적 예측 모두에서 16-26년 이내에 발생할 것이라는 예측에 대한 편견이 발견되었습니다.그 논문은 의견을 전문가 혹은 비전문가로 분류하는 방식으로 비판을 받아왔습니다.[76]

2012년 Alex Krizhevsky, Ilya SutskeverGeoffrey HintonAlexNet이라는 신경망을 개발했으며, 상위 5개 테스트 오류율이 15.3%로 2위인 엔트리 비율 26.3%보다 훨씬 뛰어났습니다(기존 접근 방식은 미리 정의된 여러 분류기의 점수를 가중 합하여 사용함).[77]알렉스넷은 현재 딥러닝 파동의 최초의 선구자로 여겨졌습니다.[77]

2017년 펑류, 융시, 잉 류 연구원은 구글 AI, 애플의 시리 등 공개적으로 이용할 수 있고 자유롭게 접근할 수 있는 약한 AI에 대한 지능 테스트를 실시했습니다.최대로 이 인공지능들은 약 47의 아이큐 값에 도달했는데, 이는 대략 6살짜리 초등학교 1학년 아이와 맞먹습니다.성인은 평균 100명 정도 됩니다.2014년에도 유사한 테스트가 수행되었으며, IQ 점수는 최대 27점에 달했습니다.[78][79]

2020년 오픈인공지능은 특정한 훈련 없이 다양한 업무를 수행할 수 있는 언어 모델인 GPT-3를 개발했습니다.Gary GrossmanVentureBeat 기사에서 GPT-3가 AGI의 한 예가 아니라는 데 의견이 일치하지만 일부에서는 너무 발전해서 좁은 AI 시스템으로 분류할 수 없다고 생각합니다.[80]

같은 해 제이슨 로러(Jason Rohrer)는 GPT-3 계정을 사용하여 챗봇을 개발했으며, 챗봇 개발 플랫폼인 "Project December"를 제공했습니다.OpenAI는 안전 지침을 준수하기 위해 챗봇을 변경할 것을 요청했습니다. Rohrer는 GPT-3 API에서 Project December를 분리했습니다.[81]

2022년 딥마인드는 600가지 이상의 작업을 수행할 수 있는 "범용" 시스템인 가토를 개발했습니다.[82]

2023년 마이크로소프트 리서치는 오픈의 초기 버전에 대한 연구를 발표했습니다.AI의 GPT-4는 이전의 AI 모델보다 더 일반적인 지능을 보여주었고 수학, 코딩, 법학과 같은 여러 영역에 걸쳐 있는 작업에서 인간 수준의 성능을 보여주었다고 주장합니다.이 연구는 GPT-4가 인공 일반 지능의 초기 불완전한 버전으로 간주될 수 있는지에 대한 논쟁을 촉발했고, 그러한 시스템에 대한 추가적인 탐색과 평가의 필요성을 강조했습니다.[83]

2023년 AI 연구원 제프리 힌튼(Geoffrey Hinton)은 다음과 같이 말했습니다.[84]

실제로 사람들보다 더 똑똑해질 수 있다는 생각에 몇몇 사람들은 이렇게 생각했습니다.하지만 대부분의 사람들은 그것이 너무 이상하다고 생각했습니다.그리고 저는 그것이 너무 잘못된 것이라고 생각했습니다.30년에서 50년 또는 그 이상의 시간이 걸릴 것이라고 생각했습니다.분명히 저는 더 이상 그렇게 생각하지 않습니다.

뇌 시뮬레이션

전뇌 에뮬레이션

AGI를 달성하기 위한 한 가지 가능한 접근법은 전체에뮬레이션입니다: 뇌 모델은 생물학적 뇌를 자세히 스캔하고 매핑하여 컴퓨터 시스템이나 다른 계산 장치에 그 상태를 복사함으로써 구축됩니다.컴퓨터는 원본에 충분히 충실한 시뮬레이션 모델을 실행하여 원래의 뇌와 실질적으로 동일한 방식으로 행동합니다.[85]전체 뇌 에뮬레이션은 컴퓨터 신경 과학 및 신경 정보학에서 의학 연구 목적의 뇌 시뮬레이션의 맥락에서 논의됩니다.강력한 인공지능에 대한 접근법으로 인공지능 연구에서[75] 논의됩니다.필요한 세부적인 이해를 제공할 수 있는 신경 이미징 기술이 빠르게 개선되고 있으며, 미래학자 레이 커즈와일(Ray Curzweil)은 The Singularity Is Near라는[74] 책에서 이를 에뮬레이트하는 데 필요한 컴퓨팅 성능과 비슷한 시간에 충분한 품질의 지도를 사용할 수 있을 것이라고 예측합니다.

초기견적

다양한 수준(레이 커즈와일, 앤더스 샌드버그, 닉 보스트롬)에서 인간의 뇌를 모방하는 데 얼마나 많은 처리 능력이 필요한지, 그리고 연도별로 매핑된 TOP500에서 가장 빠른 슈퍼컴퓨터가 필요한지 추정.계산 용량이 1.1년마다 두 배씩 증가한다고 가정하는 로그 스케일과 지수 추세선에 주목합니다.커즈와일은 신경 시뮬레이션에서 마인드 업로드가 가능할 것이라고 믿고 있는 반면, 샌드버그, 보스트롬 보고서는 의식이 어디에서 발생하는지에 대해 덜 확신하고 있습니다.[86]

낮은 수준의 뇌 시뮬레이션을 위해서는 매우 강력한 컴퓨터가 필요합니다.인간의 뇌는 엄청난 수의 시냅스를 가지고 있습니다.10개11(1000억개)의 뉴런 각각은 다른 뉴런들과 평균적으로 7,000개의 시냅스 연결을 가지고 있습니다.세 살짜리 아이의 뇌는 약 10개의15 시냅스를 가지고 있습니다.이 숫자는 나이가 들수록 감소하고, 성인이 되면 안정됩니다.추정치는 성인에 따라 10에서14 5x1014 시냅스(100조에서 500조)로 다양합니다.[87]뉴런 활동에 대한 간단한 스위치 모델에 기초한 뇌의 처리 능력의 추정치는 약 1014 (100조)의 시냅스 업데이트/초당 업데이트입니다.[88]

1997년 커즈와일은 인간의 뇌와 동등한 수준을 유지하기 위해 필요한 하드웨어에 대한 다양한 추정치를 조사했고 초당 10개의16 계산 수(cps)를 채택했습니다.[e](비교를 위해, "계산"이 현재의 슈퍼컴퓨터를 평가하는 데 사용되는 척도인 "부동점 연산" 1개와 동일하다면, 10개의16 "계산"은 2011년에 달성된 10페타플롭스와 동일하고, 10개는18 2022년에 달성된 것입니다.)그는 이 수치를 사용하여 작성 당시 컴퓨터 성능의 기하급수적인 성장이 계속된다면 2015년에서 2025년 사이에 필요한 하드웨어를 사용할 수 있을 것이라고 예측했습니다.

뉴런을 보다 상세하게 모델링

커즈와일이 가정하고 현재 많은 인공 신경망 구현에 사용되는 인공 뉴런 모델생물학적 뉴런에 비해 간단합니다.뇌 시뮬레이션은 현재 광범위한 개요에서만 이해되는 생물학적 뉴런의 자세한 세포 행동을 포착해야 할 것입니다.신경 행동의 생물학적, 화학적, 물리적 세부 사항(특히 분자 규모)의 완전한 모델링에 의해 도입되는 오버헤드는 커즈와일의 추정치보다 몇 배 더 큰 계산 능력을 필요로 할 것입니다.게다가, 그 추정치는 인지 과정에서 역할을 하는 것으로 알려진 교모세포를 설명하지 않습니다.[91]

현재연구

일부 연구 프로젝트는 기존 컴퓨팅 아키텍처에 구현된 보다 정교한 신경 모델을 사용한 뇌 시뮬레이션을 조사하고 있습니다.인공지능 시스템 프로젝트는 2005년에 "뇌"(10개의11 뉴런으로)의 비실시간 시뮬레이션을 구현했습니다.27개 프로세서로 구성된 클러스터에서 1초 모델을 시뮬레이션하는 데 50일이 걸렸습니다.[92]Blue Brain 프로젝트는 가장 빠른 슈퍼컴퓨터 아키텍처 중 하나인 IBMBlue Gene 플랫폼을 사용하여 2006년에 약 10,000개의 뉴런과 10개의8 시냅스로 구성된 단일 쥐 신피질 컬럼의 실시간 시뮬레이션을 만들었습니다.[93]더 장기적인 목표는 인간 뇌의 생리학적 과정에 대한 상세하고 기능적인 시뮬레이션을 만드는 것입니다: "인간의 뇌를 만드는 것은 불가능하지 않고 우리는 10년 안에 그것을 할 수 있습니다"라고 블루 브레인 프로젝트의 책임자인 헨리 마크람이 옥스포드에서 열린 TED 컨퍼런스에서 2009년에 말했습니다.[94]신경-실리콘 인터페이스는 더 나은 확장이 가능한 대안적인 구현 전략으로 제안되었습니다.[95]

한스 모라벡은 1997년 논문 "컴퓨터 하드웨어가 인간의 뇌와 언제 일치할 것인가?"[90]에서 위의 주장("뇌는 더 복잡하다", "신경은 더 자세히 모델링되어야 한다")을 다루었습니다.그는 신경 조직, 특히 망막의 기능을 시뮬레이션하기 위해 기존 소프트웨어의 능력을 측정했습니다.그의 결과는[specify] 신경교세포의 수나 어떤 종류의 처리 뉴런이 어디서 수행하는지에 달려 있지 않습니다.

생물학적 뉴런 모델링의 실제 복잡성은 신경망에 302개의 뉴런만 있는 웜의 완전한 시뮬레이션을 목표로 하는 OpenWorm 프로젝트에서 탐구되었습니다(총 약 1000개의 세포 중).이 동물의 신경망은 프로젝트가 시작되기 전에 잘 기록되어 있었습니다.그러나 처음에는 작업이 간단해 보였지만 일반 신경망에 기반을 둔 모델은 작동하지 않았습니다.현재,[may be outdated as of April 2023] 노력은 생물학적 뉴런의 정밀한 에뮬레이션(부분적으로는 분자 수준)에 초점을 맞추고 있지만, 그 결과를 아직 완전한 성공이라고 할 수는 없습니다.

시뮬레이션 기반 접근방식에 대한 비판

시뮬레이션된 뇌 접근법에 대한 근본적인 비판은 인간의 체화가 인간 지능의 본질적인 측면이며 의미를 이해하는 데 필요하다고 주장하는 체화된 인지 이론에서 비롯됩니다.[96]만약 이 이론이 맞다면, 완전한 기능을 하는 뇌 모델은 단지 뉴런(예를 들어, 로봇체) 이상을 아우를 필요가 있을 것입니다.Goertzel은[75] 가상 구현(Second Life에서와 같이)을 옵션으로 제안하지만 이것으로 충분할지는 알 수 없습니다.

10cps9 이상의 마이크로프로세서(커즈와일의 비표준 단위 "초당 계산", 위 참조)를 사용하는 데스크톱 컴퓨터는 2005년부터 사용할 수 있습니다.커즈와일과 모라벡이 사용한 두뇌 파워 추정치에 따르면, 그러한 컴퓨터는 벌의 두뇌 시뮬레이션을 지원할 수 있어야 하지만, 약간의 관심에도[97] 불구하고 그러한 시뮬레이션은 존재하지 않습니다.[citation needed]이에 대한 몇 가지 이유가 있습니다.

  1. 뉴런 모델이 지나치게 단순화된 것 같습니다(다음 섹션 참조).
  2. 뇌의 신경 활동(기능적 자기공명영상과 같은 기술을 사용하여 관찰되는)이 정확히 무엇과 상관관계가 있는지를 확립하기에는 고등 인지 과정에[f] 대한 이해가 부족합니다.
  3. 인지에 대한 우리의 이해가 충분히 발전하더라도 초기 시뮬레이션 프로그램은 비효율적일 가능성이 높으며 따라서 훨씬 더 많은 하드웨어가 필요할 것입니다.
  4. 유기체의 뇌는 중요하지만 인지 모델에 적합한 경계가 아닐 수 있습니다.벌의 뇌를 모사하기 위해서는 신체와 환경을 모사하는 것이 필요할 수 있습니다.Extended Mind 논문은 이 철학적 개념을 공식화하고, 두족류에 대한 연구는 탈중앙화된 체계의 명확한 예를 보여주었습니다.[99]

게다가, 인간의 뇌의 크기는 현재 잘 제한되어 있지 않습니다.한 추정치에 따르면 인간의 뇌는 약 1,000억 개의 뉴런과 100조 개의 시냅스를 가지고 있습니다.[100][101]또 다른 추정치는 860억 개의 뉴런으로 이 중 163억 개는 대뇌피질에 있고 690억 개는 소뇌에 있습니다.[102]교모세포 시냅스는 현재 정량화되지 않았지만 매우 많은 것으로 알려져 있습니다.

철학적 관점

철학에서 정의한 "강력한 인공지능"

1980년 철학자 존중국어 방 논쟁의 일부로 "강한 인공지능"이라는 용어를 만들었습니다.[103]그는 인공지능에 대한 두 가지 다른 가설을 구별하기를 원했습니다.[g]

  • 강력한 인공지능 가설:인공지능 시스템은 "마음"과 "의식"을 가질 수 있습니다.
  • 약한 인공지능 가설:인공지능 시스템은 생각하는 것처럼 행동하고 마음과 의식을 가질 수 있습니다.

그가 "강한"이라고 부른 첫 번째 이유는 그것이 더 강력한 진술을 하기 때문입니다. 그것은 우리가 테스트할 수 있는 능력을 넘어서는 무언가 특별한 일이 기계에 일어났다고 가정합니다."약한 인공지능" 기계의 행동은 "강한 인공지능" 기계와 정확히 동일할 것이지만 후자는 주관적인 의식 경험도 있을 것입니다.학술 AI 연구와 교재에서도 이런 활용이 일반적입니다.[104]

설과 주류 AI와는 대조적으로 레이 커즈와일과 같은 일부 미래학자들은 "인간 수준의 인공 일반 지능"을 의미하기 위해 "강한 AI"라는 용어를 사용합니다.[74]이것은 인간 수준의 AGI에 의식이 필요하다고 가정하지 않는 한, 설의 강력한 AI와 같지 않습니다.설과 같은 학술 철학자들은 그것이 사실이라고 생각하지 않으며, 대부분의 인공지능 연구자들에게 이 질문은 범위를 벗어납니다.[105]

주류 인공지능은 프로그램이 어떻게 작동하는지에 가장 관심이 있습니다.[106]러셀노빅에 따르면, "그 프로그램이 작동하는 한, 그들은 당신이 그것을 실제라고 부르든 모의라고 부르든 상관하지 않습니다."[105]만약 프로그램이 마음이 있는 처럼 행동할 수 있다면, 실제로 마음이 있는 것인지 알 필요가 없습니다 – 실제로 구분할 방법이 없을 것입니다.AI 연구에서 설의 "약한 AI 가설"은 "인공 일반 지능이 가능하다"는 말에 해당합니다.따라서 Russell과 Norvig에 따르면, "대부분의 AI 연구자들은 약한 AI 가설을 당연하게 생각하고, 강한 AI 가설에 신경 쓰지 않습니다."[105]따라서 학술 AI 연구를 위해 '강력한 AI'와 'AGI'는 서로 다른 두 가지입니다.

의식, 자각, 감각

지능 이외에 인간의 마음의 다른 측면들은 AGI 또는 "강한 인공지능"의 개념과 관련이 있으며, 이것들은 공상과학 소설인공지능의 윤리에서 주요한 역할을 합니다.

  • 의식:주관적인 경험을 하는 것.Thomas Nagel은 의식을 갖는 것이 "느낌"이 든다고 설명합니다.우리가 의식하지 않으면, 아무 느낌도 들지 않습니다.Nagel은 박쥐의 예를 사용합니다: 우리는 "박쥐가 되는 것은 어떤 느낌인가?"라고 감각적으로 물을 수 있습니다.하지만, 우리는 "토스터가 되는 것이 어떤 느낌인가?"라고 물을 것 같지는 않습니다.나겔은 박쥐가 의식이 있는 것처럼 보이지만(즉, 의식이 있는 것처럼), 토스터는 그렇지 않다고 결론짓습니다.[107]
  • 자기 인식:별개의 개인으로서 자신을 의식적으로 인식하는 것, 특히 자신의 생각을 의식적으로 인식하는 것.이것은 단순히 "자신의 생각의 대상"이 되는 것과 반대됩니다. 운영 체제 또는 디버거는 "자신을 인식"할 수 있지만(즉, 다른 모든 것을 나타내는 것과 같은 방식으로 자신을 나타내는), 이것은 사람들이 "자기 인식"이라는 용어를 사용할 때 일반적으로 의미하는 바가 아닙니다.[h]
  • 지각력:인식이나 감정을 주관적으로 "느낄" 수 있는 능력은 인식에 대해 추론하거나 감정에 대해 긴급함, 친절함 또는 공격성이 필요하다는 것을 인식하는 능력과는 다릅니다.예를 들어, 우리는 시야에 있는 물체가 빨간색인지 알 수 있는 기계를 만들 수 있지만, 이 기계는 빨간색이 어떻게 생겼는지 반드시 알 수는 없을 것입니다.

이러한 특성은 도덕적 차원을 가지고 있는데, 이와 같은 형태의 "강력한 인공지능"을 가진 기계가 인간이 아닌 동물의 권리와 유사한 권리를 가질 수 있기 때문입니다.'강한' AI의 법적 지위와 권리를 중심으로 기존의 법적·사회적 프레임워크에 강한 AI를 통합하는 사전 작업이 진행됐습니다.[109]

AGI에 '인공의식'이 필요한지는 두고 봐야 합니다.그러나, 많은 AGI 연구자들은 의식을 실행하기 위한 가능성을 조사하는 연구를 중요하게 생각합니다.[98]

다른 사람들 중에서도, Bill Joy는 이러한 특성을 가진 기계가 인간의 생명이나 존엄성에 위협이 될 수 있다고 주장합니다.[110]

연구과제

인공지능의 진보는 진보가 멈추는 것처럼 보였던 시기별로 구분된 급속한 진보의 시기를 거쳤습니다.[66]각각의 공백을 끝내는 것은 하드웨어, 소프트웨어 또는 두 가지 모두에서 추가적인 발전을 위한 공간을 만드는 근본적인 발전이었습니다.[66][111][112]예를 들어, 20세기에 사용 가능한 컴퓨터 하드웨어는 많은 수의 GPU 지원 CPU가 필요한 딥 러닝을 구현하기에 충분하지 않았습니다.[113]

필드는 문제에 대한 접근 방식 사이에서도 진동합니다.때로는 전문가 시스템에서와 같이 사실과 논리를 명시적으로 축적하는 데 노력이 집중되기도 합니다.다른 때에는 인공 신경망에서와 같이 시스템이 기계 학습을 통해 자체 g를 구축할 것으로 예상되었습니다.[114]

또 다른 과제는 지능이 무엇을 수반하는지를 정의하는 데 있어 명확성이 부족하다는 것입니다.의식이 필요한가요?목표를 설정하고 이를 추구할 수 있는 능력을 발휘해야 합니까?모델 크기가 충분히 커지면 지능이 나타나는 것은 순전히 규모의 문제입니까?계획, 추론, 인과관계 이해 등의 시설이 필요합니까?지능은 뇌와 뇌의 특정한 능력을 명시적으로 복제할 필요가 있습니까?감정이 필요한가요?[115]겔렌터(Gelernter)는 "인간 감정의 모든 뉘앙스를 모방할 수 없다면 어떤 컴퓨터도 창의적이지 않을 것입니다."[116][117][118]라고 썼습니다.

혜택들

AGI는 다양한 응용 프로그램을 가질 수 있었습니다.만약 그러한 목표를 지향한다면, AGI는 기아, 가난 그리고 건강 문제와 같은 세계의 다양한 문제들을 완화시키는데 도움을 줄 수 있을 것입니다.[119]

AGI는 대부분의 업무에서 생산성과 효율성을 향상시킬 수 있습니다.예를 들어, 공중 보건에서 AGI는 특히 암에 대한 의학 연구를 가속화할 수 있습니다.[120]노인들을 돌보고 신속하고 질 높은 의료 진단에 대한 접근을 민주화할 수 있습니다.[121]그것은 재미있고, 값싸고, 개인에 맞는 교육을 제공할 수 있습니다.[121]일을 잘 하면 사회에 이익이 되는 사실상 모든 일에 대해서는, AGI에 맡기는 것이 아마도 조만간 더 좋을 것입니다.생산된 부가 제대로 재분배된다면 생계를 위해 일할 필요가 없어질 수도 있습니다.[121][122]이것은 또한 근본적으로 자동화된 사회에서 인간의 위치에 대한 의문을 제기합니다.

AGI는 또한 합리적인 의사결정을 내리고 재해를 예측하고 예방하는 데 도움을 줄 수 있습니다.또한 나노 기술이나 기후 공학과 같은 재앙적인 기술의 이점을 얻는 동시에 관련된 위험을 피할 수 있습니다.[123]AGI의 주요 목표가 인류 멸종과 같은 실존적 재앙(취약한 세계 가설이 사실로 밝혀지면 어려울 수 있음)을 막는 것이라면,[124] 이러한 조치가 우리 삶의 질에 미치는 영향을 최소화하면서 위험을[123] 대폭 줄이는 조치를 취할 수 있을 것입니다.

리스크

인간 존재에 대한 잠재적 위협

인공지능이 인간에게 실존적인 위험을 끼치고, 이러한 위험은 더 많은 관심을 필요로 한다는 주장은 논란의 여지가 있지만 일론 머스크, 빌 게이츠, 스티븐 호킹 등 많은 공인들에 의해 지지를 받고 있습니다.스튜어트 J. 러셀(Stuart J. Russell), 로만 얌폴스키(Roman Yampolskyi), 알렉세이 터친(Alexey Turchin)과 같은 인공지능 연구원들도 인류에 대한 잠재적 위협에 대한 기본적인 논문을 지지합니다.[125][109][126]게이츠는 "왜 일부 사람들이 걱정하지 않는지 이해할 수 없다"고 말했으며,[127] 호킹은 2014년 사설에서 광범위한 무관심을 비판했습니다.

따라서, 헤아릴 수 없는 이익과 위험의 가능성에 직면하여, 전문가들은 최고의 결과를 보장하기 위해 가능한 모든 것을 하고 있습니다, 그렇죠?틀렸어.만일 우수한 외계 문명이 '우리는 몇 십 년 안에 도착할 것이다'라는 메시지를 우리에게 보냈다면, 우리는 그냥 '좋아, 도착하면 전화해, 불을 켜놓을 거야?'라고 대답할까요? 아마 아닐 거예요, 하지만 이것은 인공지능에서 일어나고 있는 일들입니다.[128]

Stephen Hawking

인류의 운명은 때때로 인간의 활동에 의해 위협받는 고릴라의 운명과 비교되기도 합니다.그 비교는 더 큰 지능은 인류가 고릴라를 지배할 수 있도록 했다고 말합니다. 고릴라는 이제 그들이 예상할 수 없었던 방식으로 취약해졌습니다.결과적으로, 고릴라는 악의에서가 아니라 단순히 인간 활동의 부수적인 피해로서 멸종 위기에 처한 종이 되었습니다.[129]

회의론자 얀 르쿤은 AGI가 인류를 지배하려는 욕망이 없을 것이며, 인간을 위한 것처럼 의인화하고 그 의도를 해석하지 않도록 주의해야 한다고 생각합니다.그는 사람들이 "초지능 기계를 설계할 만큼 똑똑하지는 않지만, 아무런 안전장치도 없이 바보 같은 목표를 제시할 정도로 어리석지는 않을 것"이라고 말했습니다.[130]구글 사기 황제 슈만 고세마점더는 기술 산업 밖의 많은 사람들에게 기존 챗봇과 LLM은 이미 AGI인 것처럼 인식되어 더 많은 오해와 두려움을 불러일으킨다고 관찰했습니다.[131]르쿤은 현재의 LLM들은 개들만큼 똑똑하지도 않다고 주장했습니다.[132]반면, 도구적 융합의 개념은 지능형 에이전트들이 그들의 목표가 무엇이든 간에 이러한 목표를 달성하기 위한 중간 단계로서 생존하고 더 많은 힘을 얻기 위해 노력할 이유가 있을 것임을 시사합니다.그리고 이것은 감정을 가질 필요가 없습니다.보스트롬(Nick Bostrom)은 종이 클립 옵티마이저의 사고 실험에 대해 다음과 같이 설명합니다.[133]

가능한 한 많은 종이 클립을 만드는 것이 유일한 목표인 AI가 있다고 가정해 보겠습니다.인공지능은 인간이 없다면 더 좋을 것이라는 것을 빠르게 깨닫게 될 것입니다. 왜냐하면 인간이 스위치를 끄기로 결정할 수도 있기 때문입니다.왜냐하면 인간이 그렇게 한다면 종이 클립이 줄어들 것이기 때문입니다.또한, 인간의 몸에는 종이 클립으로 만들 수 있는 많은 원자들이 포함되어 있습니다.인공지능이 준비하려는 미래는 종이 클립은 많지만 사람은 없는 미래가 될 것입니다.

2021년 AGI와 관련된 위험에 대한 체계적인 검토는 데이터 부족에 주목하면서 다음과 같은 잠재적인 위협을 발견했습니다. "AGI는 인간 소유자/관리자의 통제로부터 스스로를 제거하고, 안전하지 않은 목표를 부여받거나 개발하고, 안전하지 않은 AGI의 개발, 윤리, 도덕 및 가치관이 열악한 AGI, 부적절한 AGI 관리,그리고 실존적 위험을 고려해야 합니다."[134]

실존적 위험을 우려하는 많은 학자들은 프로그래머들이 어떤 유형의 안전 장치, 알고리즘 또는 아키텍처를 구현하여 재귀적으로 개선되는 AI가 계속 우호적이고 거친 상태에서 행동할 가능성을 극대화할 수 있는지에 대한 어려운 "제어 문제"를 해결하기 위한 연구를 옹호합니다.파괴적이라기 보다는 초지능에 도달한 후의 태도?[109][135]통제 문제를 해결하는 것은 AI 군비 경쟁 때문에 복잡한데,[136][137] 이는 거의 확실하게 한 국가 이상의 국가에 의한 AGI의 군사화와 무기화를 보게 될 것이고, 이는 AGI가 가능한 전쟁을 야기할 것이며, AI 오정렬의 경우, AGI가 주도하는 전쟁은 모든 인류에 대한 잠재적인 전쟁입니다.[138][139]

인공지능이 실존적 위험을 초래할 수 있다는 주장은 반대자들도 있습니다.회의론자들은 때때로 이 논문이 전능한 신에 대한 비이성적인 믿음을 대체할 수 있는 초지능의 가능성에 대한 비이성적인 믿음과 함께 암호 종교적이라고 비난합니다.Jaron Lanier는 2014년에 당시의 기계들이 어떤 식으로든 똑똑하다는 생각은 부유층에 의한 "착시"이며 "놀라운 사기"라고 주장했습니다.[140]

많은 비판들은 AGI가 단기적으로 가능성이 낮다고 주장합니다.컴퓨터 과학자 고든 벨은 인류가 기술적 특이점에 도달하기 전에 스스로를 파괴할 것이라고 주장합니다.무어의 법칙의 최초 지지자인 고든 무어는 "나는 회의론자입니다.적어도 오랫동안은 [기술적 특이점]이 일어날 가능성이 없다고 생각합니다.제가 왜 그렇게 느끼는지 모르겠습니다."[141]앤드루 응바이두 부총재 겸 수석과학자는 2015년 AI 존재 위험을 걱정하는 것은 "우리가 아직 화성에 발도 들여놓지 않은 상황에서 화성에 인구 과잉을 걱정하는 것과 같다"[142][143]고 말했습니다.

2023년, 구글 딥마인드, 오픈AI, 인류학의 CEO들은 다른 산업 지도자들과 연구원들과 함께 "AI로부터의 멸종의 위험을 완화하는 것이 전염병과 핵 전쟁과 같은 다른 사회 규모의 위험과 함께 세계적인 우선순위가 되어야 한다"고 주장하는 공동 성명을 발표했습니다.[144]

대량실업

오픈에서 온 연구원들AI는 "미국 노동자의 80%가 LLM 도입으로 업무의 최소 10%가 영향을 받을 수 있는 반면, 약 19%의 노동자는 업무의 최소 50%가 영향을 받는 것을 볼 수 있다"고 추정했습니다.[145][146]이들은 수학자, 회계사 또는 웹 디자이너와 같은 사무직 직원들이 가장 많이 노출되어 있다고 생각합니다.[146]AGI는 더 나은 자율성, 의사결정 능력, 다른 컴퓨터 도구와의 인터페이스뿐만 아니라 로봇화된 신체를 제어할 수 있는 능력을 가질 수 있습니다.

Stephen Hawking에 따르면 삶의 질에 대한 자동화의 결과는 부의 재분배 방법에 따라 달라질 것입니다.[147]

기계가 생산한 부를 공유하면 모든 사람이 호화로운 여가생활을 즐길 수 있고, 기계 소유자들이 성공적으로 부의 재분배에 반대하는 로비를 하면 대부분의 사람들은 비참한 가난에 빠질 수 있습니다.지금까지 기술이 불평등을 지속적으로 증가시키면서 두 번째 옵션으로 향하는 추세인 것으로 보입니다.

일론 머스크는 사회의 자동화를 위해서는 정부가 보편적 기본소득을 채택해야 한다고 생각합니다.[148]

참고 항목

메모들

  1. ^ a b "강한 AI"라는 용어의 유래에 대해서는 아래를 참조하고, 중국어실 기사에서 "강한 AI"와 약한 AI의 학문적 정의를 참조하십시오.
  2. ^ 인공지능의 창시자인 존 매카시는 "우리는 아직 어떤 종류의 계산 절차를 지능이라고 부르고 싶은지 일반적으로 설명할 수 없습니다."[17]라고 말합니다. (인공지능 연구자들이 사용하는 지능에 대한 몇 가지 정의에 대한 논의는 인공지능의 철학을 참조하십시오.)
  3. ^ 라이트힐 보고서는 구체적으로 AI의 '위대한 목표'를 비판하며 영국의 AI 연구 해체를 주도했습니다.[36]미국에서 DARPA는 "기초적인 간접 연구가 아닌 임무 중심의 직접 연구"에만 자금을 지원하기로 결심했습니다.[37][38]
  4. ^ AI의 창시자인 John McCarthy는 "새로운 일반적인 형식주의의 발명가들이 때때로 그랬던 것보다 더 신중한 형태로 그들의 희망을 표현한다면 AI에 종사하는 나머지 노동자들에게 큰 안도가 될 것입니다."[42]라고 쓰고 있습니다.
  5. ^ "Mind Children"[89]에서는 1015 cps가 사용됩니다.보다 최근인 1997년,[90] Moravec은 대략 1014 cps에 해당하는 10개의8 MIPS를 주장했습니다.모라벡은 커즈와일이 도입한 비표준 용어인 "cps"가 아닌 MIPS로 말합니다.
  6. ^ Goertzels의 AGI 책에서 Yudkowsky는 사용 가능한 하드웨어를 사용하기 위해 코드/데이터, 감각 양식, 개념 및 범주, 사고 및 숙고(의식)와 같이 이해해야 하는 5가지 수준의 조직을 제안합니다.[98]
  7. ^ 표준 AI 교과서에 정의된 바와 같이, "기계가 지능적으로 행동할 수도 있다는 주장은 철학자들에 의해 '약한 AI' 가설이라고 불리고, 그렇게 하는 기계가 (사고를 시뮬레이션하는 것과 반대로) 실제로 생각하고 있다는 주장은 '강한 AI' 가설이라고 불립니다."[88]
  8. ^ 앨런 튜링은 1950년에 이 점을 지적했습니다.[108]

참고문헌

  1. ^ a b Morozov, Evgeny (30 June 2023). "The True Threat of Artificial Intelligence". The New York Times. Archived from the original on 30 June 2023. Retrieved 30 June 2023.
  2. ^ Hodson, Hal (1 March 2019). "DeepMind and Google: the battle to control artificial intelligence". 1843. Archived from the original on 7 July 2020. Retrieved 7 July 2020. AGI stands for Artificial General Intelligence, a hypothetical computer program...
  3. ^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 October 2019). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO Reports. 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926.
  4. ^ a b "OpenAI Charter". openai.com. Retrieved 6 April 2023.
  5. ^ a b c "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. Retrieved 6 April 2023.
  6. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  7. ^ a b "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review. Retrieved 6 April 2023.
  8. ^ "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News. 23 March 2023. Retrieved 6 April 2023.
  9. ^ Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (PDF), Global Catastrophic Risk Institute Working Paper 20, archived (PDF) from the original on 14 November 2021, retrieved 13 January 2022
  10. ^ 커즈와일 2005, 페이지 260.
  11. ^ a b Kurzweil, Ray (5 August 2005a), "Long Live AI", Forbes, archived from the original on 14 August 2005Kurzweil, Ray (5 August 2005a), "Long Live AI", Forbes, archived from the original on 14 August 2005커즈와일은 강력한 인공지능을 "인간의 지능 범위를 모두 갖춘 기계 지능"이라고 설명합니다.
  12. ^ "The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013". Archived from the original on 26 February 2014. Retrieved 22 February 2014.
  13. ^ 뉴웰 & 사이먼 1976, 이것은 그들이 물리적 기호 체계 가설에서 "인간 수준의" 지능을 위해 사용하는 용어입니다.
  14. ^ "The Open University on Strong and Weak AI". Archived from the original on 25 September 2009. Retrieved 8 October 2007.
  15. ^ "What is artificial superintelligence (ASI)? Definition from TechTarget". Enterprise AI. Retrieved 8 October 2023.
  16. ^ "Artificial intelligence is transforming our world – it is on all of us to make sure that it goes well". Our World in Data. Retrieved 8 October 2023.
  17. ^ McCarthy, John (2007a). "Basic Questions". Stanford University. Archived from the original on 26 October 2007. Retrieved 6 December 2007.
  18. ^ 이 지능적 특성 목록은 다음을 포함한 주요 인공지능 교과서에서 다루는 주제를 기반으로 합니다.러셀 & 노빅 2003, 루거 & 스터블필드 2004, 풀, 맥워스 & 괴벨 1998, 닐슨 1998.
  19. ^ 존슨 1987
  20. ^ 드 참스, R. (1968)개인적인 원인.뉴욕: 학술 출판사.
  21. ^ Paifer, R. and Bongard J. C., 신체가 우리가 생각하는 방식을 어떻게 형성하는가: 지능에 대한 새로운 관점 (The MIT Press, 2007).ISBN 0-262-16239-3
  22. ^ White, R. W. (1959). "Motivation reconsidered: The concept of competence". Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397. S2CID 37385966.
  23. ^ Muehlhauser, Luke (11 August 2013). "What is AGI?". Machine Intelligence Research Institute. Archived from the original on 25 April 2014. Retrieved 1 May 2014.
  24. ^ "What is Artificial General Intelligence (AGI)? 4 Tests For Ensuring Artificial General Intelligence". Talky Blog. 13 July 2019. Archived from the original on 17 July 2019. Retrieved 17 July 2019.
  25. ^ Varanasi, Lakshmi (21 March 2023). "AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed". Business Insider. Retrieved 30 May 2023.
  26. ^ Naysmith, Caleb (7 February 2023). "6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It". Retrieved 30 May 2023.
  27. ^ Shapiro, Stuart C. (1992). "Artificial Intelligence" (PDF). In Stuart C. Shapiro (ed.). Encyclopedia of Artificial Intelligence (Second ed.). New York: John Wiley. pp. 54–57. Archived (PDF) from the original on 1 February 2016. (섹션 4는 "인공지능 완성 작업"에 관한 것입니다.)
  28. ^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "Turing Test as a Defining Feature of AI-Completeness" (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. Archived (PDF) from the original on 22 May 2013.
  29. ^ 루이스 폰 안, 마누엘 블룸, 니콜라스 호퍼 그리고 존 랭포드.캡차: 보안을 위한 하드 AI 문제 사용 2016년 3월 4일 웨이백 머신에서 보관.Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  30. ^ Bergmair, Richard (7 January 2006). "Natural Language Steganography and an "AI-complete" Security Primitive". CiteSeer. CiteSeerX 10.1.1.105.129.
  31. ^ Crevier 1993, 페이지 48–50
  32. ^ Kaplan, Andreas (2022). "Artificial Intelligence, Business and Civilization – Our Fate Made in Machines". Archived from the original on 6 May 2022. Retrieved 12 March 2022.
  33. ^ Simon 1965, p. 96 크레비에 1993, p. 109에서 인용.
  34. ^ "Scientist on the Set: An Interview with Marvin Minsky". Archived from the original on 16 July 2012. Retrieved 5 April 2008.
  35. ^ Marvin Minsky to Darach (1970), Crevier (1993, 페이지 109)에서 인용.
  36. ^ 라이트힐 1973; 하우 1994
  37. ^ a b NRC 1999, "응용 연구로의 전환은 투자를 증가시킵니다.
  38. ^ Crevier 1993, pp. 115-117; Russell & Norvig 2003, pp. 21-22
  39. ^ Crevier 1993, p. 211, Russell & Norvig 2003, p. 24, 그리고 Feigenbaum & McCorduck 1983 참조
  40. ^ Crevier 1993, pp. 161-162, 197-203, 240; Russell & Norvig 2003, p. 25.
  41. ^ Crevier 1993, pp. 209-212
  42. ^ McCarthy, John (2000). "Reply to Lighthill". Stanford University. Archived from the original on 30 September 2008. Retrieved 29 September 2007.
  43. ^ Markoff, John (14 October 2005). "Behind Artificial Intelligence, a Squadron of Bright Real People". The New York Times. Archived from the original on 2 February 2023. Retrieved 18 February 2017. At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers.
  44. ^ Russell & Norvig 2003, pp. 25-26
  45. ^ "Trends in the Emerging Tech Hype Cycle". Gartner Reports. Archived from the original on 22 May 2019. Retrieved 7 May 2019.
  46. ^ a b Moravec 1988, p. 20
  47. ^ Harnad, S. (1990). "The Symbol Grounding Problem". Physica D. 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  48. ^ 구브루드 1997
  49. ^ Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. S2CID 33352850. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  50. ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (Thesis). University of Lugano. Archived (PDF) from the original on 15 June 2022. Retrieved 19 July 2022.
  51. ^ Goertzel, Ben (2014). Artificial General Intelligence. Lecture Notes in Computer Science. Vol. 8598. Journal of Artificial General Intelligence. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID 8387410.
  52. ^ "Who coined the term "AGI"?". goertzel.org. Archived from the original on 28 December 2018. Retrieved 28 December 2018.라이프 3.0"Who coined the term "AGI"?". goertzel.org. Archived from the original on 28 December 2018. Retrieved 28 December 2018.통해: 'AGI'라는 용어는...셰인 레그, 마크 구브루드, 벤 괴르첼'
  53. ^ 왕앤고어첼 2007
  54. ^ "First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009". Archived from the original on 28 September 2020. Retrieved 11 May 2020.
  55. ^ "Избираеми дисциплини 2009/2010 – пролетен триместър" [Elective courses 2009/2010 – spring trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in Bulgarian). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  56. ^ "Избираеми дисциплини 2010/2011 – зимен триместър" [Elective courses 2010/2011 – winter trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in Bulgarian). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  57. ^ Ecoffet, Adrien; Clune, Jeff; Lehman, Joel (2020). "Open Questions in Creating Safe Open-ended AI: Tensions Between Control and Creativity". The 2020 Conference on Artificial Life. Cambridge, Massachusetts: MIT Press: 27–35. arXiv:2006.07495. doi:10.1162/isal_a_00323. S2CID 219687488.
  58. ^ "Open-Ended Learning Leads to Generally Capable Agents". www.deepmind.com. Retrieved 9 June 2023.
  59. ^ "Voyager An Open-Ended Embodied Agent with Large Language Models". voyager.minedojo.org. Retrieved 9 June 2023.
  60. ^ Zhang, Jenny; Lehman, Joel; Stanley, Kenneth; Clune, Jeff (2 June 2023). "OMNI: Open-endedness via Models of human Notions of Interestingness". arXiv:2306.01711 [cs.AI].
  61. ^ Wu, Yue; Prabhumoye, Shrimai; Min, So Yeon (24 May 2023). "SPRING: GPT-4 Out-performs RL Algorithms by Studying Papers and Reasoning". arXiv:2305.15486 [cs.AI].
  62. ^ Boucher, Philip (March 2019). "Concluding remarks". How artificial intelligence works (PDF) (Report). European Parliamentary Research Service. Archived (PDF) from the original on 3 March 2020. Retrieved 3 March 2020. Today's AI is powerful and useful, but remains far from speculated AGI or ASI.
  63. ^ itu.int : 비욘드 매드?: 인공 일반 지능을 위한 경쟁 2020년 11월 9일 웨이백 머신에서 보관된 "AGI는 현재와 같이 추측성 소설의 영역에 확고하게 남아있는 수준의 힘을 나타냅니다."2018년 2월 2일 2020년 3월 3일 회수
  64. ^ Allen, Paul; Greaves, Mark (12 October 2011). "The Singularity Isn't Near". MIT Technology Review. Retrieved 17 September 2014.
  65. ^ Winfield, Alan. "Artificial intelligence will not turn into a Frankenstein's monster". The Guardian. Archived from the original on 17 September 2014. Retrieved 17 September 2014.
  66. ^ a b c 2003년 시계.
  67. ^ Fjelland, Ragnar (17 June 2020). "Why general artificial intelligence will not be realized". Humanities and Social Sciences Communications. 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. S2CID 219710554.
  68. ^ 맥카시 2007.
  69. ^ Khatchadourian, Raffi (23 November 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". The New Yorker. Archived from the original on 28 January 2016. Retrieved 7 February 2016.
  70. ^ 뮐러, V. C. & 보스트롬, N. (2016)인공지능의 미래 발전:전문가 의견 조사.인공지능의 기본 이슈(pp. 555-572)에서스프링어, 참.
  71. ^ 암스트롱, 스튜어트, 카즈 소탈라. 2012."AI를 어떻게 예측하고 있는지, 아니면 예측하지 못하고 있는지"In Beyond AI: Artificial Dreams, Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, Radek Schuster 편집, 52–75.필센:서보헤미아 대학교
  72. ^ "Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence". 24 March 2023.
  73. ^ 2006년 괴르첼 & 페나흐.
  74. ^ a b c (Kurzweil 2005, 페이지 260)
  75. ^ a b c 괴르첼 2007.
  76. ^ Grace, Katja (2016). "Error in Armstrong and Sotala 2012". AI Impacts (blog). Archived from the original on 4 December 2020. Retrieved 24 August 2020.
  77. ^ a b Butz, Martin V. (1 March 2021). "Towards Strong AI". KI – Künstliche Intelligenz. 35 (1): 91–101. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987. S2CID 256065190.
  78. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Intelligence Quotient and Intelligence Grade of Artificial Intelligence". Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  79. ^ Brien, Jörn (5 October 2017). "Google-KI doppelt so schlau wie Siri" [Google AI is twice as smart as Siri – but a six-year-old beats both] (in German). Archived from the original on 3 January 2019. Retrieved 2 January 2019.
  80. ^ Grossman, Gary (3 September 2020). "We're entering the AI twilight zone between narrow and general AI". VentureBeat. Archived from the original on 4 September 2020. Retrieved 5 September 2020. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
  81. ^ Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". The Register. Archived from the original on 16 October 2021. Retrieved 16 October 2021.
  82. ^ Wiggers, Kyle (13 May 2022), "DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots", TechCrunch, archived from the original on 16 June 2022, retrieved 12 June 2022
  83. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  84. ^ Metz, Cade (1 May 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times. ISSN 0362-4331. Retrieved 7 June 2023.
  85. ^ Sandberg & Boström 2008."기본적인 아이디어는 특정 뇌를 가지고, 그것의 구조를 자세히 스캔하고, 원래의 뇌에 너무 충실한 소프트웨어 모델을 구성하는 것입니다. 그래서 적절한 하드웨어로 실행될 때, 그것은 원래의 뇌와 본질적으로 같은 방식으로 행동할 것입니다.
  86. ^ Sandberg & Boström 2008.
  87. ^ 드라크만 2005.
  88. ^ a b 러셀 노빅 2003.
  89. ^ 모라벡 1988, 61쪽.
  90. ^ a b 모라벡 1998년
  91. ^ Swaminathan, Nikhil (January–February 2011). "Glia—the other brain cells". Discover. Archived from the original on 8 February 2014. Retrieved 24 January 2014.
  92. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). "Large-scale model of mammalian thalamocortical systems" (PDF). PNAS. 105 (9): 3593–3598. Bibcode:2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. Archived from the original (PDF) on 12 June 2009. Retrieved 23 June 2015.
  93. ^ "Project Milestones". Blue Brain. Retrieved 11 August 2008.
  94. ^ "Artificial brain '10 years away'". BBC News. 22 July 2009. Archived from the original on 26 July 2017. Retrieved 25 July 2009.
  95. ^ 캘거리 대학교 뉴스 2009년 8월 18일 웨이백 머신에서 보관, NBC 뉴스 뉴스 2017년 7월 4일 웨이백 머신에서 보관
  96. ^ 드 베가, 글렌버그 & 그레서 2008.현재 연구에 있어서 광범위한 견해들, 어느 정도의 기초가 필요한 모든 것들.
  97. ^ "[links to bee brain studies]". Honey Bee Brain. Archived from the original on 25 July 2008. Retrieved 30 March 2010.
  98. ^ a b 2006년 유드코프스키.
  99. ^ Yekutieli, Y.; Sagiv-Zohar, R.; Aharonov, R.; Engel, Y.; Hochner, B.; Flash, T. (August 2005). "Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement". Journal of Neurophysiology. 94 (2): 1443–1458. doi:10.1152/jn.00684.2004. PMID 15829594.
  100. ^ 윌리엄스 앤 허럽 1988
  101. ^ "nervous 시스템, 인간"æ디아 브리태니커 백과사전. 2007년 1월 9일
  102. ^ 아제베도 외. 2009.
  103. ^ 1980년 설
  104. ^ 예를 들어,
  105. ^ a b c 러셀 & 노빅 2003, 페이지 947.
  106. ^ 분야에 의한 호기심을 위해 설명 가능한 인공지능을 참조하십시오. 왜 프로그램이 그것이 그것이 하는 것처럼 행동하는지에 대한.
  107. ^ 나겔 1974.
  108. ^ 튜링 1950.
  109. ^ a b c Sotala, Kaj; Yampolskiy, Roman V. (19 December 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  110. ^ Joy, Bill (April 2000). "Why the future doesn't need us". Wired.
  111. ^ James, Alex P. (2022). "The Why, What, and How of Artificial General Intelligence Chip Development". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 333–347. arXiv:2012.06338. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archived from the original on 28 August 2022. Retrieved 28 August 2022.
  112. ^ Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Towards artificial general intelligence with hybrid Tianjic chip architecture". Nature. 572 (7767): 106–111. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archived from the original on 29 August 2022. Retrieved 29 August 2022.
  113. ^ Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (March 2022). "The transformational role of GPU computing and deep learning in drug discovery". Nature Machine Intelligence. 4 (3): 211–221. doi:10.1038/s42256-022-00463-x. ISSN 2522-5839. S2CID 252081559.
  114. ^ "Artificial Intelligence (AI) vs. Machine Learning vs. Deep Learning". Pathmind. Retrieved 13 May 2023.
  115. ^ Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life. 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
  116. ^ 겔렌터 2010.
  117. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  118. ^ Priyadarshini, Ishaani; Cotton, Chase (2022). "AI Cannot Understand Memes: Experiments with OCR and Facial Emotions". Computers, Materials & Continua. 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. S2CID 239639188. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  119. ^ "Artificial General Intelligence – Do[es] the cost outweigh benefits?". 23 August 2021. Retrieved 7 June 2023.
  120. ^ "How we can Benefit from Advancing Artificial General Intelligence (AGI) – Unite.AI". www.unite.ai. Retrieved 7 June 2023.
  121. ^ a b c Talty, Jules; Julien, Stephan. "What Will Our Society Look Like When Artificial Intelligence Is Everywhere?". Smithsonian Magazine. Retrieved 7 June 2023.
  122. ^ Stevenson, Matt (8 October 2015). "Answers to Stephen Hawking's AMA are Here!". Wired. ISSN 1059-1028. Retrieved 8 June 2023.
  123. ^ a b Bostrom, Nick (2017). "§ Preferred order of arrival". Superintelligence: paths, dangers, strategies (Reprinted with corrections 2017 ed.). Oxford, United Kingdom; New York, New York, USA: Oxford University Press. ISBN 978-0-19-967811-2.
  124. ^ Piper, Kelsey (19 November 2018). "How technological progress is making it likelier than ever that humans will destroy ourselves". Vox. Retrieved 8 June 2023.
  125. ^ Müller, Vincent C. (3 July 2014). "Risks of general artificial intelligence". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. S2CID 31835019.
  126. ^ Turchin, Alexey (1 March 2019). "Assessing the future plausibility of catastrophically dangerous AI". Futures. 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. S2CID 158975847.
  127. ^ Rawlinson, Kevin. "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
  128. ^ "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Archived from the original on 25 September 2015. Retrieved 3 December 2014.
  129. ^ Herger, Mario. "The Gorilla Problem – Enterprise Garage". Retrieved 7 June 2023.
  130. ^ "The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI". The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (in French). Retrieved 8 June 2023.
  131. ^ "Humanity, Security & AI, Oh My! (with Ian Bremmer & Shuman Ghosemajumder)". CAFE. 20 July 2023. Retrieved 15 September 2023.
  132. ^ "LLMs aren't even as smart as dogs, says Meta's AI chief scientist". ZDNET. Retrieved 15 September 2023.
  133. ^ "Will Artificial Intelligence Doom The Human Race Within The Next 100 Years?". HuffPost. 22 August 2014. Retrieved 8 June 2023.
  134. ^ McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (13 August 2021). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence. 35 (5): 649–663. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. S2CID 238643957.
  135. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). Oxford University Press. ISBN 978-0199678112.
  136. ^ Naudé, Wim; Dimitri, Nicola (1 June 2020). "The race for an artificial general intelligence: implications for public policy". AI & Society. 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. S2CID 52045822.
  137. ^ Torres, Phil (4 May 2019). "The possibility and risks of artificial general intelligence". Bulletin of the Atomic Scientists. 75 (3): 105–108. Bibcode:2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. S2CID 150498464. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  138. ^ Turchin, Alexey; Denkenberger, David (27 July 2018), "Military AI as a Convergent Goal of Self-Improving AI", Artificial Intelligence Safety and Security, First edition. Boca Raton, Florida: CRC Press/Taylor & Francis Group: Chapman and Hall/CRC, pp. 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, S2CID 65323952, archived from the original on 2 February 2023, retrieved 29 August 2022
  139. ^ Carayannis, Elias G.; Draper, John (11 January 2022). "Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence". AI & Society: 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  140. ^ Hamblin, James (9 May 2014). "But What Would the End of Humanity Mean for Me?". The Atlantic. Archived from the original on 4 June 2014. Retrieved 12 December 2015.
  141. ^ "Tech Luminaries Address Singularity". IEEE Spectrum: Technology, Engineering, and Science News. No. SPECIAL REPORT: THE SINGULARITY. 1 June 2008. Archived from the original on 30 April 2019. Retrieved 8 April 2020.
  142. ^ Shermer, Michael (1 March 2017). "Apocalypse AI". Scientific American. 316 (3): 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. PMID 28207698. Archived from the original on 1 December 2017. Retrieved 27 November 2017.
  143. ^ "AGI Expert Peter Voss Says AI Alignment Problem is Bogus NextBigFuture.com". 4 April 2023. Retrieved 8 June 2023.
  144. ^ "Statement on AI Risk CAIS". www.safe.ai. Retrieved 8 June 2023.
  145. ^ "GPTs are GPTs: An early look at the labor market impact potential of large language models". openai.com. Retrieved 7 June 2023.
  146. ^ a b "80% of workers will be exposed to AI. These jobs will be most affected". euronews. 23 March 2023. Retrieved 8 June 2023.
  147. ^ Stevenson, Matt (8 October 2015). "Answers to Stephen Hawking's AMA are Here!". Wired. ISSN 1059-1028. Retrieved 8 June 2023.
  148. ^ Sheffey, Ayelet. "Elon Musk says we need universal basic income because 'in the future, physical work will be a choice'". Business Insider. Retrieved 8 June 2023.

원천

추가열람

  • 에카 로이바이넨, "AI의 IQ: ChatGPT는 [표준 지능] 테스트를 통과했지만 IQ만으로는 지능을 측정할 수 없다는 것을 보여주었다", Scientific American, vol. 329, No. 1(2023년 7월/8월), p. 7. "높은 IQ에도 불구하고 ChatGPT는 실제 인간과 같은 추론이나 물리적, 사회적 세계에 대한 이해가 필요한 작업에서 실패합니다.ChatGPT는 논리적으로 판단할 수 없는 것 같았고 방대한 데이터베이스인...온라인 텍스트에서 파생된 사실."

외부 링크