AI 겨울

AI winter

인공지능 역사에서 AI 겨울은 인공지능 [1]연구에 대한 관심과 자금이 줄어든 기간이다. 용어는 핵 [2]겨울이라는 개념에 비유하여 만들어졌다.이 분야는 몇 번의 과장된 순환을 겪었고, 실망과 비난이 뒤따랐고, 자금 삭감이 뒤따랐고, 수년 또는 수십 년 후에 다시 관심이 생겨났다.

이 용어는 1984년 AAAI (당시 "미국 인공지능 협회"로 불렸던) 연례 회의에서 공개 토론의 주제로 처음 등장했다.AI 커뮤니티의 비관론에서 시작해 언론의 비관론, 심각한 자금 삭감, 심각한 연구 [2]종료 등으로 이어지는 연쇄 반응이다.회의에서 1970년대의 "겨울"에서 살아남은 두 명의 선도적인 AI 연구자인 Roger Schank와 Marvin Minsky는 1980년대에 AI에 대한 열정이 통제 불능으로 치솟았고 실망이 뒤따를 것이라고 재계에 경고했습니다.3년 후, 10억 달러 규모의 AI 산업은 [2]붕괴되기 시작했다.

선전은 철도 마니아닷컴 버블과 같은 많은 신흥 기술에서 흔히 볼 수 있습니다.AI 겨울은 개발자들의 과도한 약속, 최종 사용자들의 부자연스러운 높은 기대, [3]미디어에서의 광범위한 홍보로 인해 그러한 과대 광고의 결과였다.AI의 명성의 흥망성쇠에도 불구하고, 그것은 계속해서 새롭고 성공적인 기술을 개발해 왔다.AI 연구원 로드니 브룩스는 2002년 "AI가 실패했다는 바보 같은 속설이 있지만 AI는 [4]하루 종일 당신 주변에 있다"고 불평했다.2005년 레이 커즈와일은 다음과 같이 말했다. "많은 관측자들은 여전히 AI 겨울이 마지막이었고 그 이후로는 AI 분야에서 아무 것도 나오지 않았다고 생각한다.그러나 오늘날 수천 개의 AI 애플리케이션이 모든 [5]산업의 인프라에 깊숙이 내장되어 있습니다."

AI에 대한 열정과 낙관론은 1990년대 초반 저점 이후 전반적으로 증가했다.2012년경부터 연구 및 기업 커뮤니티의 인공지능(특히 기계학습의 하위 분야)에 대한 관심은 자금과 투자의 급격한 증가로 이어졌습니다.

개요

1974-1980년과 1987-1993년에는[6] 두 번의 주요 겨울과 다음과 같은 몇 가지 작은 에피소드가 있었다.

초기 에피소드

기계번역 및 1966년 ALPAC 보고서

냉전 기간 동안, 미국 정부는 러시아 문서와 과학 보고서의 자동적이고 즉각적인 번역에 특히 관심이 있었다.정부는 1954년부터 기계번역 노력을 적극 지원했다.처음에 연구원들은 낙관적이었다.노암 촘스키새로운 문법 작업은 번역 과정을 간소화하고 있었고 "곧 '약탈'[7]이 일어날 것"에 대한 많은 예언들이 있었다.

1973년 미국 부통령 제럴드 포드에게 접합문법 기반 컴퓨터 번역 모델에 대한 브리핑

그러나 연구자들은 단어 감각의 모호성 해명의 심각한 어려움을 과소평가했다.문장을 번역하기 위해 기계는 문장이 무엇에 관한 것인지 알아야 했고 그렇지 않으면 실수를 했다."영혼은 원하지만 육체는 약하다"는 것이 외설적인[8] 예다.러시아어로 앞뒤로 번역하면 보드카는 좋지만 고기는 [9]썩었다.후대의 연구자들은 이것을 상식적인 지식 문제라고 부를 것이다.

1964년까지, 국립 연구 위원회는 진보의 부족에 대해 우려하게 되었고, 이 문제를 조사하기 위해 자동 언어 처리 자문 위원회(ALPAC)를 구성하였다.그들은 1966년 한 유명한 보고서에서 기계번역이 인간번역보다 더 비싸고 정확도가 낮으며 느리다고 결론지었다.NRC는 약 2000만 달러를 쓴 뒤 모든 지원을 중단했다.경력은 무너졌고 연구는 [2][7]끝났다.

기계 번역은 21세기에도 여전히 미해결 연구 과제이며, 어느 정도 성공을 거두고 있습니다(Google Translate, Yahoo Babel Fish).

1969년 연결주의 포기

AI의 초기 작업 중 일부는 지능형 동작을 시뮬레이션하기 위해 연결된 장치의 네트워크나 회로를 사용했다."연결주의"라고 불리는 이런 종류의 연구의 예로는 월터 피츠와 워렌 맥컬록이 논리를 위한 신경망에 대해 처음으로 설명한 것과 SNARC 시스템에 대한 마빈 민스키의 연구가 있다.1950년대 후반, 논리 이론가일반 문제 [10]해결사 같은 프로그램의 성공에 따라 연구자들이 지능의 본질로서 상징적 추론을 탐구하기 시작했을 때, 이러한 접근의 대부분은 포기되었다.

하지만, 한 가지 유형의 연결주의 연구는 계속되었다: 프랭크 로젠블랫이 창안한 퍼셉트론 연구는 그의 판매력과 [11]그의 성격의 순수한 힘으로 분야를 살아 있게 했다.그는 퍼셉트론이 "결국 배우고, 결정을 내리고,[12] 언어를 번역할 수 있을 것"이라고 낙관적으로 예측했다.퍼셉트론에 대한 주류 연구는 1969년 마빈 민스키와 시모어 파퍼트가 퍼셉트론이 할 수 있는 일의 한계를 보여주는 퍼셉트론을 출판했을 때 갑자기 끝났다.

다음 10년 정도 연결주의적 접근은 포기되었다.Paul Werbos의 역전파 발견과 같은 중요한 작업은 제한된 방식으로 계속되었지만, 1970년대와 1980년대 [13]초반에는 연결주의 프로젝트에 대한 주요 자금을 찾기가 어려웠다.연결주의 연구의 "겨울"은 1980년대 중반 존 홉필드, 데이비드 루멜하트 등의 연구[14]신경망에 대한 대규모 관심이 되살아나면서 끝이 났다.그러나 로젠블랫은 퍼셉트론이 [12]출판된 직후 보트 사고로 사망했기 때문에 이를 보지 못하고 죽었다.

1974년의 좌절

라이트힐 리포트

1973년 제임스 라이트힐 교수는 영국 의회로부터 영국의 AI 연구 상태를 평가해 달라는 요청을 받았다.현재 라이트힐 보고서라고 불리는 그의 보고서는 AI가 "거대한 목표"를 달성하지 못한 것을 비판했다.그는 AI에서 행해지는 어떤 것도 다른 과학에서는 행해질 수 없다고 결론지었다.그는 특히 "동위원소 폭발" 또는 "침입성"의 문제를 언급했는데, 이는 AI의 가장 성공적인 알고리즘의 많은 부분이 현실 세계의 문제에서 중단되고 "장난감"[15] 버전을 해결하는 데만 적합하다는 것을 암시했다.

이 보고서는 1973년 BBC "논란" 시리즈의 토론 방송에서 논란이 되었다.영국 왕립연구소의 범용 로봇은 신기루라는 논쟁은 라이트힐과 도날드 미치, 존 매카시, 리처드 [16]그레고리 의 대결이었다.매카시는 이후 AI에서 조합폭발 문제는 처음부터 인식돼 왔다고 썼다.[17]

이 보고서는 영국에서 [15]AI 연구의 완전한 폐기로 이어졌다.AI 연구는 일부 대학(에딘버그, 에식스, 서섹스)에서만 계속됐다.1983년 앨비(영국 정부의 연구 프로젝트)가 일본의 제5세대 프로젝트(이하 참조)에 대응해 3억5000만파운드의 군자금에서 AI를 재투자하기 시작한 후에야 대규모로 연구가 부활했다.Alvey는 국제적으로, 특히 미국 파트너와 잘 맞지 않는 영국만의 요건이 다수 있어 단계2의 자금 지원을 상실했습니다.

DARPA의 1970년대 초반 자금 삭감

1960년대 국방고등연구계획국(당시 "ARPA", 현재 "DARPA"로 알려짐)은 몇 가지 조건 없이 AI 연구에 수백만 달러를 지원했다.DARPA의 컴퓨팅 부문의 창립 디렉터인 J. C. Ricklider는 "[18]프로젝트가 아닌 사람들을 위한 자금 제공"을 신봉했으며 그와 몇몇 후임자들은 AI의 리더(Marvin Minsky, John McCarthy, Herbert A 등)를 허용했습니다. Simon 또는 Allen Newell)은 그들이 원하는 대로 거의 모든 방법으로 쓸 수 있다.

이러한 태도는 1969년 맨스필드 수정안이 통과된 후 달라졌는데, 이는 DARPA가 "기본적인 무방향 연구보다는 임무 지향적인 직접 연구"[19]에 자금을 지원하도록 요구하였다.1960년대에 진행되었던 순수 무방향 연구는 더 이상 DARPA의 자금 지원을 받지 못할 것이다.연구자들은 이제 그들의 연구가 곧 유용한 군사 기술을 생산할 것이라는 것을 보여줘야 했다.AI 연구 제안은 매우 높은 수준으로 유지되었다.라이트힐 보고서와 DARPA의 자체 연구(American Study Group)가 대부분의 AI 연구가 예측 가능한 미래에 진정으로 유용한 것을 만들어 낼 가능성이 낮다고 제안했을 때 상황은 도움을 받지 못했다.DARPA의 자금은 자율 탱크와 전투 관리 시스템 등 특정 목표를 가진 특정 프로젝트에 사용되었습니다.1974년까지, AI 프로젝트에 대한 자금 지원은 [19]찾기 어려웠다.

AI 연구원 한스 모라벡은 "많은 연구자들이 점점 더 과장되고 있는 거미줄에 휘말렸다"고 그의 동료들의 비현실적인 예측 탓으로 돌렸다.DARPA에 대한 그들의 초기 약속은 너무 낙관적이었다.물론, 그들이 배달한 것은 그것에 상당히 못 미쳤습니다.하지만 그들은 다음 제안에서 처음보다 더 적은 약속을 할 수 없다고 느꼈고, 그래서 [20]더 많은 것을 약속했습니다.그 결과 DARPA의 일부 직원들이 AI 연구에 인내심을 잃었다고 Moravec은 주장한다.모라벡은 [21]DARPA에서 말 그대로 '이들 중 일부는 연간 200만 달러의 계약을 거의 무위로 줄임으로써 교훈을 얻을 것이다!'라고 표현했다.

자율 탱크 프로젝트는 실패했지만, 전투 관리 시스템(동적 분석재계획 도구)은 엄청난 성공을 거두었고, 제1차 걸프전에서 수십억 달러를 절약하고, AI에 대한[22] 모든 DARPA의 투자금을 상환하고 DARPA의 실용적인 [23]정책을 정당화했다.

SUR의 대실패

DARPA는 카네기 멜론 대학의 음성 이해 연구 프로그램에서 일하는 연구원들에게 매우 실망했다.DARPA는 조종사의 음성 명령에 응답할 수 있는 시스템을 기대했고 약속되었다고 느꼈다.SUR 팀은 단어를 특정한 순서로 말하는 경우에만 영어를 인식할 수 있는 시스템을 개발했다.DARPA는 그것이 속았다고 느꼈고 1974년에 그들은 연간 3백만 달러의 [24]계약을 취소했다.

수년 후, 몇몇 성공적인 상용 음성 인식 시스템은 카네기 멜론 팀에 의해 개발된 기술을 사용할 것이며([25]숨겨진 마르코프 모델 등) 음성 인식 시스템의 시장은 2001년까지 40억 달러에 달할 것이다.

1980년대 후반과 1990년대 초반의 후퇴

LISP 기계 시장의 붕괴

1980년대, "전문가 시스템"이라고 불리는 AI 프로그램이 전 세계 기업들에 의해 채택되었다.최초의 상업 전문가 시스템은 카네기 멜론에서 개발한 XCON으로, 엄청난 성공을 거두었습니다. 이 시스템은 6년 만에 4천만 달러를 절약한 것으로 추정되었습니다.전 세계 기업들은 전문가 시스템을 개발 및 배치하기 시작했고 1985년에는 10억 달러 이상을 AI에 투자했으며, 대부분은 사내 AI 부서에 투자했습니다.Teknowledge나 Intellicorp(KE)와 같은 소프트웨어 회사, [26][27]AI가 선호하는 언어인 LISP를 처리하도록 최적화된 LISP 머신이라고 불리는 특수 컴퓨터를 만든 Symbolics나 LISP Machines Inc. 같은 하드웨어 회사가 이들을 지원하기 위해 성장했습니다.

민스키와 생크가 예측한 지 3년 만인 1987년 LISP 기반 AI 하드웨어 시장은 붕괴됐다.Sun Microsystems와 같은 회사의 워크스테이션은 LISP 머신에 대한 강력한 대안을 제시했고, Lucid와 같은 회사는 이 새로운 클래스의 워크스테이션에 LISP 환경을 제공했습니다.이러한 일반적인 워크스테이션의 퍼포먼스는 LISP 머신에게 점점 더 어려운 과제가 되었습니다.Lucid 및 Franz LISP와 같은 회사는 모든 UNIX 시스템에 휴대할 수 있는 더욱 강력한 버전의 LISP를 제공했습니다.예를 들어 LISP [28]머신에 비해 퍼포먼스가 뛰어난 워크스테이션을 나타내는 벤치마크가 공개되었습니다.나중에 애플IBM이 만든 데스크톱 컴퓨터는 또한 LISP 애플리케이션을 실행할 수 있는 더 단순하고 인기 있는 아키텍처를 제공할 것이다.1987년까지, 그들 중 일부는 더 비싼 LISP 기계만큼 강력해졌다.데스크톱 컴퓨터에는 CLIP 등의 규칙 기반 엔진을 사용할 [29]수 있습니다.이러한 대안으로 인해 소비자들은 LISP 실행에 특화된 고가의 기계를 구입할 이유가 없어졌습니다.5억 달러의 가치가 있는 산업 전체가 [30]1년 만에 교체되었다.

1990년대 초까지 심볼릭스, LISP 머신스, 루시드 등 대부분의 상업용 LISP 회사들은 파산했다.텍사스 인스트루먼트나 제록스 같은 다른 회사들은 이 분야를 포기했다.소수의 고객사(즉, LISP로 작성되어 LISP 머신 플랫폼 상에서 개발된 시스템을 사용하는 회사)가 시스템을 계속 유지 보수하고 있었습니다.경우에 따라서는, 이러한 유지보수는, 결과적인 서포트 작업의 전제를 수반했습니다.[3]

전문가 시스템 도입 속도 저하

1990년대 초, XCON과 같은 가장 초기의 성공적인 전문가 시스템은 유지하기에 너무 비쌌습니다.그들은 업데이트하기 어렵고, 배울 수 없으며, "조금"이었고(즉, 비정상적인 입력이 주어졌을 때 기괴한 실수를 할 수 있다), 그들은 수년 전에 비단조 논리 연구에서 확인된 문제(예: 자격 문제)의 희생양이 되었다.전문가 시스템은 유용하다는 것이 입증되었지만, 몇 가지 특수한 [31][32]상황에서만 입증되었습니다.또 다른 문제는 일반 지식을 위한 진실 유지 노력의 계산 경도를 다루었다.KEE는 이해하고 적용하기 어려운 다중 세계 시나리오를 지원하는 가정 기반 접근법(NASA, TEXSYS 참조)을 사용했다.

몇 안 되는 전문 시스템 쉘 기업은 결국 규모를 축소하고 사례 기반 추론이나 보편적인 데이터베이스 액세스와 같은 새로운 시장 및 소프트웨어 패러다임을 모색해야 했습니다.Common Lisp의 성숙으로 ICAD와 같은 많은 시스템이 지식 기반 엔지니어링에 적용되었습니다.Intelicorp의 KE 등 다른 시스템은 PC상의 LISP에서 C++(변수)로 이행하여 객체 지향 테크놀로지 확립에 도움이 되었습니다(UML 파트너 참조).

제5세대 프로젝트의 종료

1981년 일본 무역산업성5세대 컴퓨터 프로젝트를 위해 8억 5천만 달러를 책정했다.그들의 목표는 인간처럼 대화, 언어 번역, 그림 해석, 이성을 할 수 있는 프로그램을 만들고 기계를 만드는 것이었다.1991년까지 1981년에 작성된 인상적인 목표 목록은 충족되지 않았다.더 브레인 메이커스HP 뉴퀴스트에 따르면, "1992년 6월 1일, 제5세대 프로젝트는 성공적 굉음이 아니라 [3]훌쩍이며 끝났다."다른 AI 프로젝트와 마찬가지로,[33][34] 기대는 실제 가능한 것보다 훨씬 더 높았다.

전략적 컴퓨팅 이니셔티브의 삭감

1983년, 5세대 프로젝트에 대응하여 DARPA는 다시 Strategic Computing Initiative를 통해 AI 연구에 자금을 대기 시작했습니다.당초 제안된 대로 프로젝트는 실용적이고 달성 가능한 목표에서 시작되며, 장기 목표로서 인공지능을 포함시키기도 했다.이 프로그램은 IPTO(Information Processing Technology Office)의 지시를 받았으며 슈퍼컴퓨팅마이크로일렉트로닉스도 담당했습니다.1985년까지 1억 달러를 지출했으며, 산업계, 대학 및 정부 연구소에서 92개의 프로젝트가 진행 중입니다.AI 연구는 [35]SCI의 후한 자금 지원을 받았다.

1987년 IPTO의 리더로 승진한 잭 슈워츠는 전문가 시스템을 "깨끗한 프로그래밍"이라고 일축하고 AI에 대한 자금을 "깊고 잔인하게" 삭감하여 SCI를 "소멸"시켰다.슈바르츠는 DARPA가 가장 유망한 기술에만 자금을 집중해야 한다고 느꼈고, DARPA는 "개 패들"이 아니라 "서프"해야 한다고 생각했으며, AI는 "다음 물결"이 아니라고 강하게 느꼈다.프로그램 내부에서는 커뮤니케이션, 조직, 통합에 문제가 있다고 지적했다.조종사 보조와 무인 육상 차량(도달되지 않음)과 DART 전투 관리 시스템(위에서 언급한 바와 같이)[36]을 포함한 몇몇 프로젝트들이 자금 삭감을 견뎌냈다.

AI 겨울 이후 개발

2000년대 초반의 보고서에 대한 조사에 따르면 AI의 명성은 여전히 우수하지 않았다.

  • 2007년 6월 7일자 이코노미스트지에 인용된 알렉스 카스트로는 "'인공지능'과 같이 너무 자주 [37]약속을 지키지 못하는 시스템과 관련된 '음성 인식'이라는 용어로 인해 투자자들은 연기되었다"고 말했다.
  • Patty Tascarella (Pittsburgh Business Times) 2006년: "일부 사람들은 '로봇'이라는 단어가 실제로 기업의 자금 [38]조달 기회를 해치는 오명을 가지고 있다고 믿습니다."
  • 2005년 뉴욕타임스의 존 마코프: "저점일 때 일부 컴퓨터 과학자와 소프트웨어 엔지니어들은 눈이 먼 [39]몽상가로 보일까 두려워 인공지능이라는 용어를 피했습니다."

2000년대 중반 AI의 많은 연구자들이 그들의 작업이 특정 도구를 강조하거나 지시된다는 것을 나타내기 위해 의도적으로 정보학, 기계학습, 분석, 지식기반 시스템, 비즈니스 규칙 관리, 인지 시스템, 지능형 시스템, 지능형 에이전트 또는 컴퓨터 인텔리전스 등의 다른 이름으로 그들의 작업을 불렀다.특정 하위 문제에서.AI와 근본적으로 다른 분야라고 생각하기 때문일 수도 있지만, 새로운 명칭이 [39][40]'인공지능'이라는 이름에 붙는 거짓 약속이라는 오명을 피함으로써 자금 조달에 도움이 되는 것도 사실이다.

AI 통합

1990년대 후반과 21세기 초, AI 기술은 더 큰 [41][5]시스템의 요소로 널리 사용되었지만, 이 분야는 거의 이러한 성공을 거두지 못했다.2006년에 닉 Bostrom 뭔가 유용하게 되었고 보통 정도면 충분하게 되는 AI때문에 더 이상 AI가 아닌 "가장자리 AI을 절단한 많은 일반적인 어플리케이션이 자주 부르지 않는 알려진 바 있다고 설명했다."[42]로드니 브룩스이라고 말했다에 있는 같은 시간"there 이 바보 같은 신화 중에서 AI가 발생하지만 AI여러분 곁에 있다.하루의 [4]매초마다.

AI 연구진이 개발한 기술은 기계번역, 데이터 마이닝, 산업로봇, 물류,[43] 음성인식,[44] 은행 소프트웨어,[45] 의료진단,[45] 구글 검색엔진 [46]등 여러 분야에서 상업적 성공을 거뒀다.

퍼지 로직 컨트롤러는 자동차의 자동 변속 장치용으로 개발되었습니다(2006년식 Audi TT, VW Touareg[47] 및 VW Carabelle 기능, 퍼지 로직을 사용하는 DSP 변속기, 다수의 슈코다 모델(Shkoda Fabia) 또한 현재 퍼지 로직 기반 컨트롤러를 포함합니다).카메라 센서는 초점을 맞추기 위해 퍼지 논리를 폭넓게 활용합니다.

휴리스틱 검색과 데이터 분석은 모두 AI 연구 커뮤니티의 진화 컴퓨팅과 기계 학습 부문에서 발전한 기술이다.다시 말하지만, 이러한 기법은 상당한 상업적 성공을 거두면서 광범위한 현실 세계 문제에 적용되어 왔다.

데이터 분석 기술 classifiers의 관리한 기계 학습 사회에서 1990년대(예를 들어, TDIDT, 서포트 벡터 머신, 신경망 네트라, IBL)now[언제?]충만하게 기업들이 마케팅 조사와 다의 경향과 형상이 발견적으로 사용된다에서 개발되었다 이 자동 형성에 알고리즘을 이용하다.있을 세트.

AI의 자금 조달

연구원들과 경제학자들은 어떤 AI 프로젝트에, 얼마나, 누가 자금을 지원하는지 검토함으로써 AI 겨울의 상태를 자주 판단하였다.자금조달 동향은 선진국의 주요 자금조달기관에 의해 결정되는 경우가 많다.현재, DARPA와 EU-FP7이라고 불리는 민간 자금 프로그램은 미국과 유럽연합에서 AI 연구에 많은 자금을 제공하고 있다.

2007년 현재 DARPA는 그랜드 챌린지 프로그램, 인지 기술 위협 경고 시스템(CT2WS), 인간 보조 신경 장치(SN07-43) 및 자율 실시간 지상 유비쿼터스 감시 영상 시스템(ARGUS) 등의 프로그램을 통해 AI 연구 제안을 모집하고 있다.ology(긴급)

아마도 가장 잘 알려진 것은 DARPA의 Grand Challenge[48] Program으로, 완전히 자율적인 방식으로 실제 지형을[49] 성공적으로 탐색할 수 있는 완전 자동화 도로 차량을 개발했습니다.

DARPA는 콘텐츠의 인텔리전트 관리와 자동 이해에 중점을 둔 시맨틱 웹상의 프로그램도 지원했습니다.그러나 당시 DARPA 프로그램의 매니저였던 James Hendler는 정부의 빠른 변화 능력에 실망감을 표시했고, 기술을 민간 부문으로 이전하기 위해 World Wide Web Consortium과 협력하는 쪽으로 방향을 옮겼다.

EU-FP7 기금 프로그램은 유럽연합 내 연구자들에게 재정 지원을 제공한다.2007-2008년에는 인지 시스템(Cognitive Systems: Cognitive Systems:상호 작용 및 로봇 프로그램(€193m), 디지털 라이브러리 및 콘텐츠 프로그램(€203m), FET 프로그램(€185m).[50]

현재 "AI 스프링

AI의 자금 조달, 개발, 배치, 상업적 이용의 현저한 증가는 AI의 겨울이 오래 전에 [51]끝났다는 생각을 가져왔다.저명한 AI 과학자들의 지나치게 야심차거나 비현실적인 약속이나 상업적인 공급업체들의 지나친 약속으로 인해 새로운 AI 겨울이 촉발될 수 있다는 우려가 가끔 제기되기도 한다.

현재의 성공"'AI의 봄'은 구글 이미지 서치에 의해 상용화된 언어 번역(특히 구글 번역), 이미지 인식(ImageNet 훈련 데이터베이스로 확산), 알파제로(체스 챔피언), 알파고( 챔피언), 왓슨(제퍼디 챔피언) 의 게임 플레이 시스템에서 발전한 것이다.이러한 진보의 대부분은 2010년 이후로 일어나고 있다.

AI 겨울의 근본 원인

AI 겨울의 일반적인 원인에 대해 몇 가지 설명이 제시되었다.AI가 정부 지원 애플리케이션에서 상용 애플리케이션으로 발전하면서 새로운 역동성이 나타났다.과대 광고가 가장 흔히 인용되는 원인이지만, 설명이 반드시 상호 배타적인 것은 아닙니다.

과대 광고

AI의 겨울은[citation needed] 주식시장에서 볼 수 있는 과도한 기대와 그에 따른 폭락의 연속으로 부분적으로[citation needed] 이해될 수 있으며 철도 붐과 닷컴 버블에 의해 대표된다.새로운 테크놀로지의 개발의 일반적인 패턴(하이프 사이클로 알려져 있음)에서는, 통상, 테크놀로지의 비약적인 발전은, 「기대 부풀리기」의 피크에 이어 「환멸의 괴로움」을 낳기 위해서, 그 자체로 퍼지고 있습니다.과학기술의 진보는 투자자와 다른 이해관계자들 사이에서 홍보로 인한 기대의 증가를 따라가지 못하기 때문에 추락이 뒤따를 수밖에 없다.AI 기술도 예외는 아닌 것 같다.[citation needed]

예를 들어, 1960년대에 컴퓨터가 1층 신경망을 시뮬레이션할 수 있다는 깨달음은 1969년 Perceptrons라는 이 출판될 때까지 1층 네트워크에 의해 최적으로 해결될 수 있는 일련의 문제를 심각하게 제한한 신경 네트워크 과대 광고 사이클로 이어졌다.1985년 홉필드와 [52][53]탱크의 유명 논문과 일본의 5세대 프로젝트의 위협으로 뉴럴 네트워크가 최적화 문제를 해결할 수 있다는 것을 깨닫고 새로운 관심과 응용을 이끌어냈다.

제도적 요인

또 다른 요인은 대학 조직에서의 AI의 위치이다.AI에 대한 연구는 종종 학제 간 연구의 형태를 취한다.따라서 AI는 다른 유형의 학제 간 연구가 직면하는 것과 같은 문제에 직면하기 쉽다.기득권 부서를 통해 자금이 흘러 예산 삭감 기간에는 학제 간, 전통적인 연구 프로젝트를 희생하면서 각 부서의 "핵심 콘텐츠"를 보호하는 경향이 있습니다.

경제적 요인

국가 경제의 침체는 대학의 예산 삭감을 초래한다.핵심 콘텐츠 쏠림 현상은 AI 연구 효과를 악화시키고 시장 투자자들은 위기 때 위험 부담이 적은 벤처에 돈을 투자할 가능성이 높다.이와 함께 경기 침체를 AI 겨울로 증폭시킬 수 있습니다.Lightill 보고서는 대학들이 감축을 단행해야 했던 영국의 [54]경제 위기 시기에 나왔고, 문제는 어떤 프로그램을 진행해야 하는가에 관한 것이었다.

컴퓨팅 능력 부족

컴퓨팅 역사 초기에 뉴럴 네트워크의 가능성은 이해되었지만 실현된 적은 없었습니다.꽤 심플한 네트워크에서는 오늘날 표준에서도 상당한 컴퓨팅 용량이 필요합니다.

빈 파이프라인

기초 연구와 기술의 관계를 파이프라인으로 보는 것은 일반적이다.기초연구의 진보는 응용연구의 진보를 낳아 새로운 상업적 응용으로 이어진다.이러한 점에서 기초 연구의 부족은 향후 몇 년 동안 시장성이 있는 기술의 하락으로 이어질 것이라는 주장이 종종 제기됩니다.이 견해는 제임스 헨들러가 [29]2008년에 제기한 것입니다.그는 80년대 후반의 전문가 시스템의 몰락은 전문가 시스템의 본질적이고 피할 수 없는 취약성 때문이 아니라 1970년대 기초 연구의 자금 삭감에 기인한다고 주장했습니다.이러한 전문가 시스템은 1980년대에 응용 연구와 제품 개발을 통해 발전했지만, 10년 말까지 파이프라인은 고갈되었고 전문가 시스템은 이러한 취약성을 극복하고 추가 자금을 확보할 수 있는 개선 사항을 도출할 수 없었습니다.

적응에 실패

LISP 기계 시장의 몰락과 5세대 컴퓨터의 실패는 고가의 고급 제품이 보다 단순하고 저렴한 대체 제품에 추월당한 사례였다.이는 LISP 머신 메이커가 소외되고 있는 로우엔드의 파괴적인 테크놀로지의 정의에 부합합니다.전문가 시스템은 CLIPs와 같은 새로운 데스크톱 컴퓨터로 이전되었기 때문에 LISP 머신 시장의 몰락과 전문가 시스템의 몰락은 엄밀하게는 두 가지 별개의 사건이라고 할 수 있습니다.그러나 외부 컴퓨팅 환경의 변화에 적응하지 못한 것이 1980년대 AI 겨울의 [29]한 원인으로 꼽히고 있습니다.

AI의 과거와 미래에 대한 논쟁과 논쟁

몇몇 철학자, 인지 과학자, 컴퓨터 과학자들은 인공지능이 어디에서 실패했을지 그리고 미래에 무엇이 있을지에 대해 추측해 왔다.Hubert Dreyfus과거에 AI 연구에 대한 잘못된 가정을 강조했고 1966년 초에 AI 연구의 첫 번째 물결이 공적인 약속을 이행하지 못할 것이라고 정확하게 예측했다.노암 촘스키와 같은 다른 비평가들은 인공지능이 잘못된 방향으로 가고 있다고 주장했는데, 부분적으로 통계 [55]기술에 대한 의존도가 높기 때문이다.촘스키의 발언은 AI에서 통계적 방법의 역할을 중심으로 한 피터 노비그와의 더 큰 논쟁에 들어맞는다.두 사람의 교류는 노비그가 [57]쓴 MIT 심포지엄에서[56] 촘스키의 발언으로 시작됐다.

「 」를 참조해 주세요.

메모들

  1. ^ AI 엑스퍼트 뉴스레터: W는 2013년 11월 9일 Winter Archived in the Wayback Machine에 보관된 Winter용입니다.
  2. ^ a b c d 크레비에 1993, 페이지 203
  3. ^ a b c The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think. New York: Macmillan/SAMS. 1994. ISBN 978-0-9885937-1-8.
  4. ^ a b Kurzweil 2005, 페이지 263
  5. ^ a b Kurzweil 2005, 페이지 264
  6. ^ AI 겨울의 날짜는 소스마다 다릅니다.고려: (1) Howe 1994: "Lighthill의 [1973] 보고서는 영국(미국에서는 다소)의 학계에서 AI에 대한 엄청난 신뢰 상실을 야기했다.그것은 10년 동안 지속되었다 - 이른바 '''AI Winter', (2) Russell & Norvig 2003 페이지 24: "전반적으로 AI 산업은 1980년 몇 백만 달러에서 1988년 수십억 달러로 호황을 누렸다.그 직후 'AI 겨울'이라고 불리는 시기가 왔다.
  7. ^ a b John Hutchins 2005 간단히 말하면 기계 번역의 역사.2019년 7월 13일 Wayback Machine에 보관
  8. ^ 허친스, 존 1995년"위스키가 보이지 않았다" 또는 http://www.hutchinsweb.me.uk/MTNI-11-1995.pdf에서 가져온 산의 지속적인 신화
  9. ^ 러셀 & 노비그 2003, 페이지 21
  10. ^ 맥코덕 2004, 페이지 52~107
  11. ^ Pamela McCorduck은 한 동료의 말을 인용하여 다음과 같이 말했다. "그는 언론사의 꿈, 진짜 의학자였다." (McCorduck 2004, 페이지 105)
  12. ^ a b 크레비에 1993, 102-5페이지
  13. ^ Crevier 1993, 102–105, McCorduck 2004, 104–107, Russell & Norvig 2003, 22페이지
  14. ^ Crevier 1993, 페이지 214~6 Russell & Norvig 2003, 페이지 25
  15. ^ a b Crevier 1993, 117, Russell & Norvig 2003, 22, Howe 1994 및 Lightill 1973 참조
  16. ^ "BBC Controversy Lighthill debate 1973". BBC "Controversy" debates series. ARTIFICIAL_INTELLIGENCE-APPLICATIONS¯INSTITUTE. 1973. Retrieved 13 August 2010.
  17. ^ McCarthy, John (1993). "Review of the Lighthill Report". Archived from the original on 30 September 2008. Retrieved 10 September 2008.
  18. ^ 크레비에 1993, 65페이지
  19. ^ a b NRC 1999는 "응용 연구로의 전환으로 투자가 증가한다"(1980년 이전 섹션만 현재 논의에 적용됨)에 의거한다.
  20. ^ 크레비에 1993, 115페이지
  21. ^ 크레비에 1993, 117페이지
  22. ^ Russell & Norvig 2003, 페이지 25
  23. ^ NRC 1999
  24. ^ Crevier 1993, 페이지 115–116(이 계정은 이에 기초한다).기타 견해로는 "음성 인식 성공"에 따른 McCorduck 2004, 페이지 306–313 및 NRC 1999가 있다.
  25. ^ "음성 인식 성공"에 따른 NRC 1999.
  26. ^ 뉴퀴스트 1994, 189-201페이지
  27. ^ 크레비에 1993, 161-2페이지, 197-203
  28. ^ Brooks, Rodney. "Design of an Optimizing, Dynamically Retargetable Compiler for Common LISP" (PDF). Lucid, Inc. Archived from the original (PDF) on 20 August 2013.
  29. ^ a b c 또 다른 AI Winter를 피해 IEEE Intelligent Systems (2008년 3월/4월 (Vol. 23, No. 2) 페이지 2-4
  30. ^ 크레비에 1993, 209~210페이지
  31. ^ 뉴퀴스트 1994, 페이지 296
  32. ^ 크레비에 1993, 204–208페이지
  33. ^ 뉴퀴스트 1994, 페이지 431~434
  34. ^ 크레비에 1993, 페이지 211~212
  35. ^ McCorduck 2004, 페이지 426–429
  36. ^ McCorduck 2004, 페이지 430
  37. ^ 알렉스 카스트로, 나한테 말하는 거야?Economist Technology Quarterly (2007년 6월 7일)Wayback Machine에서 2008년 6월 13일 아카이브 완료
  38. ^ 로봇 회사들은 벤처 캐피털이 부족한 상황에서 자금 조달에 어려움을 겪고 있습니다.패티 타스카렐라.Pittsburgh Business Times (2006년 8월 11일)Wayback Machine에서 2014년 3월 26일 아카이브 완료
  39. ^ a b Markoff, John (14 October 2005). "Behind Artificial Intelligence, a Squadron of Bright Real People". The New York Times. Retrieved 30 July 2007.
  40. ^ 뉴퀴스트 1994, 페이지 423
  41. ^ NRC 1999년 "90년대의 인공지능"에 의거한
  42. ^ AI는 인간의 두뇌 능력을 상회하는 것으로 설정되어 있습니다.CNN.com (2006년 7월 26일)Wayback Machine에서 2006년 11월 3일 아카이브 완료
  43. ^ Russell & Norvig 2003, 28페이지
  44. ^ AI 기반 음성 인식의 새로운 기술에 대해서는, 「Are You Talking to Me」를 참조해 주세요.Wayback Machine에서 2008년 6월 13일 아카이브 완료
  45. ^ a b "AI에 영감을 받은 시스템은 이미 인터넷 검색 엔진, 거래 처리용 은행 소프트웨어 및 의료 진단과 같은 많은 일상적인 기술에 필수불가결한 것이었습니다.Nick Bostrom, AI, 인간의 두뇌 파워를 상회할 예정 CNN.com (2006년 7월 26일)Wayback Machine에서 2006년 11월 3일 아카이브 완료
  46. ^ 구글에서 AI를 사용하려면 구글의 장막 뒤에 있는 사람, 구글은 캐릭터 인식, 지능형 검색 엔진 스파이링참조하십시오.
  47. ^ Touareg Short Lead Press 소개, 미국 폭스바겐, 2012년 2월 16일 웨이백 머신에 아카이브
  48. ^ Grand Challenge Home 2010년 12월 24일 Wayback Machine에 아카이브 완료
  49. ^ DARPA 2009년 3월 6일 Wayback Machine에서 아카이브 완료
  50. ^ FP7[permanent dead link] 정보통신 기술, 유럽연합 자금 지원 개요 문서.2007년 9월 20일 취득.
  51. ^ Newquist, HP (2018). The Brain Makers, Second Edition. New York, NY: The Relayer Group. p. 491.
  52. ^ Hopfield, JJ; Tank, DW (July 1985). ""Neural" computation of decisions in optimization problems". Vol. 52. Biological Cybernetics. doi:10.1126/science.3755256.
  53. ^ Hopfield, JJ; Tank, DW (August 1986). "Computing with Neural Networks". Vol. 233, no. 4764. Science. doi:10.1126/science.3755256.
  54. ^ Wayback Machine에서 2008년 1월 27일 아카이브된 The Guardian의 Donald Michie 부고 기사 https://www.theguardian.com/obituaries/story/0,,2122424,00.html
  55. ^ Yarden Katz, "Noam Chomsky on Where 인공지능이 잘못된 곳에 대해", The Atlantic, 2012년 11월 1일, Wayback Machine에서 2012년 11월 3일 아카이브 완료
  56. ^ Noam Chomsky, "MIT150 패널에서 Pinker/Chomsky Q&A" 2013년 5월 17일 Wayback Machine에서 아카이브
  57. ^ Peter Norvig, "Chomsky와 통계학 학습의 두 가지 문화대하여" 2011년 5월 27일 웨이백 머신에 아카이브

레퍼런스

추가 정보

  • Marcus, Gary, "나는 인간인가?"연구자들은 인공지능을 자연종과 구별할 수 있는 새로운 방법이 필요하다." , Scientific American, vol. 316, no. (2017년 3월), 페이지 58-63."운동 능력에 대한 단일 테스트가 없는 것처럼, 지능대한 최종 테스트는 하나일 수 없기 때문에 인공지능의 효능에 대한 여러 가지 테스트가 필요하다."그러한 테스트 중 하나인 "구성 과제"는 "원래 튜링 테스트에는 전혀 없었던 지적 행동의 두 가지 중요한 요소"인 지각과 물리적 동작을 테스트합니다.또 다른 제안은 기계에게 학생들이 치르는 과학과 다른 분야의 표준화된 시험을 주는 것이었다.지금까지 극복할 수 없는 인공지능의 장애물은 신뢰할 수 있는 모호성 해명에 대한 무능력이다."[V]불합리적으로 사람들이 만들어내는 모든 문장은 종종 여러 가지 면에서 모호합니다."대표적인 예는 "발음 명확화 문제"로 알려져 있습니다.문장의 대명사(예: "he", "she" 또는 "it")가 누구를 지칭하는지, 또는 무엇을 지칭하는지는 기계가 판단할 방법이 없습니다.
  • Luke Muehlhauser (September 2016). "What should we learn from past AI forecasts?". Open Philanthropy Project.

외부 링크