상징 인공지능

Symbolic artificial intelligence

인공지능에서 상징적 인공지능(symbolic artificial artificial artificial artificial artificial index)은 인공지능 연구에서 문제, 논리[1]검색에 대한 높은 수준의 상징적(인간이 읽을 수 있는) 표현을 기반으로 하는 모든 방법의 수집을 의미하는 용어입니다.기호 AI는 논리 프로그래밍, 제작 규칙, 의미망, 프레임 의 도구를 사용했으며 지식 기반 시스템(특히 전문가 시스템), 기호 수학, 자동화 정리 증명기, 온톨로지, 의미 웹, 자동화된 계획스케줄링 시스템 등의 응용 프로그램을 개발했습니다.Symbol AI 패러다임은 검색, Symbol 프로그래밍 언어, 에이전트, 다중 에이전트 시스템, 시맨틱 웹, 형식적 지식 추론 시스템의 강점과 한계로 이어졌습니다.

기호 AI는 1950년대 중반부터 1990년대 [2]중반까지 AI 연구의 지배적인 패러다임이었습니다.1960년대와 1970년대의 연구자들은 상징적 접근이 결국 인공 일반 지능으로 기계를 만드는 데 성공할 것이라고 확신했고 이것을 그들 [3]분야의 궁극적인 목표로 여겼습니다.논리 이론가사무엘체커스 플레이 프로그램과 같은 초기 성공과 함께 초기 붐은 비현실적인 기대와 약속으로 이어졌고 자금이 고갈되면서 [4][5]제1차 AI 윈터가 뒤따랐습니다.두 번째 붐(1969-1986)은 전문가 제도의 발달, 기업의 전문성을 확보하겠다는 그들의 약속, 그리고 적극적인 기업 [6][7]수용으로 일어났습니다.이러한 호황과 DEC의 XCON과 같은 초기 성공은 이후 실망으로 [7]이어졌습니다.지식 습득의 어려움, 대규모 지식 기반 유지, 영역 외 문제 처리의 취약성 등의 문제가 발생했습니다.또 다른 두 번째 AI 윈터(1988-2011)가 그 [8]뒤를 이었습니다.그 후, AI 연구원들은 불확실성을 처리하고 지식 [9]습득에서 근본적인 문제를 해결하는 데 집중했습니다.불확실성은 숨겨진 마르코프 모델, 베이지안 추론 및 통계적 관계 [10][11]학습과 같은 형식적인 방법으로 해결되었습니다.심볼릭 머신 러닝은 Version Space, Valiant의 PAC 학습, QuinlanID3 의사결정 트리 학습, 사례 기반 학습,[9] 관계를 학습하기 위한 귀납적 논리 프로그래밍 의 기여로 지식 획득 문제를 해결했습니다.

하위 기호 접근 방식인 신경망은 초기부터 추구되어 왔으며 2012년에 강력하게 부활할 예정이었습니다.초기의 예로는 Rosenblatt퍼셉트론 학습 작업, Rumelhart, Hinton,[12] Williams의 역전파 작업, [13]1989년 LeCun et al.의 컨볼루션 신경망 작업 등이 있습니다.그러나 신경망은 약 2012년까지 성공적인 것으로 간주되지 않았습니다. "빅 데이터가 보편화되기 전까지 Al 커뮤니티의 일반적인 의견 일치는 소위 신경망 접근 방식이 가망이 없다는 것이었습니다.다른 방법에 비해 시스템이 잘 작동하지 않았습니다.Hinton과 함께 연구한 연구팀을 포함한 많은 사람들이 신경망의 [14]힘을 엄청나게 증가시키기 위해 GPU의 힘을 사용하는 방법을 고안해 낸 2012년에 혁명이 일어났습니다."이후 몇 년 동안 딥 러닝은 시각, 음성 인식, 음성 합성, 이미지 생성 및 기계 번역을 처리하는 데 탁월한 성공을 거두었습니다.그러나 2020년 이후, 딥 러닝 접근 방식으로 편향, 설명, 이해 가능성 및 견고성에 대한 고유의 어려움이 더욱 명백해짐에 따라, 점점 더 많은 인공지능 연구자들이 기호 및 신경망[15][16] 접근 방식과 두 접근 방식 모두에서 어려움을 겪는 영역을 최상으로 결합할 을 요구하고 있습니다.상식적[14]추리 같은 것들

역사

상징적인 AI의 현재까지의 짧은 역사는 다음과 같습니다.기간과 제목은 Henry Kautz의 2020 AAAI Robert S에서 따왔습니다.엥겔모어 메모리얼[17] 강의와 AI의 역사에 대한 위키피디아의 더 긴 기사는 명확성을 높이기 위해 날짜와 제목이 조금씩 다릅니다.

첫 번째 AI 여름: 비이성적인 흥청거림, 1948-1966

인공지능의 초기 시도 성공은 인공신경망, 지식 표현, 휴리스틱 검색의 세 가지 주요 분야에서 일어나 높은 기대에 기여했습니다.이 섹션은 초기 AI 역사에 대한 Kautz의 반복을 요약합니다.

인간 또는 동물의 인지 또는 행동에서 영감을 얻은 접근법

사이버네틱 접근법은 동물과 환경 사이의 피드백 루프를 복제하려고 시도했습니다.센서, 운전과 조향을 위한 모터, 그리고 제어를 위한 7개의 진공관을 가진 로봇 거북이가 1948년 초에 만들어졌습니다.이 작업은 신경망, 강화 학습 및 위치 로봇 [18]공학의 나중 작업의 초기 단계로 볼 수 있습니다.

중요한 초기 상징적 인공지능 프로그램은 1955-56년 앨런 뉴웰, 허버트 사이먼, 클리프 쇼가 쓴 논리 이론가였는데, 화이트헤드와 러셀의 수학 원리에서 나온 38개의 기초 정리를 증명할 수 있었기 때문입니다.뉴웰, 사이먼, 쇼는 나중에 도메인 독립 문제 해결사인 GPS(General Problem Solver)를 만들기 위해 이 작업을 일반화했습니다.GPS는 평균단 [19]분석을 사용한 상태 공간 검색을 통해 공식 연산자가 나타내는 문제를 해결했습니다.

1960년대 동안 상징적 접근법은 게임 플레이, 상징 수학 및 정리 증명과 같은 구조화된 환경에서 지능적 행동을 시뮬레이션하는 데 큰 성공을 거두었습니다.AI 연구는 1960년대 카네기 멜론 대학, 스탠포드 대학, MIT, 그리고 (이후) 에든버러 대학의 세 기관을 중심으로 이루어졌습니다.각자 자신만의 연구 스타일을 개발했습니다.사이버네틱스 또는 인공 신경망에 기반한 이전의 접근 방식은 폐기되거나 백그라운드로 밀려났습니다.

허버트 사이먼(Herbert Simon)과 앨런 뉴웰(Allen Newell)은 인간의 문제 해결 능력을 연구하고 이를 공식화하려고 시도했으며, 그들의 작업은 인지 과학, 운영 연구 및 관리 과학뿐만 아니라 인공 지능 분야의 기초를 마련했습니다.그들의 연구팀은 심리학 실험의 결과를 사람들이 [20][21]문제를 해결하는 데 사용하는 기술을 모방한 프로그램을 개발하는데 사용했습니다.카네기 멜론 대학을 중심으로 한 이 전통은 결국 1980년대 [22][23]중반에 Soar 건축의 발전으로 끝이 났습니다.

휴리스틱 검색

우리가 나중에 전문가 시스템에서 사용하게 될 고도로 전문화된 도메인별 지식 외에도, 초기 상징적인 AI 연구자들은 또 다른 보다 일반적인 지식의 응용을 발견했습니다.이것들은 발견주의, 즉 유망한 방향으로 검색을 안내하는 경험의 법칙이라고 불렸습니다. "근본적인 문제가 기하급수적으로 어려울 때 어떻게 비증식 검색이 실용적이 될 수 있을까요?사이먼과 뉴웰이 주창한 접근 방식은 휴리스틱을 사용하는 것입니다. 즉, 일부 입력에서 실패하거나 최적화되지 [24]않은 솔루션을 출력할 수 있는 빠른 알고리즘입니다."또 다른 중요한 진전은 발견주의의 가끔 발생하는 오류에도 불구하고, 해결책이 있다면 이를 보장하는 이러한 발견주의를 적용하는 방법을 찾는 것이었습니다. "A* 알고리즘은 완전하고 최적의 발견주의적 안내 검색을 위한 일반적인 프레임을 제공했습니다.A*는 오늘날 실질적으로 모든 AI 알고리즘 내에서 서브루틴으로 사용되지만 여전히 마법의 총알은 아닙니다. 그것의 완전성을 보장하는 것은 최악의 기하급수적인 [24]시간의 비용으로 구매됩니다.

지식 표현 및 추론에 대한 초기 작업

초기 연구에서는 상식적인 추론을 덜 형식적인 방식으로 다루려는 시도와 함께 1차 논리를 강조하는 형식적 추론의 두 가지 적용을 모두 다루었습니다.

논리로 형식적 추론 모델링: "정통함"

사이먼과 뉴웰과는 달리 존 맥카시는 기계가 인간 사고의 정확한 메커니즘을 시뮬레이션할 필요가 없으며, 사람들이 같은 [a]알고리즘을 사용하는지 여부에 관계없이 대신 [25]논리로 추상적 추론과 문제 해결의 본질을 찾으려 노력할 수 있다고 생각했습니다.Stanford(SAIL)에 있는 그의 연구실은 지식 표현, 계획 [29] 학습을 포함한 다양한 문제를 해결하기 위해 형식 논리를 사용하는 것에 중점을 두었습니다.논리학은 또한 프로그래밍 언어 프롤로그와 논리 [30][31]프로그래밍의 과학을 발전시킨 에든버러 대학과 유럽의 다른 곳에서 연구의 초점이었습니다.

프레임과 스크립트를 사용한 암묵적 상식 지식 모델링: "삐딱함"

MIT의 연구원(Marvin Minsky 및 Seymour Papert와 [32][33][5]같은)들은 시각 및 자연어 처리에서 어려운 문제를 해결하려면 임시 해결책이 필요하다는 것을 발견했습니다. 그들은 어떤 단순하고 일반적인 원칙(논리 같은)도 지능적인 행동의 모든 측면을 포착할 수 없다고 주장했습니다.Roger Schank는 그들의 "반논리적" 접근 방식을 "비뚤어진" 것으로 묘사했습니다. (CMU[34][35]스탠포드의 "정통한" 패러다임과는 대조적입니다.)Doug Lenat의 Cyc같은 상식적인 지식 기반은 한 [36][37][38]번에 하나의 복잡한 개념을 수작업으로 구축해야 하기 때문에 "엉망스러운" AI의 한 예입니다.

첫 번째 AI 겨울: 으스러진 꿈, 1967-1977

첫 번째 AI 겨울은 충격적이었습니다.

첫 번째 AI 여름 동안, 많은 사람들은 기계 지능이 몇 년 안에 달성될 수 있다고 생각했습니다.국방고등연구계획국(DARPA)은 국가 안보의 문제를 해결하기 위해 인공지능을 사용하는 것을 목표로 인공지능 연구를 지원하기 위한 프로그램을 시작했습니다. 특히, 정보 작전을 위해 러시아어에서 영어로의 번역을 자동화하고 전장을 위한 자율 탱크를 만드는 것입니다.연구원들은 인공지능을 달성하는 것이 10년 전에 생각했던 것보다 훨씬 더 어려울 것이라는 것을 깨닫기 시작했지만, 자만심과 솔직함의 결합은 많은 대학과 싱크탱크 연구원들이 그들이 이행할 수 없다는 것을 알았어야만 하는 결과물에 대한 약속으로 자금 지원을 받아들이게 만들었습니다.1960년대 중반까지 유용한 자연어 번역 시스템이나 자율 탱크는 만들어지지 않았고, 극적인 반발이 시작되었습니다.새로운 DARPA 지도부는 기존 AI 자금 지원 프로그램을 취소했습니다.

...

미국 밖에서 AI 연구가 가장 비옥한 곳은 영국이었습니다.영국의 AI 겨울은 실망한 군 지도자들보다는 AI 연구자들을 사기꾼으로 보고 연구비를 낭비하는 것으로 보는 경쟁 학자들에 의해 촉발되었습니다.응용수학 교수인 제임스 라이트힐 경은 의회로부터 국내 인공지능 연구의 상태를 평가하라는 의뢰를 받았습니다.그 보고서는 인공지능에서 연구되고 있는 모든 문제들은 응용수학과 같은 다른 분야의 연구자들에 의해 더 잘 처리될 것이라고 말했습니다.그 보고서는 또한 장난감 문제에 대한 AI의 성공이 조합의 [39]폭발로 인해 결코 실제 응용 프로그램으로 확장될 수 없다고 주장했습니다.

제2의 AI 여름: 지식은 힘이다, 1978-1987

지식기반시스템

취약하고 도메인에 독립적인 방법에 대한 한계가 점점 더 [40]분명해지자, 세 전통의 연구자들은 모두 AI [41][6]응용 프로그램에 지식을 축적하기 시작했습니다.지식 혁명은 지식이 고성능 도메인별 AI 애플리케이션의 기초가 된다는 깨달음에 의해 주도되었습니다.

에드워드 파이겐바움(Edward Feigenbaum)은 다음과 같이 말했습니다.

  • "지식에는 [42]힘이 있습니다."

특정 도메인에서 고성능화를 위해서는 일반적인 지식과 고도의 도메인별 지식이 모두 필요하다는 것을 설명합니다.Ed Feigenbaum과 Doug Lenat는 이것을 지식의 원리라고 불렀습니다.

(1) 지식 원리: 프로그램이 복잡한 작업을 잘 수행하려면 프로그램이 작동하는 세계에 대해 많은 것을 알아야 합니다.
(2) 폭 가설이라고 불리는 그 원리의 그럴듯한 확장: 예상치 못한 상황에서 지능적인 행동을 위해 필요한 두 가지 추가적인 능력이 있습니다. 점점 더 일반적인 지식에 의존하는 것과 특정하지만 멀리 떨어져 있는 [43]지식에 비유하는 것입니다.

전문가 시스템을 통한 성공

이 "지식 혁명"은 최초의 [44][45][46]상업적으로 성공한 형태의 AI 소프트웨어전문가 시스템(Edward Feigenbaum에 의해 도입됨)의 개발과 배치로 이어졌습니다.

주요 전문가 시스템은 다음과 같습니다.

  • DENDRAL, 그들의 화학 공식과 질량 분석기 판독으로부터 유기 분자의 구조를 발견했습니다.
  • MYCIN은 세균혈증을 진단하고 필요할 때 실험실 결과, 환자 병력, 의사 관찰을 해석하여 추가 실험실 테스트를 제안했습니다."약 450개의 규칙으로, MYCIN은 일부 전문가들만큼 좋은 성과를 낼 수 있었고, 후배 [47]의사들보다 훨씬 뛰어났습니다."
  • 내과 진단을 다룬 INTERNISTCADUCEUS.내과 전문의는 피츠버그 의과대학 내과학회장의 전문 지식을 포착하려고 시도했고, CADUCEUS는 최종적으로 최대 1000개의 다양한 질병을 진단할 수 있었습니다.
  • 전문가 문제 해결을 위해 구축된 지식 기반이 어떻게 [48]교수용으로 용도 변경될 수 있는지 보여준 GUIDON.
  • XCON, VAX 컴퓨터를 구성하려면 최대 90일이 걸릴 수 있는 힘든 프로세스가 필요합니다.XCON은 이 시간을 약 90분으로 [49]줄였습니다.

DENDRAL은 지식 집약적 문제 해결에 의존한 최초의 전문가 시스템으로 여겨집니다.아래에 Ed FeigenbaumACM 인터뷰의 Communications of the ACM 인터뷰, Ed Feigenbaum 인터뷰에서 설명합니다.

스탠포드 대학의 컴퓨터 기반 마음의 모델에 관심이 있는 사람들 중 한 은 1958년 노벨 유전학상 수상자인 조슈아 레더버그였습니다.제가 인덕션 "샌드박스"를 원한다고 말했을 때, 그는 "당신을 위한 모래상자가 하나 있습니다."라고 말했습니다.그의 실험실은 아미노산의 질량 분석을 하고 있었습니다.질문은 아미노산의 스펙트럼을 보는 것에서 아미노산의 화학적 구조까지 어떻게 할 것인가 하는 것이었습니다.그렇게 해서 DENDRAL 프로젝트를 시작하게 되었습니다.저는 휴리스틱 탐색 방법에 능숙했고, 그는 화학 문제 공간을 생성하는 데 능숙한 알고리즘을 가지고 있었습니다.

우리는 거창한 비전을 가지고 있지 않았습니다.우리는 밑에서 일했습니다.우리의 화학자는 칼 제라시였는데, 산아제한제 뒤에 있는 화학물질을 발명한 사람이며, 세계에서 가장 존경 받는 질량분석학자 중 한 명이기도 합니다.칼과 그의 박사후 연구원들은 질량분석학의 세계적인 전문가들이었습니다.우리는 그들의 지식을 추가하기 시작했고, 지식 공학을 개발했습니다.이러한 실험은 점점 더 많은 지식을 덴드럴(DENDRAL)로 적정화하는 것에 이르렀습니다.그럴수록 프로그램은 더 똑똑해졌습니다.우리는 아주 좋은 결과를 얻었습니다.

일반적인 것은 지식 안에 힘이 있다는 것입니다.정말 대단한 생각이었습니다.제 경력에서 그것은 "아하!"라는 거대한 것이고, 그것은 이전에 인공지능이 행해지고 있던 방식이 아니었습니다.간단하게 들리지만, 아마도 그것은 AI의 가장 [50]강력한 일반화일 것입니다.

위에서 언급한 다른 전문가 시스템은 덴드럴 다음에 나왔습니다. MYCIN은 불확실성을 처리하기 위한 확실성 요인의 사용을 포함하여 상징적 추론 메커니즘에 결합된 규칙 지식 기반의 고전적인 전문가 시스템 아키텍처를 예시합니다.GUIDON은 명시적인 지식 기반이 두 번째 응용 프로그램인 튜터링을 위해 어떻게 용도를 변경할 수 있는지 보여주며, 지능형 튜터링 시스템, 특정 유형의 지식 기반 응용 프로그램의 한 예입니다.Clancy는 MYCIN의 규칙을 단순히 수업에 사용하는 것만으로는 충분하지 않지만 대화 관리와 학생 [48]모델링에 대한 규칙을 추가할 필요가 있음을 보여주었습니다.XCON은 DEC에서 수백만 달러의 비용을 절감하고, 이를 통해 미국 내 대부분의 주요 기업들이 전문가 시스템 그룹을 보유하고 있는 전문가 시스템 붐을 촉발했으며, 이를 통해 기업의 전문 지식을 수집하고 보존하고 자동화할 수 있었습니다.

1988년까지 DEC의 AI 그룹은 40개의 전문가 시스템을 배치했으며 더 많은 시스템을 배치할 예정입니다.듀폰은 100대가 사용 중이고 500대가 개발 중입니다.미국의 거의 모든 주요 기업들은 자체적인 Al 그룹을 가지고 있었고 전문가 [47]시스템을 사용하거나 조사하고 있었습니다.

체스 전문가 지식은 딥 블루로 인코딩되었습니다.1996년, IBM의 딥 블루는 상징적인 인공지능의 도움으로 당시 세계 챔피언이었던 게리 카스파로프와 체스 [51]게임에서 승리할 수 있었습니다.

지식기반 및 전문가 시스템의 아키텍처

모든 전문가 시스템을 위한 시스템 아키텍처의 핵심 요소는 문제 [52]해결을 위한 사실과 규칙을 저장하는 지식 기반입니다.전문가 시스템 지식 기반을 위한 가장 간단한 접근법은 단순히 생산 규칙의 수집 또는 네트워크입니다.생산 규칙은 If-Then 문과 유사한 관계에 있는 기호를 연결합니다.전문가 시스템은 사람이 읽을 수 있는 기호를 사용하여 추론을 하고 어떤 추가 정보가 필요한지 결정하기 위해 규칙을 처리합니다.예를 들어 OPS5, CLIPs 및 그 후속 제품인 Jess와 Drools는 이러한 방식으로 작동합니다.

전문가 시스템은 증거에서 결론에 이르는 순방향 연쇄 또는 목표에서 필요한 데이터와 전제조건에 이르는 역방향 연쇄 방식으로 운영될 수 있습니다.Soar와 같은 고급 지식 기반 시스템은 문제 해결 방법을 결정하고 문제 해결 전략의 성공을 모니터링하는 측면에서 자신의 추론에 대한 추론인 메타 수준 추론도 수행할 수 있습니다.

블랙보드 시스템은 지식 기반 또는 전문가 시스템 아키텍처의 두 번째 유형입니다.그들은 문제를 해결하기 위해 점진적으로 기여하는 전문가 커뮤니티를 모델로 삼습니다.문제는 여러 수준의 추상화 또는 대체 보기로 표현됩니다.전문가(지식 정보원)들은 자신들이 기여할 수 있다고 인식할 때마다 자원봉사를 합니다.잠재적인 문제 해결 조치는 문제 상황이 변경됨에 따라 업데이트되는 의제에 표시됩니다.컨트롤러는 각 기여가 얼마나 유용한지, 그리고 누가 다음 문제 해결 조치를 취해야 하는지를 결정합니다.한 예로, BB1 칠판 구조는[53] 원래 인간이 [54]여행에서 여러 작업을 수행하는 방법에 대한 연구에서 영감을 얻었습니다.BB1의 혁신은 동일한 칠판 모델을 자체 제어 문제 해결에 적용하는 것이었습니다. 즉, 컨트롤러는 계획 또는 문제 해결이 얼마나 잘 진행되고 있는지 모니터링하는 지식 소스를 사용하여 메타 수준의 추론을 수행하고 목표나 시간과 같은 조건이 변경됨에 따라 한 전략에서 다른 전략으로 전환할 수 있었습니다.BB1은 건설 현장 계획, 지능형 과외 시스템, 실시간 환자 모니터링 등 다양한 영역에 적용되었습니다.

제2의 인공지능 겨울, 1988-1993

AI 붐이 한창일 때 심볼릭스, LMI, 텍사스 인스트루먼트와 같은 회사들은 AI 응용 프로그램과 연구 개발을 가속화하기 위해 특별히 목표로 한 LISP 기계를 판매하고 있었습니다.또한 Teknowledge and Inference Corporation과 같은 몇몇 인공지능 회사들은 전문가 시스템 쉘, 교육 및 컨설팅을 기업에 판매하고 있었습니다.

불행하게도, AI 붐은 지속되지 못했고 Kautz는 다음과 같은 두 번째 AI 겨울을 가장 잘 설명합니다.

제2의 인공지능 겨울이 도래하는 데에는 여러 가지 이유가 제시될 수 있습니다.이 하드웨어 회사들은 Sun의 훨씬 더 비용 효율적인 일반 유닉스 워크스테이션과 LISP 및 Prolog용 좋은 컴파일러가 시장에 출시되었을 때 실패했습니다.전문가 시스템의 많은 상업적 배치는 유지보수 비용이 너무 많이 들어 중단되었습니다.의료 전문가 시스템은 몇 가지 이유로 결코 인기를 얻지 못했습니다: 최신 상태를 유지하는 것의 어려움; 의료 전문가들이 다른 의료 상황에서 당황스러울 정도로 다양한 전문가 시스템을 사용하는 방법을 배우는 도전; 그리고 아마도 가장 결정적으로, 의사들이 컴퓨터가 만든 진단을 신뢰하는 것을 꺼리는 것.ut 본능, 심지어 전문가 시스템이 평균적인 의사를 능가할 수 있는 특정 영역에 대해서도.벤처캐피털 자금이 사실상 하룻밤 사이에 AI를 버렸습니다.세계 AI 컨퍼런스 IJCAI는 1987년 밴쿠버에서 거대하고 호화로운 무역 박람회와 수천 명의 비학문 참가자들을 주최했습니다. 이듬해 세인트 폴에서 열린 주요 AI 컨퍼런스인 AAAI 1988은 작고 엄밀하게 학술적인 일이었습니다.[49]

1993-2011년 보다 엄격한 기초를 추가합니다.

불확실한 추론

통계적 접근과 논리에 대한 확장이 모두 시도되었습니다.

히든 마코프 모델(Hidden Markov Models)이라는 하나의 통계적 접근법은 [10]음성 인식 작업을 위해 이미 1980년대에 대중화되었습니다.그 후 1988년 유대 펄(Judea Pearl)은 불확실한 추론을 다루는 건전하지만 효율적인 방법으로 베이지안 네트워크의 사용을 대중화했습니다.그럴듯한 [55]추론의 네트워크.그리고 베이지안 접근법은 전문가 [56]시스템에서 성공적으로 적용되었습니다.이후 1990년대에는 확률과 논리식을 결합한 접근법인 통계적 관계 학습을 통해 확률을 1차 논리, 예를 들어 마코프 논리 네트워크 또는 확률론적 소프트 논리와 결합할 수 있게 되었습니다.

다른 지원을 위한 1차 논리에 대한 비확률적 확장도 시도되었습니다.예를 들어, 비단조적 추론은 진리 유지 시스템과 함께 사용될 수 있습니다.진실 유지 시스템은 모든 추론에 대한 가정과 근거를 추적했습니다.가정이 틀리거나 모순이 도출되었을 때 추론을 철회할 수 있도록 했습니다.추론에 대한 설명은 어떤 규칙을 적용하여 생성했는지를 설명한 다음 기본 추론과 규칙을 통해 근본 [57]가정까지 계속해서 설명할 수 있습니다.로피 자데는 모호함의 표현을 다루기 위해 다른 종류의 확장을 도입했습니다.예를 들어, 남자의 키가 "무겁다" 또는 "키가 크다"는 것을 결정할 때 명확한 "예" 또는 "아니오" 대답이 없고, 무겁다 또는 키가 크다는 술어는 대신 0과 1 사이의 값을 반환합니다.이 값은 술어가 참인 정도를 나타냅니다.그의 퍼지 논리는 논리 [58]공식을 통해 이러한 값들의 조합을 전파하는 수단을 제공했습니다.

머신 러닝

지식 획득 병목 현상을 해결하기 위해 기호 머신 러닝 접근법을 조사했습니다.가장 초기의 것 중 하나가 메타-덴드럴입니다.Meta-DENDR은 생성 및 테스트 기법을 사용하여 스펙트럼에 대해 테스트하기 위한 그럴듯한 규칙 가설을 생성했습니다.도메인 및 작업 지식을 통해 테스트 대상자의 수를 관리 가능한 크기로 줄였습니다.파이겐바움은 메타-덴드랄을 다음과 같이 설명했습니다.

...1960년대 초중반 내 꿈의 절정은 이론의 형성과 관련이 있습니다.DENDRAL과 같은 문제 해결사가 있어 일부 입력을 받아 출력을 생성할 수 있다는 것이 그 개념이었습니다.그렇게 함으로써, 그것은 탐색을 조정하고 가지치기 위해 지식의 층을 사용했습니다.우리가 사람들을 인터뷰했기 때문에 그 지식은 거기에 들어갔습니다.하지만 사람들은 어떻게 그 지식을 얻었을까요?수천 개의 스펙트럼을 보면서 말입니다.그래서 우리는 수 천 개의 스펙트럼을 살펴보고 DENDRAL이 개별적인 가설 형성 문제를 해결하기 위해 사용할 수 있는 질량 분석의 지식을 추론하는 프로그램을 원했습니다.우리는 해냈다.우리는 심지어 질량 분석의 새로운 지식을 미국 화학 협회 저널에 발표할 수 있었고, 메타-덴드럴이라는 프로그램이 실제로 그렇게 했다는 것을 각주로만 인정했습니다.우리는 꿈이었던 것을 할 수 있었습니다. 컴퓨터 프로그램이 새롭고 출판 가능한 [50]과학의 한 조각을 생각해 내도록 하는 것입니다.

Meta-DENDRAL의 지식 집약적 접근 방식과는 대조적으로, Ross Quinlan은 통계 분류에 대한 도메인 독립 접근 방식인 의사결정 트리 학습을 처음에 ID3으로[59] 시작하여 나중에 C4.[60]5로 기능을 확장했습니다.작성된 의사결정 트리는 사람이 해석할 수 있는 분류 규칙이 있는 유리 상자입니다.

기계 학습 이론을 이해하는 데도 발전이 이루어졌습니다.Tom Mitchell은 지금까지 [61]본 예와 일치하는 모든 실행 가능한 가설을 포괄하는 상위, 더 일반적인, 그리고 더 구체적인 경계를 가진 가설의 공간을 통한 탐색으로 학습을 설명하는 버전 공간 학습을 소개했습니다. 더 공식적으로, 발리언트는 [62]기계 학습의 수학적 분석을 위한 프레임워크인 아마도 대략적으로 올바른 학습(PAC Learning)을 소개했습니다.

상징적인 기계 학습은 예를 들어 배우는 것 이상의 것을 포함했습니다.예를 들어, John Anderson은 기술 연습이 자신의 ACT-R 인지 아키텍처를 사용하여 선언 형식에서 절차 형식으로 규칙을 컴파일하는 인간 학습의 인지 모델을 제공했습니다.예를 들어, 학생은 "보충각은 측정값이 180도인 두 개의 각도"를 여러 가지 절차 규칙으로 적용하는 방법을 배울 수 있습니다.예를 들어, 만약 X와 Y가 보충적이고 X를 안다면, Y는 180 - X가 될 것이라고 말할 수 있습니다.그는 자신의 접근법을 "지식 편집"이라고 불렀습니다.ACT-R은 학습 및 유지와 같은 인간 인지의 측면을 모델링하는 데 성공적으로 사용되었습니다.ACT-R은 또한 인지 튜터라고 불리는 지능형 과외 시스템에서 사용되어 학교 [63]아이들에게 기하학, 컴퓨터 프로그래밍, 대수학을 성공적으로 가르칩니다.

귀납적 논리 프로그래밍은 논리 프로그램을 입출력 예제에서 합성할 수 있게 한 학습에 대한 또 다른 접근 방식이었습니다.예를 들어, Ehud Shapiro의 MIS(Model Inference System)는 [64]예제에서 Prolog 프로그램을 합성할 수 있습니다. 코자(John R. Koza)는 유전자 알고리즘을 프로그램 합성에 적용하여 유전자 프로그래밍을 만들었고, 이를 이용하여 LISP 프로그램을 합성했습니다.마지막으로, Zohar Manna와 Richard Waldinger는 그것의 사양이 [65]정확하다는 것을 증명하는 과정에서 기능적인 프로그램을 합성하는 프로그램 합성에 대한 보다 일반적인 접근법을 제공했습니다.

논리에 대한 대안으로 Roger Schank사례기반 추론(CBR)을 도입했습니다.그의 저서인 Dynamic [66]Memory에 요약된 CBR 접근법은 우선 미래에 사용할 수 있도록 주요 문제 해결 사례를 기억하고 적절한 경우 일반화하는 데 초점을 맞추고 있습니다.새로운 문제에 직면하면 CBR은 가장 유사한 이전 사례를 검색하여 현재 [67]문제의 세부 사항에 맞게 조정합니다.논리의 또 다른 대안인 유전 알고리즘유전 프로그래밍은 학습의 진화적 모델에 기반을 두고 있는데, 여기서 규칙들은 집단으로 암호화되고, 규칙들은 개인들의 행동을 지배하며, 여러 [68]세대에 걸쳐 적합하지 않은 규칙들의 집합들을 선택하는 것입니다.

기호 머신 러닝은 학습 개념, 규칙, 휴리스틱, 문제 해결에 적용되었습니다.위의 접근법 이외의 접근법은 다음과 같습니다.

  1. 지시 또는 조언으로부터 학습, 즉 인간의 지시를 받아들이고, 조언으로 행하며, 특정 상황에서 그것을 작동시키는 방법을 결정하는 것.예를 들어, 하트 게임에서 [69]"득점을 받는 것을 피하기 위해" 손을 사용하는 방법을 정확하게 배우는 것입니다.
  2. 모범 사례를 통해 학습 – 교육 중에 SME(Subject-Matter Expert) 피드백을 수용하여 성과를 향상시킵니다.문제 해결에 실패했을 때 전문가에게 질문하여 문제 해결을 위한 새로운 예시를 배우거나 한 예시가 다른 예시보다 더 관련성이 높은 이유에 대해 새로운 설명을 배우도록 합니다.예를 들어, 프로토스 프로그램은 청각 [70]전문가와 상호작용하여 이명 증상을 진단하는 법을 배웠습니다.
  3. 유추 학습—과거에 본 유사한 문제를 바탕으로 문제 해결책을 구성한 다음 새로운 상황이나 [71][72]영역에 맞게 해결책을 수정합니다.
  4. 견습 학습 시스템—인간의 문제 해결을 관찰함으로써 문제에 대한 새로운 해결책을 학습합니다.도메인 지식은 참신한 솔루션이 올바른 이유와 솔루션을 일반화할 수 있는 방법을 설명합니다.LEAP은 인간 [73]설계자들을 관찰하면서 VLSI 회로를 설계하는 방법을 배웠습니다.
  5. 발견을 통한 학습 즉, 실험을 수행하기 위한 작업을 생성하고 그 결과를 통해 학습합니다.예를 들어, 더그 레나트유리스코트래블러 롤플레잉 게임에서 인간 플레이어를 이길 수 있는 발견주의를 2년 연속으로 배웠습니다.
  6. 매크로 연산자 학습 즉, 기본적인 문제 해결 작업의 시퀀스에서 학습할 유용한 매크로 연산자를 검색합니다.좋은 매크로 오퍼레이터는 문제를 추상적인 [75]수준에서 해결할 수 있도록 함으로써 문제 해결을 단순화합니다.

딥러닝 및 신경기호 AI 2011년~현재

딥러닝의 부상과 함께 상징적인 AI 접근법은 딥러닝과 상호 보완적인 것으로 비교되어 왔습니다. "...AI 연구자들에 의해 인간의 추론과 의사결정에 대한 카네만의 연구가 - 의 책 사고, 빠르고 느림 - 에 반영된 - 와 소위 " 사이에 여러 번 유사점들이 그려졌습니다.AI 시스템 1과 2"는 원칙적으로 각각 딥 러닝과 상징적 추론에 의해 모델링됩니다."이러한 관점에서 기호 추론은 숙고적 추론, 계획 및 설명에 더 적합한 반면 딥 러닝은 노이즈가 많은 [15][16]데이터가 있는 인지 애플리케이션에서 빠른 패턴 인식에 더 적합합니다.

신경-기호 AI: 신경-기호적 접근 방식 통합

신경 기호 AI는 추론, 학습 및 인지 모델링이 가능한 강력한 AI를 지원하기 위해 상호 보완적인 방식으로 신경 및 기호 아키텍처를 통합하려고 시도합니다.Valiant[76] 다른 [77]많은 사람들이 주장하는 바와 같이, 풍부한 계산 인지 모델의 효과적인 구성은 건전한 상징 추론과 효율적인 (기계) 학습 모델의 조합을 요구합니다.또한 게리 마커스(Gary Marcus)는 "하이브리드 아키텍처의 삼두정치,[78] 풍부한 사전 지식 및 정교한 추론 기술 없이는 적합하고 자동화된 방식으로 풍부한 인지 모델을 구성할 수 없습니다."라고 주장하며, 특히 "강건함을 구축하기 위해서는AI에 대한 지식 기반 접근 방식 우리는 툴킷에 기호 조작의 기계를 갖추어야 합니다.너무 많은 유용한 지식은 추상적이어서 추상화를 표현하고 조작하는 도구 없이는 할 수 없으며, 현재까지 그러한 추상적 지식을 신뢰성 있게 조작할 수 있는 유일한 기계는 기호 [79]조작 장치입니다."

Henry Kautz,[17] Francesca Rossi,[80] 그리고 Bart[81] Selman도 합성을 주장했습니다.그들의 주장은 Daniel Kahneman의 책 "생각하는 것, 빠른 것, 느린 것"에서 논의된 두 가지 종류의 사고를 다루어야 할 필요성에 기반을 두고 있습니다.카네만은 인간의 사고가 시스템 1과 시스템 2라는 두 가지 요소를 가지고 있다고 설명합니다.시스템 1은 빠르고 자동적이며 직관적이며 무의식적입니다.시스템 2는 속도가 느리고 단계적이며 명확합니다.시스템 1은 패턴 인식에 사용되는 유형이고 시스템 2는 계획, 추론 및 숙고적 사고에 훨씬 적합합니다.이 관점에서 딥 러닝은 첫 번째 유형의 사고를 가장 잘 모델링하고 상징적 추론은 두 번째 유형의 사고를 가장 잘 모델링하고 둘 다 필요합니다.

Garcez와 Lamb는 이 분야의 연구가 2002년 신경 [82]기호 학습 [83]시스템에 관한 책에서 적어도 지난 20년 동안 계속되고 있다고 설명합니다.2005년 이후로 신경 신경 신경학적 추론에 대한 일련의 워크숍이 매년 개최되고 있습니다. 자세한 내용은 http://www.neural-symbolic.org/ 를 참조하십시오.

Garcez et al.은 2015년 논문 신경-상징 학습과 추론: 기여와 도전에서 다음과 같이 주장합니다.

AI의 상징주의와 연결주의 패러다임의 통합은 지난 20년 동안 비교적 작은 연구 커뮤니티에서 추구해 왔으며 몇 가지 중요한 결과를 도출했습니다.지난 10년간, 신경 기호 시스템은 McCarthy(1988)가 Smolensky(1988)에 대응하여 언급한 바와 같이, 신경 네트워크의 소위 명제적 고정을 극복할 수 있음을 보여주었습니다; 또한 (Hinton, 1990)도 참조.신경망은 모드 및 시간 논리(d'Avila Garcez and Lamb, 2006)와 1차 논리의 단편(Bader, Hitzler, Hölldobler, 2008; d'Avila Garcez, Lamb, Gabbay, 2009)을 나타낼 수 있는 것으로 나타났습니다.또한 신경 기호 시스템은 생체 정보학, 제어 공학, 소프트웨어 검증 및 적응, 시각 지능, 온톨로지 학습 및 컴퓨터 [77]게임 분야에서 많은 문제에 적용되었습니다.

통합에 대한 접근 방식은 다양합니다.Henry Kautz의 신경-기호 구조 분류법은 몇 가지 예와 함께 다음과 같습니다.

  • 심볼릭 뉴럴 심볼릭(Symbolic Neural Symbolic)은 단어 또는 하위 단어 토큰이 큰 언어 모델의 궁극적인 입력 및 출력인 자연어 처리에서 많은 뉴럴 모델의 현재 접근 방식입니다.BERT, RoBERTa, GPT-3 이 그 예입니다.
  • Symbolic [Neural]—상징 기술이 신경 기술을 호출하기 위해 사용되는 알파고가 대표적입니다.이 경우 상징적인 접근법은 몬테카를로 트리 검색이고 신경 기술은 게임 위치를 평가하는 방법을 배웁니다.
  • 신경 기호—신경 구조를 사용하여 지각 데이터를 기호 및 관계로 해석한 후 기호로 추론합니다.
  • Neural:Symbolic → Neural—심볼릭 추론에 의존하여 딥 러닝 모델에 의해 후속적으로 학습되는 훈련 데이터를 생성하거나 레이블을 지정합니다. 예를 들어 Macsyma와 같은 심볼릭 수학 시스템을 사용하여 예제를 생성하거나 레이블을 지정하여 심볼릭 계산을 위한 신경망 모델을 훈련하는 것입니다.
  • Neural_{Symbolic}—상징 규칙에서 생성된 신경망을 사용합니다.예를 들어, 뉴럴 정리 [84]프로버는 지식 기반 규칙 및 용어에서 생성된 AND-OR 증명 트리에서 뉴럴 네트워크를 구성합니다.논리 텐서[85] 네트워크도 이 범주에 속합니다.
  • 신경[상징]—신경 모델이 기호 추론 엔진을 직접 호출하여 동작을 수행하거나 상태를 평가할 수 있습니다.

다음과 같은 주요 연구 질문이 많이 남아 있습니다.

  • 신경 [86]구조와 상징 구조를 통합하는 가장 좋은 방법은 무엇입니까?
  • 신경망 내에서 기호 구조를 어떻게 표현하고 추출해야 합니까?
  • 상식적인 지식은 어떻게 배우고 추론해야 합니까?
  • 논리적으로 인코딩하기 어려운 추상적 지식은 어떻게 처리할 수 있습니까?

기술 및 기여

이 섹션에서는 위키피디아의 다른 많은 세부 기사로 이어지는 전반적인 맥락에서 기술과 기여에 대한 개요를 제공합니다.기계 학습과 불확실한 추론에 대한 섹션은 역사 섹션의 앞 부분에서 다룹니다.

인공지능 프로그래밍 언어

LISP는 1958년 존 매카시(John McCarthy)가 창안한 포트란(FORTRAN)에 이어 두 번째로 오래된 프로그래밍 언어로, 지난 상징적인 AI 붐 시기 미국의 핵심 AI 프로그래밍 언어였다.LISP는 신속한 프로그램 개발을 지원하기 위해 최초의 읽기-평가-인쇄 루프를 제공했습니다.컴파일된 함수는 해석된 함수와 자유롭게 혼합될 수 있습니다.프로그램 추적, 스텝핑 및 중단점도 제공되었으며, 중단점 또는 오류로부터 값 또는 함수를 변경하고 계속할 수 있는 기능도 제공되었습니다.최초의 자체 호스팅 컴파일러를 가지고 있었는데, 이는 컴파일러 자체가 원래 LISP로 작성된 후 컴파일러 코드를 컴파일하기 위해 해석적으로 실행된다는 것을 의미합니다.

LISP가 개척한 다른 주요 혁신은 다음과 같습니다.

프로그램 자체가 다른 프로그램이 작동할 수 있는 데이터 구조이므로 상위 언어를 쉽게 정의할 수 있습니다.

미국과는 대조적으로, 유럽에서는 같은 기간 동안 주요 AI 프로그래밍 언어가 프롤로그였습니다.프롤로그는 읽기-평가-인쇄 루프에 의해 질의될 수 있는 사실과 절들의 내장된 저장을 제공했습니다.스토어는 지식 기반 역할을 할 수 있고 절은 규칙 또는 제한된 형태의 논리 역할을 할 수 있습니다.1차 논리의 하위 집합으로서 Prolog는 닫힌 세계 가정(알 수 없는 모든 사실은 거짓으로 간주됨)과 원시 용어에 대한 고유한 이름 가정(예를 들어 barack_obama라는 식별자는 정확히 하나의 개체를 지칭하는 것으로 간주되었습니다.역추적과 통일프롤로그에 내장되어 있습니다.

알랭 콜메라우어와 필리프 루셀은 프롤로그의 발명가로 인정받고 있습니다.프롤로그는 논리 프로그래밍의 한 형태로, 로버트 코왈스키가 발명했습니다.그 역사는 패턴 중심의 방법 호출을 가진 주장 데이터베이스인 Carl Hewitt의 Planner에 의해서도 영향을 받았습니다.자세한 내용은 PLANGER 기사에서 Prolog의 기원에 대한 부분을 참조하십시오.

프롤로그는 일종의 선언적 프로그래밍이기도 합니다.프로그램을 설명하는 논리 절은 지정된 프로그램을 실행하기 위해 직접 해석됩니다.명령형 프로그래밍 언어의 경우와 마찬가지로 명시적인 일련의 작업이 필요하지 않습니다.

일본은 프롤로그의 5세대 프로젝트를 옹호했는데, 이 프로젝트는 고성능을 위한 특별한 하드웨어를 만들려는 의도였습니다.마찬가지로, LISP 기계는 LISP를 실행하기 위해 만들어졌지만, 두 번째 AI 붐이 붕괴되면서 이 회사들은 이제 LISP나 Prolog를 비슷한 속도로 기본적으로 실행할 수 있는 새로운 워크스테이션과 경쟁할 수 없었습니다.자세한 내용은 이력 섹션을 참조하십시오.

스몰토크는 또 다른 영향력 있는 인공지능 프로그래밍 언어였습니다.예를 들어 메타 클래스를 도입했으며 플레이버 및 커먼루프함께 현재 표준 리스프 방언인 커먼 리스프의 일부인 커먼 리스프 객체 시스템(CLOS)에 영향을 미쳤습니다.CLOSE는 Lisp 기반 객체 지향 시스템으로 클래스와 메타 클래스 모두에 대한 증분 확장 외에 다중 상속을 허용하여 런타임 메타 객체 [87]프로토콜을 제공합니다.

다른 인공지능 프로그래밍 언어는 인공지능을 위한 프로그래밍 언어 목록을 참조하십시오.현재 다중 패러다임 프로그래밍 언어인 파이썬은 데이터 과학, 자연어 처리 및 딥 러닝지원하는 광범위한 패키지 라이브러리로 인해 가장 인기 있는 프로그래밍 언어입니다.파이썬은 읽기-평가-인쇄 루프, 고차 함수와 같은 함수 요소, 메타 클래스를 포함하는 객체 지향 프로그래밍포함합니다.

서치

검색은 계획, 제약 만족, 체커, 체스, 바둑과 같은 게임을 포함한 많은 종류의 문제 해결에서 발생합니다.가장 잘 알려진 AI 검색 트리 검색 알고리즘은 폭 우선 검색, 깊이 우선 검색, A*몬테카를로 검색입니다.부울 만족도를 위한 핵심 검색 알고리즘은 WalkSAT, 충돌 중심 절 학습 및 DPLL 알고리즘입니다.게임을 할 때 적대적 검색을 위해 알파 베타 가지치기, 가지치기 및 바운드, 미니맥스가 초기 기여였습니다.

지식 표현 및 추론

지식을 표현하기 위한 다양한 접근법과 그러한 표현을 사용한 이성을 조사했습니다.아래는 지식 표현 및 자동화된 추론에 대한 접근 방식에 대한 간략한 개요입니다.

지식표상

영역 지식, 문제해결 지식, 언어의 의미적 의미 등의 모델링 지식은 의미 네트워크, 개념 그래프, 프레임, 논리 등의 방법으로 구성됩니다.온톨로지는 도메인에서 주요 개념과 그 관계를 모델링합니다.예시적인 온톨로지로는 YAGO, WordNet, DOLCE있으며, DOLCE는 어느 도메인에서든 사용할 수 있는 상위 온톨로지의 예시이며, WordNet온톨로지로 볼 수 있는 어휘적 자원입니다.YAGO는 WordNet을 온톨로지의 일부로 통합하여 위키피디아에서 추출한 사실과 WordNet synset을 일치시킵니다.질병 온톨로지는 현재 사용되고 있는 의료 온톨로지의 한 예입니다.

설명 로직(Description Logic)은 온톨로지의 자동 분류와 일관되지 않은 분류 데이터를 검출하기 위한 로직입니다.OWL은 온톨로지를 설명 논리로 나타내기 위해 사용되는 언어입니다.Protégé는 OWL 온톨로지로 읽고 HermiT[88]같은 연역 분류기와의 정합성을 확인할 수 있는 온톨로지 편집기입니다.

1차 논리는 설명 논리보다 일반적입니다.아래에서 논의되는 자동 정리 증명기는 1차 논리에서 정리를 증명할 수 있습니다.경적절 논리는 1차 논리보다 더 제한적이며 프롤로그와 같은 논리 프로그래밍 언어에서 사용됩니다.1차 논리의 확장에는 시간을 다루는 시간 논리, 인지 논리, 에이전트 지식에 대한 추론, 가능성과 필요성을 다루는 모드 논리, 논리와 확률을 함께 다루는 확률 논리포함됩니다.

자동정리증명

1차 논리에 대한 자동 정리 증명의 예는 다음과 같습니다.

프로버9메이스4 모델 체커와 함께 사용할 수 있습니다.ACL2는 귀납법으로 증명을 처리할 수 있는 정리 속담으로 Nqhm이라고도 알려진 보이어-무어 정리 속담의 후예입니다.

지식기반 시스템에서의 추론

지식 기반 시스템은 절차 코드와 도메인 지식을 분리하여 도메인 간 재사용성을 향상시키기 위해 일반적으로 규칙을 포함한 명시적인 지식 기반을 가지고 있습니다.별도의 추론 엔진이 규칙을 처리하고 지식 저장소를 추가, 삭제 또는 수정합니다.

순방향 체인 추론 엔진이 가장 일반적이며, CLIPs OPS5에서 볼 수 있습니다.역방향 체이닝은 좀 더 제한된 논리 표현인 Horn Clause가 사용되는 Prolog에서 발생합니다.패턴 매칭, 특히 통일은 프롤로그에서 사용됩니다.

사용 가능한 행동 중 하나를 단순히 선택하는 것이 아니라 다음에 무엇을 해야 할지에 대한 추론이 일어날 때 더 유연한 종류의 문제 해결이 발생합니다.이런 종류의 메타 수준 추론은 Soar와 BB1 칠판 구조에서 사용됩니다.

ACT-R과 같은 인지 아키텍처는 자주 사용하는 지식을 더 높은 수준의 청크로 컴파일하는 기능과 같은 추가 기능을 가질 수 있습니다.

상식적 추론

마빈 민스키(Marvin Minsky)는 처음에 사무실과 같은 일반적인 시각적 상황을 해석하는 방법으로 프레임을 제안했고, 로저 섕크(Roger Schank)는 이 아이디어를 외식과 같은 일반적인 루틴의 대본으로 확장했습니다.Cyc는 유용한 상식적 지식을 포착하려고 시도했으며 특정 종류의 도메인별 추론을 처리하기 위한 "마이크로 이론"을 가지고 있습니다.

Benjamin [89]Kuipers의 QSIM과 같은 질적 시뮬레이션은 스토브 위의 냄비에서 액체를 가열할 때 발생하는 것과 같은 순진한 물리학에 대한 인간의 추론과 유사합니다.온도나 끓는점, 또는 대기압과 같은 다른 세부적인 사항을 알 수 없을지라도, 우리는 그것이 가열되고 끓어오를 수도 있다고 예상합니다.

마찬가지로 앨런시간 간격 대수는 시간에 대한 추론을 단순화한 것이고 지역 연결 미적분학은 공간 관계에 대한 추론을 단순화한 것입니다.두 가지 모두 제약 조건 해결기로 해결할 수 있습니다.

제약조건 및 제약조건 기반 추론

제약 해결사는 1차 논리보다 더 제한된 종류의 추론을 수행합니다.그들은 Wordle, Sudoku, 암호화 문제 과 같은 다른 종류의 퍼즐 문제를 해결하는 것과 함께 RCC 또는 시간 대수와 같은 시공간 제약 조건 세트를 단순화할 수 있습니다.제약 조건 로직 프로그래밍제약 조건 처리 규칙(CHR)과 같은 스케줄링 문제를 해결하는 데 사용될 수 있습니다.

계획 자동화

일반 문제 해결사(GPS)계획 수립을 위해 수단-종료 분석을 사용했습니다.STRIPS는 계획을 정리 증명으로 간주하여 다른 접근 방식을 취했습니다.그래프 계획은 초기 상태, 전진 작업 또는 후진 작업인 경우 목표 상태에서 작업을 순차적으로 선택하는 것이 아니라 계획을 수립하는 데 있어 최소 약속 방식을 취합니다.새트플랜은 계획 문제를 부울 만족도 문제로 축소하는 계획의 접근 방식입니다.

자연어 처리

자연어 처리는 언어를 데이터로 취급하여 의도한 의미를 반드시 이해하지 않고 주제를 식별하는 것과 같은 작업을 수행하는 데 중점을 둡니다.반대로 자연어 이해는 의미 표현을 구성하고 질문에 답하는 것과 같은 추가 처리를 위해 사용합니다.

구문 분석, 토큰화, 철자 수정, 품사 태깅, 명사동사 구문 청크는 모두 기호 인공지능에 의해 오랫동안 처리되어 왔지만 딥 러닝 접근 방식에 의해 개선되었습니다.상징적 인공지능에서 담화 표현 이론과 1차 논리는 문장 의미를 표현하는 데 사용되어 왔습니다.잠재 의미 분석(LSA)과 명시적 의미 분석은 또한 문서의 벡터 표현을 제공했습니다.후자의 경우 벡터 구성 요소는 위키백과 기사에서 명명한 개념으로 해석할 수 있습니다.

Transformer 모델을 기반으로 한 새로운 딥 러닝 접근 방식은 이제 이러한 이전의 상징적인 AI 접근 방식을 능가하고 자연어 처리 분야에서 최첨단 성능을 달성했습니다.그러나 트랜스포머 모델은 불투명하며 문장과 문서에 대해 인간이 해석할 수 있는 의미 표현을 생성하지 않습니다.대신 벡터 성분의 의미가 불투명한 작업별 벡터를 생성합니다.

에이전트 및 다중 에이전트 시스템

에이전트는 어떤 의미에서 인지하고 행동하는 환경에 내장된 자율 시스템입니다.Russell과 Norvig의 인공지능 표준 교과서는 점점 더 [90]정교해지는 에이전트 아키텍처를 반영하도록 구성되었습니다.에이전트의 정교함은 단순한 반응형 에이전트에서부터 세계의 모델과 자동화된 계획 기능을 갖춘 에이전트, 즉 BDI 에이전트, 즉 신념, 욕구, 의도를 가진 에이전트, 또는 시간이 지남에 따라 학습된 강화 학습 모델에 이르기까지 다양하며, 이는 대안적인 아키텍처의 조합에 이르기까지 다양합니다.인지를 [91]위한 러닝을 포함하는 신경-신경[86] 구조와 같은 것들입니다.

반면, 다중 에이전트 시스템은 지식 쿼리조작 언어(KQML)와 같은 에이전트 간 통신 언어와 서로 통신하는 여러 에이전트로 구성됩니다. 에이전트가 모두 동일한 내부 아키텍처를 가질 필요는 없습니다.멀티 에이전트 시스템의 장점으로는 에이전트 간에 작업을 분할할 수 있고 에이전트가 손실되었을 때 내결함성을 높일 수 있습니다.연구 문제에는 에이전트가 합의에 도달하는 방법, 분산 문제 해결, 다중 에이전트 학습, 다중 에이전트 계획 및 분산 제약 최적화 등이 포함됩니다.

논쟁거리

상징적 인공지능은 초기부터 분야 내에서, 예를 들어 논리학자(친논리학자)와 비논리학자(반논리학자) 사이에서, 그리고 인공지능을 수용했지만 상징적 접근 방식을 거부한 사람들(주로 연결주의자)과 분야 밖의 사람들 사이에서 논란이 발생했습니다.분야 외부의 비판은 주로 철학자, 지적인 근거에서뿐만 아니라 자금 조달 기관, 특히 두 번의 AI 겨울 동안에 발생했습니다.

Frame Problem: 1차 논리에 대한 지식 표현 과제

동적 도메인에 대해 추론하기 위해 간단한 1차 논리를 사용하는 데 한계가 발견되었습니다.작업이 성공하기 위한 전제 조건을 열거하는 것과 작업이 수행된 후에도 변경되지 않은 것에 대한 공리를 제공하는 것 모두에서 문제점이 발견되었습니다.

매카시와 헤이스는 1969년 '인공지능의 [92]입장에서 본 몇 가지 철학적 문제'라는 논문에서 프레임 문제를 소개했습니다."한 사람이 다른 사람과 대화할 수 있다는 것을 증명한다"는 간단한 예가 있는데, 공제가 성공하려면 "전화번호부에서 번호를 찾아본 후에도 여전히 전화를 가지고 있다"는 공리가 필요하기 때문입니다.변경되지 않은 내용을 지정하려면 다른 도메인 작업에도 유사한 공리가 필요합니다.

자격 문제라고 하는 유사한 문제는 작업이 성공하기 위한 전제 조건을 열거하려고 할 때 발생합니다.무한히 많은 병적 상태를 상상할 수 있습니다. 예를 들어, 배기관에 바나나가 있으면 자동차가 올바르게 작동하지 않을 수 있습니다.

프레임 문제를 해결하기 위한 McCarthy의 접근 방식은 외접, 즉 변치 않을 모든 것을 명시적으로 명시할 필요가 없고 무엇이 변할 것인지만 지정하면 되는 행동으로부터 추론을 할 수 있는 일종의 비일조적 논리였습니다.다른 비단조 논리학은 모순을 초래하는 신념을 수정하는 진리 유지 시스템을 제공했습니다.

보다 개방적인 영역을 처리하는 다른 방법으로는 확률론적 추론 시스템과 새로운 개념과 규칙을 학습하는 기계 학습이 있습니다.맥카시의 조언 테이커는 인간이 주장이나 규칙의 형태로 제공하는 새로운 지식을 포함할 수 있기 때문에 여기서 영감을 주는 것으로 볼 수 있습니다.예를 들어, 실험적 상징 머신 러닝 시스템은 높은 수준의 자연어 조언을 받고 도메인별 실행 가능한 규칙으로 해석할 수 있는 능력을 탐구했습니다.

동적 영역을 다루는 문제와 마찬가지로 상식적인 추론도 형식적인 추론에서 포착하기 어렵습니다.상식적 추론의 예로는 사람들이 어떻게 생각하는지 또는 일상적인 사건, 사물, 생물에 대한 일반적인 지식에 대한 암묵적 추론이 있습니다.이런 종류의 지식은 당연한 것으로 여겨지며 주목할 만한 것으로 여겨지지 않습니다.상식적인 추론은 상징적인 시스템(예: Cyc는 10년 이상 동안 이 지식의 핵심 부분을 포착하려고 시도했습니다)과 신경 시스템(예: 원뿔형으로 주행하지 않거나 자전거를 걷는 보행자를 치지 않는 자율 주행 자동차) 모두에 대한 연구의 열린 영역입니다.

McCarthy는 그의 Advisory Taker가 상식을 가지고 있다고 보았지만, 상식에 대한 그의 정의는 [93]위와 달랐습니다.그는 프로그램이 "그것이 말해지는 모든 것과 이미 알고 있는 것의 즉시적인 결과를 충분히 광범위하게 스스로 추론한다면" 상식을 가진 것이라고 정의했습니다.

연결주의 AI: 철학적 도전과 사회학적 갈등

연결주의적 접근법에는 퍼셉트론같은 [94]신경망에 대한 초기 연구, Danny Hillis의 Connection Machine 및 Yann LeCun컨볼루션 신경망의 발전과 같은 80년대 중후반의 작업, Transformers, GAN 및 딥 러닝의 다른 작업과 같은 오늘날의 고급 접근법에 대한 작업이 포함됩니다.

연결주의자들 사이에서 다음과 같은[95] 세 가지 철학적 입장이 개괄되어 있습니다.

  1. 구현주의—연결주의 아키텍처가 기호 처리 기능을 구현하는 경우,
  2. 급진적 연결주의 - 상징적 처리가 완전히 거부되고 연결주의적 구조가 지능의 기초가 되고 그것을 충분히 설명할 수 있는 경우,
  3. 중간 정도의 연결주의—상징 처리와 연결주의 아키텍처는 상호 보완적인 것으로 간주되며 둘 다 지능화에 필요합니다.

Olazaran은 신경 네트워크 커뮤니티 내의 논쟁에 대한 사회학적 역사에서 온건한 연결주의 관점이 신경-기호 잡종에 대한 현재의 연구와 본질적으로 양립할 수 있다고 설명했습니다.

여기서 세 번째이자 마지막으로 살펴보고자 하는 입장은 제가 말하는 온건한 연결주의 관점, 연결주의와 상징적 인공지능 사이의 현재 논쟁에 대한 좀 더 절충적인 관점입니다.이 입장을 가장 명확하게 설명한 연구자 중 한 은 서식스 대학교(영국 브라이튼) 인지 및 컴퓨팅 과학 대학의 철학자인 앤디 클라크입니다.Clark는 하이브리드(일부는 상징주의, 일부는 연결주의) 시스템을 옹호했습니다.그는 인지를 연구하고 모델화하기 위해서는 (적어도) 두 종류의 이론이 필요하다고 주장했습니다.한편으로는 일부 정보 처리 작업(패턴 인식 등)의 경우 연결주의가 상징 모델에 비해 장점이 있습니다.그러나 다른 한편으로, 기호 패러다임은 (급진적 연결주의자들이 [96]주장하는 것과는 반대로) "근사"뿐만 아니라 다른 인지 과정(직렬, 연역적 추론 및 생성 기호 조작 과정 등)에 대해 적절한 모델을 제공합니다.

Gary Marcus는 지금의 상징적 접근에 반대하는 딥러닝 공동체의 반감이 철학적인 것이라기 보다는 사회학적인 것일 수도 있다고 주장했습니다.

우리가 단순히 상징 조작을 버릴 수 있다고 생각하는 것은 불신을 중단시키는 것입니다.

그럼에도 불구하고 대부분의 현재 AI는 그렇게 진행됩니다.힌튼과 다른 많은 사람들은 상징을 완전히 없애기 위해 열심히 노력했습니다.과학 분야가 아니라 역사적 원한에 기반을 둔 것처럼 보이는 딥 러닝 희망은 지능적인 행동이 대규모 데이터와 딥 러닝의 결합에서 순수하게 나타날 것이라는 것입니다.워드 프로세서에서 줄을 편집하거나 스프레드시트에서 계산을 수행하는 것과 같이 특정 작업에 전용된 기호 조작 규칙 집합을 정의하여 작업을 해결하는 경우, 신경망은 일반적으로 통계적 근사치를 사용하고 예제에서 학습하여 작업을 해결하려고 합니다.

마커스에 따르면 제프리 힌튼과 그의 동료들은 격렬하게 "반상징적"이었습니다.

딥 러닝이 2012년에 다시 등장했을 때, 지난 10년의 대부분을 특징짓는 것은 일종의 무감옥 태도였습니다.2015년까지, 모든 상징에 대한 그의 적대감은 완전히 결정화되었습니다.그는 스탠포드의 인공지능 워크숍에서 과학의 가장 큰 실수 중 하나인 기호를 에테르에 비유하는 강연을 했습니다.

...

그 이후로 그의 반상징 캠페인은 강도만 높아졌을 뿐입니다.2016년 얀 르쿤, 벤지오, 힌튼은 과학의 가장 중요한 학술지 중 하나인 네이처에 딥러닝에 대한 선언문을 썼습니다.상징 조작에 대한 직접적인 공격과 함께 화해가 아닌 전면 교체를 요구하며 막을 내렸습니다.나중에 힌튼은 유럽 연합 지도자 모임에서 상징 조작 접근법에 더 이상의 돈을 투자하는 것은 "큰 실수"라며 전기 [97]자동차 시대의 내연 기관에 투자하는 것에 비유했습니다.

이러한 분쟁의 일부는 용어가 불분명하기 때문일 수 있습니다.

튜링상 수상자인 유대 펄(Judea Pearl)은 불행하게도 기계 학습과 딥 러닝이라는 용어를 혼동하는 기계 학습에 대한 비평을 제공합니다.마찬가지로, 제프리 힌튼이 상징적인 인공지능을 언급할 때, 이 용어의 함축은 학습 능력을 상실한 전문가 시스템의 암시인 경향이 있습니다.용어의 사용법은 명확하게 설명할 필요가 있습니다.기계 학습은 기호 ML 및 관계형 학습(표현의 선택, 분산보다는 로컬리스트 논리, 그라디언트 기반 학습 알고리듬의 비사용이라는 딥 러닝과의 차이점)에 국한되지 않습니다.마찬가지로 상징적인 인공지능은 단지 손으로 작성된 생산 규칙에 관한 것이 아닙니다.AI에 대한 적절한 정의는 지식 표현 및 추론, 자율 다중 에이전트 시스템,[98] 계획 및 논증 및 학습에 관한 것입니다.

위치한 로봇공학: 모델로서의 세계

상징적 인공지능에 대한 또 다른 비판은 구체화된 인지 접근법입니다.

체화된 인지 접근법은 뇌를 따로 고려하는 것은 말이 안 된다고 주장합니다. 인지는 환경에 내재된 몸 안에서 이루어집니다.우리는 전체적으로 시스템을 연구할 필요가 있습니다; 뇌의 기능은 신체의 나머지 부분을 포함한 환경의 규칙성을 이용합니다.체화된 인지 접근법 하에서 로봇, 시각 및 기타 센서는 [99]주변이 아닌 중심이 됩니다.

로드니 브룩스(Rodney Brooks)는 행동 기반 로봇 공학을 발명했는데, 이는 체화된 인지에 대한 하나의 접근법입니다.이 접근법의 또 다른 이름인 누벨 AI는 상징적인 AI와 연결주의적인 AI의 대안으로 여겨집니다.그의 접근법은 상징적이거나 배포된 표현을 불필요할 뿐만 아니라 해롭다는 이유로 거부했습니다.대신, 그는 구현된 에이전트를 위한 계층화된 아키텍처인 서브미션 아키텍처를 만들었습니다.각 계층은 각기 다른 목적을 달성하며 현실 세계에서 기능해야 합니다.예를 들어, 표현 없는 지능에서 그가 묘사한 첫 번째 로봇은 세 개의 계층을 가지고 있습니다.맨 아래 층은 물체를 피하기 위해 음파 탐지기를 해석합니다.중간층은 장애물이 없을 때 로봇이 돌아다닐 수 있게 합니다.꼭대기 층은 더 많은 탐사를 위해 로봇이 더 먼 곳으로 가게 합니다.각 레이어는 하위 레벨 레이어를 일시적으로 억제하거나 억제할 수 있습니다.그는 AI 연구원들이 그들의 시스템을 위해 AI 문제를 정의한 것을 비판했습니다. "현실 [100]세계에는 인식(추상)과 추론 사이에 명확한 구분이 없습니다."그는 그의 로봇들을 "Creatures"라고 불렀고 각각의 층은 "단순한 유한 상태 [101]기계의 고정 위상 네트워크로 구성되어 있습니다."누벨 AI 접근법에서는 "첫 번째로, 우리가 현실 세계, 즉 우리 인간이 살고 있는 동일한 세계에서 우리가 구축한 생명체를 시험하는 것이 매우 중요합니다.나중에 활동을 단순화되지 않은 [102]세계로 옮기려는 최선의 의도를 가지고도, 단순화된 세계에서 먼저 그들을 시험하려는 유혹에 빠지는 것은 참담한 일입니다.실세계 테스트에 대한 그의 강조는 "게임, 기하학적 문제, 상징 대수학, 정리 증명 및 기타 형식적 [103]시스템에 집중된 AI의 초기 작업"과 SHRDLU와 같은 상징적 AI 시스템에서 블록 세계를 사용하는 것과 대조적이었습니다.

현재 보기

상징주의, 연결주의, 행동주의 등의 각 접근 방식은 장점이 있지만 다른 접근 방식에서는 비판을 받아왔습니다.기호 AI는 신체가 분리되고 자격 문제에 취약하며 딥러닝이 탁월한 지각 문제를 잘 처리하지 못한다는 비판을 받아왔습니다.결과적으로 연결주의 AI는 신중한 단계별 문제 해결, 지식 통합 및 계획 처리에 적합하지 않다는 비판을 받아 왔습니다.마지막으로, 누벨 AI는 반응형 및 실제 로봇 영역에서 뛰어나지만 학습과 지식을 통합하는 데 어려움이 있다는 비판을 받아 왔습니다.

이러한 접근 방식 중 하나 이상을 통합한 하이브리드 AI는 현재 [17][80][81]앞으로 나아갈 길로 여겨집니다.러셀과 노빅은 다음과 같이 결론짓습니다.

전체적으로 Dreyfus는 AI가 완전한 답을 가지고 있지 않은 분야를 보고 Al은 불가능하다고 말했습니다. 우리는 이와 같은 많은 분야가 [99]불가능이 아닌 지속적인 연구와 개발을 거치고 있는 것을 보고 있습니다.

참고 항목

메모들

  1. ^ McCarthy는 "이것은 인공지능이므로, 우리는 그것이 심리적으로 [2]진짜인지 신경쓰지 않습니다"라고 말한 적이 있습니다.매카시는 2006년 AI@50 회의에서 "인공지능은 정의상 인간 [26]지능의 시뮬레이션이 아니다"라는 자신의 입장을 되풀이했습니다.Pamela McCorduck은 "인공 지능에는 두 가지 주요 분야가 있습니다: 하나는 어떻게 이루어졌는지에 관계없이 지능적인 행동을 생산하는 것을 목표로 하는 것이고, 다른 하나는 자연에서 발견되는 지능적인 과정, 특히 인간의 [27]것을 모델링하는 것을 목표로 하는 것입니다."라고 말합니다.스튜어트 러셀(Stuart Russell)과 피터 노빅(Peter Norvig)은 "항공공학 문헌은 그들 분야의 목표를 '비둘기처럼 정확히 날아서 다른 비둘기들도 속일 수 있는 기계'로 정의하지 않습니다.'"[28]

인용문

  1. ^ Garnelo, Marta; Shanahan, Murray (2019-10-01). "Reconciling deep learning with symbolic artificial intelligence: representing objects and relations". Current Opinion in Behavioral Sciences. 29: 17–23. doi:10.1016/j.cobeha.2018.12.010. S2CID 72336067.
  2. ^ a b 콜라타 1982년
  3. ^ 러셀 & 노빅 2021, 페이지 24.
  4. ^ Kautz 2020, 페이지 107-109.
  5. ^ a b 러셀 & 노빅 2021, 페이지 19.
  6. ^ a b 러셀 & 노빅 2021, 페이지 22-23.
  7. ^ a b Kautz 2020, 페이지 109-110.
  8. ^ Kautz 2020, 페이지 110.
  9. ^ a b Kautz 2020, 페이지 110-111.
  10. ^ a b 러셀 & 노빅 2021, 페이지 25.
  11. ^ Kautz 2020, 페이지 111.
  12. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986). "Learning representations by back-propagating errors". Nature. 323 (6088): 533–536. Bibcode:1986Natur.323..533R. doi:10.1038/323533a0. ISSN 1476-4687. S2CID 205001834.
  13. ^ LeCun, Y.; Boser, B.; Denker, I.; Henderson, D.; Howard, R.; Hubbard, W.; Tackel, L. (1989). "Backpropagation Applied to Handwritten Zip Code Recognition". Neural Computation. 1 (4): 541–551. doi:10.1162/neco.1989.1.4.541. S2CID 41312633.
  14. ^ a b 마커스 앤 데이비스 2019.
  15. ^ a b Rossi, Francesca. "Thinking Fast and Slow in AI". AAAI. Retrieved 5 July 2022.
  16. ^ a b Selman, Bart. "AAAI Presidential Address: The State of AI". AAAI. Retrieved 5 July 2022.
  17. ^ a b c Kautz 2020.
  18. ^ Kautz 2020, 페이지 106.
  19. ^ 뉴웰 & 사이먼 1972.
  20. ^ & McCorduck 2004, pp. 139–179, 245–250, 322–323 (EPAM)
  21. ^ Crevier 1993, 145-149쪽
  22. ^ 맥코덕 2004, 페이지 450-451.
  23. ^ Crevier 1993, pp. 258-263
  24. ^ a b Kautz 2022, 페이지 108.
  25. ^ Russell & Norvig 2021, p. 9 (논리학자 AI), p. 19 (McCarthy의 연구)
  26. ^ 메이커 2006.
  27. ^ 맥코덕 2004, 페이지 100-101.
  28. ^ 러셀 & 노빅 2021, 페이지 2.
  29. ^ 맥코덕 2004, 페이지 251-259.
  30. ^ Crevier 1993, pp. 193-196.
  31. ^ 하우 1994.
  32. ^ 맥코덕 2004, 페이지 259-305.
  33. ^ Crevier 1993, pp. 83–102, 163–176.
  34. ^ 맥코덕 2004, 페이지 421-424, 486-489.
  35. ^ Crevier 1993, p. 168.
  36. ^ 맥코덕 2004, 페이지 489.
  37. ^ Crevier 1993, pp. 239-243
  38. ^ 러셀 & 노빅 2021, 페이지 316, 340.
  39. ^ Kautz 2022, 109쪽.
  40. ^ 러셀 & 노빅 2021, 페이지 22.
  41. ^ McCorduck 2004, pp. 266-276, 298-300, 314, 421
  42. ^ Shustek, Len (June 2010). "An interview with Ed Feigenbaum". Communications of the ACM. 53 (6): 41–45. doi:10.1145/1743546.1743564. ISSN 0001-0782. S2CID 10239007. Retrieved 2022-07-14.
  43. ^ Lenat, Douglas B; Feigenbaum, Edward A (1988). "On the thresholds of knowledge". Proceedings of the International Workshop on Artificial Intelligence for Industrial Applications: 291–300. doi:10.1109/AIIA.1988.13308. S2CID 11778085.
  44. ^ 러셀 & 노빅 2021, 22-24쪽.
  45. ^ McCorduck 2004, pp. 327–335, 434–435.
  46. ^ Crevier 1993, pp. 145–62, 197–203.
  47. ^ a b 러셀 & 노빅 2021, 페이지 23.
  48. ^ a b 클랜시 1987.
  49. ^ a b Kautz 2022, 110쪽.
  50. ^ a b Shustek, Len (2010). "An interview with Ed Feigenbaum". Communications of the ACM. 53 (6): 41–45. doi:10.1145/1743546.1743564. ISSN 0001-0782. S2CID 10239007. Retrieved 2022-08-05.
  51. ^ "The fascination with AI: what is artificial intelligence?". IONOS Digitalguide. Retrieved 2021-12-02.
  52. ^ Hayes-Roth, Murray & Adelman. 오류: Murray Adelman
  53. ^ Hayes-Roth, Barbara (1985). "A blackboard architecture for control". Artificial Intelligence. 26 (3): 251–321. doi:10.1016/0004-3702(85)90063-3.
  54. ^ Hayes-Roth, Barbara (1980). Human Planning Processes. RAND.
  55. ^ 1988년 진주.
  56. ^ Spiegelhalter et al. 1993.
  57. ^ 러셀 & 노빅 2021, 페이지 335-337.
  58. ^ 러셀 & 노빅 2021, 페이지 459.
  59. ^ 퀸란, J. 로스."제15장: 효율적인 분류 절차와 체스 엔드게임에의 적용에 관한 학습"마이클스키, Carbonell & Mitchell (1983).
  60. ^ Quinlan, J. Ross (1992-10-15). C4.5: Programs for Machine Learning (1st ed.). San Mateo, Calif: Morgan Kaufmann. ISBN 978-1-55860-238-0.
  61. ^ Mitchell, Tom M.; Utgoff, Paul E.; Banerji, Ranan."6장: 실험에 의한 학습:문제해결 휴리스틱 획득 및 정제".마이클스키, Carbonell & Mitchell (1983).
  62. ^ Valiant, L. G. (1984-11-05). "A theory of the learnable". Communications of the ACM. 27 (11): 1134–1142. doi:10.1145/1968.1972. ISSN 0001-0782. S2CID 12837541. Retrieved 2022-08-19.
  63. ^ Koedinger, K. R.; Anderson, J. R.; Hadley, W. H.; Mark, M. A.; others (1997). "Intelligent tutoring goes to school in the big city". International Journal of Artificial Intelligence in Education (IJAIED). 8: 30–43. Retrieved 2012-08-18.
  64. ^ Shapiro, Ehud Y (1981). "The Model Inference System". Proceedings of the 7th international joint conference on Artificial intelligence. IJCAI. Vol. 2. p. 1064.
  65. ^ Manna, Zohar; Waldinger, Richard (1980-01-01). "A Deductive Approach to Program Synthesis". ACM Trans. Program. Lang. Syst. 2 (1): 90–121. doi:10.1145/357084.357090. S2CID 14770735.
  66. ^ Schank, Roger C. (1983-01-28). Dynamic Memory: A Theory of Reminding and Learning in Computers and People. Cambridge Cambridgeshire : New York: Cambridge University Press. ISBN 978-0-521-27029-8.
  67. ^ Hammond, Kristian J. (1989-04-11). Case-Based Planning: Viewing Planning as a Memory Task. Boston: Academic Press. ISBN 978-0-12-322060-8.
  68. ^ Koza, John R. (1992-12-11). Genetic Programming: On the Programming of Computers by Means of Natural Selection (1st ed.). Cambridge, Mass: A Bradford Book. ISBN 978-0-262-11170-6.
  69. ^ 모스토우, 데이비드 잭."12장: 휴리스틱 검색 절차로의 조언의 기계적 변환"마이클스키, Carbonell & Mitchell (1983).
  70. ^ 베리스, 레이, 포터, 브루스, 위어, 크레이그"제4장: 프로토스:모범적인 학습 견습생"입니다.Michalski, Carbonell & Mitchell (1986), pp. 112-139
  71. ^ Carbonell, Jaime."제5장: 유추에 의한 학습:과거 경험에서 나온 계획 수립 및 일반화"."Michalski, Carbonell & Mitchell (1983), 137-162쪽
  72. ^ Carbonell, Jaime."제14장: 파생적 유추: 재구성적 문제 해결 이론과 전문성 습득"Michalski, Carbonell & Mitchell (1986), pp. 371-392
  73. ^ 미첼, 톰, 마바데반, 스리드바, 스타인버그, 루이스"제10장: LEAP: VLSI 설계를 위한 학습 견습생"Kodratoff & Michalski (1990), pp. 271-289
  74. ^ 레나트, 더글라스."제9장: 발견에 의한 학습에서 발견주의의 역할:세 가지 사례 연구".Michalski, Carbonell & Mitchell (1983), pp. 243-306
  75. ^ Korf, Richard E. (1985). Learning to Solve Problems by Searching for Macro-Operators. Research Notes in Artificial Intelligence. Pitman Publishing. ISBN 0-273-08690-1.
  76. ^ 발리언트 2008.
  77. ^ a b Garcez et al. 2015.
  78. ^ 마커스 2020, 44쪽.
  79. ^ 마커스 2020, 17쪽.
  80. ^ a b 로시 2022.
  81. ^ a b 셀만 2022.
  82. ^ Garcez & Lamb 2020, 페이지 2.
  83. ^ Garcez et al. 2002.
  84. ^ Rocktäschel, Tim; Riedel, Sebastian (2016). "Learning Knowledge Base Inference with Neural Theorem Provers". Proceedings of the 5th Workshop on Automated Knowledge Base Construction. San Diego, CA: Association for Computational Linguistics. pp. 45–50. doi:10.18653/v1/W16-1309. Retrieved 2022-08-06.
  85. ^ Serafini, Luciano; Garcez, Artur d'Avila (2016), Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge, arXiv:1606.04422
  86. ^ a b Garcez, Artur d'Avila; Lamb, Luis C.; Gabbay, Dov M. (2009). Neural-Symbolic Cognitive Reasoning (1st ed.). Berlin-Heidelberg: Springer. Bibcode:2009nscr.book.....D. doi:10.1007/978-3-540-73246-4. ISBN 978-3-540-73245-7. S2CID 14002173.
  87. ^ Kiczales, Gregor; Rivieres, Jim des; Bobrow, Daniel G. (1991-07-30). The Art of the Metaobject Protocol (1st ed.). Cambridge, Mass: The MIT Press. ISBN 978-0-262-61074-2.
  88. ^ Motik, Boris; Shearer, Rob; Horrocks, Ian (2009-10-28). "Hypertableau Reasoning for Description Logics". Journal of Artificial Intelligence Research. 36: 165–228. arXiv:1401.3485. doi:10.1613/jair.2811. ISSN 1076-9757. S2CID 190609.
  89. ^ Kuipers, Benjamin (1994). Qualitative Reasoning: Modeling and Simulation with Incomplete Knowledge. MIT Press. ISBN 978-0-262-51540-5.
  90. ^ 러셀 노빅 2021.
  91. ^ 레오 드 페닝, 아르투르 S. 다빌라 가르세즈, 루이스 C.어린 양, 존-쥴스 Ch.Meyer: "온라인 학습과 추론을 위한 신경-상징 인지 에이전트"IJCAI 2011: 1653-1658
  92. ^ 매카시 헤이스 1969년
  93. ^ 매카시 1959년
  94. ^ 닐슨 1998, p. 7.
  95. ^ Olazaran 1993, pp. 411-416. 없음: (도움말
  96. ^ Olazaran 1993, pp. 415-416.: 1993
  97. ^ Marcus 2022. 오류: (
  98. ^ Garcez & Lamb 2020, 페이지 8.
  99. ^ a b 러셀 & 노빅 2021, 페이지 982.
  100. ^ 브룩스 1991, 페이지 143.
  101. ^ 브룩스 1991, p. 151.
  102. ^ 브룩스 1991, 페이지 150.
  103. ^ 브룩스 1991, 페이지 142.

참고문헌