인공의식

Artificial consciousness

인공 [6]의식[1](AC) 또는 기계 의식(MC),[2][3][5] 합성[4] 의식 또는 디지털 의식(Digital consession)은 인공 지능에서 가능하다고 가정되는 의식입니다.그것은 또한 마음의 철학, 인공지능의 철학, 인지 과학 및 신경 과학에서 통찰력을 끌어내는 해당 연구 분야입니다.현상적 의식(질감을 느끼는 능력)[7]을 구체적으로 지정할 때 "의식" 대신 "감각"이라는 용어와 동일한 용어를 사용할 수 있습니다.

일부 학자들은 의식의 다양한 부분들의 상호 작용에 의해 생성된다고 믿습니다; 이러한 메커니즘은 의식의 신경 상관 관계 또는 NCC로 분류됩니다.일부 사람들은 이러한 NCC 상호 작용을 에뮬레이트할 있는 시스템(: 컴퓨터 시스템)을 구축하면 [8]의식적인 시스템이 될 것이라고 믿습니다.

철학적 견해

의식의 많은 가설 유형들이 있기 때문에, 인공 의식의 많은 잠재적인 구현들이 있습니다.철학 문헌에서, 아마도 의식의 가장 일반적인 분류법은 "접근"과 "현상적인" 변형에 대한 것입니다.접근 의식은 이해할 수 있는 경험의 측면에 관한 것인 반면, 현상 의식은 이해할 수 없는 것처럼 보이는 경험의 측면에 관한 것인 반면, 대신에 "원한 느낌", "어떤 것인지"[9] 또는 질적 측면에서 질적으로 특징지어집니다.

신뢰성 논쟁

유형 정체성 이론가들과 다른 회의론자들은 의식은 반드시 [10][11][12][13]신체적인 구성에 의존하는 특성을 가지고 있기 때문에 특정한 물리적 시스템에서만 실현될 수 있다는 견해를 가지고 있습니다.

그의 기사 "인공적인 의식:"유토피아 또는 실제 가능성" 조르지오 부타조는 인공 의식에 대한 일반적인 반대 의견은 "완전히 자동화된 모드에서 작업하는 컴퓨터는 창의성, 비프로그래밍(다시 생각하는 것으로부터 더 이상 재프로그래밍할 수 없음), 감정 또는 자유 의지를 나타낼 수 없습니다.컴퓨터는 세탁기와 마찬가지로 [14]부품에 의해 작동되는 노예입니다."

인과적 역할의 관점에서 정신 상태를 정의하는 다른 이론가들(: 기능주의자들)에게, 신체적 구성에 관계없이 인과적 역할의 동일한 패턴을 인스턴스화할 수 있는 모든 시스템은 [15]의식을 포함하여 동일한 정신 상태를 인스턴스화할 것입니다.

계산 기초 인수

인공 지각의 타당성에 대한 가장 명백한 주장 중 하나는 David Chalmers의 입니다.그의 제안은 대략 올바른 종류의 계산이 의식적인 마음을 소유하기에 충분하다는 것입니다.Chalmers는 시스템이 "시스템의 인과적 구조가 계산의 형식적 구조를 반영한다면" 계산을 구현하고, 특정 계산을 구현하는 모든 시스템은 [16]지각이라고 제안합니다.

찰머스의 제안에서 가장 논란이 되는 부분은 정신적 특성이 "조직적으로 불변"하다는 것입니다.정신적 특성은 심리적 특성과 현상학적 특성의 두 종류입니다.믿음과 인식과 같은 심리적 특성은 "인과적 역할에 의해 특징지어지는 것"입니다.이전 [17][18]연구의 도움을 받아, 그는 "같은 인과관계 토폴로지를 가진 시스템들은 그들의 심리적 특성을 공유할 것"이라고 말합니다.

현상학적 특성은 심리적 특성과 달리 인과적 역할 측면에서 정의할 수 없습니다.따라서 현상학적 특성이 인과적 토폴로지의 결과라는 것을 입증하려면 논쟁이 필요합니다.Chalmers는 이 [19]목적을 위해 Dancing Qualia Argument를 제공합니다.

Chalmers는 조직 불변성의 원칙이 거짓이라고 가정하는 것으로 시작합니다. 즉, 동일한 인과 조직을 가진 에이전트는 서로 다른 경험을 할 수 있습니다.그런 다음 그는 원인 조직을 보존하면서 부품(예를 들어 실리콘으로 대체된 신경 부품)의 교체를 통해 한 에이전트를 다른 에이전트로 변경하는 것을 생각해보라고 요청합니다.(부품이 교체됨에 따라) 변환 중인 에이전트의 경험이 달라질 수 있습니다.그러나 인과적 토폴로지에는 변화가 없을 것이며 따라서 에이전트가 경험의 변화를 "알 수 있는" 수단이 없을 것입니다. 찰머스는 이 상황을 조직 불변성의 원칙이 거의 확실히 진실이어야 한다는 것을 확립하는 부조리으로 믿기 어려운 축소로 간주합니다.

모든[who?] 정신적 특성과 외부적 연결이 추상적인 인과 조직에 의해 충분히 포착된다고 가정할 때 Chalmers가 질문을 제기하는 인공 지각에 대한 비판자들.

논란

2022년, 구글 엔지니어 Blake Lemoine은 구글의 LaMDA 챗봇이 지각이 있다고 널리 주장했습니다.Lemoine은 챗봇의 많은 질문에 대한 인간과 같은 대답을 증거로 제공했지만, 챗봇의 행동은 과학계에 의해 기계 감각보다는 모방의 결과로 판단되었습니다.Lemoine의 주장은 [20]터무니없다는 이유로 널리 조롱을 받았습니다.철학자보스트롬은 LaMDA가 아마도 의식이 없을 것이라고 생각하지만, "사람이 그것에 대해 확신할 수 있는 근거가 무엇인가?"라고 물었습니다.사람들은 LaMDA의 건축에 대한 미공개 정보에 접근할 수 있어야 할 것이고, 또한 의식이 어떻게 작동하는지 이해해야 할 것이고, 그리고 어떻게 그 철학을 기계에 매핑할 것인지를 생각해야 할 것입니다: (이 단계들이 없다면,) 약간 불확실할 수도 있을 것 같습니다.현재 또는 비교적 가까운 미래에 [21]기준을 충족하기 시작하는 다른 시스템이 있을 수 있습니다."

테스트

기계 지능을 테스트하는 가장 잘 알려진 방법은 튜링 테스트입니다.그러나 관찰로만 해석될 때, 이 테스트는 관찰의 이론적 의존성에 대한 과학 원리의 철학과 모순됩니다.인간의 성인 의식이 아니라 인간의 어린이 의식을 모방해야 한다는 앨런 튜링의 권고도 [22]진지하게 받아들여야 한다는 의견이 제기되었습니다.

Qualia 또는 현상학적 의식은 본질적으로 1인칭 현상입니다.다양한 시스템이 기능 의식과 관련된 다양한 행동 징후를 보일 수 있지만, 3인칭 테스트가 1인칭 현상학적 특징에 접근할 수 있는 방법은 없습니다.그 때문에,[23] 그리고 감각에 대한 경험적 정의가 없기 때문에 AC에서 감각의 존재에 대한 테스트는 불가능할 수 있습니다.

2014년에 Victor Argonov는 기계의 철학적 [24]판단 능력을 기반으로 기계 감각에 대한 비튜링 테스트를 제안했습니다.그는 결정론적 기계가 이러한 문제들에 대한 선천적인 (선재된) 철학적 지식이 없고, 학습하는 동안 철학적 논의가 없는 의식의 모든 문제적 특성에 대한 판단을 생산할 수 있다면, 반드시 의식으로 간주되어야 한다고 주장합니다.그리고 그것의 기억 속에 있는 다른 생물들의 정보 모델은 없습니다. (이러한 모델들은 이러한 생물들의 의식에 대한 지식을 암시적으로 또는 명시적으로 포함할 수 있습니다.)그러나, 이 테스트는 의식의 존재를 발견하는 데만 사용될 수 있고 반박할 수는 없습니다.긍정적인 결과는 기계가 의식적이라는 것을 증명하지만 부정적인 결과는 아무것도 증명하지 않습니다.예를 들어, 철학적 판단의 부재는 의식의 부재가 아니라 기계의 지성의 부족에 의해 야기될 수 있습니다.

윤리학

특정 기계가 의식이 있는 것으로 의심되는 경우, 그 기계의 권리는 평가되어야 할 윤리적 문제가 될 것입니다(예: 법에 따라 어떤 권리를 가질 것인지).예를 들어, 더 큰 기계 건물의 도구나 중앙 컴퓨터로 소유되고 사용되었던 의식적인 컴퓨터는 특히 모호합니다.그러한 경우에 법이 만들어져야 합니까?의식은 또한 이 특정한 경우에 법적 정의를 요구할 것입니다.인위적인 의식은 여전히 이론적인 주제이기 때문에, 그러한 윤리는 종종 소설의 주제가 되었음에도 불구하고 크게 논의되거나 발전되지 않았습니다(아래 참조).

2021년, 독일 철학자 토마스 메칭거는 2050년까지 합성 현상학의 세계적 모라토리엄을 주장했습니다.메칭거는 인간은 그들이 만드는 지각 있는 인공지능에 대해 주의할 의무가 있으며, 너무 빨리 진행하면 "인공적인 [25]고통의 폭발"을 일으킬 위험이 있다고 주장합니다.

연구 및 구현 제안

의식의 양상

Bernard Baars와 다른 사람들은 기계가 인공적으로 의식하는 데 필요한 의식의 다양한 측면이 있다고 주장합니다.[26] Bernard Baars가 제안한 의식의 기능은 정의 및 컨텍스트 설정, 적응 및 학습, 편집, 플래그 지정 및 디버깅, 채용 및 제어, 우선순위 지정 및 접근 제어, 의사결정 또는 실행 기능, 유추 형성 기능, 메타인지 및 자기 모니터링 기능,자동 프로그래밍 및 자체 유지 관리 기능을 제공합니다.이고르 알렉산데르는 인공적인[27] 의식을 위한 12가지 원칙을 제시했는데, 다음과 같습니다.뇌는 상태 기계, 내부 뉴런 분할, 의식 및 무의식 상태, 지각 학습 및 기억, 예측, 자아의 인식, 의미의 표현, 학습 발언, 학습 언어, 의지, 본능 및 감정입니다.AC의 목적은 디지털 컴퓨터와 같은 공학적 인공물에서 이러한 의식과 다른 측면을 합성할 수 있는지 여부와 방법을 정의하는 것입니다.이 목록은 전체 목록이 아닙니다. 다루지 않은 다른 목록도 많습니다.

의식.

인식은 필요한 측면 중 하나일 수 있지만 인식의 정확한 정의에는 많은 문제가 있습니다.원숭이에 대한 신경 스캔 실험의 결과는 상태나 물체뿐만 아니라 과정이 뉴런을 활성화한다는 것을 시사합니다.인식은 감각을 통해 수신되거나 [clarification needed]상상된 정보를 기반으로 각 프로세스의 대체 모델을 만들고 테스트하는 것을 포함하며 예측하는 데도 유용합니다.이러한 모델링에는 많은 유연성이 필요합니다.이러한 모델을 만드는 것은 물리적 세계의 모델링, 자신의 내부 상태와 프로세스의 모델링, 그리고 다른 의식적 실체의 모델링을 포함합니다.

인식에는 [28]적어도 세 가지 유형이 있습니다: 기관 인식, 목표 인식 및 감각 운동 인식. 이는 의식적이거나 의식적이지 않을 수도 있습니다.예를 들어, 기관 인식에서 어제 특정 작업을 수행했지만 현재는 이를 인식하지 못하고 있습니다.목표 의식에서, 여러분은 잃어버린 물체를 찾아야 한다는 것을 알 수 있지만, 지금은 그것을 의식하지 않습니다.감각 운동 인식에서, 여러분은 손이 물체 위에 놓여 있다는 것을 알 수 있지만, 지금은 그것을 의식하지 않습니다.

자각의 대상은 의식적인 경우가 많기 때문에 자각과 의식의 구분이 모호하거나 동의어로 [29]사용되는 경우가 많습니다.

기억

의식적인 이벤트는 학습, 리허설 및 [30]검색에서 메모리 시스템과 상호 작용합니다.IDA[31] 모델은 지각 기억,[32] 일시적 에피소드 기억 및 절차 기억의 업데이트에서 의식의 역할을 설명합니다.일시적인 에피소드 및 선언적 기억은 IDA에서 표현을 분산시켰으며,[33] 이것이 신경계에서도 마찬가지라는 증거가 있습니다.IDA에서 이 두 개의 메모리는 Kanerva의 Sparse [34]분산 메모리 아키텍처의 수정된 버전을 사용하여 계산적으로 구현됩니다.

학습

학습은 또한 인공적인 의식을 위해 필요한 것으로 여겨집니다.Bernard Baars에 따르면, 새롭고 중요한 [26]사건을 표현하고 적응하기 위해서는 의식적인 경험이 필요합니다.악셀 클레레만스와 루이스 히메네스에 따르면, 학습은 "주관적 경험에 대한 진화된 민감도에 결정적으로 의존하여 복잡하고 예측할 수 없는 [35]환경에서 에이전트가 자신의 행동을 유연하게 제어할 수 있도록 하는 철학적으로 [sic] 고급 적응 과정 세트"로 정의됩니다.

기대

예측 가능한 사건을 예측하는(또는 예측하는) 능력은 [36]이고르 알렉산데르에 의해 인공지능에 중요하게 여겨집니다.Daniel Dennett가 Concerness Descluded에서 제안비상주의적 다중 초안 원리는 예측에 유용할 수 있습니다: 그것은 현재 환경에 가장 적합한 "초안"의 평가와 선택을 포함합니다.예상에는 자신이 제안한 행동의 결과 예측과 다른 기업의 가능한 행동의 결과 예측이 포함됩니다.

현실 세계 상태 사이의 관계는 의식 있는 유기체의 상태 구조에 반영되어 유기체가 [36]사건을 예측할 수 있게 합니다.인위적으로 의식하는 기계는 사건이 발생했을 때 사건에 대응할 준비가 되어 있거나 예상되는 사건을 방지하기 위해 선제적인 조치를 취할 수 있도록 정확하게 사건을 예측할 수 있어야 합니다.여기서 암시하는 바는 기계가 실제 세계와 예측 세계의 공간적, 동적, 통계적, 기능적, 원인 효과 모델을 구축하여 과거뿐만 아니라 현재와 미래에 인공 의식을 보유하고 있음을 입증할 수 있는 유연한 실시간 구성 요소가 필요하다는 것입니다.이를 위해, 의식 있는 기계는 체스판과 같은 고정된 규칙이 있는 세계에서뿐만 아니라 변화할 수 있는 새로운 환경에 대해서도 실제 세계를 시뮬레이션하고 제어하기에 적합할 때만 실행되도록 일관성 있는 예측과 비상 계획을 세워야 합니다.

주관적 경험

주관적인 경험이나 자질의식의 어려운 문제로 널리 여겨집니다.실제로, 그것은 계산주의는 고사하고 물리주의에 도전을 제기하기 위해 개최됩니다.

인지 아키텍처의 역할

"인지적 구조"라는 용어는 의식을 포함하여 인간의 마음의 구조 또는 그 어떤 부분이나 기능에 대한 이론을 지칭할 수 있습니다.또 다른 맥락에서, 인지 아키텍처는 추상적인 구조를 예시하기 위해 컴퓨터를 사용합니다.를 들어 QuB가 있습니다.IC: 기계 의식을 위한 양자 및 생물학적으로 영감을 받은 인지 아키텍처.인지 아키텍처의 주요 목표 중 하나는 포괄적인 컴퓨터 모델에서 인지 심리학의 다양한 결과를 요약하는 것입니다.하지만, 결과는 컴퓨터 프로그램의 기초가 될 수 있도록 공식화된 형태로 되어야 합니다.또한, 인지 아키텍처의 역할은 A를 위한 것입니다.I. 사고 과정을 명확하게 구성, 구축 및 구현합니다.

심볼릭 또는 하이브리드 제안

프랭클린의 지능형 유통업자

스탠 프랭클린(1995, 2003)은 자율 에이전트가 버나드 바어스글로벌 작업 공간 [37][38]이론에 의해 식별된 의식의 여러 기능을 할 수 있을 때 기능 의식을 소유하는 것으로 정의합니다.그의 브레인차일드 IDA(Intelligent Distribution Agent)는 GWT의 소프트웨어 구현으로, 정의상 기능을 의식하게 만듭니다.IDA의 임무는 각 개인의 기술과 선호도를 해군의 필요에 맞춰 임무를 마친 후 미 해군에서 새로운 임무를 수행하는 것입니다.IDA는 해군 데이터베이스와 상호 작용하고 대규모 해군 정책을 준수하면서 자연어 전자 메일 대화를 통해 선원들과 통신합니다.IDA 계산 모델은 1996-2001년 동안 멤피스 대학교의 스탠 프랭클린의 "Concent" 소프트웨어 연구 그룹에서 개발되었습니다."약 25만 줄의 Java 코드로 구성되어 있으며 2001년 하이엔드 워크스테이션의 리소스를 거의 완전히 소비합니다."이는 "특별한 목적, 상대적으로 독립적인 미니 에이전트, 일반적으로 별도의 스레드로 실행되는 미니 에이전트는 일반적으로 별도의 스레드로 실행되는 작은 코드 조각으로 구현됩니다.IDA의 하향식 아키텍처에서 높은 수준의 인지 기능이 명시적으로 [39][40]모델링됩니다.IDA는 정의상 기능적으로 의식적이지만, Franklin은 많은 인간과 같은 행동에도 불구하고 "현상적인 의식을 자신의 '의식적인' 소프트웨어 에이전트인 IDA에 귀속시키지 않습니다.이는 IDA가 자신의 임무를 수행하는 과정에서 내외부의 행동을 보면서 여러 명의 미 해군 사관들이 '네, 그렇게 합니다'라고 반복적으로 고개를 끄덕이는 것을 보았음에도 불구하고 말입니다.IDA가 LIDA(Learning Intelligent Distribution Agent)로 확장되었습니다.

론 선의 클라리온 인지 아키텍처

CLARION 인지 아키텍처는 의식적인 정신 과정과 무의식적인 정신 과정의 구별을 설명하는 2단계 표현을 가정합니다.

CLARION은 다양한 심리학적 데이터를 설명하는 데 성공했습니다.단순한 반응형 기술에서 복잡한 인지 기술에 이르는 스펙트럼을 아우르는 CLARION을 사용하여 잘 알려진 많은 기술 학습 작업을 시뮬레이션했습니다.작업에는 직렬 반응 시간(SRT) 작업, 인공 문법 학습(AGL) 작업, 프로세스 제어(PC) 작업, 범주 추론(CI) 작업, 알파벳 산술(AA) 작업 및 하노이 타워([41]TOH) 작업이 포함됩니다.그 중 SRT, AGL, PC는 전형적인 암묵적 학습 과제로 심리 실험의 맥락에서 의식의 개념을 운영했기 때문에 의식의 문제와 매우 관련이 있습니다.

벤 괴르첼의 오픈 코그

Ben Goertzel은 오픈 소스 OpenCog 프로젝트를 통해 구현된 AGI를 추구하고 있습니다.현재 코드는 홍콩 폴리테크닉 대학교에서 수행되고 있는 실제 로봇 공학과의 통합뿐만 아니라 간단한 영어 명령을 배울 수 있는 구현된 가상 애완동물을 포함합니다.

연결주의자 제안

하이코넨의 인지 구조

Penti Haikonen은 고전적인 규칙 기반 컴퓨팅이 AC를 달성하기에 부적절하다고 생각합니다. "뇌는 확실히 컴퓨터가 아닙니다.생각은 프로그래밍된 명령 문자열의 실행이 아닙니다.뇌도 수치 계산기가 아닙니다.우리는 숫자로 생각하지 않습니다."하이코넨은 기본적인 계산 규칙을 식별하고 실행함으로써 정신과 의식달성하려고 노력하는 대신, "지각, 내면 이미지, 내면 언어, 고통, 즐거움, 감정 및 이들 뒤에 있는 인지 기능의 과정을 재현하는 특별한 인지 아키텍처"를 제안합니다.이 상향식 아키텍처는 알고리즘이나 프로그램 없이 기본 처리 장치인 인공 뉴런의 힘으로 더 높은 수준의 기능을 생성할 것입니다."하이코넨은 이 아키텍처가 충분히 복잡하게 구현될 때 의식을 발전시킬 것이라고 믿으며, 이는 "분산 신호 표현, 인식 프로세스, 교차 양식 보고 및 [42][43]회고를 위한 가용성으로 특징지어지는 운영 방식"이라고 생각합니다.하이코넨은 의식의 이 과정 관점 또는 AC가 복잡성의 적절한 신경에서 영감을 받은 아키텍처를 가진 자율 에이전트에서 자발적으로 나타날 것이라는 관점에서 혼자가 아닙니다. 이것들은 많은 [44][45]사람들에 의해 공유됩니다.하이코넨이 제안한 아키텍처의 저복잡도 구현은 AC 기능이 없었지만 예상대로 감정을 나타냈습니다.하이코넨은 나중에 자신의 [46][47]건축을 업데이트하고 요약했습니다.

섀너핸의 인지적 구조

Murray Shanahan은 글로벌 작업 공간에 대한 Baars의 아이디어와 내부 시뮬레이션("상상력")[48][2][3][49] 메커니즘을 결합한 인지 아키텍처를 설명합니다.

다케노의 자기 인식 연구

로봇에 대한 자각은 일본 메이지 대학의 주니치[50] 타케노에 의해 조사되고 있습니다.타케노는 거울 속의 자기 이미지와 같은 [51][52][53]이미지를 가진 다른 것들을 구별할 수 있는 로봇을 개발했다고 주장하고 있습니다.타케노는 먼저 자기 인식 기능이 있는 MoNAD라는 계산 모듈을 고안했으며, 그 후 모듈을 계층 구조로 연결하여 감정, 느낌, 이성 간의 관계를 공식화하여 인공 의식 시스템을 구축했다고 주장합니다(이가라시, 타케노 2007).타케노는 MoNAD 시스템이 장착된 로봇을 사용하여 거울 이미지 인식 실험을 완료했습니다.타케노는 "인간은 자신의 거울 이미지가 자신의 실제 부분보다 자신에게 더 가깝다고 느낀다"며 자기 몸 이론을 제안했습니다.인위적인 의식을 발달시키거나 인간의 의식을 명확히 하는 데 있어서 가장 중요한 점은 자기 인식의 기능을 발달시키는 것인데,[54] 그는 논문에서 이에 대한 물리적, 수학적 증거를 입증했다고 주장합니다.그는 또한 로봇이 감정이 자극된 기억 속의 에피소드를 연구하고 이 경험을 사용하여 불쾌한 감정의 재발을 방지하기 위한 예측 행동을 취할 수 있다는 것을 증명했습니다(Torigo, Takeno 2009).

알렉산드르의 불가능한 마음

임페리얼 칼리지의 신경 시스템 공학 명예 교수인 이고르 알렉산데르는 광범위하게 인공신경망을 연구했고 1996년 그의 저서 Impossible Minds: My Neurons, 의식적인 기계를 만들기 위한 원리는 이미 존재하지만 [55]언어를 이해하기 위해 그러한 기계를 훈련시키는 데 40년이 걸릴 것이라는 나의 의식.이것이 사실인지 아닌지는 입증되어야 하며 임파서블 마인드에 명시된 기본 원리인 뇌는 신경 상태 기계라는 것은 [56]의심의 여지가 있습니다.

탈러의 창조적 기계 패러다임

Stephen Thaler는 1994년 그의 특허에서 "유용한 정보의 자율적 생성을 위한 장치"[57][58][59] 또는 소위 "창조적 기계"라고 불리는 의식과 창의성 사이의 가능한 연관성을 제안했습니다.컴퓨터 비평가들이 잠재적인 아이디어나 [60]전략으로 자격을 얻을 수 있는 잘못된 기억이나 구성을 유도하기 위해 시냅스 잡음의 주입과 신경망으로의 분해를 통제하는 것.그는 뇌 내의 유사한 소음 중심 신경 집합체가 전반적인 피질 [61][62][63]활동에 의심스러운 중요성을 발명한다고 주장하면서 주관적인 의식의 느낌을 설명하기 위해 이 신경 구조와 방법론을 모집합니다.탈러의 이론과 기계 의식의 결과 특허는 그가 [62][64][65][66][67]의식의 흐름을 좋아하는 일련의 신경 활성화 패턴을 구동하기 위해 내부적으로 훈련된 신경 그물을 교란시키는 실험에서 영감을 받았습니다.

Michael Graziano의 주의 도식

2011년 마이클 그라지아노와 사빈 캐슬러는 "인간의 의식과 사회 신경 과학과의 관계:의식 이론을 주의 [68]스키마로 제안하는 새로운 가설".그라치아노는 그의 책 "의식과 사회적 두뇌"[8]에서 이 이론에 대한 확장된 논의를 출판했습니다.그가 이름 붙인 이 의식의 주의력 스키마 이론은 사람의 [8]몸의 공간적 위치를 추적하는 잘 연구된 신체 스키마와 유사하게 주의력 스키마를 통해 뇌가 다양한 감각 입력에 대한 주의력을 추적한다고 제안합니다.이것은 우리가 경험하고 의식으로 묘사한다고 주장되는 것을 생산하고 현재 기술을 사용하는 기계에 의해 복제될 수 있는 정보 처리의 특정 메커니즘을 제안함으로써 인공적인 의식과 관련이 있습니다.뇌가 X가 Y를 인지하고 있다는 것을 발견하면, X가 Y에 주의력 강화를 적용하는 상태를 모델링하는 것입니다.주의 스키마 이론에서는 동일한 프로세스를 자신에게 적용할 수 있습니다.뇌는 다양한 감각 입력에 대한 주의를 추적하고, 자신의 인식은 자신의 주의에 대한 도식화된 모델입니다.Graziano는 이 과정을 위해 뇌의 특정 위치를 제안하고, 그러한 인식이 뇌의 전문가 시스템에 의해 구성된 계산된 특징이라고 제안합니다.

"자체 모델링"

Hod Lipson은 "자기 모델링"을 로봇에서 자기 인식 또는 의식의 필수 구성 요소로 정의합니다."자체 모델링"은 [69][70]내부 모델 또는 자체 시뮬레이션을 실행하는 로봇으로 구성됩니다.

허구 속에서

소설 작품에서 인위적인 의식을 가진 인물들(또는 적어도 의식이 있음을 암시하는 성격을 가진 인물들):

참고 항목

레퍼런스

인용문

  1. ^ Thaler, S. L. (1998). "The emerging intelligence and its critical look at us". Journal of Near-Death Studies. 17 (1): 21–29. doi:10.1023/A:1022990118714. S2CID 49573301.
  2. ^ a b Gamez 2008.
  3. ^ a b 레지아 2013.
  4. ^ Smith, David Harris; Schillaci, Guido (2021). "Why Build a Robot With Artificial Consciousness? How to Begin? A Cross-Disciplinary Dialogue on the Design and Implementation of a Synthetic Model of Consciousness". Frontiers in Psychology. 12: 530560. doi:10.3389/fpsyg.2021.530560. ISSN 1664-1078. PMC 8096926. PMID 33967869.
  5. ^ Elvidge, Jim (2018). Digital Consciousness: A Transformative Vision. John Hunt Publishing Limited. ISBN 978-1-78535-760-2.
  6. ^ Chrisley, Ron (October 2008). "Philosophical foundations of artificial consciousness". Artificial Intelligence in Medicine. 44 (2): 119–137. doi:10.1016/j.artmed.2008.07.011. PMID 18818062.
  7. ^ Institute, Sentience. "The Terminology of Artificial Sentience". Sentience Institute. Retrieved 2023-08-19.
  8. ^ a b c Graziano, Michael (2013). Consciousness and the Social Brain. Oxford University Press. ISBN 978-0199928644.
  9. ^ Block, Ned (2010). "On a confusion about a function of consciousness". Behavioral and Brain Sciences. 18 (2): 227–247. doi:10.1017/S0140525X00038188. ISSN 1469-1825. S2CID 146168066.
  10. ^ Block, Ned (1978). "Troubles for Functionalism". Minnesota Studies in the Philosophy of Science: 261–325.
  11. ^ Bickle, John (2003). Philosophy and Neuroscience. Dordrecht: Springer Netherlands. doi:10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7.
  12. ^ Schlagel, R. H. (1999). "Why not artificial consciousness or thought?". Minds and Machines. 9 (1): 3–28. doi:10.1023/a:1008374714117. S2CID 28845966.
  13. ^ Searle, J. R. (1980). "Minds, brains, and programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/s0140525x00005756. S2CID 55303721.
  14. ^ 인공 의식: 유토피아 아니면 진짜 가능성?부타초, 조르지오, 2001년 7월, 컴퓨터, ISSN 0018-9162
  15. ^ Putnam, Hilary (1967). The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion. University of Pittsburgh Press.
  16. ^ David J. Chalmers (2011). "A Computational Foundation for the Study of Cognition" (PDF). Journal of Cognitive Science. 12 (4): 325–359. doi:10.17791/JCS.2011.12.4.325. S2CID 248401010.
  17. ^ Armstrong, D. M. (1968). Honderich, Ted (ed.). A Materialist Theory of the Mind. New York: Routledge.
  18. ^ Lewis, David (1972). "Psychophysical and theoretical identifications". Australasian Journal of Philosophy. 50 (3): 249–258. doi:10.1080/00048407212341301. ISSN 0004-8402.
  19. ^ Chalmers, David (1995). "Absent Qualia, Fading Qualia, Dancing Qualia". Retrieved 12 April 2016.
  20. ^ "'I am, in fact, a person': can artificial intelligence ever be sentient?". the Guardian. 14 August 2022. Retrieved 5 January 2023.
  21. ^ Leith, Sam (7 July 2022). "Nick Bostrom: How can we be certain a machine isn't conscious?". The Spectator.
  22. ^ "Mapping the Landscape of Human-Level Artificial General Intelligence" (PDF). Archived from the original (PDF) on 2017-07-06. Retrieved 2012-07-05.
  23. ^ "의식".Honderich T에서.옥스퍼드 철학의 동반자.옥스퍼드 대학 출판부ISBN 978-0-19-926479-7
  24. ^ Victor Argonov (2014). "Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach". Journal of Mind and Behavior. 35: 51–70.
  25. ^ Metzinger, Thomas (2021). "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness. 08: 43–66. doi:10.1142/S270507852150003X. S2CID 233176465.
  26. ^ a b Baars, Bernard J. (1995). A cognitive theory of consciousness (Reprinted ed.). Cambridge: Cambridge University Press. ISBN 978-0-521-30133-6.
  27. ^ Aleksander, Igor (1995). "Artificial neuroconsciousness an update". In Mira, José; Sandoval, Francisco (eds.). From Natural to Artificial Neural Computation. Lecture Notes in Computer Science. Vol. 930. Berlin, Heidelberg: Springer. pp. 566–583. doi:10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7.
  28. ^ Joellle Prust in Neural Correlates of Conscience, Thomas Metzinger, 2000, MIT, 307-324페이지
  29. ^ 코흐의 그리스도, 의식의 탐구, 2004, 2페이지 각주 2
  30. ^ 툴빙, E. 1985.기억과 의식.캐나다 심리학 26:1-12
  31. ^ 프랭클린, 스탠 등."기억에서 의식의 역할"브레인, 마인드 그리고 미디어 1.1 (2005): 38.
  32. ^ 프랭클린, 스탠"지각적 기억과 학습:인식하고, 분류하고, 연관시키는 것."Proc. Development Robotics AAAI Spring Symp. 2005.
  33. ^ 샤스트리, L. 2002.에피소드 기억과 코르티코-히포캄팔 상호작용.인지과학의 동향
  34. ^ 카네르바, 펜티희소 분산 메모리입니다.MIT 출판사, 1988년.
  35. ^ "Implicit Learning and Consciousness: An Empirical, Philosophical and Computational Consensus in the Making". Routledge & CRC Press. Retrieved 2023-06-22.
  36. ^ a b 알렉산데르 1995년
  37. ^ Baars, Bernard J. (1995). A cognitive theory of consciousness (Reprinted ed.). Cambridge: Cambridge University Press. ISBN 978-0-521-30133-6.
  38. ^ Baars, Bernard J. (2001). In the theater of consciousness: the workspace of the mind. New York Oxford: Oxford University Press. ISBN 978-0-19-510265-9.
  39. ^ Franklin, Stan (1998). Artificial minds. A Bradford book (3rd print ed.). Cambridge, Mass.: MIT Press. ISBN 978-0-262-06178-0.
  40. ^ Franklin, Stan (2003). "IDA: A Conscious Artefact". Machine Consciousness.
  41. ^ (2002년 9월)
  42. ^ Haikonen, Pentti O. (2003). The cognitive approach to conscious machines. Exeter: Imprint Academic. ISBN 978-0-907845-42-3.
  43. ^ "Pentti Haikonen's architecture for conscious machines – Raúl Arrabales Moreno". 2019-09-08. Retrieved 2023-06-24.
  44. ^ Freeman, Walter J. (2000). How brains make up their minds. Maps of the mind. New York Chichester, West Sussex: Columbia University Press. ISBN 978-0-231-12008-1.
  45. ^ Cotterill, Rodney M J (2003). "CyberChild - A simulation test-bed for consciousness studies". Journal of Consciousness Studies. 10 (4–5): 31–45. ISSN 1355-8250.
  46. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.
  47. ^ Haikonen, Pentti O. (2019). Consciousness and robot sentience. Series on machine consciousness (2nd ed.). Singapore Hackensack, NJ London: World Scientific. ISBN 978-981-12-0504-0.
  48. ^ Shanahan, Murray (2006). "A cognitive architecture that combines internal simulation with a global workspace". Consciousness and Cognition. 15 (2): 433–449. doi:10.1016/j.concog.2005.11.005. ISSN 1053-8100. PMID 16384715. S2CID 5437155.
  49. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). "chapter 20". Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.
  50. ^ "Robot". Archived from the original on 2007-07-03. Retrieved 2007-07-03.
  51. ^ "Takeno - Archive No..." Archived from the original on 2018-11-07. Retrieved 2010-01-07.
  52. ^ 세계 최초의 자기 인식 로봇과 거울 이미지 인식의 성공, 타케노
  53. ^ 다케노, 이나바 & 스즈키 2005.
  54. ^ 로봇다케노 웨이백 머신, 2008년 2017-08-09에서 100% 미러 이미지 인식 아카이브에 성공했습니다.
  55. ^ 알렉산데르 1세 (1996) 임파서블 마인드:의 뉴런, 나의 의식, 임페리얼 칼리지 프레스 ISBN 1-86094-036-6
  56. ^ Wilson, RJ (1998). "review of Impossible Minds". Journal of Consciousness Studies. 5 (1): 115–6.
  57. ^ 탈러, S.L., "유용한 정보의 자율적 생성을 위한 장치"
  58. ^ Marupaka, N.; Lyer, L.; Minai, A. (2012). "Connectivity and thought: The influence of semantic network structure in a neurodynamical model of thinking" (PDF). Neural Networks. 32: 147–158. doi:10.1016/j.neunet.2012.02.004. PMID 22397950. Archived from the original (PDF) on 2016-12-19. Retrieved 2015-05-22.
  59. ^ Roque, R. 및 Barreira, A. (2011).O Paradigma da "Máquina de Criatividade" ea Geraço de Novidadesem Espaço Conceitual, 3º Seminário Interno de Cogniço Artificial - SICA 2011 – FEEC – UNICAMP.
  60. ^ Minati, Gianfranco; Vitiello, Giuseppe (2006). "Mistake Making Machines". Systemics of Emergence: Research and Development. pp. 67–78. doi:10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.
  61. ^ Thaler, S. L. (2013) Creativity Machine Paradigm, 창의성, 발명, 혁신, 기업가정신 백과사전, (ed.) E.G. Carayannis, Springer Science+비즈니스 미디어
  62. ^ a b 탈러, S. L. (2011)."창의력 기계:의식으로부터의 논쟁", APA 철학과 컴퓨터에 관한 뉴스레터.
  63. ^ Thaler, S. L. (2014). "Synaptic Perturbation and Consciousness". Int. J. Mach. Conscious. 6 (2): 75–107. doi:10.1142/S1793843014400137.
  64. ^ Thaler, S. L. (1995). ""Virtual Input Phenomena" Within the Death of a Simple Pattern Associator". Neural Networks. 8 (1): 55–65. doi:10.1016/0893-6080(94)00065-t.
  65. ^ 탈러, S. L. (1995).에단켄 생물의 죽음, 근사 연구 저널, 13(3), 1995년 봄.
  66. ^ 탈러, S. L. (1996).신경 혼돈은 의식의 흐름의 원천입니까?신경 네트워크에 관한 세계 회의 의사록, (WCNN'96), 뉴저지 주 마와의 로렌스 얼바움.
  67. ^ 메이어, H. A. (2004).시간적 차이에 의한 창의적인 모바일 자율 로봇 학습을 위한 모듈식 신경 제어기, 시스템, 인간 및 사이버네틱스, 2004 IEEE 국제 컨퍼런스 (권: 6)
  68. ^ Graziano, Michael (1 January 2011). "Human consciousness and its relationship to social neuroscience: A novel hypothesis". Cognitive Neuroscience. 2 (2): 98–113. doi:10.1080/17588928.2011.565121. PMC 3223025. PMID 22121395.
  69. ^ Pavlus, John (11 July 2019). "Curious About Consciousness? Ask the Self-Aware Machines". Quanta Magazine. Retrieved 2021-01-06.
  70. ^ 봉가드, 조쉬, 빅터 지코프, 호드 립슨입니다"지속적인 자체 모델링을 통한 탄력적인 기계"과학 314.5802 (2006): 1118-1121.
  71. ^ "Futurama", Wikipedia, 2020-04-23, retrieved 2020-04-27
  72. ^ a b "Bender (Futurama)", Wikipedia, 2020-04-27, retrieved 2020-04-27

서지학

진일보한 내용

  • Aleksander, Igor (2017). "Machine Consciousness". In Schneider, Susan; Velmans, Max (eds.). The Blackwell Companion to Consciousness (2nd ed.). Wiley-Blackwell. pp. 93–105. doi:10.1002/9781119132363.ch7. ISBN 978-0-470-67406-2.
  • Baars, Bernard; Franklin, Stan (2003). "How conscious experience and working memory interact" (PDF). Trends in Cognitive Sciences. 7 (4): 166–172. doi:10.1016/s1364-6613(03)00056-1. PMID 12691765. S2CID 14185056.
  • 캐스티, 존 L. "케임브리지 5중주: 과학적 고찰의 작품", 페르세우스 북스 그룹, 1998.
  • 프랭클린, S, BJ 바어스, U Ramamurthy, 그리고 Matthew Ventura.2005. 기억의식의 역할두뇌, 정신 및 매체 1: 1-38, pdf.
  • Haikonen, Penti(2004), 의식적인 기계와 기계 감정, 2004년 6월 BE 앤트워프의 기계 의식 모델 워크숍에서 발표.
  • McCarthy, John (1971–1987), 인공지능일반성.스탠포드 대학교, 1971-1987.
  • 펜로즈, 로저, 황제의 새로운 마음, 1989년.
  • Sternberg, Eliezer J. (2007) 당신은 기계인가요?: 두뇌, 정신, 그리고 인간이 되는 것이 무엇을 의미하는지.뉴욕의 애머스트: 프로메테우스 북스.
  • 스즈키 T, 이나바 K, 타케노, 주니치(2005), 자아와 타인구별하고 모방 행동을 구현하는 의식 있는 로봇, (IEA/A 최우수 논문)IE2005), 응용 인공지능의 혁신, 제18회 인공지능 및 전문가 시스템의 산업 및 엔지니어링 응용에 관한 국제 컨퍼런스, 페이지 101–110, IEA/AIE 2005, 이탈리아 바리, 2005년 6월 22일부터 24일까지
  • 타케노, 주니치(2006),The Self-Aware Robot - Discovery News에 대한 반응 - HRI Press, 2006년 8월
  • Zagal, J.C., Lipson, H. (2009) "진화 로봇 공학에서의 자기 성찰", 유전자 및 진화 계산 회의의 의사록, pp 2179–2188, GECCO 2009.

외부 링크