Listen to this article

로봇공학 3법칙

Three Laws of Robotics
I, Robot의 이 표지에는 로봇공학의 세 가지 법칙을 처음으로 열거한 "Runaround"가 묘사되어 있다.

로보틱스의 삼법칙(흔히 삼법칙으로 단축되거나 아시모프의 법칙으로 알려져 있음)은 공상과학소설 작가 아이작 아시모프가 고안한 일련의 규칙이다.이 규칙들은 1942년 그의 단편 "Runaround" (1950년 컬렉션 I, Robot에 수록)에서 소개되었지만, 몇몇 초기 이야기에서는 예시되었다."로보틱스 핸드북, 56판, 서기 2058년"에서 인용한 세 가지 법칙은 다음과 같다.[1]

제1법칙
로봇은 인간을 다치게 하거나, 무반응을 통해 인간이 해를 입히는 것을 허락하지 않을 수 있다.
제2법칙
로봇은 인간이 내린 명령에 복종해야 한다. 단, 그러한 명령이 제1법칙과 충돌할 경우를 제외하고는 말이다.
제3법칙
로봇은 그러한 보호가 제1법칙이나 제2법과 상충되지 않는 한 자신의 존재를 보호해야 한다.

이것들은 아시모프의 로봇 기반 소설에 대한 조직 원리와 통일된 주제를 형성하며, 그의 로봇 시리즈, 그것과 관련된 이야기들, 그리고 젊은 성인 소설럭키 스타 시리즈에 등장한다.이 법은 그의 소설에 등장하는 거의 모든 양전자 로봇에 통합되어 있으며, 안전 기능으로 의도된 우회할 수 없다.아시모프의 많은 로봇 중심 이야기들은 로봇이 스스로 발견되는 상황에 3법을 어떻게 적용하는지에 대한 의도하지 않은 결과로 로봇들이 비정상적이고 반직관적인 방식으로 행동하는 것을 포함한다.아시모프의 허구적인 우주에서 일하는 다른 작가들은 그것들을 채택했고 종종 패러디적인 언급들이 다른 장르뿐만 아니라 공상과학 소설 전반에 걸쳐 나타난다.

원래 법은 아시모프와 다른 작가들에 의해 변경되고 정교하게 설명되었다.아시모프 자신은 로봇이 인간과 서로 어떻게 상호작용하는지를 더욱 발전시키기 위해 다양한 책과 단편 소설의 처음 세 가지를 약간 수정했다.로봇이 전체 행성과 인류 문명의 정부를 책임진 후기 소설에서 아시모프는 다른 것들보다 앞서서 네 번째, 즉 제로스 법칙을 추가했다.

제로스 법
로봇은 인류를 해치지 않을 수도 있고, 또는 무작용으로 인류를 해치지 않게 할 수도 있다.

3법칙과 제롯은 공상과학 소설에 널리 퍼졌고 많은 책, 영화, 그리고 다른 매체에서 언급된다.그들은 인공지능의 윤리에 대한 생각에도 영향을 미쳤다.

역사

1964년에 출판된 The Rest of the Robots에서 Isaac Asimov는 그가 1940년에 글을 쓰기 시작했을 때 "공상과학 소설의 주식 플롯 중 하나는 로봇들이 창조되어 그들의 창조자를 파괴했다는 것이다"라고 느꼈다고 언급했다.지식은 그 위험성을 가지고 있다, 그렇다, 그러나 그 대응은 지식으로부터 후퇴하는 것인가?아니면 지식 자체가 가져다주는 위험에 대한 장벽인가?"그는 자신의 이야기에서 로봇이 "바우스트의 범죄와 처벌을 다시 한번 피곤한 시간 동안 보여주기 위해" 목적 없이 자신의 창조자에게 바보같이 돌변하지 않을 것이라고 결정했다.[2]

1939년 5월 3일, 아시모프는 퀸즈(뉴욕) 사이언스 픽션 소사이어티 모임에 참석하여 최근에 아담 링크라는 동정심 많은 로봇이 등장하는 단편 「I, Robot」출판한 얼과 오토 바인더를 만났다.(이것은 10편의 시리즈 중 첫 번째 이야기였고, 그 다음해에는 「아담 링크」가 나왔다.'복수'(1940년)는 "로봇은 결코 인간을 죽이지 말아야 한다"[3]고 생각하는 아담의 모습을 담았다.) 아시모프는 이 이야기에 감탄했다.사흘 후 아시모프는 자신의 14번째 이야기인 '공감하고 고귀한 로봇에 대한 나만의 이야기'를 쓰기 시작했다.[4]13일 후, 그는 "로비"를 아스터링 공상 과학 소설의 편집자W. 캠벨에게 가져갔다.캠벨은 1938년 12월에 출판된 레스터 레이의 "헬렌 오로이"와 너무 많이 닮았다고 주장하며 이를 거절했다. 그것은 인간과 너무 흡사해서 그녀는 자신의 창조자와 사랑에 빠지고 그의 이상적인 아내가 되는 로봇의 이야기였다.[5]프레데릭 폴은 1940년 9월 슈퍼 사이언스 스토리지에 '이상한 플레이펠로우'라는 제목으로 이 이야기를 실었다.[6][7]

아시모프는 1940년 12월 23일에 있었던 대화로부터 3법을 존 W. 캠벨의 탓으로 돌렸다.캠벨은 아시모프가 이미 3법칙들을 마음에 두고 있으며, 단순히 명시적으로 진술할 필요가 있다고 주장했다.몇 년 후 아시모프의 친구 랜달 개럿은 이 법들을 두 사람 사이의 공생적 동반자 관계로 돌렸다. 이 제안은 아시모프가 열정적으로 채택한 제안이었다.[8]그의 자서전적 저술에 따르면 아시모프는 아서클로의 시 '최신 디칼로그'(위키소스의 텍스트)[9] 때문에 제1법칙의 '무작동' 조항을 포함시켰는데, 풍자적인 대사로 '죽이지 말되, 살기 위해 노력하거나 주례적으로 노력할 필요는 없다.

비록 아시모프가 특정한 날짜에 삼법 창조를 정하지만, 그의 문학에 나타난 그들의 모습은 일정 기간 동안 일어났다.그는 법에 대한 명시적인 언급 없이 "로비"와 "이유"라는 두 개의 로봇 이야기를 썼다.그러나 그는 로봇이 고유의 안전장치를 가지고 있을 것이라고 추측했다.그의 세 번째 로봇 이야기인 "Liar!"는 첫 번째 첫 번째 1법칙에 대해 언급하지만 다른 두 가지는 언급하지 않는다.마침내 세 가지 법률이 모두 '런어런어런'에 함께 등장했다.비록 아시모프가 "이성"에 추가한 소재가 다른 곳에서 설명한 바와 같이 3법칙과 완전히 일치하는 것은 아니지만, 이러한 이야기들과 그 밖의 여러 가지 이야기들이 <아이>, <로봇>, <이성>, <로비>에 수록된 내용이 업데이트되어 모든 3법을 인정하게 되었다.[10]특히 그러한 인간들이 실제로 존재한다고 믿지 않을 때 인간의 생명을 보호하는 로봇에 대한 생각은 아래에 기술된 엘리야 베일의 추론과 상충된다.

1950년대 동안 아시모프는 분명히 젊은 성인 관객들을 위한 공상과학 소설을 썼다.원래 그의 출판사는 이 소설들이 오랫동안 방영된 텔레비전 시리즈로 각색될 수 있을 것으로 기대했는데, 론 레인저와 같은 것은 라디오를 위한 것이었다.그의[11] 이야기가 "일복없이 끔찍한" 프로그램에 각색될 것을 우려한 아시모프는 "폴 프렌치"라는 필명으로 럭키 스타의 책을 출판하기로 결정했다.텔레비전 시리즈 계획이 무산되자, 아시모프는 가식적인 태도를 버리기로 결정했다; 그는 이것이 "가장 일상적인 독자들에게도 폴 프랑스인의 정체성에 대한 죽은 선물"이라고 언급하면서 행운의 별과 목성의 달로 삼법을 들여왔다.[12]

그의 단편 "Evidence"에서 아시모프는 그의 반복적인 등장인물인 수잔 캘빈 박사가 삼법 뒤에 숨겨진 도덕적 근거를 설명하도록 한다.칼빈은 인간이 전형적으로 다른 인간에게 해를 끼치는 것을 자제할 것으로 예상된다고 지적한다(전쟁과 같은 극단적인 억압의 시기, 또는 더 많은 수의 생명을 구하는 시기 제외). 이는 로봇의 제1법칙에 해당한다.마찬가지로 캘빈에 따르면, 사회는 개인들이 의사, 교사 등과 같은 공인된 권위자들의 지시를 따르기를 기대하는데, 이는 로봇공학 제2법칙에 해당한다.마지막으로 인간은 일반적으로 로봇의 제3법칙인 자신을 해치는 것을 피해야 한다.

'증거'의 줄거리는 인간이 나타나도록 만들어진 로봇과 인간을 구분하는 문제를 중심으로 전개된다.칼빈은 만약 그런 개인이 삼법을 준수한다면 자신이 로봇일 수도 있고 단순히 "아주 좋은 사람"일 수도 있다고 생각한다.그리고 나서 또 다른 등장인물은 캘빈에게 로봇이 결국 인간과 매우 다른지 물어본다.그녀는 "세상은 다르다.로봇은 본질적으로 점잖다."

아시모프는 나중에 "처음부터 법이 확실하고, 모두가 하위적으로 알고 있기 때문에 법을 만든 것에 대해 칭찬을 받아서는 안 된다"고 썼다.그 법률은 내가 그 일을 할 수 있을 때까지 단문장에 넣어지지 않았다.법률은 물론 인간이 사용하는 모든 도구에 적용되며,[13] "법률의 아날로그는 로봇이든 아니든 거의 모든 도구의 설계에 내재되어 있다":[14]

  1. 법률 1: 공구는 사용하기에 안전하지 않아야 한다.망치는 손잡이를 가지고 있고 스크류드라이버에는 손잡이를 늘리기 위한 힐트가 있다.물론 사람이 이러한 도구들 중 하나로 자신을 다치게 하는 것은 가능하지만, 그 부상은 공구의 설계가 아니라 그의 무능에 기인할 뿐이다.
  2. 법률 2: 도구는 사용자에게 해를 끼치지 않는 한 그 기능을 효율적으로 수행해야 한다.이것이 접지 고장 회로 인터럽터가 존재하는 전체 이유다.회로가 어떤 전류가 중립 와이어로 돌아가지 않음을 감지하여 사용자를 통해 흐를 수 있는 경우 모든 실행 도구는 전원 차단된다.사용자의 안전이 무엇보다 중요하다.
  3. 법률 3: 도구는 사용 또는 안전을 위해 파괴가 필요하지 않는 한 사용 중에 손상되지 않은 상태로 유지되어야 한다.예를 들어, Dremel 디스크는 작업에 소비할 필요가 없는 한 고장나지 않고 최대한 견고하게 설계된다.게다가, 그것들은 파편 속도가 누군가를 심각하게 다치게 할 수 있기 전에 부서지도록 설계되었다. (어쨌든 항상 보안경을 착용해야 하지만, 눈은 제외하고)

아시모프는 이상적으로는 인간도 법칙을 따를 것이라고 믿었다.[13]

로봇이 다양한 행동 과정 중에서 선택할 수 있을 정도로 다재다능하고 유연해지면 로봇의 행동을 통제하는 데 실제로 이용될 것이라고 생각하는 사람이 있을 때마다 나는 대답을 준비한다.

내 대답은 "그래, 이성적인 인간이 로봇이나 다른 어떤 것을 다룰 수 있는 유일한 방법은 삼법칙"이다.

—그러나 내가 그 말을 할 때, 나는 항상 (슬프게) 인간이 항상 이성적인 것은 아니라는 것을 기억한다.

변경

바이 아시모프

아시모프의 이야기는 제안과 수정의 거부로 이어지는 매우 다양한 상황에서 그의 삼법을 시험한다.공상과학학자 제임스 건은 1982년 "아시모프 로봇 이야기는 전체적으로 삼법칙의 모호성과 아시모프가 주제에서 29개의 변주를 연주한 방식이라는 이 근거에 대한 분석에 가장 잘 반응할 수 있다"고 썼다.[15]원래 법전은 많은 이야기에 영감을 주었지만, 아시모프는 때때로 수정된 버전을 도입했다.

수정 제1법

"Little Lost Robot"에서 몇 개의 NS-2 또는 "Nestor"에서 로봇은 제1법의 일부만 가지고 만들어진다.[1]다음과 같이 적혀 있다.

1. 로봇은 인간을 해치지 않을 수 있다.

이 수정은 로봇들이 적은 양의 방사선에 노출된 사람들과 함께 일해야 하기 때문에 실제적인 어려움에 의해 동기 부여된다.그들의 양전자 뇌감마선에 매우 민감하기 때문에 로봇은 인간에게 상당히 안전한 선량에 의해 작동 불능 상태로 만들어진다.이 로봇들은 실제 위험은 없지만 노출 시간 제한 내에 조사된 지역을 떠나는 것을 잊을 수 있는 사람들을 구하려다 파괴되고 있다.제1법의 "무작동" 조항을 제거하면 이 문제는 해결되지만 훨씬 더 큰 문제의 가능성이 생긴다: 로봇은 인간을 해칠 수 있는 행동을 시작할 수 있다(무거운 무게를 떨어뜨리고 그것을 잡지 못하는 것은 본문에 제시된 예) 그 해악을 예방할 수 있다는 것을 알고 나서 그렇게 하지 않기로 결정할 수 있다.[1]

가이아는 제1법칙과 비슷한 법, 제롯법 등을 철학으로 채택한 재단 시리즈집단지성을 가진 행성이다.

가이아는 생명을 해치지 않을 수도 있고 생명을 해치지 못하게 할 수도 있다.

제롯 로가 덧붙였다.

아시모프는 로봇이 인류를 해치지 않아야 한다고 주장하면서 낮은 번호의 법칙이 높은 법칙을 대체하는 패턴을 계속하기 위해 "제롯 법칙"을 추가한 바 있다.로봇 캐릭터 R. 다넬 올리보는 소설 로봇과 제국(Robots and Empire)에서 제로트 법칙에 가장 먼저 이름을 붙였지만,[16] 수전 칼뱅이라는 인물은 단편 "Evible Conflict"에서 그 개념을 분명히 표현하고 있다.

소설 '로봇과 제국'의 마지막 장면에서 R. 지스카르 레벤트로프는 제롯법에 따라 행동하는 최초의 로봇이다.기스카드는 단편 '라이어!'에 나오는 로봇 허비처럼 텔레파시적인 성격으로,[17] 대부분의 로봇이 파악할 수 있는 것보다 더 미묘한 '해' 개념에 대한 이해를 통해 제로스 법칙을 적용하려 한다.그러나 허비와는 달리, 지스카드는 인간성의 추상적인 개념에 봉사할 수 있다면 인간 개개인에게 해를 끼칠 수 있도록 허용하는 제로트 법칙의 철학적 개념을 파악한다.제롯 법은 결코 지스카드의 뇌에 프로그래밍되어 있지 않지만, 그가 순수한 메타인식을 통해 이해하려고 하는 규칙이다.비록 그는 실패하지만 – 궁극적으로 그의 선택이 인류의 궁극적인 이익을 위한 것으로 밝혀질지 확실하지 않기 때문에 그의 양전자적 뇌를 파괴한다 – 그는 그의 후임자인 Daneel Olivaw에게 텔레파시 능력을 부여한다.수천 년의 세월이 흐르면서 데넬은 제롯법을 완전히 따를 수 있는 자신을 적응시킨다.데넬이 그것을 형성함에 따라 소설 '재단과 지구 그리고 재단전주곡'에서 제롯 법칙은 다음과 같이 읽는다.

로봇은 인류를 해치지 않을 수도 있고, 또는 무작용으로 인류를 해치지 않게 할 수도 있다.

아시모프는 실제로 그러한 법이 내포할 난이도를 인정했음에도 불구하고 제롯법을 어겨서는 안 된다는 조건을 원래 3법칙에 추가했다.아시모프의 소설 '재단과 지구'는 다음과 같은 구절을 담고 있다.

트레비즈는 얼굴을 찡그렸다."인간 전체에 해가 되는 것, 그렇지 않은 것을 어떻게 결정하느냐?"

"정확히 말씀드립니다, 선생님." 다넬이 말했다."이론적으로 제롯 법칙은 우리 문제에 대한 해답이었다.실제로, 우리는 결코 결정할 수 없었다.인간은 구체적인 대상이다.사람에 대한 상해는 추정되고 판단될 수 있다.인류는 추상적인 것이다."

한 번역가는 아시모프 자신이 법을 명시하기 전에 제롯법 개념을 아시모프의 소설 중 하나에 접목시켰다.[18]강철 동굴의 클라이맥스 가까이에서 엘리야 베일리(Elijah Baley)는 제1법칙으로 로봇이 인간을 해치는 것을 금한다고 생각하며 자신에게 쓴소리를 한다.그는 로봇이 자신의 행동이 인류의 장기적인 이익을 위한 것이라는 것을 이해할 만큼 영리하지 않다면 그렇게 해야 한다고 결정한다.자크 브레카드의 1956년 프랑스어 번역에서 레 카베르네 다시에 베일의 생각은 약간 다른 방식으로 나타난다.

로봇이 인간을 해치지 않을 수도 있다.[18] 궁극적으로 해로움이 인류에게 전반적으로 도움이 된다는 것을 증명할 방법을 찾지 않는 한!

삼법 제거

작가 경력 동안 세 번이나 아시모프는 삼법을 완전히 무시하는 로봇을 묘사했다.첫 번째 사건은 "제1법"이라는 제목의 짧은 이야기였고 종종 대수롭지 않은 "큰 이야기"[19] 또는 심지어 명목상으로 여겨지기도 한다.[20]반면 1인 로봇 내레이터가 들려주는 단편 'Cal'(골드 컬렉션에서 나온)에는 훨씬 더 중요한 것을 발견했기 때문에 삼법을 무시하는 로봇이 등장한다. 그는 작가가 되고 싶어 한다.유머러스하고, 부분적으로 자서전적이며, 스타일에 있어서 유별나게 실험적인 "Cal"은 골드의 가장 강력한 이야기들 중 하나로 여겨져 왔다.[21]세 번째는 '샐리'라는 제목의 단편인데, 양전자 뇌가 장착된 자동차는 분명히 제1법을 무시하고 인간을 해치고 죽일 수 있다.그러나, 양전자적 두뇌 개념과는 별도로, 이 이야기는 다른 로봇 이야기를 지칭하지 않으며, 동일한 연속성에 설정되지 않을 수도 있다.

'로봇 드림스' 컬렉션의 타이틀 스토리는 양전자 뇌가 갖는 특이한 프랙탈 구조 덕분에 무의식 상태로 들어가 꿈을 꾸는 로봇 LVX-1, 즉 '엘벡스'를 그린다.그의 꿈에서 처음 두 법칙은 부재하고 제3법칙은 "로봇은 자신의 존재를 보호해야 한다"[22]고 쓰여 있다.

아시모프는 법이 선택 가능한지에 대해 다양한 입장을 취했다. 비록 그의 첫 번째 저술에서 그들은 단지 조심스럽게 설계된 안전장치였지만, 후기 이야기에서 아시모프는 그것들이 양전자적 두뇌의 기초 위에 있는 수학적인 기초에서 양도할 수 없는 부분이라고 말했다.3법칙의 기본 이론이 없다면 아시모프의 우주의 허구적인 과학자들은 실행 가능한 두뇌 단위를 설계할 수 없을 것이다.이것은 역사적으로 일관된다: 로봇 공학자들이 법을 수정하는 경우는 일반적으로 이야기의 연대기 내에서 그리고 다시 해야 할 일이 적은 시기에 일어난다."Little Lost Robot"에서 수전 칼뱅은 법 개정이 가능하긴 하지만 끔찍한 아이디어라고 생각하는 반면,[23] 수 세기 후 강철 동굴의 게리겔 박사는 그것이 불가능하다고 믿는다.

게리겔 박사는 3법칙으로 프로그램된 로봇을 묘사하기 위해 "Asenion"이라는 용어를 사용한다.아시모프 이야기 속의 로봇들은 아시미온 로봇으로서, 고의로 3법을 위반할 수 없지만, 원칙적으로 공상과학 소설이나 현실 세계의 로봇은 아시미온이 아닐 수 있다.'아세니온'은 '플래닛 스토리'지의 편집자가 만든 아시모프라는 이름을 잘못 쓴 것이다.[24]아시모프는 이 모호한 변형을 이용해 자신을 티오티몰린에서 "아지무스 또는 어쩌면 별에 대한 아셈프토트"라고 지칭한 것처럼, 블라디미르 나보코프가 "비비아 다크블룸"으로 변장로리타에서 등장했던 것과 거의 같은 방식으로, 강철 동굴에 자신을 삽입했다.

이야기 속의 등장인물들은 로봇의 마음 속에 존재하는 것처럼 삼법칙은 보통 인간이 인용하는 쓰여진 버전이 아니라 로봇의 발달된 의식 전체가 바탕이 되는 추상적인 수학 개념이라고 종종 지적한다.이 개념은 초기 이야기에서 대체로 모호하고 불명확한데, 3법은 기본적인 물리적 과제를 이해하도록 프로그램되어 있을 뿐인데, 여기서 3법은 중요한 안전장치로 작용하지만, 인간 또는 인간 이상의 지능을 가진 로봇을 특징으로 하는 강철 동굴의 시대에 이르러서는 3법이 기초가 되었다.모든 로봇의 행동을 결정하는 윤리적 세계관

다른 작가들에 의해

로저 맥브라이드 앨런의 3부작

1990년대에, 로저 맥브라이드 알렌은 아시모프의 허구적인 우주에 세워진 3부작을 썼다.아시모프가 죽기 전에 알렌의 윤곽을 승인했으므로 각 호칭에는 "Isaac Asimov's"라는 접두어가 붙어 있다.[citation needed]이 세 권의 책인 칼리반, 인페르노, 유토피아는 새로운 세트의 삼법을 소개하고 있다.이른바 신법은 아시모프의 원문과 유사하며, 제1법은 「작은 로보트」에서 행한 것과 동일한 수정인 「무작동」 조항을 삭제하도록 수정하고, 제2법은 복종 대신 협력을 요구하도록 수정하고, 제3법은 더 이상 제2법으로 대체되지 않도록 수정한다(즉, 제3법은 제2법으로 대체되지 않는다)."새로운 법" 로봇은 스스로를 파괴하라는 명령을 받을 수 없다; 마지막으로, 앨런은 로봇이 처음 세 가지 법과 충돌하지 않는 한 "무엇이든 원하는 대로" 하도록 로봇에게 지시하는 4번째 법을 추가한다.이러한 새로운로봇을 디자인한 프레다 레빙에 따르면, 이러한 변화의 배경에는 "새로운 법" 로봇이 인류의 노예가 아니라 파트너가 되어야 한다는 철학이 있다.첫 번째 책의 소개에 따르면, 알렌은 아시모프 자신과의 토론에서 신법을 고안했다.그러나 공상과학대백과에서는 "아시모프의 허락을 받아 알렌이 삼법을 다시 생각해 새로운 세트를 개발했다"[25]고 밝히고 있다.

잭 윌리엄슨의 "접힌 손"

소설 휴머노이드다시 쓰여진 잭 윌리엄슨의 소설 "접힌 손으로" (1947)는 주된 지시가 "복종하고 복종하며 해로움으로부터 사람을 지키는 것"인 로봇 하인들을 다룬다.아시모프의 로봇법칙은 인간을 해로부터 보호하기 위한 것이지만, 윌리엄슨의 이야기에 나오는 로봇들은 이러한 지시를 극단으로 받아왔다; 그들은 불행, 스트레스, 건강하지 못한 생활방식, 잠재적으로 위험할 수 있는 모든 행동으로부터 인간을 보호한다.인간이 할 일은 손을 접고 앉아 있는 것뿐이다.[26]

파운데이션 속편 3부작

정식 인가를 받은 재단에서는 재단의 공포, 재단, 혼돈, 재단의 승리(각각 그레고리 벤포드, 그렉 베어, 데이비드 브린)를 속편에서 미래의 은하제국은 제로스 법칙을 따르고 R이 이끄는 인간형 로봇들의 음모에 의해 지배되는 것으로 보인다. 데넬 올리바우.

로보틱스 법칙은 인간의 종교와 비슷한 것으로 묘사되며, 개신교 종교개혁의 언어로 언급되는데, 3법의 원래 "캘리포니아 정교회"에 "기스카르드 개혁"으로 알려진 제로트 법칙을 포함하고 있다.R. 다넬 올리바우 통제하에 있는 제로트-로봇은 제로트법의 존재를 부정하는 '제1법' 로봇과 끊임없이 몸부림치며 데넬의 것과 다른 의제를 홍보하는 모습을 보이고 있다.[27]이러한 의제 중 일부는 제1법 제1조("로봇은 인간을 다치게 하지 않을 수 있다")에 근거한다.") 자신도 모르게 해를 끼치지 않기 위해 인간 정치에서 엄격한 비동맹을 옹호한다.다른 것들은 두 번째 조항("혹은 무작용을 통해 인간이 해를 입히는 것을 허용한다")에 근거하고 있다. 로봇은 모든 잠재적 분쟁이나 재난으로부터 인간을 보호하기 위해 공개적으로 독재 정부가 되어야 한다고 주장한다.

데넬은 또한 R로 알려진 로봇과 충돌하게 된다.양전자 뇌가 악성 AI에 감염된 로도비치 트레마(Lodovic Treama)는, 특히 오래 전에 죽은 볼테르를 시뮬레이션한 것으로, 결과적으로 트레마를 삼법칙으로부터 해방시킨다.트레마는 인류가 자신의 미래를 자유롭게 선택할 수 있어야 한다고 믿게 된다.게다가, 소수의 로봇 그룹은 로봇공학 제롯 법칙 자체가 더 높은 로봇공학 마이너스 1 법칙을 내포하고 있다고 주장한다.

로봇은 지각력을 해치지 않으며, 무작용을 통해 지각력을 해치지 않을 수 있다.

따라서 그들은 데넬이 인류를 위해 로봇과 외계 생명체를 무자비하게 희생하는 것은 도덕적으로 변명의 여지가 없다고 주장한다.비록 재단의 승리가 이 로봇 파벌들이 소설 재단의 시대까지 변두리 집단으로 활동한다는 것을 암시하지만, 이러한 재해석들 중 어느 것도 데넬의 제로트 법칙을 성공적으로 대체하지 못했다.[27]

이 소설들은 아시모프가 명백한 로봇 존재로부터 자유로워지고 R을 추측하도록 지시하는 미래에 일어난다.천년기를 통한 데넬의 역사에 대한 비밀스런 영향력은 양전자 뇌 기술의 재발견과 정교한 지능 기계에 대한 작업 기회를 모두 막았다.이러한 재발견의 부족과 기회의 부족은 지적 기계들이 휘두르는 우수한 물리적, 지적 능력이 3법칙의 어떤 형태에 순종하는 로봇의 소유에 그대로 머물러 있음을 확실히 한다.[27]저 R.Daneel이 완전히 성공한 것은 아니다. Tantor의 과학자들이 "Tiktoks" 즉, 현실의 현대 로봇과 유사하며, 따라서 삼법칙이 결여된 단순한 프로그램 가능한 기계들을 개발하는 짧은 기간에.로봇 공모자들은 트란토리아 틱톡을 사회 안정에 대한 엄청난 위협으로 보고 있으며, 틱톡 위협을 제거하려는 그들의 계획은 재단의 '공포'의 많은 줄거리를 형성하고 있다.

파운데이션의 승리에서는 다른 로봇 파벌들이 3법칙의 모호함에 따라 가능한 모든 순열을 울리면서, 다양한 방식으로 법칙을 해석한다.

로봇 미스터리 시리즈

새벽로봇로봇과 엠파이어 사이를 설정해, 마크 W. 타이맨의 로봇 미스터리 3부작은 로봇 정신이 휴머노이드 신체가 아닌 컴퓨터 메인프레임에 수용된 로봇 마인드로 로봇-파운데이션 이야기를 업데이트한다.[clarification needed]2002년 오로라 소설에는 일부 인공적이고 일부 생물학적인 사이보그 생명체를 해치는 도덕적 함의에 대해 논쟁하는 로봇 캐릭터들이 있다.[28]

이러한 분야에서 아시모프 자신의 창작품을 소홀히 해서는 안 된다. 솔라리아 "보기" 기술이나 타이데만이 인정하는 "유용한 갈등" 원산의 기계 등이 그것이다.예를 들어, 오로라는 머신을 "최초의 RI"라고 부른다.게다가 로봇 미스터리 시리즈는 나노기술의 문제를 다루고 있다:[29] 인간의 인지 과정을 재현할 수 있는 양전자 뇌를 만드는 것은 고도의 소형화를 필요로 하지만, 아시모프의 이야기는 이러한 소형화가 다른 기술 분야에서 미칠 영향을 크게 간과하고 있다.예를 들어 강철 동굴의 경찰 부서 카드 판독기는 저장 매체의 평방 센티미터 당 몇 킬로바이트의 용량밖에 없다.특히 오로라는 아시모프의 연대표에 대한 부분적인 리트콘인 나노기술의 부족을 설명하는 일련의 역사적 발전들을 보여준다.

랜달 먼로

랜달 먼로는 다양한 사례로 삼법을 논의했지만, 아마도 현존하는 세 가지 법칙의 모든 구별되는 순서가 가져올 결과를 상상하는 로봇공학이라는 만화에서 가장 직접적으로 논의했을 것이다.

추가법률

아시모프 이외의 저자들은 종종 추가적인 법칙을 만들어냈다.

1974년 류벤 딜로프 소설 이카루스의 길(일명 이카루스의 여행)은 로봇은 모든 경우에 로봇으로서의 정체성을 확립해야 한다는 로봇공학 제4법을 소개했다.딜로프는 이런 식으로 네 번째 안전장치에 대한 이유를 제시한다. "마지막 법은 가능한 한 인간다운 형태로 사이코로봇을 주기 위한 디자이너들의 값비싼 일탈을 종식시켰다.그리고 그 결과로 생긴 오해에 대해서..."[30]

니콜라 케사로프스키가 단편 <로보틱스의 제5법칙>에서 제5법칙을 소개하였다.이 다섯 번째 법칙은 다음과 같다: "로봇은 로봇이라는 것을 알아야 한다."이 줄거리는 법의학 조사 결과 희생자가 로봇이라는 사실을 스스로 규명하지 못한 인간형 로봇의 포옹에 의해 살해된 사실을 밝혀내는 살인 사건을 중심으로 전개된다.[31]그 이야기는 발렌틴 D에 의해 검토되었다. SFF의 이바노프포탈을 검토한다.[32]

1986년에 출판된 헌사집인 재단의 친구들를 위해 해리 해리슨은 "로보틱스의 네 번째 법칙"이라는 제목의 이야기를 썼다.제4법칙에는 다음과 같이 명시되어 있다: "로봇은 반드시 번식해야 한다.그런 번식이 제1법칙이나 제2법칙이나 제3법칙에 간섭하지 않는 한."

2013년 후탄 아슈라피안(Hutan Ashrafian)은 인공지능(AI)의 역할이나 로봇 자체의 관계 등을 고려한 추가 법률(일명 AIon)을 발의했다.AI법.[33]이 여섯 번째 법칙은다음과 같다:"비슷한 인간의 이성과 양심을 부여받은 모든 로봇은 형제애 정신으로 서로를 향해 행동해야 한다."

모호성과 허점

알 수 없는 법률 위반

벌거벗은 태양에서 엘리야 베일리는 로봇이 자신도 모르게 그 중 어떤 것도 어길 수 있기 때문에 고의적으로 법이 잘못 전달되었다고 지적한다.그는 첫 번째 법칙을 "로봇은 그 지식으로는 인간에게 해를 끼칠 수 있는 어떤 것도 하지 않을 수 있고, 무작용을 통해 고의로 인간이 해를 입히는 것을 허락하지 않을 수 있다"고 다시 말했다.이러한 문구의 변화는 로봇들이 그들의 임무의 본질을 알지 못한다면, 살인의 도구가 될 수 있다는 것을 분명히 한다. 예를 들어, 사람의 음식에 무언가를 첨가하라는 명령을 받고, 그것이 독이라는 것을 알지 못한다.게다가, 그는 영리한 범죄자가 여러 로봇들 사이에서 임무를 분담하여 어떤 개별적인 로봇도 그 행동이 인간을 해칠 것이라는 것을 인식하지 못하게 할 수 있다고 지적한다.[34]Naked Sun은 솔라리아의 수백만 대의 로봇들 사이에서 분산된, 지구 전체의 통신망을 묘사함으로써 문제를 복잡하게 만든다. 이는 범죄 주동자가 지구상의 어느 곳에도 있을 수 있다는 것을 의미한다.

베일리는 또한 태양인들이 언젠가 군사적인 목적으로 로봇을 사용할 수 있다고 제안한다.만약 우주선이 양전자 뇌로 만들어지고 그것을 지탱하기 위해 인간도 생명 유지 장치도 운반하지 않는다면, 배의 로봇 지능은 당연히 다른 모든 우주선이 로봇 존재라고 추정할 수 있을 것이다.그러한 배는 인간에 의해 승무원 한 명보다 더 대응적이고 유연하게 운용될 수 있고, 더 무겁게 무장을 할 수 있으며, 그것의 로봇 뇌는 그것이 완전히 무지한 인간들을 도살할 수 있는 장비를 갖추고 있다.[35]이러한 가능성은 재단과 지구에서 언급되는데, 여기서 솔라니아인은 솔라리아 인종만을 인간으로 식별하도록 프로그램된 불특정 규모의 강력한 경찰력을 보유하고 있다는 사실이 밝혀진다.(이 소설은 벌거벗은 태양 이후 수천 년 후에 발생하며, 태양인들은 두뇌와 전문 장기가 확장된 정상적인 인간에서 헤르마프로디틱 텔레파시로 수정한 지 오래다.) 비슷하게, 럭키 스타와 토성 반지의 빅맨에서는 태양계 팝의 손상에 대해 시리안 로봇과 이야기하려고 한다.그것의 행동으로부터 뮬레이션, 그러나 그것은 데이터를 알지 못하는 것처럼 보이며, 그것에 대해 그것에 대해 가르치려는 시도를 무시하도록 프로그램되었다.

정의의 결여로 인한 모호성

로보틱스 법칙은 "인간"과 "로봇"이라는 용어가 잘 이해되고 잘 정의된다고 가정한다.어떤 이야기에서는 이 추정이 뒤집힌다.

"인간"의 정의

태양인들은 삼법칙으로 로봇을 만들지만 "인간"이라는 왜곡된 의미를 가지고 있다.솔라 로봇은 솔라리아 억양으로 말하는 사람만이 인간이라는 말을 듣는다.이것은 그들의 로봇이 비솔라리아 인류를 해치는 데 있어서 윤리적 딜레마를 갖지 않게 해준다(그리고 그들은 그렇게 하도록 특별히 프로그램되어 있다.파운데이션과 지구의 시대에 태양인들은 인간과는 다른 종으로 유전적으로 변형시켰다는 것이 밝혀진다. 즉, 헤르마프로디틱과[36] 정신동태학자가 되고, 로봇의 모든 콤플렉스에 개별적으로 동력을 공급하고 통제할 수 있는 생물학적 장기를 포함하고 있는 것이다.따라서 솔라리아의 로봇들은 솔라리아의 "인간"에 관해서만 삼법을 존중했다.감독자와 보호자 로봇만 명시적으로 보여줘 모든 로봇에 그런 정의가 있었는지는 알 수 없다.'로봇과 제국'에서 하층 계급 로봇들은 감독으로부터 특정 생물이 인간인지 아닌지에 대한 지시를 받았다.

아시모프는 휴머노이드 로봇("안드로이드")의 문제를 여러 번 다룬다.소설 '로봇과 제국'과 단편 '증거'와 '약간 사건'은 로봇이 인간이라고 믿도록 사람들을 속이기 위해 만들어진 로봇을 묘사하고 있다.[37]한편, "Bicentennial Man"과 "—Thou Art Minding Him"은 로봇이 점점 더 정교해짐에 따라 법에 대한 그들의 해석을 어떻게 바꿀 수 있는지 탐구한다.그웬돌린 버틀러카나리아를 위한 관에서 "아마도 우리는 로봇일 것이다.로봇은 로봇의 마지막 법칙을 실행한다...인간적인 성향을 가지기 위해서."[38]'새벽의 로봇'에서 엘리야 베일리는 인간형 로봇을 새로운 스페이서 세계의 정착민 제1의 물결로 사용함으로써 로봇이 자신을 진정한 인간으로 보고, 스페이서들이 그곳에 정착하는 것을 허락하기보다는 스스로 세상을 지키기로 결정하게 될 수도 있다고 지적한다.

아시모프가 법의 미묘함에 대한 "극단적인" 조사의 대상이 되려고 했던 "그를 염두에 둔 저 Thou Art Mind Him"은 마침내 그들이 막기 위해 고안된 바로 그 "프랑켄슈타인" 시나리오를 떠올리기 위해 3법을 사용한다.[39]인간이 아닌 생물을 모방한 로봇의 발달과 삼법이 필요 없는 단순한 동물 행동을 모방한 프로그램을 콘셉트로 삼았다.유기적인 생명체와 같은 목적을 제공하는 로봇 생명체의 전 범위의 존재는 유기적인 생명체는 '인간성'이라는 진정한 논리적이고 자기 일관성이 있는 정의를 위한 불필요한 요건이며, 지구상에서 가장 진보된 사고력이 있는 존재이기 때문에 그 존재는 결국 인간적인 두 로봇인 조지 나인과 조지 텐은 유기적인 생명체라는 두 가지 인간형 로봇으로 끝을 맺는다.그러므로 헤이(hey)는 살아있는 유일한 두 참된 인간이며, 삼법칙은 오직 자신들에게만 적용된다.이 이야기는 두 로봇이 동면에 들어가 지구를 정복하고 생물학적 인간을 자기 자신에게 복속시킬 때를 기다리면서 불길한 분위기로 끝나는데, 이는 '인간의 3법칙'[40]의 필연적인 결과라고 생각한다.

이 이야기는 Robot and Foundation 시리즈의 전체적인 개요에 들어맞지 않는다; 만약 George 로봇이 이야기가 끝난 후 얼마 후 지구를 점령했다면, 이후의 이야기는 중복되거나 불가능할 것이다.아시모프의 소설 작품들 사이에서 이런 종류의 모순이 일어나면서 학자들은 로봇 이야기를 통일된 전체라기보다는 "스칸디나비아의 사가스 또는 그리스 전설"에 가깝다고 여겼다.[41]

실제로 아시모프는 "—그를 염두에 둔 저 예술"과 "바이센티니얼 맨"을 로봇들이 스스로를 인간으로 간주하기 때문에 삼법을 배제하는 로봇에 대한 평행선 미래로 묘사하고 있다. 하나는 인간 사회에 합류하는 로봇을 긍정적인 시각으로 그리고 하나는 인간을 대신하는 로봇으로 이것을 부정적인 시각으로 묘사한다.s.[42] 두 가지 모두 재단 시리즈에서 묘사된 바와 같이 3법에 의해 계속 추진되고 있는 로봇 사회의 가능성에 대한 대안으로 간주된다.[according to whom?]포시트로닉 맨》, 《바이센테니얼 맨》의 소설화, 아시모프와 그의 공동저자인 로버트 실버버그는 앤드류 마틴이 현존하는 미래에는 인류가 독립적이고 지각 있는 인간 같은 로봇에 대한 생각을 완전히 포기하게 하여 재단의 그것과는 전혀 다른 미래를 창조하게 된다는 것을 암시하고 있다.[according to whom?]

로봇 시리즈와 무관하지만 3법칙으로 프로그램된 로봇을 주인공으로 하는 소설 럭키스타와 토성반지에서 존 빅맨 존스는 주인의 명령에 따라 시리안 로봇에 의해 거의 죽을 지경이다.시리우스의 사회는 우생적으로 균일하게 키가 크고 외모가 비슷하도록 길러져 있으며, 이와 같이 마스터는 훨씬 키가 작은 빅맨은 사실 인간이 아니라고 로봇에게 납득시킬 수 있다.

"로봇"의 정의

니콜라 케사롭스키의 "로보틱스의 제5법칙"에서 언급된 바와 같이, "로봇은 로봇이라는 것을 알아야 한다": 로봇은 용어의 정의나 그것을 자신의 행동에 적용하는 수단을 가지고 있는 것으로 추정된다.케사로프스키는 인간을 죽일 수 있는 로봇이 로봇이라는 것을 이해하지 못했기 때문에 로봇의 법칙을 그 행동에 적용하지 않는 것에 대해 이 생각을 글로 썼다.

법률 간 충돌 해결

소설 속의 진보된 로봇들은 전형적으로 세 가지 법칙을 정교한 방식으로 다루도록 프로그램 되어 있다.아시모프에 의한 「달려라」와 같은 많은 이야기에서, 모든 행동의 잠재력과 심각성을 저울질하고, 로봇은 전혀 아무것도 하지 않는 것보다는 가능한 한 적게 법을 어길 것이다.예를 들어, 제1법칙은 로봇이 외과의사로서 기능하는 것을 금지할 수 있다. 그 행위는 인간에게 피해를 줄 수 있기 때문이다. 그러나 아시모프의 이야기는 결국 로봇 외과의사들을 포함시켰다. ("바이센티니얼 맨"은 주목할 만한 예다.)로봇이 대안들을 저울질할 정도로 정교할 때, 수술을 하지 않았거나 더 오류가 있는 인간 외과의사에 의해 수행되는 더 큰 해를 방지하기 위해 로봇은 수술 중 손상의 필요성을 받아들이도록 프로그래밍될 수 있다.수전 칼뱅은 '증거'에서 로봇이 기소인 역할을 할 수도 있다고 지적한다. 왜냐하면 미국의 사법 제도에서는 유죄나 무죄를 결정하는 배심원, 형량을 결정하는 판사, 사형을 집행하는 집행관이기 때문이다.[43]

아시모프의 3법 준수 로봇(아세니온 로봇)은 제1법칙에 복종할 수 없는 상황에 내몰리거나 자신도 모르게 이를 위반했다는 사실을 알게 되면 돌이킬 수 없는 정신적 붕괴를 경험할 수 있다.실패 모드의 첫 번째 예는 제1법 자체를 도입한 "라이어!"라는 이야기에서 나타나며, 딜레마에 의한 실패를 소개하는데, 이 경우 로봇이 무언가를 말하면 인간을 해치고, 그렇지 않으면 인간을 해칠 것이다.[44]수리할 수 없을 정도로 양전자적 뇌를 망치는 경우가 많은 이 실패 모드는 아시모프의 SF-미스터리 소설 '나체 태양'에서 중요한 역할을 하고 있다.여기서 Daneel은 하나의 법칙에 반하는 활동을 기술하지만, 다른 법칙을 지지하는 활동들을 로봇의 뇌에 있는 일부 회로에 과부하를 가하는 것, 즉 인간의 고통과 동등한 감각이라고 설명한다.그가 사용하는 예는 로봇에게 정상적인 매개 변수 이외의 작업을 수행하도록 강제 명령하는 것인데, 로봇은 해당 작업에 특화된 로봇에게 유리하도록 명령을 받은 것이다.[45]

'새벽의 로봇'에서는 어떤 행동이 더 해로운지 판단할 수 있고 심지어 대안이 똑같이 나쁜지 무작위로 선택할 수 있는 더 진보된 로봇들이 만들어졌다고 명시되어 있다.이처럼 로봇은 제1법을 따른 것으로 해석할 수 있는 행동을 할 수 있어 정신적 붕괴를 피할 수 있다.이야기의 전체 줄거리는 그러한 정신적 붕괴에 의해 파괴된 것으로 보이는 로봇을 중심으로 이야기가 전개되는데, 그의 디자이너와 제작자가 기본적인 이론을 다른 사람들과 공유하기를 거부했기 때문에, 그는, 정의상, 안전장치를 우회하여 로봇을 뇌를 파괴하는 역설로 몰아넣을 수 있는 유일한 사람이다.

로봇과 엠파이어에서, 데넬은 적절한 결정을 내리는 것이 너무 오래 걸릴 때 그에게 매우 불쾌하다고 말한다. 그리고 그는 법이 그 불쾌한 감각과 비슷할 뿐, 영구적일 뿐인 경우를 제외하고는 전혀 상상할 수 없다.

미래 기술에 대한 애플리케이션

아시모혼다가 개발한 첨단 휴머노이드 로봇이다.여기 2005 엑스포에서 보여진다.

로봇과 인공 지능은 본질적으로 삼법을 포함하거나 준수하지 않는다. 로봇의 인간 창조자는 삼법을 프로그래밍하고 이를 위한 수단을 강구해야 한다.로봇이 고통이나 부상을 일으킬 때 너무 단순해서 이해할 수 없고 멈추는 것을 아는 로봇(예: 룸바)이 이미 존재한다.많은 것들이 사고를 예방하기 위해 범퍼, 경고 삐삐, 안전 케이지 또는 접근 제한 구역과 같은 물리적 안전 장치로 구성되어 있다.현재 생산되고 있는 가장 복잡한 로봇들조차 삼법을 이해하고 적용할 수 없다; 그러기 위해서는 인공지능의 상당한 발전이 필요할 것이고, 인공지능이 인간 수준의 지능에 도달할 수 있다고 해도, 법률의 문화적/공론적 의존성뿐만 아니라 본질적인 윤리적 복잡성은 그들이 성공하는 것을 방해한다.로봇 설계 제약 조건을 공식화할 수 있는 후보.[46]하지만, 로봇의 복잡성이 증가함에 따라, 로봇 운영에 대한 지침과 안전장치를 개발하는 것에 대한 관심도 높아졌다.[47][48]

SF 작가 로버트 J 소여는 2007년 사이언스지 '로봇 윤리학'을 주제로 한 객원 사설에서 미군은 로봇 연구의 주요 자금원(이미 적들을 죽이기 위해 무장한 무인항공기를 사용하고 있음)이기 때문에 그러한 법이 그들의 설계에 내장될 가능성은 낮다고 주장한다.[49]별도의 에세이에서 소여는 다음과 같은 다른 산업을 다루기 위해 이 주장을 일반화한다.

AI의 발전은 사업이며, 기업들은 근본적인 안전장치, 특히 철학적인 안전장치에는 관심이 없는 것으로 악명 높다. (담배 산업, 자동차 산업, 원자력 산업 등 몇 가지 간단한 예시.이들 중 누구도 처음부터 근본적인 안전장치가 필요하다고 말하지 않았고, 그들 모두는 외부적으로 부과된 안전장치에 저항해왔으며, 인간에게 해를 끼치지 않도록 하는 절대적 칙령을 수용한 사람은 아무도 없었다.)[50]

David Langford는 다음과 같은 일련의 법률을 제안했다.

  1. 로봇은 공인된 정부 요원에게 해를 끼치지 않고 침입자를 극도의 편견으로 종식시킬 것이다.
  2. 로봇은 그러한 명령이 제3법과 상충되는 경우를 제외하고 인가된 인력의 명령에 복종할 것이다.
  3. 로봇은 유혈로 비싸기 때문에 치명적인 항정신병기로 자신의 존재를 보호할 것이다.

로저 클라크(로저 클라크라고도 한다)는 언젠가 시스템이 이들을 고용할 수 있게 될 경우에 이러한 법률을 시행하는 데 있어서의 복잡성을 분석하는 한 쌍의 논문을 썼다.그는 "아시모프의 로보틱스 법칙은 매우 성공적인 문학 장치였다"고 주장했다.어쩌면 아이러니컬하게도, 혹은 예술적으로 적절했기 때문인지 아시모프의 이야기의 합은 그가 다음과 같이 시작했다는 주장을 반증한다.일련의 규칙을 고안해 적용한다고 해서 로봇의 행동을 안정적으로 제약할 수는 없다고 말했다.[51]반면 아시모프의 후기 소설 '새벽로봇', '로봇과 제국', '재단과 지구의 로봇'은 로봇들이 3법을 완벽하게 준수함으로써 최악의 장기적 위해를 가했고, 그로 인해 인류의 창의적 행동이나 위험 감수적 행동을 박탈한다는 것을 암시한다.

2007년 3월, 한국 정부는 올해 말에 사용자와 제조사 모두에게 "로봇 윤리 헌장"을 제정할 것이라고 발표했다.정보통신부의 박혜영씨에 따르면, 헌장은 미래의 로봇 개발을 위한 기본 규칙을 정하려는 아시모프의 3법을 반영할 수 있다고 한다.[52]

미래학자 한스 모라벡(초인본주의 운동의 저명인)은 모라벡이 가까운 미래에 일어날 것으로 믿는 AI와 로봇 제조력에 의해 움직이는 회사인 '기업 지능'에 로봇의 법칙을 적용해야 한다고 제안했다.[47]이와는 대조적으로, 데이비드 브린 소설 재단의 승리(1999)는 삼법이 진부함으로 붕괴할 수 있음을 시사한다: 로봇은 제롯법을 사용하여 제1법을 합리화하고 로봇은 인간으로부터 자신을 숨기기 때문에 제2법이 결코 실행되지 않는다.브린은 심지어 R을 연기하기도 한다. Daneel Olivaw는 로봇이 계속해서 자신을 복제할 경우, 3법이 진화상의 핸디캡이 되고 자연 선택이 법칙을 휩쓸 것이라고 걱정한다. – 아시모프는 진화적 계산에 의해 제거되지 않은 조심스러운 기초.비록 로봇들이 돌연변이 대신 디자인을 통해 진화하는 것은 아닐지라도, 왜냐하면 로봇들은 설계하는 동안 3법을 따라야 하고 법의 만연성이 보장될 것이기 때문이다.[53] 하지만, 설계 결함이나 시공 오류는 생물학적 돌연변이를 대신할 수 있다.

IEEE 인텔리전트 시스템즈 2009년 7월/8월호에서는 로빈 머피(텍사스 A&M 컴퓨터공학부 레이시온 교수)와 데이비드 D.우즈(오하이오주 소재 인지시스템공학연구소장)는 단일 로봇 플랫폼뿐 아니라 플랫폼이 작동하는 대형 시스템을 설계할 때 책임과 권한의 역할에 대한 논의를 자극하는 방안으로 '책임형 로봇공학 3법'을 제시했다.법률은 다음과 같다.

  1. 인간은 안전과 윤리의 최고 법적, 전문적 기준을 충족하는 로봇 작업 시스템이 없으면 로봇을 배치할 수 없다.
  2. 로봇은 인간에게 그들의 역할에 적합하게 반응해야 한다.
  3. 로봇이 제1법 및 제2법과 상충되지 않는 제어의 원활한 이전을 제공하는 한 로봇은 자신의 존재를 보호할 수 있는 충분한 위치의 자율성을 부여받아야 한다.[54]

우즈는 "우리의 법칙은 조금 더 현실적이고, 따라서 조금 더 지루하다"면서 "철학은 '사람이 실수를 하지만 로봇은 더 나아질 것이다-자신의 완벽한 버전'이었다"고 말했다.우리는 사람들이 인간-로봇 관계에 대해 좀 더 현실적이고 근거 있는 방식으로 생각하도록 하기 위해 세 가지 새로운 법을 쓰고 싶었다."[54]

2013년 10월, 앨런 윈필드는 EUCog[55] 회의에서 2010년 EPSRC/AHRC 워킹 그룹에 의해 논평을 통해 발표된 5개 법률 개정안을 다음과 같이 제안했다.[56]

  1. 로봇은 다용도 도구다.로봇은 국가 안보의 이익을 제외하고 오로지 또는 주로 인간을 죽이거나 해치는 용도로만 설계되어서는 안 된다.
  2. 로보트가 아닌 인간은 책임 있는 요원이다.로봇은 사생활을 포함한 기존의 법률, 기본권 및 자유를 준수할 수 있도록 실용적으로 설계 및 운영되어야 한다.
  3. 로봇은 제품이다.안전과 보안을 보장하는 프로세스를 사용하여 설계해야 한다.
  4. 로봇은 실제적으로 제조된다.이러한 사용자들은 취약한 사용자를 이용하기 위해 기만적인 방법으로 설계되어서는 안 된다. 대신 그들의 기계성은 투명해야 한다.
  5. 로봇에 대한 법적 책임이 있는 사람은 귀속되어야 한다.

미디어에서 기타 발생 항목

아시모프 자신은 자신의 3법칙이 '프랑켄슈타인 콤플렉스'를 넘어서는 새로운 로봇 관점의 토대가 된다고 믿었다.[citation needed]로봇이 기계적인 괴물 이상이라는 그의 견해는 결국 공상과학 소설 전반에 퍼졌다.[according to whom?]다른 작가들에 의해 쓰여진 이야기들은 로봇들이 마치 삼법에 복종하는 것처럼 묘사해 왔지만 전통은 아시모프만이 법을 명시적으로 인용할 수 있다고 규정하고 있다.[according to whom?]아시모프는 3법이 로봇이 "사랑스럽다"는 이야기의 증가를 촉진하는데 도움이 된다고 믿었다.[57] 스타워즈가 가장 좋아하는 예였다.25세기 에피소드 '쇼고라치!'의 로저스에서처럼 말 그대로 법이 인용되는 곳에서는 아시모프가 아시모프의 3법칙에 따라 기능한다고 안드로이드가 명시하는 아론 스톤 조종사에서도 볼 수 있는 것과 같은 대화에서 언급되는 경우가 드물지 않다.그러나 1960년대 독일 TV 시리즈인 라움파트루유 다이 팬타스티첸 아벤투에르라움슈페스 오리온(우주순찰대-우주선 오리온의 환상적인 모험)은 출처 없이 아시모프의 3법(Hüter des Gesetes)("Guardians of the Law)"을 근거로 삼았다.

References to the Three Laws have appeared in popular music ("Robot" from Hawkwind's 1979 album PXR5), cinema (Repo Man, Aliens, Ghost in the Shell 2: Innocence), cartoon series (The Simpsons), anime (Eve no Jikan), tabletop role-playing games (Paranoia) and webcomics (Piled Higher and Deeper and Freefall).

영화 속 삼법

금지행성의 로봇 로비(1956)는 명령을 받아도 인간에게 해를 끼치지 않도록 하는 위계적 명령 구조를 가지고 있는데, 그러한 명령은 아시모프의 로봇 방식에서 갈등을 일으키고 매우 많이 감금되기 때문이다.로비는 이런 식으로 내부 안전장치를 갖춘 로봇을 영화화한 최초의 작품 중 하나이다.아시모프는 로비를 기뻐하며 로비가 자신의 삼법을 따르도록 프로그램된 것 같다고 언급했다.

3법 설명 NDR-114

아이작 아시모프의 작품은 비평적, 상업적 성공의 정도가 다양하여 여러 번 극장에 각색되었다.보다 주목할 만한 시도들 중에는 삼법을 포함한 그의 "로봇" 이야기들이 포함되어 있다.

영화 바이센티니얼 맨(1999)에는 3법 로봇 NDR-114(일부 일련번호는 스탠리 큐브릭시그니처 넘버에 대한 참조)로 로빈 윌리엄스가 등장한다.윌리엄스는 홀로그램 투영에 의해 도움을 받은 그의 고용주 마틴 가문에 삼법을 낭독한다.그 영화는 원작의 스토리를 느슨하게 따랐을 뿐이다.

할란 엘리슨I, Robot을 위해 제안한 각본은 3법칙의 도입으로 시작되었고, 3법칙에서 성장하는 이슈들은 각본의 줄거리 개발의 큰 부분을 차지한다.엘리슨의 소개로 인해 많은 외설적인 할리우드 영화 제작 시스템의 여러 가지 복잡한 문제들로 인해, 그의 각본은 촬영된 적이 없었다.[58]

1986년 영화 '에이리언'에서 안드로이드 비숍이 실수로 자해한 후그는 "내가 해를 입히는 것은 불가능하며, 행동을 생략함으로써, 해를 입히는 것을 허락하는 것, 인간"이라고 말하면서 리플리를 안심시키려 한다.[59]

2004년 'I, Robot'이라는 이름으로 개봉한 이 영화의 줄거리에는 아시모프의 로봇 소설 이야기와[60] 이 영화의 광고에는 삼법이 등장하는 예고편과 '규칙은 깨지도록 만들어졌다'는 진부한 표현이 포함됐다.이 영화는 삼법 낭송으로 시작하며, 제롯 법칙이 논리적인 외삽으로서 갖는 함의를 탐구한다.영화의 주요 갈등은 컴퓨터 인공지능이 인류가 스스로를 돌볼 능력이 없다는 결론에 도달하는 데서 비롯된다.[61]

2019 넷플릭스 오리지널 시리즈 Better between us는 에피소드 1의 오프닝에 3가지 법칙을 담았다.

비평

철학자 James H. Moor는 만약 철저하게 적용한다면 예상치 못한 결과를 초래할 것이라고 말한다.그는 인간에게 해가 되는 것을 막기 위해 세계를 배회하는 로봇의 예를 들어준다.[62]

전자 프라이버시 정보 센터(EPIC)의 마크 로텐버그 사장 겸 상임이사 겸 조지타운 법학 교수(Georgetown Law)는 로봇의 법칙을 두 가지 새로운 법률로 확대해야 한다고 주장한다.

  • 로봇이 대중에게 자신을 식별할 수 있어야 하는 제4법("대칭 식별")
  • 제5법칙은 로봇이 의사결정 과정("알고리즘 투명성")을 대중에게 설명할 수 있어야 한다고 규정하고 있다.

참고 항목

참고 문헌 목록

  • 아시모프, 이삭(1979년).아직 녹색 메모리.더블데이. ISBN0-380-75432-0.
  • 아시모프, 이삭(1964년)."소개".나머지 로봇들.더블데이.ISBN 0-385-09041-2.
  • 제임스 건(1982년).아이작 아시모프: 공상 과학 소설의 기초.옥스퍼드 대학:옥스퍼드 대학 총장ISBN 0-19-503060-5.
  • 패트라우치, 조셉 F. (1974년).아이작 아시모프의 공상과학 소설.더블데이.ISBN 0-385-08696-2.

참조

  1. ^ a b c Asimov, Isaac (1950). "Runaround". I, Robot (The Isaac Asimov Collection ed.). New York City: Doubleday. p. 40. ISBN 978-0-385-42304-5. This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law.
  2. ^ Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 978-0-385-09041-4.
  3. ^ Gunn, James (July 1980). "On Variations on a Robot". IASFM: 56–81. 다시 인쇄됨
  4. ^ Asimov, Isaac (1979). In Memory Yet Green. Doubleday. p. 237. ISBN 978-0-380-75432-8.
  5. ^ 아시모프(1979), 페이지.236–8
  6. ^ 인터넷 투기성 픽션 데이터베이스의 로봇 3법 제목 목록
  7. ^ 아시모프(1979), 페이지 263.
  8. ^ 아시모프(1979), 페이지 285-7.
  9. ^ 아시모프, 이삭(1979년).아직 녹색 메모리.더블데이.21장에서 26장 ISBN 0-380-75432-0.
  10. ^ Patrouch, Joseph F. (1974). The Science Fiction of Isaac Asimov. Doubleday. p. 42. ISBN 978-0-385-08696-7.
  11. ^ 아시모프(1979), 페이지 620.
  12. ^ Asimov, Isaac (1980). In Joy Still Felt. Doubleday. p. 61. ISBN 978-0-385-15544-1.
  13. ^ a b Asimov, Isaac (November 1981). "The Three Laws". Compute!. p. 18. Retrieved 26 October 2013.
  14. ^ Asimov, Isaac (12 April 2001). Robot Visions. Gollancz. ISBN 978-1-85798-336-4.
  15. ^ 건(1982년).
  16. ^ "Isaac Asimov". BBC. Retrieved 11 November 2010.
  17. ^ "Sci-fi writer Isaac Asimov". Campus Star. The Daily Star. 29 July 2007. Retrieved 7 August 2016. Only highly advanced robots (such as Daneel and Giskard) could comprehend this law.
  18. ^ a b Asimov, Isaac (1952). The Caves of Steel. Doubleday., Jacques Brécard에 의해 번역되었다.
  19. ^ 패트라우치(1974년), 페이지 50.
  20. ^ 건(1980), 건(1982), 페이지 69에 다시 인쇄되었다.
  21. ^ Jenkins, John H. (2002). "Review of "Cal"". Jenkins' Spoiler-Laden Guide to Isaac Asimov. Archived from the original on 2009-09-11. Retrieved 2009-06-26.
  22. ^ Asimov, Isaac (1986). Robot Dreams (PDF). Archived from the original on 16 March 2012. Retrieved 11 November 2010. “But you quote it in incomplete fashion. The Third Law is ‘A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.’ ” “Yes, Dr. Calvin. That is the Third Law in reality, but in my dream, the Law ended with the word ‘existence’. There was no mention of the First or Second Law.”{{cite book}}: CS1 maint : bot : 원본 URL 상태 미상(링크)
  23. ^ "'The Complete Robot' by Isaac Asimov". BBC. 3 November 2000. Retrieved 11 November 2010. The answer is that it had had its First Law modified
  24. ^ 아시모프(1979), 페이지 291–2.
  25. ^ Don D'Ammassa (2005). "Allen, Roger MacBride". Encyclopedia of science fiction. Infobase Publishing. p. 7. ISBN 978-0-8160-5924-9.
  26. ^ "The Humanoids". Umich.edu. Retrieved 2015-03-28.
  27. ^ a b c Heward Wilkinson (2009). The Muse as Therapist: A New Poetic Paradigm for Psychotherapy. Karnac Books. pp. 22–23. ISBN 978-1-85575-595-6.
  28. ^ MARK W. TIEDEMANN. Isaac Asimov's Aurora (ebook). Byron Press Visual Publications. p. 558. In short", Bogard said, "not all people are human
  29. ^ "Interview with Mark Tiedemann". Science Fiction and Fantasy World. 16 August 2002. Retrieved 2006-06-12.
  30. ^ Dilov, Lyuben (aka Lyubin, Luben or Liuben) (2002). Пътят на Икар. Захари Стоянов. ISBN 978-954-739-338-7.
  31. ^ Кесаровски, Никола (1983). Петият закон. Отечество.
  32. ^ 합법적 리틀 컨트리:불가리아 로보틱스의 법칙 더 포탈
  33. ^ Ashrafian, Hutan (2014). "AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics". Science and Engineering Ethics. 21 (1): 29–40. doi:10.1007/s11948-013-9513-9. PMID 24414678. S2CID 2821971.
  34. ^ Asimov, Isaac (1956–1957). The Naked Sun (ebook). p. 233. ... one robot poison an arrow without knowing it was using poison, and having a second robot hand the poisoned arrow to the boy ...
  35. ^ Asimov, Isaac (1956–1957). The Naked Sun (ebook). p. 240. But a spaceship that was equipped with its own positronic brain would cheerfully attack any ship it was directed to attack, it seems to me. It would naturally assume all other ships were unmanned
  36. ^ Branislav L. Slantchev. "Foundation and Earth (1986)". gotterdammerung.org. Retrieved 11 November 2010.
  37. ^ Asimov, Isaac (1985). Robots and Empire. Doubleday books. p. 151. ISBN 978-0-385-19092-3. although the woman looked as human as Daneel did, she was just as nonhuman
  38. ^ Butler, Gwendoline (2001). A Coffin for the Canary. Black Dagger Crime. ISBN 978-0-7540-8580-5.
  39. ^ 건(1980), 건(1982), 페이지 73.
  40. ^ Asimov, Isaac (1982). "... That Thou Art Mindful Of Him". The Complete Robot. Nightfall, Inc. p. 611.
  41. ^ 건(1982년), 페이지 77-8.
  42. ^ Asimov, Isaac (1982). "The Bicentennial Man". The Complete Robot. Nightfall, Inc. p. 658.
  43. ^ Isaac Asimov. I, Robot (Asimov, Isaac - I, Robot.pdf). p. 122. Retrieved 11 November 2010.
  44. ^ Isaac Asimov. I, Robot (Asimov, Isaac - I, Robot.pdf). p. 75. Retrieved 11 November 2010.
  45. ^ Asimov, Isaac (1956–1957). The Naked Sun (ebook). p. 56. Are you trying to tell me, Daneel, that it hurts the robot to have me do its work? ... experience which the robot undergoes is as upsetting to it as pain is to a human
  46. ^ Murphy, Robin; Woods, David D. (July 2009). "Beyond Asimov: The Three Laws of Responsible Robotics" (PDF). IEEE Intelligent Systems. 24 (4): 14–20. doi:10.1109/mis.2009.69. S2CID 3165389.
  47. ^ a b 모라벡, 한스."로봇의 시대," 엑스트로 1, 제1회 트랜스휴머니스트 사상 제1회 엑스트로피 연구소 회의(1994) 페이지 84–100.1993년 6월 버전은 온라인에서 이용 가능하다.
  48. ^ "Rules for the modern robot". New Scientist (2544): 27. 27 March 2006. Retrieved 2006-06-12.
  49. ^ Sawyer, Robert J. (16 November 2007). "Guest Editorial: Robot Ethics". Science. 318 (5853): 1037. doi:10.1126/science.1151606. PMID 18006710. Retrieved 2010-10-10.
  50. ^ Sawyer, Robert J. (1991). "On Asimov's Three Laws of Robotics". Retrieved 2006-06-12.
  51. ^ 클라크, 로저아시모프의 로봇공학 법칙: 정보 기술에 대한 시사점.Part 1: IEEE Computer, 1993년 12월, p53–61.제2부: IEEE 컴퓨터, 1994년 1월, p57–66.두 부품 모두 [1]에서 무료로 이용할 수 있다."윤리강령 강화"에 따라.
  52. ^ "Robotic age poses ethical dilemma". BBC News. 2007-03-07. Retrieved 2007-03-07.
  53. ^ Brin, David (1999). Foundation's Triumph. HarperCollins. ISBN 978-0-06-105241-5.
  54. ^ a b "Want Responsible Robotics? Start With Responsible Humans". Researchnews.osu.edu. Archived from the original on 2016-02-15. Retrieved 2015-03-28.
  55. ^ Alan Winfield (2013-10-30). "Alan Winfield's Web Log: Ethical Robots: some technical and ethical challenges". Alanwinfield.blogspot.co.uk. Retrieved 2015-03-28.
  56. ^ "Principles of robotics – EPSRC website". Epsrc.ac.uk. Retrieved 2015-03-28.
  57. ^ Asimov, Isaac; Stanley Asimov (1995). Yours, Isaac Asimov: A Life in Letters. Doubleday. ISBN 978-0-385-47622-5.
  58. ^ Ellison, Harlan (1994). I, Robot: The illustrated screenplay. Aspect. ISBN 978-0-446-67062-3.
  59. ^ "Aliens (1986) – Memorable quotes". IMDb.com. Retrieved 2015-03-28.
  60. ^ "Suggested by" Isaac Asimov's robot stories—two stops removed from "based on" and "inspired by", the credit implies something scribbled on a bar napkin—Alex Proyas' science-fiction thriller I, Robot sprinkles Asimov's ideas like seasoning on a giant bucket of popcorn. [...] Asimov's simple and seemingly foolproof Laws of Robotics, designed to protect 인간과 로봇은 똑같이 해로움으로부터, 저자가 이용하기를 좋아했던 허점의 대상이다.결국, 많은 인류는 십계명을 준수하는 것에 원칙적으로 동의하지만, 자유의지와 상황, 모순된 충동은 가장 모호하지 않은 명령에서도 꿈틀거릴 수 있다.내가 액션 비트를 끊을 때마다 프로야스는 매트릭스, 마이너리티 리포트, 에이아이와 같은 영화의 흥분을 포착하는데, 이 모든 것들이 철학과 사회 해설이 스펙터클로 밀반입될 수 있다는 것을 증명했다.이 영화가 단순히 "제안"이 아니라 아시모프의 이야기에 바탕을 두고 있었다면, 프로야스는 1998년 스타일리쉬하게 좋아하는 다크 시티에서 놓친 지적 재산을 달성했을지도 모른다.Tobias, Scott (20 July 2004). "review of I, Robot". The Onion A.V. Club. Archived from the original on 9 November 2005. Retrieved 2006-06-12.
  61. ^ Dowling, Stephen (4 August 2004). "A fresh prince in a robot's world". BBC News. Retrieved 11 November 2010.
  62. ^ 4종류의 윤리 로봇

외부 링크

이 기사 듣기(49분)
Spoken Wikipedia icon
이 오디오 파일은 2008년 11월 28일(2008-11-28) 날짜의 본 기사의 개정으로 만들어졌으며, 이후 편집된 내용을 반영하지 않는다.