로봇공학의 법칙
Laws of robotics로봇공학의 법칙 |
---|
로봇 3법칙 아이작 아시모프 지음 (문화권) |
관련 토픽 |
로보틱스의 법칙은 자율성을 갖도록 설계된 로봇의 행동을 뒷받침하는 기본 프레임워크로 의도된 일련의 법칙, 규칙 또는 원칙입니다.이 정도 복잡한 로봇은 아직 존재하지 않지만 공상과학소설, 영화 등에서 널리 기대되고 있으며 로봇과 인공지능 분야에서 활발한 연구개발의 주제이다.
가장 잘 알려진 법칙 세트는 1940년대에 아이작 아시모프에 의해 쓰여졌거나, 혹은 그것들을 바탕으로 한 것이지만, 그 이후 수십 년 동안 연구자들에 의해 다른 법칙들이 제안되어 왔다.
아이작 아시모프의 로봇 3법칙
가장 잘 알려진 법칙은 아이작 아시모프의 "로봇의 3가지 법칙"이다.이것들은 1942년 그의 단편소설 "Runaround"에서 소개되었지만, 몇 개의 초기 이야기에서 암시되었다.3가지 법칙은 다음과 같습니다.
- 로봇은 사람을 다치게 하거나, 부작위로 사람을 다치게 해서는 안 된다.
- 로봇은 인간의 명령에 복종해야 한다.단, 그러한 명령이 제1법칙과 상충되는 경우는 예외이다.
- 로봇은 그러한 보호가 제1법칙 [1]또는 제2법칙과 충돌하지 않는 한 자신의 존재를 보호해야 합니다.
The Evable Conflict에서 기계는 제1법칙을 다음과 같이 일반화합니다.
- "어떤 기계도 인류를 해칠 수 없으며, 무활동으로 인해 인류를 해칠 수도 없습니다."
이것은 Foundation and Earth의 마지막에 개선되었고, 원래의 세 가지 법칙은 그에 종속된 것으로 적절히 고쳐졌다.
- 0. 로봇은 인류를 해칠 수 없으며, 부작위로 인류를 해칠 수 없다.
적응과 확장은 이 프레임워크를 기반으로 존재합니다.2021년 현재, 그것들은 "가상 장치"[2]로 남아 있다.
EPSRC/AHRC 로봇 원리
2011년, 영국의 공학 및 물리 과학 연구 위원회(EPSRC)와 예술 및 인문 연구 위원회(AHRC)는 2010년 9월에 전달하고자 하는 7개의 "로봇 설계자, 구축자 및 사용자를 위한 5가지 윤리 원칙"과 함께 실제 세계에서 전달하고자 하는 7가지 "고급 메시지"를 공동으로 발표했다.검색 워크숍:[2][3][4]
- 로봇은 인간을 죽이거나 해치기 위해서만 또는 주로 설계되어서는 안 된다.
- 로봇이 아닌 인간이 책임 있는 대리인이다.로봇은 인간의 목표를 달성하기 위해 고안된 도구이다.
- 로봇은 안전과 안전을 보장하는 방식으로 설계되어야 한다.
- 로봇은 인공물이므로 감정적인 반응이나 의존성을 유발하여 취약한 사용자를 이용하도록 설계되어서는 안 됩니다.로봇과 인간을 구분하는 것은 항상 가능해야 한다.
- 로봇에 대한 법적 책임이 누구에게 있는지 알아내는 것은 항상 가능해야 한다.
전달하고자 하는 메시지는 다음과 같습니다.
- 우리는 로봇이 사회에 엄청난 긍정적인 영향을 줄 수 있는 잠재력을 가지고 있다고 믿는다.우리는 책임감 있는 로봇 연구를 장려하고 싶다.
- 나쁜 습관은 우리 모두에게 상처를 준다.
- 명백한 대중의 우려에 대처하는 것은 우리 모두가 진전을 이루는데 도움이 될 것이다.
- 로봇 공학자로서 우리는 가능한 한 최선의 실천 기준에 전념하고 있다는 것을 증명하는 것이 중요합니다.
- 연구의 맥락과 결과를 이해하기 위해서는 사회과학, 법률, 철학, 예술 등 다른 분야의 전문가들과 협력해야 합니다.
- 우리는 투명성의 윤리를 고려해야 한다: 공공연하게 이용할 수 있는 것에는 한계가 있는가?
- 언론에서 잘못된 기사를 발견하면, 우리는 시간을 들여 보도 기자들과 접촉할 것을 약속합니다.
EPSRC 원칙은 유용한 출발점으로 널리 인식되고 있다.2016년에 Tony Prescott은 이러한 원칙을 수정하기 위한 워크숍을 조직했습니다. 예를 들어, 윤리와 법적 [5]원칙을 구별하기 위한 것입니다.
사법 발전
로보틱스 산업의 기술 발전에 대한 법적 평가를 위한 또 다른 포괄적인 용어 코드화는 아시아 국가들을 [6]중심으로 이미 시작되었다.이러한 진보는 로봇 공학 분야에서 법률(및 윤리)의 현대적 재해석을 나타내며, 이는 전통적인 법적 별자리를 재고하는 것을 전제로 한 해석이다.여기에는 주로 민법과 형법의 법적 책임 문제가 포함됩니다.
사티아 나델라의 법칙
2016년 6월 Microsoft Corporation의 CEO인 Satya Nadella는 Slate 매거진과 인터뷰를 갖고 인공지능의 [7][8]설계자가 준수해야 할 6가지 규칙을 대략적으로 설명했습니다.
- A.I.는 인류를 돕기 위해 설계되어야 한다. 즉, 인간의 자율성이 존중되어야 한다는 것이다.
- "A.I.는 투명해야 한다"는 것은 인간이 그들이 어떻게 일하는지를 알고 이해할 수 있어야 한다는 것을 의미한다.
- AI는 인간의 존엄성을 훼손하지 않고 효율성을 극대화해야 한다.
- "A.I.는 지능적인 프라이버시를 위해 설계되어야 한다"는 것은 그들의 정보를 보호함으로써 신뢰를 얻는다는 것을 의미한다.
- "인간이 의도하지 않은 해를 되돌릴 수 있도록 AI는 알고리즘적인 설명 책임을 가져야 한다."
- "A.I.는 편견을 경계해야 한다" 그래서 그들은 사람들을 차별하지 말아야 한다.
Tilden의 "로봇의 법칙"
Mark W. Tilden은 간단한 로봇 공학 [9]개발의 선구자였던 로봇 물리학자이다.로봇에 대한 그의 세 가지 지침 원칙/규칙은 다음과 같습니다.[9][10][11]
- 로봇은 어떤 대가를 치르더라도 자신의 존재를 보호해야 한다.
- 로봇은 자체 전원에 대한 액세스를 확보하고 유지해야 합니다.
- 로봇은 계속해서 더 나은 동력원을 찾아야 한다.
이 세 가지 규칙에서 주목할 점은 기본적으로 이것들은 "야생"을 위한 규칙이기 때문에, 틸든은 본질적으로 그가 원했던 것은 "실리콘 종을 지각으로 바꾸는 것"이었지만, 규격을 완전히 통제하는 것이었다는 것이다.식물이 아니다.동물 말고.뭔가 다른 [12]게 있어요.
「 」를 참조해 주세요.
레퍼런스
- ^ Asimov, Isaac (1950). I, Robot.
- ^ a b Stewart, Jon (2011-10-03). "Ready for the robot revolution?". BBC News. Retrieved 2011-10-03.
- ^ "Principles of robotics: Regulating Robots in the Real World". Engineering and Physical Sciences Research Council. Retrieved 2011-10-03.
- ^ Winfield, Alan. "Five roboethical principles – for humans". New Scientist. Retrieved 2011-10-03.
- ^ Müller, Vincent C. (2017). "Legal vs. ethical obligations – a comment on the EPSRC's principles for robotics". Connection Science. doi:10.1080/09540091.2016.1276516.
- ^ bcc.co.uk: 로봇의 시대는 윤리적 딜레마를 야기한다.링크
- ^ Nadella, Satya (2016-06-28). "The Partnership of the Future". Slate. ISSN 1091-2339. Retrieved 2016-06-30.
- ^ Vincent, James (2016-06-29). "Satya Nadella's rules for AI are more boring (and relevant) than Asimov's Three Laws". The Verge. Vox Media. Retrieved 2016-06-30.
- ^ a b Hapgood, Fred (September 1994). "Chaotic Robotics". Wired. No. 2.09.
- ^ 애슐리 던."머신 인텔리전스, 파트 2: 범퍼 카에서 전자 마인드로" 뉴욕 타임즈 1996년 6월 5일.2009년 7월 26일 취득.
- ^ makezine.com: BEAM 초보자 가이드 (기사의 대부분은 구독 전용 콘텐츠입니다.)
- ^ Hapgood, Fred (September 1994). "Chaotic Robotics (continued)". Wired. No. 2.09.