도덕적 기관

Moral agency

도덕적 기관옳고 그름에 대한 어떤 관념에 기초하여 도덕적 판단을 내리고 이러한 행동에 대해 책임을 질 수 있는 개인의 능력이다.[1] 도덕적 대리인은 "시선과 그름을 참고로 행동할 수 있는 존재"[2]이다.

개발 및 분석

대부분의 철학자들사리사욕적인 판단을 내릴 수 있는 이성적인 존재만이 도덕적 행위자가 될 수 있다고 제안한다. 일부 사람들은 제한된 합리성을 가진 사람들(예를 들어, 가벼운 정신 장애자나 유아인[1])도 기본적인 도덕적 능력을 가지고 있다고 제안한다.[3]

결정론자들은 우리의 모든 행동이 선행 원인의 산물이라고 주장하고 있으며, 어떤 이들은 이것자유의지와 양립할 수 없다고 믿고 있기 때문에 우리의 행동에 대한 실질적인 통제권이 없다고 주장한다. 임마누엘 칸트는 우리의 진짜 자아인 누메날적 자아(noumenal self)가 선택할 수 있든 없든, 우리는 선택을 할 때 자유롭게 선택한다고 믿을 수밖에 없다고 주장했다. 이것은 우리가 우리의 행동의 영향을 통제할 수 있다는 것을 의미하지 않는다. 일부 인도주의자들은 우리에게도 자유의지가 없다고 주장할 것이다. 만약 인간의 행동에 관해서, 소위 '원인'이라고 불리는 것이 불분명하게 많은 수의 가능성, 소위 '효과'를 초래한다면, 그것이 그 사람이 그 '효과'를 선택하려는 자유사상 독립적 의지를 가졌다는 것을 의미하지는 않는다. 더욱 그럴 가능성이 높은 것은 '원인' 당시 그의 우연 유전학, 우연 경험, 우연 상황의 불확실한 결과였다.

칸트의 철학에서 이것은 믿음의 행위를 요구하는데, 신앙의 자유계약자는 아직 알려지지 않은 선험적 또는 중요하지 않은 것에 기초하고 있다. 그렇지 않으면 자유계약자의 선험적 근원이 없다면 정의와 같은 인간의 마음에서 창조된 사회적으로 필수적인 개념들이 훼손될 것이고(책임은 선택의 자유를 의미한다), 요컨대 문명과 인간의 가치는 붕괴될 것이다.

도덕관리의 사상과 죄의식을 뜻하는 멘스 레아법률적 교리를 비교하는 것이 유용하며, 자신이 무엇을 하고 있는지 알아야 하는 한 사람은 자신이 하는 일에 대해 법적 책임이 있으며, 그의 선택은 고의적이라고 진술한다. 어떤 이론가들은 정신 상태를 평가하려는 시도를 포기하고 대신 엄격한 책임의 원칙을 채택한다. 이 교리는 사람은 능력과 무관하게 법에 따라 책임을 져야 하며, 만약 있다면 처벌의 정도를 결정하는 것이다. 도덕적 결정론자들은 거의 비슷한 관점을 채택할 것이다.

심리학자 Albert Bandura는 도덕적 행위자들이 그들 자신의 비인간적인 행위에 대해 선별적인 도덕적 해이에 관여한다는 것을 관찰했다.[4]

도덕적 기관과 도덕적 인내심의 구별

철학자들은 도덕적 행위자, 도덕적 배려를 받을 자격이 있는 실체와 도덕적 환자들을 구별한다. 칸트와 같은 많은 철학자들은 도덕을 이성적인 정당들 간의 거래, 즉 도덕적 행위자간의 거래로 본다. 이러한 이유로, 그들은 도덕적 고려에서 다른 동물들을 제외할 것이다. 제레미 벤담이나 피터 싱어와 같은 다른 공리주의 철학자들은 도덕 공동체에 포함시키는 열쇠는 합리성이 아니라고 주장해 왔다. 만약 그렇다면, 우리는 일부 장애인과 유아들을 배제해야 할 수도 있고, 건강한 성인의 합리성의 정도를 구별해야 할 수도 있지만, 도덕의 진정한 목적도 있다. 행동은 고통을 피하는 것이다. 이것은 한계 사례에서 나온 주장이다.

인위적 도덕적 행위자

인위적인 도덕 기관의 논의는 몇 가지 주요 아이디어에 초점을 맞춘다. 첫 번째 논의는 인공 시스템이 도덕적 행위자가 되는 것이 가능한지에 관한 것이다 - 인공 시스템과 도덕적 책임을 보는 것이다. 두 번째 논의는 윤리적으로 중요한 행동인 기계 윤리를 참조하는 기계를 건설하려는 노력에 관한 것이다. 마지막으로, 로봇이 도덕적 대리인으로 구성되어야 하는지에 대한 논쟁이 있다. 이러한 생각들 사이의 적절한 구별은 그 자체가 논쟁의 핵심이 되어 왔다.

연구에 따르면 인간은 로봇을 다양한 수준의 도덕적 대리점을 가진 것으로 인식하고 있으며, 그러한 인식은 (1) 로봇의 도덕적 능력에 대한 아이디어(선하거나 악한)와 (2) 로봇의 (높은 의존성이 낮은 대리점을 의미하는) 프로그래밍에 의존하는 아이디어의 두 가지 형태로 나타날 수 있다.[5] 로봇은 인간보다 그들의 도덕적인 행동에 더 많은 책임을 진다.[6]

참고 항목

메모들

  1. ^ Jump up to: a b Angus, Taylor (2003). Animals & Ethics: An Overview of the Philosophical Debate. Peterborough, Ontario: Broadview Press. p. 20.
  2. ^ "도덕" 웹스터는 1913년, 페이지 943을 수정하지 않은 사전으로 수정했다.
  3. ^ Hargrove, Eugene C., ed. (1992). The Animal Rights, Environmental Ethics Debate: The Environmental Perspective. Albany: State Univ. of New York Press. pp. 3–4. ISBN 978-0-7914-0933-6.
  4. ^ Bandura, Albert (June 2002). "Selective Moral Disengagement in the Exercise of Moral Agency". Journal of Moral Education. 31 (2): 101–119. CiteSeerX 10.1.1.473.2026. doi:10.1080/0305724022014322. S2CID 146449693.
  5. ^ Banks, Jaime (2019-01-01). "A perceived moral agency scale: Development and validation of a metric for humans and social machines". Computers in Human Behavior. 90: 363–371. doi:10.1016/j.chb.2018.08.028. ISSN 0747-5632.
  6. ^ Banks, Jaime (2020-09-10). "Good Robots, Bad Robots: Morally Valenced Behavior Effects on Perceived Mind, Morality, and Trust". International Journal of Social Robotics. doi:10.1007/s12369-020-00692-3. ISSN 1875-4805.

참조

외부 링크