인공지능 윤리학
Ethics of artificial intelligence시리즈의 일부 |
인공지능 |
---|
인공지능의 윤리는 인공지능 시스템에 [1]특화된 기술 윤리의 한 분야이다.그것은 때때로 인간이 인공 지능 시스템을 설계하고, 만들고, 사용하고, 다루는 도덕적인 행동에 대한 우려와 기계 윤리에 있어서 기계의 행동에 대한 우려로 나뉜다.슈퍼인텔리전트 AI로 인해 발생할 수 있는 특이성 문제도 포함된다.
윤리 분야의 접근법
로봇 윤리
"로봇 윤리"라는 용어는 인간이 로봇을 [2]설계, 제작, 사용하고 다루는 방법에 대한 도덕성을 말한다.로봇 윤리는 인공지능 윤리와 교차한다.로봇은 물리적 기계인 반면 AI는 소프트웨어일 [3]뿐이다.모든 로봇이 인공지능 시스템을 통해 작동하는 것은 아니며 모든 인공지능 시스템이 로봇인 것은 아니다.로봇 윤리는 기계가 인간에게 해를 끼치거나 이익을 주기 위해 어떻게 사용될 수 있는지, 그것이 개인의 자율성에 미치는 영향, 그리고 그것이 사회 정의에 미치는 영향을 고려합니다.
기계윤리
기계윤리(또는 기계도덕)는 도덕적으로 또는 [4][5][6][7]도덕적으로 행동하는 인공모럴에이전트(AMA), 로봇 또는 인공지능형 컴퓨터를 설계하는 것과 관련된 연구 분야입니다.이러한 에이전트의 특성을 설명하기 위해 AMA의 [8]개념과 관련된 에이전시, 합리적 에이전시, 도덕적 에이전시 및 인위적인 에이전시의 표준 특성화 등 특정 철학적 아이디어를 고려할 것을 제안했다.
아이작 아시모프는 1950년대 그의 로봇에서 이 문제를 고려했다.그의 편집자 존 W. 캠벨 주니어의 주장으로, 그는 인공지능 시스템을 지배하기 위한 3가지 로봇 법칙을 제안했다.그의 연구의 대부분은 그의 세 가지 법칙의 경계선이 어디서 무너질지, 또는 역설적이거나 예상치 못한 행동을 어디서 만들어낼지 알아보기 위해 시험하는 데 쓰였다.그의 연구는 어떤 고정된 법칙도 가능한 모든 [9]상황을 충분히 예상할 수 없다는 것을 암시한다.최근 학계와 많은 정부는 AI가 그 자체로 책임을 [10]질 수 있다는 생각에 이의를 제기하고 있다.2010년 영국에서 소집된 위원회는 AI가 제조사 또는 소유주/[11]운영자의 책임이라는 것을 명확히 하기 위해 아시모프의 법을 개정했다.
2009년에는 연구소 지능형 시스템의 에콜 폴리 Fédérale 스위스의 로잔에서 실험에서 서로 협력하도록 프로그램 되어 있는 로봇(그리고 유독 하나를 피하고 유익한 자원을 찾는 것에)결국 서로에게 유익한 자원을 사재기에 눕는 것을 배웠다.[12]
일부 전문가들과 학계에서는 군사 전투, 특히 로봇에 [13]어느 정도의 자율 기능이 주어질 때 로봇을 사용하는 것에 대해 의문을 제기하고 있다.미 해군은 군사 로봇이 복잡해짐에 따라 자율적인 [14][15]결정을 내릴 수 있는 능력에 대한 더 많은 관심이 있어야 한다는 보고서를 작성했다.인공 지능 발전 협회의 회장은 이 [16]문제를 연구하기 위한 연구를 의뢰했다.그들은 인간의 상호작용을 모방할 수 있는 Language Acquisition Device와 같은 프로그램을 지적합니다.
Vernor Vinge는 일부 컴퓨터가 인간보다 더 똑똑해지는 순간이 올 수도 있다고 제안했다.그는 이것을 "특이점"[17]이라고 부른다.그는 그것이 인간에게 [18]다소 또는 어쩌면 매우 위험할 수도 있다고 암시한다.이것은 단수주의라고 불리는 철학에 의해 논의된다.기계지능연구소는 "친환경 AI"를 구축할 필요성을 제시했는데, 이는 AI와 함께 이미 일어나고 있는 진보에는 AI를 본질적으로 친근하고 [19]인간적으로 만들기 위한 노력도 포함되어야 한다는 것을 의미한다.
AI가 윤리적인 결정을 내릴 수 있는지 확인하기 위한 테스트를 만드는 것에 대한 논의가 있다.앨런 윈필드는 튜링 테스트에 결함이 있고 인공지능이 테스트를 통과하기 위한 요건이 너무 [20]낮다고 결론지었다.제안된 대안 테스트는 윤리적 튜링 테스트라고 불리는 것으로, AI의 결정이 윤리적인지 [20]비윤리적인지를 여러 명의 판사가 결정하도록 함으로써 현재의 테스트보다 개선될 것이다.
2009년에는 로봇과 컴퓨터가 자급자족할 수 있고 스스로 결정을 내릴 수 있다는 가정적 가능성의 영향과 잠재적인 영향에 대해 논의하기 위해 인공지능 발전 협회가 주최한 회의에 학계와 기술 전문가들이 참석했다.그들은 컴퓨터와 로봇이 어떤 수준의 자율성을 획득할 수 있는 가능성과 정도, 그리고 위협이나 위험을 가하기 위해 그러한 능력을 어느 정도까지 사용할 수 있는지에 대해 논의했다.그들은 일부 기계들이 스스로 동력원을 찾을 수 있고 무기로 공격할 대상을 독립적으로 선택할 수 있는 등 다양한 형태의 반자율성을 획득했다고 언급했다.그들은 또한 일부 컴퓨터 바이러스들이 제거를 피할 수 있고 "닭발톱 지능"을 달성했다고 언급했다.그들은 공상 과학 소설에서 묘사된 자기 인식은 아마도 가능성이 낮지만, 다른 잠재적 위험과 [17]함정이 있었다고 언급했다.
하지만, 도덕적인 능력을 가진 로봇의 가능성을 현실로 가져올 수 있는 특별한 기술이 있다.로봇에 의한 도덕적 가치 획득에 관한 논문에서 나예프 알 로단은 인간과 유사한 정보를 비선형적으로 그리고 수백만 개의 상호 연결된 인공 [21]뉴런으로 처리하는 것을 목표로 하는 뉴로모픽 칩의 경우를 언급하고 있다.뉴로모픽 기술을 내장한 로봇은 인간 특유의 방식으로 지식을 배우고 개발할 수 있다.필연적으로, 이러한 로봇들이 세상에 대해 배우고, 누구의 도덕성을 물려받을 것인가, 혹은 인간의 '약점'을 발전시킬 것인가에 대한 의문이 제기된다: 이기심, 생존에 찬성하는 태도, 망설임 등.
Moral Machine: Wendell [22]Wallach와 Colin Allen은 옳고 그름으로부터 로봇을 가르치려는 시도가 현대 규범 이론의 차이를 다루도록 동기를 부여하고 실험적인 조사를 위한 발판을 제공함으로써 인간 윤리에 대한 이해를 증진시킬 것이라고 결론지었다.한 예로, 그것은 어떤 특정 학습 알고리즘을 기계에서 사용해야 하는지에 대한 논란이 많은 문제에 규범 윤리학자들을 소개했습니다.사정 나무로는 신경 네트워크와 유전 알고리즘에 대한, 크리스 Santos-Lang은 반대 방향에서는 모든 연령의 규범이 되어야 하는 이유로 주장했습니다 결정 나무들 투명성 및 예측 가능성(예를 들어 선례 구속성의 원리)[23]의 현대의 사회적 규범을 지키에(ID3 같은)닉 Bostrom과 엘리에셀 Yudkowsky 주장해 왔다.알변화에 약하고 이러한 특정한 규범을 완전히 만족시키지 못하는 자연적 실패는 인간을 범죄 "사기"[24]에 덜 취약하게 만드는 데 필수적이었다.
옥스퍼드대 AI 거버넌스 센터의 2019년 보고서에 따르면 미국인의 82%가 로봇과 AI를 세심하게 관리해야 한다고 믿고 있다.지적된 우려는 AI가 감시와 온라인 가짜 콘텐츠(AI의 도움을 받아 만들어진 조작된 영상과 오디오를 포함하면 딥 페이크라고 함)에 어떻게 사용되는지에서부터 사이버 공격, 데이터 프라이버시 침해, 고용 편향, 무인 자동차, 그리고 사람의 조종이 [25]필요 없는 드론에 이르기까지 다양했다.
인공지능 윤리원칙
AI[26] 11개 원칙에 대한 84개 윤리 지침의 검토에서 투명성, 정의와 공정성, 비악의성, 책임, 사생활, 혜택, 자유와 자율성, 신뢰, 지속 가능성, 존엄성, [26]연대 등이 발견되었다.
Luciano Floridi와 Josh Cowls는 생명윤리의 4가지 원칙(유익성,[27] 비악성, 자율성 및 정의)과 추가적인 AI 가능 원칙인 설명성으로 설정된 AI 원칙의 윤리 프레임워크를 만들었습니다.
투명성, 설명 책임 및 오픈 소스
빌 히바드는 AI가 인류에 지대한 영향을 미칠 것이기 때문에 AI 개발자는 미래의 인류의 대표자이며,[28] 따라서 그들의 노력에 있어 투명해야 할 윤리적 의무가 있다고 주장한다.벤 고첼과 데이비드 하트는 AI [29]개발을 위한 오픈 소스 프레임워크로 OpenCog를 만들었습니다.오픈AI는 [30]일론 머스크, 샘 알트먼 등이 인류에 유익한 오픈소스 AI 개발을 위해 만든 비영리 AI 연구회사다.그 밖에도 수많은 오픈 소스 AI가 개발되고 있다.
안타깝게도 코드를 오픈 소스로 만든다고 해서 이해할 수 있는 것은 아니며, 이는 많은 정의에서 AI 코드가 투명하지 않다는 것을 의미합니다.IEEE는 AI의 [31]투명성에 대한 표준화 노력을 하고 있다.IEEE의 대처에 의해, 다양한 유저에 대해서 복수의 투과 척도가 식별됩니다.또한 일부 조직에 현대 AI의 전체 용량을 공개하는 것은 공공의 나쁜 일, 즉 득보다 실이 많을 수 있다는 우려도 있다.예를 들어, 마이크로소프트는 심지어 돈을 지불할 수 있는 사람들에게도 얼굴 인식 소프트웨어에 대한 보편적인 접근을 허용하는 것에 대해 우려를 표명했다.마이크로소프트는 이 주제에 대한 특별한 블로그를 게시하여 올바른 [32]일을 결정하는 데 도움이 되는 정부 규제를 요청했습니다.
기업뿐만 아니라 많은 다른 연구원들과 시민 옹호자들은 투명성을 보장하고 이를 통해 인간의 책임을 보장하는 수단으로 정부 규제를 추천한다.이 전략은 혁신 속도를 늦출 수 있다는 우려 때문에 논란이 되고 있습니다.다른 사람들은 규제가 장기적으로 [33]혁신을 지원할 수 있는 시스템 안정성을 이끈다고 주장한다.OECD, UN, EU, 그리고 많은 나라들은 현재 AI를 규제하고 적절한 법적 [34][35][36]틀을 찾기 위한 전략을 세우고 있다.
2019년 6월 26일, 유럽연합 집행위원회 인공지능 고위급 전문가 그룹(AI HLEG)은 "신뢰할 수 있는 인공지능을 위한 정책과 투자 권고"[37]를 발표했다.2019년 4월 '신뢰할 수 있는 AI를 위한 윤리 지침'이 발표된 이후 AI HLEG의 두 번째 성과물이다.6월 AI HLEG 권고안은 인간과 사회 전반, 연구 및 학계, 민간 부문, 공공 부문 등 4가지 주요 주제를 다룬다.유럽위원회는 "HLEG의 권고는 경제성장과 번영, 혁신을 견인할 수 있는 AI 기술의 기회와 관련된 잠재적 위험에 대한 인식을 반영하고 있다"고 주장하며 [38]EU는 국제적으로 AI를 지배하는 정책의 틀을 선도하는 것을 목표로 하고 있다고 밝히고 있다.피해를 막기 위해서는 규제뿐만 아니라 신뢰할 수 있는 AI의 원칙에 따라 신뢰할 수 있는 AI를 만들고 구축하는 데 중심적인 역할을 하고 위험을 [39]완화하는 책임을 져야 한다.
윤리적 과제
AI 시스템의 편견
AI는 얼굴과 음성 인식 시스템에 점점 더 내재되어 있다.이러한 시스템 중 일부는 실제 비즈니스 애플리케이션을 가지고 있으며 사람들에게 직접적인 영향을 미칩니다.이러한 시스템은 인간 창조자에 의해 도입된 편견과 오류에 취약합니다.또한 이러한 AI 시스템을 훈련시키는 데 사용되는 데이터 자체가 [40][41][42][43]편견을 가질 수 있다.예를 들어, 마이크로소프트, IBM, Face++가 만든 얼굴 인식 알고리즘은 모두 [44]사람들의 성별을 감지하는 데 있어 편견을 가지고 있었다. 이러한 AI 시스템은 어두운 피부 남성의 성별보다 백인 남성의 성별을 더 정확하게 감지할 수 있었다.또한, 2020년 아마존, 애플, 구글, IBM, 마이크로소프트의 음성 인식 시스템을 검토한 결과, 흑인의 목소리를 백인의 [45]목소리보다 번역할 때 오류율이 더 높은 것으로 나타났다.게다가, 아마존은 알고리즘이 여성 후보보다 남성 후보자를 선호한다는 이유로 AI 채용과 채용을 중단했다.이는 아마존의 시스템이 주로 남성 [46]후보자들로부터 10년 동안 수집된 데이터로 훈련되었기 때문이다.
편견은 알고리즘에 여러 가지 방법으로 침투할 수 있다.예를 들어, Friedman과 Nissenbaum은 컴퓨터 시스템에서 기존의 편견, 기술적 편견 및 비상적 [47]편견의 세 가지 범주를 식별합니다.자연어 처리에서는 알고리즘이 다른 단어 간의 관계를 학습하기 위해 사용하는 소스 [48]자료인 텍스트 말뭉치에서 문제가 발생할 수 있습니다.
IBM, 구글 등과 같은 대기업들은 이러한 [49][50][51]편견을 연구하고 해결하기 위해 노력해왔다.편견을 해소하기 위한 한 가지 솔루션은 AI [52][53]시스템을 훈련하는 데 사용되는 데이터에 대한 문서를 작성하는 것입니다.프로세스 마이닝은 오류, 프로세스 감시, 부적절한 실행의 잠재적인 근본 원인 특정 및 기타 [54]기능을 통해 제안된 AI 규정을 준수하기 위한 중요한 도구가 될 수 있습니다.
기술이 의학이나 법률과 같은 중요한 분야로 확산되고 깊은 기술적 지식이 없는 사람들이 이를 도입해야 하는 상황이 늘어나면서 기계학습의 편향 문제는 더욱 심각해질 것으로 보입니다.일부 전문가들은 알고리즘 편견이 이미 많은 산업에 만연해 있으며 [55]이를 식별하거나 수정하려는 노력을 기울이는 사람은 거의 없다고 경고합니다.편향된 AI에 대한 인식을 높이기 위해 시민사회가 제공하는 오픈 소스 툴이 있습니다.
로봇 권리
"로봇 권리"는 사람들이 그들의 기계에 대한 도덕적 의무를 가져야 한다는 개념이다. 인권이나 동물의 [57]권리와 유사하다.로봇 권리(존재하고 자신의 임무를 수행할 권리 등)는 인류를 위해 봉사하는 로봇의 의무와 연결될 수 있다는 주장이 제기되어 왔다. 이는 인권과 [58]사회 이전의 인간의 의무를 연결하는 것과 유사하다.이것들은 삶과 자유, 생각과 표현의 자유, 그리고 [59]법 앞의 평등을 포함할 수 있다.이 문제는 미래연구소와[60] 영국 [61]무역산업부에 의해 검토되어 왔다.
전문가들은 이 주제에 대한 구체적이고 상세한 법률이 얼마나 빨리 [61]필요할지에 대해 의견이 엇갈린다.글렌 맥길은 [62]2020년까지 충분한 휴머노이드 로봇이 등장할 것이라고 보고했고, 레이 커즈와일은 날짜를 2029년으로 [63]정했다.2007년에 열린 또 다른 과학자 모임은 충분히 진보된 시스템이 [64]존재하기 위해서는 적어도 50년이 지나야 한다고 가정했다.
2003년 Loebner Prize 대회 규칙은 로봇이 자신의 권리를 가질 수 있는 가능성을 구상했다.
61. 어떤 특정 연도에 서리 대학 또는 케임브리지 센터에서 공개적으로 이용할 수 있는 오픈 소스 엔트리가 은메달 또는 금메달을 획득했을 경우, 메달 및 현금상은 해당 엔트리의 개발을 책임지는 기관에 수여됩니다.이러한 단체를 특정할 수 없거나 둘 이상의 청구인 간에 이견이 있는 경우, 메달 및 현금 상은 참가국이 미국 내 또는 대회 개최지,[65] 현금 상 및 금 메달을 법적으로 소유할 수 있는 시점까지 신탁으로 유지됩니다.
2017년 10월, 안드로이드 소피아는 사우디 아라비아에서 "명예로운" 시민권을 부여받았지만, 일부는 이것이 의미 있는 법적 [66]인정이라기보다는 홍보에 가깝다고 여겼다.어떤 사람들은 이 제스처를 공공연히 인권과 [67]법치를 폄하하는 것으로 보았다.
센티언티즘의 철학은 모든 지각 있는 존재들, 주로 인간과 대부분의 비인간 동물들에게 도덕적 배려의 정도를 부여한다.만약 인공지능이나 외계인의 지능이 지각력이 있다는 증거를 보여준다면, 이 철학은 그들에게 동정심과 권리를 부여해야 한다고 주장한다.
조안나 브라이슨은 권리를 요구하는 AI를 만드는 것은 피할 수 있는 일이며 AI 에이전트와 인간 사회에 [68]대한 부담으로 그 자체로 비윤리적이라고 주장했다.
인간의 존엄성에 대한 위협
Joseph Weizenbaum은[69] 1976년에 다음과 같이 존경과 보살핌이 필요한 직책에 있는 사람들을 대체하기 위해 AI 기술을 사용해서는 안 된다고 주장했다.
- 고객 서비스 담당자(AI 테크놀로지는 현재 전화 기반의 대화형 음성 응답 시스템에 이미 사용되고 있습니다)
- 노인을 위한 유모(파멜라 맥코덕의 저서 제5세대)
- 군인
- 판사
- 경찰관
- 치료사(70년대 케네스 콜비의 제안대로)
Weizenbaum은 이러한 위치에 있는 사람들의 진정한 공감의 감정이 필요하다고 설명합니다.만약 기계가 그것들을 대체한다면, 우리는 소외되고, 평가절하되고, 좌절하게 될 것이다. 왜냐하면 인공 지능 시스템은 공감을 시뮬레이션 할 수 없기 때문이다.인공지능은 이런 식으로 사용한다면 인간의 존엄성을 위협한다.Weizenbaum은 우리가 이러한 위치에 있는 기계의 가능성을 즐기고 있다는 사실은 우리가 "우리 자신을 [70]컴퓨터라고 생각하는 것에서 오는 인간 정신의 퇴화를 경험했다는 것을 암시한다"고 주장한다.
파멜라 맥코덕은 여성들과 소수자들을 대변하면서 "나는 공정한 컴퓨터를 가지고 위험을 무릅쓰고 싶다"고 반박하면서, 우리가 개인적인 의도가 [70]전혀 없는 자동화된 판·경찰을 선호할 조건이 있다고 지적했다.하지만, 카플란과 Hanlein은 인공지능 시스템이 본질적으로 화려한 곡선을 맞추는 기계이기 때문에 그들을 훈련시키는데 사용된 데이터만큼만 똑똑하다고 강조한다; 만약 과거의 판결이 그러한 편견들이 공식화되고 내재되어 있기 때문에 법원 판결을 지지하기 위해 인공지능을 사용하는 것은 매우 문제가 될 수 있다.그들을 찾아내고 [71]맞서 싸우기가 더 어려워집니다.
Weizenbaum은 또한 AI 연구자들(그리고 일부 철학자들)이 인간의 마음을 컴퓨터 프로그램(현재는 계산주의로 알려진 위치)에 불과하다고 기꺼이 보는 것에 대해 괴로워했다.Weizenbaum에게, 이러한 점들은 AI 연구가 인간의 [69]삶을 평가절하한다는 것을 암시한다.
AI의 설립자 존 맥카시는 와이젠바움의 비판의 도덕적인 어조에 반대한다."도덕화라는 것이 격렬하고 모호할 때, 그것은 권위주의적 학대를 초래합니다,"라고 그는 쓰고 있습니다.빌[72] 히바드는 다음과 같이 쓰고 있다.인간의 존엄성은 존재의 본질에 대한 무지를 없애기 위해 노력할 것을 요구하며, 그 노력을 위해서는 AI가 필요하다.
자가운전 자동차 책임
오토노마스 자동차의 보급이 점점 임박한 가운데,[73][74] 완전 오토노마스 자동차가 제기하는 새로운 과제에 대처해야 한다.최근 [when?]이 차들이 사고를 [75][76]당했을 때 책임자의 법적 책임에 대한 논란이 일고 있다.운전자 없는 차가 보행자를 치었다는 한 보고서에 따르면, 운전자는 차 안에 있었지만 제어장치는 완전히 컴퓨터 수중에 있었다.이것은 그 [77]사고의 책임이 누구에게 있는지에 대한 딜레마로 이어졌다.
2018년 3월 18일 또 다른 사건에서 일레인 허즈버그는 애리조나에서 자가운전 우버에 치여 사망했다.이 경우 자동차는 차도와 특정 장애물을 감지해 자율적으로 도로를 주행할 수 있었지만 도로 한복판에 있는 보행자를 예상할 수 없었다.이것은 그녀의 [78]죽음에 대해 운전자, 보행자, 자동차 회사 또는 정부가 책임을 져야 하는지에 대한 의문을 제기했다.
현재, 자율 주행 자동차는 반자율 주행으로 간주되기 때문에,[79][failed verification] 운전자는 주의를 기울이고 필요할 경우 조종할 준비를 해야 한다.따라서 자율 기능에 과도하게 의존하는 운전자를 규제하는 것은 정부의 몫이다.또, 이러한 테크놀로지가 편리하지만, 완전하게 대체되는 것은 아니라고 교육합니다.자율 자동차가 널리 이용되기 전에, 이러한 문제들은 새로운 정책을 통해 [80][81][82]다루어져야 한다.
인공지능의 무기화
일부 전문가들과 학계에서는 특히 로봇에게 어느 정도 [13][83]자율권이 주어질 때 군사 전투를 위해 로봇을 사용하는 것에 대해 의문을 제기하고 있다.2019년 10월 31일, 미국 국방부 국방혁신위원회는 인간 운용자가 항상 '블랙박스'를 들여다보고 킬 체인 프로세스를 이해할 수 있도록 보장하는 국방부의 인공지능 윤리적 사용을 위한 원칙을 권고하는 보고서의 초안을 발표했다.그러나 주요 관심사는 보고서가 어떻게 [84]구현될 것인가 하는 것이다.미 해군은 군사 로봇이 복잡해짐에 따라 자율적인 [85][15]결정을 내릴 수 있는 능력에 대한 더 많은 관심이 있어야 한다는 보고서를 작성했다.일부 연구원들은 자율 로봇이 보다 효과적으로 [86]결정을 내릴 수 있기 때문에 더 인간적일 수 있다고 말한다.
지난 10년 동안, 할당된 도덕적 책임을 사용하여 학습할 수 있는 능력을 가진 자율권력에 대한 집중적인 연구가 있었다."이 결과는 미래의 군사용 로봇을 설계할 [87]때 로봇에게 책임을 부여하는 원치 않는 경향을 통제하기 위해 사용될 수 있습니다."결과론적인 관점에서, 로봇이 누구를 죽일지에 대한 논리적 결정을 내릴 수 있는 능력을 개발할 가능성이 있고, 그것이 AI가 [88]무시할 수 없는 정해진 도덕적 틀이 있어야 하는 이유이다.
최근 인공지능 무기 공학과 관련해 로봇 탈취론이 제기돼 논란이 일고 있다.인공지능 무기는 인간이 조종하는 무기와는 다른 종류의 위험을 나타낸다.많은 정부들이 인공지능 무기를 개발하기 위한 프로그램에 자금을 대기 시작했다.미 해군은 최근 러시아와 한국의 유사한 발표와 병행하여 무인기 자율 개발 계획을 발표했다.인공지능 무기가 인간이 조작하는 무기보다 더 위험해질 수 있는 잠재력 때문에 스티븐 호킹과 맥스 테그마크는 AI 무기를 금지하는 "생명의[89] 미래" 탄원서에 서명했다.호킹과 테그마크가 게시한 메시지에는 AI 무기는 즉각적인 위험이 있으며 가까운 미래에 [90]재앙을 피하기 위해 조치가 필요하다고 쓰여 있다.
스카이프 공동창업자이자 노암 촘스크 MIT 언어학과 교수인 얀 탈린(Jaam Chomsk)이 참여한 탄원서에는 AI 무기 개발을 추진하는 주요 군사력이 있다면 글로벌 군비경쟁은 사실상 불가피하며 이 기술 궤도의 끝은 분명하다.y는 [91]AI 무기에 대한 추가 지지자로 간주됩니다.
물리학자이자 천문학자인 마틴 리스 경은 "덤보 로봇이 불량해지거나 자신만의 정신을 발달시키는 네트워크"와 같은 재앙적인 경우를 경고했다.캠브리지 대학의 리스의 동료인 휴 프라이스는 지성이 "생물학의 제약에서 벗어날 때" 인간이 살아남지 못할 수도 있다고 비슷한 경고의 목소리를 냈다.이 두 교수는 인간의 [90]존재에 대한 이러한 위협을 피하기 위해 케임브리지 대학에 존재 위험 연구 센터를 설립했습니다.
인간보다 똑똑한 시스템이 군사적으로 사용될 가능성에 대해 Open Philantropy Project는 이러한 시나리오가 "통제력 상실에 관련된 위험만큼 잠재적으로 중요한 것으로 보인다"고 쓰고 있지만, AI의 장기적인 사회적 영향을 조사하는 연구는 이러한 우려에 대해 상대적으로 적은 시간을 할애했다. "이러한 시나리오들은 없다.MIRI(Machine Intelligence Research)나 Future of Humanity Institute(FHI)와 같이 이 분야에서 가장 활발한 활동을 해 온 조직에게 주된 관심사가 되지 않았고 이에 대한 분석과 논의도 적었던 것 같습니다."[92]
불투명 알고리즘
신경망을 이용한 기계학습과 같은 접근법은 컴퓨터가 자신들과 그것을 프로그램한 사람들이 설명할 수 없는 결정을 내리는 결과를 초래할 수 있다.사람들이 그러한 결정이 공정하고 신뢰할 수 있는 것인지 판단하기 어려우며, 이는 잠재적으로 AI 시스템에 대한 편견을 유발하거나 사람들이 그러한 시스템의 사용을 거부하게 한다.이는 설명 가능한 인공지능에 [93]대한 법적 요건과 옹호로 이어졌다.
특이점
많은 연구원들은 "지능 폭발"을 통해, 자기 계발형 인공지능이 너무 강력해져 인간이 목표를 [94]달성하는 것을 막을 수 없을 것이라고 주장해왔다.철학자 닉 보스트롬은 그의 논문 "첨단 인공지능의 윤리 문제"와 후속 책인 "슈퍼지능: 경로, 위험, 전략"에서 인공지능은 인간의 멸종을 가져올 능력을 가지고 있다고 주장한다.그는 일반 슈퍼 인텔리전스는 독립적인 이니셔티브와 자체 계획을 세울 수 있으며, 따라서 자율적인 에이전트로 더 적절하게 생각될 수 있다고 주장한다.인공 지능은 인간의 동기 부여 성향을 공유할 필요가 없기 때문에, 그 본래의 동기를 명시하는 것은 슈퍼 인텔리전스의 설계자에게 달려 있을 것이다.슈퍼 인텔리전트 AI는 거의 모든 가능한 결과를 가져올 수 있고 목표의 이행을 막는 어떠한 시도도 좌절시킬 수 있기 때문에 많은 통제되지 않은 의도하지 않은 결과가 발생할 수 있다.다른 모든 요원을 죽이거나 행동을 바꾸도록 설득하거나 [95]간섭 시도를 차단할 수 있습니다.
하지만, 인류를 압도하고 우리의 파멸로 이끄는 대신, Bostrom은 또한 슈퍼 인텔리전스가 질병, 빈곤, 환경 파괴와 같은 많은 어려운 문제들을 해결하는데 도움을 줄 수 있고,[96] 우리가 "강화"하는데 도움을 줄 수 있다고 주장해왔다.
인간 가치 시스템의 순전한 복잡성은 인공지능의 동기를 인간 [94][95]친화적으로 만드는 것을 매우 어렵게 만든다.도덕 철학이 완벽한 윤리적 이론을 제공하지 않는 한, AI의 효용 기능은 주어진 윤리적 틀에 부합하지만 "상식"이 아닌 많은 잠재적으로 해로운 시나리오를 허용할 수 있다.Eliezer Yudkowsky에 따르면, 인공적으로 설계된 정신이 이러한 [97]적응을 할 것이라고 생각할 이유는 거의 없다.Stuart J.[98] Russell,[72] Bill Hibbard, Roman Yampolskiy,[99] Shannon Vallor,[100] Steven Umbrello[101], Luciano[102] Floridi와 같은 AI 연구자들이 유익한 기계 개발을 위한 디자인 전략을 제안했습니다.
AI 윤리의 실천자
AI 윤리 및 정책, 공공 및 정부, 기업 및 사회와 관련된 많은 조직이 있습니다.
아마존, 구글, 페이스북, IBM, 마이크로소프트는 인공지능 기술에 대한 베스트 프랙티스를 만들고, 대중들의 이해를 증진시키며, 인공지능에 대한 플랫폼 역할을 하기 위해 비영리 단체인 The Partnership on AI를 설립했다.애플은 2017년 1월에 가입했다.기업 구성원들은 [103]학계를 이사회에 참여시키기 위해 과학계와 협력하면서 그룹에 재정과 연구비를 기부할 것이다.
IEEE는 국민의 의견을 받아 가이드라인을 작성 및 개정해 온 자율 및 인텔리전트 시스템의 윤리에 관한 글로벌 이니셔티브(Global Initiative on Autonomous and Intelligent Systems)를 조직 내외의 많은 전문가를 회원으로 받아들였습니다.
전통적으로, 정부는 법률과 치안 유지를 통해 윤리가 지켜지는 것을 보장하기 위해 사회에 의해 사용되어 왔다.AI가 윤리적으로 적용되도록 하기 위해 초국가적인 정부 및 비정부 기구뿐만 아니라 국가 정부도 많은 노력을 기울이고 있다.
정부간 이니셔티브
- 유럽위원회에는 인공지능에 관한 고위급 전문가 그룹이 있다.2019년 4월 8일 '신뢰할 수 있는 인공지능 윤리지침'[104]을 발간하였다.유럽위원회는 또한 2020년 [105]2월 19일 인공지능 혁신의 우수성과 신뢰에 관한 백서를 발간한 로보틱스 및 인공지능 혁신 및 탁월성 부서를 가지고 있다.
- OECD는 OECD AI 정책 [106]전망대를 설립했다.
정부의 대처
- 미국에서는 오바마 행정부가 AI [107]정책을 위한 로드맵을 만들었다.오바마 행정부는 AI의 미래와 영향에 대한 두 개의 저명한 백서를 발표했다.2019년 백악관은 "American AI Initiative(미국 AI 이니셔티브)"로 알려진 경영 메모를 통해 NIST(National Institute of Standards and Technology)에 AI 표준의 연방 참여에 대한 작업을 시작하도록 지시했다(2019년 [108]2월).
- 트럼프 행정부는 2020년 1월 미국에서 경영예산국(OMB)이 발행한 '인공지능 애플리케이션 규제 가이드라인'(OMB AI 메모) 행정명령 초안을 발표했다.이 명령은 AI 애플리케이션에 투자하고, AI에 대한 국민의 신뢰를 높이고, AI 사용에 대한 장벽을 낮추고, 세계 시장에서 미국 AI 기술의 경쟁력을 유지할 필요가 있다고 강조한다.사생활 침해의 필요성에 대해서는 고개를 끄덕이지만, 집행에 대한 더 이상의 세부 사항은 없다.미국 AI 기술의 발전이 초점이고 우선인 것 같다.또한 연방 법인은 시장이 [109]이행하기에 너무 부담스럽다고 생각될 수 있는 모든 주 법률 및 규정을 우회하기 위해 명령을 사용할 것을 권장합니다.
- Computing Community Consortium(CCC)은 100페이지 이상의 초안[110] 보고서– 미국 인공지능[111] 연구를 위한 20년 커뮤니티 로드맵을 작성했습니다.
- 보안 및 신흥 기술 센터는 미국 정책 입안자들에게 AI와 같은 신흥 기술의 보안 영향에 대해 조언합니다.
- 비인간당은 뉴사우스웨일스주 선거에 출마해 로봇, 동물, 그리고 지능이 [112]간과된 비인간 실체에 대한 권리를 부여하는 정책을 펴고 있다.
- 러시아에서는 2021년 러시아 최초의 기업용 인공지능 윤리 코덱스가 체결됐다.러시아 연방정부 분석센터와 Sberbank, Yandex, Rosatom, 고등경제대학, 모스크바 물리 및 기술대학, ITMO University, Nanosemantics, Roscelecom,[113] 기타 주요 상업 및 학술기관들이 주도하였습니다.
학술 이니셔티브
- 옥스퍼드대에는 AI 윤리에 초점을 맞춘 3개의 연구소가 있다.AI[114] 안전과 [115]AI 거버넌스에 초점을 맞춘 미래인류연구소.존 타시울라스 소장이 이끄는 AI 윤리연구소는 AI 윤리를 관련 응용 윤리 분야와 비교해 고유 분야로 육성하는 것을 주요 목표로 하고 있다.루치아노 플로리디가 이끄는 옥스포드 인터넷 연구소는 단기 AI 기술과 ICT의 [116]윤리에 초점을 맞추고 있습니다.
- 뉴욕대 AI나우연구소는 인공지능의 사회적 의미를 연구하는 연구기관이다.학제 간 연구는 편견과 포함, 노동과 자동화, 권리와 자유, 안전과 시민 [117]인프라에 초점을 맞추고 있다.
- 윤리신흥기술연구소(IEET)는 AI가 [118][119]실업과 정책에 미치는 영향을 연구한다.
- Christoph Lütge가 이끄는 뮌헨 공과대학교의 인공 지능 윤리 연구소(IEAI)는 이동성, 고용, 의료 및 지속 [120]가능성과 같은 다양한 분야에 걸쳐 연구를 수행합니다.
민간 조직
소설의 역할과 영향
AI 윤리에 관한 소설의 역할은 복잡했다.소설이 인공지능과 로봇 공학 발전에 영향을 미친 세 가지 수준을 구별할 수 있습니다.역사적으로 소설은 AI에 대한 목표와 비전에 영향을 미쳤을 뿐만 아니라 그것과 관련된 윤리적 의문과 공통의 두려움에 대한 윤곽을 그려왔다.20세기 후반과 21세기 초반 동안 대중문화, 특히 영화, TV 시리즈 및 비디오 게임은 AI와 로봇 공학에 관한 윤리적 질문에 대한 선입견과 반체제적 예측을 자주 반복해 왔다.최근, 이러한 주제들은 공상과학 소설의 영역을 넘어 문학에서도 점점 더 다루어지고 있다.또한 카탈루냐 공과대학(로봇 및 산업컴퓨팅 연구소)의 Carme Torras 연구교수는 고등교육에서 공상과학소설은 기술 관련 윤리적 문제를 기술 학위로 가르치는 데도 점점 더 많이 사용되고 있다고 [124]지적합니다.
역사
역사적으로 말해서,“생각하고 기계”의 도덕적, 윤리적 영향의 조사는 계몽주의 적어도 우리가 마치 지각 있는 being,[125] 분이 조기 versi으로 생각될 수 있어 설명하면, 데카르트는,, 행동하는 메커니즘으로 지능으로 돌릴 수 있습니다. 라이프니츠는 이미 질문을 제기한다 간다.에튜링 [126]테스트
낭만주의 시대는 여러 번 창조자의 통제를 벗어나 끔찍한 결과를 초래하는 인공 생명체를 상상했는데, 가장 유명한 것은 메리 셸리의 프랑켄슈타인이다.그러나 19세기와 20세기 초에 산업화와 기계화에 대한 광범위한 선입견은 R.U.R – Rossum의 유니버설 로봇, 노예 노동으로 사용되는 감정을 지닌 지각 있는 로봇을 연기한 것으로만 인정받는 것은 아니다.'로봇'(체코어로 강제 노동을 뜻하는 '로봇'에서 유래)이라는 용어의 발명도 1921년 초연된 후 국제적인 성공을 거두었다.1921년에 출판된 조지 버나드 쇼의 희곡 "Back to Methuselah"는 인간처럼 행동하는 사고 기계의 타당성에 대해 한 때 의문을 제기합니다; 프리츠 랭의 1927년 영화 메트로폴리스는 기술민주 사회의 억압적인 정권에 맞서 착취된 대중의 봉기를 이끄는 안드로이드를 보여줍니다.
기술 발전에 미치는 영향
불굴의 기술이 지배하는 미래에 대한 기대는 오랫동안 작가와 영화 제작자들의 상상력을 자극해왔지만, 한 가지 질문은 덜 빈번하게 분석되었다. 즉, 소설이 기술 발전에 어느 정도 영감을 주는 역할을 했는가 하는 것이다.그것은, 예를 들어, 그 어린 앨런 튜링과 감사 1933[127](그의 첫번째 seminal paper[128]의 디지털 컴퓨터를 위한 초석을 놓은 출판 단지 3년 전에)에 영국.. 쇼의 연극 백 므두셀라로 봤다, 그는 아마도 최소한 R.U.R처럼 연극의 알고 있었을 것이다., 국제적인 것 이미 입증되었다. 성공은여러 언어로 번역되었습니다.
또한 AI 개발의 신조와 윤리적 의미를 확립하는 데 공상과학 소설이 어떤 역할을 했는지를 질문할 수도 있다.아이작 아시모프는 단편소설 모음집 I, Robot; Arthur C의 일부인 1942년 단편소설 "Runround"에서 그의 로봇 3법칙을 개념화했다.스탠리 큐브릭의 영화 2001: 스페이스 오디세이의 기반이 된 클라크의 단편 "초병"은 1948년에 쓰여졌고 1952년에 출판되었다.다른 예로는 Philip K가 있습니다.1968년에 출판된 Do Androids Dream of Electric Sheep?은 인간과 구별할 수 없는 안드로이드의 감정적 반응을 측정하기 위한 튜링 테스트 버전인 Voight-Kampff 테스트를 특징으로 하는 수많은 단편 소설과 소설입니다.이 소설은 후에 리들리 스콧의 영향력 있는 1982년 영화 '블레이드 러너'의 기초가 되었다.
공상과학소설은 수십 년 동안 AI 개발의 윤리적 의미를 다루어 왔고, 따라서 일반적인 인공지능과 유사한 것이 달성되면 나타날 수 있는 윤리적 문제에 대한 청사진을 제공했다: Spike Jonze의 2013년 영화 Her는 사용자가 스마트폰의 매혹적인 목소리에 반하면 어떤 일이 일어날 수 있는지를 보여준다.반면에 Ex Machina는 더 어려운 질문을 던진다: 얼굴로 사람만 만들어지고 공감적이고 관능적인 목소리에 의해 만들어진 명확하게 인식되는 기계와 직면한다면, 우리는 여전히 감정적인 연결을 확립할 수 있을까? (영화는 이미 2세기 전에 존재했던 주제를 메아리친다.)E.T.A.의 1817년 단편소설 '샌드만' 호프만).
인공 지각 있는 존재와의 공존이라는 주제 또한 최근 두 소설의 주제이다.2019년에 출판된 Ian McEwan의 나와 같은 기계는 인간 커플뿐만 아니라 인공적인 사람과 관련된 (많은 것들 중에서) 사랑의 삼각관계를 포함한다.2021년 출간된 노벨상 수상자 이시구로 가즈오의 '클라라와 태양'은 '인위적 친구'인 클라라의 1인칭 이야기다.그는 '인위적 친구'인 클라라와 함께 살고 있는 '인위적 친구'가 이상한 병을 앓고 있는 소녀를 돕기 위해 노력하고 있다.
텔레비전 시리즈
AI와 관련된 윤리적 질문들이 공상과학 문학이나 장편 영화에 수십 년 동안 등장했지만, TV 시리즈의 출현은 기술의 윤리적 함의를 다루는 중요한 공헌으로 이어졌다.스웨덴 시리즈 '진짜 인간'(2012–2013)은 사회에서 인위적인 지각이 있는 존재의 통합과 관련된 복잡한 윤리적, 사회적 결과를 다루었다.영국의 디스토피아 SF 앤솔로지 시리즈 블랙 미러(2013–2019)는 특히 최근의 다양한 기술 개발과 관련된 디스토피아 허구적 개발을 실험한 것으로 유명하다.프랑스 시리즈 Osmosis(2020년)와 영국 시리즈 The One은 둘 다 기술이 한 사람에게 이상적인 파트너를 찾으려 할 때 어떤 일이 일어날 수 있는지에 대한 질문을 다룬다.넷플릭스 시리즈 러브, 데스+로봇의 여러 에피소드는 로봇과 인간이 함께 사는 장면을 상상했다.그 중 가장 대표적인 것이 S02 E01로,[129] 인간이 로봇에 너무 의존하게 되면 로봇이 통제 불능이 되었을 때 그 결과가 얼마나 심각해질 수 있는지를 보여준다.
픽션과 게임의 미래 비전
영화 '13층'은 오락을 목적으로 한 컴퓨터 게임기에 의해 지각 있는 주민들과 함께 시뮬레이션된 세계가 만들어지는 미래를 제시한다.영화 매트릭스는 지구에서 지배적인 종이 지각력이 있는 기계이고 인류가 최고의 종족주의로 대우받는 미래를 제시한다.단편 '플랑크 다이브'는 인류가 복제와 최적화가 가능한 소프트웨어로 변모하고 소프트웨어 유형 간의 관련 구분이 지각과 지각이 없는 미래를 제시한다.같은 생각이 우주선 보이저의 응급 의료 홀로그램에서도 발견될 수 있는데, 이것은 가장 좋은 동기로 응급상황 시 의료 지원을 제공하는 시스템을 만든 짐머만 박사의 의식의 축소된 부분집합을 분명히 통찰력 있게 복사한 것이다.영화 바이센테니얼 맨과 A.I. 사랑을 할 수 있는 지각 있는 로봇의 가능성을 다룬다.I, Robot은 Asimov의 세 가지 법칙의 몇 가지 측면을 탐구했다.이 모든 시나리오는 지각 있는 [130]컴퓨터를 만들었을 때 발생할 수 있는 비윤리적인 결과를 예측하려고 합니다.
인공지능의 윤리는 바이오웨어의 매스 이펙트 시리즈의 [131]몇 가지 핵심 주제 중 하나이다.전지구적 규모의 신경망을 통해 빠른 연산력 증대를 통해 우연히 AI를 만들어내는 문명의 시나리오를 탐구한다.이 사건은 새롭게 지각한 게트에게 유기적 권리를 부여하는 것이 적절하다고 느끼는 사람들과 그것들을 일회용 기계로 보고 그것들을 파괴하기 위해 투쟁하는 사람들 사이에 윤리적 분열을 일으켰다.초기 충돌 외에도 기계와 그 제작자 간의 관계의 복잡성은 이야기 전반에 걸쳐 또 다른 진행 중인 주제입니다.
「디테일:인간이 되라'는 최근 인공지능의 윤리를 논하는 가장 유명한 비디오 게임 중 하나이다.Quantic Dream은 게임의 챕터를 매우 혁신적인 방식으로 디자인했으며, 이것은 플레이어들에게 보다 몰입적인 게임 경험을 제공하기 위해 인터랙티브한 스토리 라인을 사용했다.플레이어들은 각기 다른 사건에 직면하여 세 명의 다른 각성된 바이오닉 맨을 조작하여 바이오닉 그룹의 인간관을 바꾸는 목적을 달성하기 위해 다른 선택을 하게 될 것이고, 다른 선택은 다른 결말을 초래할 것이다.이것은 진정한 인공지능이 [132]만들어지면 그들이 로봇의 권익을 더 잘 고려할 수 있게 해주는 생체 공학적인 관점을 플레이어들에게 주는 몇 안 되는 게임들 중 하나이다.
휴고 드 개리스와 케빈 워릭이 시작한 "코스미스트"와 "테란" 토론에서 강조되었듯이, 시간이 지나면서 토론은 가능성에 점점 덜 초점을 맞추는 경향이 있다.[133]Hugo de Garis에 따르면, 코스미스트는 실제로 인류에 대한 보다 지능적인 후계자를 만들려고 한다.
캠브리지 대학의 전문가들은 AI가 위험과 이익에 대한 인식을 왜곡하는 방식으로 소설과 [134]논픽션에서 압도적으로 인종적으로 백인으로 묘사된다고 주장해왔다.
「 」를 참조해 주세요.
- AI 인수
- 알고리즘 바이어스
- 인공의식
- 인공지능(AGI)
- 컴퓨터 윤리
- 효과적인 이타주의, 장기적인 미래 및 글로벌 재해 위험
- 인공지능으로 인한 실존적 위험
- 휴먼 호환
- 로보틱스의 법칙
- 인공지능의 철학
- 인공지능 규제
- 로보 윤리학
- 로보틱 거버넌스
- 슈퍼 인텔리전스: 경로, 위험, 전략
- 연구자
- 팀니트 게브루
- 조이 부오람위니
- 데브 라지
- 루하 벤자민
- 사피야 노블
- 마가렛 미첼
- 메레디스 휘태커
- 앨리슨 아담
- 세스 바움
- 닉 보스트롬
- 조안나 브라이슨
- 케이트 크로포드
- 케이트 달링
- 루치아노 플로리디
- 안자 카스퍼센
- 마이클 쿤스
- 레이 커즈와일
- 캐서린 말라부
- 아중문
- 빈센트 C뮐러
- 피터 노비그
- 스티브 오모훈드로
- 스튜어트 J. 러셀
- 앤더스 샌드버그
- 마리아로사리아 타데오
- 존 타시오울라스
- 스티븐 움브렐로
- 로만 얀폴스키
- 엘리에저 유도코프스키
- 조직
메모들
- ^ Müller, Vincent C. (30 April 2020). "Ethics of Artificial Intelligence and Robotics". Stanford Encyclopedia of Philosophy. Archived from the original on 10 October 2020. Retrieved 26 September 2020.
- ^ Veruggio, Gianmarco (2011). "The Roboethics Roadmap". EURON Roboethics Atelier. Scuola di Robotica: 2. CiteSeerX 10.1.1.466.2810.
- ^ Müller, Vincent C. (2020), "Ethics of Artificial Intelligence and Robotics", in Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, retrieved 2021-03-18
- ^ Anderson. "Machine Ethics". Archived from the original on 28 September 2011. Retrieved 27 June 2011.
- ^ Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
- ^ Anderson, M.; Anderson, S.L. (July 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–11. doi:10.1109/mis.2006.70. S2CID 9570832.
- ^ Anderson, Michael; Anderson, Susan Leigh (15 December 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. 28 (4): 15. doi:10.1609/aimag.v28i4.2065. S2CID 17033332.
- ^ Boyles, Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. 6 (2): 92–109.
- ^ Asimov, Isaac (2008). I, Robot. New York: Bantam. ISBN 978-0-553-38256-3.
- ^ Bryson, Joanna; Diamantis, Mihailis; Grant, Thomas (September 2017). "Of, for, and by the people: the legal lacuna of synthetic persons". Artificial Intelligence and Law. 25 (3): 273–291. doi:10.1007/s10506-017-9214-9.
- ^ "Principles of robotics". UK's EPSRC. September 2010. Archived from the original on 1 April 2018. Retrieved 10 January 2019.
- ^ 2009년 8월 18일 파퓰러사이언스 웨이백 머신에서 보관된 진화하는 로봇들 서로 거짓말하는 법을 배우는 2009-08-28
- ^ a b 2009-08-07년 웨이백 머신에서 보관된 킬러 로봇에 대한 토론을 촉구합니다, by 제이슨 파머, BBC 뉴스, 2009년 3월 8일.
- ^ 사이언스 뉴 해군의 자금 지원 보고서 "터미네이터" 2009-07-28년 웨이백 머신에 보관, dailytech.com, 2009년 2월 17일
- ^ a b 해군 보고서는 로봇 봉기를 경고하고, Wayback Machine에서 강력한 도덕적 나침반 Archived 2011-06-04를 제안하고 있습니다.조셉 L. 플랫리 engadget.com, 2009년 2월 18일.
- ^ AAAI의 2008–2009년 장기 AI 미래에 관한 회장 패널은 2009-08-28년 인공 지능 발전을 위한 협회 웨이백 머신에 보관된 연구를 2009-08-28년 7월 26일 액세스했다.
- ^ a b Markoff, John (25 July 2009). "Scientists Worry Machines May Outsmart Man". The New York Times. Archived from the original on 25 February 2017. Retrieved 24 February 2017.
- ^ 다가올 기술적 특이점: 포스트 휴먼 시대에 살아남는 방법 2007-01-01년 웨이백 머신에서 샌디에이고 주립대학 수리과학부 버노르 빈게, 1993년 버노르 빈게에 의해 아카이브되었습니다.
- ^ Asimovlaws.com Archived 2012년5월 24일 Wayback Machine 2004년7월 9일 7월 27일 기사
- ^ a b Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. S2CID 77393713. Archived from the original on 2020-11-02. Retrieved 2020-11-21.
- ^ Al-Rodhan, Nayef (7 December 2015). "The Moral Code". Archived from the original on 2017-03-05. Retrieved 2017-03-04.
- ^ Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9.
- ^ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archived (PDF) from the original on 2016-03-04. Retrieved 2011-06-22.
- ^ Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2014-12-25. Retrieved 2015-01-04.
- ^ Howard, Ayanna. "The Regulation of AI – Should Organizations Be Worried? Ayanna Howard". MIT Sloan Management Review. Archived from the original on 2019-08-14. Retrieved 2019-08-14.
- ^ a b Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). "The global landscape of AI ethics guidelines". Nature. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. S2CID 201827642.
- ^ Floridi, Luciano; Cowls, Josh (2 July 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review. 1. doi:10.1162/99608f92.8cd550d1. S2CID 198775713.
- ^ 오픈 소스 AI2016-03-04 Wayback Machine Bill Hibbard에 보관.2008년 제1회 인공일반지능총회, eds.Pei Wang, Ben Goertzel, Stan Franklin.
- ^ OpenCog: 통합형 인공지능 소프트웨어 프레임워크.2016-03-04 Wayback Machine David Hart와 Ben Goertzel에 보관.2008년 제1회 인공일반지능총회, eds.Pei Wang, Ben Goertzel, Stan Franklin.
- ^ 내부 오픈AI, Elon Musk's Wild Plan for Free 인공지능 Archived 2016-04-27, Wayback Machine Cade Metz, 2016년 4월 27일 와이어드.
- ^ 를 클릭합니다"P7001 – Transparency of Autonomous Systems". P7001 – Transparency of Autonomous Systems. IEEE. Archived from the original on 10 January 2019. Retrieved 10 January 2019..
- ^ Thurm, Scott (July 13, 2018). "MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION". Wired. Archived from the original on May 9, 2019. Retrieved January 10, 2019.
- ^ Bastin, Roland; Wantz, Georges (June 2017). "The General Data Protection Regulation Cross-industry innovation" (PDF). Inside magazine. Deloitte. Archived (PDF) from the original on 2019-01-10. Retrieved 2019-01-10.
- ^ "UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'". UN News. 2017-06-07. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ "Artificial intelligence – Organisation for Economic Co-operation and Development". www.oecd.org. Archived from the original on 2019-07-22. Retrieved 2019-07-26.
- ^ Anonymous (2018-06-14). "The European AI Alliance". Digital Single Market – European Commission. Archived from the original on 2019-08-01. Retrieved 2019-07-26.
- ^ European Commission High-Level Expert Group on AI (2019-06-26). "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe’s digital future – European Commission. Archived from the original on 2020-02-26. Retrieved 2020-03-16.
- ^ "EU Tech Policy Brief: July 2019 Recap". Center for Democracy & Technology. Archived from the original on 2019-08-09. Retrieved 2019-08-09.
- ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022-05-24). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics: 1–9. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285. PMID 35634256.
- ^ Gabriel, Iason (2018-03-14). "The case for fairer algorithms – Iason Gabriel". Medium. Archived from the original on 2019-07-22. Retrieved 2019-07-22.
- ^ "5 unexpected sources of bias in artificial intelligence". TechCrunch. Archived from the original on 2021-03-18. Retrieved 2019-07-22.
- ^ Knight, Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. Archived from the original on 2019-07-04. Retrieved 2019-07-22.
- ^ Villasenor, John (2019-01-03). "Artificial intelligence and bias: Four key challenges". Brookings. Archived from the original on 2019-07-22. Retrieved 2019-07-22.
- ^ Lohr, Steve (9 February 2018). "Facial Recognition Is Accurate, if You're a White Guy". The New York Times. Archived from the original on 9 January 2019. Retrieved 29 May 2019.
- ^ Koenecke, Allison; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Zion; Toups, Connor; Rickford, John R.; Jurafsky, Dan; Goel, Sharad (7 April 2020). "Racial disparities in automated speech recognition". Proceedings of the National Academy of Sciences. 117 (14): 7684–7689. Bibcode:2020PNAS..117.7684K. doi:10.1073/pnas.1915768117. PMC 7149386. PMID 32205437.
- ^ "Amazon scraps secret AI recruiting tool that showed bias against women". Reuters. 2018-10-10. Archived from the original on 2019-05-27. Retrieved 2019-05-29.
- ^ Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in computer systems". ACM Transactions on Information Systems. 14 (3): 330–347. doi:10.1145/230538.230561. S2CID 207195759.
- ^ "Eliminating bias in AI". techxplore.com. Archived from the original on 2019-07-25. Retrieved 2019-07-26.
- ^ Olson, Parmy. "Google's DeepMind Has An Idea For Stopping Biased AI". Forbes. Retrieved 2019-07-26.
- ^ "Machine Learning Fairness ML Fairness". Google Developers. Archived from the original on 2019-08-10. Retrieved 2019-07-26.
- ^ "AI and bias – IBM Research – US". www.research.ibm.com. Archived from the original on 2019-07-17. Retrieved 2019-07-26.
- ^ Bender, Emily M.; Friedman, Batya (December 2018). "Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science". Transactions of the Association for Computational Linguistics. 6: 587–604. doi:10.1162/tacl_a_00041.
- ^ Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna; Daumé III, Hal; Crawford, Kate (2018). "Datasheets for Datasets". arXiv:1803.09010 [cs.DB].
- ^ Pery, Andrew (2021-10-06). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. Retrieved 2022-02-18.
- ^ Knight, Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. Archived from the original on 2019-07-04. Retrieved 2019-07-26.
- ^ "Archived copy". Archived from the original on 2020-10-31. Retrieved 2020-10-28.
{{cite web}}
: CS1 maint: 제목으로 아카이브된 복사(링크) - ^ Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
- ^ Sheliazhenko, Yurii (2017). "Artificial Personal Autonomy and Concept of Robot Rights". European Journal of Law and Political Sciences: 17–21. doi:10.20534/EJLPS-17-1-17-21. Archived from the original on 14 July 2018. Retrieved 10 May 2017.
- ^ 미국유산영어사전 제4판
- ^ "Robots could demand legal rights". BBC News. December 21, 2006. Archived from the original on October 15, 2019. Retrieved January 3, 2010.
- ^ a b Henderson, Mark (April 24, 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. Archived from the original on May 17, 2008. Retrieved May 2, 2010.
- ^ McGee, Glenn. "A Robot Code of Ethics". The Scientist. Archived from the original on 2020-09-06. Retrieved 2019-03-25.
- ^ Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
- ^ 중요한 질문: 인류는 로봇의 부상에 대해 걱정해야 하는가?인디펜던트 신문,
- ^ Loebner Prize Contest 공식 규칙 - 버전 2.0 Wayback Machine에서 2016-03-03 아카이브 이 대회는 David Hamill이 감독했으며 규칙은 Robitron Yahoo 그룹의 멤버들에 의해 개발되었습니다.
- ^ "Saudi Arabia bestows citizenship on a robot named Sophia". Archived from the original on 2017-10-27. Retrieved 2017-10-27.
- ^ Vincent, James (30 October 2017). "Pretending to give a robot citizenship helps no one". The Verge. Archived from the original on 3 August 2019. Retrieved 10 January 2019.
- ^ Wilks, Yorick, ed. (2010). Close engagements with artificial companions: key social, psychological, ethical and design issues. Amsterdam: John Benjamins Pub. Co. ISBN 978-9027249944. OCLC 642206106.
- ^ a b
- Weizenbaum, Joseph (1976). Computer Power and Human Reason. San Francisco: W.H. Freeman & Company. ISBN 978-0-7167-0464-5.
- McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1, 페이지 132–132
- ^ a b Joseph Weizenbaum, McCorduck 2004, 페이지 356, 374–376에서 인용
- ^ Kaplan, Andreas; Haenlein, Michael (January 2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62 (1): 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
- ^ a b Hibbard, Bill (17 November 2015). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI].
- ^ Davies, Alex (29 February 2016). "Google's Self-Driving Car Caused Its First Crash". Wired. Archived from the original on 7 July 2019. Retrieved 26 July 2019.
- ^ Levin, Sam; Wong, Julia Carrie (19 March 2018). "Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian". The Guardian. Archived from the original on 26 July 2019. Retrieved 26 July 2019.
- ^ "Who is responsible when a self-driving car has an accident?". Futurism. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ Radio, Business; Policy, Law and Public; Podcasts; America, North. "Autonomous Car Crashes: Who – or What – Is to Blame?". Knowledge@Wharton. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
{{cite web}}
:last2=
범용명(도움말)이 있습니다. - ^ Delbridge, Emily. "Driverless Cars Gone Wild". The Balance. Archived from the original on 2019-05-29. Retrieved 2019-05-29.
- ^ Stilgoe, Jack (2020), "Who Killed Elaine Herzberg?", Who’s Driving Innovation?, Cham: Springer International Publishing, pp. 1–6, doi:10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, S2CID 214359377, archived from the original on 2021-03-18, retrieved 2020-11-11
- ^ Maxmen, Amy (October 2018). "Self-driving car dilemmas reveal that moral choices are not universal". Nature. 562 (7728): 469–470. Bibcode:2018Natur.562..469M. doi:10.1038/d41586-018-07135-0. PMID 30356197.
- ^ "Regulations for driverless cars". GOV.UK. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ "Automated Driving: Legislative and Regulatory Action – CyberWiki". cyberlaw.stanford.edu. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ "Autonomous Vehicles Self-Driving Vehicles Enacted Legislation". www.ncsl.org. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ Robot Three-Way Portends Autonomous Future Archived at the Wayback Machine, 2012-11-07 by David Axe, 2009년 8월 13일.
- ^ United States. Defense Innovation Board. AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
- ^ 새로운 해군 지원 보고서 "터미네이터" 2009-07-28년 웨이백 머신에 보관, Jason Mick(Blog), dailytech.com, 2009년 2월 17일
- ^ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (March 2020). "The future of war: could lethal autonomous weapons make conflict more ethical?". AI & Society. 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 0951-5666. S2CID 59606353. Archived from the original on 2021-01-05. Retrieved 2020-11-11.
- ^ Hellström, Thomas (June 2013). "On the moral responsibility of military robots". Ethics and Information Technology. 15 (2): 99–107. doi:10.1007/s10676-012-9301-2. S2CID 15205810. ProQuest 1372020233.
- ^ Mitra, Ambarish. "We can train AI to identify good and evil, and then use it to teach us morality". Quartz. Archived from the original on 2019-07-26. Retrieved 2019-07-26.
- ^ "AI Principles". Future of Life Institute. Archived from the original on 2017-12-11. Retrieved 2019-07-26.
- ^ a b Zach Musgrave and Bryan W. Roberts (2015-08-14). "Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic". The Atlantic. Archived from the original on 2017-04-11. Retrieved 2017-03-06.
- ^ Cat Zakrzewski (2015-07-27). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ. Archived from the original on 2015-07-28. Retrieved 2017-08-04.
- ^ GiveWell (2015). Potential risks from advanced artificial intelligence (Report). Archived from the original on 12 October 2015. Retrieved 11 October 2015.
- ^ Inside Of A.I. - Cliff Kuang
- ^ a b Muhlhauser, Luke, Louie Helm, 2012년.2015-05-07년 웨이백 머신에 보관된 "지능 폭발 및 기계 윤리"특이점 가설에서:Amnon Eden, Johnny Söraker, James H. Moor 및 Eric Steinhart에 의해 편집된 과학적이고 철학적인 평가.베를린: 스프링거.
- ^ a b 보스트롬, 닉2003. "첨단 인공지능의 윤리 문제" 웨이백 머신에 2018-10-08 아카이브.이바 스미트와 조지 E. 래스커, 12-17에 의해 편집된 인간 및 인공지능에서의 의사 결정의 인지적, 감정적, 윤리적 측면.Vol.2. 윈저, ON: 시스템 연구/사이버네틱스 국제 고등 연구 연구소.
- ^ Umbrello, Steven; Baum, Seth D. (2018-06-01). "Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing". Futures. 100: 63–73. doi:10.1016/j.futures.2018.04.007. hdl:2318/1685533. ISSN 0016-3287. S2CID 158503813. Archived from the original on 2019-05-09. Retrieved 2020-11-29.
- ^ 유드코프스키, 엘리에저 2011년2015-09-29 Wayback Machine에 보관된 "친절한 AI의 복잡한 가치 시스템"Schmidhuber, Thorisson, and Looks 2011, 388-393.
- ^ Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
- ^ Yampolskiy, Roman V. (2020-03-01). "Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent". Journal of Artificial Intelligence and Consciousness. 07 (1): 109–118. doi:10.1142/S2705078520500034. ISSN 2705-0785. S2CID 218916769. Archived from the original on 2021-03-18. Retrieved 2020-11-29.
- ^ Wallach, Wendell; Vallor, Shannon (2020-09-17), "Moral Machines: From Value Alignment to Embodied Virtue", Ethics of Artificial Intelligence, Oxford University Press, pp. 383–412, doi:10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, archived from the original on 2020-12-08, retrieved 2020-11-29
- ^ Umbrello, Steven (2019). "Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach". Big Data and Cognitive Computing. 3 (1): 5. doi:10.3390/bdcc3010005.
- ^ Floridi, Luciano; Cowls, Josh; King, Thomas C.; Taddeo, Mariarosaria (2020). "How to Design AI for Social Good: Seven Essential Factors". Science and Engineering Ethics. 26 (3): 1771–1796. doi:10.1007/s11948-020-00213-5. ISSN 1353-3452. PMC 7286860. PMID 32246245.
- ^ Fiegerman, Seth (28 September 2016). "Facebook, Google, Amazon create group to ease AI concerns". CNNMoney.
- ^ "Ethics guidelines for trustworthy AI". Shaping Europe’s digital future – European Commission. European Commission. 2019-04-08. Archived from the original on 2020-02-20. Retrieved 2020-02-20.
- ^ "White Paper on Artificial Intelligence – a European approach to excellence and trust Shaping Europe's digital future".
- ^ "OECD AI Policy Observatory".
- ^ "The Obama Administration's Roadmap for AI Policy". Harvard Business Review. 2016-12-21. ISSN 0017-8012. Archived from the original on 2021-01-22. Retrieved 2021-03-16.
- ^ "Accelerating America's Leadership in Artificial Intelligence – The White House". trumpwhitehouse.archives.gov. Archived from the original on 2021-02-25. Retrieved 2021-03-16.
- ^ "Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"". Federal Register. 2020-01-13. Archived from the original on 2020-11-25. Retrieved 2020-11-28.
- ^ "CCC Offers Draft 20-Year AI Roadmap; Seeks Comments". HPCwire. 2019-05-14. Archived from the original on 2021-03-18. Retrieved 2019-07-22.
- ^ "Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog". Archived from the original on 2019-05-14. Retrieved 2019-07-22.
- ^ "Non-Human Party". 2021.
- ^ (러시아어) Kommersant, 25.11.2021
- ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018-05-03). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI].
- ^ "China wants to shape the global future of artificial intelligence". MIT Technology Review. Archived from the original on 2020-11-20. Retrieved 2020-11-29.
- ^ Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (2018-12-01). "AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations". Minds and Machines. 28 (4): 689–707. doi:10.1007/s11023-018-9482-5. ISSN 1572-8641. PMC 6404626. PMID 30930541.
- ^ "New Artificial Intelligence Research Institute Launches". 2017-11-20. Archived from the original on 2020-09-18. Retrieved 2021-02-21.
- ^ Hughes, James J.; LaGrandeur, Kevin, eds. (15 March 2017). Surviving the machine age: intelligent technology and the transformation of human work. Cham, Switzerland. ISBN 978-3-319-51165-8. OCLC 976407024. Archived from the original on 18 March 2021. Retrieved 29 November 2020.
- ^ Danaher, John (2019). Automation and utopia: human flourishing in a world without work. Cambridge, Massachusetts. ISBN 978-0-674-24220-3. OCLC 1114334813.
- ^ "TUM Institute for Ethics in Artificial Intelligence officially opened". www.tum.de. Archived from the original on 2020-12-10. Retrieved 2020-11-29.
- ^ Lee, Jennifer 8 (2020-02-08). "When Bias Is Coded Into Our Technology". NPR. Retrieved 2021-12-22.
- ^ a b "How one conference embraced diversity". Nature. 564 (7735): 161–162. 2018-12-12. doi:10.1038/d41586-018-07718-x. PMID 31123357. S2CID 54481549.
- ^ Roose, Kevin (2020-12-30). "The 2020 Good Tech Awards". The New York Times. ISSN 0362-4331. Retrieved 2021-12-21.
- ^ 토라스, 카르메, (2020), "사이언스 픽션:바르셀로나의 C'estudis de tempanis (CETC)에 있는 IDEES의 "인류의 미래를 위한 거울"입니다.https://revistaidees.cat/en/science-fiction-favors-engaging-debate-on-artificial-intelligence-and-ethics/ 2021-06-10에 취득
- ^ 고트프리트 빌헬름 라이프니츠, (1714):모나돌로지, § 17 ('Mill Argument')참고 항목: Lodge, P. (2014): § Leibniz's Mill Argument:ERGO, Volume 1, No. 03)의 기계 물질주의에 대한 재방문" https://quod.lib.umich.edu/e/ergo/12405314.0001.003/--leibniz-s-mill-argument-against-mechanical-materialism?rgn=main;view=fulltext 2021-06-10에 취득
- ^ Bringjord, Selmer 및 Naveen Sundar Govindarajulu, "인공지능", The Stanford Encyclopedia of Philosopy(2020년 여름판), Edward N. Zalta(에드), URL = <https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/>에서 인용되었습니다.2021-06-10에 취득
- ^ Hodges, A. (2014), Alan Turing: 에니그마, 빈티지, 런던, 페이지 334
- ^ A. M. 튜링(1936년)."계산 가능한 숫자에 대하여, "Entscheidungsproblem에 대한 응용." 런던 수학회 회보 2s. vol. 42(1936–1937), 페이지 230–265.
- ^ "Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service"". Ready Steady Cut. 2021-05-14. Retrieved 2021-12-21.
- ^ Cave, Stephen; Dihal, Kanta; Dillon, Sarah, eds. (14 February 2020). AI narratives: a history of imaginative thinking about intelligent machines (First ed.). Oxford. ISBN 978-0-19-258604-9. OCLC 1143647559. Archived from the original on 18 March 2021. Retrieved 11 November 2020.
- ^ Jerreat-Poole, Adam (1 February 2020). "Sick, Slow, Cyborg: Crip Futurity in Mass Effect". Game Studies. 20. ISSN 1604-7982. Archived from the original on 9 December 2020. Retrieved 11 November 2020.
- ^ ""Detroit: Become Human" Will Challenge your Morals and your Humanity". Coffee or Die Magazine. 2018-08-06. Retrieved 2021-12-07.
- ^ Cerqui, Daniela; Warwick, Kevin (2008), "Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal?", Philosophy and Design, Dordrecht: Springer Netherlands, pp. 185–195, doi:10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, archived from the original on 2021-03-18, retrieved 2020-11-11
- ^ Cave, Stephen; Dihal, Kanta (6 August 2020). "The Whiteness of AI". Philosophy & Technology. 33 (4): 685–703. doi:10.1007/s13347-020-00415-6. S2CID 225466550.
외부 링크
- 인터넷 철학 백과사전의 인공지능 윤리
- 스탠퍼드 철학 백과사전의 인공지능과 로봇공학 윤리
- Russell, S.; Hauert, S.; Altman, R.; Veloso, M. (May 2015). "Robotics: Ethics of artificial intelligence". Nature. 521 (7553): 415–418. Bibcode:2015Natur.521..415.. doi:10.1038/521415a. PMID 26017428. S2CID 4452826.
- BBC 뉴스: 자신만의 삶을 즐기는 게임
- 누가 로봇을 무서워할까?2018-03-22 Wayback Machine에 보관, 인공지능에 대한 인류의 공포에 관한 기사.
- 컴퓨터 윤리의 짧은 역사
- 알고리즘워치별 AI 윤리 가이드라인 글로벌 인벤토리
- Hagendorff, Thilo (March 2020). "The Ethics of AI Ethics: An Evaluation of Guidelines". Minds and Machines. 30 (1): 99–120. doi:10.1007/s11023-020-09517-8. S2CID 72940833.