자급자폭발

Lethal autonomous weapon
"밀로시" 추적 전투 로봇이 장착된 세르비아 Land Rover Defender 견인 트레일러

살상자율무기(LAWS)는 프로그램된 제약조건과 기술에 따라 독립적으로 표적을 탐색하고 교전할 수 있는 일종의 자율군사시스템이다.LAW는 치명적인 자율 무기 시스템(LAWS), 자율 무기 시스템(AWS), 로봇 무기 또는 살인 로봇으로도 알려져 있습니다.LAWS는 공중, 육상, 물, 수중 또는 우주에서 작동할 수 있습니다.2018년 현재 현재 시스템의 자율성은 인간이 공격에 대한 최종 명령을 내린다는 점에서 제한되었습니다. 단, 특정 "방어적" 시스템에는 예외가 있습니다.

무기로서의 자율성

"자율적"이 된다는 것은 학문 분야마다 다른 의미를 가집니다.엔지니어링에서 이는 사람의 개입 없이 기계를 작동할 수 있는 능력을 나타낼 수 있습니다.철학에서 그것은 도덕적으로 독립적인 개인을 지칭할 수 있다.정치학에서 그것은 한 지역의 자치 능력을 나타낼 수 있다.군사무기 개발 측면에서는 무기의 자율성이 다른 [1]분야만큼 명확하지 않다.자율성의 개념에 수반되는 구체적인 기준은 학자, 국가, 조직마다 크게 다를 수 있다.

다양한 사람들은 무엇이 치명적인 자율 무기를 구성하는지에 대해 많은 정의를 가지고 있다.미국 국방부 무기체계 자율정책은 자율무기시스템을 "일단 활성화되면 인간 조작자의 [2]추가 개입 없이 표적을 선택하고 교전할 수 있는 무기체계"로 정의하고 있다.케이스 웨스턴 리저브 대학 로스쿨의 저자인 Heather Roff는 자율 무기 시스템을 "무장 무기 시스템으로서, '배치된 환경에서의 변화하는 환경에 대응하여 기능하는' 것을 배우고 적응할 수 있을 뿐만 아니라,[3] 스스로 발포 결정을 내릴 수 있다"고 설명한다.이 자율무기체계의 정의는 피터 아사로와 마크 구브루드 같은 학자들의 정의에 비하면 상당히 높은 한계치이다.

피터 아사로와 마크 구브루드 같은 학자들은 문턱을 낮추고 더 많은 무기 체계를 자율적으로 판단하려고 노력하고 있다.그들은 인간 감독관의 조작, 결정 또는 확인 없이 치명적인 힘을 방출할 수 있는 어떤 무기 시스템도 자율적인 것으로 간주될 수 있다고 믿는다.Gubrud에 따르면 인간의 개입 없이 부분적으로 또는 전체적으로 작동하는 무기 시스템은 자율적인 것으로 간주된다.그는 무기 시스템이 자율적이라고 불리기 위해 완전히 스스로 결정을 내릴 필요는 없다고 주장한다.대신 목표물을 찾는 것부터 [4][5]최종 발사까지 '준비 과정'의 하나 또는 여러 부분에 적극적으로 관여하는 한 자율적인 것으로 취급해야 합니다.

그러나 다른 기관들은 자율무기체계 기준을 더 높은 위치에 두고 있다.영국 국방부는 "자율 무기 시스템을 보다 높은 수준의 의도와 방향을 이해할 수 있는 시스템"으로 정의한다.이러한 이해와 그 환경에 대한 인식으로부터, 그러한 시스템은 원하는 상태를 얻기 위한 적절한 조치를 취할 수 있다.인간의 감시와 통제에 의존하지 않고 여러 가지 대안으로부터 행동 방침을 결정할 수 있다.그러나, 그러한 인간에 의한 시스템의 관여는 여전히 존재할 수 있다.자율형 무인 항공기의 전반적인 활동은 예측 가능하지만 개별 행동은 [6]예측 불가능할 수 있다."

결과적으로, 국가 간 조약의 구성은 정확히 자율 [7]무기를 구성하는 것에 대해 일반적으로 받아들여지는 라벨을 필요로 한다.

자동 방어 시스템

가장 오래된 자동 발동 살상 무기는 적어도 1600년대부터 사용된 지뢰적어도 1700년대부터 사용된 해군 지뢰이다.대인지뢰는 미국, 러시아, 그리고 아시아와 중동 지역을 제외한 많은 나라에서 1997년 오타와 조약에 의해 금지되었다.

현재 LAW의 일부 예는 1970년대 이후 사용 중인 선박을 방어하는 데 사용되는 레이더 유도 CIWS 시스템(예: 미국 팔랑크스 CIWS)과 같은 자동화된 "하드킬" 능동 보호 시스템이다.이러한 시스템은 인간 조작자가 설정한 기준에 따라 다가오는 미사일, 로켓, 포탄, 항공기, 지상 함정을 자율적으로 식별하여 공격할 수 있다.러시아 아레나, 이스라엘 트로피, 독일 AMAP-ADS와 같은 탱크에도 유사한 시스템이 존재한다. 한국과 이스라엘에서는 인간과 차량을 향해 발포할 수 있는 여러 종류의 고정 초병총이 사용된다.아이언 돔과 같은 많은 미사일 방어 시스템도 자율적인 조준 능력을 가지고 있다.

이러한 시스템에 「루프내의 인간」이 없는 주된 이유는, 신속한 대응의 필요성입니다.이들은 일반적으로 들어오는 발사체로부터 인력과 설비를 보호하기 위해 사용되어 왔습니다.

자율 공격 시스템

자율성이 높은 시스템에는 무인기나 무인 전투 항공기포함된다. 예:"비무장한 BAE 시스템s Taranis 제트추진 전투용 무인기 프로토타입은 적을 자율적으로 탐색, 식별, 위치를 파악할 수 있는 Future Combat Air 시스템을 만들 수 있지만 임무 지휘부의 승인을 받아야만 목표물과 교전할 수 있습니다.그것은 또한 적기로부터 스스로를 방어할 수 있다." (Heyns 2013, § 45).Northrop Grumman X-47B 드론은 항공모함(2014년 시연) 이착륙이 가능하며 무인항공모함-발사 공중감시타격(UCLASS) 시스템으로 개발될 예정이다.

이코노미스트따르면 기술이 발전함에 따라 향후 무인 해저 비행체에는 지뢰 제거, 지뢰 부설, 분쟁 해역에서의 대잠수함 네트워크, 능동 음파탐지기 순시, 유인 잠수함 보급, 저가 미사일 플랫폼이 [8]될 수 있다.2018년 미국 핵태세리뷰는 러시아가 "Status 6"[9]이라는 이름의 새로운 대륙간 핵무장 핵추진 해저 자율 어뢰를 개발하고 있다고 주장했다.

러시아 연방은 인공 지능 미사일,[10][11] 무인기, 무인자동차, 군사 로봇, 의료 [12][13][14][15]로봇 개발에 적극 나서고 있다.

아유브 카라 이스라엘 장관은 2017년 이스라엘이 [16]파리만큼 작은 로봇을 포함한 군사용 로봇을 개발하고 있다고 말했다.

2018년 10월 중국 방산업체 노린코의 쩡이( at,) 상무는 앞으로 전쟁터에서는 싸울 사람이 없다며 전쟁에서 치명적인 자율무기를 사용하는 것은 [17]불가항력이라고 말했다.2019년 마크 에스퍼 미 국방장관은 중국이 인간의 [18]감시 없이 생명을 앗아갈 수 있는 드론을 판매했다고 맹비난했다.

영국 육군은 [19]2019년에 새로운 무인 자동차와 군사 로봇을 배치했다.

해군은 유령 [20]함대를 개발하고 있다.

2021년 3월 발간된 유엔 안전보장이사회 리비아 전문가 패널 보고서에 따르면 2020년 카르구 2호 무인기가 리비아의 인간 목표물을 추적해 공격했다.살상무기로 무장한 자율형 킬러 로봇이 인간을 [21][22]공격한 것은 이번이 처음일 것이다.

윤리적 및 법적 문제

미국 정책에 사용되는 표준

현재 미국의 정책 조항: "자율적인 무기 시스템은 지휘관과 운영자가 [23]무력 사용에 대해 적절한 수준의 인간 판단을 할 수 있도록 설계되어야 한다."그러나 이 정책은 사람을 죽이거나 운동력을 사용하는 자율 무기 시스템을 인간의 개입 없이 표적을 선택하고 참여시키는 것이 "적절한 수준" 및 기타 기준에 부합하는 것으로 인증되어야 하며, 이러한 무기 시스템이 이러한 표준을 충족할 수 없으므로 [24]금지되어야 하는 것은 아니다.대상을 자율적으로 식별해 공격하는 반자율형 사냥꾼 킬러는 [24]인증도 필요 없다.로버트 워크 국방부 부장관은 2016년 "국방부가 결정권을 기계에 위임하지 않을 것"이라고 말했지만, "권위주의 정권"이 그렇게 [25]할 수도 있기 때문에 이를 재고할 필요가 있을 수도 있다.2016년 10월 버락 오바마 대통령은 자신의 경력 초기에 무인기 전쟁을 사용하는 미국 대통령이 "어떤 책임이나 민주적 [26][27]논쟁 없이 전 세계에서 영구적인 전쟁을 치르고 많은 전쟁을 비밀리에 치를 수 있는" 미래를 경계한다고 말했다.미국에서는 [28][29]2018년부터 보안 관련 AI가 국가안전보장위원회(NSC)의 권한에 들어갔다.2019년 10월 31일, 미국 국방부의 국방혁신위원회는 무기화된 AI에 대한 5가지 원칙을 제시하고 인간 운용자가 항상 '검은색'을 들여다 볼 수 있도록 보장하는 국방부의 인공지능의 윤리적 사용에 대한 12가지 권고안을 제시하는 보고서의 초안을 발표했다.살인사슬의 과정을 이해할 수 있습니다.주요 관심사는 보고서가 어떻게 [30]구현될 것인가이다.

윤리 및 국제법 위반 가능성

버클리 캘리포니아 대학의 컴퓨터 공학과 교수인 스튜어트 러셀은 LAWS에 대한 그의 우려는 그것이 비윤리적이고 비인간적이라는 것이라고 말했다.이 시스템의 가장 큰 문제는 전투원과 비전투원을 [31]구별하기 어렵다는 것이다.

고 법적 economists[32]학자들에 의해 여부 LAWs 국제 인도 법의 특히 원칙은 수 있는 능력이 보내질의 투사를 식별하는데와 비례의 그 민간인들에게 피해는 군대에 비례한다 요구하는 원리를 필요로 하고 침해할 것이 우려되고 있다. aim.[33]이러한 우려는 종종 "킬러 로봇"을 전면 금지해야 하는 이유로 제기되기도 하지만, 이러한 우려가 국제인도법을 [34][35][36]위반하지 않는 법률에 반대하는 주장이 될 수 있을지는 의문이다.

2021년 미국 의회조사국에 의한 보고서는 특정 재래식무기에 관한 유엔협약([37]CCW)에서 진행 중인 논의를 인정하지만, "LAW의 사용에 대한 국내적, 국제적 법적 금지는 없다"고 밝히고 있다.

법률은 특정 [38][39]살인에 누가 책임이 있는지에 대한 경계를 모호하게 한다고 일부 사람들은 말한다.철학자 로버트 스패로우(Robert Sparrow)는 자율형 무기는 어린이 군인과 마찬가지로 인과관계가 있지만 도덕적으로 책임이 없다고 주장한다.각각의 경우에, 그는 책임을 물을 적절한 주체 없이 잔혹행위가 일어날 위험이 있다고 주장하는데, 이는 벨로[40]주스를 위반하는 것이다.토마스 심슨과 빈센트 뮐러는 그들이 누가 어떤 명령을 [41]내렸는지 기록하는 것을 더 쉽게 할 수 있다고 주장한다.마찬가지로, 스티븐 움브렐로, 에밀 P.토레스와 안젤로 F. De Bellis는 LAW의 기술적 능력이 적어도 인간 군인만큼 정확하다면, 전쟁에서 인간 군인의 심리적 결점을 고려할 때 이러한 유형의 윤리적인 LAW만 사용되어야 한다고 주장한다.마찬가지로, 그들은 가치 민감 설계 접근법을 인간의 가치와 국제 인도주의 [35]에 부합하도록 이러한 법을 설계하기 위한 잠재적 프레임워크로 사용할 것을 제안한다.또한, LAW에 의한 잠재적 IHL 위반은 정의상 전투원과 민간인을 구별할 필요가 있는 분쟁 환경에만 적용된다.따라서 민간인의 존재가 없는 분쟁 시나리오(즉, 우주나 심해)는 [42]IHL에 의해 야기되는 장애물에 부딪히지 않는다.

정치경제학자 크리스토퍼 코인 교수와 야히아 알샤미는 법이 군국주의를 장려하고 평화적 해결책을 훼손하는 것에 대해 우려하고 있다.그들은 인간이 그들의 도덕성과 죽음 때문에 평화를 찾는 역동적인 활동에 참여할 수 있다는 것을 강조한다.그들은 또한 잠재적인 군비경쟁과 법률 획득에 대한 선례 확립에 대한 우려를 표명한다.많은 학자들이 확산이 상호확증파괴에 의한 상호억지에 도움이 된다고 보는 반면, 그들은 확산이 공격적인 행동을 억제하는데 효과적이기 위해서는 무기 사용을 자제하는 것이 어느 정도 긍정적인 붕괴 가능성을 가져야 한다고 말한다.무기가 사용될 가능성이 없다면, 무기들은 누구도 저지하지 못할 것이고,[43] 애초에 무기를 가지고 있는 것은 의미가 없을 것이다.

LAWS 금지 캠페인

LAWS의 가능성은 특히 가까운 미래 또는 먼 미래에 지구를 배회하는 "킬러 로봇"의 위험에 대한 중요한 논쟁을 불러일으켰다.킬러 로봇을 멈추기 위한 캠페인은 2013년에 결성되었다.2015년 7월, 1,000명이 넘는 인공지능 전문가들이 인공지능 군비 경쟁의 위협을 경고하고 자율 무기 금지를 촉구하는 서한에 서명했다. 서한은 부에노스아이레스에서 열린 제24회 국제인공지능공동회의(IJCAI-15)에서 발표됐으며 스티븐 호킹, 엘론 머스크, 스티브 워즈니악, 노암 촘스키, 스카이프 공동창업자탈린, 구글 딥마인드 이 공동 서명했다.

PAX For Peace (킬러 로봇 저지 캠페인의 창립 조직 중 하나)에 따르면, 완전 자동화 무기 (FAWs)는 군인들이 전장에서 쫓겨나고 대중들이 전쟁을 경험하는 것에서 멀어짐에 따라, 정치인들과 다른 의사 결정자들에게 언제 그리고 어떻게 결정할 수 있는 더 많은 공간을 주면서, 전쟁터로 가는 문턱을 낮출 것이다.전쟁터로 [46]가는 것.그들은 일단 배치되면 FAWS가 전쟁에 대한 민주적 통제를 더욱 어렵게 만들 것이라고 경고하고 있다.이것은 Kill Decision의 저자인 이 주제에 관한 소설이다.IT 전문가인 Daniel Suarez는 또한 그의 말에 따르면 전쟁에 [46]나갈 사람을 거의 요구하지 않음으로써 권력을 극소수의 손에 재집권시킬 수도 있다고 경고했다.

인공지능의 무기 지정에 대한 연구가 계속될 경우 바람직하지 않은 결과를 제시하며 LAW 개발에 항의하는 웹사이트도[clarification needed] 있다.이러한 웹사이트에서는 윤리적, 법적 문제에 대한 뉴스가 지속적으로 갱신되어 방문자들이 국제 회의에 대한 최신 뉴스 및 LAW에 [47]관한 연구 기사로 요약할 수 있도록 하고 있다.

교황청은 국제사회가 여러 차례에 걸쳐 LAW 사용을 금지할 것을 요구해 왔다.2018년 11월 유엔 교황청 상임 옵서버인 이반 위르코비치 대주교는 군비경쟁과 불평등과 불안정의 증가를 막기 위해서는 신속한 행동이 필수적 의무이며 지금이 LAU가 내일의 전쟁의 현실화되지 않도록 해야 할 때라고 말했다.교회는 이러한 무기체계가 전쟁의 본질을 돌이킬 수 없을 정도로 바꾸고, 인간 기관으로부터의 분리를 만들어내고,[48] 사회의 인간성에 의문을 제기할 수 있는 능력을 가지고 있다고 우려한다.

2019년 3월 29일 현재, 이 문제를 논의하기 위해 유엔 회의에 대표된 대다수의 정부는 법률 [49]금지를 지지했다.호주, 이스라엘, 러시아, 영국, 미국을 포함한 소수의 정부들은 [49]금지에 반대했다.미국은 자율 무기가 민간인 [50]살해를 막는데 도움을 주었다고 밝혔다.

금지는 없지만 규정

세 번째 접근법은 금지 [51]대신 자율 무기 시스템의 사용을 규제하는 데 초점을 맞추고 있다.군사 AI 군비 통제는 법적, 정치적 검증 [52][53][54][55]과정과 함께 전문가 커뮤니티에 의한 능동적 모니터링 및 비공식('트랙 II') 외교와 결합된 효과적인 기술 사양에 구체화된 새로운 국제 규범의 제도화가 필요할 것이다.2021년 미국 국방부는 중국 인민해방군에 AI 대응 자율무기에 대한 대화를 요청했으나 [56]거절당했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Crootof, Rebecca (2015). "The Killer Robots Are Here: Legal and Policy Implications". 36 Cardozo L. Rev: 1837 – via heinonline.org.
  2. ^ Allen, Gregory. "DOD Is Updating Its Decade-Old Autonomous Weapons Policy, but Confusion Remains Widespread". Center for Strategic and International Studies. Center for Strategic and International Studies. Retrieved 24 July 2022.
  3. ^ Roff, Heather (2015). "Lethal Autonomous Weapons and Jus Ad Bellum Proportionality".
  4. ^ Asaro, Peter (2012). "On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making". Red Cross. 687: 94}.
  5. ^ "Autonomy without Mystery: Where do you draw the line?". 1.0 Human. 2014-05-09. Retrieved 2018-06-08.
  6. ^ "Unmanned aircraft systems (JDP 0-30.2)". GOV.UK. Retrieved 2018-06-08.
  7. ^ Krishnan, Armin (2016). Taylor & Francis Group. www.taylorfrancis.com. doi:10.4324/9781315591070. ISBN 9781317109129. Retrieved 2018-06-08.
  8. ^ "Getting to grips with military robotics". The Economist. 25 January 2018. Retrieved 7 February 2018.
  9. ^ "US says Russia 'developing' undersea nuclear-armed torpedo". CNN. 3 February 2018. Retrieved 7 February 2018.
  10. ^ "Russia is building a missile that can makes its own decisions". Newsweek. 20 July 2017.
  11. ^ "Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond". 2017-05-31.
  12. ^ "'Comrade in Arms': Russia is developing a freethinking war machine". 2017-08-09.
  13. ^ "Rise of the Machines: A look at Russia's latest combat robots". 2017-06-06.
  14. ^ "Is Terminator back? Russians make major advances in artificial intelligence". 10 February 2016.
  15. ^ "Virtual trainer for robots and drones developed in Russia". 15 May 2017.
  16. ^ "Kara: I wasn't revealing state secrets about the robots". The Jerusalem Post.
  17. ^ Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Center for a New American Security. Retrieved 11 March 2019.
  18. ^ "Is China exporting killer robots to Mideast?". Asia Times. 28 November 2019. Retrieved 21 December 2019.
  19. ^ "British Army to operationally deploy new robots in 2019 March 2019 Global Defense Security army news industry Defense Security global news industry army 2019 Archive News year".
  20. ^ "US Navy plans to build an unmanned Ghost Fleet".
  21. ^ Hambling, David. "Drones may have attacked humans fully autonomously for the first time". New Scientist. Retrieved 2021-05-30.
  22. ^ "Killer drone 'hunted down a human target' without being told to". New York Post. 2021-05-29. Retrieved 2021-05-30.
  23. ^ US Department of Defense (2012). "Directive 3000.09, Autonomy in weapon systems" (PDF). p. 2. Archived from the original (PDF) on December 1, 2012.
  24. ^ a b Gubrud, Mark (April 2015). "Semi-autonomous and on their own: Killer robots in Plato's Cave". Bulletin of the Atomic Scientists.
  25. ^ Lamothe, Dan (30 March 2016). "Pentagon examining the 'killer robot' threat". Boston Globe.
  26. ^ Chait, Jonathan (2016-10-03). "Barack Obama on 5 Days That Shaped His Presidency". Daily Intelligencer. Retrieved 3 January 2017.
  27. ^ Devereaux, Ryan; Emmons, Alex (2016-10-03). "Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War". The Intercept. Retrieved 3 January 2017.
  28. ^ Stefanik, Elise M. (2018-05-22). "H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. Retrieved 2020-03-13.
  29. ^ Baum, Seth (2018-09-30). "Countering Superintelligence Misinformation". Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.
  30. ^ United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
  31. ^ Russell, Stuart (27 May 2015). "Take a stand on AI weapons". International Weekly Journal of Science. 521.
  32. ^ Coyne, Christopher; Alshamy, Yahya A. (2021-04-03). "Perverse Consequences of Lethal Autonomous Weapons Systems". Peace Review. 33 (2): 190–198. doi:10.1080/10402659.2021.1998747. ISSN 1040-2659.
  33. ^ Sharkey, Noel E. (June 2012). "The evitability of autonomous robot warfare*". International Review of the Red Cross. 94 (886): 787–799. doi:10.1017/S1816383112000732. ISSN 1816-3831.
  34. ^ Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67–81.
  35. ^ a b Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (2020-03-01). "The future of war: could lethal autonomous weapons make conflict more ethical?". AI & Society. 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 1435-5655. S2CID 59606353.
  36. ^ Umbrello, Steven; Wood, Nathan Gabriel (2021-04-20). "Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status". Information. 12 (5): 216. doi:10.3390/info12050216.
  37. ^ Kelley M. Sayler (June 8, 2021). Defense Primer: Emerging Technologies (PDF) (Report). Congressional Research Service. Retrieved July 22, 2021.
  38. ^ Nyagudi, Nyagudi Musandu (2016-12-09). "Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive". Retrieved 2017-01-06.
  39. ^ Coyne, Christopher; Alshamy, Yahya A. (2021-04-03). "Perverse Consequences of Lethal Autonomous Weapons Systems". Peace Review. 33 (2): 190–198. doi:10.1080/10402659.2021.1998747. ISSN 1040-2659.
  40. ^ SPARROW, ROBERT (2007). "Killer Robots". Journal of Applied Philosophy. 24 (1): 62–77. doi:10.1111/j.1468-5930.2007.00346.x. ISSN 0264-3758. JSTOR 24355087.
  41. ^ Simpson, Thomas W; Müller, Vincent C. (2016). "Just war and robots' killings". Philosophical Quarterly. 66 (263): 302–22. doi:10.1093/pq/pqv075.
  42. ^ Boulanin et al., "무기 시스템의 자율성 제한", SIPRI & ICRC(2020): 37.
  43. ^ Coyne, Christopher; Alshamy, Yahya A. (2021-04-03). "Perverse Consequences of Lethal Autonomous Weapons Systems". Peace Review. 33 (2): 190–198. doi:10.1080/10402659.2021.1998747. ISSN 1040-2659.
  44. ^ Zakrzewski, Cat (2015-07-27). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ Blogs - Digits. Retrieved 2015-07-28.
  45. ^ Gibbs, Samuel (27 July 2015). "Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons". The Guardian. Retrieved 28 July 2015.
  46. ^ a b "Deadly Decisions - 8 objections to killer robots" (PDF). p. 10. Retrieved 2 December 2016.
  47. ^ "Front page". Ban Lethal Autonomous Weapons. 2017-11-10. Retrieved 2018-06-09.
  48. ^ "Holy See renews appeal to ban killer robots". Catholic News Agency. November 28, 2018. Retrieved 30 November 2018.
  49. ^ a b Gayle, Damien (29 March 2019). "UK, US and Russia among those opposing killer robot ban". The Guardian. Retrieved 30 March 2019.
  50. ^ Werkhäuser, Nina (27 August 2018). "Should 'killer robots' be banned?". Deutsche Welle (DW). Retrieved 31 December 2021.
  51. ^ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. Retrieved 2019-09-14.
  52. ^ Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.
  53. ^ Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.
  54. ^ Ekelhof, Merel (2019). "Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation". Global Policy. 10 (3): 343–348. doi:10.1111/1758-5899.12665. ISSN 1758-5899.
  55. ^ Umbrello, Steven (2021-04-05). "Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach". Ethics and Information Technology. 23 (3): 455–464. doi:10.1007/s10676-021-09588-w. ISSN 1572-8439.
  56. ^ Allen, Gregory C. (May 20, 2022). "One Key Challenge for Diplomacy on AI: China's Military Does Not Want to Talk". Center for Strategic and International Studies (CSIS). Retrieved 2022-05-20.

추가 정보