인공지능 군비 경쟁

Artificial intelligence arms race

군사 인공지능 군비 경쟁은 그들의 군대가 최고의 인공지능을 갖추도록 하기 위한 두 개 이상의 국가 사이의 경쟁 또는 군비 경쟁이다.2010년대 중반 이후 많은 분석가들은 더 나은 군사 AI를 위한 강대국들 간의 이러한 세계적인 군비 경쟁인 AI 군비 경쟁의 출현에 주목해 왔으며, 이는 제2차 [1][2]냉전으로 불리는 지정학적, 군사적 긴장이 고조되고 있는 것과 일치하고 그에 따라 추진되고 있다.AI 군비 경쟁의 맥락은 미국과 중국의 긴장이 AI [3]기술 분야에서 냉전으로 이어지는 AI 냉전 이야기다.

용어.

AI 군비 경쟁은 "살인 로봇" 또는 "살인 로봇"으로 알려진 치명적인 자율 무기 시스템을 개발하고 배치하기 위한 세계 강대국들의 경쟁이다.인공지능(AI)을 이용해 인간의 [4]개입 없이 인간의 표적을 식별, 선택, 죽이는 무기 시스템이다.더 넓게는, 우수한 인공지능을 위한 경쟁은 때때로 "군비 경쟁"[5][6]으로 규정된다.군사적 AI의 우위에 대한 추구는 특히 경제적, 군사적 [7]이점을 모두 추구하기 때문에 다른 분야에서의 우위에 대한 추구와 겹친다.

리스크

Leverhulme Centre의 Stephen Cave는 AI 종족의 위험은 세 가지이며 각각 잠재적인 지정학적 의미를 가지고 있다고 주장한다.첫 번째 위험은 경주가 없었다고 해도 경주를 둘러싼 용어는 위험하다는 것입니다.AI 종족에 대한 미사여구와 우선의 중요성은 사회에 가장[8] 이롭고 [8][9]자기충족적으로 경쟁을 유도할 수 있는 AI 기술을 생산하기 위해 필요한 이해관계자와의 사려 깊은 숙고를 장려하지 않는다.

두 번째 위험은 어느 한 그룹이 이기든 AI 레이스 그 자체입니다.첨단 AI 기술을 최초로 개발했다는 수사학 및 인식된 이점 때문에, 편향[8]공정성과 같은 중요한 측면을 배제할 수 있는 안전 고려 사항에서 벗어나기 위한 강력한 인센티브가 등장하고 있다.특히 다른 팀이 위기에 처했다는 인식은 다른 팀에게 지름길을 택하고 준비가 안 된 AI 시스템을 배치하도록 유도하고 있어 다른 팀이나 AI 시스템을 보유한 그룹에 해가 [10][9]될 수 있다.폴 샤레가 포린폴리시(Foreign Policy)에서 경고한 것처럼 "각국에 진짜 위험은 AI에서 경쟁국에 뒤처지는 것이 아니라 인종에 대한 인식이 모든 사람들로 하여금 안전하지 않은 AI 시스템을 서둘러 배치하게 만들 것이다.이기려는 욕망에서 각국은 [9]상대국과 마찬가지로 스스로를 위험에 빠뜨릴 위험을 안고 있습니다.Nick Bostrom과 다른 사람들은 그러한 추가 증거를 제공하는 모델을 개발했습니다.이 모델은 다른 팀의 능력에 대한 더 많은 정보를 보유한 팀이 AI 시스템 개발에 더 많은 위험을 감수하고 단축을 초래한다는 것을 발견했다.또 팀 간 앙금이 클수록 주의사항을 무시하고 AI [10]재앙으로 이어질 위험도 커진다.AI 군비경쟁의 또 다른 위험은 AI 시스템에 대한 통제력을 상실할 위험이며, 인공 일반 지능으로의 경쟁의 경우 그 위험은 더욱 복잡해지며, 케이브는 이것이 실존적 [8]위험을 초래할 수 있다고 지적했다.

AI 군비경쟁의 세 번째 위험은 한 그룹이 실제로 이길 경우이다.이러한 리스크의 예로는 권력과 기술적 우위성을 한 [8]그룹에게 통합하는 것을 들 수 있습니다.만약 한 집단이 우수한 AI 기술을 달성한다면, "나는 AI가 가능한 능력을 우리의 중요한 인프라를 위협하고, 허위 정보 캠페인을 증폭시키고,[11]:1 전쟁을 일으키는데 사용할 수 있다고 결론짓는 것만이 타당하다."

군비경쟁용어는 경제적 지배력과 소프트파워를 위한 경쟁에서도 사용되기도 한다.예를 들어, 미국 인공지능 국가안보위원회의 2019년 11월 '중간 보고서'는 중국 및 러시아와의 관계에서 외교의 역할을 강조하면서 경쟁국 언어를 채택하고 있다.군비 경쟁을 [12]하다미국의 군사기술적 우위성은 기존[11]:11 세계질서에 필수적이며, 중국과 러시아의 AI 군국화와 함께 현재 진행 중인 미국의 AI 군국화는 지정학적 [11]:1-2목적을 위한 것이라고 강조하고 있다.

군사 인공지능에 대한 태도

러시아

A cartoon centipede reads books and types on a laptop.
2017년 지식의 날 푸틴(좌석, 중앙)

러시아 공군 통수권자인 빅토르 본다레프 장군은 이르면 2017년 2월 러시아가 목표물 전환을 [13]결정할 수 있는 AI 유도 미사일을 개발하고 있다고 밝혔다.러시아 군사산업위원회는 [14]2030년까지 원격조종 및 AI가 가능한 로봇 플랫폼으로부터 러시아 전투력의 30%를 얻는 계획을 승인했다.2017년 [15]중반 러시아 국영 언론에서 AI의 잠재적인 군사적 사용에 대한 보도가 증가했다.2017년 5월 방산업체인 러시아 크론슈타트그룹 최고경영자(CEO)는 무인기 클러스터가 자율적으로 임무를 수행하고 임무를 분담하며 상호작용할 수 있는 완전 자율형 AI 운영체계가 이미 존재한다고 밝힌 바 있다.구역에서.[16]러시아는 Kalashnikov의 "신경망" 전투 모듈과 같은 몇 개의 자율적이고 반자율적인 전투 시스템을 기관총, 카메라, 그리고 인공 지능으로 시험해 왔는데, 이 시스템은 제조사들이 인간의 [17]개입 없이 그들만의 표적 판단을 내릴 수 있다고 주장하고 있다.

2017년 9월 블라디미르 푸틴 러시아 대통령은 1만6000개 학교 100만 명 이상의 학생을 대상으로 한 국가지식의 날 연설에서 "인공지능은 러시아뿐 아니라 전 인류의 미래다.누가 이 분야의 지도자가 되든 세계의 지배자가 될 것이다.푸틴은 또한 독점을 하는 어떤 행위자도 막는 것이 낫겠지만, 만약 러시아가 AI의 리더가 된다면, 그들은 "지금 우리가 원자력과 [18][19][20]핵 기술을 가지고 하는 것처럼, 그들의 기술을 다른 세계와 공유할 것" 말했다.

러시아는 군사 AI 개발에 전념하는 다수의 조직을 설립하고 있다.러시아 정부는 2018년 3월 [21]AI 및 빅데이터 컨소시엄, 분석 알고리즘 및 프로그램 기금, 국가가 지원하는 AI 훈련 및 교육 프로그램, 전담 AI 연구소, 국립 인공지능 센터 등을 설립하는 내용을 담은 10개항의 AI 어젠다를 발표했다.또 러시아는 최근 고등연구재단(Foundation for Advanced Studies)이라는 자율로봇을 전담하는 DARPA급 국방연구단체를 만들어 [22][23]연례 러시아연방군로봇화 회의를 열었다.

러시아군은 반자율 및 자율 주행 차량에 중점을 두고 많은 AI 응용 분야를 연구해 왔다.11월 1일 2017년에 공식 성명에서, 빅토르 Bondarev회 이사회의 국방 및 보안 위원회 위원장은"인공 지능은 전장과 파일럿에 군인을 대체할 항공기 조종실에서 수 있을 것이다"고 나중에 자동차들 인공 지능을 얻을 것은 이날 날이 가까워지고 있다고 말했다 밝혔다."[24]Bondarev는 "기존 전투 차량을 능가하는" 것으로 알려진 러시아 무인 지상 차량인 Nerhta의 성공적인 테스트에 가까운 곳에서 이러한 발언을 했다.러시아는 네레타를 AI 연구개발 플랫폼으로 활용할 계획이며 언젠가 전투, 정보수집, 물류 [25]역할로 이 시스템을 배치할 수도 있다.보도에 따르면 러시아는 무인 지상 차량용 전투 모듈도 구축해 자율적인 표적 식별이 가능하고 잠재적으로 표적 교전이 가능한 AI 대응 자율 [26][27][23]시스템을 개발할 계획이다.

러시아군은 이와 함께 무인항공기, 해군기, 해저기 등에 AI를 탑재할 계획이며 [22]군집능력을 개발하고 있다.적응주파수 호핑, 파형,[28][29] 대책 등 원격감지 및 전자전에 AI를 활용한 혁신적 활용방안도 모색하고 있다.러시아는 또한 국내 선전 및 감시뿐만 아니라 미국과 [30][31][23]동맹국들을 겨냥한 정보작전에 AI 기술을 광범위하게 사용해 왔다.

러시아 정부는 치명적인 자율 무기 시스템에 대한 어떠한 금지도 [32][33]무시될 수 있음을 암시하며 강력하게 거부해왔다.

중국

중국은 글로벌 기술 [11][34]패권을 위해 AI에 대한 군사-민간 융합이라는 전략적 정책을 추진하고 있다.Gregory C의 2019년 2월 보고서에 따르면.최고 지도자인 시진핑을 포함한 중국 지도부는 AI 기술의 선두에 서는 것이 글로벌 군사 및 경제력 [7]경쟁의 미래에 매우 중요하다고 믿고 있다.중국 군 관계자들은 그들의 목표가 "중국 군대와 세계 [7]선진국의 격차를 줄이기 위해" 상업용 AI 기술을 통합하는 것이라고 말했다.실리콘밸리와 중국 간의 긴밀한 관계와 미국 연구 커뮤니티의 개방적인 성격으로 인해 서구의 최첨단 AI 기술을 중국에서도 쉽게 이용할 수 있게 되었습니다. 또한 바이두(Baidu)가 주목할 만한 중국어 음성 인식 능력 벤치를 통과하는 등 중국 산업 자체 AI 업적이 많습니다.2015년 [35]기록.2017년 현재, 베이징의 로드맵은 [36]2030년까지 1,500억 달러 규모의 AI 산업을 창출하는 것을 목표로 하고 있다.2013년 이전에는 중국의 국방 조달이 주로 몇몇 대기업에 국한되었지만, 2017년 현재 중국은 민간 신생 기업으로부터 [37]드론이나 인공지능과 같은 민감한 신흥 기술을 조달하는 경우가 많다.2021년 10월 안보신흥기술센터의 보고서에 따르면 중국군의 AI 장비 공급업체는 대부분 국영 방위기업이 아니라 [38]2010년 이후 설립된 민간 중국 기술기업이다.보고서는 AI에 대한 중국의 군사 [38]지출이 매년 16억 달러를 넘어섰다고 추정했다.재팬타임스2018년 AI에 대한 중국의 연간 민간 투자가 70억 달러 미만이라고 보도했다.중국의 AI 스타트업은 2017년 전 세계 AI 스타트업 투자액의 절반 가까이를 받았다.중국은 미국인의 [39]5배에 가까운 AI 특허를 출원했다.

중국은 2016년 완전자율화 무기의 만일의 사태에 대처하기 위한 기존 국제법의 적절성에 의문을 제기하는 입장서를 발표하면서 유엔 안전보장이사회 상임이사국 중 처음으로 [40]이 문제를 거론했다.2018년, 시 부주석은 기초 AI [41]연구에 있어 더 많은 국제 협력을 요청했다.중국 관리들은 특히 국제 [42]표준이 없는 상황에서 무인기와 같은 AI가 우발적인 전쟁으로 이어질 수 있다고 우려를 표명했다.2019년, 마크 에스퍼 전 미국 국방장관은 중국이 인간의 [43]감시 없이 생명을 살 수 있는 드론을 판매했다고 맹비난했다.

미국

The Sea Hunter sails out to sea
2016년 미국 자율 군함 씨헌터호

헤이글국방장관은 2014년 인공지능의 급속한 발전이 차세대 [44]전쟁을 규정할 것이라는 제3차 오프셋 전략을 내세웠다.데이터 과학 및 분석업체 고비니에 따르면 미 국방부는 인공지능, 빅데이터, 클라우드 컴퓨팅에 대한 투자를 2011년 56억달러에서 2016년 [45]74억달러로 늘렸다.그러나 2017년 [36]민간 AI NSF 예산은 증가하지 않았다.재팬 타임즈는 2018년에 미국의 민간 투자가 연간 [39]약 700억 달러라고 보도했다.2019년 11월 미국 국가안전보장위원회의 '중간 보고서'는 AI가 미국의 기술적 군사적 [11]우위에 매우 중요하다는 것을 확인시켜 주었다.

미국은 선원 1명 없이 장시간 해상에서 작전할 수 있고 항만과 [17]출항까지 안내할 수 있도록 설계된 시헌터 자율군함 등 많은 군사 AI 전투 프로그램을 보유하고 있다.2017년부터, 미국 국방부 임시 지령에 따르면, 자율 무기 [46]시스템에 의해 인명을 앗아가는 것에 관한 한, 인간 운용자를 루프에 계속 포함시킬 것을 요구하고 있다.2019년 10월 31일, 미국 국방부 국방혁신위원회는 인간 운용자가 항상 '블랙박스'를 들여다보고 킬 체인 프로세스를 이해할 수 있도록 보장하는 국방부의 인공지능 윤리적 사용을 위한 원칙을 권고하는 보고서의 초안을 발표했다.그러나 주요 관심사는 보고서가 어떻게 [47]구현될 것인가 하는 것이다.

Project Maven은 기계학습과 공학적 재능을 사용하여 무인기 [48]비디오에서 사람과 사물을 구별하는 펜타곤 프로젝트입니다.전장에서의 실시간 지휘와 제어, 그리고 사람의 개입 없이 목표물을 추적, 태그 붙이고 정찰할 수 있는 능력을 정부에 부여한 것으로 보입니다.처음에 그 노력은 로버트 O가 주도했다. 중국의 신기술을 [49]군사적으로 사용하는 것을 우려한 일.보도에 따르면 펜타곤의 개발은 스스로 지정한 [50]목표물을 향해 발사할 수 있는 AI 무기 시스템으로서의 역할을 하는 데 그치고 있다.이 프로젝트는 2017년 [51]4월 26일 미국 국방부 부장관 메모에서 확립되었다.2017년 11월 미 공군의 잭 샤나한 중장에 따르면 알고리즘 워페어 크로스 [52]기능팀이라고도 알려진 이 프로젝트는 "국방부의 나머지 부분에 걸쳐 인공지능의 불꽃을 태우는 파일럿 프로젝트, 패스파인더"로 설계되었다.[53]미 해병대 대령의 지휘관이다.Drew Cukor는 다음과 같이 말했다. "사람과 컴퓨터는 [54]공생적으로 작동하여 물체를 탐지하는 무기 시스템의 능력을 높일 것입니다."2017년 7월 제2회 Defense One Tech Summit에서 Cukor는 또한 "기밀취득 당국"을 통해 [국방부]가 "향후 36개월"[55] 동안 자금을 조달했다고 밝혔다.

합동인공지능센터(JAIC)[56]는 AI(특히 엣지 컴퓨팅), 네트워크 오브 네트워크(Network of Networks) 및 AI 강화 통신을 실제 [57][58][59][60]전투에 사용하는 방법을 탐구하는 미국의 기관입니다.2018년 6월 창설된 미군 사단이다.이 기구의 명시적인 목표는 "AI의 제공과 채택을 가속화함으로써 미 국방부를 변화시켜 규모에 맞게 임무에 영향을 미치는 것을 달성하는 것입니다.목표는 AI를 사용하여 여러 전투 시스템에 걸쳐 있는 크고 복잡한 문제 세트를 해결하는 것입니다. 그러면 전투 시스템과 구성 요소가 지속적으로 개선되는 데이터 세트 및 [58]도구 라이브러리에 실시간으로 액세스할 수 있습니다."

영국

2015년 영국 정부는 "국제인도법이 이미 이 지역에 대한 충분한 규제를 제공하고 있다"며 살상자율무기 금지에 반대했지만 영국군이 사용하는 모든 무기는 "인간의 감시와 [61]통제 하에 있을 것"이라고 밝혔다.

이스라엘

이스라엘의 '불꽃과 망각' 무인기는 지상군에 의해 발사되며, 사전 [62]설정된 기준에 맞는 레이더를 찾아 파괴하기 위해 지역 상공을 자율적으로 비행한다.인공 지능의 응용은 또한 승무원이 없는 지상 시스템과 Guardium MK III와 같은 로봇 차량 그리고 그 이후 [63]버전에서도 발전될 것으로 예상된다.이 로봇 차량들은 국경 방어에 사용된다.

대한민국.

2010년에 공개된 한국의 슈퍼 aEgis II 기관총은 한국과 중동에서 모두 사용될 것으로 보인다.4km 거리에서 움직이는 표적을 식별, 추적, 파괴할 수 있다.이 기술은 이론적으로는 사람의 개입 없이 작동할 수 있지만 실제로는 수동 입력이 필요한 안전장치가 설치되어 있습니다.한국의 한 제조업체는 다음과 같이 말한다. "우리의 무기는 인간이 자야 하는 것처럼 잠을 자지 않는다.그들은 어둠 속에서도 볼 수 있어, 인간이 볼 수 없는 것처럼.따라서 우리의 기술은 인간의 능력의 격차를 메우고 있으며, 그들은 우리의 소프트웨어가 표적이 아군인지, 적군인지, 민간인지,[64] 군사인지를 판별할 수 있는 장소에 도달하기를 원합니다.

유럽 연합

유럽의회는 인간이 치명적인 자율 [65]무기에 대한 감시와 의사결정권을 가져야 한다는 입장을 고수하고 있다.그러나 자율무기 사용에 대한 입장을 결정하는 것은 유럽연합의 각 회원국에 달려 있으며 회원국들의 엇갈린 입장은 유럽연합의 자율무기 개발 능력에 가장 큰 걸림돌일 수 있다.프랑스, 독일, 이탈리아, 스웨덴과 같은 일부 회원국은 치명적인 자율 무기를 개발하고 있다.일부 회원국은 자율적인 군사 무기 사용에 대해 결정을 내리지 못하고 있으며 오스트리아는 심지어 그러한 [66]무기 사용을 금지할 것을 요구하기도 했다.

일부 EU 회원국은 자동화 무기를 개발하고 개발 중이다.독일은 1밀리초 [66][67]이내에 완전한 자율성으로 위협에 대응할 수 있는 능동적 보호 시스템인 능동적 방어 시스템을 개발했다.이탈리아는 향후 군사 [66]계획에 자율 무기 시스템을 도입할 계획이다.

트렌드

2014년 AI 전문가 스티브 오모훈드로는 "자율적인 무기 경쟁은 이미 진행되고 있다"[68]고 경고했다.Siemens에 따르면, 로봇 공학에 대한 전세계 군사 지출은 2010년에 51억 달러, [69][70]2015년에 75억 달러였다.

중국은 2010년대에 인공지능 연구에서 1위를 차지했다.파이낸셜타임스에 따르면 2016년 중국이 처음으로 유럽연합(EU) 전체보다 많은 AI 논문을 발표했다.인용 논문의 상위 5%에 AI 논문 수를 제한했을 때 중국은 2016년 미국을 앞섰지만 유럽연합(EU)[36]에 뒤처졌고, 2017년 미국인공지능진보협회(AAAI) 콘퍼런스에 참석한 연구원 중 23%가 [71]중국이었다.에릭 슈미트 전 알파벳 회장[72]2025년까지 중국이 AI 선두국이 될 것으로 전망했다.

AAAI 발표자:[71]
나라 2012년에 2017년에
미국 41% 34%
중국 10% 23%
영국 5% 5%

국제규제의 제안

자율 무기에 대한 국제적인 규제는 [73]국제법의 새로운 이슈이다.AI 군비 통제는 법적, 정치적 검증 [1][2]과정과 함께 전문가 커뮤니티에 의한 적극적인 모니터링 및 비공식 외교와 결합된 효과적인 기술 사양에 구체화된 새로운 국제 규범의 제도화가 필요할 것이다.노엘 샤키 AI 교수 같은 학자들은 2007년 이미 "인간의 의미 있는 [74][75]결정 없이 스스로 목표물을 찾아 폭력적인 힘을 발휘할 수 있는 자율형 잠수함, 전투기, 전함, 탱크를 개발하기 위한 첨단 기술 국가들 간의 새로운 군비 경쟁"을 예고했다.

옥스퍼드 대학의 마일즈 브런디지는 "우리는 다양한 역사적 군비경쟁에서 협력과 대화가 이익을 가져다 줄 수 있다는 것을 보았다"[76]고 외교를 통해 인공지능 군비경쟁을 어느 정도 완화시킬 수 있다고 주장했다.100명이 넘는 전문가들이 2017년 유엔에 치명적인 자율 [77][78]무기 문제를 해결할 것을 촉구하는 공개 서한에 서명했지만, 2017년 11월 유엔 특정 재래식 무기 협약(CCW) 회의에서 외교관들은 그러한 [79]무기를 정의하는 방법조차 합의하지 못했다.인도 대사이자 CCW 의장인 그는 규칙에 대한 합의는 아직 먼 [80]전망이라고 말했다.2019년 현재, 26명의 국가 원수와 21명의 노벨 평화상 수상자들이 자율 무기 [81]금지를 지지하고 있다.그러나 2022년 현재 대부분의 강대국들은 자율무기 [82]금지에 계속 반대하고 있다.

많은 전문가들은 킬러 로봇을 완전히 금지하려는 시도가 실패할 것이라고 [83]믿고 있는데, 부분적으로 조약 위반을 탐지하는 것이 매우 [84][85]어렵기 때문이다.하버드 벨퍼 센터2017년 보고서는 인공지능이 [76][86][87]핵무기만큼 변화할 수 있는 잠재력을 가지고 있다고 예측하고 있다.보고서는 이어 "AI의 군사적 이용을 막는 것은 불가능할 것 같다"며 "AI 사망자의 핵무기 [87]스위치를 부착하는 것을 금지하는 등 안전하고 효과적인 기술 관리라는 보다 완만한 목표를 추구해야 한다"고 주장했다.

자율 무기에 대한 기타 반응

치명적인 자율 무기 시스템의 금지를 요구하는 미래 생명 연구소의 2015년 공개 서한은 물리학자 스티븐 호킹, 테슬라 거물 엘론 머스크, 애플스티브 워즈니악트위터 공동 설립자도르시를 포함한 26,000명 이상의 시민들과 스튜어트 러시를 포함한 4,600명 이상의 인공지능 연구자들에 의해 서명되었다., 바트 셀먼과 프란체스카 [88][79]로시입니다미래생명연구소는 또한 세계에 자율 무기의 위험성과 긴급한 금지 필요성에 대해 경고하기 위해 두 편의 허구 영화인 슬로터봇 (2017)과 슬로터봇 (2021)을 개봉했다.

셰필드 대학의 노엘 샤키 교수는 자율 무기가 불가피하게 IS와 [89]같은 테러 집단의 손에 넘어갈 것이라고 경고했다.

연결 해제

많은 서방 기술 회사들은 중국 시장에 [35]대한 접근권을 잃을까 봐 미군과 너무 밀접하게 연계되는 것을 경계하고 있다.게다가, DeepMindDemis Hassabis와 같은 일부 연구자들은 군사 [90]활동에 기여하는 것을 이념적으로 반대한다.

예를 들어 2018년 6월 구글의 회사 소식통에 따르면 최고 경영자인 다이앤 그린은 2019년 [48]3월 현재 계약이 만료된 후 프로젝트 메이븐에 후속 조치를 취하지 않을 것이라고 직원들에게 말했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.
  2. ^ a b Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.
  3. ^ Champion, Marc (12 December 2019). "Digital Cold War". Bloomberg. Retrieved 3 July 2021.
  4. ^ "Homepage". Lethal Autonomous Weapons. 2021-10-20. Retrieved 2022-02-17.
  5. ^ Roff, Heather M. (2019-04-26). "The frame problem: The AI "arms race" isn't one". Bulletin of the Atomic Scientists. 75 (3): 95–98. Bibcode:2019BuAtS..75c..95R. doi:10.1080/00963402.2019.1604836. ISSN 0096-3402. S2CID 150835614.
  6. ^ "For Google, a leg up in the artificial intelligence arms race". Fortune. 2014. Retrieved 11 April 2020.
  7. ^ a b c Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Center for a New American Security. Retrieved 15 March 2019.
  8. ^ a b c d e Cave, Stephen; ÓhÉigeartaigh, Seán S. (2018). "An AI Race for Strategic Advantage". Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society - AIES '18. New York, New York, USA: ACM Press: 2. doi:10.1145/3278721.3278780. ISBN 978-1-4503-6012-8.
  9. ^ a b c Scharre, Paul (18 February 2020). "Killer Apps: The Real Dangers of an AI Arms Race". Retrieved 15 March 2020.
  10. ^ a b Armstrong, Stuart; Bostrom, Nick; Shulman, Carl (2015-08-01). "Racing to the precipice: a model of artificial intelligence development". AI & Society. 31 (2): 201–206. doi:10.1007/s00146-015-0590-y. ISSN 0951-5666. S2CID 16199902.
  11. ^ a b c d e Interim Report. Washington, DC: National Security Commission on Artificial Intelligence. 2019.
  12. ^ Pascal, Tim Hwang, Alex. "Artificial Intelligence Isn't an Arms Race". Foreign Policy. Retrieved 2020-04-07.
  13. ^ "Russia is building a missile that can makes its own decisions". Newsweek. 20 July 2017. Retrieved 24 December 2017.
  14. ^ Walters, Greg (7 September 2017). "Artificial Intelligence Is Poised to Revolutionize Warfare". Seeker. Retrieved 8 May 2022.
  15. ^ "Why Elon Musk is right about the threat posed by Russian artificial intelligence". The Independent. 6 September 2017. Retrieved 24 December 2017.
  16. ^ "Russia is developing autonomous "swarms of drones" it calls an inevitable part of future warfare". Newsweek. 15 May 2017. Retrieved 24 December 2017.
  17. ^ a b Smith, Mark (25 August 2017). "Is 'killer robot' warfare closer than we think?". BBC News. Retrieved 24 December 2017.
  18. ^ "Artificial Intelligence Fuels New Global Arms Race". WIRED. Retrieved 24 December 2017.
  19. ^ Clifford, Catherine (29 September 2017). "In the same way there was a nuclear arms race, there will be a race to build A.I., says tech exec". CNBC. Retrieved 24 December 2017.
  20. ^ Radina Gigova (2 September 2017). "Who Vladimir Putin thinks will rule the world". CNN. Retrieved 22 March 2020.
  21. ^ "Here's How the Russian Military Is Organizing to Develop AI". Defense One. Retrieved 2020-05-01.
  22. ^ a b "Red Robots Rising: Behind the Rapid Development of Russian Unmanned Military Systems". The Strategy Bridge. Retrieved 2020-05-01.
  23. ^ a b c Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service. 2019.Public Domain 이 문서에는 퍼블릭 도메인에 있는 이 소스로부터의 텍스트가 포함되어 있습니다..
  24. ^ Bendett, Samuel (2017-11-08). "Should the U.S. Army Fear Russia's Killer Robots?". The National Interest. Retrieved 2020-05-01.
  25. ^ "Russia Says It Will Field a Robot Tank that Outperforms Humans". Defense One. Retrieved 2020-05-01.
  26. ^ Greene, Tristan (2017-07-27). "Russia is developing AI missiles to dominate the new arms race". The Next Web. Retrieved 2020-05-01.
  27. ^ Mizokami, Kyle (2017-07-19). "Kalashnikov Will Make an A.I.-Powered Killer Robot". Popular Mechanics. Retrieved 2020-05-01.
  28. ^ Dougherty, Jill; Jay, Molly. "Russia Tries to Get Smart about Artificial Intelligence". Wilson Quarterly.
  29. ^ "Russian AI-Enabled Combat: Coming to a City Near You?". War on the Rocks. 2019-07-31. Retrieved 2020-05-01.
  30. ^ Polyakova, Alina (2018-11-15). "Weapons of the weak: Russia and AI-driven asymmetric warfare". Brookings. Retrieved 2020-05-01.
  31. ^ Polyakova, Chris Meserole, Alina. "Disinformation Wars". Foreign Policy. Retrieved 2020-05-01.
  32. ^ "Russia rejects potential UN 'killer robots' ban, official statement says". Institution of Engineering and Technology. 1 December 2017. Retrieved 12 January 2018.
  33. ^ "Examination of various dimensions of emerging technologies in the area of lethal autonomous weapons systems, Russian Federation, November 2017" (PDF). Retrieved 12 January 2018.
  34. ^ "Technology, Trade, and Military-Civil Fusion: China's Pursuit of Artificial Intelligence, New Materials, and New Energy U.S.- CHINA ECONOMIC and SECURITY REVIEW COMMISSION". www.uscc.gov. Retrieved 2020-04-04.
  35. ^ a b Markoff, John; Rosenberg, Matthew (3 February 2017). "China's Intelligent Weaponry Gets Smarter". The New York Times. Retrieved 24 December 2017.
  36. ^ a b c "China seeks dominance of global AI industry". Financial Times. 15 October 2017. Retrieved 24 December 2017.
  37. ^ "China enlists start-ups in high-tech arms race". Financial Times. 9 July 2017. Retrieved 24 December 2017.
  38. ^ a b Fedasiuk, Ryan; Melot, Jennifer; Murphy, Ben (October 2021). "Harnessed Lightning: How the Chinese Military is Adopting Artificial Intelligence". Center for Security and Emerging Technology. Retrieved April 22, 2022.
  39. ^ a b "The artificial intelligence race heats up". The Japan Times. 1 March 2018. Retrieved 5 March 2018.
  40. ^ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 April 2017. Retrieved 24 December 2017.
  41. ^ Pecotic, Adrian (2019). "Whoever Predicts the Future Will Win the AI Arms Race". Foreign Policy. Retrieved 16 July 2019.
  42. ^ Vincent, James (6 February 2019). "China is worried an AI arms race could lead to accidental war". The Verge. Retrieved 16 July 2019.
  43. ^ "Is China exporting killer robots to Mideast?". Asia Times. 2019-11-28. Retrieved 2019-12-21.
  44. ^ "US risks losing AI arms race to China and Russia". CNN. 29 November 2017. Retrieved 24 December 2017.
  45. ^ Davenport, Christian (3 December 2017). "Future wars may depend as much on algorithms as on ammunition, report says". Washington Post. Retrieved 24 December 2017.
  46. ^ "US general warns of out-of-control killer robots". CNN. 18 July 2017. Retrieved 24 December 2017.
  47. ^ United States. Defense Innovation Board. AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
  48. ^ a b "Google 'to end' Pentagon Artificial Intelligence project". BBC News. 2 June 2018. Retrieved 3 June 2018.
  49. ^ 케이드 메츠(2018년 3월 15일)."펜타곤은 실리콘 밸리의 도움을 원한다"NY 타임즈 웹사이트 Retrieved 2022년 3월 8일.
  50. ^ "Report: Palantir took over Project Maven, the military AI program too unethical for Google". The Next Web. 11 December 2020. Retrieved 17 January 2020.
  51. ^ Robert O. Work (26 April 2017). "Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)" (PDF). Retrieved 3 June 2018.
  52. ^ "Google employees resign in protest against Air Force's Project Maven". Fedscoop. 14 May 2018. Retrieved 3 June 2018.
  53. ^ Allen, Gregory C. (21 December 2017). "Project Maven brings AI to the fight against ISIS". Bulletin of the Atomic Scientists. Retrieved 3 June 2018.
  54. ^ Ethan Baron (3 June 2018). "Google Backs Off from Pentagon Project After Uproar: Report". Military.com. Mercury.com. Retrieved 3 June 2018.
  55. ^ Cheryl Pellerin (21 July 2017). "Project Maven to Deploy Computer Algorithms to War Zone by Year's End". DoD News, Defense Media Activity. United States Department of Defense. Retrieved 3 June 2018.
  56. ^ Kelley M. Sayler (June 8, 2021). Defense Primer: Emerging Technologies (PDF) (Report). Congressional Research Service. Retrieved July 22, 2021.
  57. ^ "DOD Unveils Its Artificial Intelligence Strategy". U.S. Department of Defense. U.S. Department of Defense.
  58. ^ a b "Joint Artificial Intelligence Center". Department of Defense. Retrieved June 26, 2020.
  59. ^ McLeary, Paul. "Joint Artificial Intelligence Center Created Under DoD CIO".
  60. ^ Barnett, Jackson (June 19, 2020). "For military AI to reach the battlefield, there are more than just software challenges". FedScoop. Retrieved June 26, 2020.
  61. ^ Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 24 December 2017.
  62. ^ "'Killer robots': autonomous weapons pose moral dilemma World Breakings news and perspectives from around the globe DW 14.11.2017". DW.COM. 14 November 2017. Retrieved 12 January 2018.
  63. ^ Slocombe, Geoff (2015). "Uninhabited Ground Systems (Ugs)". Asia-Pacific Defence Reporter. 41 (7): 28–29.
  64. ^ Parkin, Simon (16 July 2015). "Killer robots: The soldiers that never sleep". BBC. Retrieved 13 January 2018.
  65. ^ "Texts adopted - Autonomous weapon systems - Wednesday, 12 September 2018". www.europarl.europa.eu. Retrieved 2021-01-30.
  66. ^ a b c Haner, Justin; Garcia, Denise (2019). "The Artificial Intelligence Arms Race: Trends and World Leaders in Autonomous Weapons Development". Global Policy. 10 (3): 331–337. doi:10.1111/1758-5899.12713. ISSN 1758-5899.
  67. ^ Boulanin, Vincent; Verbruggen, Maaike (2017). Mapping the development of autonomy in weapon systems (PDF). Stockholm International Peace Research Institute. doi:10.13140/rg.2.2.22719.41127.
  68. ^ Markoff, John (11 November 2014). "Fearing Bombs That Can Pick Whom to Kill". The New York Times. Retrieved 11 January 2018.
  69. ^ "Getting to grips with military robotics". The Economist. 25 January 2018. Retrieved 7 February 2018.
  70. ^ "Autonomous Systems: Infographic". www.siemens.com. Archived from the original on 7 February 2018. Retrieved 7 February 2018.
  71. ^ a b Kopf, Dan (2018). "China is rapidly closing the US's lead in AI research". Quartz. Retrieved 7 February 2018.
  72. ^ "The battle for digital supremacy". The Economist. 2018. Retrieved 19 March 2018.
  73. ^ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. Retrieved 2019-09-14.
  74. ^ "Ban on killer robots urgently needed, say scientists". The Guardian. 13 November 2017. Retrieved 24 December 2017.
  75. ^ Sharkey, Noel (17 August 2007). "Noel Sharkey: Robot wars are a reality". The Guardian. Retrieved 11 January 2018.
  76. ^ a b "AI Could Revolutionize War as Much as Nukes". WIRED. Retrieved 24 December 2017.
  77. ^ Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 11 January 2018.
  78. ^ "An Open Letter to the United Nations Convention on Certain Conventional Weapons". Future of Life Institute. Retrieved 14 January 2018.
  79. ^ a b "Rise of the killer machines". Asia Times. 24 November 2017. Retrieved 24 December 2017.
  80. ^ "'Robots are not taking over,' says head of UN body on autonomous weapons". The Guardian. 17 November 2017. Retrieved 14 January 2018.
  81. ^ "Campaign to stop 'killer robots' takes peace mascot to UN". the Guardian. 21 October 2019. Retrieved 27 January 2022.
  82. ^ Khan, Jeremy (2021). "The world just blew a 'historic opportunity' to stop killer robots". Fortune. Retrieved 31 December 2021. Several states, including the U.S., Russia, the United Kingdom, India, and Israel, were opposed to any legally binding restrictions... China has supported a binding legal agreement at the CCW, but has also sought to define autonomous weapons so narrowly that much of the A.I.-enabled military equipment it is currently developing would fall outside the scope of such a ban.
  83. ^ "Sorry, Banning 'Killer Robots' Just Isn't Practical". WIRED. 22 August 2017. Retrieved 14 January 2018.
  84. ^ 안테비, 리란"누가 로봇을 막을 것인가?「군사 및 전략 업무 5.2(2013).
  85. ^ 슐만, C. & 암스트롱, S. (2009년, 7월)무기 통제와 정보 폭발.7월 스페인 벨라테라에서 열린 제7회 유럽컴퓨팅철학회의(ECAP)(2-4페이지).
  86. ^ McFarland, Matt (14 November 2017). "'Slaughterbots' film shows potential horrors of killer drones". CNNMoney. Retrieved 14 January 2018.
  87. ^ a b 알렌, 그렉, 다니엘 찬."인공정보와 국가안보"보고하다.하버드 케네디 스쿨, 하버드 대학교매사추세츠 주 보스턴(2017년).
  88. ^ "Autonomous Weapons Open Letter: AI & Robotics Researchers". Future of Life Institute. 2016-02-09. Retrieved 2022-02-17.
  89. ^ Wheeler, Brian (30 November 2017). "Terrorists 'certain' to get killer robots". BBC News. Retrieved 24 December 2017.
  90. ^ Metz, Cade (15 March 2018). "Pentagon Wants Silicon Valley's Help on A.I." The New York Times. Retrieved 19 March 2018.

추가 정보

  • Paul Scharre, "킬러 앱:AI 군비 경쟁의 진짜 위험", 포린 어페어스, 제98권, 제3호(2019년 5월/6월), 페이지 135-44."오늘날의 AI 기술은 강력하지만 신뢰할 수 없습니다.규칙 기반 시스템은 프로그래머가 예상하지 못한 상황에 대처할 수 없습니다.학습 시스템은 교육받은 데이터에 의해 제한됩니다.AI의 실패는 이미 비극으로 이어졌다.자동차의 고급 자동 조종 기능은 상황에 따라 성능이 우수하지만 트럭, 콘크리트 장벽 및 주차된 자동차로 경고 없이 차를 몰았습니다.잘못된 상황에서 AI 시스템은 순식간에 슈퍼마트에서 슈퍼덤으로 변한다.적이 AI 시스템을 조작하고 해킹하려고 하면 위험은 더 커진다.(p.140)
  • 인공 지능에 관한 국가 안보 위원회.(2019).중간 보고서워싱턴 DC: 저자.