인공지능의 규제

Regulation of artificial intelligence

인공지능의 규제인공지능(AI)을 촉진하고 규제하기 위한 공공부문 정책과 법률을 개발하는 것이며, 따라서 알고리즘의 광범위한 규제와 관련이 있습니다.[1][2][3][4][5] AI에 대한 규제 및 정책 환경은 유럽 연합[6](정부 규제 권한을 가진)과 IEEE, OECD(그렇지 않은) 등과 같은 초국가적 기구를 포함하여 전 세계적으로 새롭게 대두되는 이슈입니다.[7] 2016년부터 기술에 대한 사회적 통제를 유지하기 위해 AI 윤리 지침이 발표되었습니다.[8] 규제는 AI를 장려하고 관련 위험을 관리하는 데 모두 필요한 것으로 간주됩니다. 규제 외에도 AI 구축 조직은 신뢰할 수 있는 AI의 원칙에 따라 신뢰할 수 있는 AI를 만들고 구축하는 데 중심적인 [9]역할을 수행하고 위험을 완화할 수 있는 책임을 져야 합니다.[10] 리뷰보드와 같은 메커니즘을 통해 AI를 규제하는 것도 AI 통제 문제에 접근하기 위한 사회적 수단으로 볼 수 있습니다.[11][12]

스탠포드 대학의 AI 지수에 따르면, 127개 조사 국가에서 연간 통과된 AI 관련 법률의 수는 2016년에 통과된 1개에서 2022년에만 37개로 급증했습니다.[13][14]

배경

책임 있는 AI, AI 윤리, 소비자 보호 및 사이버 보안의 전문가와 옹호자들은 적어도 1960년대부터 AI 개발을 둘러싼 가드레일의 필요성을 주장해 왔습니다.[failed verification][15] 2017년 일론 머스크는 AI 개발에 대한 규제를 요구했습니다.[16] NPR에 따르면 테슬라 최고경영자(CEO)는 자신의 산업에 영향을 미칠 수 있는 정부의 정밀 조사를 옹호하는 것에 대해 "분명히 흥분하지 않았지만 감독 없이 완전히 진행될 위험이 너무 높다고 믿었습니다. "일반적으로 규제가 설정되는 방식은 여러 가지 나쁜 일이 일어날 때, 대중의 항의가 있을 때입니다. 그리고 수년이 지난 후 규제 기관이 그 산업을 규제하기 위해 설립되었습니다. 시간이 오래 걸립니다. 그것은 과거에는 좋지 않았지만 문명의 존재에 대한 근본적인 위험을 나타내는 것은 아니었습니다."[16] 이에 대해 일부 정치인들은 아직 개발 중인 기술을 규제하는 지혜에 대해 회의적인 의견을 나타냈습니다.[17] 머스크와 2017년 2월 유럽연합(EU) 의원들이 제안한 AI와 로봇공학 규제 방안에 대해 브라이언 크르자니치 인텔 최고경영자(CEO)는 AI가 초기 단계이며 기술을 규제하기에는 시기상조라고 주장했습니다.[18] 일부 학자들은 기술 자체를 규제하기 위해 노력하는 대신 알고리즘의 테스트 및 투명성에 대한 요구 사항을 포함한 공통 규범을 개발할 것을 제안했습니다.[19]

2022년 Ipsos 조사에서 AI에 대한 태도는 국가별로 큰 차이가 있었습니다. 중국 시민의 78%가 "AI를 사용하는 제품과 서비스가 단점보다 이점이 더 많다"고 동의했지만 미국인의 35%만이 동의했습니다.[13] 2023년 로이터/입소스 여론조사에 따르면 미국인의 61%는 AI가 인류에 위험을 초래한다는 데 동의하고 22%는 동의하지 않는 것으로 나타났습니다.[20] 2023년 폭스뉴스 여론조사에서 미국인의 35%는 "매우 중요하다"고 생각했고, 추가적으로 41%는 연방정부가 AI를 규제하는 것이 "다소 중요하다"고 생각한 반면, 13%는 "별로 중요하지 않다", 8%는 "전혀 중요하지 않다"고 응답했습니다.[21][22]

원근법

인공 지능의 규제는 인공 지능을 촉진하고 규제하기 위한 공공 부문 정책과 법률을 개발하는 것입니다.[23] 규제는 이제 일반적으로 AI를 장려하고 관련 위험을 관리하는 데 필요한 것으로 간주됩니다.[24][3][25] 공공 행정 및 정책 고려 사항은 일반적으로 인공 초지능에 대한 규제도 고려되지만 기술적, 경제적 의미와 신뢰할 수 있고 인간 중심의 AI 시스템에 중점을 둡니다.[26][27] 규제에 대한 기본 접근 방식은 입력 데이터, 알고리즘 테스트 및 의사 결정 모델 수준에서 기계 학습 알고리즘의 위험과 편향에 초점을 맞춥니다. 또한 출력의 설명 가능성에 중점을 둡니다.[3]

AI를 규제하기 위한 하드 로와 소프트 로 제안이 모두 있었습니다.[28] 일부 법학자들은 AI 규제에 대한 하드 로 접근법이 상당한 어려움을 겪고 있다고 지적했습니다.[29][30] 과제 중 AI 기술은 기존의 법률과 규정이 새롭게 등장하는 애플리케이션과 이와 관련된 위험 및 이점을 따라가지 못하는 "pacing problem"으로 빠르게 진화하고 있습니다.[29][30] 마찬가지로 AI 애플리케이션의 다양성은 종종 관할 범위가 제한된 기존 규제 기관에 도전합니다.[29] 대안으로, 일부 법률 학자들은 등장하고 진화하는 AI 기술과 초기 응용 프로그램의 요구에 맞게 소프트 법률을 보다 유연하게 적용할 수 있기 때문에 AI 규제에 대한 소프트 법률 접근 방식이 유망하다고 주장합니다.[29][30] 그러나 연성법적 접근법은 실질적인 집행 가능성이 부족한 경우가 많습니다.[29][31]

Cason Schmit, Megan Doerr 및 Jennifer Wagner는 특정 AI 객체(즉, AI 모델 및 훈련 데이터 세트)에서 지적 재산권(즉, 카피레프트 라이센스)을 활용하고 지정된 집행 기관에 집행 권한을 위임하여 준정부 규제 기관을 만들 것을 제안했습니다.[32] 그들은 AI가 지정된 윤리적 관행과 행동 강령을 준수해야 하는 조건에 따라 라이선스를 받을 수 있다고 주장합니다. ([32]예를 들어, 연성법 원칙).

AI 규제는 기본 원칙에서 파생될 수 있습니다. 2020 Berkman Klein Center for Internet & Society는 Asilomar Principles 및 베이징 원칙과 같은 기존 원칙 세트에 대한 메타 검토를 통해 개인 정보 보호, 책임, 안전 및 보안, 투명성 및 설명 가능성, 공정성 및 비차별성, 기술에 대한 인간의 통제, 전문적인 책임감과 인간의 가치에 대한 존중.[33] AI 법과 규제는 자율 지능 시스템의 거버넌스, 시스템에 대한 책임과 책임, 개인 정보 보호와 안전 문제 등 크게 세 가지 주제로 나눠졌습니다.[24] 행정학적 접근은 AI 법과 규제, AI의 윤리, 그리고 '의 관계를 봅니다.인력 대체와 전환, AI에 대한 사회적 수용과 신뢰, 인간에서 기계로의 상호작용 전환 등으로 정의되는 'AI 사회'.[34] The development of public sector strategies for management and regulation of AI is deemed necessary at the local, national,[35] and international levels[36] and in a variety of fields, from public service management[37] and accountability[38] to law enforcement,[36][39] healthcare (especially the concept of a Human Guarantee),[40][41][42][43][44] the financial sector,[35] robotics,[45][46] 자율주행 자동차,[45] 군사[47] 및 국가 안보,[48] 국제법.[49][50]

헨리 키신저(Henry Kissinger), 에릭 슈미트(Eric Schmidt), 다니엘 허튼로커(Daniel Huttenlocer)는 2021년 11월 "AI 시대에 인간이 되다"라는 제목의 공동 성명을 발표하고 AI를 규제하기 위한 정부 위원회를 촉구했습니다.[51]

AI 제어 문제에 대한 대응으로

AI의 규제는 AI 통제 문제(장기적으로 유익한 AI를 보장할 필요성)를 관리하기 위한 긍정적인 사회적 수단으로 볼 수 있으며, 아무것도 하지 않거나 금지하는 것과 같은 다른 사회적 반응은 비실용적인 것으로 여겨집니다. 그리고 뇌-컴퓨터 인터페이스와 같은 트랜스 휴머니즘 기술을 통해 인간의 능력을 향상시키는 것과 같은 접근법은 잠재적으로 상호 보완적인 것으로 간주됩니다.[12][52] 인공지능(AGI)에 대한 연구의 규제는 대학이나 기업에서 국제적 수준에 이르기까지 검토 위원회의 역할에 초점을 맞추고 AI 안전에 대한 연구를 장려하는 데 중점을 두고 있습니다.[52] 차별적인 지적 진보(AI 개발 시 위험한 전략보다 보호 전략 우선) 또는 AGI 군비 통제를 수행하기 위한 국제적인 대량 감시의 가능성과 함께.[12] 예를 들어, 'AGI 보모'는 진정한 초지능이 안전하게 생성될 때까지 위험한 초지능의 생성을 방지하고 글로벌 금융 시스템의 전복과 같은 인간 복지에 대한 다른 주요 위협을 해결하기 위해 잠재적으로 인간의 통제 하에 제안된 전략입니다. 그것은 인간을 감시하고 위험으로부터 보호하는 것을 목표로 대규모 감시 네트워크에 연결된 인간보다 똑똑하지만 초지능적이지 않은 AGI 시스템을 만드는 것을 수반합니다.[12] 의식적이고 윤리적으로 인식하는 AGI에 대한 규제는 기존 인간 사회와 어떻게 통합할 것인가에 초점을 두고 있으며, 그들의 법적 지위와 도덕적 권리에 대한 고려로 나눌 수 있습니다.[12] AI의 규제는 AGI의 발전을 막을 위험이 있는 제한적인 것으로 여겨졌습니다.[45]

글로벌 가이던스

AI 개발을 규제하기 위한 글로벌 거버넌스 이사회의 개발은 적어도 2017년부터 제안되었습니다.[53] 2018년 12월 캐나다와 프랑스는 기후 변화에 관한 국제 패널을 모델로 한 G7이 지원하는 인공 지능에 관한 국제 패널 계획을 발표하여 AI가 사람과 경제에 미치는 전 세계적인 영향을 연구하고 AI 개발을 주도할 계획입니다.[54] 2019년에 패널은 AI에 관한 글로벌 파트너십으로 이름이 변경되었습니다.[55][56]

2020년 6월 OECD 인공지능 원칙(2019)에 명시된 바와 같이 인공지능에 대한 국민의 신뢰와 신뢰를 보장하기 위해 인권과 민주주의 가치에 따라 인공지능을 개발해야 한다는 내용의 글로벌 파트너십(GPAI)이 출범했습니다.[57] 인공지능에 관한 글로벌 파트너십의 15개 창립 회원국은 호주, 캐나다, 유럽연합, 프랑스, 독일, 인도, 이탈리아, 일본, 대한민국, 멕시코, 뉴질랜드, 싱가포르, 슬로베니아, 미국, 영국입니다. 2023년 GPAI에는 29명의 회원이 있습니다.[58] GPAI 사무국은 OECD가 프랑스 파리에서 주최합니다. GPAI의 권한은 네 가지 주제를 다루고 있으며, 그 중 두 가지 주제는 국제 몬트레알 인공 지능 발전 전문 센터, 즉 책임 있는 AI 및 데이터 거버넌스가 지원합니다. 그에 상응하는 파리의 우수 센터는 미래의 직업과 혁신 및 상업화에 관한 다른 두 주제를 지원할 것입니다. GPAI는 또한 AI가 COVID-19 팬데믹에 대응하기 위해 어떻게 활용될 수 있는지 조사했습니다.[57]

OECD AI 원칙은 2019년 5월, G20 AI 원칙은[59] 2019년 6월 채택되었습니다.[56][60][61] 2019년 9월 세계경제포럼은 10개의 'AI 정부조달지침'을 발표했습니다.[62] 2020년 2월, 유럽 연합은 AI 촉진 및 규제를 위한 전략 논문 초안을 발표했습니다.[36]

유엔에서는 유니크리 AI 및 로보틱스 센터(UNICRI Center for AI and Robotics)를 포함한 여러 기관이 AI 규제 및 정책 측면을 홍보하고 논의하기 시작했습니다.[48] UNICRI의 센터는 인터폴과 협력하여 2019년[63] 4월에 AIRobotics for Law Enforcement 보고서를, 2020년 5월에 책임 있는 AI 혁신을 향한 후속 보고서를 발표했습니다.[39] 2019년 11월 유네스코 제40차 과학회의에서 이 기구는 "인공지능 윤리에 관한 글로벌 표준 설정 도구"를 달성하기 위한 2년간의 과정을 시작했습니다. 이러한 목표를 추구하기 위해 이해관계자들의 의견을 수렴하기 위해 UNESCO 포럼과 AI 관련 컨퍼런스가 열렸습니다. 유네스코 애드혹 전문가 그룹의 AI 윤리에 관한 권고문 초안은 2020년 9월에 발표되었으며 입법 공백을 메워야 한다는 내용을 포함하고 있습니다.[64] 유네스코는 2021년 11월 총회에서 AI 윤리에 관한 국제 기구를 채택했고,[57] 이후 채택되었습니다.[65] 유엔은 AI의 전 세계적인 관리에 진전을 보이고 있지만, AGI 실존 위험을 관리할 수 있는 제도적, 법적 능력은 더 제한적입니다.[66]

국제전기통신연합(ITU)이 40개의 유엔 자매 기관과 협력하여 제안한 AI for Good은 유엔 지속가능개발목표를 진전시키기 위한 AI의 실제적인 적용을 식별하고 글로벌 영향을 위한 솔루션을 확장하는 것을 목표로 하는 글로벌 플랫폼입니다. 건강, 기후, 성별, 포용적 번영, 지속 가능한 인프라 및 기타 글로벌 개발 우선 순위에 긍정적인 영향을 미치기 위해 AI 개발을 촉진하는 행동 지향적인 글로벌 & 포용적 유엔 플랫폼입니다.[67]

최근 연구에 따르면 국가들은 국가 사이버 방어를 위한 도구로 인공 지능을 사용하기 시작할 것입니다. AI는 방어 목적으로 사용될 수 있기 때문에 사이버 무기 산업의 새로운 요소입니다. 따라서 학계는 다른 군수 산업에 대한 규제와 마찬가지로 국가가 AI를 사용하기 위한 규제를 마련해야 한다고 촉구합니다.[68]

지역 및 국가 규정

AI에[69] 대한 국가적, 지역적 및 국제적 접근 방식을 정의하는 전략, 실행 계획 및 정책 문서의 타임라인

AI에 대한 규제 및 정책 환경은 예를 들어 유럽 연합[70] 및 러시아와 같은 전 세계적으로 지역 및 국가 관할권에서 새롭게 대두되는 문제입니다.[71] 2016년 초부터 많은 국가, 지역 및 국제 당국이 AI에 대한 전략, 실행 계획 및 정책 문서를 채택하기 시작했습니다.[72][73] 이 문서는 규제 및 거버넌스는 물론 산업 전략, 연구, 인재 및 인프라와 같은 광범위한 주제를 다룹니다.[26][74]

국가마다 다른 방식으로 문제에 접근해 왔습니다. 3대 경제대국에 대해서는 "미국은 시장주도적 접근을, 중국은 국가주도적 접근을, EU는 권리주도적 접근을 추구하고 있다"는 평가가 나왔습니다.[75]

호주.

2023년 10월, 호주 컴퓨터 협회, 호주 상공회의소, AI 그룹, 소상공인 단체 협의회, 호주 기술 협의회는 공동으로 AI 전략에 대한 국가적 접근을 요구하는 공개 서한을 발표했습니다.[76] 이 서한은 연방 정부가 전 정부 AI 태스크포스를 설립하는 것을 지지합니다.[76]

브라질

2021년 9월 30일, 브라질 하원은 인공지능 기술의 개발과 사용을 위한 규제 노력과 윤리, 문화, 정의, 공정을 목표로 하는 인공지능 솔루션의 연구와 혁신을 더욱 촉진하기 위한 브라질 법률 프레임워크인 Marco Legal da Inteligênncia Artificial을 승인했습니다. 그리고 책임감. 이 10개 조항은 윤리 원칙의 정교화에 기여하고 연구에 대한 지속적인 투자를 촉진하며 혁신의 장벽을 제거하기 위한 임무를 포함한 목표를 설명합니다. 구체적으로 제4조에서 법안은 차별적인 AI 솔루션의 회피, 복수, 인권 존중을 강조하고 있습니다. 또한 이 법은 특히 브라질과 같은 매우 다양하고 다민족적인 사회에서 의도적인 의사결정 알고리즘에서 평등원칙의 중요성을 강조합니다.

이 법안이 처음 대중에게 공개되었을 때, 정부에 중요한 조항에 대해 경고하면서 상당한 비판에 직면했습니다. 근본적인 문제는 이 법안이 책임, 투명성 및 포괄성 원칙을 철저하고 신중하게 다루지 못한다는 것입니다. 제VI조는 주관적 책임을 설정하는데, 즉 AI 시스템에 의해 피해를 입고 보상을 받으려는 모든 개인은 이해관계자를 명시하고 기계 수명 주기에 오류가 있었음을 증명해야 합니다. 학자들은 AI 시스템의 높은 자율성과 예측 불가능성, 복잡성을 고려할 때 알고리즘 오류를 증명할 책임이 있는 개인을 지정하는 것은 법질서에 어긋난다고 강조합니다. 이것은 또한 현재 브라질에서 얼굴 인식 시스템이 경찰에 의한 부당한 체포로 이어지는 문제에 관심을 끌었는데, 이는 이 법안이 채택되면 개인이 이러한 기계 오류를 증명하고 정당화해야 한다는 것을 의미합니다.

이 법안 초안의 주요 논란은 세 가지 제안된 원칙을 향했습니다. 첫째, 차별금지원칙은 AI가 단순히 남용적이고 차별적인 행위의 가능성을 완화하는 방식으로 개발되고 사용되어야 함을 시사합니다. 둘째, 중립성 원칙 추구는 이해관계자가 편향을 완화하기 위한 권고사항을 나열하지만, 이 목표를 달성할 의무는 없습니다. 마지막으로 투명성 원칙은 기본권을 침해할 위험이 높은 경우에만 시스템의 투명성이 필요하다는 것입니다. 쉽게 관찰할 수 있듯이, 브라질 인공 지능 법적 프레임워크는 구속력과 의무 조항이 없고 오히려 완화된 지침으로 채워져 있습니다. 사실, 전문가들은 이 법안이 AI 차별 편향에 대한 책임을 달성하기 훨씬 더 어렵게 만들 수도 있다고 강조합니다. EU가 광범위한 위험 기반 규제를 제안한 것과 비교하면 브라질 법안에는 모호하고 일반적인 권고 사항을 제안하는 10개 조항이 있습니다.

브라질 법안은 앞서 2000년대 브라질 인터넷 권리 법안인 마르코 시빌다 인터넷을 작성할 때 취했던 다이해관계자 참여 방식과 비교해 볼 때 시각이 크게 부족한 것으로 평가됩니다. 일반적으로 다이해관계자 거버넌스(Multistakeholder Governance)라고 불리는 다이해관계자주의는 여러 이해관계자들이 공동으로 인식하는 문제에 대한 대화, 의사결정 및 대응 이행에 참여하도록 하는 관행으로 정의됩니다. 규제 AI의 맥락에서 이러한 다중 이해관계자 관점은 특정 이해관계를 가진 다양한 이해관계자의 절충점과 다양한 관점을 포착하여 투명성과 광범위한 효과를 유지하는 데 도움이 됩니다. 반대로 AI 규제를 위한 입법안은 유사한 다중 이해 관계자 접근 방식을 따르지 않았습니다.

향후 단계에는 다중 이해 관계자 관점으로 확장하는 것이 포함될 수 있습니다. 단발성 솔루션이 AI 규제에 적합하지 않을 수 있다는 점을 강조하고 주관적이고 적응적인 조항을 요구하는 법안의 프레임워크의 적용 불가능성에 대한 우려가 커지고 있습니다.

캐나다

범캐나다 인공지능 전략(2017)은 캐나다의 우수한 인공지능 연구자와 숙련된 졸업생의 수를 늘리고 3대 인공지능 센터에서 과학적 우수성의 노드를 구축하고 경제에 대한 '글로벌 사고 리더십'을 개발하는 것을 목표로 1억2500만 달러의 연방 자금을 지원합니다. AI 발전의 윤리적, 정책적, 법적 의미와 AI에 대해 연구하는 국가 연구 공동체를 지원합니다.[57] 캐나다 CIFAR AI Chairs Program은 이 전략의 초석입니다. 세계적으로 유명한 AI 연구자를 유치하고 유지하기 위해 5년 동안 8,650만 캐나다 달러의 자금 지원 혜택을 받습니다.[57] 연방 정부는 2019년 5월에 AI의 발전이 인권, 투명성 및 개방성과 같은 캐나다의 가치를 반영하도록 보장하기 위해 캐나다의 강점을 기반으로 하는 방법을 검토하는 데 중점을 두고 AI에 관한 자문 위원회를 임명했습니다. AI 자문 위원회는 캐나다 소유의 AI와 데이터 분석에서 상업적 가치를 추출하는 작업 그룹을 설립했습니다.[57] 2020년, 퀘벡 연방정부와 정부는 인공지능의 책임 있는 발전을 위한 국제 인공지능 전문센터를 몬트리올에 개소한다고 발표했습니다.[57] 2022년 6월, 캐나다 정부는 범 캐나다 인공 지능 전략의 두 번째 단계를 시작했습니다.[77] 캐나다는 2022년 11월 디지털 헌장 이행법(Bill C-27)을 도입하여 신뢰와 개인정보 보호를 위한 전체적인 입법 패키지로 설명된 세 가지 법안을 제안하고 있습니다. 소비자 개인정보 보호법, 개인정보 및 데이터 보호심판원법, 인공지능 및 데이터법(AIDA)입니다.[78][79]

중국

중국의 AI 규제는 주로 중화인민공화국 국무원의 2017. 7. 8. "차세대 인공지능 발전계획"(국무원 문서 제35호)에 의해 규율되고 있으며, 중국 공산당 중앙위원회와 중국 국무원이 2030년까지 인공지능 개발을 추진할 것을 중국 통치기구에 촉구한 바 있습니다. AI 개발을 위한 윤리적, 법적 지원 문제에 대한 규제가 가속화되고 있으며, 정책은 국가 내 중국 사용자에 대한 데이터 저장 및 빅데이터를 포함한 중화인민공화국의 AI 국가 표준 사용 의무화를 포함하여 중국 기업에 대한 국가 통제 및 가치 이상의 데이터를 보장합니다. 클라우드 컴퓨팅, 산업용 소프트웨어.[80][81][82] 2021년 중국은 연구자들이 인공지능이 공유된 인간의 가치를 준수하고 항상 인간의 통제 하에 있으며 공공의 안전을 위협하지 않는다는 것을 보장해야 한다는 중국의 인공지능 사용 윤리 지침을 발표했습니다.[83] 중국은 2023년에 발전 AI 서비스 관리를 위한 임시 조치를 도입했습니다.[84]

유럽 평의회

유럽 평의회(CoE)는 인권, 민주주의, 법치를 증진하는 국제기구입니다. 2018년 유럽연합의 인공지능 협력 선언 29개 서명국을 포함한 47개 회원국으로 구성되어 있습니다. CoE는 회원국들이 유럽인권협약에 명시된 권리를 보장할 법적 의무를 지는 공동의 법적 공간을 만들었습니다. 특히 AI와 관련하여 "유럽 평의회의 목표는 AI와 인권, 민주주의 및 법치에 대한 우리의 표준 사이의 교차 영역을 식별하고 관련 표준 설정 또는 역량 강화 솔루션을 개발하는 것입니다." CoE에 의해 확인된 많은 수의 관련 문서는 지침, 헌장, 논문, 보고서 및 전략을 포함합니다.[85] 이러한 AI 규제 문서의 저작 기관은 사회의 한 부문에 국한되지 않으며 조직, 기업, 단체 및 국가를 포함합니다.[64]

유럽 연합

EU는 세계에서 가장 큰 관할권 중 하나로 GDPR,[86] 디지털 서비스법, 디지털 시장법 등을 통해 디지털 기술의 글로벌 규제에 적극적인 역할을 수행하고 있습니다.[87][88] 특히 AI의 경우, 2023년 인공지능법은 전 세계적으로 AI에 대한 가장 광범위한 규제로 여겨집니다.[89][90]

대부분의 유럽 연합(EU) 국가들은 AI를 규제하기 위한 자체 국가 전략을 가지고 있지만, 이들은 대부분 수렴적입니다.[64] 유럽 연합은 인공 지능에 관한 고위급 전문가 그룹의 [91]지원을 받는 인공 지능에 관한 유럽 전략의 지도를 받습니다.[92][93] EU 집행위원회는 2019년 6월 신뢰할 수 있는 인공지능에 대한 정책 투자 권고 [9]함께 2019년 4월 신뢰할 수 있는 인공지능(AI)을 위한 윤리 지침을 발표했습니다.[94] EU 집행위원회의 인공지능 고위급 전문가 그룹은 신뢰할 수 있는 AI에 대한 작업을 수행하고 있으며, 위원회는 AI의 안전 및 책임 측면과 자동화 차량의 윤리에 대한 보고서를 발표했습니다. 2020년 EU 집행위원회는 AI 특정 법안에 대한 제안에 대한 의견을 구했고, 그 과정은 진행 중입니다.[64]

2020년 2월 2일, 유럽 위원회는 우수성과 신뢰에 대한 유럽의 접근법인 인공 지능에 관한 백서를 발간했습니다.[95][96][97][98] 백서는 '탁월의 생태계'와 '신뢰의 생태계'라는 두 가지 주요 구성 요소로 구성되어 있습니다. '신뢰의 생태계'는 AI에 대한 규제 프레임워크에 대한 EU의 접근 방식을 설명합니다. 위원회는 제안된 접근 방식에서 AI 애플리케이션을 '고위험'인지 여부에 따라 구별합니다. 고위험 AI 애플리케이션만 향후 EU 규제 프레임워크 범위에 있어야 합니다. AI 애플리케이션이 위험한 분야(예: 의료, 운송 또는 에너지)에서 작동하고 "중대한 위험이 발생할 가능성이 있는 방식으로 사용되는" 경우 고위험으로 간주됩니다. 고위험 AI 애플리케이션의 경우 요구 사항은 주로 "훈련 데이터", "데이터 및 기록 보관", "제공해야 할 정보", "강력성 및 정확성" 및 "인간 감독"에 관한 것입니다. 원격 생체 인식과 같은 특정 용도에 특정한 요구 사항도 있습니다. '고위험'에 해당하지 않는 AI 애플리케이션은 자발적인 라벨링 체계에 의해 통제될 수 있습니다. 컴플라이언스 및 집행과 관련하여 위원회는 '시험, 검사 또는 인증을 위한 절차' 및/또는 '개발 단계에서 사용되는 알고리즘 및 데이터 세트의 점검'을 포함할 수 있는 사전 적합성 평가를 고려합니다. 국가 권한 있는 당국의 협력 프레임워크 형태의 AI에 대한 유럽의 거버넌스 구조는 규제 프레임워크의 구현을 촉진할 수 있습니다.[95][99] 2021년 1월 초안은 2021년 4월 14일 온라인에서 유출되었으며,[100] 위원회는 결국 일주일 후 공식적으로 "인공 지능(인공 지능법)에 대한 조화로운 규칙을 마련하는 규제 제안"을 제시했습니다.[101] 얼마 지나지 않아 인공지능법이 정식으로 발의되었습니다.[102] 여기에는 이번에는 "최소", "제한적", "높음", "허용되지 않음"의 4가지 위험 범주가 포함된 2020년 위험 기반 접근 방식의 세부 조정이 포함됩니다.[103] 그 제안은 공개 토론에서 혹독한 비판을 받았습니다. 학계는 제안서의 여러 가지 불명확한 요소(AI를 구성하는 것에 대한 광범위한 정의 등)에 대해 우려하고 있으며 특히 환자와 이주민과 같은 취약한 집단에 의도하지 않은 법적 영향을 두려워합니다.[104][105] AI 법의 후속 버전은 2023년 6월 14일 유럽 의회에서 채택되었습니다.[106] AI법은 2025년 말이나 2026년 초에 시행될 예정입니다.[107]

관측통들은 폰데어라이엔 위원회의 입법 제안이 증가하는 것에 대해 우려를 표명했습니다. 입법 발의의 속도는 부분적으로 EU의 정치적 야심에 의해 주도되고 있으며,[108] 특히 사이버 보안을 통한 데이터 보호의 불확실한 보장에 직면하여 사생활에 대한 권리를 포함한 유럽 시민들의 디지털 권리를 위험에 빠뜨릴 수 있습니다.[93] 폰데어라이엔 위원회 산하 AI 분야의 다양한 입법 제안에서 명시된 지침 원칙 중에는 전략적[109] 자율성의 목표와 디지털 주권의 개념이 있습니다.[110]

독일.

2020년 11월 [111]DIN, DKE와 독일 연방경제에너지부 '인공지능 독일 표준화 로드맵'(NRMKI) 제1판을 발간하여 독일 연방정부 디지털 정상회의에서 일반에 발표했습니다.[112] NRMKI는 AI의 맥락에서 향후 규정 및 표준에 대한 요구 사항을 설명합니다. 행동권고 이행은 인공지능 분야의 국제 경쟁에서 독일 경제와 과학을 강화하고 이 신흥 기술의 혁신 친화적인 여건을 조성하는 데 도움을 주기 위한 것입니다. 초판은 300명의 전문가들이 작성한 200페이지 길이의 문서입니다. 2022년 12월 9일 독일 정부의 디지털 정상회의에 맞춰 NRM KI 2판이 발간되었습니다.[113] DIN은 과학, 산업, 시민 사회 및 공공 부문에 이르기까지 광범위한 분야의 570명 이상의 참가 전문가들을 조정했습니다. 두 번째 판은 450페이지 길이의 문서입니다.

한편으로, NRMKI는 애플리케이션(예: 의학, 이동성, 에너지 및 환경, 금융 서비스, 산업 자동화)과 근본적인 문제(예: AI 분류, 보안, 인증성, 사회 기술 시스템, 윤리) 측면에서 중점 주제를 다룹니다.[113] 한편, 광범위한 관심 그룹과 정보 소스에 걸쳐 AI 및 환경 분야의 중심 용어에 대한 개요를 제공합니다. 이 문서는 116개의 표준화 요구사항을 다루고 있으며, 6개의 조치에 대한 중앙 권고사항을 제공합니다.[114]

G7

2023년 10월 30일, G7 회원국들은 히로시마 프로세스의 맥락에서 인공지능 개발자들을 위한 자발적 행동 강령뿐만 아니라 첨단 인공지능 시스템의 설계, 생산 및 구현을 위한 11가지 지침을 준수합니다.[115]

이 협정은 현재 마무리되고 있는 AI 지침의 원칙을 그 안에서 찾은 우르술라데어 라이엔의 박수를 받습니다.

이탈리아

2023년 10월, 이탈리아 개인 정보 보호 당국은 자동화된 시스템이 취하는 치료적 결정에 대한 세 가지 원칙을 제공하는 규정을 승인했습니다: 의사 결정 과정의 투명성, 자동화된 결정에 대한 인간의 감독 및 알고리즘 비차별.[116]

스페인

2018년 스페인 과학혁신대학부는 인공지능 R&D 전략을 승인했습니다.[117]

2020년 1월 페드로 산체스 제2정부가 구성되면서 2018년부터 경제부있던 신기술 관련 분야가 강화되었습니다. 따라서 2020년에는 디지털화 및 인공 지능을 위한 국가 사무국(SEDIA)이 만들어졌습니다.[118] 이 상위기구에서는 2018년 인공지능 R&D 전략의 권고에 따라 국가 인공지능 전략(2020)이 개발되었으며,[119] 이 전략은 이미 인공지능의 거버넌스와 그 사용을 관리해야 하는 윤리적 기준에 관한 조치를 제공했습니다. 이 프로젝트는 복구, 전환 및 복원 계획(2021)에도 포함되었습니다.

2021년 동안,[118] 정부는 이러한 아이디어들이 새로운 정부 기관을 통해 개발될 것이라고 밝혔고, 2022년 일반 국가 예산은 그것의 창조를 승인하고 그것의 개발을 위해 5백만 유로를 할당했습니다.[120]

2022년 9월 13일 각료 이사회는 회의에서 AESIA 본부 선출을 위한 절차를 시작했습니다.[121][122] 스페인 16개 주는 후보자를 제시했고 정부는 라 테라자 건물을 제안한 라 코루냐를 선택했습니다.[123]

2023년 8월 22일, 정부는 기관의 내부 규정을 승인했습니다.[124] 이로써 스페인은 향후 인공지능에 관한 유럽 규정의 발효를 예상하고,[125] 이 문제에 대한 회원국들의 감독 권한을 가질 필요성을 설정하는 인공지능에 관한 유럽 규정의 발효를 예상하면서, AI에 대한 감독을 전담하는 기관을 가진 첫 번째 유럽 국가가 되었습니다.

영국

영국은 영국 디지털 전략의 일환으로 Innovate UK가 2015년 초 도입한 Digital Economy Strategy 2015-2018[126] 통해 AI의 비즈니스 적용 및 개발을 지원하였습니다.[126] 공공 부문에서는 디지털 문화 미디어 스포츠부가 데이터 윤리에 대해 조언하고 앨런 튜링 연구소가 AI 시스템의 책임 있는 설계 및 구현에 대한 지침을 제공했습니다.[127][128] 사이버 보안 측면에서 2020년 국가 사이버 보안 센터는 '지능형 보안 도구'에 대한 지침을 발표했습니다.[48][129] 이듬해 영국은 AGI 관련 재난 위험을 포함한 장기 [130]AI 위험을 평가하기 위한 조치를 설명하는 10년 국가 AI 전략을 발표했습니다.[131]

2023년 3월, 영국은 AI 규제에 대한 백서 A pro-innovation 접근 방식을 발표했습니다.[132] 이 백서는 일반적인 AI 원칙을 제시하지만 기존 규제 기관이 이러한 원칙을 운송 또는 금융 시장과 같은 특정 영역에 적용하는 방식에 상당한 유연성을 남깁니다.[133] 2023년 11월, 영국은 첫 AI 안전 정상회의를 개최하고, 리시 수낙 총리는 영국을 AI 안전 규제의 선두주자로 자리매김하는 것을 목표로 하고 있습니다.[134][135]

미국

미국의 AI 규제에 대한 논의는 AI 규제의 적시성, AI를 관리하고 촉진하기 위한 연방 규제 프레임워크의 성격, 어떤 기관이 주도해야 하는지, 해당 기관의 규제 및 통치 권한, 급변하는 기술에 직면하여 규제를 업데이트하는 방법 등과 같은 주제를 포함했습니다. 주 정부와 법원의 역할뿐만 아니라.[136]

일찍이 2016년 오바마 행정부는 인공지능에 대한 위험과 규제에 초점을 맞추기 시작했습니다. 국가과학기술위원회는 '인공지능의 미래를 준비하다'라는 제목의 보고서에서 연구자들이 제한 없이 새로운 인공지능 기술을 계속 개발할 수 있도록 하는 선례를 [137]남겼습니다. 보고서에는 "공공 안전을 보호하기 위한 AI 지원 제품의 규제 접근 방식은 위험 측면을 평가하여 알려져야 한다…"고 명시되어 있습니다.[138] 기존의 어떤 규제도 AI 기술에 적용되지 않는다는 점을 고려할 때, 이러한 위험은 어떤 형태의 규제를 만들어야 하는 주요 이유가 될 것입니다.

첫 번째 주요 보고서는 인공지능 국가전략연구개발계획이었습니다.[139] 2018. 8. 13. 2019 회계연도 John S. McCain 국방수권법(P.L. 115-232) Section 1051은 인공지능 국가안보위원회를 설립하여 "인공지능의 발전, 머신러닝, 그리고 미국의 국가 안보와 국방 요구를 종합적으로 해결하기 위한 관련 기술을 개발했습니다."[140] 보안 관련 AI 규제에 대한 조향은 인공지능 국가안전위원회에서 제공합니다.[141] 인공지능 이니셔티브법(S.1558)은 특히 미국의 경제 및 국가 안보를 위해 인공지능에 대한 연구 개발을 가속화하기 위해 고안된 연방 이니셔티브를 설립하는 법안입니다.[142][143]

2019년 1월 7일,[144] 인공지능에 대한 미국의 리더십 유지에 관한 행정명령에 따라 백악관 과학기술정책실인공지능 응용 규제를 위한 지침 초안을 발표했습니다.[145] 여기에는 AI 규제 여부와 방법을 결정할 때 미국 기관을 위한 10가지 원칙이 포함됩니다.[146] 이에 국가표준기술원은 입장 논문을 발표했고,[147] 국방혁신위원회는 AI의 윤리적 활용에 대한 권고문을 발표했습니다.[47] 1년 후, 행정부는 인공 지능 응용 규제 지침의 또 다른 초안에서 규제에 대한 의견을 요구했습니다.[148]

AI 규제를 위해 일하는 다른 특정 기관에는 의료 영상에 AI를 포함하는 것을 규제하기 위한 경로를 만든 [41]식품 의약국이 포함됩니다.[40] 국가 과학 기술 위원회는 또한 국가 인공 지능 연구 개발 전략 계획을 발표했는데,[149] 이 계획은 신뢰할 수 있는 AI를 가능하게 하는 방향으로 더 개선하기 위해 대중의 정밀 조사와 권고를 받았습니다.[150]

2021년 3월, 인공지능 국가안전위원회는 최종 보고서를 발표했습니다.[151] 보고서에서 그들은 "하나 이상의 차원에서 보다 일반적인 AI 기능을 숙달하는 것을 포함하여 AI의 발전은 새로운 기능과 응용 프로그램을 제공할 가능성이 높습니다. 이러한 발전 중 일부는 변곡점이나 능력의 비약을 초래할 수 있습니다. 또한 이러한 발전은 새로운 우려와 위험을 야기할 수 있으며, 시스템이 안전성, 견고성 및 신뢰성을 포함한 목표와 가치에 부합하도록 보장하기 위한 새로운 정책, 권장 사항 및 기술 발전의 필요성을 제기할 수 있습니다. 미국은 AI의 발전을 감시하고 기술에 필요한 투자를 하고 AI 시스템과 그 사용이 우리의 목표와 가치에 부합하도록 정책에 주의를 기울여야 합니다."

2022년 6월 롭 포트만게리 피터스 상원의원은 글로벌 재난 위험 완화법을 도입했습니다. 초당적 법안 "인공지능의 위험에 대처하는 데도 도움이 될 것" 치명적인 위험을 초래할 수 있는 방법으로 악용되는 것을 방지합니다."[152][153] 2022년 10월 4일, 조 바이든 대통령은 새로운 AI 권리 법안을 발표했는데,[154] 이 법안은 1. 안전하고 효과적인 시스템, 2. AI 시대에 미국인이 가져야 할 5가지 보호를 요약합니다. 알고리즘 차별 보호, 3.데이터 프라이버시, 4. 공지와 설명, 그리고 5. 인간의 대안, 배려, 폴백. 이 법안은 2021년 10월 대통령에게 과학기술에 대해 조언하는 미국 정부 부처인 과학기술정책국(OSTP)에 의해 도입되었습니다.[155]

2023년 1월 뉴욕시 바이어스 감사법(Local Law 144[156])이 2021년 11월 NYC Council에 의해 제정되었습니다. 당초 2023년 1월 1일부터 시행될 예정이었지만, 소비자노동자보호부(DCWP)가 입법 요건을 명확히 하기 위해 제안한 규칙에 대한 공청회 과정에서 접수된 의견이 많아 지방법 144조 시행일이 미뤄졌습니다. 결국 2023년 7월 5일부터 효력이 발생하게 되었습니다.[157] 이 날부터 뉴욕시에서 운영 및 고용을 하고 있는 회사는 자동화된 도구를 사용하여 후보자를 고용하거나 직원을 승진시키는 것이 금지됩니다. 단, 도구가 편향성에 대해 독립적으로 감사를 받지 않는 한 말입니다.

2023년 7월 바이든-해리스 행정부는 아마존, 인류학, 구글, 인플렉션, 메타, 마이크로소프트, 오픈 AI 등 7개 기업으로부터 AI와 관련된 위험을 관리하겠다는 자발적 약속을 확보했습니다. 회사는 AI 제품이 공개되기 전에 내부 및 외부 보안 테스트를 모두 거치도록 보장하고, AI 위험 관리에 대한 정보를 업계, 정부, 시민 사회와 공유합니다. 그리고 학계; 사이버 보안의 우선순위를 정하고 독점적인 AI 시스템 구성요소를 보호하는 것; 워터마킹과 같이 콘텐츠가 AI에 의해 생성될 때 사용자에게 알려주는 메커니즘을 개발하는 것; AI 시스템의 능력, 한계 및 사용 영역에 대해 공개적으로 보고하는 것; 편향, 차별을 포함하여 AI가 야기하는 사회적 위험에 대한 연구의 우선순위를 정하는 것, 그리고 개인 정보 보호 문제, 그리고 암 예방에서 기후 변화 완화에 이르기까지 사회적 과제를 해결하기 위한 AI 시스템을 개발합니다. 2023년 9월, Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, Stability AI 등 8개 회사가 이러한 자발적 약속에 가입했습니다.[158][159]

바이든 행정부는 2023년 10월 AI 규제를 형성하기 위해 연방 정부의 구매력을 활용한 행정 명령을 발표할 것임을 시사하며 AI 기술 규제에 대한 정부의 적극적인 입장을 시사했습니다.[160] 2023년 10월 30일, 바이든 대통령은 안전하고 안전하며 신뢰할 수 있는 인공 지능에 관한 행정 명령을 발표했습니다. 행정명령은 중요 인프라 표준, AI 강화 사이버 보안, 연방 정부가 자금을 지원하는 생물학적 합성 프로젝트에 초점을 맞추는 등 다양한 문제를 다루고 있습니다.

행정명령은 에너지 및 국방부를 포함한 미국 정부의 여러 기관과 부서에 기존 소비자 보호법을 AI 개발에 적용할 수 있는 권한을 제공합니다.

행정명령은 행정부가 데이터와 결과를 연방정부와 공유하여 "레드 팀" 또는 스트레스 테스트 AI 이중 사용 기반 모델에 대한 새로운 이니셔티브를 도입하기 위해 AI 회사와 이전에 합의한 내용을 기반으로 합니다.

행정명령은 또한 AI의 사회적 과제를 인식하고 AI 이중 사용 기반 모델을 구축하는 기업이 이러한 사회적 문제를 경계할 것을 요구합니다. 예를 들어, 행정명령은 AI가 "일자리의 질을 악화시켜서는 안 되며, "노동력의 혼란을 초래해서는 안 된다"고 명시하고 있습니다. 또한 바이든 행정명령은 AI가 "형평성과 시민권을 증진해야 한다"고 규정하고 있으며, 소외된 집단에 불이익을 줄 수 없습니다. [163] 또 딥페이크 탐지 연구자들의 논란과 비판을 불러온 사람과 AI가 생성한 콘텐츠를 대중이 식별할 수 있도록 '워터마크'를 재단 모델에 포함할 것을 요구했습니다.

완전자율무기 규제

치명적인 자율 무기 체계(LAWS)와 관련된 법적 문제, 특히 무력 충돌의 법률 준수는 특정 재래식 무기에 관한 협약의 맥락에서 2013년부터 유엔에서 논의되고 있습니다.[165] 특히, 2014년, 2015년, 2016년에 비공식적인 전문가 회의가 열렸고 2016년에는 이 문제를 더 심의하기 위해 GGE(Governmental Experts)가 임명되었습니다. 2018년에 GGE가 Laws에 대해 긍정한 일련의 Laws에 대한 지침 원칙이 채택되었습니다.[166]

2016년, 중국은 완전 자율 무기의 비상 사태를 다루기 위해 기존 국제법의 적절성에 의문을 제기하는 입장 논문을 발표했고, 유엔 안전보장이사회의 첫 상임이사국이 되었고,[49] 글로벌 규제 제안으로 이어졌습니다.[167] 특정 재래식 무기에 관한 협약의 다른 국가 대표단에 의해 법의 개발과 사용에 대한 유예 또는 선제적 금지의 가능성 또한 여러 차례 제기되었으며 비정부 기구 연합인 킬러 로봇 중단 캠페인에 의해 강력하게 주장되고 있습니다.[168] 미국 정부는 현행 국제인도법이 법률의 개발이나 사용을 규제할 수 있다는 입장을 견지하고 있습니다.[169] 의회조사국은 2023년에 미국이 자국의 재고에 법률을 가지고 있지는 않지만, 미국의 정책이 그것의 개발과 고용을 금지하지는 않는다고 지적했습니다.[170]

참고 항목

참고문헌

  1. ^ Nemitz, Paul (2018). "Constitutional democracy and technology in the age of artificial intelligence". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180089. Bibcode:2018RSPTA.37680089N. doi:10.1098/rsta.2018.0089. PMID 30323003.
  2. ^ Cath, Corinne (2018). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180080. Bibcode:2018RSPTA.37680080C. doi:10.1098/rsta.2018.0080. PMC 6191666. PMID 30322996.
  3. ^ a b c Buiten, Miriam C. (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8.
  4. ^ Erdélyi, Olivia J.; Goldsmith, Judy (2020). "Regulating Artificial Intelligence: Proposal for a Global Solution". arXiv:2005.11072 [cs.CY].
  5. ^ Ebers, Martin (2020). "Regulating AI and Robotics: Ethical and Legal Challenges". Algorithms and Law. Cambridge University Press. pp. 37–99. ISBN 978-1-108-34784-6.
  6. ^ Satariano, Adam (8 December 2023). "E.U. Agrees on Landmark Artificial Intelligence Rules - The agreement over the A.I. Act solidifies one of the world's first comprehensive attempts to limit the use of artificial intelligence". The New York Times. Archived from the original on 9 December 2023. Retrieved 9 December 2023.
  7. ^ Tallberg, Jonas; Erman, Eva; Furendal, Markus; Geith, Johannes; Klamberg, Mark; Lundgren, Magnus (2023). "Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research". International Studies Review. 25 (3). doi:10.1093/isr/viad040.
  8. ^ Héder, M (2020). "A criticism of AI ethics guidelines". Információs Társadalom. 20 (4): 57–73. doi:10.22503/inftars.XX.2020.4.5. S2CID 233252939.
  9. ^ a b "Ethics guidelines for trustworthy AI". European Commission. 2019.
  10. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022-05-24). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics. 3 (1): 145–153. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285. PMID 35634256.
  11. ^ "An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan". Retrieved 26 April 2021.
  12. ^ a b c d e Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  13. ^ a b Vincent, James (3 April 2023). "AI is entering an era of corporate control". The Verge. Retrieved 19 June 2023.
  14. ^ "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (PDF). AI Index. 2023. Retrieved 19 June 2023.
  15. ^ (Samuel in Science, 132(3429)):741-742, 1960. https://doi.org/10.1126/science.132.3429.741 ; 사이버네틱스 분야의 위너: 또는 동물과 기계의 제어 및 통신, MIT Press, 뉴욕, 1961)
  16. ^ a b "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR.org. Retrieved 27 November 2017.
  17. ^ Gibbs, Samuel (17 July 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. Retrieved 27 November 2017.
  18. ^ Kharpal, Arjun (7 November 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. Retrieved 27 November 2017.
  19. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  20. ^ Edwards, Benj (17 May 2023). "Poll: AI poses risk to humanity, according to majority of Americans". Ars Technica. Retrieved 19 June 2023.
  21. ^ Kasperowicz, Peter (1 May 2023). "Regulate AI? GOP much more skeptical than Dems that government can do it right: poll". Fox News. Retrieved 19 June 2023.
  22. ^ "Fox News Poll" (PDF). Fox News. 2023. Retrieved 19 June 2023.
  23. ^ Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN 978-1-78643-904-8. OCLC 1039480085.
  24. ^ a b Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018-07-24). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
  25. ^ Mantelero, Alessandro; Esposito, Maria Samantha (2021). "An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems". Computer Law & Security Review. 41: 105561. doi:10.1016/j.clsr.2021.105561. ISSN 0267-3649. S2CID 237588123.
  26. ^ a b Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11 June 2019. ISBN 978-92-64-54519-9. OCLC 1105926611.
  27. ^ Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Evgeniy A.; Kripakova, Dina R. (2020), "Revisiting the Place of Artificial Intelligence in Society and the State", Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Advances in Intelligent Systems and Computing, Cham: Springer International Publishing, vol. 1100, pp. 359–364, doi:10.1007/978-3-030-39319-9_41, ISBN 978-3-030-39318-2, S2CID 213070224
  28. ^ "Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information". IEEE Technology and Society Magazine. 40 (4): C2. December 2021. doi:10.1109/MTS.2021.3126194.
  29. ^ a b c d e Marchant, Gary. ""Soft Law" Governance of AI" (PDF). AI Pulse. AI PULSE Papers. Retrieved 28 February 2023.
  30. ^ a b c Johnson, Walter G.; Bowman, Diana M. (December 2021). "A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence". IEEE Technology and Society Magazine. 40 (4): 68–76. doi:10.1109/MTS.2021.3123745. S2CID 245053179.
  31. ^ Sutcliffe, Hillary R.; Brown, Samantha (December 2021). "Trust and Soft Law for AI". IEEE Technology and Society Magazine. 40 (4): 14–24. doi:10.1109/MTS.2021.3123741. S2CID 244955938.
  32. ^ a b Schmit, C. D.; Doerr, M. J.; Wagner, J. K. (17 February 2023). "Leveraging IP for AI governance". Science. 379 (6633): 646–648. Bibcode:2023Sci...379..646S. doi:10.1126/science.add2202. PMID 36795826. S2CID 256901479.
  33. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (2020-01-15). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI (Report). Berkman Klein Center for Internet & Society.
  34. ^ Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (2020-04-15). "The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration". International Journal of Public Administration. 43 (9): 818–829. doi:10.1080/01900692.2020.1749851. ISSN 0190-0692. S2CID 218807452.
  35. ^ a b Bredt, Stephan (2019-10-04). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. 2: 16. doi:10.3389/frai.2019.00016. ISSN 2624-8212. PMC 7861258. PMID 33733105.
  36. ^ a b c White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. p. 1.
  37. ^ Wirtz, Bernd W.; Müller, Wilhelm M. (2018-12-03). "An integrated artificial intelligence framework for public management". Public Management Review. 21 (7): 1076–1100. doi:10.1080/14719037.2018.1549268. ISSN 1471-9037. S2CID 158267709.
  38. ^ Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. Archived from the original (PDF) on 2020-06-14. Retrieved 2020-04-28.
  39. ^ a b "Towards Responsible Artificial Intelligence Innovation". UNICRI. July 2020. Retrieved 2022-07-18.
  40. ^ a b Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019). "Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging". American Journal of Roentgenology. 213 (4): 886–888. doi:10.2214/ajr.18.20410. ISSN 0361-803X. PMID 31166758. S2CID 174813195.
  41. ^ a b Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (2019-12-17). "Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine". JAMA. 322 (23): 2285–2286. doi:10.1001/jama.2019.16842. ISSN 0098-7484. PMID 31755907. S2CID 208230202.
  42. ^ Sharma, Kavita; Manchikanti, Padmavati (2020-10-01). "Regulation of Artificial Intelligence in Drug Discovery and Health Care". Biotechnology Law Report. 39 (5): 371–380. doi:10.1089/blr.2020.29183.ks. ISSN 0730-031X. S2CID 225540889.
  43. ^ Petkus, Haroldas; Hoogewerf, Jan; Wyatt, Jeremy C (2020). "What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies". Clinical Medicine. 20 (3): 324–328. doi:10.7861/clinmed.2019-0317. ISSN 1470-2118. PMC 7354034. PMID 32414724.
  44. ^ Cheng, Jerome Y.; Abel, Jacob T.; Balis, Ulysses G.J.; McClintock, David S.; Pantanowitz, Liron (2021). "Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology". The American Journal of Pathology. 191 (10): 1684–1692. doi:10.1016/j.ajpath.2020.10.018. ISSN 0002-9440. PMID 33245914. S2CID 227191875.
  45. ^ a b c Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). "Stifling artificial intelligence: Human perils". Computer Law & Security Review. 32 (5): 749–758. doi:10.1016/j.clsr.2016.05.003. ISSN 0267-3649.
  46. ^ Iphofen, Ron; Kritikos, Mihalis (2019-01-03). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
  47. ^ a b AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF). Washington, DC: United States Defense Innovation Board. 2019. OCLC 1126650738.
  48. ^ a b c Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. Archived from the original (PDF) on 2020-05-02. Retrieved 2020-04-28.
  49. ^ a b "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 April 2017. Retrieved 24 December 2017.
  50. ^ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. Retrieved 2019-09-14.
  51. ^ Kissinger, Henry (1 November 2021). "The Challenge of Being Human in the Age of AI". The Wall Street Journal.
  52. ^ a b Barrett, Anthony M.; Baum, Seth D. (2016-05-23). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Journal of Experimental & Theoretical Artificial Intelligence. 29 (2): 397–414. arXiv:1607.07730. doi:10.1080/0952813x.2016.1186228. ISSN 0952-813X. S2CID 928824.
  53. ^ Boyd, Matthew; Wilson, Nick (2017-11-01). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. 13 (4). doi:10.26686/pq.v13i4.4619. ISSN 2324-1101.
  54. ^ Innovation, Science and Economic Development Canada (2019-05-16). "Declaration of the International Panel on Artificial Intelligence". gcnws. Retrieved 2020-03-29.
  55. ^ Simonite, Tom (2020-01-08). "The world has a plan to rein in AI—but the US doesn't like it". Wired. Retrieved 2020-03-29.
  56. ^ a b "AI Regulation: Has the Time Arrived?". InformationWeek. 24 February 2020. Retrieved 2020-03-29.
  57. ^ a b c d e f g UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11 June 2021. ISBN 978-92-3-100450-6.
  58. ^ "Community". GPAI. Archived from the original on March 30, 2023.
  59. ^ "AI-Principles Overview". OECD.AI. Retrieved 2023-10-20.
  60. ^ G20 Ministerial Statement on Trade and Digital Economy (PDF). Tsukuba City, Japan: G20. 2019.
  61. ^ "International AI ethics panel must be independent". Nature. 572 (7770): 415. 2019-08-21. Bibcode:2019Natur.572R.415.. doi:10.1038/d41586-019-02491-x. PMID 31435065.
  62. ^ Guidelines for AI Procurement (PDF). Cologny/Geneva: World Economic Forum. 2019.
  63. ^ "High-Level Event: Artificial Intelligence and Robotics - Reshaping the Future of Crime, Terrorism and Security". UNICRI. Retrieved 2022-07-18.
  64. ^ a b c d NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (PDF). Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1–12. 이 문서에는 CC BY 4.0 라이센스에 따라 사용 가능한 텍스트가 포함되어 있습니다. (CC BY 4.0 라이선스는 모든 사용자가 저작자의 공을 인정할 경우, 여기에 인용된 텍스트 또는 원본 기사 자체의 다른 부분을 재사용할 권리가 있음을 의미합니다. 자세한 내용 : 크리에이티브 커먼즈 라이선스) 다음과 같이 변경되었습니다: 인용 삭제 및 사소한 문법 수정.
  65. ^ "Recommendation on the ethics of artificial intelligence". UNESCO. 2020-02-27. Retrieved 2022-07-18.
  66. ^ Nindler, Reinmar (2019-03-11). "The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence". International Community Law Review. 21 (1): 5–34. doi:10.1163/18719732-12341388. ISSN 1871-9740. S2CID 150911357.
  67. ^ "About". AI for Good. Retrieved 2023-04-06.
  68. ^ Taddeo, Mariarosaria; Floridi, Luciano (April 2018). "Regulate artificial intelligence to avert cyber arms race". Nature. 556 (7701): 296–298. Bibcode:2018Natur.556..296T. doi:10.1038/d41586-018-04602-6. PMID 29662138.
  69. ^ "Artificial Intelligence and Robotics". UNICRI. Retrieved 2020-08-08.
  70. ^ Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
  71. ^ Popova, Anna V.; Gorokhova, Svetlana S.; Abramova, Marianna G.; Balashkina, Irina V. (2021), The System of Law and Artificial Intelligence in Modern Russia: Goals and Instruments of Digital Modernization, Studies in Systems, Decision and Control, vol. 314, Cham: Springer International Publishing, pp. 89–96, doi:10.1007/978-3-030-56433-9_11, ISBN 978-3-030-56432-2, S2CID 234309883, retrieved 2021-03-27
  72. ^ "OECD Observatory of Public Sector Innovation - Ai Strategies and Public Sector Components". Retrieved 2020-05-04.
  73. ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation.
  74. ^ Campbell, Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives (PDF). Evergreen, CO: FutureGrasp, LLC. Archived from the original (PDF) on March 31, 2020.
  75. ^ Bradford, Anu (2023-06-27). "The Race to Regulate Artificial Intelligence". Foreign Affairs. ISSN 0015-7120. Retrieved 2023-08-11.
  76. ^ a b "Australia needs a national approach to AI strategy". Information Age. Retrieved 2023-11-08.
  77. ^ Innovation, Science and Economic Development Canada (2022-06-22). "Government of Canada launches second phase of the Pan-Canadian Artificial Intelligence Strategy". www.canada.ca. Retrieved 2023-10-24.
  78. ^ Canada, Government of (2022-08-18). "Bill C-27 summary: Digital Charter Implementation Act, 2022". ised-isde.canada.ca. Retrieved 2023-10-24.
  79. ^ "Government Bill (House of Commons) C-27 (44-1) - First Reading - Digital Charter Implementation Act, 2022 - Parliament of Canada". www.parl.ca. Retrieved 2022-07-12.
  80. ^ State Council China. "New Generation of Artificial Intelligence Development Plan". www.unodc.org. Archived from the original on June 7, 2023. Retrieved 2022-07-18.
  81. ^ Department of International Cooperation Ministry of Science and Technology (September 2017). "Next Generation Artificial Intelligence Development Plan Issued by State Council" (PDF). China Science & Technology Newsletter (17): 2–12. Archived from the original (PDF) on January 21, 2022 – via Ministry of Foreign Affairs of China.
  82. ^ Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, Jun; Yu, Kai; Li, Lei; Li, Ming; Chen, Qianfeng; Li, Xi; Cao, Xudong (2020). "Towards a new generation of artificial intelligence in China". Nature Machine Intelligence. 2 (6): 312–316. doi:10.1038/s42256-020-0183-4. ISSN 2522-5839. S2CID 220507829.
  83. ^ "Ethical Norms for New Generation Artificial Intelligence Released". Center for Security and Emerging Technology. Retrieved 2022-07-18.
  84. ^ "China just gave the world a blueprint for reigning in generative A.I." Fortune. Retrieved 2023-07-24.
  85. ^ "Council of Europe and Artificial Intelligence". Artificial Intelligence. Retrieved 2021-07-29.
  86. ^ Peukert, Christian; Bechtold, Stefan; Kretschmer, Tobias; Batikas, Michail (2020-09-30). "Regulatory export and spillovers: How GDPR affects global markets for data". CEPR. Retrieved 2023-10-26.
  87. ^ Coulter, Martin (2023-08-24). "Big Tech braces for EU Digital Services Act regulations". Reuters. Retrieved 2023-10-26.
  88. ^ "Europe's new role in digital regulation". Le Monde.fr. 2023-08-28. Retrieved 2023-10-26.
  89. ^ Satariano, Adam (2023-06-14). "Europeans Take a Major Step Toward Regulating A.I." The New York Times. ISSN 0362-4331. Retrieved 2023-10-25.
  90. ^ Browne, Ryan (2023-06-14). "EU lawmakers pass landmark artificial intelligence regulation". CNBC. Retrieved 2023-10-25.
  91. ^ Anonymous (2018-04-25). "Communication Artificial Intelligence for Europe". Shaping Europe's digital future - European Commission. Retrieved 2020-05-05.
  92. ^ smuhana (2018-06-14). "High-Level Expert Group on Artificial Intelligence". Shaping Europe's digital future - European Commission. Retrieved 2020-05-05.
  93. ^ a b Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2021-01-02). "The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework". AI & Society. 36 (2): 623–636. doi:10.1007/s00146-020-01125-5. ISSN 0951-5666. S2CID 230109912.
  94. ^ "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe's digital future - European Commission. 2019-06-26. Retrieved 2020-05-05.
  95. ^ a b European Commission. (2020). White paper on artificial intelligence: a European approach to excellence and trust. OCLC 1141850140.
  96. ^ "Does This Change Everything? Coronavirus and your private data". European Investment Bank. Archived from the original on 7 June 2021. Retrieved 2021-06-07.
  97. ^ "White Paper on Artificial Intelligence – a European approach to excellence and trust Shaping Europe's digital future". digital-strategy.ec.europa.eu. 19 February 2020. Retrieved 2021-06-07.
  98. ^ Broadbent, Meredith (17 March 2021). "What's Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?". www.csis.org. Archived from the original on 7 June 2021. Retrieved 2021-06-07.
  99. ^ "Regulating AI in the EU". Mason Hayes & Curran. Retrieved 30 March 2023.
  100. ^ 멜리사(2021-04-14), 하이킬레(2021-04-14). "정치: 해독됨: EU의 AI 규칙 - 핀란드가 기계와 대화 - 페이스북의 공정성 프로젝트"(뉴스레터) 폴리티코. 2021-05-14를 검색했습니다.
  101. ^ 유럽 위원회 (2021-04-21). 유럽은 디지털 시대에 적합합니다. 위원회는 인공 지능우수성과 신뢰를 위한 새로운 규칙과 조치를 제안합니다(보도자료). 2021-05-14를 검색했습니다.
  102. ^ Pery, Andrew (2021-10-06). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. Retrieved 2022-02-27.
  103. ^ Browne, Ryan (2023-05-15). "Europe takes aim at ChatGPT with what might soon be the West's first A.I. law. Here's what it means". CNBC. Retrieved 2023-10-25.
  104. ^ Veale, Michael; Borgesius, Frederik Zuiderveen (2021-08-01). "Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach". Computer Law Review International. 22 (4): 97–112. arXiv:2107.03721. doi:10.9785/cri-2021-220402. ISSN 2194-4164. S2CID 235765823.
  105. ^ van Kolfschooten, Hannah (January 2022). "EU regulation of artificial intelligence: Challenges for patients' rights". Common Market Law Review. 59 (1): 81–112. doi:10.54648/COLA2022005. S2CID 248591427.
  106. ^ "On the back of its AI Act, the EU invests in risky software to secure borders". Le Monde.fr. 2023-06-23. Retrieved 2023-10-25.
  107. ^ "The EU AI Act Overview: What's Coming for Businesses after the EU Parliament Vote". legalnodes.com. Retrieved 2023-10-26.
  108. ^ Natale, Lara (February 2022). "EU's digital ambitions beset with strategic dissonance". Encompass. Retrieved 25 February 2022.
  109. ^ Bertuzzi, Luca; Killeen, Molly (17 September 2021). "Digital Brief powered by Google: make it or break it, Chips Act, showing the path". Euractiv. Retrieved 25 February 2022.
  110. ^ Propp, Kenneth (7 February 2022). "France's new mantra: liberty, equality, digital sovereignty". Atlantic Council. Retrieved 25 February 2022.
  111. ^ Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. ""KI – Made in Germany" etablieren". www.bmwk.de (in German). Retrieved 12 June 2023.
  112. ^ "DIN, DKE und BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz". all-electronics (in German). Retrieved 12 June 2023.
  113. ^ a b Runze, Gerhard; Haimerl, Martin; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). "Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon". Java Spektrum (in German) (3): 42–46.
  114. ^ "Normungsroadmap Künstliche Intelligenz". www.dke.de (in German). Retrieved 12 June 2023.
  115. ^ "Hiroshima Process International Guiding Principles for Advanced AI system Shaping Europe's digital future". digital-strategy.ec.europa.eu. 2023-10-30. Retrieved 2023-11-01.
  116. ^ Marzio Bartoloni (11 October 2023). "Cures and artificial intelligence: privacy and the risk of the algorithm that discriminates".
  117. ^ Ministry of Science of Spain (2018). "Spanish RDI Strategy in Artificial Intelligence" (PDF). www.knowledge4policy.ec.europa.eu. Retrieved 9 December 2023.
  118. ^ a b "Chaining the chatbots: Spain closes in on AI Act". POLITICO. 2023-06-22. Retrieved 2023-09-03.
  119. ^ Ministry of Science of Spain (2018). "Spanish RDI Strategy in Artificial Intelligence" (PDF). www.knowledge4policy.ec.europa.eu. Retrieved 9 December 2023.
  120. ^ Castillo, Carlos del (2021-12-28). "España vigilará la Inteligencia Artificial como a los fármacos o los alimentos". elDiario.es (in Spanish). Retrieved 2023-09-03.
  121. ^ "España comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA". El Español (in Spanish). 2022-09-13. Retrieved 2023-09-03.
  122. ^ Marcos, José (2022-09-12). "El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid". El País (in Spanish). Retrieved 2023-09-03.
  123. ^ "A Coruña acogerá la Agencia Española de Inteligencia Artificial". Europa Press. 2022-12-05. Retrieved 2023-09-03.
  124. ^ "El Gobierno aprueba el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial". Europa Press. 2023-08-22. Retrieved 2023-09-03.
  125. ^ Guerrini, Federico. "European Countries Race To Set The AI Regulatory Pace". Forbes. Retrieved 2023-09-04.
  126. ^ a b "Digital economy strategy 2015 to 2018". www.ukri.org. 16 February 2015. Retrieved 2022-07-18.
  127. ^ "Data ethics and AI guidance landscape". GOV.UK. Retrieved 2023-10-26.
  128. ^ Leslie, David (2019-06-11). "Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector". Zenodo. arXiv:1906.05684. doi:10.5281/zenodo.3240529. S2CID 189762499.
  129. ^ "Intelligent security tools". www.ncsc.gov.uk. Retrieved 2020-04-28.
  130. ^ Richardson, Tim. "UK publishes National Artificial Intelligence Strategy". www.theregister.com.
  131. ^ 영국의 국가 AI 전략, 2021 ("필러 3 - AI를 효과적으로 관리하는" 섹션의 조치 9 및 10)
  132. ^ "A pro-innovation approach to AI regulation". GOV.UK. Retrieved 2023-10-27.
  133. ^ Gikay, Asress Adimi (2023-06-08). "How the UK is getting AI regulation right". The Conversation. Retrieved 2023-10-27.
  134. ^ Browne, Ryan (2023-06-12). "British Prime Minister Rishi Sunak pitches UK as home of A.I. safety regulation as London bids to be next Silicon Valley". CNBC. Retrieved 2023-10-27.
  135. ^ "AI Safety Summit: introduction (HTML)". GOV.UK. Retrieved 2023-10-27.
  136. ^ Weaver, John Frank (2018-12-28). "Regulation of artificial intelligence in the United States". Research Handbook on the Law of Artificial Intelligence: 155–212. doi:10.4337/9781786439055.00018. ISBN 9781786439055.
  137. ^ "The Administration's Report on the Future of Artificial Intelligence". whitehouse.gov. 2016-10-12. Retrieved 2023-11-01.
  138. ^ National Science and Technology Council Committee on Technology (October 2016). "Preparing for the Future of Artificial Intelligence". whitehouse.gov – via National Archives.
  139. ^ "National Strategic Research and Development Plan for Artificial Intelligence" (PDF). National Science and Technology Council. October 2016.
  140. ^ "About". National Security Commission on Artificial Intelligence. Retrieved 2020-06-29.
  141. ^ Stefanik, Elise M. (2018-05-22). "H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. Retrieved 2020-03-13.
  142. ^ Heinrich, Martin (2019-05-21). "Text - S.1558 - 116th Congress (2019–2020): Artificial Intelligence Initiative Act". www.congress.gov. Retrieved 2020-03-29.
  143. ^ Scherer, Matthew U. (2015). "Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies". SSRN Working Paper Series. doi:10.2139/ssrn.2609777. ISSN 1556-5068.
  144. ^ "Executive Order on Maintaining American Leadership in Artificial Intelligence – The White House". trumpwhitehouse.archives.gov. Retrieved 2023-11-01.
  145. ^ Vought, Russell T. "MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES - Guidance for Regulation of Artificial Intelligence Applications" (PDF). The White House.
  146. ^ "AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation". Inside Tech Media. 2020-01-14. Retrieved 2020-03-25.
  147. ^ U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools (PDF). National Institute of Science and Technology. 2019.
  148. ^ "Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"". Federal Register. 2020-01-13. Retrieved 2020-11-28.
  149. ^ National Science Technology Council (June 21, 2019). "The National Artificial Intelligence Research and Development Strategic Plan: 2019 Update" (PDF).
  150. ^ Gursoy, Furkan; Kakadiaris, Ioannis A. (2023). "Artificial intelligence research strategy of the United States: critical assessment and policy recommendations". Frontiers in Big Data. 6. doi:10.3389/fdata.2023.1206139. ISSN 2624-909X.
  151. ^ NSCAI Final Report (PDF). Washington, DC: The National Security Commission on Artificial Intelligence. 2021.
  152. ^ Homeland Newswire (2022-06-25). "Portman, Peters Introduce Bipartisan Bill to Ensure Federal Government is Prepared for Catastrophic Risks to National Security". HomelandNewswire. Archived from the original on June 25, 2022. Retrieved 2022-07-04.
  153. ^ "Text - S.4488 - 117th Congress (2021–2022): A bill to establish an interagency committee on global catastrophic risk, and for other purposes. Congress.gov Library of Congress". Congress.gov. 2022-06-23. Retrieved 2022-07-04.
  154. ^ "Blueprint for an AI Bill of Rights OSTP". The White House. Retrieved 2023-11-01.
  155. ^ "The White House just unveiled a new AI Bill of Rights". MIT Technology Review. Retrieved 2023-10-24.
  156. ^ "A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools". The New York City Council. Retrieved 2023-11-01.
  157. ^ Kestenbaum, Jonathan (July 5, 2023). "NYC's New AI Bias Law Broadly Impacts Hiring and Requires Audits". Bloomberg Law. Retrieved 2023-10-24.
  158. ^ House, The White (2023-07-21). "FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI". The White House. Retrieved 2023-09-25.
  159. ^ House, The White (2023-09-12). "FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI". The White House. Retrieved 2023-09-25.
  160. ^ Chatterjee, Mohar (2023-10-12). "White House AI order to flex federal buying power". POLITICO. Retrieved 2023-10-27.
  161. ^ House, The White (2023-10-30). "FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence". The White House. Retrieved 2023-12-05.
  162. ^ Lewis, James Andrew; Benson, Emily; Frank, Michael (2023-10-31). "The Biden Administration's Executive Order on Artificial Intelligence". {{cite journal}}: 저널 인용 요구사항 journal= (도와주세요)
  163. ^ House, The White (2023-10-30). "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence". The White House. Retrieved 2023-12-05.
  164. ^ Lanum, Nikolas (2023-11-07). "President Biden's AI executive order has 'dangerous limitations,' says deepfake detection company CEO". FOXBusiness. Retrieved 2023-12-05.
  165. ^ "Background on Lethal Autonomous Weapons Systems in the CCW". United Nations Geneva.
  166. ^ "Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System" (PDF). United Nations Geneva. Archived from the original (PDF) on 2020-12-01. Retrieved 2020-05-05.
  167. ^ Baum, Seth (2018-09-30). "Countering Superintelligence Misinformation". Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.
  168. ^ "Country Views on Killer Robots" (PDF). The Campaign to Stop Killer Robots.
  169. ^ Sayler, Kelley (2020). Artificial Intelligence and National Security: Updated November 10, 2020 (PDF). Washington, DC: Congressional Research Service.
  170. ^ "Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems". Congressional Research Service. May 15, 2023.