자동화된 의사결정
Automated decision-making자동화된 의사결정(ADM)은 데이터, 기계 및 알고리즘을 사용하여 공공행정, 사업, 보건, 교육, 법률, 고용, 교통, 미디어 및 엔터테인먼트를 포함한 다양한 맥락에서 의사결정을 내리는 것을 포함한다.ADM은 컴퓨터 소프트웨어, 알고리즘, 머신러닝, 자연어 처리, 인공지능, 증강지능, 로봇 등 다양한 기술을 이용해 처리되는 데이터베이스, 텍스트, 소셜미디어, 센서, 이미지, 음성 등 다양한 소스의 대규모 데이터를 포함한다.다양한 맥락에서 자동화된 의사결정 시스템(ADMS)의 사용이 증가함에 따라 기술, 법률, 윤리적, 사회적, 교육적, 경제적 결과를 고려해야 하는 인간 사회에 많은 이점과 과제가 제시되고 있다.[1][2]null
개요
반면 항공 모의 유도탄의 정의는 현실에 원자 폭발물 많은 형태로 행동하는 인간 의사 결정자들에 권고한다.decision-support 시스템, 때때로 증강 intelligence[4]또는 'shared 완전 자동화된 decision-makin에 decision-making',[1]으로 알려져 이르기까지 취할 수 있는 결정을 순수하게 기술적인 means,[3]을 통해 만들어진 것을 포함하는 것을 제안합니다.g과정인적 개입 없이 기관이나 단체를 대신하여 결정을 내리는 것.[5]자동화된 의사결정 시스템에 사용되는 모델은 인공지능과 심층신경망(DNN)을 통해 체크리스트와 의사결정 나무처럼 간단할 수 있다.null
1950년대 이래로 컴퓨터는 기본적인 처리를 할 수 있는 능력에서 영상과 음성 인식, 게임 플레이, 과학 및 의학 분석, 여러 데이터 출처에 걸친 회의와 같은 복잡하고 모호하며 고도로 숙련된 작업을 수행할 수 있는 능력으로 발전해 왔다.ADM은 현재 사회의 모든 부문과 엔터테인먼트에서 운송에 이르는 다양한 영역에 걸쳐 점점 더 많이 배치되고 있다.null
데이터 및 기술
자동화된 의사결정은 다양한 데이터 출처와 기술을 사용하여 자율주행차, 로봇공학, 보안 시스템, 공공행정, 보건, 법률, 상업 등 다양한 맥락에서 인간과 기계의 행동을 주도하는 결정을 내린다.null
데이터 품질
ADM 시스템에서 사용할 수 있고 이용할 수 있는 데이터의 품질은 결과에 기본적이며 여러 가지 이유로 인해 문제가 되는 경우가 많다.데이터 집합은 종종 매우 가변적이며, 대규모 데이터는 개인 정보 보호나 보안상의 이유로 제한되고, 불완전하고, 편파적이며, 시간이나 커버리지 면에서 제한되며, 다양한 방식으로 용어를 측정하고 기술하며, 그 밖의 많은 문제들에 의해 통제될 수 있다.null
데이터를 통해 기계가 학습하기 위해서는 종종 큰 말뭉치가 필요하며, 이러한 말뭉치는 얻거나 계산하기가 어려울 수 있지만, 가능한 경우, 예를 들어 흉부 엑스레이 진단에서 상당한 돌파구를 제공했다.[6]null
머신러닝
머신러닝(ML)은 대용량 데이터셋에 노출돼 컴퓨터 프로그램을 교육해 경험에서 배우고 문제를 해결하는 것을 말한다.[1]머신러닝(machine learning)은 알고리즘 계산뿐만 아니라 데이터를 생성 및 분석하는 데 사용될 수 있으며, 영상 및 음성 인식, 번역, 텍스트, 데이터 및 시뮬레이션에 적용되었다.머신러닝(machine learning)은 한동안 존재했지만 최근 심층신경망(DNN) 훈련의 돌파구, GPU 코프로세서와 클라우드 컴퓨팅으로 데이터 저장 용량과 계산력의 급격한 증가로 점점 강력해지고 있다.[1]null
적용들
ADM은 일관성을 높이고 효율성을 향상시키며 복잡한 문제에 대한 새로운 해결책을 가능하게 하는 것을 포함한 다양한 이유로 공공 및 민간 부문 기관 모두의 행정 의사결정을 대체하거나 강화하는 데 사용되고 있다.[7]null
토론
논쟁의 질을 평가하고,[8][9][10] 논술을 평가하고,[11][12] 토론을 판단하기 위한 기술의 사용에 대한 연구와 개발이 진행 중이다.[13][14][15][16]이러한 주장 기술의 잠재적인 적용은 교육과 사회에 걸쳐 있다.이러한 점에서 고려해야 할 시나리오는 대화, 수학, 과학, 해석, 법률 및 정치적 논쟁과 토론의 평가와 평가를 포함한다.null
법
전 세계 법률 시스템에서는 위험도 평가 기구(RAI)와 같은 알고리즘적 도구가 여러 맥락에서 판사, 공무원, 경찰관의 인간적 판단을 보완하거나 대체하는 데 사용되고 있다.[17]미국에서는 RAI를 사용하여 재판 전 구금과 양형 결정에서 재범 위험성을 예측하고,[18] 수감자에 대한 가석방을 평가하고, 향후 범죄에 대한 "핫 스팟"을 예측하고 있다.[19][20][21]이러한 점수는 자동적으로 영향을 미치거나 사법 제도 내의 공무원들이 내린 결정을 알리는 데 사용될 수 있다.[17]캐나다에서 ADM은 2014년부터 이민국 관리들이 행하는 특정 활동을 자동화하고 일부 이민자 및 방문자 신청에 대한 평가를 지원하기 위해 사용되어 왔다.[22]null
미디어 및 엔터테인먼트
디지털 미디어 및 엔터테인먼트 플랫폼, 정보 서비스는 인구 통계 정보, 이전 선택 사항, 협업 필터링 또는 콘텐츠 기반 필터링을 기반으로 하는 자동 추천자 시스템을 통해 점점 더 많은 콘텐츠를 시청자에게 제공한다.[23]여기에는 음악 및 비디오 플랫폼, 출판, 건강 정보, 제품 데이터베이스 및 검색 엔진이 포함된다.또한 많은 추천자 시스템은 권고사항을 수용함에 있어 사용자에게 일부 기관을 제공하고 시스템 사용자의 행동에 근거한 데이터 기반 알고리즘 피드백 루프를 통합한다.[5]null
온라인 광고는 많은 디지털 미디어 플랫폼, 웹사이트, 검색 엔진과 긴밀하게 통합되어 있으며 다양한 형식의 디스플레이 광고의 자동 전달을 수반하는 경우가 많다.'프로그래머셜' 온라인 광고는 인간의 직접적인 의사결정이 아닌 소프트웨어를 통해 웹사이트와 플랫폼의 디지털 광고 판매와 전달을 자동화하는 것을 포함한다.[23]이것은 때때로 다양한 시스템과 플레이어에 걸친 일련의 단계를 포함하는 폭포 모델로 알려져 있다: 출판사와 데이터 관리 플랫폼, 사용자 데이터, 광고 서버 및 배달 데이터, 재고 관리 시스템, 광고 트레이더 및 광고 교환.[23]이 시스템에는 광고주에 대한 투명성 결여, 검증할 수 없는 측정 기준, 광고 장소에 대한 통제력 부족, 청중 추적 및 프라이버시 우려 등 다양한 문제가 있다.[23]광고를 싫어하는 인터넷 사용자들은 사용자가 웹사이트와 일부 인터넷 어플리케이션에서 원하지 않는 광고를 자동으로 필터링할 수 있는 광고 차단 기술과 같은 대응책을 채택했다.2017년 호주 인터넷 사용자의 24%가 광고 차단기를 갖고 있었다.[24]
교통 및 이동성
연결되고 자동화된 이동성(CAM)은 자동화된 의사결정 시스템을 사용하여 차량에 대한 인간 통제의 다양한 측면을 대체하는 자율주행차 및 기타 형태의 운송수단을 포함한다.[25]이는 레벨 0(완전한 인간 주행)부터 레벨 5(완전 자율 주행)까지 다양하다.[1]레벨 5에서 기계는 데이터 모델과 지리공간 매핑, 실시간 센서 및 환경 처리에 기초하여 차량을 제어하는 결정을 내릴 수 있다.1~3등급 차량은 2021년 이미 시중에 나와 있다.독일 정부는 2016년 '자동·연동형 주행에 관한 윤리위원회'를 설립해 시스템이 운전자에 비해 사고를 적게 유발할 경우(위험의 긍정적 균형) 연결·자동화 차량(CAV)을 개발할 것을 권고했다.자동·연계 운전의 적응을 위한 20가지 윤리 규정도 마련했다.[26]2020년에 CAM에 대한 유럽 위원회 전략은 도로 사망을 줄이고 배출량을 줄이기 위해 유럽에서 채택할 것을 권고했지만, 자율주행차는 또한 프라이버시 문제뿐만 아니라 사고 시 책임과 윤리적 의사결정의 측면에서 많은 정책, 보안 및 법적 문제를 제기한다.[27]자율주행차에 대한 신뢰와 안전에 대한 지역사회의 우려는 AV를 폭넓게 채택할 경우 해결해야 할 핵심 요인이다.[28]null
감시
센서, 카메라, 온라인 거래, 소셜 미디어를 통한 자동화된 디지털 데이터 수집은 정부 및 상업 부문의 감시 관행과 기관의 범위, 규모, 목표를 크게 확장시켰다.[29]그 결과 용의자에 대한 표적 감시에서 전체 인구를 감시하는 능력으로 큰 변화가 있었다.[30]자동화된 데이터 수집의 결과로 현재 가능한 감시 수준은 디지털 미디어가 모든 상호작용에 대한 대규모 추적과 데이터 축적을 포함하는 방식을 나타내는 감시 자본주의 또는 감시 경제로 설명되어 왔다.null
윤리적, 법적 문제
자동화된 의사결정 시스템에는 많은 사회적, 윤리적, 법적 함의가 있다.의사결정의 투명성과 경쟁성 결여, 프라이버시와 감시에 대한 침해, 데이터와 알고리즘적 편견으로 인한 시스템적 편견과 불평등 심화, 지적재산권, 미디어 플랫폼을 통한 오보 확산, 행정적 차별, 위험과 책임, 실업과 실업이 우려된다.다른 사람들.[31][32] ADM이 유비쿼터스화됨에 따라 정보사회의 훌륭한 거버넌스를 확보하기 위한 윤리적 과제를 해결해야 할 필요성이 더욱 커지고 있다.[33]null
ADM 시스템은 쉽게 보거나 분석할 수 없는 머신러닝과 알고리즘을 기반으로 하는 경우가 많아 투명하거나 책임감이 없는 '블랙박스' 시스템이라는 우려가 나온다.[1]null
캐나다 시민 연구소의 한 보고서는 자동화된 의사 결정의 사용이 평등과 비차별에 대한 권리, 운동, 표현, 종교 및 결사의 자유, 사생활 권리 및 개인 정보 보호와 같은 권리를 침해하지 않도록 하기 위해 다양한 분야에서 ADM의 적용에 대한 중요한 인권 분석을 주장한다.그 사람의 생명,[22] 자유, 그리고 안전에 대한 권리null
ADM에 대한 입법적 대응은 다음과 같다.
- 2016년 도입된 유럽일반데이터보호규제(GDPR)는 유럽연합(EU)에서 데이터 보호 및 개인정보 보호에 관한 EU법상의 규정이다.제22조제1항은 법적 또는 그 밖의 유의미한 영향을 미치는 자료주체의 결정권이 자동적인 개별적 의사결정에만 근거하도록 규정하고 있다.[34][35]
바이어스
ADM은 다음에서 발생하는 알고리즘 편향을 포함할 수 있다.
- 데이터 원본 - 데이터 입력이 수집 또는 선택에서[32] 편중된 경우
- 알고리즘의 기술적 설계(예: 사람이 어떻게[36] 행동할 것인가에 대한 가정)
- 예상치 못한 상황에서 ADM을 적용하면 편향된 결과가[36] 생성되는 긴급 편향
정보 비대칭
자동화된 의사결정은 데이터를 시스템에 공급하는 개인과 플랫폼 및 해당 데이터에서 정보를 추론할 수 있는 의사결정 시스템 간의 정보 비대칭을 증가시킬 수 있다.한편, 금융 거래에서 두 인공 지능 에이전트 사이의 정보 비대칭성은 두 사람의 인간 에이전트 사이 또는 인간과 기계 에이전트[37] 사이의 정보 비대칭성이 훨씬 적을 수 있다는 것이 관찰되었다.null
연구분야
비즈니스, 컴퓨터 과학, 인간 컴퓨터 상호작용(HCI), 법률, 공공행정, 미디어와 통신 등 많은 학문 분야와 분야가 ADM의 개발, 적용, 시사점에 점점 관심을 돌리고 있다.검색 시스템과 플랫폼을 통한 미디어 콘텐츠의 자동화와 알고리즘으로 구동되는 뉴스, 비디오 및 기타 콘텐츠의 자동화는 미디어 연구의 학술적 연구의 주요 초점이다.[23]ADM을 조사하는 주요 연구 센터에는 다음이 포함된다.
- ARC 자동화된 의사 결정 및 사회를 위한 우수성 센터, 오스트레일리아
- 시티즌 랩, 캐나다
- 인포매틱스 유럽
참조
- ^ a b c d e f Larus, James; Hankin, Chris; Carson, Siri Granum; Christen, Markus; Crafa, Silvia; Grau, Oliver; Kirchner, Claude; Knowles, Bran; McGettrick, Andrew; Tamburri, Damian Andrew; Werthner, Hannes (2018). "When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making". New York, NY, USA: Association for Computing Machinery. doi:10.1145/3185595.
{{cite journal}}
:Cite 저널은 필요로 한다.journal=
(도움말) - ^ Mökander, Jakob; Morley, Jessica; Taddeo, Mariarosaria; Floridi, Luciano (2021-07-06). "Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations". Science and Engineering Ethics. 27 (4): 44. arXiv:2110.10980. doi:10.1007/s11948-021-00319-4. ISSN 1471-5546. PMC 8260507. PMID 34231029.
- ^ UK Information Commissioner's Office (2021-09-24). "Guide to the UK General Data Protection Regulation (UK GDPR)". Information Commissioner's Office UK. Archived from the original on 2018-12-21. Retrieved 2021-10-05.
- ^ Crigger, E.; Khoury, C. (2019-02-01). "Making Policy on Augmented Intelligence in Health Care". AMA Journal of Ethics. 21 (2): E188–191. doi:10.1001/amajethics.2019.188. ISSN 2376-6980. PMID 30794129. S2CID 73490120.
- ^ a b Araujo, Theo; Helberger, Natali; Kruikemeier, Sanne; de Vreese, Claes H. (2020-09-01). "In AI we trust? Perceptions about automated decision-making by artificial intelligence". AI & Society. 35 (3): 611–623. doi:10.1007/s00146-019-00931-w. hdl:11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5. ISSN 1435-5655. S2CID 209523258.
- ^ Seah, Jarrel C Y; Tang, Cyril H M; Buchlak, Quinlan D; Holt, Xavier G; Wardman, Jeffrey B; Aimoldin, Anuar; Esmaili, Nazanin; Ahmad, Hassan; Pham, Hung; Lambert, John F; Hachey, Ben (August 2021). "Effect of a comprehensive deep-learning model on the accuracy of chest x-ray interpretation by radiologists: a retrospective, multireader multicase study". The Lancet Digital Health. 3 (8): e496–e506. doi:10.1016/s2589-7500(21)00106-0. ISSN 2589-7500. PMID 34219054. S2CID 235735320.
- ^ Taddeo, Mariarosaria; Floridi, Luciano (2018-08-24). "How AI can be a force for good". Science. 361 (6404): 751–752. Bibcode:2018Sci...361..751T. doi:10.1126/science.aat5991. ISSN 0036-8075. PMID 30139858. S2CID 52075037.
- ^ Wachsmuth, Henning; Naderi, Nona; Hou, Yufang; Bilu, Yonatan; Prabhakaran, Vinodkumar; Thijm, Tim; Hirst, Graema; Stein, Benno (2017). "Computational argumentation quality assessment in natural language". Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. pp. 176–187.
- ^ Wachsmuth, Henning; Naderi, Nona; Habernal, Ivan; Hou, Yufang; Hirst, Graeme; Gurevych, Iryna; Stein, Benno (2017). "Argumentation quality assessment: Theory vs. practice". Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. pp. 250–255.
- ^ Gretz, Shai; Friedman, Roni; Cohen-Karlik, Edo; Toledo, Assaf; Lahav, Dan; Aharonov, Ranit; Slonim, Noam (2020). "A large-scale dataset for argument quality ranking: Construction and analysis". Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. pp. 7805–7813.
- ^ Green, Nancy (2013). "Towards automated analysis of student arguments". International Conference on Artificial Intelligence in Education. Springer. pp. 591–594.
- ^ Persing, Isaac; Ng, Vincent (2015). "Modeling argument strength in student essays". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. pp. 543–552.
- ^ Brilman, Maarten; Scherer, Stefan (2015). "A multimodal predictive model of successful debaters or how I learned to sway votes". Proceedings of the 23rd ACM international conference on Multimedia. pp. 149–158.
- ^ Potash, Peter; Rumshisky, Anna (2017). "Towards debate automation: a recurrent model for predicting debate winners". Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. pp. 2465–2475.
- ^ Santos, Pedro; Gurevych, Iryna (2018). "Multimodal prediction of the audience's impression in political debates". Proceedings of the 20th International Conference on Multimodal Interaction. pp. 1–6.
- ^ Wang, Lu; Beauchamp, Nick; Shugars, Sarah; Qin, Kechen (2017). "Winning on the merits: The joint effects of content and style on debate outcomes". Transactions of the Association for Computational Linguistics. MIT Press. 5: 219–232.
- ^ a b Chohlas-Wood, Alex (2020). Understanding risk assessment instruments in criminal justice. Brookings Institution.
- ^ Angwin, Julia; Larson, Jeff; Mattu, Surya (23 May 2016). "Machine Bias". ProPublica. Archived from the original on 2021-10-04. Retrieved 2021-10-04.
- ^ Nissan, Ephraim (2017-08-01). "Digital technologies and artificial intelligence's present and foreseeable impact on lawyering, judging, policing and law enforcement". AI & Society. 32 (3): 441–464. doi:10.1007/s00146-015-0596-5. ISSN 1435-5655. S2CID 21115049.
- ^ Dressel, Julia; Farid, Hany (2018). "The accuracy, fairness, and limits of predicting recidivism". Science Advances. 4 (1): eaao5580. Bibcode:2018SciA....4.5580D. doi:10.1126/sciadv.aao5580. PMC 5777393. PMID 29376122.
- ^ Ferguson, Andrew Guthrie (2017). The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. New York: NYU Press. ISBN 9781479869978.
- ^ a b Molnar, Petra; Gill, Lex (2018). "Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System". Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto).
{{cite journal}}
:Cite 저널은 필요로 한다.journal=
(도움말) - ^ a b c d e Thomas, Julian (2018). "Programming, filtering, adblocking: advertising and media automation". Media International Australia. 166 (1): 34–43. doi:10.1177/1329878X17738787. ISSN 1329-878X. Q110607881.
- ^ Newman, N; Fletcher, R; Kalogeropoulos, A (2017). "Reuters Institute Digital News Report". Reuters Institute for the Study of Journalism. Archived from the original on 2013-08-17. Retrieved 2022-01-19.
- ^ EU Directorate-General for Research and Innovation (2020). Ethics of connected and automated vehicles: recommendations on road safety, privacy, fairness, explainability and responsibility. LU: Publications Office of the European Union. doi:10.2777/035239. ISBN 978-92-76-17867-5.
- ^ Federal Ministry of Transport and Digital Infrastructures. "Ethics Commission's complete report on automated and connected driving". www.bmvi.de. German Government. Archived from the original on 2017-09-04. Retrieved 2021-11-23.
- ^ EU Directorate-General for Research and Innovation (2020). Ethics of connected and automated vehicles: recommendations on road safety, privacy, fairness, explainability and responsibility. LU: Publications Office of the European Union. doi:10.2777/035239. ISBN 978-92-76-17867-5.
- ^ Raats, Kaspar; Fors, Vaike; Pink, Sarah (2020-09-01). "Trusting autonomous vehicles: An interdisciplinary approach". Transportation Research Interdisciplinary Perspectives. 7: 100201. doi:10.1016/j.trip.2020.100201. ISSN 2590-1982.
- ^ Andrejevic, Mark (2021). "Automated surveillance". Routledge handbook of digital media and communication. Leah A. Lievrouw, Brian Loader. Abingdon, Oxon: Taylor and Francis. ISBN 978-1-315-61655-1. OCLC 1198978596.
- ^ Pasquale, Frank (2016). Black box society : the secret algorithms that control money and information. Cambridge, Massachusetts: Harvard University Press. ISBN 0-674-97084-5. OCLC 946975299.
- ^ Eubanks, Virginia (2018). Automating inequality : how high-tech tools profile, police, and punish the poor (First ed.). New York, NY. ISBN 978-1-250-07431-7. OCLC 1013516195.
- ^ a b Safiya Noble (2018), Algorithms of Oppression: How Search Engines Reinforce Racism, New York University Press, Wikidata Q48816548
- ^ Cath, Corinne (2018-11-28). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180080. Bibcode:2018RSPTA.37680080C. doi:10.1098/rsta.2018.0080. PMC 6191666. PMID 30322996.
- ^ "EUR-Lex - 32016R0679 - EN - EUR-Lex". eur-lex.europa.eu. Retrieved 2021-09-13.
- ^ Brkan, Maja (2017-06-12). "AI-supported decision-making under the general data protection regulation". Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law. ICAIL '17. London, United Kingdom: Association for Computing Machinery: 3–8. doi:10.1145/3086512.3086513. ISBN 978-1-4503-4891-1. S2CID 23933541.
- ^ a b Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in computer systems". ACM Transactions on Information Systems. 14 (3): 330–347. doi:10.1145/230538.230561. ISSN 1046-8188.
- ^ Marwala, Tshilidzi (2017). Artificial intelligence and economic theory : Skynet in the market. Evan Hurwitz. Cham. ISBN 978-3-319-66104-9. OCLC 1004620876.