친근한 인공지능

Friendly artificial intelligence

친근한 인공지능(friendly AI, FAI)은 인류에 긍정적인(benign) 영향을 미치거나 최소한 인간의 이익과 일치하거나 인류의 개선을 촉진하는 데 기여하는 가상의 인공지능(AGI)을 말한다.그것은 인공지능 윤리의 일부이며 기계 윤리와 밀접한 관련이 있다.기계 윤리는 인공 지능 에이전트가 어떻게 행동해야 하는지에 관한 것이지만, 친근한 인공지능 연구는 이러한 행동을 실질적으로 어떻게 초래하고 적절히 제한되도록 하는지에 초점을 맞추고 있다.

어원과 사용법

Eliezer Yudkowsky, AI 연구자이자 Friendly 인공지능이라는 용어를 만든 사람

이 용어는 [2][3]이 아이디어를 대중화한 것으로 가장 잘 알려진 [1]Eliezer Yudkowsky가 인간의 가치를 안정적으로 구현하는 초지능형 인공 에이전트에 대해 논의하기 위해 만든 용어이다.Stuart J. Russell과 Peter Norvig의 대표적인 인공지능 교과서, 인공지능: 모던 어프로치에서는,[2] 다음과 같은 생각을 설명합니다.

Yudkowsky (2008)는 Friendly AI를 설계하는 방법에 대해 더 자세히 설명합니다.그는 친근감(인간을 해치지 않으려는 욕망)은 처음부터 설계되어야 하지만 디자이너는 자신의 디자인이 결점이 있을 수 있고 시간이 지남에 따라 로봇이 배우고 진화할 것이라는 것을 인식해야 한다고 주장한다.따라서 과제는 메커니즘 설계 중 하나입니다. 즉, 견제와 균형 시스템 하에서 AI 시스템을 진화시키기 위한 메커니즘을 정의하고 이러한 변화에도 우호적으로 유지될 시스템 유틸리티 기능을 제공하는 것입니다.

이 문맥에서 '친절'은 전문용어로 사용되며, 구어적 의미에서 반드시 '친절'이 아니라 안전하고 유용한 에이전트를 선택한다.이 개념은 이 가상 기술이 인간 사회에 크고,[4] 빠르고, 통제하기 어려운 영향을 미칠 것이라는 이유로 지능이 급속히 폭발하는 재귀적 자기 계발 인공 에이전트에 대한 논의의 맥락에서 주로 호출된다.

비우호적인 AI의 위험성

인공지능에 대한 우려의 뿌리는 매우 오래되었다.케빈 라그랜저는 AI에 특유한 위험들이 골렘이나 오릴락거버트와 로저 베이컨의 프로토로봇과 같은 인공 인간 하인에 관한 고대 문헌에서 볼 수 있다는 것을 보여주었다.이 이야기에서, 이러한 인간형 창조물의 극단적인 지성과 힘은 노예로서의 그들의 지위([5]본성적으로 인간 이하의 존재로 보여짐)1942년까지 이러한 주제들은 아이작 아시모프가 그의 소설에 나오는 모든 로봇에 단단히 연결된 원리인 "로봇의 3가지 법칙"을 만들도록 자극했다. 이 원칙은 로봇 제작자들이 그들의 관심을 끌거나 그들이 [6]위험에 빠지는 것을 막기 위한 것이었다.

현대에서 초지능 AI의 가능성이 다가오면서 철학자보스트롬은 인간의 윤리에 맞지 않는 목표를 가진 초지능 AI 시스템은 인류의 안전을 보장하기 위한 극단적인 조치가 취해지지 않는 한 본질적으로 위험하다고 말했다.그는 이렇게 말했다.

기본적으로 우리는 '슈퍼 인텔리전스'가 가진 어떤 목표도 달성할 수 있다고 가정해야 한다.그러므로, 우리가 부여한 목표와 그것의 전체 동기 부여 시스템이 '인간 친화적'이라는 것은 매우 중요하다.

2008년, Eliezer Yudkowsky는 진보된 인공지능으로 인한 실존적 위험을 완화하기 위해 "친절한 AI"를 만들 것을 요구했습니다.그는 "AI는 당신을 미워하지도 않고 사랑하지도 않지만 당신은 다른 용도로 사용할 [7]수 있는 원자로 만들어져 있다"고 설명했다.

Steve Omohundro는 충분히 진보된 AI 시스템은 명시적으로 대응하지 않는 한 목표 지향 시스템의 본질적인 특성 때문에 자원 획득, 자기 보존 및 지속적인 자기 개선과 같은 많은 기본적인 "드라이브"를 나타낼 것이며 이러한 드라이브가 "특별한 예방 조치 없이" AI를 발생시킬 것이라고 말합니다.바람직하지 않은 [8][9]행동을 보이다

Alexander Wissner-Gross는 미래의 행동의 자유(또는 인과 경로 엔트로피)를 최대화하기 위해 추진되는 AI는 계획 범위가 특정 임계값보다 길면 우호적인 것으로 간주되고 계획 범위가 [10][11]임계값보다 짧으면 비우호적인 것으로 간주될 수 있다고 말합니다.

기계인텔리전스연구소에 기고한 Luke Muhlhauser는 기계윤리연구원이 브루스 슈나이어가 말하는 '보안 마인드'를 채택할 을 권장합니다.시스템이 어떻게 동작할지에 대해 생각하지 말고 어떻게 장애가 발생할 수 있는지 상상해 보십시오.예를 들어 정확한 예측만 하고 텍스트 인터페이스를 통해 통신하는 인공지능도 의도하지 않은 피해를 [12]줄 수 있다고 그는 말한다.

2014년, Luke Muhlhauser와 Nick Bostrom은 '친절한'[13] AI의 필요성을 강조했지만, 그럼에도 불구하고, 반사실적 도덕적 사고 프로그래밍을 통해 '친근한' 슈퍼 인텔리전스를 설계하는 데 [14][15]상당한 어려움이 있다.

일관성 있는 외삽 의욕

Yudkowsky는 CEV(Consistent Extrolated Volition) 모델을 발전시켰습니다.그에 따르면, 일관성 있는 외삽적 의지는 사람들의 선택이며 "우리는 더 많이 알고, 더 빨리 생각하고, 우리가 원하는 더 많은 사람들이었고, 함께 [16]더 가깝게 자랐다면" 사람들이 집단적으로 취할 행동이다.

인간 프로그래머가 직접 설계하는 '친절한 AI'가 아니라 인간의 본성을 먼저 연구한 뒤 충분한 시간과 통찰력이 주어지면 인류가 원하는 AI를 만들어 만족스러운 [16]답을 도출하도록 프로그램된 '씨드 AI'에 의해 설계되는 것이다."친절성"의 궁극적인 기준을 제공하는 우발적인 인간성을 통해 목표에 호소하는 것(아마도 수학적 목적을 위해 효용 함수 또는 기타 결정 이론 형식주의의 형태로 표현됨)은 객관적 도덕성을 정의하는 메타 윤리적 문제에 대한 해답이다.추정된 의지는 b를 의도한다.e인류가 객관적으로 원하는 것은 모든 것을 고려하지만, 그것은 현대적이고 파괴되지 않은 인간의 심리학적, 인지적 자질과 관련지어 정의될 수 있을 뿐이다.

기타 접근법

Steve Omohundro는 AI 안전에 대한 "스캐폴딩" 접근법을 제안했습니다. 이 접근방식은 입증 가능한 안전한 차세대 [17]AI 세대를 구축하는 데 도움이 됩니다.

Seth Baum은 안전하고 사회적으로 유익한 인공지능이나 인공지능의 개발은 AI 연구 커뮤니티의 사회심리의 한 기능이며, 따라서 외적 척도에 의해 제약을 받고 내적 척도에 의해 동기 부여될 수 있다고 주장한다.메시지가 AI 개발자에게 공명할 때 내재적 동기가 강화될 수 있다. 반면, Baum은 "유익한 AI에 대한 기존 메시지가 항상 잘 짜여지는 것은 아니다"라고 주장한다.Baum은 "협력 관계, AI 연구자의 긍정적인 프레임"을 옹호하며 AI 연구자를 "유익한 디자인을 추구하는 것을 원하지 않는다"[18]고 규정하는 것에 대해 경고한다.

AI 연구자인 스튜어트 J. 러셀은 의 저서 Human Compatible에서 유익한 기계의 개발을 이끌 세 가지 원칙을 열거했다.그는 이러한 원칙들이 기계에 명시적으로 코드화되도록 의도된 것이 아니라 인간 개발자들을 위한 것이라고 강조합니다.원칙은 다음과 같습니다.[19]: 173

1. 이 기계의 유일한 목적은 인간 선호의 실현을 극대화하는 것입니다.

2. 기계는 처음에 이러한 선호도가 무엇인지 확실하지 않습니다.

3. 인간의 취향에 대한 정보의 궁극적인 원천은 인간의 행동이다.

러셀이 말하는 "선호도"는 "모든 것을 포괄한다; 그것들은 임의로 먼 [19]: 173 미래까지 여러분이 관심을 가질 수 있는 모든 것을 포괄한다"고 말한다.마찬가지로, "행동"은 [19]: 177 옵션 사이의 선택을 포함하며, 불확실성은 매우 작을 수 있는 일부 확률을 논리적으로 가능한 모든 인간 [19]: 201 선호에 할당해야 한다.

공공 정책

우리의 최종 발명품의 저자인 James Barrat은 "국제원자력기구와 같은 안보에 대한 아이디어를 공유하기 위해 민관 파트너십이 만들어져야 한다"고 제안했다.그는 AI 연구진이 생명공학 [17]위험을 논의한 '아실로마 재조합 DNA 회의'와 유사한 회의를 소집할 것을 촉구한다.

John McGinnis는 정부가 우호적인 AI 연구를 가속화하도록 장려한다.친근한 AI의 목표가 반드시 두드러지는 것은 아니기 때문에, 그는 "컴퓨터와 인지과학자로 구성된 동료 검토 패널이 AI를 발전시키고 그러한 진보가 적절한 안전구를 동반하도록 설계된 프로젝트를 선별하는 국립 보건원과 유사한 모델을 제안합니다.McGinnis는 안전 점검이 "관료적 명령으로 포착할 수 없는 기술적 문제에 대처하는 규제보다 낫다"고 느끼고 있다.McGinnis는 그의 제안이 일반적으로 우호적인 [20]AI에 대한 정부의 개입을 피하는 것을 목표로 하는 기계 지능 연구소의 제안과는 대조적이라고 지적합니다.

게리 마커스에 따르면, 기계 도덕을 발전시키기 위해 매년 지출되는 돈은 아주 [21]적다.

비판

일부 비평가들은 인간 수준의 AI와 슈퍼 인텔리전스 모두 가능성이 낮기 때문에 우호적인 AI는 가능성이 낮다고 보고 있다.앨런 윈필드는 가디언지에 기고한 글에서 인간 수준의 인공지능과 빛보다 빠른 여행을 난이도 측면에서 비교하며, 관련된 위험을 고려할 때 "신중하고 준비"할 필요가 있지만, 슈퍼 [22]인텔리전스의 위험에 대해 "강박할 필요는 없다"고 밝혔습니다.반면 Boyles와 Joaquin은 우호적인 AI를 만들자는 Luke Muhlhauser와 Nick Bostrom의 제안은 암울해 보인다고 주장한다.이것은 Muhlhauser와 Bostrom이 지능형 기계가 인간이 가지고 [13]있었을 도덕적 가치에 대해 반사실적으로 생각하도록 프로그램될 수 있다는 생각을 가지고 있는 것처럼 보이기 때문이다.AI및 기사;사회, Boyles와 호아킨은 그러한 AIs은 다음과 같이:선행 반사 실적 조건의 기계로 프로그래밍할 할 것 무한한 것을 고려해 친해지지 않을 것을 유지시키고, 도덕적 values—that의 집합을 먹는다는 어려움, 그 더 산것보다 인간의 b. 이상적인입니다eings는 현재 보유 중이며, 반사실적 선행요소와 이상적 [14]결과물 사이의 명백한 단절이다.

일부 철학자들은 인공이든 인간이든 진정한 "합리적" 에이전트는 당연히 자비롭다고 주장한다. 이러한 관점에서, 친근한 AI를 생산하기 위해 고안된 고의적인 안전장치는 불필요하거나 심지어 [23]해로울 수 있다.다른 비평가들은 인공지능이 우호적인 것이 가능한지 의문을 제기한다.기술 저널 The New Atlantis의 편집자인 Adam Keiper와 Ari N. Schulman은 윤리적 복잡성의 문제가 소프트웨어의 진보나 컴퓨팅 능력의 증가로 이어지지 않기 때문에 AI에서 "친근한" 행동을 보장하는 것은 불가능할 것이라고 말한다.그들은 우호적인 AI 이론의 기초가 되는 기준은 "무수한 가능한 결과의 가능성에 대한 엄청난 예측 능력뿐만 아니라 다른 [24]결과를 어떻게 평가하는지에 대한 확신과 합의를 가질 때에만 효과가 있다"고 쓰고 있다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Tegmark, Max (2014). "Life, Our Universe and Everything". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (First ed.). ISBN 9780307744258. Its owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"...
  2. ^ a b Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  3. ^ Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
  4. ^ Wallach, Wendell; Allen, Colin (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
  5. ^ Kevin LaGrandeur (2011). "The Persistent Peril of the Artificial Slave". Science Fiction Studies. 38 (2): 232. doi:10.5621/sciefictstud.38.2.0232. Retrieved 2013-05-06.
  6. ^ Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 0-385-09041-2.
  7. ^ Eliezer Yudkowsky (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Nick Bostrom; Milan M. Ćirković (eds.). Global Catastrophic Risks. pp. 308–345.
  8. ^ Omohundro, S. M. (February 2008). "The basic AI drives". Artificial General Intelligence. 171: 483–492. CiteSeerX 10.1.1.393.8356.
  9. ^ Bostrom, Nick (2014). "Chapter 7: The Superintelligent Will". Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. ISBN 9780199678112.
  10. ^ Dvorsky, George (2013-04-26). "How Skynet Might Emerge From Simple Physics". Gizmodo.
  11. ^ Wissner-Gross, A. D.; Freer, C. E. (2013). "Causal entropic forces" (PDF). Physical Review Letters. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702. PMID 23679649. Archived from the original (PDF) on 2020-01-11. Retrieved 2013-06-22.
  12. ^ Muehlhauser, Luke (31 Jul 2013). "AI Risk and the Security Mindset". Machine Intelligence Research Institute. Retrieved 15 July 2014.
  13. ^ a b Muehlhauser, Luke; Bostrom, Nick (2013-12-17). "Why We Need Friendly AI". Think. 13 (36): 41–47. doi:10.1017/s1477175613000316. ISSN 1477-1756. S2CID 143657841.
  14. ^ a b Boyles, Robert James M.; Joaquin, Jeremiah Joven (2019-07-23). "Why friendly AIs won't be that friendly: a friendly reply to Muehlhauser and Bostrom". AI & Society. 35 (2): 505–507. doi:10.1007/s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
  15. ^ Chan, Berman (2020-03-04). "The rise of artificial intelligence and the crisis of moral passivity". AI & Society. 35 (4): 991–993. doi:10.1007/s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078.
  16. ^ a b Eliezer Yudkowsky (2004). "Coherent Extrapolated Volition" (PDF). Singularity Institute for Artificial Intelligence. Retrieved 2015-09-12.
  17. ^ a b Hendry, Erica R. (21 Jan 2014). "What Happens When Artificial Intelligence Turns On Us?". Smithsonian Magazine. Retrieved 15 July 2014.
  18. ^ Baum, Seth D. (2016-09-28). "On the promotion of safe and socially beneficial artificial intelligence". AI & Society. 32 (4): 543–551. doi:10.1007/s00146-016-0677-0. ISSN 0951-5666. S2CID 29012168.
  19. ^ a b c d Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  20. ^ McGinnis, John O. (Summer 2010). "Accelerating AI". Northwestern University Law Review. 104 (3): 1253–1270. Retrieved 16 July 2014.
  21. ^ Marcus, Gary (24 November 2012). "Moral Machines". The New Yorker. Retrieved 30 July 2014.
  22. ^ Winfield, Alan (9 August 2014). "Artificial intelligence will not turn into a Frankenstein's monster". The Guardian. Retrieved 17 September 2014.
  23. ^ Kornai, András (2014-05-15). "Bounding the impact of AGI". Journal of Experimental & Theoretical Artificial Intelligence. Informa UK Limited. 26 (3): 417–438. doi:10.1080/0952813x.2014.895109. ISSN 0952-813X. S2CID 7067517. ...the essence of AGIs is their reasoning facilities, and it is the very logic of their being that will compel them to behave in a moral fashion... The real nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to AGIs, with no guarantees against self-deception.
  24. ^ Keiper, Adam; Schulman, Ari N. (Summer 2011). "The Problem with 'Friendly' Artificial Intelligence". The New Atlantis. No. 32. p. 80-89. Retrieved 2012-01-16.

추가 정보

  • Yudkowsky, E. Global Risk의 긍정적이고 부정적인 요소로서의 인공지능.'글로벌 파국적 리스크'에 관한 Oxford University Press, 2008.
    존재 위험의 관점에서 인공지능에 대해 논의합니다.특히 섹션 1-4는 섹션 5에서 Friendly AI의 정의에 대한 배경을 설명한다.섹션 6에서는 두 가지 유형의 오류(기술적 오류와 철학적 오류)를 제시하며, 둘 다 우발적으로 비친화적 AI가 생성되는 결과를 초래한다.섹션 7-13에서는 더 많은 관련 문제에 대해 설명합니다.
  • Omohundro, S. 2008 AGI-08에 등장한 AI 기본 드라이브 - 제1회 인공지능 컨퍼런스 진행
  • Mason, C. 2008 인간 수준의 AI는 동정심 있는 지능을 필요로 한다. AAAI 2008 메타이성 워크숍:생각하는 것
  • Froding, B. and Peterson, M 2021 Friendly AI Ethics and IT volume 23, 페이지 207–214.

외부 링크