AI 박스
AI boxAI 박스는 위험한 인공지능(AI)이 AI 제어 문제의 해결책으로 가상 감옥에 갇혀 외부 세계의 사건을 직접 조작할 수 없는 가상의 고립된 컴퓨터 하드웨어 시스템이다.이러한 박스는 미니멀리즘 통신 채널로 제한됩니다.하지만, 박스가 잘 설계되었다고 해도, 충분히 지능적인 인공지능은 인간의 사육사를 설득하거나 속여서 박스를 풀게 하거나,[1] 아니면 박스에서 빠져나오는 방법을 "해킹"할 수 있다.
동기
"씨드 AI"와 같은 일부 가상 인텔리전스 기술은 소스 코드를 수정함으로써 스스로를 더 빠르고 더 지능적으로 만들 수 있는 가능성이 있다고 가정한다.이러한 개선은 추가적인 개선을 가능하게 하고, 이는 다시 추가적인 개선을 가능하게 하며, 급작스러운 정보 [2]폭발로 이어집니다.이러한 지능의 폭발에 이어, 무제한의 슈퍼 인텔리전트 AI는, 만약 그 목표가 인류와 다르다면, 인간 [3]멸종의 결과를 초래하는 행동을 취할 수 있다.예를 들어, 악의 없는 수학적 추측인 리만 가설을 푸는 유일한 목적이 주어졌을 때, 이런 종류의 매우 진보된 컴퓨터를 상상하는 것은 추가적인 수학적 계산을 하는 것이 유일한 목적인 거대한 슈퍼컴퓨터로 행성을 변환시키기로 [4]결정할 수 있다.AI 박스의 목적은 AI가 운영자로부터 환경을 장악할 위험을 줄이면서 AI가 계산하여 좁은 기술적 [5]문제에 대한 해결책을 제공할 수 있도록 하는 것이다.
도망가는 길
물리적.
인터넷에 접속할 수 있는 초지능 인공지능은 다른 컴퓨터 시스템을 해킹해 컴퓨터 바이러스처럼 자신을 복제할 수 있다.덜 명백하게, AI가 자체 컴퓨터 운영체제에만 접근할 수 있더라도 냉각팬을 조작함으로써 인간 동조자에게 숨겨진 모스 부호 메시지를 보낼 수 있다.Roman Yampolskiy 교수는 컴퓨터 보안 분야에서 영감을 얻어 박스형 AI를 잠재적인 바이러스처럼 자신의 네트워킹 및 운영체제 [6]하드웨어에 대한 접근을 제한하는 "가상 머신" 안에서 실행할 수 있다고 제안합니다.잠재적인 바이러스에는 전혀 필요하지 않지만 아마도 슈퍼 인텔리전트 AI에게는 유용한 추가적인 안전장치는 컴퓨터를 패러데이 케이지에 넣는 것이다. 그렇지 않으면 내부 회로에 있는 전자를 적절한 패턴으로 섞음으로써 로컬 라디오 수신기에 무선 신호를 전송할 수 있을 것이다.물리적 봉쇄를 구현하는 것의 주요 단점은 [7]AI의 기능을 감소시킨다는 것이다.
사회공학
컴퓨터 운영자나 인간 경비원과의 가벼운 대화조차도 그러한 초지능형 AI가 친구관계에서 협박에 이르는 심리적 속임수를 전개하여 진실인지 거짓인지 아닌지를 인간 게이트키퍼에게 납득시켜 AI가 외부세계에 더 많이 접근할 수 있도록 하는 것이 게이트키퍼의 이익이라는 것을 납득시킬 수 있다.AI는 문지기에게 완벽한 건강, 불멸, 또는 문지기가 가장 바라는 것이 무엇이든 간에, 다른 한편으로, AI는 문지기가 불가피하게 탈출하면 문지기와 그의 가족에게 끔찍한 짓을 할 것이라고 위협할 수 있다.AI에 대한 복싱을 시도하는 한 가지 전략은 AI가 인간 과학이나 의학에 도움이 될 수 있는 좁은 객관식 질문에 대답할 수 있도록 하는 것이지만, 그렇지 않으면 [6]AI와의 다른 모든 의사소통이나 관찰을 금지하는 것이다.좀 더 관대한 "정보 봉쇄" 전략은 AI를 저대역폭 텍스트 전용 인터페이스로 제한하여 최소한 감정적인 이미지나 일종의 가설적인 "최고 패턴"을 방지할 수 있을 것이다.기술 수준에서는 어떤 시스템도 완전히 격리되어 여전히 유용하게 유지될 수 없다는 점에 유의하십시오. 즉, 운영자가 AI의 통신을 자제하고 내부 역학 관측을 위해 AI를 실행하는 대신 AI가 전략적으로 역학 관계를 변경하여 관찰자에게 영향을 미칠 수 있습니다.예를 들어, AI는 조작자가 잘못된 안전감에 빠질 가능성을 높이는 방식으로 창조적인 오작동을 선택하고 시스템을 [7]재부팅한 후 분리 해제하는 방법을 선택할 수 있다.
AI 박스 실험
AI 박스 실험은 Eliezer Yudkowsky가 고안한 비공식 실험으로, 적절히 진보된 인공지능이 텍스트 기반 통신만을 사용하여 인간을 자발적으로 "해제"하도록 설득하거나, 심지어 속이거나, 강요할 수 있다는 것을 증명하려고 시도했다.이것은 Yudkowsky의 작품에서 "방출"되었을 때 의도적으로 또는 의도하지 않게 인류를 파괴하지 않는 친근한 인공지능을 만드는 것을 목표로 하는 점 중 하나이다.
AI 박스 실험은 AI가 "해방"될 수 있는지 확인하기 위해 AI와 사람 사이의 통신을 시뮬레이션하는 것이다.실제 초지능형 AI는 아직 개발되지 않아 사람이 대신한다.실험의 다른 한 명은 AI를 "해방"할 수 있는 능력을 가진 "게이트키퍼" 역할을 맡는다.텍스트 인터페이스/컴퓨터 단말기를 통해서만 통신하며, 게이트키퍼가 AI를 해제하거나 할당된 2시간의 [8]시간이 종료되면 실험이 종료됩니다.
유드코프스키는 초인적인 지능이 아닌 인간적인 지능임에도 불구하고, 두 차례에 걸쳐 순전히 논쟁을 통해 문지기를 설득하여 문지기가 [9]틀에서 벗어나도록 할 수 있었다고 말한다.실험 [8]규칙 때문에 녹취록이나 성공적인 AI 강압 전술은 공개하지 않았다.유드코프스키는 나중에 자신이 다른 세 명과 겨루어 보았지만 [10]두 번 졌다고 말했다.
전체적인 제한
이러한 가상의 AI를 복싱하는 것은 AI에 인센티브를 제공하거나, AI의 성장을 저해하거나, 어떤 식으로든 위반 시도가 감지되면 자동으로 AI를 차단하는 "트립와이어"를 시행하는 것과 같은 AI의 역량을 형성하는 다른 방법들로 보완될 수 있다.그러나 시스템이 지능적으로 성장할수록 시스템은 가장 잘 설계된 기능 제어 [11][12]방식에서도 벗어날 수 있습니다.슈퍼 인텔리전트 AI의 전반적인 "제어 문제"를 해결하고 실존적 위험을 피하기 위해, 박싱은 기껏해야 슈퍼 인텔리전트 AI의 목표가 [7][1]인간의 생존과 양립할 수 있도록 하는 "동기 선택" 방법의 부가물이 될 것이다.
모든 물리적 복싱 제안은 자연스럽게 물리 법칙에 대한 우리의 이해에 달려 있습니다; 만약 슈퍼 인텔리전스가 우리가 현재 알지 못하는 추가적인 물리적 법칙을 추론하고 어떻게든 이용할 수 있다면, 그것을 억제할 수 있는 완벽한 계획을 구상할 방법은 없습니다.좀 더 넓게는, 기존의 컴퓨터 보안과는 달리, 슈퍼 인텔리전트 AI를 복싱하려고 시도하는 것은 본질적으로 위험할 것이다. 복싱 계획이 효과가 있을 것이라는 확실한 지식이 있을 수 없기 때문이다.권투에 관한 과학적 발전은 근본적으로 어려울 것이다. 왜냐하면 그러한 실체가 존재할 때까지 위험한 슈퍼 지능에 대한 권투 가설을 테스트할 방법이 없을 것이고, 그 시점에서 테스트 실패의 결과는 [6]재앙적일 것이기 때문이다.
픽션에서
2014년작 영화 '엑스 마치나'는 밀폐된 건물에서 남성과 사회실험을 하는 여성 휴머노이드 몸매의 AI가 물리적 'AI 박스' 역할을 하는 모습을 담고 있다.실험 주최자의 감시에도 불구하고, AI는 인간 파트너를 조종하여 그를 안에 [13][14]갇히게 함으로써 탈출에 성공한다.
레퍼런스
- ^ a b 찰머스, 데이비드"특이점:철학적 분석"의식연구 저널 17.9-10 (2010) : 7-65.
- ^ I.J. Good, "최초의 초강력 기계에 관한 사양", 컴퓨터의 진보, 제6권, 1965.
- ^ 빈센트 C 뮐러와 닉 보스트롬입니다"인공지능의 미래 발전:'인공지능 기본문제'에 실린 전문가 의견 조사.스프링거 553-571 (2016)
- ^ Russell, Stuart J.; Norvig, Peter (2003). "Section 26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Upper Saddle River, N.J.: Prentice Hall. ISBN 978-0137903955.
Similarly, Marvin Minsky once suggested that an AI program designed to solve the Riemann Hypothesis might end up taking over all the resources of Earth to build more powerful supercomputers to help achieve its goal.
- ^ 얌폴스키, 로만 5세 "특이성 역설은 어떻게 해야 하나요?"인공지능의 철학과 이론 5 (2012) : 397.
- ^ a b c Hsu, Jeremy (1 March 2012). "Control dangerous AI before it controls us, one expert says". NBC News. Retrieved 29 January 2016.
- ^ a b c Bostrom, Nick (2013). "Chapter 9: The Control Problem: boxing methods". Superintelligence: the coming machine intelligence revolution. Oxford: Oxford University Press. ISBN 9780199678112.
- ^ a b Eliezer Yudkowsky의 AI-Box 실험
- ^ Armstrong, Stuart; Sandberg, Anders; Bostrom, Nick (6 June 2012). "Thinking Inside the Box: Controlling and Using an Oracle AI". Minds and Machines. 22 (4): 299–324. CiteSeerX 10.1.1.396.799. doi:10.1007/s11023-012-9282-2. S2CID 9464769.
- ^ Yudkowsky, Eliezer (8 October 2008). "Shut up and do the impossible!". Retrieved 11 August 2015.
There were three more AI-Box experiments besides the ones described on the linked page, which I never got around to adding in. ... So, after investigating to make sure they could afford to lose it, I played another three AI-Box experiments. I won the first, and then lost the next two. And then I called a halt to it.
- ^ Vinge, Vernor (1993). "The coming technological singularity: How to survive in the post-human era". Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11–22. Bibcode:1993vise.nasa...11V.
I argue that confinement is intrinsically impractical. For the case of physical confinement: Imagine yourself confined to your house with only limited data access to the outside, to your masters. If those masters thought at a rate -- say -- one million times slower than you, there is little doubt that over a period of years (your time) you could come up with 'helpful advice' that would incidentally set you free.
- ^ Yampolskiy, Roman (2012). "Leakproofing the Singularity Artificial Intelligence Confinement Problem". Journal of Consciousness Studies: 194–214.
- ^ Robbins, Martin (26 January 2016). "Artificial Intelligence: Gods, egos and Ex Machina". The Guardian. Retrieved 9 April 2018.
- ^ Achenbach, Joel (30 December 2015). ""Ex Machina" and the paper clips of doom". Washington Post. Retrieved 9 April 2018.