글로벌 재해 위험

Global catastrophic risk
소행성 충돌에 대한 예술가의 인상소행성이 비조류 [1]공룡의 멸종을 초래했다.

세계적인 재앙 위험이나 최후의 날 시나리오는 현대 문명[3]위태롭게 하거나 파괴할 수 있는 전 세계적인 [2]규모의 인간의 안녕을 해칠 수 있는 가상의 미래 사건이다.인류의 멸종을 야기하거나 영구적이고 극적으로 인류의 잠재력을 감소시킬 수 있는 사건을 "실존적 위험"[4]이라고 알려져 있다.

지난 20년 동안 세계적인 재난 및 실존적 위험을 연구하고 잠재적 완화 조치를 수립하고 이러한 [5][6][7][8]조치를 옹호하거나 시행하기 위해 다수의 학술 및 비영리 단체가 설립되었습니다.

정의 및 분류

Bostrom의 논문 '글로벌 [9]우선 순위로서의 존재 리스크 방지'의 범위/강도 그리드

글로벌 재해 위험 정의

세계적인 재앙 위험이라는 용어는 "명확한 정의가 결여되어 있다"며, 일반적으로 "전세계적인 [10]규모의 인간의 복지에 심각한 피해를 입힐 수 있는 위험"을 가리킨다.

인류는 이전에 큰 재앙을 겪은 적이 있다.이들 중 일부는 심각한 피해를 입혔지만 국지적인 수준에 그치고 있다. 예를 들어 흑사병으로 [12]인해 [11]유럽 인구의 3분의 1에 해당하는 전 세계 인구의 10%가 사망했을 수 있다.일부는 전 세계적으로 발생했지만 그렇게 심각하지는 않았다. 예를 들어 1918년 인플루엔자 대유행으로 [13]세계 인구의 약 3~6%가 사망했다.대부분의 세계적인 재앙적 위험은 지구상의 생명 대부분을 죽일 정도로 강하지는 않지만, 그렇다고 해도 생태계와 인류는 결국 회복될 것입니다(존재적 위험과는 대조적으로).

마찬가지로, "대재앙: 리스크와 대응"에서 리처드 포스너는 "지역적 또는 지역적"이 아닌 "전 세계적으로" 전복 또는 파멸을 초래하는 사건들을 선별하고 그룹화합니다.Posner는 이러한 사건들이 직간접적으로 인류 전체의 [14]생존을 위태롭게 할 수 있기 때문에 비용 편익 측면에서 특별히 주목할 가치가 있다고 강조한다.

실존적 리스크의 정의

실존적 위험은 "인류의 장기적 [15]잠재력을 파괴하는 위험"으로 정의된다.실존적 위험(실존적 재앙[16])의 인스턴스화는 완전한 인간 멸종을 초래하거나 돌이킬 수 없을 정도로 열등한 [9][17]상황에 갇히게 될 것이다.실존적 리스크는 글로벌 재해 리스크의 서브클래스입니다.이러한 리스크는 글로벌할 만 아니라, 말기적, 영속적이며, 회복을 방해하고, 그 결과 [9]현재 세대와 미래 세대 모두에 영향을 미칩니다.

소멸되지 않는 리스크

멸종은 인류의 장기적인 잠재력을 파괴할 수 있는 가장 명백한 방법이지만, 회복 불가능한 붕괴와 회복 불가능한 디스토피아[18]포함한 다른 방법들도 있다.인류문명의 영구적이고 돌이킬 수 없는 붕괴를 야기할 정도로 심각한 재앙은 비록 [18]멸종에 이르지 못해도 실존재앙이 될 것이다.마찬가지로, 만약 인류가 전체주의 체제 하에 있고, 회복될 가능성이 없다면, 그러한 디스토피아는 또한 실존적 [19]재앙일 것이다.브라이언[20] 캐플런은 "아마도 영원할 전체주의가 [19]멸종보다 더 나쁠 것"[21]이라고 쓰고 있다.디스토피아적 시나리오는 인류는 멸망과 회복 불가능한 문명의 붕괴의 주요 특징을 공유한다.대재앙이 일어나기 전 인류는 선택할 수 있는 광대한 범위의 밝은 미래에 직면했다.대재앙 이후 인류는 영원히 끔찍한 [18]상태에 갇혀 있다.

잠재적인 리스크의 원인

잠재적인 세계적 재앙 위험에는 인간에 의한 인위적 위험(기술, 거버넌스, 기후변화)과 비인류적 위험 또는 자연적 [3]위험이 포함된다.기술적 위험에는 파괴적인 인공지능, 생명공학 또는 나노기술의 발생이 포함된다.불충분하거나 악질적인 글로벌 거버넌스는 대학살을 포함한 글로벌 전쟁, 유전자 변형 유기체를 이용한 생물 테러, 전력망과 같은 중요한 인프라를 파괴하는 사이버 테러, 또는 자연적인 대유행을 관리하지 못하는 것과 같은 사회 및 정치 영역에서 위험을 야기한다.지구 시스템 거버넌스의 영역에서 지구 온난화, 의 멸종을 포함한 환경 악화, 불평등한 자원 분배로 인한 기근, 인구 과잉, 작황 실패 및 지속 불가능한 [citation needed]농업포함됩니다.

비인류적 위험의 예로는 소행성 충돌 사건, 초화산 폭발, 치명적인 감마선 폭발, 전자 장비를 파괴하는 지자기 폭풍, 자연적인 장기 기후 변화, 적대적인 외계 생명체, 또는 지구를 집어삼키는 붉은 거성으로 변하는 예측 가능한 태양 등이 있다.

방법론상의 과제

세계적인 재해 위험과 실존 위험의 본질과 완화에 대한 연구는 독특한 과제에 직면하며, 그 결과 과학적 [18]엄격함의 통상적인 기준을 쉽게 적용받지 못한다.예를 들어, 이러한 위험을 실험적으로 연구하는 것은 실현가능하지도 않고 윤리적이지도 않다.칼 세이건은 핵전쟁에 대해 "핵전쟁의 장기적 결과를 이해하는 것은 실험적인 검증에 따르는 문제가 아니다"[22]라고 표현했다.또한 기술의 진보와 지정학적 상황 등 배경 조건이 변화함에 따라 많은 치명적인 리스크가 빠르게 변화합니다.또 다른 과제는 특히 복잡한 인간 정치,[18] 경제 및 사회 시스템에 의존하는 인위적 위험에 대해 장기간에 걸쳐 정확하게 미래를 예측하는 일반적인 어려움이다.이미 알려져 있고 명백한 위험 외에도 예측할 수 없는 블랙 스완 멸종 사건이 발생하여 추가적인 방법론적 [18][23]문제가 발생할 수 있다.

역사적 선례가 없다

인류는 실존적 재앙을 겪은 적이 없으며 만약 재앙을 겪게 된다면 전례가 [18]없는 일이 될 것이다.따라서, 실존적 위험은 관측치 [24]선택 효과 때문에 다른 장기 사건보다 더 많은 예측에 고유한 문제를 제기한다.대부분의 사건들과 달리, 과거에 일어난 완전한 멸종 사건의 실패는 미래에 일어날 가능성에 대한 증거가 아니다. 왜냐하면 그러한 멸종 사건을 경험한 모든 세계에는 관찰자가 없기 때문이다. 그래서 그들의 빈도와 상관없이,[24] 어떤 문명도 그 역사에서 존재 위험을 관찰하지 않기 때문이다.이러한 인위적인 문제는 달에 대한 소행성 충돌 크레이터와 같이 그러한 선택 효과가 없는 증거를 보거나 새로운 [9]기술의 가능한 영향을 직접 평가함으로써 부분적으로 피할 수 있다.

전례가 없고 회복할 수 없는 글로벌 문명 붕괴(존재적 위험의 일종)의 역학을 이해하려면 인류 [25]역사를 통해 발생한 다양한 지역 문명 붕괴를 연구하는 것이 유익할 수 있다.예를 들어, 로마 제국과 같은 문명은 중앙집권적 통치의 상실과 사회기반시설과 진보된 기술의 주요 문명 전체의 상실로 끝났다.하지만, 이러한 사례들은 사회가 재앙에 대해 상당히 회복력이 있는 것으로 보인다는 것을 보여준다; 예를 들어,[26] 중세 유럽은 인구의 25-50%를 잃었음에도 불구하고 문명 붕괴와 비슷한 어떤 것도 겪지 않고 흑사병에서도 살아남았다.

인센티브 및 조정

왜 그렇게 적은 노력이 실존적 위험 감소에 들어가는지를 설명할 수 있는 경제적인 이유들이 있다.그것은 세계적인 공공재이기 때문에 우리는 시장에 [9]의해 충분히 공급되지 않을 것으로 예상해야 한다.설사 대국이 위험 완화 조치에 투자한다고 해도, 그 나라는 그렇게 함으로써 얻을 수 있는 혜택의 극히 일부만을 누릴 것이다.또한, 실존적 위험 감소의 편익의 대부분이 미래 세대에 의해 향유될 것이고, 이러한 미래 사람들은 이론적으로 실존적 위험 감소를 위해 상당한 금액을 기꺼이 지불할 것이기 때문에, 실존적 위험 감소는 [9]세대 간 글로벌 공공재이다.

인지적 편견

수많은 인지적 편견은 범위 불감증, 쌍곡선 할인, 가용성 발견, 결합 오류, [27]영향 발견과신 효과를 포함한 실존적 위험의 중요성에 대한 사람들의 판단에 영향을 미칠 수 있습니다.

스코프 불감증은 사람들이 인류의 멸종을 얼마나 나쁘게 생각하는지에 영향을 미친다.예를 들어, 사람들이 이타적인 대의를 위해 돈을 기부하도록 동기를 부여받았을 때, 그들이 기꺼이 기부하고자 하는 양은 문제의 크기에 비례하여 증가하지 않는다: 사람들은 대략 20만 또는 2,000마리의 [28]새들의 죽음을 기꺼이 막으려고 한다.마찬가지로, 사람들은 종종 대규모 [27]집단보다는 개인에 대한 위협에 더 많이 우려한다.

Eliezer Yudkowsky스코프의 경시가 실존적 [29][30]리스크에 대한 대중의 인식에 영향을 미친다고 이론화하고 있습니다.

5억 명의 사망자와 같은 상당히 많은 수의 사망자와 특히 인류 전체의 멸종과 같은 질적으로 다른 시나리오들은 다른 사고방식을 촉발하는 것으로 보인다.아이를 해치는 것은 꿈도 꾸지 못하는 사람들은 실존적 위험에 대해 듣고, "글쎄, 인류는 생존할 자격이 없을지도 몰라."라고 말한다.

인류의 멸종에 대한 과거의 예언은 모두 거짓으로 판명되었다.일부에게는 이것이 미래의 경고를 덜 신뢰할 수 있는 것으로 보이게 한다.닉 보스롬은 과거에 인류가 멸종하지 않았다는 것은 생존자 편견과 다른 인류학적 [31]영향 때문에 미래에 인류가 멸종하지 않을 것이라는 약한 증거라고 주장한다.

사회생물학자 E.O. 윌슨은 다음과 같이 주장했다: "진화생물학자들은 이 근시안적인 안개의 이유는 호모속 존재의 2백만 년 중 마지막 몇 천 년을 제외하고 모든 기간 동안 실제로 유리했기 때문이라고 주장한다.가까운 장래와 조기 재생산에 대한 세심한 주의를 기울이는 데 프리미엄이 주어졌고, 그 외에는 거의 없었다.수백 년에 한 번꼴로 발생하는 대형 참사는 잊혀지거나 [32]신화로 변모했다.

경감 제안

다층 방어

심층 방어는 위험 완화 조치를 세 가지 [33]방어 계층으로 분류하는 데 유용한 프레임워크이다.

  1. 예방:애초에 대재앙이 일어날 가능성을 줄인다.예:새로운 고감염성 질환의 발생을 방지하기 위한 조치.
  2. 응답:세계적 수준으로 재해가 확대되는 것을 방지한다.예:소규모 핵교환이 전면적인 핵전쟁으로 치닫는 것을 막기 위한 조치.
  3. 내장해성:세계적인 재난에 직면했을 때 인류의 회복력(멸종에 대한 저항력)을 높인다.예:핵겨울 동안 식량안보를 강화하기 위한 조치.

인간의 멸종은 세 가지 방어가 모두 약할 때 가장 가능성이 높다. 즉, "위험에 의해 우리가 예방할 가능성이 낮고, 성공적으로 대응할 가능성이 없으며,[33] 회복할 가능성이 낮다."

인류는 [18]이전 사건의 기록에서 배울 수 없기 때문에 존재 위험의 전례 없는 특성은 위험 완화 조치를 설계하는 데 특별한 도전을 제기한다.

자금 조달

일부 연구자들은 실존적 위험과 관련된 연구와 다른 계획들이 모두 자금이 부족하다고 주장한다.닉 보스트롬은 Star Trek, 스노보드, 또는 쇠똥구리에 대해 실존적 위험보다 더 많은 연구가 이루어졌다고 말한다.보스트롬의 비교는 [34][35]고압적이라는 비판을 받아왔다.2020년 현재 생물무기협약의 연간 예산은 140만 [36]달러였다.

서바이벌 플래닝

일부 학자들은 지구상에 자급자족하고, 멀리 떨어져 있고, 영구적으로 점유된 정착촌을 하나 이상 설립할 것을 제안합니다.[37][38]경제학자 로빈 핸슨은 100명 정도의 사람들이 영구적으로 거주할 수 있는 피난처는 다양한 세계적인 [37][39]재난 속에서 인간의 생존 가능성을 크게 향상시킬 것이라고 주장한다.

식량창고는 세계적으로 제안되고 있지만, 금전적인 비용이 많이 들 이다.게다가,[40] 그것은 영양실조로 인해 매년 수백만 명의 사망자를 내는 데 기여할 것이다.

몇몇 생존론자들은 생존을 위한 은신처를 다년간의 식량으로 비축하고 있다.

스발바르 국제 종자 저장고는 북극의 한 섬에 있는 산 안에 400피트(120m)나 묻혀 있다.그것은 세계의 농작물을 보존하기 위한 예방책으로 100개국 이상의 25억 개의 씨앗을 보관하도록 설계되었다.주변 암석은 -6°C(2015년 기준)이지만, 저장고는 현지 조달 [41][42]석탄으로 구동되는 냉장고에 의해 -18°C(0°F)로 유지됩니다.

좀 더 추측적으로, 만약 사회가 계속 기능하고 생물권이 거주 가능한 상태로 유지된다면, 충분한 사전 계획이 주어진다면, 이론적으로 현재 인류의 칼로리 요구는 햇빛이 장시간 없는 동안 충족될 수 있다.추측되는 해법에는 재앙 후 남겨진 죽은 식물 바이오매스에 버섯을 재배하거나 셀룰로오스를 설탕으로 전환하거나 메탄 소화를 일으키는 [43][44]박테리아에 천연가스를 공급하는 것이 포함된다.

글로벌 재해 위험 및 글로벌 거버넌스

불충분한 글로벌 거버넌스는 사회적, 정치적 영역에서 위험을 발생시키지만 거버넌스 메커니즘은 기술적, 사회적 변화보다 더 느리게 발전한다.리스크에 효율적으로 대처하고 다양한 이해와 상충하는 이해관계를 협상하고 판단하기 위한 거버넌스 메커니즘이 부족하다는 우려가 정부, 민간 부문 및 일반 대중으로부터 나오고 있다.이는 글로벌 시스템 [45]리스크의 상호 연관성에 대한 이해에 의해 더욱 강조된다.글로벌 거버넌스가 없거나 예상되는 경우, 각국 정부는 개별적으로 글로벌 [46]재난을 더 잘 이해하고 완화하며 대비할 수 있습니다.

기후 비상 계획

2018년, 로마 클럽은 더 큰 기후 변화 조치를 요구하고 지구 평균 [47]기온 상승을 1.5도로 제한하기 위한 10가지 행동 포인트를 제안하는 기후 비상 계획을 발표했다.게다가 2019년에 클럽은 보다 포괄적인 행성 비상 [48]계획을 발표했다.

기후 변화의 맥락에서 인간의 취약성에 대해 생각할 때 나타나는 감정적 경험에 집단적으로 관여하는 것이 이러한 경험이 적응할 수 있도록 한다는 증거가 있다.정서적 경험을 집단적으로 관여하고 처리하는 것이 도움이 될 때, 이것은 탄력성, 심리적 유연성, 감정적 경험에 대한 관용, 그리고 공동체적 [49]참여의 증가로 이어질 수 있습니다.

우주 식민지화

우주 식민지화는 멸종 [50]시나리오에서 살아남을 확률을 높이기 위해 제안된 대안이다.이 범위의 솔루션에는 메가스케일 엔지니어링이 필요할 수 있습니다.

천체물리학자 스티븐 호킹은 기술이 충분히 발전하면 지구 열핵전쟁과 [51][52]같은 행성 전반의 사건으로부터 인간의 생존 가능성을 높이기 위해 태양계 내의 다른 행성들을 식민지로 만들 것을 주장했다.

억만장자 엘론 머스크는 인류가 [53]멸종을 피하기 위해서는 다행성 종이 되어야 한다고 쓰고 있다.머스크는 그의 회사 스페이스X를 화성 식민지화에 사용되기를 바라는 기술을 개발하기 위해 사용하고 있다.

지구를 움직이다

몇 십억 년 후에, 태양은 지구를 삼키며 적색 거성으로 팽창할 것이다.이것은 지구가 태양으로부터 더 멀리 떨어져 온도를 대략 일정하게 유지함으로써 피할 수 있다.그것은 혜성과 소행성이 지구 [54]궤도에 에너지를 더하는 방식으로 지구에 가까이 지나가도록 혜성과 소행성의 궤도를 수정함으로써 달성될 수 있다.태양의 팽창이 느리기 때문에 대략 6,000년에 한 번 정도 그와 같은 조우만 해도 [citation needed]충분할 것이다.

회의론자와 반대론자

심리학자 스티븐 핑커는 실존적 위험을 기후변화와 [34]핵전쟁과 같은 실제 위협으로부터 주의를 분산시킬 수 있는 "무익한 범주"라고 말했다.

단체들

원자과학자 회보(bulletin of the atomic scientists, 1945)는 제2차 세계대전 후 핵전쟁의 가능성에 대해 대중이 경각심을 갖게 된 후 설립된 가장 오래된 글로벌 위험 단체 중 하나이다.핵전쟁과 에너지와 관련된 위험을 연구하고 1947년에 제정된 최후의 날 시계를 유지하는 것으로 유명하다.선견지명연구소(est. 1986)는 나노기술의 위험성과 그 이점을 조사한다.동사는, 무해한 테크놀로지가 글로벌 규모로 잘못 전달되었을 경우의 의도하지 않은 결과를 연구한 최초의 조직 중 하나입니다.그것은 K에 의해 설립되었습니다. '회색 구'[55][56]가정한 에릭 드렉슬러.

2000년 이후 과학자들, 철학자들, 기술 억만장자들이 [57]학계 안팎에서 글로벌 리스크 연구에 전념하는 조직을 만들었다.

독립 비정부기구(NGO)에는 Peter Thiel과 Jed McCaleb[59]포함한 기증자와 함께 인공지능에 [58]의한 재해 위험을 줄이는 것을 목표로 하는 기계 지능 연구소(est. 2000)가 포함되어 있습니다.핵위협구상(est. 2001)은 핵, 생물학적, 화학적 위협 [8]및 사건 발생 후 피해 억제로 인한 전지구적 위협을 감소시키기 위해 노력하고 있다.핵물질 보안지수를 [60]유지하고 있다.Lifeboat Foundation(2009년 시험)은 기술 [61]재해 방지를 위한 연구에 자금을 지원하고 있습니다.연구비의 대부분은 [62]대학에서 진행하는 프로젝트입니다.Global Caspolative Risk Institute (est. 2011)는 미국에 기반을 둔 비영리 비당파 싱크탱크이며, Seth Baum과 Tony Barrett에 의해 설립되었습니다.GCRI는 인공지능, 핵전쟁, 기후변화, 소행성 [63]충돌 등 다양한 위험에 대한 연구와 정책 작업을 수행합니다.스톡홀름에 거점을 두고 Laszlo Szombatfalvy에 의해 설립된 Global Challenges Foundation(2012년 시험)은 [64][65]글로벌 리스크 상태에 대한 연례 보고서를 발표합니다.미래생명연구소(est. 2014)는 미국, 유럽 연합 및 UN의 정책 옹호 [7]및 교육적 지원을 통해 혁신적 기술로 인한 극단적이고 대규모 위험을 줄이고, 이러한 기술의 개발과 사용을 모든 생명에 이익이 되도록 유도하기 위해 노력하고 있다.Elon Musk, Vitalik Buterin, Jaan Talinn은 그것의 가장 큰 [66]기부자들 중 일부이다.Center on Long-Term Risk(장기 리스크 센터)(이전의 Foundation Research Institute)는, 신흥 [67]테크놀로지에 의한 천문학적 고통(s-risk)의 리스크를 경감하는 것에 초점을 맞춘 영국의 단체입니다.

대학에 기반을 둔 조직으로는 인류의 장기적인 미래, 특히 실존적 [5]위험에 대한 문제를 연구하는 미래인류연구소(est. 2005)가 있다.그것은 Nick Bostrom에 의해 설립되었고 옥스포드 [5]대학에 기반을 두고 있다.존재 위험 연구 센터(est. 2012)는 케임브리지 대학에 기반을 둔 조직으로 인공지능, 생명공학, 지구 온난화 및 [6]전쟁이라는 네 가지 주요 기술적 위험을 연구한다.휴 프라이스가 AFP통신에 설명했듯이 이 모든 것은 인위적인 위험이다. "지금이나 다음 세기의 어느 정도 지능이 생물학의 제약에서 벗어날 것이라는 합리적인 예측으로 보인다."그는 이런 일이 일어나면 "우리는 더 이상 주변에서 가장 똑똑한 존재가 아니다"며 "악의가 있는 것이 아니라 우리를 [68]포함하지 않는 기계"에 좌우될 위험이 있다고 덧붙였다.스티븐 호킹은 대리 고문이었다.인류와 생물권을 위한 밀레니엄 동맹은 스탠포드 대학에 본부를 둔 단체로 [69][70]인문학의 학계 구성원들을 결집시켜 세계적인 재난과 관련된 많은 문제에 초점을 맞추고 있다.에를리히 등에 의해 설립되었습니다.[71]스탠퍼드대에는 국제안보협력센터(Center for International Security and Cooperation)도 있어 글로벌 재난 [72]위험을 줄이기 위한 정치적 협력에 주력하고 있습니다.안보신흥기술센터는 2019년 1월 조지타운 월시외교대학에 설립됐으며 초기 인공지능을 [73]중심으로 신흥기술 정책연구에 주력할 예정이다.오픈 박애주의 [73]제안대로 Good Ventures로부터 5500만 달러의 보조금을 받았습니다.

다른 위험 평가 그룹은 정부 조직에 기반을 두고 있거나 정부 조직의 일부입니다.세계보건기구(WHO)는 세계적인 전염병 [74]위기를 감시하고 대응하는 GAR(Global Alert and Response)라고 불리는 부서를 포함하고 있다.GAR은 회원국들이 [75]전염병에 대한 대응 훈련과 조정을 할 수 있도록 돕는다.미국 국제개발청(USAID)은 자연발생적인 전염병을 [76]원천적으로 예방하고 억제하는 을 목적으로 하는 신흥 대유행 위협 프로그램을 가지고 있다.로렌스 리버모어 국립연구소에는 바이오 안보와 [77]대테러와 같은 정부 이슈를 대신 연구하는 '글로벌 안보 책임 연구소'라는 부서가 있다.

「 」를 참조해 주세요.

메모들

  1. ^ Schulte, P.; et al. (March 5, 2010). "The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary" (PDF). Science. 327 (5970): 1214–1218. Bibcode:2010Sci...327.1214S. doi:10.1126/science.1177265. PMID 20203042. S2CID 2659741.
  2. ^ Bostrom, Nick (2008). Global Catastrophic Risks (PDF). Oxford University Press. p. 1.
  3. ^ a b Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF (November 13, 2017). "World Scientists' Warning to Humanity: A Second Notice". BioScience. 67 (12): 1026–1028. doi:10.1093/biosci/bix125.
  4. ^ Bostrom, Nick (March 2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 9.
  5. ^ a b c "About FHI". Future of Humanity Institute. Retrieved August 12, 2021.
  6. ^ a b "About us". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
  7. ^ a b "The Future of Life Institute". Future of Life Institute. Retrieved May 5, 2014.
  8. ^ a b "Nuclear Threat Initiative". Nuclear Threat Initiative. Retrieved June 5, 2015.
  9. ^ a b c d e f Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. 4 (1): 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk.
  10. ^ Bostrom, Nick; Cirkovic, Milan (2008). Global Catastrophic Risks. Oxford: Oxford University Press. p. 1. ISBN 978-0-19-857050-9.
  11. ^ Ziegler, Philip (2012). The Black Death. Faber and Faber. p. 397. ISBN 9780571287116.
  12. ^ Muehlhauser, Luke (March 15, 2017). "How big a deal was the Industrial Revolution?". lukemuelhauser.com. Retrieved August 3, 2020.
  13. ^ Taubenberger, Jeffery; Morens, David (2006). "1918 Influenza: the Mother of All Pandemics". Emerging Infectious Diseases. 12 (1): 15–22. doi:10.3201/eid1201.050979. PMC 3291398. PMID 16494711.
  14. ^ Posner, Richard A. (2006). Catastrophe: Risk and Response. Oxford: Oxford University Press. ISBN 978-0195306477. 개요: "파국이란 무엇인가?"
  15. ^ Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916. This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.
  16. ^ Cotton-Barratt, Owen; Ord, Toby (2015), Existential risk and existential hope: Definitions (PDF), Future of Humanity Institute – Technical Report #2015-1, pp. 1–4
  17. ^ Bostrom, Nick (2009). "Astronomical Waste: The opportunity cost of delayed technological development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/s0953820800004076. S2CID 15860897.
  18. ^ a b c d e f g h Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916.
  19. ^ a b 브라이언 캐플런(2008년)."전체주의 위협"글로벌 재해 위험, ED.Bostrom & Cirkovic (Oxford University Press): 504-519.ISBN 9780198570509
  20. ^ Glover, Dennis (June 1, 2017). "Did George Orwell secretly rewrite the end of Nineteen Eighty-Four as he lay dying?". The Sydney Morning Herald. Retrieved November 21, 2021. Winston's creator, George Orwell, believed that freedom would eventually defeat the truth-twisting totalitarianism portrayed in Nineteen Eighty-Four.
  21. ^ Orwell, George (1949). Nineteen Eighty-Four. A novel. London: Secker & Warburg.
  22. ^ Sagan, Carl (Winter 1983). "Nuclear War and Climatic Catastrophe: Some Policy Implications". Foreign Affairs. Council on Foreign Relations. doi:10.2307/20041818. JSTOR 20041818. Retrieved August 4, 2020.
  23. ^ Jebari, Karim (2014). "Existential Risks: Exploring a Robust Risk Reduction Strategy" (PDF). Science and Engineering Ethics. 21 (3): 541–54. doi:10.1007/s11948-014-9559-3. PMID 24891130. S2CID 30387504. Retrieved August 26, 2018.
  24. ^ a b Cirkovic, Milan M.; Bostrom, Nick; Sandberg, Anders (2010). "Anthropic Shadow: Observation Selection Effects and Human Extinction Risks" (PDF). Risk Analysis. 30 (10): 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. PMID 20626690. S2CID 6485564.
  25. ^ Kemp, Luke (February 2019). "Are we on the road to civilization collapse?". BBC. Retrieved August 12, 2021.
  26. ^ Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. ISBN 9780316484893. Europe survived losing 25 to 50 percent of its population in the Black Death, while keeping civilization firmly intact
  27. ^ a b Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgment of Global Risks" (PDF). Global Catastrophic Risks: 91–119. Bibcode:2008gcr..book...86Y.
  28. ^ 디스저지스, W.H., 존슨, F.R., 던포드, R.W., 보일, K.J., 허드슨, S.P. 및 윌슨, 1993년. 자연자원 손상 측정: 타당성과 신뢰성 테스트.Hausman, J.A.(ed), 우발평가:A Critical Assessment, 91-159페이지 (암스테르담:북네덜란드)
  29. ^ Bostrom 2013.
  30. ^ 유드코프스키, 엘리저인지적 편견은 잠재적으로 글로벌 리스크 판단에 영향을 미칠 수 있다.글로벌 재해 리스크 1 (2008) : 86 . p . 114
  31. ^ "We're Underestimating the Risk of Human Extinction". The Atlantic. March 6, 2012. Retrieved July 1, 2016.
  32. ^ 인류는 자살할까?뉴욕타임스지 1993년 5월 30일)
  33. ^ a b Cotton-Barratt, Owen; Daniel, Max; Sandberg, Anders (2020). "Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter". Global Policy. 11 (3): 271–282. doi:10.1111/1758-5899.12786. ISSN 1758-5899. PMC 7228299. PMID 32427180.
  34. ^ a b Kupferschmidt, Kai (January 11, 2018). "Could science destroy the world? These scholars want to save us from a modern-day Frankenstein". Science. AAAS. Retrieved April 20, 2020.
  35. ^ "Oxford Institute Forecasts The Possible Doom Of Humanity". Popular Science. 2013. Retrieved April 20, 2020.
  36. ^ Toby Ord (2020). The precipice: Existential risk and the future of humanity. ISBN 9780316484893. The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4 million - less than the average McDonald's restaurant
  37. ^ a b Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction" (PDF). Risk Analysis. 27 (5): 1335–1344. doi:10.1111/j.1539-6924.2007.00960.x. PMID 18076500. S2CID 14265396.
  38. ^ Wells, Willard. (2009). Apocalypse when?. Praxis. ISBN 978-0387098364.
  39. ^ 핸슨, 로빈'대재앙, 사회붕괴, 인간멸종'글로벌 재해 리스크 1 (2008) : 357.
  40. ^ Smil, Vaclav (2003). The Earth's Biosphere: Evolution, Dynamics, and Change. MIT Press. p. 25. ISBN 978-0-262-69298-4.
  41. ^ Lewis Smith (February 27, 2008). "Doomsday vault for world's seeds is opened under Arctic mountain". The Times Online. London. Archived from the original on May 12, 2008.
  42. ^ Suzanne Goldenberg (May 20, 2015). "The doomsday vault: the seeds that could save a post-apocalyptic world". The Guardian. Retrieved June 30, 2017.
  43. ^ "Here's how the world could end—and what we can do about it". Science. AAAS. July 8, 2016. Retrieved March 23, 2018.
  44. ^ Denkenberger, David C.; Pearce, Joshua M. (September 2015). "Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun" (PDF). Futures. 72: 57–68. doi:10.1016/j.futures.2014.11.008. S2CID 153917693.
  45. ^ "Global Challenges Foundation Understanding Global Systemic Risk". globalchallenges.org. Archived from the original on August 16, 2017. Retrieved August 15, 2017.
  46. ^ "Global Catastrophic Risk Policy". gcrpolicy.com. Retrieved August 11, 2019.
  47. ^ Club of Rome (2018). "The Climate Emergency Plan". Retrieved August 17, 2020.
  48. ^ Club of Rome (2019). "The Planetary Emergency Plan". Retrieved August 17, 2020.
  49. ^ Kieft, J.; Bendell, J (2021). "The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research". Institute for Leadership and Sustainability (IFLAS) Occasional Papers. 7: 1–39.
  50. ^ "Mankind must abandon earth or face extinction: Hawking", physorg.com, August 9, 2010, retrieved January 23, 2012
  51. ^ Malik, Tariq (April 13, 2013). "Stephen Hawking: Humanity Must Colonize Space to Survive". Space.com. Retrieved July 1, 2016.
  52. ^ Shukman, David (January 19, 2016). "Hawking: Humans at risk of lethal 'own goal'". BBC News. Retrieved July 1, 2016.
  53. ^ 엘론 머스크는 지구상의 생명체가 멸종할 것이라고 생각하며, 대부분의 재산을 화성 개척에 쏟고 있다.
  54. ^ Korycansky, Donald G.; Laughlin, Gregory; Adams, Fred C. (2001). "Astronomical engineering: a strategy for modifying planetary orbits". Astrophysics and Space Science. 275 (4): 349–366. arXiv:astro-ph/0102126. Bibcode:2001Ap&SS.275..349K. doi:10.1023/A:1002790227314. hdl:2027.42/41972. S2CID 5550304.
  55. ^ Fred Hapgood (November 1986). "Nanotechnology: Molecular Machines that Mimic Life" (PDF). Omni. Archived from the original (PDF) on July 27, 2013. Retrieved June 5, 2015.
  56. ^ Giles, Jim (2004). "Nanotech takes small step towards burying 'grey goo'". Nature. 429 (6992): 591. Bibcode:2004Natur.429..591G. doi:10.1038/429591b. PMID 15190320.
  57. ^ Sophie McBain (September 25, 2014). "Apocalypse soon: the scientists preparing for the end times". New Statesman. Retrieved June 5, 2015.
  58. ^ "Reducing Long-Term Catastrophic Risks from Artificial Intelligence". Machine Intelligence Research Institute. Retrieved June 5, 2015. The Machine Intelligence Research Institute aims to reduce the risk of a catastrophe, should such an event eventually occur.
  59. ^ Angela Chen (September 11, 2014). "Is Artificial Intelligence a Threat?". The Chronicle of Higher Education. Retrieved June 5, 2015.
  60. ^ Alexander Sehmar (May 31, 2015). "Isis could obtain nuclear weapon from Pakistan, warns India". The Independent. Archived from the original on June 2, 2015. Retrieved June 5, 2015.
  61. ^ "About the Lifeboat Foundation". The Lifeboat Foundation. Retrieved April 26, 2013.
  62. ^ Ashlee Vance (July 20, 2010). "The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I." New York Times. Retrieved June 5, 2015.
  63. ^ "Global Catastrophic Risk Institute". gcrinstitute.org. Retrieved March 22, 2022.
  64. ^ Meyer, Robinson (April 29, 2016). "Human Extinction Isn't That Unlikely". The Atlantic. Boston, Massachusetts: Emerson Collective. Retrieved April 30, 2016.
  65. ^ "Global Challenges Foundation website". globalchallenges.org. Retrieved April 30, 2016.
  66. ^ Nick Bilton (May 28, 2015). "Ava of 'Ex Machina' Is Just Sci-Fi (for Now)". New York Times. Retrieved June 5, 2015.
  67. ^ "About Us". Center on Long-Term {{subst:lc:Risk}}. Retrieved May 17, 2020. We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.
  68. ^ Hui, Sylvia (November 25, 2012). "Cambridge to study technology's risks to humans". Associated Press. Archived from the original on December 1, 2012. Retrieved January 30, 2012.
  69. ^ Scott Barrett (2014). Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press. p. 112. ISBN 9780199677856. Retrieved June 5, 2015.
  70. ^ "Millennium Alliance for Humanity & The Biosphere". Millennium Alliance for Humanity & The Biosphere. Retrieved June 5, 2015.
  71. ^ Guruprasad Madhavan (2012). Practicing Sustainability. Springer Science & Business Media. p. 43. ISBN 9781461443483. Retrieved June 5, 2015.
  72. ^ "Center for International Security and Cooperation". Center for International Security and Cooperation. Retrieved June 5, 2015.
  73. ^ a b Anderson, Nick (February 28, 2019). "Georgetown launches think tank on security and emerging technology". Washington Post. Retrieved March 12, 2019.
  74. ^ "Global Alert and Response (GAR)". World Health Organization. Archived from the original on February 16, 2003. Retrieved June 5, 2015.
  75. ^ Kelley Lee (2013). Historical Dictionary of the World Health Organization. Rowman & Littlefield. p. 92. ISBN 9780810878587. Retrieved June 5, 2015.
  76. ^ "USAID Emerging Pandemic Threats Program". USAID. Archived from the original on October 22, 2014. Retrieved June 5, 2015.
  77. ^ "Global Security". Lawrence Livermore National Laboratory. Retrieved June 5, 2015.

추가 정보

외부 링크