미래인류연구소

Future of Humanity Institute
미래인류연구소
Future of Humanity Institute logo
형성2005년, 17년 전(2005년)
목적인류와 그 전망에 대한 대국적 질문을 조사하다
본사영국 옥스퍼드
감독.
닉 보스트롬
모조직
옥스퍼드 대학교 철학과
웹 사이트fhi.ox.ac.uk

미래인류연구소(FHI)는 옥스퍼드 대학학제간 연구센터로 인류와 그 전망에 대한 큰 그림을 그리는 질문을 조사합니다.2005년 철학부옥스퍼드 마틴 [1]스쿨의 일부로 설립되었습니다.그 디렉터는 철학자 Nick Bostrom이며, 연구 직원과 동료에는 미래학자 Anders Sandberg, 엔지니어 K가 포함되어 있습니다. 에릭 드렉슬러, 경제학자 로빈 핸슨, 기빙 왓 위 창업자 토비 [2]오드.

사무실을 공유하고 효과적인 이타주의 센터와 긴밀히 협력하는 이 연구소의 목표는 장기적으로 [3][4]인류에게 가장 긍정적인 변화를 줄 수 있는 연구에 집중하는 것이다.학술 활동과 아웃리치 활동이 혼재하여 정부, 기업, 대학 및 기타 조직에서 정보에 입각한 토론과 공공 참여를 촉진합니다.이 센터의 가장 큰 연구 기금에는 Amlin, Elon Musk, European Research Council, Future of Life Institute 및 Leverhulme [5]Trust가 포함됩니다.

역사

Nick Bostrom은 2005년 11월 옥스퍼드 마틴 스쿨과 제임스 마틴 21세기 [1]스쿨의 일부로 이 연구소를 설립했다.2008년부터 2010년 사이에, FHI는 글로벌 파국적 리스크 컨퍼런스를 개최해, 22개의 학술 저널 기사를 집필해, 34장의 학술 서적을 출판했습니다.FHI의 연구자는 5,000회 이상 언론에[6] 언급되었고, 세계경제포럼에서 민간 및 비영리 부문(맥아더 재단, 세계보건기구 등)과 스웨덴, 싱가포르, 벨기에, 영국 및 미국의 정부 기관에 정책 조언을 제공했습니다.Bostrom과 생명윤리학자 Julian Savulescu도 2009년 [7]3월에 Human Enhancement라는 을 출판했습니다.가장 최근에, FHI는 첨단 인공지능의 위험성에 초점을 맞추고 있다.2014년, 연구진은 스튜어트 암스트롱의 '우리보다 똑똑한'과 보스트롬의 '슈퍼 인텔리전스: 경로, 위험, 전략'[8][9]을 포함한 AI 위험에 관한 여러 권의 책을 출판했다.

2018년 Open Pilitropy는 FHI에 3년간 약 1,340만 파운드의 보조금을 권장했으며, 상당 부분은 성공적인 [10]고용에 달려 있습니다.

실존적 리스크

FHI가 시간을 들여 탐색한 가장 큰 주제는 세계적인 재해 위험, 특히 실존적 위험입니다.Bostrom은 2002년 논문에서 "실존적 위험"을 "지구에서 유래한 지적 생명체를 전멸시키거나 영구적이고 극적으로 잠재성을 [11]감소시킬 것"으로 정의했다.여기에는 인류가 직접 피해를 입지는 않지만 우주를 식민화하고 관측 가능한 우주의 자원을 인간적으로 가치 있는 프로젝트에서 활용하는 것은 실패하는 시나리오가 포함됩니다.이는 2003년 Bostrom의 논문 "천문학적 낭비:기술개발 지연에 따른 기회비용.[12]

보스트롬과 밀란 치르코비치의 2008년 저서 '글로벌 파국적 위험'은 자연적, 인위적 위험 모두에 관한 다양한 에세이를 수집한다.자연에서 발생할 수 있는 재앙적 위험에는 초화성, 충돌 이벤트, 그리고 감마선 폭발, 우주선, 태양 플레어, 초신성과 같은 강력한 천문 이벤트가 포함됩니다.이러한 위험은 비교적 작고 비교적 잘 이해되는 것으로 특징지어지지만, 유행병이 더 일반적이고 기술적 [13][4]경향과 일치하는 결과일 수 있다.

무기화된 생물학적 약물을 통한 합성 전염병은 FHI에 의해 더 많은 관심을 받는다.이 연구소가 특히 관심을 갖고 있는 기술적 성과에는 인위적기후변화, 핵전쟁과 핵테러, 분자 나노기술, 인공지능 등포함된다.미래 기술, 특히 고급 인공지능에서 발생할 가장 큰 위험을 예상함에 있어, FHI는 존재 위험 연구 센터기계 지능 [14][15]연구소와 같은 다른 존재 위험 감소 조직과 합의합니다.또한 전체주의, 자동화로 인한 실업, 정보 [16]위험 등 사회 및 제도적 리스크에 대한 기술 진보의 영향도 연구해 왔습니다.

2020년, FHI 선임 연구원인 Toby Ord는 그의 책 The Lampice를 출판했습니다. 그는 인류의 미래를 지키는 이 우리 시대[17][18]가장 중요한 도덕적 문제 중 하나라고 주장한다.

인간적 추리

FHI는 다른 조직이 거의 조사하지 못한 이국적인 위협과 존재 리스크 감소 및 예측 정보를 제공하는 방법론적 고려사항에 많은 관심을 쏟고 있습니다.연구소는 연구에서 일반적인 인식론적인 의미를 지닌 충분히 탐구되지 않은 분야로서 인간적 추론을 특히 강조해왔다.

FI가 연구한 인류학적 주장에는 인류 역사상 극히 이른 시점을 관찰하고 있을 가능성이 낮기 때문에 인류가 곧 멸종할 가능성이 높다고 주장하는 최후의 날 주장이 포함되어 있다.대신, 현생 인류는 앞으로 [13]살아갈 인류 분포의 중간쯤에 있을 가능성이 높다.Bostrom은 또한 시뮬레이션 주장을 대중화했다.

FHI의 연구에서 반복되는 주제는 페르미 역설인데, 이는 관찰할 수 있는 외계 문명의 놀라운 부재이다.로빈 핸슨은 역설의 원인을 설명하기 위해 우주 식민지화를 막는 "위대한 필터"가 있어야 한다고 주장했다.만약 지능이 현재의 생물학이 예상하는 것보다 훨씬 더 드물다면, 그 필터는 과거에 있을 수도 있고, 현재 인식되고 있는 것보다 실존적 위험이 더 크다면 미래에 있을 수도 있다.

인간의 향상과 합리성

위험 평가, 천문 폐기물 및 미래 기술의 위험에 대한 FHI의 작업과 밀접하게 관련되어 있는 것은 인간 강화의 약속과 위험에 대한 연구입니다.문제의 수정은 생물학적, 디지털 또는 사회학적일 수 있으며, 가장 가능성이 높은 단기적 혁신보다는 가장 급진적인 가설의 변화에 중점을 둔다.FHI의 생명윤리 연구는 유전자 치료, 수명 연장, 뇌 이식 뇌-컴퓨터 인터페이스, 마인드 [19]업로딩의 잠재적 결과에 초점을 맞추고 있다.

FHI의 초점은 기술과 사회적 진보의 속도와 방향을 형성하기 위한 방법으로서 인간의 지능과 합리성을 평가하고 강화하는 방법에 맞춰져 왔다.인지 휴리스틱편견에서 예시된 인간의 비합리성에 대한 FHI의 연구는 [20][21]모델링의 편견에서 발생하는 시스템 위험을 연구하기 위해 Amlin과의 지속적인 협업을 포함한다.

선택한 출판물

  • 토비 오드:벼랑 끝: 실존적 위험과 인류의 미래, 2020. ISBN1526600218
  • Nick Bostrom: Super Intelligence: Paths, Dangerous, Strategies, 2014.ISBN 0-415-93858-9
  • Nick Bostrom과 Milan Cirkovic: Global Craspolative Risks, 2011.ISBN 978-0-19-857050-9
  • Nick Bostrom과 Julian Savulescu: Human Enhancement, 2011.ISBN 0-19-929972-2
  • Nick Bostrom: 인류학적 편견: 과학과 철학에서의 관찰 선택 효과, 2010.ISBN 0-415-93858-9
  • Nick Bostrom과 Anders Sandberg: Brain Emulation Roadmap, 2008.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b "Humanity's Future: Future of Humanity Institute". Oxford Martin School. Archived from the original on 17 March 2014. Retrieved 28 March 2014.
  2. ^ "Staff". Future of Humanity Institute. Retrieved 28 March 2014.
  3. ^ "About FHI". Future of Humanity Institute. Archived from the original on 1 December 2015. Retrieved 28 March 2014.
  4. ^ a b Ross Andersen (25 February 2013). "Omens". Aeon Magazine. Retrieved 28 March 2014.
  5. ^ "Support FHI". Future of Humanity Institute. 2021. Archived from the original on 20 October 2021. Retrieved 23 July 2022.
  6. ^ "Google News". Google News. Retrieved 30 March 2015.
  7. ^ Nick Bostrom (18 July 2007). Achievements Report: 2008-2010 (PDF) (Report). Future of Humanity Institute. Archived from the original (PDF) on 21 December 2012. Retrieved 31 March 2014.
  8. ^ Mark Piesing (17 May 2012). "AI uprising: humans will be outsourced, not obliterated". Wired. Retrieved 31 March 2014.
  9. ^ Coughlan, Sean (24 April 2013). "How are humans going to become extinct?". BBC News. Retrieved 29 March 2014.
  10. ^ Open Philanthropy Project (July 2018). "Future of Humanity Institute — Work on Global Catastrophic Risks".
  11. ^ Nick Bostrom (March 2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 15 (3): 308–314. Retrieved 31 March 2014.
  12. ^ Nick Bostrom (November 2003). "Astronomical Waste: The Opportunity Cost of Delayed Technological Development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/s0953820800004076. Retrieved 31 March 2014.
  13. ^ a b Ross Andersen (6 March 2012). "We're Underestimating the Risk of Human Extinction". The Atlantic. Retrieved 29 March 2014.
  14. ^ Kate Whitehead (16 March 2014). "Cambridge University study centre focuses on risks that could annihilate mankind". South China Morning Post. Retrieved 29 March 2014.
  15. ^ Jenny Hollander (September 2012). "Oxford Future of Humanity Institute knows what will make us extinct". Bustle. Retrieved 31 March 2014.
  16. ^ Nick Bostrom. "Information Hazards: A Typology of Potential Harms from Knowledge" (PDF). Future of Humanity Institute. Retrieved 31 March 2014.
  17. ^ Ord, Toby. "The Precipice: Existential Risk and the Future of Humanity". The Precipice Website. Retrieved 18 October 2020.
  18. ^ Chivers, Tom. "How close is humanity to destroying itself?". The Spectator. Retrieved 18 October 2020.
  19. ^ Anders Sandberg and Nick Bostrom. "Whole Brain Emulation: A Roadmap" (PDF). Future of Humanity Institute. Retrieved 31 March 2014.
  20. ^ "Amlin and Oxford University launch major research project into the Systemic Risk of Modelling" (Press release). Amlin. 11 February 2014. Archived from the original on 13 April 2014. Retrieved 31 March 2014.
  21. ^ "Amlin and Oxford University to collaborate on modelling risk study". Continuity, Insurance & Risk Magazine. 11 February 2014. Retrieved 31 March 2014.

외부 링크