신경진화

Neuroevolution

신경 진화 또는 신경 진화는 진화 알고리즘을 사용하여 인공 신경 네트워크, 매개 변수 및 [1]규칙을 생성하는 인공지능의 한 형태입니다.그것인공생명체, 일반 게임[2] 플레이, 진화 로봇에 가장 일반적으로 적용된다.주요 이점은 신경 진화가 정확한 입출력 쌍의 강의 요강을 필요로 하는 감독 학습 알고리즘보다 더 광범위하게 적용될 수 있다는 것이다.이와는 대조적으로, 신경 진화는 작업에서의 네트워크 성능의 측정값만 필요로 합니다.예를 들어, 원하는 전략의 라벨이 붙은 예를 제시하지 않아도 게임의 결과(즉, 한 명의 플레이어가 이기든 지든)를 쉽게 측정할 수 있습니다.신경 진화는 일반적으로 강화 학습 패러다임의 일부로 사용되며, 고정된 위상을 가진 뉴럴 네트워크에서 경사 강하를 사용하는 기존의 딥 러닝 기술과 대조될 수 있다.

특징들

많은 신경 진화 알고리즘이 정의되어 있다.네트워크의 토폴로지와 그 중량(TWEANN, 토폴로지 및 무게 진화의 인공 신경 네트워크 알고리즘의 경우)을 모두 진화시키는 알고리즘과는 달리 고정 네트워크토폴로지에 대한 접속 무게의 강도만을 진화시키는 알고리즘(종래의 신경 진화라고도 불립니다)이 공통적인 구별입니다.

매개 변수와 병렬로 ANN의 구조를 진화시키는 방법(표준 진화 알고리즘을 적용하는 방법)과 별도로 개발하는 방법(메메트릭 알고리즘을 [3]통해) 간에 별도의 구별을 할 수 있다.

경사 강하와의 비교

대부분의 신경망은 신경 진화보다는 경사 하강 방식을 사용한다.그러나 2017년경 Uber의 연구원들은 단순한 구조 신경 진화 알고리즘이 정교한 현대 산업 표준 구배-저하 러닝 알고리즘과 경쟁적이라는 것을 발견했다고 밝혔다. 부분적으로는 신경 진화가 국소적 최소값에 고착될 가능성이 낮기 때문이다.사이언스에서 매튜 허슨 기자는 신경 진화가 이전에 실패했던 곳에서 성공하는 이유 중 [4]일부는 2010년대에 이용 가능한 향상된 계산 능력 때문이라고 추측했다.

직접 및 간접 부호화

진화 알고리즘은 유전자형 집단(게놈이라고도 함)에서 작동합니다.신경 진화에서 유전자형은 적합성을 도출하기 위해 일부 작업에서 평가되는 뉴럴 네트워크 표현형에 매핑됩니다.

직접 인코딩 방식에서는 유전자형이 표현형에 직접 매핑됩니다.즉, 신경망의 모든 뉴런과 연결은 유전자형으로 직접적이고 명시적으로 지정됩니다.한편, 간접 부호화 방식에서는,[5] genotype에 의해서 네트워크의 생성 방법이 간접적으로 지정됩니다.

간접 부호화는 다음과 같은 몇 가지 [5][6][7][8][9]목적을 달성하기 위해 종종 사용됩니다.

  • 모듈화 및 기타 규칙성
  • 표현형을 더 작은 유전자형으로 압축하여 더 작은 검색 공간을 제공한다.
  • 검색 공간(예:)을 문제 도메인에 매핑합니다.

간접 부호화를 위한 태생계 분류법

인위적 배아 발생(인위적 발달로도 알려져 있음)을 사용하는 전통적으로 간접적인 부호화는 문법적 접근세포 화학적 [10]접근 방식에 따라 분류되었다.전자는 문법적 개서 시스템의 형태로 규칙 집합을 발전시킨다.후자는 유전자 발현을 통해 생물학에서 물리적 구조가 어떻게 나타나는지를 모방하려고 시도한다.간접 부호화 시스템에서는, 대부분의 경우, 양쪽 모두의 어프로치를 사용합니다.

Stanley와 Mikkulainen은[10] 그들의 근본적인 특성을 반영하기 위한 태생계 분류법을 제안한다.분류법은 발생 시스템을 배치할 수 있는 5개의 연속된 치수를 식별한다.

  • 세포(뉴론) 운명: 성숙한 표현형에서 세포의 최종 특징과 역할.이 치수는 셀의 운명을 결정하는 데 사용되는 메서드의 수를 카운트합니다.
  • Targeting : 소스 셀에서 타깃셀로 접속을 유도하는 방법이는 특정 표적(선원과 표적이 명시적으로 식별됨)에서 상대 표적(예를 들어 서로 상대적인 세포 위치에 기초함)까지 다양하다.
  • 헤테로크로니시: 발생 중 이벤트의 타이밍과 순서.이벤트 타이밍을 변경하는 메커니즘의 수를 카운트합니다.
  • 관화: 게놈이 돌연변이에 얼마나 내성이 있는지.정확한 유전자형 지시를 요구하는 것에서부터 부정확한 돌연변이에 대한 높은 내성에 이르기까지 다양합니다.
  • 복잡화: 시간이 지남에 따라 게놈(및 표현형)의 복잡화를 가능하게 하는 시스템의 능력(진화 알고리즘과 표현형 매핑을 포함한다).고정 크기의 게놈만 허용하는 것부터 매우 가변적인 길이의 게놈까지 다양합니다.

신경진화 방법의 예(직접 인코딩을 사용하는 방법은 필연적으로 비배아 유발):

방법 부호화 진화 알고리즘 진화한 측면
E에 의한 신경유전학적 진화.로널드, 1994[11] 직접적인 유전 알고리즘 네트워크 중량
F에 의한 Cellular Encoding(CE; 셀룰러 부호화)그루우, 1994[7] 간접, 발생(S-표현을 사용한 문법 트리) 유전자 프로그래밍 구조 및 파라미터(동시, 복잡화)
GNARL by Angeline et al., 1994[12] 직접적인 진화적 프로그래밍 구조 및 파라미터(동시, 복잡화)
EPNet by Yao and Liu, 1997[13] 직접적인 진화적 프로그래밍(역전파시뮬레이션 어닐링과 결합) 구조 및 파라미터(혼재, 복잡화, 심플화)
Stanley and Miikkulainen의 NeuroEvolution of Ampending Topology(NEAT) 2002[14][15] 직접적인 유전 알고리즘.이력 표시가 있는 유전자를 추적하여 서로 다른 토폴로지 간에 교차할 수 있도록 하고, 분화를 통해 혁신을 보호합니다. 구조 및 파라미터
Stanley, D'Ambrosio, Gauci, 2008년[6] Hypercube 기반의 NeuroEvolution of Ampending Topology (HyperNEAT) 간접적, 비배양적(하이퍼큐브 의 CPPN에 의해 생성된 공간 패턴은 저차원 공간에서의 연결 패턴으로 해석됨) 유전 알고리즘.CPPN의 진화에 NEAT 알고리즘(상기)이 사용됩니다. 파라미터,구조고정(기능적으로완전접속)
Risi, Stanley[9] 2012의 진화 가능한 기판 Hypercube 기반의 증강 위상(ES-HyperNEAT) 간접적, 비배양적(하이퍼큐브 의 CPPN에 의해 생성된 공간 패턴은 저차원 공간에서의 연결 패턴으로 해석됨) 유전 알고리즘.CPPN의 진화에 NEAT 알고리즘(상기)이 사용됩니다. 파라미터 및 네트워크 구조
Kassahun and Sommer, 2005[16] / Siebel and Sommer, 2007년[17] 신경위상의 진화적 획득(EANT/EANT2) 직접 및 간접 발생 가능성(공통 유전자[5] 부호화) 진화적 프로그래밍/진화 전략 구조 및 파라미터(별도, 복잡도)
인터랙티브 제약 신경-진화(ICONE) by Rempis, 2012[18] Direct - 검색을 특정 위상/매개변수 매니폴드로 제한하는 구속조건 마스크를 포함합니다. 진화 알고리즘.제약 조건 마스크를 사용하여 도메인 지식을 활용하여 검색 공간을 대폭 줄입니다. 구조 및 파라미터(별도, 복잡도, 인터랙티브)
Deus Ex Neural Network(DXNN) (Gene Sher, 2012[19]) 직접/간접, 제약 조건, 로컬 튜닝 포함, 새로운 센서와 액추에이터를 통합하기 위한 진화를 가능하게 합니다. 메모리 알고리즘다양한 타임스케일로 네트워크 구조 및 파라미터를 진화시킵니다. 구조 및 파라미터(별도, 복잡도, 인터랙티브)
Danilo Vasconcellos Vargas, Junichi[20] Murata (다운로드 코드)의 스펙트럼 다양성 통합 신경 진화 아키텍처 (SUNA) 직접, Unified Neural Representation(논문에서 나온 뉴럴 네트워크 기능의 대부분을 통합한 표현)을 소개합니다. 염색체 크기에 따라 잘 확장되는 스펙트럼-다양성이라고 하는 다양성 보존 메커니즘을 가진 유전자 알고리즘은 문제에 의존하지 않으며 높은 수준의 행동/접근의 다양성을 얻는 데 더 초점을 맞춘다.이러한 다양성을 달성하기 위해 염색체 스펙트럼의 개념을 도입하여 신규성 지도 모집단과 함께 사용한다. 구조 및 파라미터(혼재, 복잡화, 심플화)
Clifford Bohm, Arend Hintze [21]등의 Modular Agent-Based Evolver(MABE; 모듈러 에이전트 기반 에볼버) (다운로드 코드) 마르코프 네트워크, 뉴럴 네트워크, 유전자 프로그래밍 및 기타 임의로 맞춤 가능한 컨트롤러의 직접 또는 간접 부호화. 진화 알고리즘, 유전자 프로그래밍 알고리즘을 제공하고 임의 제약 조건의 지정과 함께 맞춤형 알고리즘을 허용합니다. 진화할 수 있는 측면은 신경 모델을 포함하며 형태학의 진화와 다른 것들 사이의 성적 선택을 가능하게 한다.
Shahin Rostami 등의 하이퍼볼륨 정렬 적응 그리드 알고리즘(CMA-HAGA)[22][23]에 의한 공분산 매트릭스 적응. 다이렉트에는 다양한 세대에서 특성이 사라졌다가 다시 나타날 수 있는 격세지감 기능이 포함되어 있습니다. 선호도가 명확한 다목적 진화 전략(컴퓨팅 스티어링) 구조, 무게, 그리고 편견.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Stanley, Kenneth O. (2017-07-13). "Neuroevolution: A different kind of deep learning". O'Reilly Media. Retrieved 2017-09-04.
  2. ^ Risi, Sebastian; Togelius, Julian (2017). "Neuroevolution in Games: State of the Art and Open Challenges". IEEE Transactions on Computational Intelligence and AI in Games. 9: 25–41. arXiv:1410.7326. doi:10.1109/TCIAIG.2015.2494596. S2CID 11245845.
  3. ^ Togelius, Julian; Schaul, Tom; Schmidhuber, Jurgen; Gomez, Faustino (2008), "Countering poisonous inputs with memetic neuroevolution" (PDF), Parallel Problem Solving from Nature
  4. ^ "Artificial intelligence can 'evolve' to solve problems". Science AAAS. 10 January 2018. Retrieved 7 February 2018.
  5. ^ a b c Kassahun, Yohannes; Sommer, Gerald; Edgington, Mark; Metzen, Jan Hendrik; Kirchner, Frank (2007), "Common genetic encoding for both direct and indirect encodings of networks", Genetic and Evolutionary Computation Conference, ACM Press, pp. 1029–1036, CiteSeerX 10.1.1.159.705
  6. ^ a b Gauci, Stanley (2007), "Generating Large-Scale Neural Networks Through Discovering Geometric Regularities" (PDF), Genetic and Evolutionary Computation Conference, New York, NY: ACM
  7. ^ a b Gruau, Frédéric; I, L'universite Claude Bernard-lyon; Doctorat, Of A. Diplome De; Demongeot, M. Jacques; Cosnard, Examinators M. Michel; Mazoyer, M. Jacques; Peretto, M. Pierre; Whitley, M. Darell (1994). Neural Network Synthesis Using Cellular Encoding And The Genetic Algorithm. CiteSeerX 10.1.1.29.5939.
  8. ^ Clune, J.; Stanley, Kenneth O.; Pennock, R. T.; Ofria, C. (June 2011). "On the Performance of Indirect Encoding Across the Continuum of Regularity". IEEE Transactions on Evolutionary Computation. 15 (3): 346–367. CiteSeerX 10.1.1.375.6731. doi:10.1109/TEVC.2010.2104157. ISSN 1089-778X. S2CID 3008628.
  9. ^ a b Risi, Sebastian; Stanley, Kenneth O. (2012). "An Enhanced Hypercube-Based Encoding for Evolving the Placement, Density and Connectivity of Neurons" (PDF). Artificial Life. 18 (4): 331–363. doi:10.1162/ARTL_a_00071. PMID 22938563. S2CID 3256786.
  10. ^ a b Stanley, Kenneth O.; Miikkulainen, Risto (2003). "A Taxonomy for Artificial Embryogeny" (PDF). Artificial Life. 9 (2): 93–130. doi:10.1162/106454603322221487. PMID 12906725. S2CID 2124332.
  11. ^ Ronald, Edmund; Schoenauer, March (1994), "Genetic Lander: An experiment in accurate neuro-genetic control", PPSN III 1994 Parallel Programming Solving from Nature, pp. 452–461, CiteSeerX 10.1.1.56.3139
  12. ^ Angeline, Peter J.; Saunders, Gregory M.; Pollack, Jordan B. (1994). "An evolutionary algorithm that constructs recurrent neural networks" (PDF). IEEE Transactions on Neural Networks. 5 (5): 54–65. CiteSeerX 10.1.1.64.1853. doi:10.1109/72.265960. PMID 18267779.
  13. ^ Yao, Xin; Liu, Yong (May 1997). "A new evolutionary system for evolving artificial neural networks" (PDF). IEEE Transactions on Neural Networks. 8 (3): 694–713. doi:10.1109/72.572107. PMID 18255671.
  14. ^ Stanley, Kenneth O.; Bryant, Bobby D.; Miikkulainen, Risto (December 2005). "Real-Time Neuroevolution in the NERO Video Game" (PDF).
  15. ^ Stanley, Kenneth O.; Miikkulainen, Risto (2002). "Evolving Neural Networks through Augmenting Topologies" (PDF). Evolutionary Computation. 10 (2): 99–127. CiteSeerX 10.1.1.638.3910. doi:10.1162/106365602320169811. PMID 12180173. S2CID 498161.
  16. ^ Kassahun, Yohannes; Sommer, Gerald (April 2005), "Efficient reinforcement learning through evolutionary acquisition of neural topologies" (PDF), 13th European Symposium on Artificial Neural Networks, Bruges, Belgium, pp. 259–266
  17. ^ Siebel, Nils T.; Sommer, Gerald (October 2007). "Evolutionary reinforcement learning of artificial neural networks" (PDF). International Journal of Hybrid Intelligent Systems. 4 (3): 171–183. doi:10.3233/his-2007-4304. Archived from the original (PDF) on 2008-09-05.
  18. ^ Rempis, Christian W. (October 2012). "Evolving Complex Neuro-Controllers with Interactively Constrained Neuro-Evolution" (PhD thesis). Osnabrück University. urn:nbn:de:gbv:700-2012101710370
  19. ^ Sher, Gene I. (November 2012). Handbook of Neuroevolution Through Erlang. Springer Verlag. ISBN 9781461444626.
  20. ^ Vargas, Danilo Vasconcellos; Murata, Junichi (2019). "Spectrum-Diverse Neuroevolution With Unified Neural Models". IEEE Transactions on Neural Networks and Learning Systems. 28 (8): 1759–1773. arXiv:1902.06703. Bibcode:2019arXiv190206703V. doi:10.1109/TNNLS.2016.2551748. PMID 28113564. S2CID 206757620.
  21. ^ Edlund, Jeffrey; Chaumont, Nicolas; Hintze, Arend; Koch, Christof; Tononi, Giulio; Adami, Christoph (2011). "Integrated Information Increases with Fitness in the Evolution of Animats". PLOS Computational Biology. 7 (10): e1002236. arXiv:1103.1791. Bibcode:2011PLSCB...7E2236E. doi:10.1371/journal.pcbi.1002236. PMC 3197648. PMID 22028639.
  22. ^ Rostami, Shahin; Neri, Ferrante (2017-06-01). "A fast hypervolume driven selection mechanism for many-objective optimisation problems" (PDF). Swarm and Evolutionary Computation. 34 (Supplement C): 50–67. doi:10.1016/j.swevo.2016.12.002. hdl:2086/13102.
  23. ^ "Multi-objective evolution of artificial neural networks in multi-class medical diagnosis problems with class imbalance - IEEE Conference Publication" (PDF). doi:10.1109/CIBCB.2017.8058553. S2CID 22674515. {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)

외부 링크