양자 신경망

Quantum neural network
피드 포워드 뉴럴 네트워크의 샘플 모델.딥 러닝 네트워크의 경우 숨겨진 레이어 수를 늘립니다.

양자 뉴럴 네트워크는 양자 역학의 원리에 기초한 계산 뉴럴 네트워크 모델입니다.양자 신경 계산에 대한 첫 번째 아이디어는 1995년 서브해시 카크와 론 크리스리에 [1][2]의해 독립적으로 발표되었고, 양자 효과가 인지 기능에 역할을 한다고 가정하는 양자 마인드의 이론에 관여하였다.그러나 양자 신경망의 전형적인 연구는 보다 효율적인 [3][4][5]알고리즘을 개발하기 위해 (패턴 인식의 중요한 과제를 위한 기계 학습에 널리 사용되는) 고전적인 인공 신경망 모델을 양자 정보의 장점과 결합하는 것을 포함한다.이러한 조사의 한 가지 중요한 동기는 특히 빅데이터 애플리케이션에서 고전적인 신경 네트워크를 훈련하는 것이 어렵다는 것이다.양자 평행성이나 간섭얽힘의 효과와 같은 양자 컴퓨팅의 특징이 자원으로 활용될 수 있기를 바란다.양자컴퓨터의 기술적 구현은 아직 시기상조이기 때문에, 그러한 양자신경망 모델은 대부분 물리실험에서의 완전한 구현을 기다리는 이론적인 제안이다.

퀀텀 뉴럴 네트워크는 대부분 피드포워드 네트워크로 개발됩니다.기존 구조와 마찬가지로 이 구조는 큐비트 레이어로부터의 입력을 받아들여 큐비트 레이어의 다른 레이어는 큐비트 층으로 입력을 전달합니다.이 큐비트 레이어는 이 정보를 평가하고 출력을 다음 레이어에 전달합니다.최종적으로 경로는 큐비트의 [6][7]최종 레이어로 이어집니다.레이어의 폭이 같을 필요는 없습니다.즉, 레이어의 전후와 같은 큐비트수를 가질 필요는 없습니다.이 구조는 기존의 인공신경망과 유사한 경로를 선택할 수 있도록 훈련된다.이에 대해서는 아래 섹션에서 설명합니다.양자신경망은 세 가지 카테고리를 말합니다.클래식 데이터가 있는 양자 컴퓨터, 양자 데이터가 있는 고전 컴퓨터, 양자 데이터가 [6]있는 양자 컴퓨터.

양자 뉴럴 네트워크 연구는 아직 초기 단계에 있으며, 다양한 범위와 수학적 엄격함의 제안과 아이디어의 집합체가 제시되어 왔다.그들 중 대부분은 고전적인 바이너리 또는 맥컬록-핏스 뉴런을 큐비트로 대체한다는 아이디어에 기초하고 있으며, 결과적으로 신경 단위는 '발화'와 '정지' 상태의 중첩에 있을 수 있다.

양자 퍼셉트론

많은 제안들이 뉴럴 네트가 구성되는 퍼셉트론 유닛에 대한 양자 등가물을 찾으려고 시도한다.문제는 양자 진화가 선형 연산에 의해 설명되고 확률론적 관찰로 이어지기 때문에 비선형 활성화 함수가 양자 이론의 수학적 구조에 즉시 대응하지 않는다는 것이다.양자역학적 형식주의로 퍼셉트론 활성화 함수를 모방하는 아이디어는 특별한 측정에서 가정된 비선형 양자 연산자(논란되는 [10][11]수학적 프레임워크)까지 다양하다.양자 계산의 회로 기반 모델을 이용한 활성화 함수의 직접적인 구현은 최근 Schuld, Sinayskiy 및 Petruccione에 의해 양자 위상 추정 [12]알고리즘에 기초한 제안되었다.

양자 네트워크

더 큰 규모로, 연구자들은 신경망을 양자 설정으로 일반화하려고 시도했다.양자 뉴런을 구성하는 한 가지 방법은 먼저 고전 뉴런을 일반화한 다음 더 일반화하여 단일 게이트를 만드는 것입니다.뉴런 간의 상호작용은 네트워크 상태의 측정을 통해 단일 게이트 또는 고전적으로 양자적으로 제어될 수 있다.이 높은 수준의 이론 기술은 광학적으로 구현된[7][13] 뉴런과 양자 저장 프로세서(저장소 [14]컴퓨팅의 양자 버전)와 같은 다양한 유형의 네트워크와 양자 뉴런의 다른 구현을 취함으로써 광범위하게 적용될 수 있다.대부분의 학습 알고리즘은 주어진 훈련 세트의 입출력 기능을 학습하기 위해 인공 신경 네트워크를 훈련하는 고전적인 모델을 따르고, 최적의 구성으로 수렴될 때까지 양자 시스템의 매개변수를 업데이트하기 위해 고전적인 피드백 루프를 사용합니다.매개변수 최적화 문제로서의 학습은 양자 [15]컴퓨팅의 단열 모델에 의해서도 접근되었다.

양자 신경망은 알고리즘 설계에 적용될 수 있다. 조정 가능한 상호 상호작용을 가진 큐비트가 주어지면 원하는 입력-출력 관계의 훈련 세트로부터 기존의 역전파 규칙을 따르는 상호작용을 배우려고 시도할 수 있으며, 이는 원하는 출력 알고리즘의 [16][17]동작으로 받아들여진다.따라서 양자 네트워크는 알고리즘을 '학습'합니다.

양자 연상 메모리

양자 연상 기억 알고리즘은 1999년 댄 벤추라와 토니 마르티네즈에 [18]의해 도입되었다.저자는 인공신경망 모델의 구조를 양자이론으로 변환하려는 것이 아니라 연상기억을 시뮬레이트하는 회로 기반의 양자컴퓨터를 위한 알고리즘을 제안한다.메모리 상태(뉴럴 커넥션의 무게로 저장된 홉필드 뉴럴 네트워크 내)는 중첩에 기록되며, 그로버와 유사한 양자 검색 알고리즘은 주어진 입력에 가장 가까운 메모리 상태를 검색합니다.장점은 기억 상태의 기하급수적인 저장 용량에 있지만, 심플화된 인공 신경 네트워크가 뇌의 특징을 어떻게 시뮬레이션할 수 있는지를 보여주는 것으로 홉필드 모델의 초기 목적에 관한 모델이 중요한지 여부는 여전히 의문이다.

양자 이론에서 영감을 얻은 고전적 신경 네트워크

퍼지 논리에 기초한 신경망[19]구현하기 위해 양자 이론의 아이디어를 사용하는 "양자 영감을 받은" 모델에 상당한 관심이 주어졌습니다.

트레이닝

양자 신경망은 이론적으로 고전/인공 신경망을 훈련시키는 것과 유사하게 훈련될 수 있다.중요한 차이점은 뉴럴 네트워크의 계층 간 통신에 있습니다.기존의 뉴럴 네트워크의 경우, 주어진 조작의 마지막에, 현재의 퍼셉트론은 그 출력을 네트워크의 퍼셉트론의 다음 층에 카피한다.그러나, 각 퍼셉트론이 큐비트인 양자 신경망에서는, 이것은 복제 금지 [6][20]정리에 위배된다.이에 대해 제안된 일반화된 솔루션은 기존의 팬아웃 방법을 큐비트의 다음 레이어에 한 큐비트의 출력을 확산시키지만 복사하지는 않는 임의의 유니타리로 대체하는 것입니다. 팬아웃 유니터리(f { 알려진 상태의 더미 상태 큐비트([7]: Ancilla 비트)를 사용하여 큐비트의 다음 레이어로 정보를 전송할 수 있습니다.이 과정은 [7][21]가역성의 양자 연산 요건을 준수합니다.

이 양자 피드 포워드 네트워크를 이용하여 심층 신경망을 효율적으로 실행하고 훈련할 수 있습니다.심층 뉴럴 네트워크는 기본적으로 위의 샘플모델 뉴럴네트워크에서 볼 수 있듯이 많은 숨겨진 레이어를 가진 네트워크입니다.논의되고 있는 양자 신경망은 팬아웃 유니터리 연산자를 이용하며, 각 연산자는 각각의 입력에 대해서만 작용하므로, 주어진 시간에 [6]2개의 레이어만 사용됩니다.즉, 어떤 유니터리 연산자도 특정 시간에 네트워크 전체에 작용하지 않습니다.즉, 특정 스텝에 필요한 큐비트 수는 특정 레이어 내의 입력 수에 따라 달라집니다.Quantum Computer는 단시간에 여러 번 반복을 실행하는 능력으로 악명이 높기 때문에 양자 신경망의 효율은 [21]네트워크의 깊이가 아니라 특정 계층의 큐비트 수에 의존합니다.

비용 함수

뉴럴 네트워크의 효과를 결정하기 위해, 기본적으로 예상 또는 원하는 출력에 대한 네트워크 출력의 근접성을 측정하는 비용 함수를 사용한다.는 고전한 신경망에서는 역기를과 편향된 내용들 각각의 단계에서(b{\displaystyle b})은 비용 함수 C(w, b){C(w,b)\displaystyle}.[6] 때 고전한 네트워크 훈련의 승패를 좌우하(ww{\displaystyle}), 중량과 편견을 반복할 때마다 끝나고 방정식 아래, 1 주어진 조정된다. ( ) { y ( ) () { a^ { \ { } (x )는 실제 출력입니다.비용 함수는C ( ,) \ C ( , ) 때 최적화됩니다.양자신경망의 경우 비용함수는 아래 식 2에서 보듯이 원하는 결과상태( {\ out \ \^{\와 결과상태( out \ \textout})의 충실도를 측정하여 구한다.이 경우 반복할 때마다 유니터리 연산자가 조정되고 C = [6]1일 때 비용 함수가 최적화됩니다.

식 1 ( ,b )     y () - out ( ) \ C ( , b ) = { \  N } \ _ { } { ( ) -  { \ text { } () \2 }
식 2    N   N⟨ out  out out   out   out {\ {\ {\ {\  {\ 、 {  C = { \ N } \ _ { }^{ } { \ \ ^ { \ text } } \ ^{ \ phi } ^ { \  } ^ { \ phi }  \ phi } } } }  

「 」를 참조해 주세요.

레퍼런스

  1. ^ Kak, S. (1995). "On quantum neural computing". Advances in Imaging and Electron Physics. 94: 259–313. doi:10.1016/S1076-5670(08)70147-2. ISBN 9780120147366.
  2. ^ Chrisley, R. (1995). "Quantum Learning". In Pylkkänen, P.; Pylkkö, P. (eds.). New directions in cognitive science: Proceedings of the international symposium, Saariselka, 4–9 August 1995, Lapland, Finland. Helsinki: Finnish Association of Artificial Intelligence. pp. 77–89. ISBN 951-22-2645-6.
  3. ^ da Silva, Adenilton J.; Ludermir, Teresa B.; de Oliveira, Wilson R. (2016). "Quantum perceptron over a field and neural network architecture selection in a quantum computer". Neural Networks. 76: 55–64. arXiv:1602.00709. Bibcode:2016arXiv160200709D. doi:10.1016/j.neunet.2016.01.002. PMID 26878722. S2CID 15381014.
  4. ^ Panella, Massimo; Martinelli, Giuseppe (2011). "Neural networks with quantum architecture and quantum learning". International Journal of Circuit Theory and Applications. 39: 61–77. doi:10.1002/cta.619. S2CID 3791858.
  5. ^ Schuld, M.; Sinayskiy, I.; Petruccione, F. (2014). "The quest for a Quantum Neural Network". Quantum Information Processing. 13 (11): 2567–2586. arXiv:1408.7005. Bibcode:2014QuIP...13.2567S. doi:10.1007/s11128-014-0809-8. S2CID 37238534.
  6. ^ a b c d e f Beer, Kerstin; Bondarenko, Dmytro; Farrelly, Terry; Osborne, Tobias J.; Salzmann, Robert; Scheiermann, Daniel; Wolf, Ramona (2020-02-10). "Training deep quantum neural networks". Nature Communications. 11 (1): 808. arXiv:1902.10445. Bibcode:2020NatCo..11..808B. doi:10.1038/s41467-020-14454-2. ISSN 2041-1723. PMC 7010779. PMID 32041956.
  7. ^ a b c d Wan, Kwok-Ho; Dahlsten, Oscar; Kristjansson, Hler; Gardner, Robert; Kim, Myungshik (2017). "Quantum generalisation of feedforward neural networks". NPJ Quantum Information. 3: 36. arXiv:1612.01045. Bibcode:2017npjQI...3...36W. doi:10.1038/s41534-017-0032-4. S2CID 51685660.
  8. ^ Perus, M. (2000). "Neural Networks as a basis for quantum associative memory". Neural Network World. 10 (6): 1001. CiteSeerX 10.1.1.106.4583.
  9. ^ Zak, M.; Williams, C. P. (1998). "Quantum Neural Nets". International Journal of Theoretical Physics. 37 (2): 651–684. doi:10.1023/A:1026656110699. S2CID 55783801.
  10. ^ Gupta, Sanjay; Zia, R.K.P. (2001). "Quantum Neural Networks". Journal of Computer and System Sciences. 63 (3): 355–383. arXiv:quant-ph/0201144. doi:10.1006/jcss.2001.1769. S2CID 206569020.
  11. ^ Faber, J.; Giraldi, G. A. (2002). "Quantum Models for Artificial Neural Network" (PDF). {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)
  12. ^ Schuld, M.; Sinayskiy, I.; Petruccione, F. (2014). "Simulating a perceptron on a quantum computer". Physics Letters A. 379 (7): 660–663. arXiv:1412.3635. doi:10.1016/j.physleta.2014.11.061. S2CID 14288234.
  13. ^ Narayanan, A.; Menneer, T. (2000). "Quantum artificial neural network architectures and components". Information Sciences. 128 (3–4): 231–255. doi:10.1016/S0020-0255(00)00055-4.
  14. ^ Ghosh, S.; Opala, A.; Matuszewski, M.; Paterek, P.; Liew, T. C. H. (2019). "Quantum reservoir processing". NPJ Quantum Information. 5: 35. arXiv:1811.10335. Bibcode:2019npjQI...5...35G. doi:10.1038/s41534-019-0149-8. S2CID 119197635.
  15. ^ Neven, H.; et al. (2008). "Training a Binary Classifier with the Quantum Adiabatic Algorithm". arXiv:0811.0416. {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)
  16. ^ Bang, J.; et al. (2014). "A strategy for quantum algorithm design assisted by machine learning". New Journal of Physics. 16 (7): 073017. arXiv:1301.1132. Bibcode:2014NJPh...16g3017B. doi:10.1088/1367-2630/16/7/073017. S2CID 55377982.
  17. ^ Behrman, E. C.; Steck, J. E.; Kumar, P.; Walsh, K. A. (2008). "Quantum Algorithm design using dynamic learning". Quantum Information and Computation. 8 (1–2): 12–29. arXiv:0808.1558. doi:10.26421/QIC8.1-2-2. S2CID 18587557.
  18. ^ Ventura, D.; Martinez, T. (1999). "A quantum associative memory based on Grover's algorithm" (PDF). Proceedings of the International Conference on Artificial Neural Networks and Genetics Algorithms: 22–27. doi:10.1007/978-3-7091-6384-9_5. ISBN 978-3-211-83364-3. S2CID 3258510. Archived from the original (PDF) on 2017-09-11.
  19. ^ Purushothaman, G.; Karayiannis, N. (1997). "Quantum Neural Networks (QNN's): Inherently Fuzzy Feedforward Neural Networks" (PDF). IEEE Transactions on Neural Networks. 8 (3): 679–93. doi:10.1109/72.572106. PMID 18255670. S2CID 1634670. Archived from the original (PDF) on 2017-09-11.
  20. ^ Nielsen, Michael A; Chuang, Isaac L (2010). Quantum computation and quantum information. Cambridge; New York: Cambridge University Press. ISBN 978-1-107-00217-3. OCLC 665137861.
  21. ^ a b Feynman, Richard P. (1986-06-01). "Quantum mechanical computers". Foundations of Physics. 16 (6): 507–531. Bibcode:1986FoPh...16..507F. doi:10.1007/BF01886518. ISSN 1572-9516. S2CID 122076550.

외부 링크