신경망

Neural network

신경망뉴런이라고 불리는 상호 연결된 단위들의 그룹으로 서로 신호를 보냅니다. 뉴런은 생물학적 세포 또는 수학적 모델이 될 수 있습니다. 개별 뉴런은 간단하지만 네트워크에서 함께 많은 뉴런이 복잡한 작업을 수행할 수 있습니다. 신경망에는 크게 두 가지 유형이 있습니다.

생물학적 신경망

생쥐 선조체의 생물학적 신경 네트워크 일부에 대한 애니메이션 공초점 현미경 사진

생물학적 신경망은 시냅스에 의해 서로 화학적으로 연결된 생물학적 뉴런의 집단입니다. 주어진 뉴런은 수십만 개의 시냅스에 연결될 수 있습니다.[1] 각각의 뉴런은 연결된 이웃들에게 활동전위라고 불리는 전기화학적 신호를 주고 받습니다. 뉴런은 수신한 신호를 증폭하고 전파하는 흥분적인 역할을 하거나 신호를 억제하는 억제적인 역할을 할 수 있습니다.[1]

신경망보다 작은 상호 연결된 뉴런의 집단을 신경 회로라고 합니다. 매우 큰 상호 연결된 네트워크를 대규모 네트워크라고 하며, 이들 중 많은 부분이 함께 뇌와 신경계를 형성합니다.

뇌에서 신경망에 의해 생성된 신호는 결국 신경계를 거쳐 근육세포로 가는 신경근육 접합부를 통과하여 수축과 운동을 일으킵니다.[2]

인공신경망

간단한 피드포워드 인공신경망 도식화

인공 신경망은 비선형 함수를 근사화하는 데 사용되는 수학적 모델입니다. 초기의 인공 신경망이 물리적 기계였다면,[3] 오늘날은 거의 항상 소프트웨어로 구현됩니다.

인공 신경망의 뉴런은 일반적으로 층으로 배열되며, 정보는 제1 층(입력 층)에서 하나 이상의 중간 층(숨겨진 층)을 거쳐 최종 층(출력 층)으로 전달됩니다.[4] 각 뉴런에 입력되는 "신호"는 숫자, 구체적으로 이전 레이어에서 연결된 뉴런의 출력의 선형 조합입니다. 각 뉴런이 출력하는 신호는 활성화 함수에 따라 이 숫자에서 계산됩니다. 네트워크의 동작은 뉴런 간 연결의 강도(또는 가중치)에 따라 달라집니다. 네트워크는 일부 기존 데이터 세트에 맞게 경험적 위험 최소화 또는 역전파를 통해 이러한 가중치를 수정하여 학습됩니다.[5]

신경망은 인공 지능의 문제를 해결하는 데 사용되며, 예측 모델링, 적응형 제어, 얼굴 인식, 필기 인식, 일반 게임 플레이생성 AI를 포함한 많은 분야에서 응용 분야를 찾았습니다.

역사

현대 신경망의 이론적 기반은 1873년[6] 알렉산더 베인과 1890년 윌리엄 제임스에 의해 독립적으로 제안되었습니다.[7] 둘 다 인간의 생각이 뇌 안에 있는 많은 신경세포들 사이의 상호작용에서 나왔다고 가정했습니다. 1949년 도널드 헵(Donald Hebb)은 신호가 시냅스를 따라 이동할 때마다 시냅스를 강화하여 신경망이 시간이 지남에 따라 변화하고 학습할 수 있다는 아이디어인 Hebbian learning에 대해 설명했습니다.[8]

인공신경망은 원래 1930년대부터 연결주의의 접근 방식으로 생물학적 신경망을 모델링하는 데 사용되었습니다. 하지만 1943년 워렌 맥컬록월터 피츠버그에 의해 간단한 인공신경망인 퍼셉트론이 발명된 [9]것을 시작으로 1957년 프랭크 로젠블랫에 의해 하드웨어로 구현된 것을 시작으로 [3]인공신경망은 기계학습 응용에 점점 더 많이 사용되었습니다. 그리고 생물학적 대응물과 점점 더 다릅니다.

참고 항목

참고문헌

  1. ^ a b Shao, Feng; Shen, Zheng (9 January 2022). "How can artificial neural networks approximate the brain?". Front Psychol. 13: 970214. doi:10.3389/fpsyg.2022.970214. PMC 9868316. PMID 36698593.
  2. ^ Levitan, Irwin; Kaczmarek, Leonard (August 19, 2015). "Intercellular communication". The Neuron: Cell and Molecular Biology (4th ed.). New York, NY: Oxford University Press. pp. 153–328. ISBN 978-0199773893.
  3. ^ a b Rosenblatt, F. (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain". Psychological Review. 65 (6): 386–408. CiteSeerX 10.1.1.588.3775. doi:10.1037/h0042519. PMID 13602029. S2CID 12781225.
  4. ^ Bishop, Christopher M. (2006-08-17). Pattern Recognition and Machine Learning. New York: Springer. ISBN 978-0-387-31073-2.
  5. ^ Vapnik, Vladimir N.; Vapnik, Vladimir Naumovich (1998). The nature of statistical learning theory (Corrected 2nd print. ed.). New York Berlin Heidelberg: Springer. ISBN 978-0-387-94559-0.
  6. ^ Bain (1873). Mind and Body: The Theories of Their Relation. New York: D. Appleton and Company.
  7. ^ James (1890). The Principles of Psychology. New York: H. Holt and Company.
  8. ^ Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley & Sons.
  9. ^ McCulloch, W; Pitts, W (1943). "A Logical Calculus of Ideas Immanent in Nervous Activity". Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259.