전수학습

Transfer learning

TL(Transfer Learning, TL)은 기계학습(ML)[1]의 연구 문제로, 하나의 문제를 풀면서 습득한 지식을 저장해 다른 문제지만 관련 문제에 적용하는 데 초점을 맞춘다.예를 들어, 자동차를 인식하는 법을 배우면서 얻은 지식은 트럭을 인식하려고 할 때 적용될 수 있다.이 연구 영역은 두 분야 간의 실질적인 유대는 제한되어 있지만, 학문의 이전과 관련한 심리 문학의 오랜 역사와 어느 정도 관련이 있다.실무적인 관점에서, 새로운 과제의 학습을 위해 이전에 학습한 과제의 정보를 재사용하거나 이전하는 것은 강화 학습 요원의 표본 효율을 크게 향상시킬 수 있는 잠재력을 가지고 있다.[2]null

역사

1976년 스테보 보지노프스키와 안테 풀고시는 신경망 훈련에서 전이 학습을 명시적으로 다룬 논문을 발표했다.[3][4]그 논문은 전수학습의 수학적, 기하학적 모델을 제시한다.1981년, 컴퓨터 단말의 문자를 나타내는 이미지 데이터 집합에 신경 네트워크를 훈련시키는 데 있어서 전송 학습의 적용에 관한 보고서가 주어졌다.양성과 음의 전이 학습 모두 실험적으로 입증되었다.[5]null

1993년 로리엔 프랫은 기계학습에서 전이에 관한 논문을 발표하여 차별성 기반 전이(DBT) 알고리즘을 형성하였다.[6]null

1997년 프랫과 세바스찬 스룬의 게스트는 편입학 학습에 전념하는 머신러닝의 특별호를 편집하였으며,[7] 1998년경에는 이론적 기초에 대한 보다 공식적인 분석과 [8]함께 멀티태스킹 학습을 포함하기 위해 이 분야가 발전하였다.[9]스룬과 프랫이 편집한 [10]학습은 1998년 이 주제에 대한 복습이다.null

1996년 프랫도 이전을 통한 신경망 재사용에 관한 Connection Science 이슈를 게스트로 편집하는 등 전이학습이 인지과학에도 적용됐다.[11]null

앤드류 응은 NIPS 2016 튜토리얼에서 TL이 TL의 중요성을 강조하기 위해 감독된 학습 후 ML 상업적 성공의 다음 원동력이 될 것이라고 말했다.null

정의

전이학습의 정의는 영역과 과제의 관점에서 주어진다.A domain consists of: a feature space and a marginal probability distribution , where . Given a specific domain, , a task consists of two components: a label space and an objective predictive function . The function is used 새 인스턴스 해당 레이블 )을(를) 예측하는 방법This task, denoted by , is learned from the training data consisting of pairs , where and .[15]

Given a source domain and learning task , a target domain and learning task , where , or , transfer learning aims to help improve the learning of the target predictive function in using the know in S [15]

적용들

알고리즘은 마르코프 논리 네트워크[16] 베이지안 네트워크에서 전송 학습에 사용할 수 있다.[17]전이학습은 암 아형 발견,[18] 건물 활용,[19][20] 일반 게임 플레이,[21] 텍스트 분류,[22][23] 숫자 인식,[24] 의료 영상 및 스팸 필터링에도 적용됐다.[25]null

2020년에는 유사한 신체적 성질 때문에 뇌파(EEG) 뇌파의 행동을 몸짓 인식 영역에서 정신 상태 인식 영역으로 분류할 때 근육에서 나오는 전자파(EMG) 신호 간에 전달 학습이 가능하다는 것이 밝혀졌다.또한 EEG도 EMG를 추가로 분류하는 데 사용할 수 있음을 보여주면서 이러한 관계가 반대로 작용했다는 점에 주목하였다.[26]실험에서는 1기(표준 무작위 체중 분포와 비교한 모든 학습 이전)와 무증상(학습 과정의 종료)에서 모두 전이 학습을 통해 신경망경련 신경망의 정확도가 향상되었다는[27] 점에 주목했다.즉 알고리즘은 다른 영역에 노출됨으로써 개선된다.더욱이 사전 훈련된 모델의 최종 사용자는 완전하게 연결된 층의 구조를 변경하여 우수한 성능을 달성할 수 있다.[28]null

참고 항목

참조

  1. ^ West, Jeremy; Ventura, Dan; Warnick, Sean (2007). "Spring Research Presentation: A Theoretical Foundation for Inductive Transfer". Brigham Young University, College of Physical and Mathematical Sciences. Archived from the original on 2007-08-01. Retrieved 2007-08-05.
  2. ^ George Karimpanal, Thommen; Bouffanais, Roland (2019). "Self-organizing maps for storage and transfer of knowledge in reinforcement learning". Adaptive Behavior. 27 (2): 111–126. arXiv:1811.08318. doi:10.1177/1059712318818568. ISSN 1059-7123. S2CID 53774629.
  3. ^ 스테보. 보지노프스키와 안테 풀고시(1976년)."유래된 패턴 유사성과 이전 학습이 기본 심포지엄 B2의 훈련에 미치는 영향."(크로아티아어 원) 심포지엄 Informatica 3-121-5, Bled.
  4. ^ Stevo Bozinovski(2020) "신경망에서의 전이학습에 관한 첫 번째 논문, 1976년"Informatica 44: 291–302.
  5. ^ S. Bozinovski(1981년)."공간을 가르친다.적응형 패턴 분류를 위한 표현 개념." 코인스 기술 보고서, 애머스트 매사추세츠 대학교 81-28번 [온라인: UM-CS-1981-028.pdf]
  6. ^ Pratt, L. Y. (1993). "Discriminability-based transfer between neural networks" (PDF). NIPS Conference: Advances in Neural Information Processing Systems 5. Morgan Kaufmann Publishers. pp. 204–211.
  7. ^ Pratt, L. Y.; Thrun, Sebastian (July 1997). "Machine Learning - Special Issue on Inductive Transfer". link.springer.com. Springer. Retrieved 2017-08-10.
  8. ^ Caruana, R, "멀티태스크 학습", Thrun & Pratt 2012의 페이지 95-134
  9. ^ Baxter, J, "배움의 이론적 모델", 페이지 71-95 Thrun & Pratt 2012
  10. ^ Thrun & Pratt 2012.
  11. ^ Pratt, L. (1996). "Special Issue: Reuse of Neural Networks through Transfer". Connection Science. 8 (2). Retrieved 2017-08-10.
  12. ^ NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng, archived from the original on 2021-12-19, retrieved 2019-12-28
  13. ^ "NIPS 2016 Schedule". nips.cc. Retrieved 2019-12-28.
  14. ^ Deep Learning, 슬라이드를 사용한 AI 애플리케이션 구축의 너트 및 볼트
  15. ^ a b Lin, Yuan-Pin; Jung, Tzyy-Ping (27 June 2017). "Improving EEG-Based Emotion Classification Using Conditional Transfer Learning". Frontiers in Human Neuroscience. 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938. CC-BY icon.svg 자료는 이 출처에서 복사되었으며, Creative Commons Accountation 4.0 International License에 따라 이용할 수 있다.
  16. ^ Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (July 2007), "Mapping and Revising Markov Logic Networks for Transfer" (PDF), Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007), Vancouver, BC, pp. 608–614, retrieved 2007-08-05
  17. ^ Niculescu-Mizil, Alexandru; Caruana, Rich (March 21–24, 2007), "Inductive Transfer for Bayesian Network Structure Learning" (PDF), Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007), retrieved 2007-08-05
  18. ^ 하지라메자날리, E. & 다다데네, S. Z. & 카르발레이가레, A. & Zou, Z.& Qian, X. Bayesian 멀티 도메인 학습 차세대 시퀀싱 카운트 데이터에서 암 하위 유형 발견. 제32차 신경 정보 처리 시스템 컨퍼런스(NeurIPS 2018), 캐나다 몬트레알.arXiv:1810.09433
  19. ^ Arief-Ang, I.B.; Salim, F.D.; Hamilton, M. (2017-11-08). DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data. 4th ACM International Conference on Systems for Energy-Efficient Built Environments (BuildSys). Delft, Netherlands. pp. 1–10. doi:10.1145/3137133.3137146. ISBN 978-1-4503-5544-5.
  20. ^ Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (2018-12-01). "A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data". ACM Transactions on Sensor Networks. 14 (3–4): 21:1–21:28. doi:10.1145/3217214. S2CID 54066723.
  21. ^ 배너지, 비크람지트, 피터 스톤."지식전달을 이용한 일반 게임 학습"IJCAI. 2007.
  22. ^ Do, Chuong B.; Ng, Andrew Y. (2005). "Transfer learning for text classification". Neural Information Processing Systems Foundation, NIPS*2005 (PDF). Retrieved 2007-08-05.
  23. ^ Rajat, Raina; Ng, Andrew Y.; Koller, Daphne (2006). "Constructing Informative Priors using Transfer Learning". Twenty-third International Conference on Machine Learning (PDF). Retrieved 2007-08-05.
  24. ^ Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). "CNN based common approach to handwritten character recognition of multiple scripts". 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916. ISBN 978-1-4799-1805-8. S2CID 25739012.
  25. ^ Bickel, Steffen (2006). "ECML-PKDD Discovery Challenge 2006 Overview". ECML-PKDD Discovery Challenge Workshop (PDF). Retrieved 2007-08-05.
  26. ^ Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). "Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG". IEEE Access. Institute of Electrical and Electronics Engineers (IEEE). 8: 54789–54801. doi:10.1109/access.2020.2979074. ISSN 2169-3536.
  27. ^ Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). "CNN based common approach to handwritten character recognition of multiple scripts". 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916.
  28. ^ 카비르, H. M. 압다르, M. 잘랄리, S. M. J., 호스라비, A. A. F. 아티야, 나하반디, S. & S리니바산(20)척추망:점진적인 입력을 가진 깊은 신경망. arXiv 프리프린트 arXiv:2007.03347.

원천