학습 곡선(기계 학습)
Learning curve (machine learning)![]() | 이 글은 주제를 잘 모르는 사람들에게 불충분한 맥락을 제공한다.. (2019년 3월) (이 를 더 하여 할 수 |
다음에 대한 시리즈 일부 |
머신러닝 및 데이터 마이닝 |
---|
![]() |
머신러닝에서 학습 곡선(또는 훈련 곡선)은 최적의 함수를 생성하는 것과 동일한 매개변수로 검증 데이터 집합에서 평가한 이 손실 함수에 대한 훈련 세트에 대한 모델의 손실 함수의 최적 값을 나타낸다.훈련 데이터를 더 추가하면 기계 모델이 얼마나 이득인지, 추정자가 분산 오류나 치우침 오류로 더 고통받는지를 알아보는 도구다.검증 점수와 훈련 점수가 모두 훈련 세트의 크기가 증가하면서 너무 낮은 값으로 수렴될 경우, 더 많은 훈련 데이터로부터 큰 이익을 얻지 못할 것이다.[1]
머신러닝 곡선은 다양한 알고리즘 비교,[2] 설계 중 모델 파라미터 선택,[3] 수렴 개선을 위한 최적화 조정, 훈련에 사용되는 데이터 양 결정 등 여러 목적에 유용하다.[4]
머신러닝 영역에서는 학습에 사용되는 훈련 사례의 수 또는 모델을 훈련하는 데 사용되는 반복 횟수로 그래프로 표시된 모델의 경험과 함께 커브의 x축에서 다른 학습 곡선의 두 가지 의미가 있다.[5]
형식 정의
기계학습의 한 모델은 기능인 f(x)를 생성하는 것인데, x는 훈련 데이터 와 에서 약간의 변수를 예측한다 f가 예측해야 하기 때문에 수학적 최적화와는 구별된다. 이외의 x {\ x에 웰.
우리는 종종 가능한 기능을 매개 변수화된 기능 계열로 제한한다 { ( x) : \ }} 은는) 우리의 기능이 좀 더 일반화될[6] 수 있도록 함수에 한 f 을(를) 쉽게 찾을 수 있는 것과 같은 특정 속성이 있거나 이러한 속성이 사실이라고 생각하는 사전적 이유가 있기 때문이다.[6]: 172
데이터를 완벽하게 적합시키는 함수를 생산할 수 없다는 점을 감안하여 손실 L () , ))을 생성할 필요가 있다우리의 예측이 얼마나 좋은지 측정하기 위해 '그런 다음 ( Y 을 최소화하는 을(를) 찾는 최적화 프로세스를 정의하여 θ ( ,Y) 을(를)
데이터 양에 대한 교육 곡선
Then if our training data is and our validation data is 학습 곡선은 두 곡선의 플롯이다.
여기서 ={ , 2,…
반복 횟수에 대한 교육 곡선
많은 최적화 프로세스는 반복적이며 공정이 최적의 값으로 수렴될 때까지 동일한 단계를 반복한다.그라데이션 강도는 그러한 알고리즘 중 하나이다. step 후 최적 의 근사치로 i를 정의하면 학습 곡선이 다음 그림이다.
참고 항목
참조
- ^ scikit-learn developers. "Validation curves: plotting scores to evaluate models — scikit-learn 0.20.2 documentation". Retrieved February 15, 2019.
- ^ Madhavan, P.G. (1997). "A New Recurrent Neural Network Learning Algorithm for Time Series Prediction" (PDF). Journal of Intelligent Systems. p. 113 Fig. 3.
- ^ "Machine Learning 102: Practical Advice". Tutorial: Machine Learning for Astronomy with Scikit-learn.
- ^ Meek, Christopher; Thiesson, Bo; Heckerman, David (Summer 2002). "The Learning-Curve Sampling Method Applied to Model-Based Clustering". Journal of Machine Learning Research. 2 (3): 397. Archived from the original on 2013-07-15.
- ^ Sammut, Claude; Webb, Geoffrey I. (Eds.) (28 March 2011). Encyclopedia of Machine Learning (1st ed.). Springer. p. 578. ISBN 978-0-387-30768-8.
- ^ a b Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016-11-18). Deep Learning. MIT Press. p. 108. ISBN 978-0-262-03561-3.