온라인 머신 러닝

Online machine learning

컴퓨터 과학에서 온라인 머신 러닝은 전체 트레이닝 데이터 세트를 동시에 학습하여 최적의 프레딕터를 생성하는 배치 학습 기법과 달리 데이터가 순차적으로 사용 가능하게 되고 각 단계에서 미래의 데이터에 대한 최적의 프레딕터를 업데이트하는 기계 학습 방법이다.온라인 학습은 전체 데이터 세트에 대한 훈련이 계산적으로 불가능한 기계 학습 영역에서 사용되는 일반적인 기술이며, 코어 외 알고리즘이 필요합니다.또한 알고리즘이 데이터의 새로운 패턴에 동적으로 적응해야 하는 상황이나 주가 예측과 같이 데이터 자체가 시간의 함수로 생성되는 상황에도 사용된다.온라인 학습 알고리즘은 치명적인 간섭을 일으키기 쉬우며, 이는 증분 학습 접근방식으로 해결할 수 있는 문제입니다.

서론

지도 학습 설정에서는 f: (\ fY )의 를 학습합니다. 서 X X 입력의 이고Y (\Y)는 출력의 공간으로 간주되며, 이는 예를 들어 displaystyle Y)에서 도출되는 것을 잘 예측합니다. p X×(\ X Y에 해당됩니다. 실제로 학습자는 인스턴스에 대한 분포 p( 결코 알지 못합니다.대신, 학습자는 으로 교육용 예 ,1 ,( n , \ ( _ { , { )에 수 있습니다. 이 에서는 손실 함수는 : × { VY Y \ () ,y) { V ( ( , y ) } 、 예측값 () { f ( ) 、 y ( \ y)의 차이를 측정합니다.이상적인 목표는 함수 (H {\ 가설 공간이라고 하는 함수의 공간)를 선택하여 전체 손실의 개념을 최소화하는 것입니다.모델의 유형(통계적 또는 적대적)에 따라 상실의 다른 개념을 고안할 수 있으며, 이는 상이한 학습 알고리즘으로 이어진다.

온라인 학습 통계 뷰

통계적 학습 모델에서 훈련 샘플 {}, 실제 py { p에서 추출된 것으로 가정하며, 목표는 예상되는 "위험"을 최소화하는 것이다.

이 상황에서 공통적인 패러다임은 경험적 위험 최소화 또는 정규화된 경험적 위험 최소화(일반적으로 티코노프 정규화)를 통해 f 추정하는 것이다.여기서 손실 함수의 선택은 정규화된 최소 제곱 및 지원 벡터 기계와 같은 몇 가지 잘 알려진 학습 알고리즘을 발생시킨다.이 범주의 순수 온라인 모델은 새로운 입력t +, t + style 최고의 예측 {}}) 및 일부 추가 저장 정보(보통 교육 데이터 크기에 관계없이 저장 요구 사항이 있을 것으로 예상됨)만을 기반으로 학습합니다.예를 들어 비선형 커널 방식 등 많은 공식에서 진정한 온라인 학습은 불가능하지만 t+ 이전 데이터 포인트1, 할 수 있는 재귀 알고리즘을 사용한 하이브리드 온라인 학습 형식을 사용할 수 있습니다 ( , t) { style ( 1} , _ {1 ) , \, ( x { , y { t ) 。이 경우 이전의 모든 데이터 포인트를 저장해야 하므로 공간 요건은 일정하지 않지만 새로운 데이터 포인트를 추가하는 경우 배치 학습 기술에 비해 계산에는 시간이 적게 소요될 수 있습니다.

위의 문제를 극복하기 위한 일반적인 전략은 미니 배치를 사용하여 학습하는 것입니다. 미니 배치는 한 번에소량의 포인트를 처리하는 것으로, 이는 총 교육 포인트 수보다 훨씬 적은 b b 의사 온라인 학습으로 간주할 수 있습니다.미니 배치 기법은 예를 들어 확률적 경사 하강과 같은 기계 학습 알고리즘의 최적화된 코어[clarification needed] 외 버전을 얻기 위해 훈련 데이터를 반복적으로 전달하는 것과 함께 사용된다.역전파와 결합하면 현재 인공신경망을 양성하기 위한 사실상의 훈련방법이다.

예제: 선형 최소 제곱

선형 최소 제곱의 간단한 예는 온라인 학습에서 다양한 아이디어를 설명하는 데 사용됩니다.아이디어는 예를 들어 다른 볼록 손실 함수와 같은 다른 설정에 적용될 수 있을 정도로 충분히 일반적입니다.

배치 학습

f{\ f 학습해야 할 선형 함수인 감독 학습 설정을 고려하십시오.

서 x j R \ 입력(데이터 포인트)의 이고 w d\ w^ { 선형 필터 벡터입니다.필터 를 ww로 계산하는 것이 목표입니다. 이를 위해 제곱 손실 함수

경험적 손실을 최소화하는 ww를 계산하는 데 사용됩니다.

어디에

{ R \ y_{\ \ { R

X Xi ×(\ i d 매트릭스, yi})를 번째i(\i) 데이터 포인트 도착 후의 목표값 열 벡터라고 합니다.공분산 행렬 i ({ _}= 가역행렬이라고 가정할 때(따라서 티코노프 정규화를 유사한 방식으로 진행하는 것이 선호됨), fδ () f ()에 의해 주어집니다.

__{

이제 공분산 행렬 x j { _ _{}^{}^{{j}^{T는) 시간O( d2 { { d d 반전하면 O( dtimes d가 소요되며 나머지 곱셈에는 O O{2가 소요되며 총 시간 d)가 소요됩니다. O 데이터 세트에n개의 \ 총점이 경우(\ i의 도착 후 솔루션을 재계산하려면 순진한 접근법은 총 O + 3가 됩니다.when storing the matrix , then updating it at each step needs only adding O O시간이 총 시간은 O + ) O되지만 O 2의 추가 저장 공간이

온라인 학습: 재귀 최소 제곱

재귀 최소 제곱(RLS) 알고리즘은 최소 제곱 문제에 대한 온라인 접근 방식을 고려합니다. 0 R \ { 0 } \ \ } ^ { } { 0 R ×d \ _ { 0 d 。이전 섹션에서 설명한 선형 최소 제곱 문제의 해법은 다음과 같은 반복으로 계산할 수 있습니다.

위의 반복 알고리즘은 i[2]인덕션을 사용하여 증명할 수 있습니다.이 증명은 또한 i i - { \ _ { i } = \ _ { }^{ - 이며, RLS는 적응형 필터의 맥락에서 볼 수도 있습니다(RLS 참조).

이 알고리즘의n개의 \n 스텝의 는 O O로 대응하는 배치 학습 복잡도보다 훨씬 빠릅니다.서의 각 의 스토리지 요건은 O( )( \ _ {)에서 일정하게 행렬 i( \ \ Sigma _ { } )를 저장하는 것입니다.\ \ _ { } 가 반전할 수 없는 경우, funced version의 일반적인 문제를 고려하십시오.tion j ( j - ) + 2( \ _ { j=x_{ 그러면 동일한 알고리즘이 0 (+ I - \} = (I I1 에서 하고 있음을 쉽게 알 수 있습니다.

확률적 경사 강하

이럴 때

에 의해 대체됩니다.

또는 i d× \ \ _ { } \ \ } ^ { \ d by i R\ \_ { } \ \ { 이것이 확률적 경사 하강 알고리즘이 됩니다.이 경우 이 알고리즘의 n개의 n 복잡도는 O O로 감소합니다. 에서의 스토리지요건은 ( ) { O ( )

단, 위와 같이 예상되는 리스크 최소화 문제를 해결하기 위해서는 스텝사이즈 i \ _ 신중하게 선택해야 합니다.감쇠 단계 i i 1i, \ _ { i } \ {\ \ { } { \ { } { \ { } } n w i = { } = { 1} { frac { displaysty } } } } } 이 설정은 확률적 최적화의 특수한 경우로,[1] 최적화의 잘 알려진 문제입니다.

증분 확률적 경사 강하

실제로는 데이터에 대해 복수의 확률적 경사 패스(사이클 또는 에폭이라고도 함)를 수행할 수 있습니다.이렇게 얻은 알고리즘은 증분 구배법이라고 불리며 반복에 대응한다.

확률적 구배법의 주된 차이점은 ii-step에서 할 훈련 포인트를 결정하기 위해 선택한다는 것이다.그러한 순서는 확률적일 수도 있고 결정적일 수도 있다.그런 다음 반복 횟수가 포인트 수로 분리됩니다(각 포인트는 두 번 이상 고려될 수 있습니다).증분 경사 방법은 경험적 [3]위험에 대한 최소화를 제공하는 것으로 나타날 수 있다.증분 기법은 많은 용어의 합으로 구성된 객관적 함수를 고려할 때 유리할 수 있다. 예를 들어 매우 큰 데이터 [1]세트에 해당하는 경험적 오류이다.

커널 방식

커널을 사용하여 위의 알고리즘을 비파라미터 모델(또는 파라미터가 무한 차원 공간을 형성하는 모델)로 확장할 수 있습니다.대응하는 순서는 더 이상 진정한 온라인 상태가 아니라 모든 데이터 포인트를 저장해야 하지만 여전히 brute force 방식보다 빠릅니다.이 논의는 볼록 손실까지 확장될 수 있지만 제곱 손실의 경우로 제한됩니다.xisplaystyle })가 데이터 이고 xisplaystyle })가 SGD 알고리즘의 i i 단계 의 출력이라는 을 쉽게 알 수 있습니다.

서 c i ( c ) , ( i ),., ( ) R \ _ { i } ( ( { ) { } _ {2} , ( c { ) { } \ \ { } } 。

i ) ( i - ) , , 2,., - ( c { { style ( c { i - 1 ) { } _ { , j = 1, 2, i - } 、

x , i { \ _ { , _ { } \ }는 Rd \ \{ ^ { }의 표준 커널이며 프레딕터는 다음과 같습니다.

i ( ) i - , 1 - ( - ) \ { } ( x ) = \ _ { ^{ ( c - )

대신 일반 K(\ K 도입되어 프레딕터가

그리고 같은 증거는 또한 최소 제곱 손실을 최소화하는 예측 변수가 위의 재귀로 변경됨으로써 얻어진다는 것을 보여줄 것이다.

위의 식에서는 업데이트를 모든 데이터를 저장해야 합니다. n -번째 데이터 포인트의 평가 시 재귀의 총 복잡도는 O O입니다.k(\ k 단일 포인트 [1]쌍으로 커널을 평가하는 비용입니다.따라서 커널의 사용은 의 공간에서 재귀(recursive)를 수행하는 대신 K로 표현되는 유한 치수 파라미터 ^{d에서 K {\ K 이동하는 것을 가능하게 했다. \c_{in i}. 치수는 트레이닝 데이터 세트의 크기와 동일합니다일반적으로 이것은 대표자 [1]정리의 결과이다.

온라인 볼록 최적화

온라인 볼록 최적화(OCO)는 효율적인 알고리즘을 가능하게 하기 위해 볼록 최적화를 활용하는 의사 결정을 위한 일반적인 프레임워크입니다.이 프레임워크는 다음과 같이 반복 게임을 하는 것이다.

t ,, { t, 의 경우

  • 학습자가 t를 수신합니다.
  • 학습자가 고정 볼록 S S에서 displaystyle }를 합니다.
  • 자연은 볼록 손실 t:
  • 학습자가 v ( t) { _ { } ( _ { } )를 경험하고 모델을 업데이트합니다.

는 후회, 즉 누적 손실과 손실의 차이를 최소화하는 예를 들어 온라인 최소 제곱 선형 회귀 분석의 경우를 고려해 보십시오.여기서 무게 벡터는 볼록 S \ S = \ { } ^ { } 、 nature (w , - ) (\ v { } = ( \ , } \ } )^{ { t } )로부터 반환한다. t{ v _ { } 。

그러나 일부 온라인 예측 문제는 OCO 프레임워크에 맞지 않는다.예를 들어 온라인 분류에서 예측 영역과 손실 함수는 볼록하지 않다.그러한 시나리오에서는 볼록화를 위한 두 가지 간단한 기법, 즉 무작위화와 대리 손실[citation needed] 함수를 사용한다.

간단한 온라인 볼록 최적화 알고리즘은 다음과 같다.

리더에 따르기(FTL)

가장 간단한 학습 규칙은 (현재 단계에서) 과거 모든 라운드에서 손실이 가장 적은 가설을 선택하는 것입니다.이 알고리즘은 Follow the leader라고 불리며 다음과 같이 간단히 tt로 표시됩니다.

따라서 이 방법은 탐욕 알고리즘으로 간주될 수 있습니다.온라인 2차 최적화(손실함수가 t ( ) - 2 2 ( w ) =w - x { } _ { {t } _ { 2})의 경우, 로그 (T \ ( T)log imp imp imp imp for for for for for for for for for for for for for for for for for for for for for for for for for for for for for for for for that that that that that that that that that that that that that that for that that that that that that for for for for for for for log log for for for for that that that that that온라인 선형 최적화와 같은 모델 제품군입니다.그러기 위해서는 정규화를 추가하여 FTL을 변경합니다.

정규화된 리더(FTRL)를 따릅니다.

이는 FTL 솔루션을 안정화하고 더 나은 후회 경계를 얻기 위해 사용되는 FTL의 자연스러운 수정입니다. R : S {\ R를) 선택하고 다음과 같이 라운드 t에서 학습을 수행합니다.

특별한 예로서 온라인 선형 최적화의 예를 들어, 자연이 v (w ) = , { _ { } = \ w , z { } \ 의 손실 함수를 반송한다고 합니다.또, S d{ S = \ } { d { display { d }} { display st} 。 ({ (w ) ={ } { \ eta }} _ { } { { 2 } chosen chosen chosen chosen 그러면 후회를 최소화하는 반복이 되는 것을 알 수 있습니다.

이 값은 + t - t ( t)\1}=eta \v_{t로 고쳐 쓸 수 있습니다.이것은 온라인 구배 강하와 매우 유사합니다.

대신 S가 R 의 볼록 부분 공간인 경우 S를 투영해야 하므로 업데이트 규칙이 변경됩니다.

이 알고리즘은 t+ _이 구배를 누적하기 때문에 느린 투영이라고 불립니다.네스테로프의 이중 평균 알고리즘이라고도 합니다.선형 손실 함수 및 2차 정규화의 이 시나리오에서는 후회는 O()(\ O에 의해 되며, 따라서 평균 후회는 원하는 대로 0이 됩니다.

온라인 경사하강(OSD)

상기 선형 손실 v (w ) , \ _ { } = \ w , z { 알고리즘을 볼록 손실 함수로 일반화하려면 , () \ ( { t } { _ { } wv t { }에 근사값으로, 온라인 준구배 강하 알고리즘으로 이어집니다.

1 { ,_ {1} =} 을 초기화합니다.

t ,, { t, 의 경우

  • 를 사용하여 하고 자연에서 수신합니다.
  • t t ( )\ \ \ 합니다.
  • S d\ S = \^{ + - zt { w { + 1 } _ { t } - \ z { t } 로 합니다.
  • S d\ S \ \ } ^{, 누적 그라데이션이S { S}에 투영됩니다. + S( t + + t+ + + \ t \ t { \ t + t + t + t1 } } } }

OSD 알고리즘을 사용하여 분류용 온라인 버전의 SVM에 대한 O( ) ( \ { ) 후회 경계를 할 수 있습니다. 여기서 힌지 v ( ) { , - ( 0 - ) { _ { t}= max { 1 . 0 . stylash }

기타 알고리즘

직교적으로 정규화된 FTRL 알고리즘은 위에서 설명한 것처럼 느릿느릿하게 투영된 경사 알고리즘으로 이어집니다.임의의 볼록함수 및 정규자를 위해 위 사항을 사용하려면 온라인 미러 강하를 사용한다.선형 손실 함수에 대해 나중에 최적의 정규화를 도출할 수 있으며, 이는 AdaGrad 알고리즘으로 이어진다.유클리드 정규화의 경우 O( ) \ O ( { \ { }} )의 후회 를 나타낼 수 있으며, 이는 O( T) \ O ( \ T)로 더욱 개선될 수 있다.

계속적인 학습

연속학습이란 연속적인 [5]정보 스트림을 처리함으로써 학습된 모델을 지속적으로 개선하는 것을 의미한다.끊임없이 변화하는 현실 세계에서 상호작용하는 소프트웨어 시스템과 자율 에이전트에 지속적인 학습 기능이 필수적입니다.그러나 비정상 데이터 분포에서 점진적으로 사용 가능한 정보를 지속적으로 획득하면 일반적으로 치명적인 망각으로 이어지기 때문에 지속적인 학습은 기계 학습과 뉴럴 네트워크 모델의 과제이다.

온라인 학습의 해석

온라인 학습의 패러다임은 학습 모델의 선택에 따라 해석이 다르며, 각 (\ f_}) 순서의 예측 품질에 대해 명확한 의미를 갖는다.이 논의에는 프로토타입 확률적 경사 강하 알고리즘이 사용된다.위에서 설명한 바와 같이 그 재귀는 다음과 같습니다.

첫 번째 해석은 확률적 경사 강하법을 [6]위에서 정의한 기대 I [ \ I [ ]의 최소화 문제에 적용하는 것으로 간주한다.실제로 무한 데이터 스트림의 경우(, y (2, y (x ({2}), \ldots (x, )의 p, y )에서 도출된 것으로 됩니다의 반복에서cdot )는 예상 I [ \ I [ ] \ I[ } } method } method } } } } } } } of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of of { \ w^ { \ is、 I [ I [ w[7]의 최소값입니다.이 해석은 또한 유한 훈련 세트의 경우에도 유효하다. 데이터를 통과하는 다중 경로로 구배는 더 이상 독립적이지 않지만 특별한 경우에는 여전히 복잡성 결과를 얻을 수 있다.

두 번째 해석은 유한 훈련 세트의 경우에 적용되며 SGD 알고리즘을 증분 경사 강하 방법의 [3]인스턴스로 간주한다.이 경우 대신 경험적 위험을 살펴봅니다.

증분 경사 강하 반복에서 V( , ) { V ( \, \ )}의 경사도 역시 I [ \ 의 확률적 추정치이므로, 이 해석은 확률적 경사 강하법과도 관련이 있으나 경험적 위험을 최소화하기 위해 적용된다.예상되는 리스크에 대응합니다.이 해석은 예상 위험이 아닌 경험적 위험과 관련이 있으므로 데이터를 통과하는 다중 통과가 쉽게 허용되며 실제로 에 대한 경계가 엄격해집니다 - {n [ - - {} - I_{n} w_style w_n (w_n는 I n[ 의 최소값입니다.

실장

  • 서약팔 와빗:오픈 소스 고속 코어 외 온라인 학습 시스템. 많은 기계 학습 감소, 중요도 가중치 부여 및 다양한 손실 기능 및 최적화 알고리즘의 선택을 지원하는 것으로 주목됩니다.해싱 트릭을 사용하여 훈련 데이터의 양에 관계없이 피쳐 세트의 크기를 제한합니다.
  • skikit-learn: 알고리즘의 핵심 외 구현을 제공합니다.

「 」를 참조해 주세요.

학습 패러다임

일반적인 알고리즘

학습 모델

레퍼런스

  1. ^ a b c d e f g L. Rosasco, T. Poggio, 기계학습: 정규화 접근법, MIT-9.520 강의 노트, Moscript, 2015년 12월.7장 - 온라인 학습
  2. ^ Yin, Harold J. Kushner, G. George (2003). Stochastic approximation and recursive algorithms and applications (Second ed.). New York: Springer. pp. 8–12. ISBN 978-0-387-21769-7.
  3. ^ a b Bertsekas, D. P. (2011년)볼록 최적화를 위한 증분 구배, 하위 구배 및 근위법: 조사.기계 학습을 위한 최적화, 85.
  4. ^ Hazan, Elad (2015). Introduction to Online Convex Optimization (PDF). Foundations and Trends in Optimization.
  5. ^ Parisi, German I.; Kemker, Ronald; Part, Jose L.; Kanan, Christopher; Wermter, Stefan (2019). "Continual lifelong learning with neural networks: A review". Neural Networks. 113: 54–71. arXiv:1802.07569. doi:10.1016/j.neunet.2019.01.012. ISSN 0893-6080.
  6. ^ Bottou, Léon (1998). "Online Algorithms and Stochastic Approximations". Online Learning and Neural Networks. Cambridge University Press. ISBN 978-0-521-65263-6.
  7. ^ 확률 근사 알고리즘 및 응용 프로그램, Harold J. Kushner 및 G.조지 인, 뉴욕: 스프링거-벨락, 1997년.ISBN 0-387-94916-X; 제2판, 2003, ISBN 0-387-00894-2.

외부 링크