이 항목에 대한 자세한 내용은 교차 검증(통계량)을 참조하십시오. 수학적 분석 및 통계의 경우, 생략 오류는 다음을 가리킬 수 있습니다.
- 생략형 교차 검증 안정성(CVlo, 생략형 교차 검증 안정성을 위해):알고리즘 f는 다음 조건이 충족되면 손실함수 V에 대한 CVlo 안정성β를 가진다.
- Expected-to-leave-one-out 오류 안정성( \
하나 빼는 것으로 예상되는 오류의 경우):알고리즘 f는 다음과 같이 각 에 대해 E {\ _
및 E { _이
하는 경우 E \delta _{}^{m}}^{m}}}의
안정성을 .
{1,. . . , , { [ S] - m i= ( S , i) β β - - L m m\ display \ i , 1 , m , \ { S } m\inf
}) 및 })은
n inf({ \inf로 합니다.
예비 주석
X와 Y가 실수 R의 서브셋인 경우, 또는 X와 Y µ R이 각각 입력 공간 X와 출력 공간 Y인 경우, 훈련 세트를 고려합니다.
{ 1 ( , 1),. , ( m , ) { S \ { \ , , , \ _ { m } = ( _ { , \ { )
= ( x { m ) \ )。다음으로 학습 알고리즘은 Z에서 Y X F로의
f(\f_로
, 입력 공간 X에서 출력 공간 Y로 세트 })를
매핑합니다.복잡한 표기법을 피하기 위해 결정론적 알고리즘만 고려한다.또한 ff는
S에 대해 대칭이라고 가정한다. 즉, 훈련 세트의 요소 순서에 의존하지 않는다.또한 모든 함수는 측정 가능하며 모든 집합은 계산 가능하다고 가정하며, 이는 여기에 제시된 결과의 관심을 제한하지 않는다.
z ( ,) { z=(에
대한 가설 f의 손실은 (f, ) () , ){V ( , z ) ( ( ,
y )} 로 됩니다. f의 경험적 오류는 로 쓸 수 있습니다.
f의 진정한 오류는I [ ] z (f, z) { I [f ]= \ {} _ 입니다.
크기가 m인 교육 세트 S가 주어지면, 우리는 모든 i = 1....,m에 대해 다음과 같이 수정된 교육 세트를 구축한다.
「 」를 참조해 주세요.
레퍼런스
- S. Mukherjee, P.니요기, T. 포지오, R. M. 리프킨.학습 이론: 안정성은 일반화에 충분하며 경험적 위험 최소화의 일관성에 필요하고 충분합니다.어드밴스. 컴퓨터수학, 25(1-3): 161~193, 2006