의사결정 경계
Decision boundary두 개의 클래스가 있는 통계 분류 문제에서 결정 경계 또는 결정 표면은 기초 벡터 공간을 각 클래스마다 하나씩 두 개의 세트로 분할하는 초서면이다.분류자는 결정 경계의 한쪽에 있는 모든 점을 한 클래스에 속하는 것으로 분류하고 다른 쪽에 있는 모든 점을 다른 클래스에 속하는 것으로 분류한다.
결정 경계는 분류자의 출력 라벨이 [1]애매한 문제 공간의 영역입니다.
결정 표면이 하이퍼플레인일 경우 분류 문제는 선형이며 클래스는 선형으로 분리할 수 있습니다.
의사 결정의 경계가 항상 명확한 것은 아닙니다.즉, 피쳐 공간의 한 클래스에서 다른 클래스로의 이행은 불연속적이 아니라 점진적입니다.이 효과는 퍼지 논리 기반 분류 알고리즘에서 공통적으로 나타나며, 한 클래스 또는 다른 클래스의 구성원 자격이 모호합니다.
뉴럴 네트워크 및 서포트 벡터 모델
역전파 기반의 인공신경망 또는 퍼셉트론의 경우, 네트워크가 학습할 수 있는 의사결정 경계의 유형은 네트워크가 가진 숨겨진 계층의 수에 의해 결정된다.숨겨진 레이어가 없는 경우 선형 문제만 학습할 수 있습니다.만약 그것이 하나의 숨겨진 층을 가지고 있다면, 그것은 보편적 근사 정리에 의해 보여지는 것처럼 R의n 콤팩트 부분 집합에서 어떤 연속함수도 학습할 수 있고, 따라서 그것은 임의의 결정 경계를 가질 수 있다.
특히 지원 벡터 머신은 기능 공간을 최대 마진을 가진 두 개의 클래스로 구분하는 하이퍼플레인(Hyperplane)을 찾습니다.문제가 원래 선형으로 분리할 수 없는 경우 커널 트릭을 사용하여 차원 수를 늘림으로써 선형으로 분리할 수 있습니다.따라서 작은 차원 공간에서의 일반적인 초면은 훨씬 큰 차원의 공간에서의 초평면으로 바뀝니다.
신경 네트워크는 경험적 오류를 최소화하는 결정 경계를 학습하는 반면, 지원 벡터 기계는 결정 경계와 데이터 포인트 사이의 경험적 여유를 최대화하는 결정 경계를 학습하려고 한다.
레퍼런스
