패턴 인식

Pattern recognition

패턴 인식데이터의 패턴과 규칙성을 자동으로 인식하는 것입니다.통계 데이터 분석, 신호 처리, 이미지 분석, 정보 검색, 생물 정보학, 데이터 압축, 컴퓨터 그래픽스 및 기계 학습에 응용된다.패턴 인식은 통계 및 엔지니어링에서 유래했습니다. 패턴 인식에 대한 일부 현대적인 접근법에는 빅데이터의 가용성과 처리 능력의 새로운 풍부함으로 인해 머신 러닝의 사용이 포함됩니다.이러한 활동은 같은 분야에서의 두 가지 측면으로 볼 수 있으며, 지난 수십 년간 상당한 발전을 거쳤다.

패턴 인식 시스템은 일반적으로 라벨이 붙은 "훈련" 데이터에서 훈련됩니다.라벨이 붙은 데이터를 사용할 수 없는 경우 다른 알고리즘을 사용하여 이전에 알려지지 않은 패턴을 검출할 수 있습니다.KDD와 데이터 마이닝은 감독되지 않은 방법에 더 중점을 두고 있으며 비즈니스 사용과의 연결을 강화합니다.패턴 인식은 신호에 더 초점을 맞추고 수집 및 신호 처리도 고려합니다.이 용어는 엔지니어링에서 유래했으며 컴퓨터 비전의 맥락에서 널리 사용되고 있습니다.유수의 컴퓨터 비전 컨퍼런스는 컴퓨터 비전패턴 인식에 관한 회의입니다.

기계학습에서 패턴인식은 주어진 입력값에 라벨을 할당하는 것이다.통계학에서 판별 분석은 1936년에 이와 같은 목적을 위해 도입되었다.패턴 인식의 예로는 분류가 있습니다.분류에서는 각 입력 값을 지정된 클래스 세트 중 하나에 할당하려고 합니다(예: 지정된 전자 메일이 "스팸"인지 "비스팸"인지 판별).패턴 인식은 다른 유형의 출력도 포함하는 보다 일반적인 문제입니다.각 입력에real-valued 출력 값을 할당합니다 다른 예는 회귀,;values[2](예를 들어 연설 태그의 입력 문장에서 각 단어에 연설의 일부분을 할당합니다, 부품,)의 시퀀스의 입력 하나의 파스 트리 할당합니다 각 멤버 및 구문 분석,에 대한 클래스 할당합니다[1]순서 라벨링, s을 설명하는yntac문장의 [3] 구조

사회학에서 패턴 인식은 인종과 성차별적 불평등의 요인으로 결정되었다(https://www.inc.com/kimberly-weisul/vivek-wadhwa-pattern-recognition-another-name-racism-sexism.html)).

패턴 인식 알고리즘은 일반적으로 모든 가능한 입력에 대해 합리적인 답을 제공하고 통계적 변동을 고려하여 입력의 "가장 가능성이 높은" 매칭을 수행하는 것을 목표로 한다.이는 기존 패턴과 입력에서 정확히 일치하는 패턴을 찾는 패턴 일치 알고리즘과 반대됩니다.패턴 매칭 알고리즘의 일반적인 예는 정규식 매칭입니다.정규식 매칭은 텍스트 데이터에서 소정의 패턴을 찾고 많은 텍스트 에디터 및 워드 프로세서의 검색 기능에 포함됩니다.

개요

패턴 인식의 현대적인 정의는 다음과 같습니다.

패턴 인식 분야는 컴퓨터 알고리즘을 사용하여 데이터의 규칙성을 자동으로 발견하고 이러한 규칙성을 사용하여 데이터를 다른 [4]범주로 분류하는 것과 같은 조치를 취하는 것과 관련이 있습니다.

패턴 인식은 일반적으로 출력값을 생성하기 위해 사용되는 학습 순서의 종류에 따라 분류된다.지도 학습은 올바른 출력으로 손으로 올바르게 라벨을 붙인 일련의 교육 데이터(훈련 세트)가 제공되었다고 가정합니다.그런 다음 학습 절차에서는 두 가지 상충되는 목표, 즉 교육 데이터를 가능한 한 수행하고 새로운 데이터로 일반화하는 모델을 생성합니다(보통 아래에서 설명한 Occam의 면도기에 따라 "간단함"의 기술적 정의에 대해서는 가능한 한 단순함을 의미합니다).반면, 비지도 학습은 수동 레이블이 지정되지 않은 훈련 데이터를 가정하고, 새로운 데이터 인스턴스에 [5]대한 올바른 출력 값을 결정하는 데 사용될 수 있는 데이터에서 고유한 패턴을 찾으려고 시도한다.지금까지 살펴본 두 가지 조합은 반감독 학습으로, 라벨이 부착된 데이터와 라벨이 없는 데이터의 조합(일반적으로 라벨이 부착되지 않은 대량의 데이터와 결합된 라벨이 부착된 데이터의 작은 세트)을 사용한다.비지도 학습의 경우 훈련 데이터가 전혀 없을 수 있습니다.

때로는 동일한 유형의 출력에 대한 해당 지도 학습 절차와 비지도 학습 절차를 설명하기 위해 다른 용어를 사용한다.분류에 대한 감독되지 않은 등가물은 일반적으로 언급할 훈련 데이터가 없는 것으로 작업에 대한 일반적인 인식에 기초하고, 입력 데이터를 몇 가지 고유한 유사성 측정에 기초한 클러스터(예: 다차원 벡터 공간에서 벡터로 간주되는 인스턴스 간 거리)로 그룹화하는 클러스터링으로 알려져 있다.각 입력 인스턴스를 사전 정의된 클래스 세트 중 하나에 할당하는 것이 아니라필드에 따라 용어가 다릅니다.공동체 생태학에서 분류라는 용어는 일반적으로 "클러스터링"으로 알려진 것을 가리키는 데 사용됩니다.

출력 값이 생성되는 입력 데이터의 일부를 정식으로 인스턴스라고 부릅니다.인스턴스는 공식적으로 기능의 벡터에 의해 기술되며, 이 벡터는 인스턴스의 알려진 모든 특성에 대한 설명을 구성합니다.이들 특징 벡터는 적절한 다차원 공간에서 점을 정의하는 것으로 볼 수 있으며, 벡터 공간에서 벡터를 조작하는 방법, 예를 들어 도트 곱이나 두 벡터 사이의 각도를 계산하는 방법이 이에 대응하여 적용될 수 있다.특징은 일반적으로 범주형(예: "남성" 또는 "여성" 또는 "A", "B", "AB" 또는 "O" 혈액형으로 구성됨), 순서형(예: "대형" 또는 "중형")이다.es) 또는 실제 값(예: 혈압 측정)입니다.종종 범주형 데이터와 순서형 데이터가 함께 그룹화되는데, 이는 정수값 데이터와 실수값 데이터의 경우에도 마찬가지입니다.많은 알고리즘은 범주형 데이터에서만 작동하며, 실제 값 또는 정수 값 데이터를 그룹으로 분리해야 한다(예: 5 미만, 5-10 미만 또는 10 이상).

확률론적 분류기

많은 일반적인 패턴 인식 알고리즘은 통계적 추론을 사용하여 특정 사례에 대한 최적의 라벨을 찾는다는 점에서 본질적으로 확률적이다.단순히 "최상의" 라벨을 출력하는 다른 알고리즘과 달리, 종종 확률론적 알고리즘은 주어진 라벨에 의해 설명되는 인스턴스의 확률도 출력한다.또한 많은 확률론적 알고리즘은 단순히 단일 최적 라벨 대신 일부 N 에 대해 관련 확률과 함께 N-최적 라벨 목록을 출력한다.가능한 라벨의 수가 상당히 적은 경우(예: 분류의 경우), 가능한 모든 라벨의 확률이 출력되도록 N을 설정할 수 있다.확률론적 알고리즘은 비확률론적 알고리즘에 비해 많은 이점이 있다.

  • 선택과 관련된 신뢰 값을 출력합니다.(일부 다른 알고리즘도 신뢰값을 출력할 수 있지만 일반적으로 확률론적 알고리즘의 경우에만 이 값이 확률론에 수학적으로 기초한다.비확률론적 신뢰값은 일반적으로 특정 의미를 부여할 수 없으며, 동일한 알고리즘에 의해 출력된 다른 신뢰값과 비교하는 데만 사용된다.)
  • 따라서 특정 출력을 선택하는 신뢰도가 너무 낮으면 기권할 수 있습니다.
  • 확률 출력 때문에 확률론적 패턴 인식 알고리즘은 오류 전파 문제를 부분적으로 또는 완전히 회피하는 방식으로 더 큰 기계 학습 작업에 더 효과적으로 통합될 수 있다.

중요 피쳐 변수의 수

기능 선택 알고리즘은 다중 기능 또는 관련 없는 기능을 직접 제거하려고 합니다.접근법과 과제를 요약한 기능 선택에 대한 일반적인 소개가 [6]제공되었습니다.특징 선택의 복잡성은 단조롭지 않은 특성으로 인해의 특징 n 주어지면 2 모든 서브셋으로 구성된 파워셋을 탐색해야 하는 최적화 문제이다.Branch-and-Bound[7] 알고리즘은 이 복잡성을 줄여주지만 사용 가능한 수의 중간에서 큰 값에 대해서는 다루기 어렵습니다 n

패턴 일치 알고리즘을 적용하기 전에 원시 피쳐 벡터를 변환하는 기술(피처 추출)이 사용되는 경우가 있습니다.특징 추출 알고리즘은 주성분 분석(PCA)과 같은 수학적 기법을 사용하여 큰 차원 특징 벡터를 보다 쉽게 사용할 수 있는 작은 차원 벡터로 줄이려고 시도합니다.피쳐 선택과 피쳐 추출의 차이점은 피쳐 추출 후 생성되는 피쳐가 원래 피쳐와 다른 종류이며 쉽게 해석할 수 없는 반면 피쳐 선택 후 남은 피쳐는 원래 피쳐의 서브셋에 불과하다는 것입니다.

문제문

패턴 인식의 문제는 다음과 같이 의 함수 g : X {\ g{\그라운드 진리)가 입력 x X {\ 에 매핑됩니다와) 트레이닝 D { ( 1 , ) , ,( , n) { { D }= \ { \ { \ { } { , { n , { { n } , \ sy , { } 、 \ , { n} } } 、 \ sy , resparcharcharcharcharchesparcharchesparchesparchesparchesp{ 한 한 정확한 매핑 g {\ g예를 들어 스팸 필터링에가 있는 경우 x는 이메일을 나타내고 \y는 "스팸" 또는 "비스팸" 중 하나입니다).이것이 명확하게 정의된 문제가 되기 위해서는 "가능한 한 가깝게"를 엄격하게 정의할 필요가 있다.의사결정 이론에서, 이것은 잘못된 라벨을 생산함으로써 생기는 "손실"에 특정 값을 할당하는 손실 함수 또는 비용 함수를 지정함으로써 정의된다.그 다음 목표는X의 분포(\에 대한 기대와 함께 예상되는 손실을 최소화하는 것이다. 실제로X의 (\ 실측값 g (\ g)도 아니다.(는) 정확히 알려져 있지만, X 샘플({ { 수집하여 Y의 정확한 값을 사용하여 손으로 라벨을 붙임으로써 경험적으로만 계산할 수 있다.수집할 수 있습니다).특정 손실 함수는 예측되는 레이블 유형에 따라 달라집니다.예를 들어, 분류의 경우, 단순한 0-1 손실 함수만으로도 충분한 경우가 많다.이는 단순히 잘못된 라벨링에 손실 1을 할당하는 것에 해당하며, 최적의 분류기가 독립적인 테스트 데이터의 오류율을 최소화함을 의미한다(즉, 학습된 h : {\ h valent를 사용하여 올바르게 분류된 인스턴스 수를 최대화합니다).학습 순서의 목적은, 「표준」테스트 세트의 에러율을 최소한으로 억제(정확성을 최대화)하는 것입니다.

확률론적 패턴 인식기의 경우, 문제는 대신 특정 입력 인스턴스가 주어진 각 가능한 출력 라벨의 확률을 추정하는 것이다. 즉, 형식의 기능을 추정하는 것이다.

여기서 특징 벡터 은 x이고 함수 f는 일반적으로 일부 파라미터 [8]로 파라미터화됩니다. 문제에 대한 차별적 접근에서 f는 직접 추정됩니다.단, 생성 접근법에서는 대신 ( l a l p{ 추정하여 이전 p 조합하여 Bay를 사용하여 과 같이 합니다.

레이블이 연속적으로 분포되어 있는 경우(예: 회귀 분석에서), 분모는 합계가 아닌 통합을 수반합니다.

값은 일반적으로 최대 사후 평가(MAP)를 사용하여 학습됩니다.이렇게 하면 충돌하는 두 개체를 동시에 충족하는 최적의 값을 찾을 수 있습니다.교육 데이터에 대해 가능한 한 잘 수행하고(최소한의 오류율) 가능한 한 간단한 모델을 찾습니다.기본적으로, 이것은 최대우도 추정과 더 복잡한 모형보다 더 단순한 모형을 선호하는 정규화 절차를 결합합니다.베이지안 문맥에서 정규화 절차는 p )(\p 의 다른 에 p(\displaystyle p({\}))를 배치한 것으로 볼 수 있습니다수학적으로:

여기서 {\ 후속 평가 절차에서displaystyle {\{\ 사용되는 이고 p p {D는 \후방 확률입니다에 의해 주어집니다.

이 문제에 대한 베이지안 접근법에서는 단일 파라미터 를 선택하는 대신 x 모든 가능한 값을 통합하여 특정 라벨의 확률을 계산합니다 사후 확률에 따라 가중치 부여:

패턴 인식에 대한 빈번한 접근 또는 베이지안 접근

첫 번째 패턴 분류기(Fisher가 제시한 선형 판별기)는 빈도주의 전통에 따라 개발되었다.빈도주의 접근방식은 모델 매개변수를 알 수 없지만 객관적인 것으로 간주하는 것을 수반한다.그런 다음 수집된 데이터에서 매개변수를 계산(추정)합니다.선형 판별식의 경우 이러한 모수는 정확히 평균 벡터 및 공분산 행렬입니다. p a 확률은 수집된 데이터 집합에서 추정됩니다.패턴 분류자에서 'Bayes rule'을 사용해도 분류 접근법이 베이지안이 되지 않는다는 점에 유의하십시오.

베이지안 통계는 'a priori'와 'a posti' 지식 사이의 구분이 이미 만들어진 그리스 철학에서 유래했다.나중에 칸트는 관찰 전에 알려진 선험적 지식과 관찰로부터 얻은 경험적 지식 사이의 구별을 정의했다.베이지안 패턴 분류자에서는 클래스 p )({\ {label p {label 사용자가 선택할 수 있습니다.이 값은 priori입니다.또한, 사전 모수 값으로 정량화된 경험은 예를 들어 베타와 디리클레 분포사용하여 경험적 관찰로 가중치를 부여할 수 있다.베이지안 접근법은 주관적 확률의 형태로 전문가 지식과 객관적 관찰 사이의 원활한 혼합을 촉진한다.

확률론적 패턴 분류기는 빈도론 또는 베이지안 접근법에 따라 사용할 수 있다.

사용하다

그 얼굴은 특수 소프트웨어에 의해 자동으로 감지되었다.

의학 분야에서 패턴 인식은 컴퓨터 지원 진단(CAD) 시스템의 기초입니다.CAD는 의사의 해석과 소견을 뒷받침하는 절차를 설명합니다.패턴 인식 기법의 다른 일반적인 응용 프로그램으로는 자동 음성 인식, 스피커 식별, 텍스트의 여러 카테고리 분류(스팸 또는 비스팸 이메일 메시지 등), 우편 봉투의 필기 자동 인식, 사람의 얼굴 이미지 자동 인식 또는 필기 이미지 추출 등이 있습니다.의학적 [9][10]형태로부터.마지막 두 예는 패턴 인식 시스템의 [11][12]입력으로 디지털 이미지를 다루는 패턴 인식의 하위 주제 이미지 분석을 형성합니다.

광학 문자 인식은 패턴 분류기 적용의 한 예이다.서명방법은 [citation needed]1990년부터 스타일러스와 오버레이로 포착됐다.스트로크, 속도, 상대 최소, 상대 최대, 가속도 및 압력은 고유 식별 및 확인에 사용됩니다.은행들은 이 기술을 처음 제공받았지만 FDIC로부터 은행 사기에 대한 정보를 수집하는 데 만족했고 고객에게 불편을 [citation needed]끼치고 싶지 않았습니다.

패턴 인식은 이미지 처리에서 많은 실제 응용 분야를 가지고 있습니다.예를 들어 다음과 같습니다.

심리학에서 패턴 인식은 사물을 이해하고 식별하기 위해 사용되며 지각과 밀접하게 관련되어 있다.이것은 인간이 받는 감각 입력이 어떻게 의미 있게 만들어지는지를 설명해준다.패턴 인식은 두 가지 다른 방법으로 생각할 수 있습니다.첫 번째는 템플릿 매칭과 두 번째는 기능 검출에 관한 것입니다.템플릿은 동일한 비율의 항목을 생산하는 데 사용되는 패턴입니다.템플릿 일치 가설은 들어오는 자극이 장기 기억의 템플릿과 비교된다는 것을 시사한다.일치하는 경우 자극이 식별됩니다.문자 분류를 위한 Pandemonium 시스템(Selfridge, 1959)과 같은 특징 검출 모델은 자극을 식별을 위해 구성 요소로 세분화한다고 제안한다.한 관측치는 세 개의 수평선과 [22]한 개의 수직선을 가진 대문자 E입니다.

알고리즘

패턴 인식을 위한 알고리즘은 라벨 출력의 유형, 학습이 감독되는지 또는 비감독인지에 따라, 그리고 알고리즘이 본질적으로 통계적인지 비통계적인지에 따라 달라진다.통계 알고리즘은 추가로 생성 또는 차별적 알고리즘으로 분류할 수 있다.

분류 방법(카테고리 레이블을 예측하는 방법)

파라미터:[23]

  • 선형 판별 분석
  • 이차 판별 분석
  • 최대 엔트로피 분류자(로지스틱 회귀 분석, 다항 로지스틱 회귀 분석이라고도 함):로지스틱 회귀 분석은 이름에도 불구하고 분류 알고리즘입니다.이 이름은 로지스틱 회귀 분석에서 선형 회귀 모형의 확장을 사용하여 입력이 특정 클래스에 있을 확률을 모형화한다는 사실에서 유래되었습니다.

비모수:[24]

군집화 방법(범주 레이블을 분류하고 예측하는 방법)

앙상블 학습 알고리즘(복수의 학습 알고리즘을 조합하기 위한 감독 메타 알고리즘)

임의로 구조화된 라벨(세트)을 예측하는 일반적인 방법

다선형 부분 공간 학습 알고리즘(텐서 표현을 사용하여 다차원 데이터의 레이블 예측)

비감독:

실값 시퀀스 라벨링 방법(실값 라벨의 시퀀스 예측)

회귀 분석 방법(실제 값 레이블 예측)

시퀀스 레이블 지정 방법(범주 레이블의 시퀀스 예측)

「 」를 참조해 주세요.

레퍼런스

  1. ^ Howard, W.R. (2007-02-20). "Pattern Recognition and Machine Learning". Kybernetes. 36 (2): 275. doi:10.1108/03684920710743466. ISSN 0368-492X.
  2. ^ "Sequence Labeling" (PDF). utah.edu. Archived (PDF) from the original on 2018-11-06. Retrieved 2018-11-06.
  3. ^ Ian., Chiswell (2007). Mathematical logic, p. 34. Oxford University Press. ISBN 9780199215621. OCLC 799802313.
  4. ^ Bishop, Christopher M. (2006). Pattern Recognition and Machine Learning. Springer.
  5. ^ Carvalko, J.R., Preston K. (1972). "On Determining Optimum Simple Golay Marking Transforms for Binary Image Processing". IEEE Transactions on Computers. 21 (12): 1430–33. doi:10.1109/T-C.1972.223519. S2CID 21050445.{{cite journal}}: CS1 maint: 여러 이름: 작성자 목록(링크).
  6. ^ 이사벨 기용 클로피넷, 앙드레 엘리제프(2003).변수기능 선택 개요.기계학습연구저널 제3권, 1157-1182.링크 보관된 2016-03-04 Wayback Machine
  7. ^ 를 클릭합니다Iman Foroutan; Jack Sklansky (1987). "Feature Selection for Automatic Classification of Non-Gaussian Data". IEEE Transactions on Systems, Man and Cybernetics. 17 (2): 187–198. doi:10.1109/TSMC.1987.4309029. S2CID 9871395..
  8. ^ 선형 판별 분석의 경우 파라미터 2개의 μ1μ2({})와 공통 공분산행렬})로 구성됩니다
  9. ^ Milewski, Robert; Govindaraju, Venu (31 March 2008). "Binarization and cleanup of handwritten text from carbon copy medical form images". Pattern Recognition. 41 (4): 1308–1315. Bibcode:2008PatRe..41.1308M. doi:10.1016/j.patcog.2007.08.018. Archived from the original on 10 September 2020. Retrieved 26 October 2011.
  10. ^ Sarangi, Susanta; Sahidullah, Md; Saha, Goutam (September 2020). "Optimization of data-driven filterbank for automatic speaker verification". Digital Signal Processing. 104: 102795. arXiv:2007.10729. doi:10.1016/j.dsp.2020.102795. S2CID 220665533.
  11. ^ Richard O. Duda, Peter E. Hart, David G. Stork (2001). Pattern classification (2nd ed.). Wiley, New York. ISBN 978-0-471-05669-0. Archived from the original on 2020-08-19. Retrieved 2019-11-26.{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크)
  12. ^ R. 브루넬리, 컴퓨터 비전에서의 템플릿 매칭 기법: 이론과 실천, Wiley, ISBN 978-0-470-51706-2, 2009
  13. ^ 번호판 자동인식 튜토리얼 2006-08-20 웨이백머신 아카이브 2006-08-20 웨이백머신 아카이브 2006-08-20
  14. ^ 얼굴인식위한 뉴럴 네트워크 2016-03-04년 교과서 기계학습 4장의 웨이백 머신 컴패니언에 보관되어 있습니다.
  15. ^ Poddar, Arnab; Sahidullah, Md; Saha, Goutam (March 2018). "Speaker Verification with Short Utterances: A Review of Challenges, Trends and Opportunities". IET Biometrics. 7 (2): 91–101. doi:10.1049/iet-bmt.2017.0065. Archived from the original on 2019-09-03. Retrieved 2019-08-27.
  16. ^ 자궁경부 스크리닝용 PAPNET 2012-07-08 아카이브.오늘
  17. ^ "Development of an Autonomous Vehicle Control Strategy Using a Single Camera and Deep Neural Networks (2018-01-0035 Technical Paper)- SAE Mobilus". saemobilus.sae.org. Archived from the original on 2019-09-06. Retrieved 2019-09-06.
  18. ^ Gerdes, J. Christian; Kegelman, John C.; Kapania, Nitin R.; Brown, Matthew; Spielberg, Nathan A. (2019-03-27). "Neural network vehicle models for high-performance automated driving". Science Robotics. 4 (28): eaaw1975. doi:10.1126/scirobotics.aaw1975. ISSN 2470-9476. PMID 33137751. S2CID 89616974.
  19. ^ Pickering, Chris (2017-08-15). "How AI is paving the way for fully autonomous cars". The Engineer. Archived from the original on 2019-09-06. Retrieved 2019-09-06.
  20. ^ Ray, Baishakhi; Jana, Suman; Pei, Kexin; Tian, Yuchi (2017-08-28). "DeepTest: Automated Testing of Deep-Neural-Network-driven Autonomous Cars". arXiv:1708.08559. Bibcode:2017arXiv170808559T. {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)
  21. ^ Sinha, P. K.; Hadjiiski, L. M.; Mutib, K. (1993-04-01). "Neural Networks in Autonomous Vehicle Control". IFAC Proceedings Volumes. 1st IFAC International Workshop on Intelligent Autonomous Vehicles, Hampshire, UK, 18–21 April. 26 (1): 335–340. doi:10.1016/S1474-6670(17)49322-0. ISSN 1474-6670.
  22. ^ "A-level Psychology Attention Revision - Pattern recognition S-cool, the revision website". S-cool.co.uk. Archived from the original on 2013-06-22. Retrieved 2012-09-17.
  23. ^ 클래스별 특징 분포의 알려진 분포 형태(예: 가우스 형태)를 가정한다.
  24. ^ 클래스별 형상 분포의 모양에 관한 분포 가정은 없습니다.

추가 정보

외부 링크