원클래스 분류
One-class classification기계를 배움에,one-class 분류(OCC), 또한 단항 분류 또는 class-modelling로 알려진 모든 개체 사이에서, 주로 훈련 세트도 있지만 어디 counter-examples 사용된다one-class classifiers의 변형이 존재하는 그 class,[1]의 개체가 함유된 배움으로써 특정 클래스의 물체들을 확인하려고 한다. 로.분류 경계를 더욱 세분화한다.이것은 기존의 분류 문제와는 다르며 모든 클래스에서 객체를 포함하는 트레이닝 세트를 사용하여 두 개 이상의 클래스를 구별하려고 하는 것과 다릅니다.예로는 헬리콥터 [2][3][4]기어박스 모니터링, 모터 고장 [5]예측 또는 '정상'[6]으로서의 원자력발전소 운전상태를 들 수 있다.이 시나리오에서는 치명적인 시스템 상태의 예는 거의 없습니다.정상 동작 통계 정보만 알려져 있습니다.
위의 접근방식의 대부분은 소수의 특이치 또는 이상치를 제거하는 경우에 초점을 맞추고 있지만, 정보 병목현상 [7]접근방식을 사용하여 단일 클래스가 데이터의 작은 일관된 서브셋을 커버하는 다른 극단도 학습할 수 있다.
개요
일급분류(OCC)라는 용어는 Moya & Hush(1996)[8]에 의해 만들어졌으며, 특이치 검출, 이상 검출, 신규성 검출과 같은 많은 응용 프로그램을 과학 문헌에서 찾을 수 있다.OCC의 특징은 할당된 클래스의 샘플 포인트만 사용하기 때문에 비타겟클래스에는 [9]대표 샘플이 엄밀하게 필요하지 않다는 것입니다.
서론
SVM 기반 1클래스 분류(OCC)는 모든 데이터 [10]포인트로 구성된 가장 작은 하이퍼스피어(반경 r 및 중심 c)를 식별하는 데 의존합니다.이 메서드는 Support Vector Data Description(SVDD)이라고 불립니다.공식적으로, 이 문제는 다음과 같은 제약된 최적화 형태로 정의될 수 있습니다.
그러나 위의 공식은 매우 제한적이며 특이치의 존재에 민감합니다.따라서 특이치가 존재할 수 있는 유연한 공식은 다음과 같이 공식화된다.
Karush-Kuhn-Tucker(KKT) 최적 조건에서는
여기서 i\ _ {는 다음 최적화 문제에 대한 해결책입니다.
i 1 0 1 n 、 n . , n .{ \ _ { i} \ _ { i } \ { } \_ { i } \ \ { text } { text } 。
커널 기능의 도입으로 One-class SVM([11]OSVM) 알고리즘의 유연성이 향상되었습니다.
PU 학습
유사한 문제는 PU 학습으로, 이항 분류기는 긍정적이고 라벨이 부착되지 않은 샘플 [12]포인트에서만 반감독 방식으로 학습된다.
PU 학습에서는 양성 및 음성 샘플을 모두 포함하는 것으로 가정되지만 이러한 샘플은 라벨이 부착되지 않은 상태에서 양성 PP와 혼합 UU의 두 가지 예를 훈련에 사용할 수 있다고 가정합니다.이는 라벨이 부착되지 않은 샘플 외에 두 클래스의 예를 포함하는 라벨이 부착된 세트를 사용할 수 있다고 가정하는 다른 형태의 반감독 학습과 대조된다.EM 알고리즘의 변형을 포함하여 감독 분류기를 PU 학습 설정에 적응시키기 위한 다양한 기술이 존재합니다.PU 학습은 텍스트,[13][14][15] 시계열,[16] 생물정보학 [17][18]작업 및 원격감지 [19]데이터에 성공적으로 적용되었습니다.
접근
일급분류(OCC)를 해결하기 위한 몇 가지 접근법이 제안되었습니다.접근법은 밀도 추정, 경계 방법 및 재구성 [6]방법의 세 가지 주요 범주로 구분할 수 있다.
밀도 추정법
밀도 추정 방법은 데이터 점의 밀도를 추정하여 임계값을 설정합니다.이러한 방법은 가우스 분포 또는 포아송 분포와 같은 가정 분포에 의존합니다.그 후 불일치 테스트를 사용하여 새 개체를 테스트할 수 있습니다.이러한 방법은 분산을 척도화하는 데 강력합니다.
가우스[20] 모델은 단일 클래스 분류기를 만드는 가장 간단한 방법 중 하나입니다.중앙 한계 정리(CLT)[21]로 인해 이러한 방법은 다수의 샘플이 존재할 때 가장 잘 작동하며 작은 독립 오차 값에 의해 교란됩니다.d차원 객체에 대한 확률 분포는 다음과 같습니다.
서μ {\는 평균이고 {\는 공분산 행렬입니다.공분산행렬의 역산출- 1 {\ \Sigma )은 가장 비용이 많이 드는 연산이며, 데이터가 적절히 스케일링되지 않거나 데이터의 단수 방향이 의사 역산+ {\^{+}}인 경우에는 의 역산출)을 이용하여 T 로 계산한다. \ \ ^ { } ( \ { T } )^{ - 1 [22]
경계법
경계 방법은 목표점이라고 하는 몇 개의 점 집합 주위에 경계를 설정하는 데 초점을 맞춥니다.이러한 방법은 볼륨을 최적화하려고 합니다.경계 방법은 거리에 의존하기 때문에 규모 분산에 강하지 않다.K-centers 방식, NN-d 및 SVDD가 주요 예입니다.
K센터
K-center [23]알고리즘에서는 훈련 대상물과 센터 사이의 최소 거리 최대 거리를 최소화하기 위해 동일한 반지름의k\k 작은 공을 한다.형식적으로는 다음 오류가 최소화됩니다.
알고리즘은 랜덤 초기화를 수반하는 전진 검색 방식을 사용합니다.반경은 오브젝트의 최대 거리에 따라 결정되며, 지정된 볼이 캡처해야 합니다.중심을 결정한 후에는 특정 테스트 물체 대해 다음과 같이 거리를 계산할 수 있습니다.
재구성 방법
재구성 방법에서는 사전 지식과 생성 프로세스를 사용하여 데이터에 가장 적합한 생성 모형을 만듭니다.새 객체는 생성 모델의 상태로 설명할 수 있습니다.OCC를 위한 재구성 방법의 예로는 k-평균 클러스터링, 학습 벡터 양자화, 자기 조직화 맵 등이 있다.
적용들
문서구분
기본 지원 벡터 머신(SVM) 패러다임은 긍정적인 예와 부정적인 예 모두를 사용하여 훈련되지만, 연구에 따르면 긍정적인 예만 사용하는 데는 많은 타당한 이유가 있는 것으로 나타났습니다.SVM 알고리즘이 긍정적인 예만 사용하도록 수정되면 프로세스는 1등급 분류로 간주됩니다.이러한 유형의 분류가 SVM 패러다임에 도움이 될 수 있는 한 가지 상황은 사용자의 브라우징 이력만을 기반으로 웹 브라우저의 관심 사이트를 식별하려고 시도하는 것입니다.
생물의학 연구
한 등급의 분류는 다른 등급의 데이터를 얻기 어렵거나 불가능할 수 있는 생물의학 연구에서 특히 유용할 수 있다.생물의학 데이터를 연구할 때 두 가지 분류를 수행하는 데 필요한 두 번째 분류에서 레이블이 지정된 데이터 세트를 얻는 것은 어렵거나 비용이 많이 들 수 있다.The Scientific World Journal의 연구에 따르면 전형성 접근법은 모든 유형의 데이터 세트(연속, 이산 또는 명목)[24]에 적용될 수 있기 때문에 생물의학 데이터를 분석하는 데 가장 유용한 것으로 나타났다.표준성 접근법은 데이터를 검사하고 [25]새 클러스터 또는 기존 클러스터에 배치하여 데이터 클러스터링을 기반으로 합니다.생물의학 연구의 1등급 분류에 전형성을 적용하기 위해, 각각의 새로운 00을 대상 클래스 C와 비교하여 특이치 또는 대상 클래스의 [24]멤버로 식별한다.
비지도 개념 드리프트 검출
1등급 분류는 비감독 개념 드리프트 검출과 유사성이 있으며, 두 가지 모두 보이지 않는 데이터가 초기 데이터와 유사한 특성을 공유하는지 확인하는 것을 목표로 한다.개념은 데이터가 추출되는 고정 확률 분포라고 합니다.비감독 개념 드리프트 검출에서는 클래스 라벨을 사용하지 않고 데이터 분포가 변화하는지 검출하는 것이 목적이다.일급 분류에서는 데이터 흐름은 중요하지 않습니다.보이지 않는 데이터는 초기 개념의 데이터인지 여부에 관계없이 특성에 따라 일반 또는 특이치로 분류됩니다.그러나 비감독 드리프트 검출은 데이터의 흐름을 감시하고 상당한 양의 변화나 이상이 있는 경우 드리프트 신호를 보냅니다.비지도 개념 드리프트 검출은 하나의 클래스 분류의 연속적인 형태로 식별될 수 있다.[26] 개념 드리프트를 검출하기 위해 1클래스 분류기가 사용됩니다.[27]
「 」를 참조해 주세요.
레퍼런스
- ^ Oliveri P (August 2017). "Class-modelling in food analytical chemistry: Development, sampling, optimisation and validation issues - A tutorial". Analytica Chimica Acta. 982: 9–19. doi:10.1016/j.aca.2017.05.013. PMID 28734370.
- ^ Japkowicz N, Myers C, Gluck M (1995). "A Novelty Detection Approach to Classification". IJCAI-95. CiteSeerX 10.1.1.40.3663.
{{cite journal}}
:Cite 저널 요구 사항journal=
(도움말) - ^ Japkowicz N (1999). Concept-Learning in the Absence of Counter-Examples:An Autoassociation-Based Approach to Classification (Thesis). Rutgers University.
- ^ Japkowicz N (2001). "Supervised Versus Unsupervised Binary-Learning by Feedforward Neural Networks" (PDF). Machine Learning. 42: 97–122. doi:10.1023/A:1007660820062. S2CID 7298189.
- ^ Petsche T, Marcantonio A, Darken C, Hanson S, Kuhn G, Santoso I (1996). "A Neural Network Autoassociator for Induction Motor Failure Prediction" (PDF). NIPS.
- ^ a b Tax D (2001). One-class classification: Concept-learning in the absence of counter-examples (PDF) (Ph.D. thesis). The Netherlands: University of Delft.
- ^ Crammer, Koby (2004). "A needle in a haystack: local one-class optimization". ICML Proceedings of the Twenty-first International Conference on Machine Learning: 26. doi:10.1145/1015330.1015399. S2CID 8736254.
- ^ Moya, M.; Hush, D. (1996). "Network constraints and multi- objective optimization for one-class classification". Neural Networks. 9 (3): 463–474. doi:10.1016/0893-6080(95)00120-4.
- ^ Rodionova OY, Oliveri P, Pomerantsev AL (2016-12-15). "Rigorous and compliant approaches to one-class classification". Chemometrics and Intelligent Laboratory Systems. 159: 89–96. doi:10.1016/j.chemolab.2016.10.002.
- ^ Zineb, Noumir; Honeine, Paul; Richard, Cedue (2012). "On simple one-class classification methods". IEEE International Symposium on Information Theory Proceedings. IEEE, 2012.
- ^ Khan, Shehroz S.; Madden, Michael G. (2010). Coyle, Lorcan; Freyne, Jill (eds.). "A Survey of Recent Trends in One Class Classification". Artificial Intelligence and Cognitive Science. Lecture Notes in Computer Science. Springer Berlin Heidelberg. 6206: 188–197. doi:10.1007/978-3-642-17080-5_21. hdl:10379/1472. ISBN 9783642170805.
- ^ Liu, Bing (2007). Web Data Mining. Springer. pp. 165–178.
- ^ Bing Liu; Wee Sun Lee; Philip S. Yu & Xiao-Li Li (2002). Partially supervised classification of text documents. ICML. pp. 8–12.
- ^ Hwanjo Yu; Jiawei Han; Kevin Chen-Chuan Chang (2002). PEBL: positive example based learning for web page classification using SVM. ACM SIGKDD.
- ^ Xiao-Li Li & Bing Liu (2003). Learning to classify text using positive and unlabeled data. IJCAI.
- ^ Minh Nhut Nguyen; Xiao-Li Li & See-Kiong Ng (2011). Positive Unlabeled Learning for Time Series Classification. IJCAI.
- ^ Peng Yang; Xiao-Li Li; Jian-Ping Mei; Chee-Keong Kwoh & See-Kiong Ng (2012). Positive-Unlabeled Learning for Disease Gene Identification. Bioinformatics, Vol 28(20).
- ^ Bugnon, L. A.; Yones, C.; Milone, D. H. & Stegmayer, G. (2020). "Genome-wide discovery of pre-miRNAs: comparison of recent approaches based on machine learning". Oxford Bioinformatics. doi:10.1093/bib/bbaa184. PMID 32814347.
- ^ Li, W.; Guo, Q.; Elkan, C. (February 2011). "A Positive and Unlabeled Learning Algorithm for One-Class Classification of Remote-Sensing Data". IEEE Transactions on Geoscience and Remote Sensing. 49 (2): 717–725. Bibcode:2011ITGRS..49..717L. doi:10.1109/TGRS.2010.2058578. ISSN 0196-2892. S2CID 267120.
- ^ Bishop, Christopher M.; Bishop, Professor of Neural Computing Christopher M. (1995-11-23). Neural Networks for Pattern Recognition. Clarendon Press. ISBN 9780198538646.
- ^ R, Ullman Neil (2017-01-01). "Elementary statistics".
{{cite journal}}
:Cite 저널 요구 사항journal=
(도움말) - ^ "Introduction to Applied Mathematics". SIAM Bookstore. Retrieved 2019-04-29.
- ^ Ypma, Alexander; Duin, Robert P. W. (1998). Niklasson, Lars; Bodén, Mikael; Ziemke, Tom (eds.). "Support objects for domain approximation". Icann 98. Perspectives in Neural Computing. Springer London: 719–724. doi:10.1007/978-1-4471-1599-1_110. ISBN 9781447115991.
- ^ a b Irigoien I, Sierra B, Arenas C (2014). "Towards application of one-class classification methods to medical data". TheScientificWorldJournal. 2014: 730712. doi:10.1155/2014/730712. PMC 3980920. PMID 24778600.
- ^ Irigoien I, Arenas C (July 2008). "INCA: new statistic for estimating the number of clusters and identifying atypical units". Statistics in Medicine. 27 (15): 2948–73. doi:10.1002/sim.3143. PMID 18050154.
- ^ Gözüaçık, Ömer; Can, Fazli (November 2020). "Concept learning using one-class classifiers for implicit drift detection in evolving data streams". Artificial Intelligence Review. doi:10.1007/s10462-020-09939-x. Retrieved 2020-12-08.
- ^ Krawczyk, Bartosz; Woźniak, Michał (2015). "One-class classifiers with incremental learning and forgetting for data streams with concept drift". Soft Computing. 19 (12): 3387–3400. doi:10.1007/s00500-014-1492-5. S2CID 207011971. Retrieved 2020-12-08.