선호 학습

Preference learning

선호 학습은 기계 학습의 하위 필드이며, 관찰된 선호 [1]정보에 기초한 분류 방법입니다.감독 학습의 관점에서, 선호 학습은 라벨이나 다른 항목에 대한 선호도를 가지고 모든 항목에 대한 선호도를 예측하는 일련의 항목에 대해 훈련한다.

선호 학습의 개념은 경제학 [2]많은 분야에서 한동안 등장했지만, 인공지능 연구에서 비교적 새로운 주제이다.지난 [3]10년 동안 여러 워크숍에서 선호 학습 및 관련 주제에 대해 논의해 왔습니다.

임무들

선호 학습의 주요 과제는 "순위 매기기 학습"의 문제와 관련이 있습니다.관찰된 다양한 유형의 선호 정보에 따르면, 이 과제는 "선호 학습"[4]에서 세 가지 주요 문제로 분류됩니다.

라벨 순위

라벨 랭킹에서 모델에는 공간 { i} { X \ {_ { } \ { _ { i \ , \ ! 라벨 { 1, , \ , \ { Y 1, 2 \ cd \ k \ 설정이 있습니다.x\ x y(\displaystyle 기본 설정을 나타냅니다.기본 설정 정보는 모델에서 교육 데이터로 사용됩니다.이 모델의 작업은 모든 인스턴스의 라벨 간에 선호도 순위를 찾는 것입니다.

그것은 몇몇 재래식 분류 문제가 라벨 순위 문제의 틀 속에:에스파냐의 소설 나는{\displaystyle y_{나는}\,\[5]가 훈련 인스턴스){\displaystyle x\,\!}클래스로!}분류되어 있이 개괄될 수 있는 관찰되었다, 나는, 나는)≻ y∀ j≠ yj{\displaystyle \forallj\neq i,y_{나는}\succ _{)}y 것을 의미한다._{j 멀티라벨(\ x L L Y 세트와 관련되어 있으므로 모델은 일련의 프리퍼런스 할 수 있습니다.{ y yL L 이 기본 설정 정보와 인스턴스의 분류 결과에 대한 기본 설정 모델을 훈련하는 것은 대응하는 상위 순위 레이블에 불과합니다.

인스턴스 랭킹

인스턴스 랭킹에는 인스턴스 X(\ X 라벨 Y(\ Y도 있습니다.이 작업에서는 라벨의 y2 k1}\2}\ y_k로 정의됩니다. 에 관련지어져 있습니다.인스턴스 세트를 트레이닝 데이터로 제공하고 이 작업의 목적은 새로운 인스턴스 세트의 순위 순서를 찾는 것입니다.

오브젝트 랭킹

오브젝트 랭킹은 인스턴스와 관련된 라벨이 없다는 점을 제외하고는 인스턴스 랭킹과 비슷합니다.x j { x _ { } \ x _ { j} , \ ! } 쌍별 프리퍼런스 정보를 지정하면 모델은 인스턴스 간의 순위 순서를 알아내야 합니다.

기술

그 선호도 정보의 두가지 현실적인 표현 한 ≻ B{\displaystyle A\succ B\,\!}.{\displaystyle a\,\!}과 b{\displaystyle b\,\!}각각 다음과 같이 a>b{\displayst 두 실수를 가진{\displaystyle A\,\!}과 B{\displaystyle B\,\!}을 임명하고 있다.yle에 대한 모든 쌍(A, B)A>, b\,\!}. 또 다른 사람 ∈{0,1}{\displaystyle V(A, B)\in){0,1\}\,\(A, B)!이진 값 V}을 임명하고 있는지 A≻ B{\displaystyle A\succ B\,\!}또는 A를 B{\displaystyle B\succ A\,\!}≻이었다. 이 두개의 다른 표현으로 연락을 주고{\displaystyle(A, B)\,\!}.s,학습 과정에 적용되는 두 가지 다른 기술이 있습니다.

효용 함수

데이터에서 실수에 대한 매핑을 찾을 수 있다면 데이터의 랭킹은 실수에 대한 랭킹으로 해결할 수 있습니다.이 매핑을 유틸리티 함수라고 합니다.라벨에 들어 매핑을 함수 f:X×Y→ R{\displaystyle f:X\times Y\rightarrow \mathbb{R}\,\!}는 y 그러한 나는 ≻)yj⇒ f(x, y나는)>이름(), yj){\displaystyle y_{나는}\succ _{)}y_{j}\Rightarrow f(x,y_{나는})>, f(x,y_{j})\,\!}. 예를 들면, 예를 등급 및 개체 순위, 지도는 'caput'uncti f: {\ f 입니다.

효용 함수를 찾는 것은 기계 학습에서 잘 발달된 회귀 학습 문제입니다.

선호 관계

선호도 정보의 이진표현은 선호도 관계라고 불립니다.각 대안 쌍(인스턴스 또는 라벨)에 대해 이진 술어는 기존의 감독 학습 접근법에 의해 학습될 수 있다.Fürnkranz와 Hülermeier는 라벨 순위 [6]문제에 대해 이 접근방식을 제안했다.객체 랭킹의 경우 Cohen 등의 [7]초기 접근법이 있다.

순위를 예측하기 위해 선호 관계를 사용하는 것은 그리 직관적이지 않을 것이다.선호 관계는 전이적이지 않기 때문에, 이러한 관계를 만족시키는 랭킹의 해답에 도달하지 못하거나 둘 이상의 해답이 있을 수 있음을 암시한다.보다 일반적인 접근법은 선호 관계에 최대한 일치하는 순위 솔루션을 찾는 것입니다.이 접근법은 쌍별 [6]분류의 자연스러운 확장이다.

사용하다

선호도 학습은 사용자 선호도의 피드백에 따라 검색 결과의 순위를 매기는 데 사용할 수 있습니다.쿼리와 문서 세트가 주어졌을 때, 학습 모델은 이 쿼리와 관련성에 대응하는 문서의 순위를 찾기 위해 사용된다.이 분야의 연구에 대한 더 많은 논의는 Liu-Tie-Yan Liu의 [8]조사 보고서에서 찾을 수 있습니다.

선호 학습의 또 다른 적용 분야는 추천 시스템이다.[9]온라인 스토어는 고객의 구매 기록을 분석하여 선호 모델을 학습한 후 유사한 제품을 고객에게 추천할 수 있습니다.인터넷 콘텐츠 공급자는 사용자의 등급을 사용하여 더 많은 사용자 선호 콘텐츠를 제공할 수 있습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning. USA, Massachusetts: MIT Press. ISBN 9780262018258.
  2. ^ Shogren, Jason F.; List, John A.; Hayes, Dermot J. (2000). "Preference Learning in Consecutive Experimental Auctions". American Journal of Agricultural Economics. 82 (4): 1016–1021. doi:10.1111/0002-9092.00099.
  3. ^ "Preference learning workshops".
  4. ^ Fürnkranz, Johannes; Hüllermeier, Eyke (2011). "Preference Learning: An Introduction". Preference Learning. Springer-Verlag New York, Inc. pp. 3–8. ISBN 978-3-642-14124-9.
  5. ^ Har-peled, Sariel; Roth, Dan; Zimak, Dav (2003). "Constraint classification for multiclass classification and ranking". In Proceedings of the 16th Annual Conference on Neural Information Processing Systems, NIPS-02: 785–792.
  6. ^ a b Fürnkranz, Johannes; Hüllermeier, Eyke (2003). "Pairwise Preference Learning and Ranking". Proceedings of the 14th European Conference on Machine Learning: 145–156.
  7. ^ Cohen, William W.; Schapire, Robert E.; Singer, Yoram (1998). "Learning to order things". In Proceedings of the 1997 Conference on Advances in Neural Information Processing Systems: 451–457.
  8. ^ Liu, Tie-Yan (2009). "Learning to Rank for Information Retrieval". Foundations and Trends in Information Retrieval. 3 (3): 225–331. doi:10.1561/1500000016.
  9. ^ Gemmis, Marco De; Iaquinta, Leo; Lops, Pasquale; Musto, Cataldo; Narducci, Fedelucio; Semeraro, Giovanni (2009). "Preference Learning in Recommender Systems" (PDF). Preference Learning. 41: 387–407. doi:10.1007/978-3-642-14125-6_18. ISBN 978-3-642-14124-9.

외부 링크