감정인식
Emotion recognition시리즈의 일부 |
인공지능 |
---|
감정 인식은 인간의 감정을 확인하는 과정이다.타인의 감정을 인식하는 정확성은 사람마다 천차만별이다.감정 인식을 가진 사람들을 돕기 위한 기술의 사용은 비교적 초기 연구 분야이다.일반적으로 이 기술은 컨텍스트에서 여러 개의 양식을 사용하는 경우에 가장 잘 작동합니다.지금까지, 대부분의 작업은, 웨어러블에 의해서 측정되는 비디오로부터의 표정, 오디오로부터의 음성 표정, 문자로부터의 표정, 생리의 자동화에 의해서 행해져 왔다.
인간
인간은 감정을 인식하는 능력에 많은 변화를 보인다.자동 감정 인식에 대해 배울 때 명심해야 할 중요한 점은 "근거 진실" 즉 진짜 감정이 무엇인지에 대한 진실의 원천이 여러 개 있다는 것이다.우리가 알렉스의 감정을 인식하려고 한다고 가정해 보자.한 가지 출처는 "대부분의 사람들이 알렉스가 무엇을 느끼고 있다고 말할까?"이다.이 경우, '진실'은 알렉스가 느끼는 것과 일치하지 않을 수 있지만, 대부분의 사람들이 알렉스가 느끼는 것처럼 보인다고 말하는 것과 일치할 수 있다.예를 들어, 알렉스는 실제로 슬퍼할 수도 있지만, 그는 활짝 웃고 나서 대부분의 사람들은 그가 행복해 보인다고 말한다.자동화된 방법이 관찰자 그룹과 동일한 결과를 얻으면 알렉스가 실제로 느끼는 것을 측정하지 않더라도 정확하다고 간주할 수 있습니다.'진실'의 또 다른 원천은 알렉스에게 그가 진정 무엇을 느끼는지 물어보는 것이다.이것은 알렉스가 자신의 내부 상태를 잘 알고 있고, 그것이 무엇인지 알려주고 싶고, 단어나 숫자로 정확하게 표현할 수 있는 경우에 효과가 있습니다.그러나 어떤 사람들은 자기 내면의 감정을 잘 느끼지 못하거나 단어와 숫자로 정확하게 전달할 수 없다.일반적으로 어떤 감정이 실제로 존재하는지에 대한 진실을 얻는 것은 약간의 작업이 필요하고, 선택된 기준에 따라 달라질 수 있으며, 보통 일정 수준의 불확실성을 유지하는 것을 포함할 것이다.
자동의
수십 년에 걸친 과학적 연구가 자동화된 감정 인식을 위한 방법을 개발하고 평가해 왔다.현재 신호 처리, 기계 학습, 컴퓨터 비전, 음성 처리와 같은 여러 분야의 기술을 활용하여 수백 가지 다른 방법을 제안하고 평가하는 광범위한 문헌이 있습니다.베이지안 네트워크,[1] 가우스 혼합[2] 모델 및 숨겨진 마르코프[3] 모델 및 심층 신경 [4]네트워크와 같은 감정을 해석하기 위해 다른 방법론과 기법이 사용될 수 있다.
접근
감정 인식의 정확도는 보통 텍스트, 생리학, 오디오 또는 [5]비디오와 같은 다중 모달 형태에서 인간의 표현 분석을 결합할 때 향상된다.얼굴 표정, 몸짓,[6] 말투 등의 정보를 통합함으로써 다양한 감정 유형을 검출할 수 있다.이 기술은 소위 감성 또는 감성 인터넷의 [7]출현에 기여한다고 한다.
특정 감정 유형을 분류하기 위한 감정 인식의 기존 접근법은 일반적으로 세 가지 주요 범주로 분류될 수 있다: 지식 기반 기술, 통계 방법 및 혼합 접근법.[8]
지식 기반 기술
지식 기반 기술(어휘 기반 기술이라고도 함)은 특정 감정 유형을 [citation needed]감지하기 위해 도메인 지식과 언어의 의미 및 구문 특성을 활용합니다.이 접근법에서는 [11]WordNet, SenticNet,[9] ConceptNet [10]및 EmotiNet과 같은 감정 분류 프로세스에서 지식 기반 리소스를 사용하는 것이 일반적입니다.이 접근법의 장점 중 하나는 이러한 지식 기반 [8]자원의 대규모 가용성으로 인한 접근성과 경제성입니다.한편, 이 기술의 한계는 개념의 뉘앙스와 복잡한 언어 규칙을 [8]다룰 수 없다는 것입니다.
지식 기반 기법은 주로 사전 기반 [citation needed]접근법과 말뭉치 기반 접근법의 두 가지 범주로 분류될 수 있다.사전 기반 접근법은 의견 또는 감정의 씨앗 단어를 사전에서 찾고 의견 또는 [12]감정의 초기 목록을 확장하기 위해 동의어와 반의어를 검색합니다.반면 말뭉치 기반 접근법은 의견 또는 감정 단어의 시드 리스트에서 시작하여 대규모 [12]말뭉치에서 컨텍스트 고유의 특성을 가진 다른 단어를 찾음으로써 데이터베이스를 확장한다.말뭉치 기반 접근법은 문맥을 고려하지만, 한 도메인의 단어가 다른 [13]도메인에서 다른 방향을 가질 수 있기 때문에 그들의 성능은 여전히 다른 도메인에서 다양하다.
통계적 방법
통계적 방법은 일반적으로 시스템이 적절한 [8]감정 유형을 학습하고 예측하기 위해 알고리즘에 주석 첨부 데이터 세트를 공급하는 다른 감독 기계 학습 알고리즘의 사용을 포함한다.기계 학습 알고리즘은 일반적으로 다른 접근법에 비해 더 합리적인 분류 정확도를 제공하지만, 분류 과정에서 좋은 결과를 달성하는 데 있어 과제 중 하나는 충분히 큰 훈련 [8]세트를 보유해야 한다는 것이다.
가장 일반적으로 사용되는 머신러닝 알고리즘에는 Support Vector Machine(SVM), Nave Bayes 및 Maximum [14]Entropy 등이 있습니다.기계학습의 비감독 계열에 속하는 딥러닝은 감정 [15][16][17]인식에도 널리 사용된다.잘 알려진 딥 러닝 알고리즘에는 컨볼루션 뉴럴 네트워크(CNN), 롱 단기 메모리(LSTM), 익스트림 러닝 머신(ELM)[14]과 같은 인공 뉴럴 네트워크(ANN)의 다양한 아키텍처가 포함됩니다.감정 인식 영역에서 딥 러닝 접근법의 인기는 주로 컴퓨터 비전, 음성 인식, 자연 언어 처리(NLP)[14]와 같은 관련 애플리케이션에서 성공했기 때문일 수 있다.
하이브리드 어프로치
감정 인식의 하이브리드 접근법은 본질적으로 지식 기반 기술과 통계 방법의 조합이며, 두 기술의 [8]상호 보완적 특성을 활용한다.지식 중심의 언어 요소와 통계적 방법을 조합한 작업에는 Sentic Computing과 iFeel이 있으며, 두 작업 모두 개념 수준의 지식 기반 리소스 SenticNet을 [18][19]채택했습니다.하이브리드 접근법의 구현에서 그러한 지식 기반 자원의 역할은 감정 분류 [11]과정에서 매우 중요하다.하이브리드 기법은 지식 기반 접근법과 통계 접근법 모두에서 제공하는 편익으로부터 이익을 얻기 때문에,[citation needed] 지식 기반 또는 통계 방법을 독립적으로 사용하는 것에 비해 더 나은 분류 성과를 갖는 경향이 있다.그러나 하이브리드 기술을 사용하는 것의 단점은 분류 [11]과정에서의 계산 복잡성이다.
데이터 세트
데이터는 감정 인식에서 기존 접근법의 필수적인 부분이며 대부분의 경우 기계 학습 알고리즘을 [12]훈련하는 데 필요한 주석 데이터를 얻는 것은 어려운 일이다.텍스트, 오디오, 비디오 또는 생리 신호의 형태로 멀티모달 소스와 다른 감정 유형을 분류하는 작업의 경우, 다음과 같은 데이터 세트를 사용할 수 있다.
- HUMAIN: 여러 모달리티에서[20] 감정 단어와 컨텍스트 레이블이 포함된 자연스러운 클립을 제공합니다.
- Belfast 데이터베이스: TV 프로그램 및 인터뷰[21] 녹화의 다양한 감성을 담은 클립을 제공합니다.
- SEMAIN: 사람과 가상 에이전트 간의 시청각 녹음을 제공하며 분노, 행복, 두려움, 혐오, 슬픔, 경멸, 즐거움[22] 등의 감정 주석을 포함합니다.
- IEMOCAP: 배우 간의 쌍방향 세션 녹음을 제공하며 행복, 분노, 슬픔, 좌절, 중립 상태 등의 감정 주석을 포함합니다.
- eNTERFACE: 7개 국적의 피사체에 대한 시청각 녹음을 제공하며 행복, 분노, 슬픔, 놀라움, 혐오, 두려움 등의 감정 주석을 포함합니다.
- DEAP: 뇌파 촬영(EEG), 심전도 촬영(ECG), 얼굴 비디오 녹화 및 필름 클립을 보는 사람의 원자가, 각성, 우위에 관한 감정 주석을 제공합니다.
- DREAMER: 뇌파(EEG) 및 심전도(ECG) 기록뿐만 아니라 원자가, 각성, 필름 클립을 보는 사람의 우위에 관한 감정 주석을 제공합니다.
- MELD: 각 발언에 감정과 감정으로 라벨이 붙는 다당제 대화 데이터 세트입니다.MELD는[27] 비디오 형식으로 대화를 제공하므로 멀티모달 감정 인식 및 감정 분석에 적합합니다.MELD는 다중 모드 감정 분석 및 감정 인식, 대화 시스템 및 대화 [28]시 감정 인식에 유용합니다.
- MuSe: 사람과 [29]사물 사이의 자연스러운 상호작용에 대한 시청각 기록을 제공합니다.다중 모달 감정 분석 및 감정 인식에 유용한 언어 주제뿐만 아니라 원자가, 각성 및 신뢰성의 측면에서 이산적이고 연속적인 감정 주석이 있습니다.
- UIT-VSMEC: 6개의 감정 라벨이 있는 6,927개의 인간 주석 문장으로 구성된 표준 베트남 소셜 미디어 감정 말뭉치(UIT-VSMEC)로, 자연 언어 처리(NLP)[30]의 저자원 언어인 베트남어 감정 인식 연구에 기여합니다.
- BED: 뇌파 촬영(EEG) 기록뿐만 아니라 이미지를 보는 사람들의 원자가 및 각성 측면에서 감정 주석을 제공합니다.또한 EEG 기반 생체측정학 [31]과제를 위해 다양한 자극(SSVEP, 눈을 감고 휴식, 눈을 뜨고 휴식, 인지 작업)에 노출된 사람들의 뇌파(EG) 기록도 포함된다.
적용들
감정 인식은 사회에서 다양한 이유로 사용된다.MIT에서 분사한 Affectiva는 시청자들이 이 정보를 공유하기로 동의한 특정 컨텍스트와 관련된 표정 및 목소리 정보를 주로 수집하여 이전에 사람이 수동으로 수행했던 작업을 보다 효율적으로 수행할 수 있도록 하는 인공지능 소프트웨어를 제공한다.예를 들어, 교육용 비디오나 광고를 볼 때마다 어떻게 느끼는지에 대한 장황한 설문조사를 작성하는 대신, 카메라가 당신의 얼굴을 보고 당신이 말하는 것을 듣는 것에 동의할 수 있으며, 당신이 경험의 어떤 부분에서 지루함, 흥미, 혼란스러움 또는 웃음과 같은 표현을 보이는지 메모할 수 있습니다.그것은 당신의 속마음을 읽는 것을 의미하지 않습니다.그것은 당신이 겉으로 표현하는 것을 읽을 뿐입니다.)Affectiva에 의한 다른 용도에는 자폐증을 가진 아이들을 돕는 것, 시각장애인들이 표정을 읽을 수 있도록 돕는 것, 로봇이 사람들과 더 지능적으로 상호작용하는 것을 돕는 것, 운전자의 [32]안전을 강화하기 위해 운전 중 주의의 징후를 감시하는 것이 포함된다.
스냅챗이 2015년 출원한 특허는 사용자의 지오태그 부착 [33]셀카에 알고리즘 감정인식을 실시하여 공개행사 군중 데이터를 추출하는 방법을 기술하고 있다.
이모티언트는 찡그린 표정, 미소 등을 읽어내는 감정인식, 즉 인공지능을 적용하여 "표정에 기초한 태도 및 행동"[34]을 예측하는 신생 기업이었다.애플은 2016년 이모티언트를 인수해 감성인식 기술을 활용해 제품의 [34]감성 지능을 높이고 있다.
nViso는 실시간 [35]API를 통해 웹 및 모바일 애플리케이션에 실시간 감정 인식을 제공합니다.Visage Technologies AB는 Visage SDK의 일부로 마케팅 및 과학 연구 및 유사한 [36]목적을 위해 감정 평가를 제공합니다.
Eyeris는 자동차 메이커 및 소셜 로봇 회사 등 임베디드 시스템 제조업체와 협력하여 얼굴 분석 및 감정 인식 소프트웨어를 통합하고 비디오 컨텐츠 크리에이터와 협력하여 짧고 긴 형식의 비디오 [37][38]크리에이티브의 인식 효과를 측정하는 데 도움을 주는 감성 인식 회사입니다.
또한 "좋아요" 버튼 누름과 텍스트의 긍정 및 부정 문구를 통해 온라인에서 전달되는 감정으로부터 정보를 수집하기 위해 많은 제품이 존재하며, 영향 인식은 교육 목적과 플레이어의 SOC에 대한 자연스러운 제어를 위해 일부 게임과 가상 현실에서 점점 더 많이 사용되고 있다.아바타.[citation needed]
감정 인식의 하위 필드
감정 인식은 아마도 감정을 감지하기 위해 텍스트, 오디오, 비디오, 그리고 생리를 포함한 다른 사물들을 결합함으로써 여러 가지 양식을 적용한다면 최고의 결과를 얻을 수 있을 것이다.
텍스트에서의 감정 인식
텍스트 데이터는 인간의 삶 어디에서나 자유롭게 사용할 수 있는 감정 인식에 유리한 연구 대상이다.다른 유형의 데이터에 비해 텍스트 데이터 저장 공간이 가볍고 언어에서 단어와 문자가 자주 반복되기 때문에 최상의 성능으로 압축하기 쉽습니다.감정은 두 가지 필수 텍스트 형식에서 추출할 수 있다: 쓰여진 텍스트와 대화.[39]문장의 경우,[40][41] 많은 학자들은 감정을 나타내는 "단어/구문"을 추출하기 위해 문장 수준으로 작업하는 데 초점을 맞추고 있다.
오디오에서의 감정 인식
텍스트에서의 감정 인식과는 달리 음성 신호는 [42]오디오에서 감정을 추출하기 위해 인식에 사용됩니다.
영상에서의 감정 인식
비디오 데이터는 오디오 데이터, 이미지 데이터 및 때로는 텍스트(자막의 경우[43])의 조합입니다.
대화에서 감정 인식
ERC(Emotion Recognition in Conversation)는 페이스북, 트위터, 유튜브 [28]등 소셜 플랫폼의 방대한 대화 데이터에서 참가자 간의 의견을 추출한다.ERC는 텍스트, 오디오, 비디오 또는 조합 형식과 같은 입력 데이터를 취하여 두려움, 욕망, 고통 및 즐거움과 같은 여러 감정을 탐지할 수 있습니다.
「 」를 참조해 주세요.
레퍼런스
- ^ 미야코시, 요시히로, 가토 쇼헤이."베이시안 네트워크를 이용한 얼굴 부분 폐색을 고려한 얼굴 감정 검출"컴퓨터와 정보학(2011): 96~101.
- ^ 하리 크리슈나 비다나, P. 파니 쿠마르, K. 스리 라마 크리슈나, 아닐 쿠마르 부팔라."GMM-UBM을 이용한 감정인식 개선". 2015 국제 신호처리 및 통신공학시스템 컨퍼런스
- ^ B. 슐러, G. 리골 M. 랭"숨겨진 마르코프 모델에 기초한 음성 감정 인식"ICME '03.의사진행동.2003년 멀티미디어 및 엑스포 국제회의, 2003.
- ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Non-linear frequency warping using constant-Q transformation for speech emotion recognition". 2021 International Conference on Computer Communication and Informatics (ICCCI). pp. 1–4. arXiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4.
- ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490.
- ^ Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 September 2007). Multimodal emotion recognition from expressive faces, body gestures and speech. IFIP the International Federation for Information Processing. Vol. 247. pp. 375–388. doi:10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4.
- ^ Price. "Tapping Into The Emotional Internet". TechCrunch. Retrieved 12 December 2018.
- ^ a b c d e f Cambria, Erik (March 2016). "Affective Computing and Sentiment Analysis". IEEE Intelligent Systems. 31 (2): 102–107. doi:10.1109/MIS.2016.31. S2CID 18580557.
- ^ Cambria, Erik; Poria, Soujanya; Bajpai, Rajiv; Schuller, Bjoern (2016). "SenticNet 4: A Semantic Resource for Sentiment Analysis Based on Conceptual Primitives". Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers: 2666–2677.
- ^ Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 November 2012). "Detecting implicit expressions of emotion in text: A comparative analysis". Decision Support Systems. 53 (4): 742–753. doi:10.1016/j.dss.2012.05.024. ISSN 0167-9236.
- ^ a b c Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (December 2014). "Sentiment analysis algorithms and applications: A survey". Ain Shams Engineering Journal. 5 (4): 1093–1113. doi:10.1016/j.asej.2014.04.011.
- ^ a b c Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Sentiment analysis techniques in recent works". 2015 Science and Information Conference (SAI). pp. 288–291. doi:10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. S2CID 14821209.
- ^ Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 December 2017). "A survey on classification techniques for opinion mining and sentiment analysis". Artificial Intelligence Review. 52 (3): 1495–1545. doi:10.1007/s10462-017-9599-6. S2CID 11741285.
- ^ a b c Sun, Shiliang; Luo, Chen; Chen, Junyu (July 2017). "A review of natural language processing techniques for opinion mining systems". Information Fusion. 36: 10–25. doi:10.1016/j.inffus.2016.10.004.
- ^ Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (March 2017). "Deep Learning-Based Document Modeling for Personality Detection from Text". IEEE Intelligent Systems. 32 (2): 74–79. doi:10.1109/MIS.2017.23. S2CID 206468984.
- ^ Mahendhiran, P. D.; Kannimuthu, S. (May 2018). "Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis". International Journal of Information Technology & Decision Making. 17 (3): 883–910. doi:10.1142/S0219622018500128.
- ^ Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 October 2017). Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content. MM '17. ACM. pp. 1743–1751. doi:10.1145/3123266.3123413. ISBN 9781450349062. S2CID 3148578.
- ^ Cambria, Erik; Hussain, Amir (2015). Sentic Computing: A Common-Sense-Based Framework for Concept-Level Sentiment Analysis. Springer Publishing Company, Incorporated. ISBN 978-3319236537.
- ^ Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung; Benevenuto, Fabrício (7 April 2014). iFeel: a system that compares and combines sentiment analysis methods. WWW '14 Companion. ACM. pp. 75–78. doi:10.1145/2567948.2577013. ISBN 9781450327459. S2CID 11018367.
- ^ Paolo Petta; Catherine Pelachaud; Roddy Cowie, eds. (2011). Emotion-oriented systems the humaine handbook. Berlin: Springer. ISBN 978-3-642-15184-2.
- ^ Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 April 2003). "Emotional speech: towards a new generation of databases". Speech Communication. 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991. doi:10.1016/S0167-6393(02)00070-5. ISSN 0167-6393.
- ^ McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (January 2012). "The SEMAINE Database: Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent". IEEE Transactions on Affective Computing. 3 (1): 5–17. doi:10.1109/T-AFFC.2011.20. S2CID 2995377.
- ^ Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 November 2008). "IEMOCAP: interactive emotional dyadic motion capture database". Language Resources and Evaluation. 42 (4): 335–359. doi:10.1007/s10579-008-9076-6. ISSN 1574-020X. S2CID 11820063.
- ^ Martin, O.; Kotsia, I.; Macq, B.; Pitas, I. (3 April 2006). The eNTERFACE'05 Audio-Visual Emotion Database. Icdew '06. IEEE Computer Society. pp. 8–. doi:10.1109/ICDEW.2006.145. ISBN 9780769525716. S2CID 16185196.
- ^ Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (January 2012). "DEAP: A Database for Emotion Analysis Using Physiological Signals". IEEE Transactions on Affective Computing. 3 (1): 18–31. CiteSeerX 10.1.1.593.8470. doi:10.1109/T-AFFC.2011.15. ISSN 1949-3045. S2CID 206597685.
- ^ Katsigiannis, Stamos; Ramzan, Naeem (January 2018). "DREAMER: A Database for Emotion Recognition Through EEG and ECG Signals From Wireless Low-cost Off-the-Shelf Devices" (PDF). IEEE Journal of Biomedical and Health Informatics. 22 (1): 98–107. doi:10.1109/JBHI.2017.2688239. ISSN 2168-2194. PMID 28368836. S2CID 23477696.
- ^ Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversations". Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics: 527–536. arXiv:1810.02508. doi:10.18653/v1/p19-1050. S2CID 52932143.
- ^ a b Poria, S., Majumder, N., Mihalcea, R. 및 Hovy, E.(2019).대화 시 감정 인식: 연구 과제, 데이터 세트 및 최근 발전된 기술IEEE Access, 7, 100943-100953.
- ^ Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Summary of MuSe 2020: Multimodal Sentiment Analysis, Emotion-target Engagement and Trustworthiness Detection in Real-life Media". Proceedings of the 28th ACM International Conference on Multimedia. Seattle, PA, USA: Association for Computing Machinery: 4769–4770. arXiv:2004.14858. doi:10.1145/3394171.3421901. S2CID 222278714.
- ^ Ho, Vong (2020). "Emotion Recognition for Vietnamese Social Media Text". 16th International Conference of the Pacific Association for Computational Linguistics (PACLING 2019). Communications in Computer and Information Science. 1215: 319–333. arXiv:1911.09339. doi:10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2.
- ^ Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (February 2021). "BED: A new dataset for EEG-based biometrics". IEEE Internet of Things Journal. (Early Access): 1. doi:10.1109/JIOT.2021.3061727. ISSN 2327-4662.
- ^ "Affectiva".
- ^ Bushwick, Sophie. "This Video Watches You Back". Scientific American. Retrieved 27 January 2020.
- ^ a b DeMuth Jr., Chris (8 January 2016). "Apple Reads Your Mind". M&A Daily. Seeking Alpha. Retrieved 9 January 2016.
- ^ "nViso". nViso.ch.
- ^ "Visage Technologies".
- ^ "Feeling sad, angry? Your future car will know".
- ^ Varagur, Krithika (22 March 2016). "Cars May Soon Warn Drivers Before They Nod Off". Huffington Post.
- ^ S. N. Shivhare, & Kethawat, S. (2012년)텍스트에서 감정 감지.arXiv 프리프린트 arXiv: 1205.4944
- ^ Ezhilarasi, R. & Minu, R. I. (2012년)감정 자동 인식 및 분류프로시저 엔지니어링, 38, 21-26
- ^ Krcadinac, 미국, Pasquier, P., Jovanovic, J. 및 Devedzic, V.(2013).Synesketch: 문장 기반 감정 인식을 위한 오픈 소스 라이브러리입니다.IEEE Transactions on Affective Computing, 4(3), 312-325.
- ^ Schmitt, M., Ringeval, F., & Schuller, B. W. (2016, 9월)음향과 언어학의 경계: 음성으로 감정을 인식하는 단어 가방.인터스피치(495-499페이지)에서.
- ^ Dhall, A., Goecke, R., Lucey, S. 및 Gedeon, T.(2012).영화에서 풍부한 주석이 달린 대형 표정 데이터베이스를 수집합니다.IEEE 멀티미디어, (3), 34-41