감성적 프로소디

Emotional prosody

감정적 프로소디 또는 감정적 프로소디는 사람들이 감정을 전달하거나 이해할 수 있도록 해주는 언어의 다양한 비언어적 측면이다.[1] 음치, 음색, 음색, 음률, 일시 정지 등의 변화를 통해 전달되는 개인말투가 담겨 있다. 의미론적 정보로부터 격리될 수 있으며, 언어적 내용(: 빈정거림)과 상호작용한다.[2]

언어에서 감정적인 프로소디는 얼굴 표정보다 약간 더 나쁘게 인식되거나 해독되지만, 정확성은 감정에 따라 다르다. 분노와 슬픔은 가장 쉽게 인식되고, 공포와 행복이 뒤따르며, 혐오감은 가장 잘 인식되지 않는다.[3][better source needed]

발성감정 제작

두려움, 기쁨, 분노와 같은 일부 감정이 슬픔과 같은 감정보다 더 높은 빈도로 묘사된다는 연구 결과가 나왔다.[4]

  • 분노: 분노는 "분노"와 "열한 분노"의 두 종류로 나눌 수 있다. 중립적인 언어에 비해, 분노는 낮은 음, 높은 강도와 발성 전체에 걸쳐 더 많은 에너지(500Hz), 더 높은 첫 번째 공식성(첫 번째 소리 발생), 음성 시작(말의 시작)에서 더 빠른 공격 시간으로 생성된다. 이와는 대조적으로 "뜨거운 분노"는 더 높고, 더 다양한 피치와 더 큰 에너지(2000Hz)[5]로 생산된다.
  • 혐오: 중립적인 언어에 비해 혐오감은 낮은 하방 방향의 투구로 생성되며, 에너지(500Hz), 낮은 첫 포맨트, 빠른 공격 시간이 분노와 유사하다. 변이가 적고 수명이 짧은 것도 혐오의 특징이다.[5]
  • 공포: 공포는 "패닉"과 "불안"의 두 종류로 나눌 수 있다. 중립적인 언어에 비해 두려운 감정은 음이 높고, 변이가 적고, 에너지가 낮으며, 더 많은 멈춤과 함께 빠른 언어율을 가진다.[5]
  • 슬픔: 중립적인 언어에 비해 슬픈 감정은 고음, 강도는 낮지만 발성 에너지(2000Hz), 정지 시간이 길면 지속시간이 길어지고 첫 포맨트가 낮아진다.[5]

목소리 감정에 대한 인식

언어에서 감정을 해독하는 것은 세 가지 단계, 즉 음향 특성을 결정하고, 이러한 특징과 의미 있는 연결을 만들고, 설정된 연결과 관련하여 음향 패턴을 처리하는 것을 포함한다. 처리 단계에서는, 기본적인 정서적 지식을 가진 연결은 연관성에 특정한 메모리 네트워크에 별도로 저장된다. 이들 연관성은 앞으로 마주치게 될 감정표현의 기준선을 형성하는 데 사용될 수 있다. 언어의 감정적 의미는 어떤 사건의 상황, 중요성 및 그 밖의 주변 세부 사항을 분석한 후 암묵적으로 자동으로 등록된다.[6]

평균적으로, 청취자들은 그들에게 보여지는 의도된 감정을 우연보다 훨씬 더 좋은 비율로 지각할 수 있다.[5] 그러나 오류율도 높다. 이는 청취자가 특정 목소리의 감정 추론에 더 정확하고 어떤 감정을 다른 사람보다 더 잘 인지한다는 관찰 때문이다.[4] 분노와 슬픔의 목소리 표현은 가장 쉽게 인식되고, 공포와 행복은 적당히 잘 인식될 뿐이며, 혐오는 인지도가 낮다.[3][self-published source?]

목소리 감정의 뇌

언어는 언어와 음성 채널의 두 가지 요소로 나눌 수 있다. 언어 채널은 화자가 선택한 말에 의해 만들어진 의미론적 내용이다. 언어 채널에서는 화자의 의미적 내용이 문장의 의미를 결정한다. 그러나 문장이 말하는 방식은 그 의미를 바꿀 수 있는데 그것이 바로 성악 채널이다. 이 언어의 채널은 화자가 느끼는 감정을 전달하고, 듣는 사람으로서 의도된 의미를 더 잘 이해할 수 있게 해준다. 이 채널의 뉘앙스는 억양, 강렬함, 운율과 결합된 리듬을 통해 표현된다. 보통 이 채널들은 같은 감정을 전달하지만 때로는 다르다. 비아냥거림과 아이러니는 이 어울리지 않는 스타일에 바탕을 둔 두 가지 형태의 유머다.[7]

언어와 발성(프로소딕) 성분을 통합한 신경학적 과정은 비교적 불분명하다. 그러나 언어적 내용과 음성은 의 다른 반구에서 처리된다고 가정한다. 통사적, 의미적 정보로 구성된 언어적 내용은 좌뇌를 처리한다. 통사적 정보는 뇌의 전두엽과 측두엽의 작은 부분에서 주로 처리되는 반면 의미적 정보는 전두엽의 작은 부분을 통합한 측두엽에서 주로 처리된다. 이와는 대조적으로 프로소디는 주로 언어적 내용과 같은 경로로 처리되지만 우뇌에서 처리된다. 기능성 자기공명영상(fMRI) 기계를 이용한 신경영상화 연구는 이 반구 편중화와 임시 전두엽 활성화에 대한 추가적인 지원을 제공한다. 그러나 일부 연구는 원시적 인식이 우뇌에만 편중되어 있지 않고 보다 양립적일 수 있다는 증거를 보여준다. 기초적인 갱년기 또한 프로소디의 인식에 중요한 역할을 할 수 있다는 증거가 있다.[7]

감정인식장애

우반구 병변으로 인한 프로소디 표현과 이해의 부족은 아프로소디아라고 알려져 있다. 이것들은 다른 형태와 다양한 정신 질환이나 질병에서 나타날 수 있다. 아프로소디아도 뇌졸중알코올 남용에 의해 유발될 수 있다. 아프로소디아(aprosodia)의 종류로는 운동(성대변형을 만들 수 없는 능력), 표현력(운동기능이 아닌 뇌의 한계가 이러한 무능의 원인이 될 때), 수용성(감정적 언어를 해독할 수 없을 때) 등이 있다.[8]

나이가 들수록 감정의 발성 표현을 인식하기가 점점 어려워지는 것으로 나타났다. 노인들은 감정의 목소리 표현, 특히 슬픔과 분노를 젊은 어른들보다 약간 더 어렵게 표시하지만, 목소리의 감정과 그에 상응하는 얼굴 표현을 통합하는 것은 훨씬 더 큰 어려움을 가지고 있다. 이러한 어려움에 대한 가능한 설명은 두 가지 감정원을 결합하는 것은 뇌의 감정 영역의 더 큰 활성화를 필요로 하며, 성인은 부피와 활동량을 감소시키는 것을 보여준다. 다른 가능한 설명은 청력 손실로 인해 발성 표현이 잘못될 수 있었다는 것이다. 고주파 청력 손실은 특히 남성에게서 50세 전후로 발생하기 시작하는 것으로 알려져 있다.[9]

뇌의 우반구는 프로소디와 연관되어 있기 때문에 우반구 병변이 있는 환자들은 감정을 전달하기 위한 다양한 언어 패턴에 어려움을 겪는다. 그러므로 그들의 연설은 단조롭게 들릴 수도 있다. 게다가, 우뇌피해를 가진 사람들은 단조로운 문장으로 감정을 식별하는 것에 있어서 장애가 있는 것으로 연구되어 왔다.

통사적 및 감정적 프로소디를 모두 해독하는 것은 자폐 스펙트럼 장애정신분열증 환자에게서도 발견되는데, '환자들은 사회적 기술과 사회적 인지 등 다수의 기능적 영역에 결손이 있다'는 것이다. 이러한 사회적 장애는 정상적인 사회적 상호작용을 위해 중요한 사회적 단서들을 인지, 이해, 예측, 반응하는 어려움으로 구성된다." 이는 호커트 외 연구진이 2017년 정신분열증의 정서적 요동에 대한 연구와 같은 여러 연구에서 결정되었는데, 이 연구는 질병과 정서적 요동의 상관관계를 완전히 확인하기 위해 더 많은 연구가 이루어져야 함을 보여 주었다. 그러나 정신분열증이 있는 사람들은 비감정적 프로소디를 해독하는 데 아무런 문제가 없다.[10]

비언어적 정서적 프로소디

행복, 슬픔, 분노, 혐오와 같은 감정 상태는 오로지 비언어적 언어 행동의 음향 구조에 기초하여 결정될 수 있다. 이런 행위는 투덜거리거나 한숨, 탄식 등이 될 수 있다. 이러한 비언어적 행위가 보편적이라는 개념을 뒷받침하는 연구결과가 있는데, 이는 서로 다른 언어를 구사하는 사람들로부터도 동일한 가정을 이끌어낸다.

게다가 비언어적 발성에서는 언어와 다르게 감정을 표현할 수 있다는 것이 증명되었다. Lauka 외 연구진에 따르면: 음성은 언어 정보를 전달하기 위해 관절체(예: 입술, , 후두)의 고도로 정밀하고 조정된 움직임이 필요한 반면, 비언어적 발성은 언어 코드에 의해 제약을 받지 않기 때문에 그러한 정밀한 발음이 필요하지 않다. 이것은 비언어적 발성이 많은 음향적 특징에 대해 운율적 표현보다 더 큰 범위를 나타낼 수 있다는 것을 수반한다.

그들의 연구에서, 배우들은 말 없이 일련의 다른 감정들을 표현하라는 지시를 받았다. 이 연구는 청취자들이 기회보다 더 광범위한 긍정적이고 부정적인 감정을 확인할 수 있다는 것을 보여주었다. 그러나 죄책감이나 자존심 같은 감정은 쉽게 인식되지 않았다.[11]

2015년 베레나 케르스켄, 클라우스 주버블러, 후안 카를로스 고메즈의 연구에서는 성인들이 도움을 요청하거나 사물을 가리키거나 사건을 나타내는 유아 발성과 구별할 수 있는지 알아보기 위해 유아들의 비언어적 발성을 성인에게 제시했다. 유아들은 무엇을 부르느냐에 따라 우는 데 있어서 다른 원소학적 요소를 보인다. 그들은 또한 긍정적인 감정 상태와 부정적인 감정 상태에 대한 다른 폭발을 가지고 있다. 이 정보의 해독 능력은 문화 전반에 걸쳐 적용이 가능하고 유아에 대한 성인의 경험 수준과 무관하게 결정되었다.

성 차이.

남자와 여자는 언어를 사용하는 방법과 이해하는 방법에서 모두 다르다. 스피치 비율, 피치 범위, 스피치 지속시간, 피치 경사(피츠시몬스 등)에 차이가 있는 것으로 알려졌다. 예를 들어, "분광 신호와 운율 신호의 관계에 대한 연구에서는, 긍정적이고 탐구적인 억양으로 문장을 말하는 남성과 여성에 있어서 음조와 지속시간의 의존성이 다르다는 것이 밝혀졌다. 스피치의 템포, 피치 범위, 피치 경사는 성별에 따라 다르다."(네시크 외). 그러한 예시 중 하나는 여성들이 어떻게 더 빨리 말하고, 단어의 끝을 길게 하고, 문장 끝에 음을 올리는가 하는 것이다.

여성들과 남성들은 또한 신경학적으로 감정적인 프로소디를 처리하는 방법에 있어서 다르다. fMRI 연구에서 남성은 정서적 구절의 의미나 방식을 처리할 때 여성 피질 영역보다 피질 영역에서 더 강한 활성화를 보였다. 그 방식 과제에서, 남성들은 양쪽 중간 시간적 교리에서 더 많은 활동을 했다. 여성의 경우 유일하게 유의한 부위는 오른쪽 후뇌엽이었다. 이 연구에서 남성 피험자는 전두엽 피질에서 더 강한 활성화가 나타났으며, 평균적으로 여성 피험자보다 더 긴 반응 시간이 필요했다. 이 결과는 남성이 화자의 행위와 의도에 대해 의식적으로 추론할 필요가 있는 반면 여성은 이를 무의식적으로 할 수도 있다는 의미로 해석됐다. 따라서 남성은 "의미적 처리 단계보다 높은 단계"에서 언어적 의미론과 감정적 의도를 통합할 필요가 있었다."[12]

고려 사항.

감정의 발성 표현에 관한 대부분의 연구는 합성어 사용이나 전문 배우들에 의한 감정의 묘사를 통해 연구되어 왔다. 자발적이고 "자연적인" 음성 샘플에 대한 연구는 거의 이루어지지 않았다. 이러한 인공적인 언어 샘플은 자연적인 언어에 가까운 것으로 여겨져 왔지만, 특히 배우들에 의한 묘사는 감정적인 발성 표현에 대한 고정관념에 영향을 받을 수 있고 청취자 인식의 왜곡된 언어의 강화된 특성을 나타낼 수 있다. 또 다른 고려사항은 청취자 개개인의 인식에 있다. 연구는 일반적으로 반응의 평균을 취하지만 개인의 차이를 심층적으로 조사하는 경우는 거의 없다. 이것은 감정의 목소리 표현에 대한 더 나은 통찰력을 제공할 수 있다.[5]

참고 항목

참조

  1. ^ Leentjens, AF; Wielaert, SM; van Harskamp, F; Wilmink, FW (1998). "Disturbances of affective prosody in patients with schizophrenia; a cross sectional study". Journal of Neurology, Neurosurgery, and Psychiatry. 64 (3): 375–378. doi:10.1136/jnnp.64.3.375. PMC 2169997. PMID 9527153.
  2. ^ Esteve-Gibert, Núria; Guellaï, Bahia (2018). "Prosody in the Auditory and Visual Domains: A Developmental Perspective". Frontiers in Psychology. 9: 338. doi:10.3389/fpsyg.2018.00338. ISSN 1664-1078. PMC 5868325. PMID 29615944.
  3. ^ Jump up to: a b "The Social and Emotional Voice" (PDF). Archived from the original (PDF) on 3 February 2014. Retrieved 29 March 2012.
  4. ^ Jump up to: a b Bachorowski, Jo-Anne (1999). "Vocal Expression and Perception of Emotion". Current Directions in Psychological Science. 8 (2): 53–57. doi:10.1111/1467-8721.00013. S2CID 18785659.
  5. ^ Jump up to: a b c d e f Sauter, Disa A.; Eisner, Frank; Calder, Andrew J.; Scott, Sophie K. (2010). "Perceptual cues in nonverbal vocal expressions of emotion". The Quarterly Journal of Experimental Psychology. 63 (11): 2251–2272. doi:10.1080/17470211003721642. PMC 4178283. PMID 20437296. closed access
  6. ^ Pell, Marc D.; Kotz, Sonja A. (2011). "On the Time Course of Vocal Emotion Recognition". PLoS ONE. 6 (11): e27256. Bibcode:2011PLoSO...627256P. doi:10.1371/journal.pone.0027256. PMC 3210149. PMID 22087275. open access
  7. ^ Jump up to: a b Berckmoes, Celine; Guy Vingerhoets (2004). "Neural Foundations of Emotional Speech Processing". Current Directions in Psychological Science. 13 (5): 182–185. doi:10.1111/j.0963-7214.2004.00303.x. S2CID 143618738.
  8. ^ Gorelick PB, Ross ED (May 1987). "The aprosodias: further functional-anatomical evidence for the organisation of affective language in the right hemisphere". Journal of Neurology, Neurosurgery, and Psychiatry. 50 (5): 553–560. doi:10.1136/jnnp.50.5.553. PMC 1031966. PMID 2438386.
  9. ^ Ryan, Melissa; Murray, Janice; Ruffman, Ted (2010). "Aging and the perception of emotion: Processing vocal emotions alone and with faces". Experimental Aging Research. 36 (1): 1–22. doi:10.1080/03610730903418372. PMID 20054724. S2CID 205555217.
  10. ^ Hoekert, L. M. (2009). "Impaired recognition and expression of emotional prosody in schizophrenia: review and meta-analysis" (PDF). Beyond what is being said: emotional prosody.
  11. ^ Laukka P, Elfenbein HA, Söder N, Nordström H, Althoff J, Chui W, Iraki FK, Rockstuhl T, Thingujam NS (July 2013). "Cross-cultural decoding of positive and negative non-linguistic emotion vocalizations". Frontiers in Psychology. 4: 353. doi:10.3389/fpsyg.2013.00353. PMC 3728469. PMID 23914178.
  12. ^ Fitzsimons M, Sheahan N, Staunton H (July 2001). "Gender and the integration of acoustic dimensions of prosody: implications for clinical studies". Brain and Language. 78 (1): 94–108. doi:10.1006/brln.2000.2448. PMID 11412018. S2CID 45581597.