사운드 현지화

Sound localization

사운드의 현지화는 방향과 거리에서 검출된 사운드의 위치 또는 원점을 식별하는 청취자의 능력입니다.

포유류의 청각 시스템의 소리 위치 결정 메커니즘은 광범위하게 연구되어 왔다.청각 시스템은 귀 사이의 시간 차이와 수준 차이(또는 강도 차이) 및 스펙트럼 정보를 포함하여 음원 국재화에 여러 신호를 사용한다.이 신호들은 새나 파충류와 같은 다른 동물들에 의해서도 사용되지만, 사용법에 차이가 있을 수 있고, 귀 움직임의 영향과 같이 인간의 청각 체계에는 없는 국부적 신호들도 있다.소리를 국소화하는 능력을 가진 동물들은 분명한 진화적 이점을 가지고 있다.

소리가 뇌에 도달하는 방법

소리는 공기나 물과 같은 매체를 통해 전달되는 기계적 진동의 지각적 결과물이다.압축과 희박함의 메커니즘을 통해 음파는 공기를 통과하여 외이의 피나와 콩카를 튕겨나와 귓구멍으로 들어간다.음파는 고막(이어드럼)을 진동시켜 중이의 세 뼈를 진동시키고, 이는 에너지를 타원형 창을 통해 달팽이관으로 보내며, 코르티 기관머리카락 세포에 의해 화학 신호로 바뀌어 달팽이 신경으로 이동하는 나선 신경절 섬유시냅스한다.o 뇌.

신경 상호작용

척추동물에서 청각간 시간차는 뇌간 상부 감람핵에서 계산되는 것으로 알려져 있다.Jeffress[1]따르면, 이 계산은 지연선에 의존합니다: 서로 다른 연결 축삭 길이를 가진 각각의 귀로부터 신경축을 받아들이는 상위 올리브의 뉴런입니다.일부 세포는 다른 쪽 귀보다 한 쪽 귀와 더 직접적으로 연결되어 있기 때문에 특정 청각 간 시간 차이에 특정됩니다.이 이론은 교차 상관의 수학적 절차와 동등하다.그러나 Jeffress의 이론은 여러 개의 동일한 소리 중 첫 번째 소리만을 사용하여 소리의 위치를 결정하는 우선순위 효과를 설명할 수 없기 때문에(따라서 메아리에 의해 야기되는 혼란을 피하기 위해) 반응을 설명하는 데 완전히 사용될 수는 없다.게다가, 최근 작은 포유류의 중뇌와 뇌간에서 이루어진 많은 생리학적 관찰은 제프리스의 독창적인 [2]아이디어의 타당성에 상당한 의문을 던져주었다.

청각 간 레벨 차이(ILD)에 민감한 뉴런은 한쪽 귀의 자극에 의해 흥분되고 다른 쪽 귀의 자극에 의해 억제되며, 따라서 세포의 응답 크기는 두 입력의 상대적인 강도에 따라 달라지며, 다시 귀의 소리 강도에 따라 달라진다.

청각적 중뇌핵인 하등콜리큘러스(IC)에서 많은 ILD 감수성 뉴런은 ILD의 기능으로서 최대 스파이크에서 0 스파이크로 가파르게 감소하는 반응 기능을 가지고 있다.하지만, 훨씬 더 얕은 반응 기능을 가진 많은 뉴런들이 0의 스파이크를 거부하지 않습니다.

혼란의 원추

대부분의 포유류는 청각시간 차이와 청각 간 수준 차이를 사용하여 음원의 위치를 해결하는 데 능숙하다.단, 원추형 슬라이스의 원주를 따라 발생하는 소리의 시간이나 레벨 차이는 없으며, 원추형 슬라이스의 축은 두 귀 사이의 선을 따라 있다.

그 결과, 소정의 원주 경사 높이에 따라 어느 지점에서 발원하는 음파는 애매한 지각 좌표를 갖게 된다.즉, 듣는 사람은 소리가 뒤쪽, 앞쪽, 위쪽, 아래쪽 또는 귀에서 원추형의 밑부분을 따라 다른 곳으로부터 발생했는지 여부를 판단할 수 없게 된다.물론, 이러한 모호성의 중요성은 주제에 매우 가깝거나 매우 멀리 있는 음원에 대해 매우 작지만, 적합성 측면에서 가장 중요한 것은 이러한 중간 거리입니다.

이러한 모호성은 머리를 기울이면 제거될 수 있으며, 이는 각 귀에 도달하는 음파진폭과 위상 모두에 변화를 가져올 수 있습니다.이는 청각 간 축의 수직 방향을 수평으로 변환하여 수평 평면에서의 위치 결정 메커니즘을 활용합니다.또한, 청각 시스템은 청각 간 축의 각도에 변화가 없더라도(즉, 고개를 기울이지 않음), 핀내, 몸통, 그리고 핀나의 연장으로서 손의 일시적인 용도 변경에 의해 발생하는 간섭 패턴을 이용할 수 있다(예: 귓가에 손을 움츠린다).

다른 감각 자극과 마찬가지로, 지각적 모호성도 여러 감각 입력, 특히 시각적 단서의 통합을 통해 달성된다.시각적인 단서는 어떤 인식된 거리에서 원주 내에 소리를 국소화함으로써 소리의 위치를 고정하는 역할을 한다.또한 발음제의 위치를 미리 알고 있으면 현재 위치를 해결하는 데 도움이 됩니다.

사람의 청각 시스템에 의한 소리 위치 파악

음원의 위치 파악은 음원의 위치를 결정하는 과정입니다.뇌는 명암, 스펙트럼, 타이밍의 미묘한 차이를 이용하여 [3][4]음원을 특정할 수 있게 한다.이 섹션에서는 인간의 청각 메커니즘을 보다 깊이 이해하기 위해 인간의 귀 위치추적 이론에 대해 간략히 설명하겠습니다.

개요

현지화는 방위각 또는 수평각, 고도 또는 수직각, 거리(정지음의 경우) 또는 속도(이동음의 [5]경우)의 3차원 위치로 설명할 수 있습니다.

소리의 방위각은 귀 사이의 도착 시간의 차이, 고주파 소리의 상대적 진폭(그림자 효과) 및 몸통, 어깨[5]핀내를 포함한 우리 몸의 다양한 부분의 비대칭 스펙트럼 반사에 의해 신호된다.

거리 신호는 진폭 손실, 고주파 손실 및 반향 신호에 [5]대한 직접 신호의 비율입니다.

근원이 어디에 있느냐에 따라, 우리의 머리는 소리의 음색, 강도, 그리고 스펙트럼 특성을 변화시키는 장벽 역할을 하며, 소리가 어디에서 [4]나는지 뇌가 방향을 잡도록 도와줍니다.두 귀 사이의 이러한 미세한 차이를 청각 간 [4]신호라고 합니다.

파장이 긴 낮은 주파수는 머리 주변의 소리를 회절시켜 뇌가 [4]근원으로부터의 단계적 신호에만 집중하도록 합니다.

헬무트 하스는 가장 먼저 도착한 파면 [4]전선을 이용해 원래 파면보다 10데시벨 더 크게 반사되더라도 음원을 식별할 수 있다는 사실을 발견했다.이 원리는 우선 순위 효과[4]특정 버전인 Haas 효과로 알려져 있습니다.하스는 원음과 반사음의 타이밍이 1밀리초라도 차이가 나도록 측정해 넓은 공간을 확보해 뇌가 원음의 진위치를 식별할 수 있게 했다.신경계는 모든 초기 반사를 하나의 지각 전체로 결합하여 뇌가 여러 가지 다른 소리를 [6]동시에 처리할 수 있게 합니다.신경계는 서로 약 35밀리초 이내에 비슷한 [6]강도를 가진 반사를 결합할 것이다.

이중화 이론

측면 입력 방향(왼쪽, 앞쪽, 오른쪽)을 결정하기 위해 청각 시스템은 다음과 같은 이어 신호 정보를 분석합니다.

1907년, Rayleigh 경은 단음 들뜸을 발생시키기 위해 튜닝 포크를 이용했고, 귓바퀴가 없는 인간의 머리 모델에 대한 가로 방향 소리 국부 이론을 연구했습니다.그는 우선 듀플렉스 [7]이론으로 알려진 청각 간 단서 차이에 기초한 음의 국부화 이론을 제시했다.인간의 귀는 머리의 다른 측면에 있기 때문에 우주에서 다른 좌표를 가지고 있다.듀플렉스 이론 그림에 나타나 있듯이 음원과 귀의 거리가 다르기 때문에 두 귀의 음성 신호 사이에는 시간차와 강도차가 있다.이러한 차이를 ITD(Interaural Time Difference) 및 IID(Interaural Intensity Difference)라고 부릅니다.

이중화 이론

ITD 및 IID

왼쪽 귀(위)와 오른쪽 귀(아래) 사이의 청각시차(ITD).
[음원 : 오른쪽에서 100밀리초 화이트 노이즈]
왼쪽 귀(왼쪽)와 오른쪽 귀(오른쪽) 사이의 청각레벨 차이(ILD).
[음원 : 오른쪽에서 싹쓸이]

듀플렉스 이론 그림에서 소스 B1 또는 소스 B2의 경우 2개의 귀 사이에 전파 지연이 있어 ITD가 생성됨을 알 수 있습니다.동시에 사람의 머리와 귀는 고주파 신호에 음영 효과를 일으켜 IID를 생성할 수 있습니다.

  • 청각간 시차(ITD)– 오른쪽에서 들리는 소리는 왼쪽 귀보다 오른쪽 귀에 먼저 도달합니다.청각 시스템은 (a) 저주파에서의 위상 지연 및 (b) 고주파에서의 그룹 지연으로부터 청각 간 시간 차이를 평가한다.
  • 이론과 실험에 따르면 ITD는 신호 주파수 f와 관련이 있습니다.음향 소스의 각 위치 θ, 반지름 r과 음향 속도는 c, ITD의 기능[8]나는 TD){3×r×죄 ⁡θ/c, 만약 f≤ 4000Hz 2×r×죄 ⁡θ/c, 만약 f>4000Hz{\displaystyle ITD={\begin{경우}3\times{\text{r}.}\sin \theta \times 제시되어 있다 있다 가정하자. /{\tetext 위의 닫힌 형식에서는 0도가 시계 반대 방향으로 전방이라고 가정했습니다.
  • 청각 간 강도 차이(IID) 또는 청각 간 레벨 차이(ILD) – 머리가 왼쪽 귀를 가리므로 오른쪽 귀보다 오른쪽 귀에서 소리가 더 높습니다.이러한 레벨 차이는 주파수에 따라 크게 달라지며 주파수가 증가할수록 증가합니다.대규모 이론 연구에 따르면 IID는 신호 주파수 f와 음향원 θ의 각도 위치와 관련이 있습니다.IID의 함수는 1.+ ( / × {\ IID .0으로 [8]지정됩니다.
  • 1000Hz 미만의 주파수에 대해서는 주로 ITD가 평가되고(위상 지연), 1500Hz 이상의 주파수에 대해서는 주로 IID가 평가됩니다.1000Hz와 1500Hz 사이에는 두 메커니즘이 모두 작용하는 전환 구역이 있습니다.
  • 현지화 정밀도는 청취자 앞의 소스는 1도, 측면의 소스는 15도입니다.인간은 10마이크로초 [9][10]이하의 청각 간 시차를 구별할 수 있다.

저주파 평가

800Hz 미만의 주파수에 대해서는, 헤드의 치수(귀간 거리 21.5cm, 청각간 시간 지연 625µs에 상당)가 음파의 반파장보다 작다.그래서 청각계는 혼란 없이 양쪽 귀 사이의 위상 지연을 결정할 수 있다.이 주파수 범위에서는 특히 약 200Hz 미만에서 청각 간 레벨 차이가 매우 낮기 때문에 레벨 차이만으로는 입력 방향에 대한 정확한 평가가 거의 불가능합니다.주파수가 80Hz 미만으로 떨어지면 귀 사이의 위상차가 방향 [11]평가를 하기에는 너무 작기 때문에 시간차나 레벨차를 사용하여 소리의 가로 소스를 결정하는 것이 어렵거나 불가능해진다.

고주파 평가

1600Hz 이상의 주파수의 경우 헤드의 치수가 음파의 길이보다 큽니다.이들 주파수에서는 음성간 위상만으로는 입력방향을 명확하게 결정할 수 없다.그러나 청각 간 수준 차이는 더 커지며, 이러한 수준 차이는 청각 시스템에 의해 평가된다.또, 고주파에서 보다 현저한 위상차와 그룹 지연의 편성을 통해서도 귀 사이의 지연을 검출할 수 있다.즉, 음원의 입력 방향을 결정하기 위해서 귀 사이의 이 발생의 지연을 이용할 수 있다.이 메커니즘은 잔향 환경에서 특히 중요합니다.소리가 시작된 후 직접 소리가 귀에 도달하지만 아직 반사된 소리는 도달하지 않는 짧은 시간이 있습니다.청각 시스템은 이 짧은 시간 범위를 음원 방향을 평가하기 위해 사용하며, 반사 및 잔향으로 인해 명확한 방향 [12]추정이 불가능한 한 이 감지된 방향을 유지합니다.위에서 설명한 메커니즘은 청취자 앞의 음원과 청취자 뒤의 음원을 구별하는 데 사용할 수 없다. 따라서 추가 단서를 [13]평가해야 한다.

핀나 필터링 효과

HRTF

동기

듀플렉스 이론에 따르면 ITD와 IID는 사운드 현지화에 중요한 역할을 하지만 가로 방향 현지화 문제에 대처할 수 있을 뿐입니다.예를 들어, 두 개의 음향 소스가 사람 머리 오른쪽의 전면과 후면에 대칭으로 배치되면, 이들은 원뿔 모델 효과라고 불리는 동일한 ITD와 IID를 생성하게 된다.하지만 인간의 귀는 여전히 이러한 근원을 구별할 수 있다.게다가 자연청각에서는 ITD나 IID 없이 한쪽 귀만으로 정확하게 구별할 수 있습니다.이중화 이론의 단점 때문에 연구자들은 핀나 필터링 효과 [14][15]이론을 제안했다.인간 피나의 모양은 복잡한 주름으로 오목하고 수평과 수직 모두 비대칭이다.반사 및 직접파는 음향 소스와 관련하여 고막에 주파수 스펙트럼을 생성합니다.그런 다음 청각 신경은 이 [16]주파수 스펙트럼을 사용하여 근원의 위치를 파악합니다.

수학적 모형

핀나 필터링 효과에 의해 생성된 이러한 스펙트럼의 실마리를 Head-Related Transfer Function(HRTF; 헤드 관련 전송 함수)로 나타낼 수 있습니다.대응하는 시간 도메인 표현은 Head-Related Impulse Response(HRIR; 헤드 관련 임펄스 응답)라고 불립니다.HRTF는 또한 자유장에서 귀관의 특정 지점으로의 전달 함수라고도 합니다.일반적으로 HRTF는 LTI [8]시스템으로 인식됩니다.

여기서 L과 R은 각각 왼쪽 귀와 오른쪽 귀, L P_ P {{ 이관 입구에서의 음압 진폭, 0 {0}은 머리 중심부의 음압 진폭이다.청취자가 존재하지 않을 때 inate합니다.일반적으로 HRTF의 H R 소스 각도 {\(\ 각도{\(\의 함수로서 r의 중심과 소스 r 의 동등한 치수α

HRTF 데이터베이스

현재 HRTF 데이터베이스를 측정하는 주요 기관은 CIPIC[17] International Lab, MIT Media Lab, Oldenburg 대학의 정신 음향학 대학원, 위스콘신 매디슨 대학의 신경생리학 연구소 및 NASA의 Ames Lab입니다.정상 및 청각 장애가 있는 사람과 동물의 HRIR 데이터베이스를 공개적으로 이용할 수 있다.

HRIR

3D 공간 현지화를 위한 기타 단서

모노럴 신호

인간의 외이, 즉 피나와 외이도 구조는 방향 선택 필터를 형성한다.중앙 평면의 음향 입력 방향에 따라 다른 필터 공진이 활성화됩니다.이러한 공명은 귀의 주파수 응답에 방향별 패턴을 삽입하며, 이는 수직적 소리 위치 파악위해 청각 시스템에 의해 평가될 수 있다.머리, 어깨 및 몸통에서 다른 방향 선택 반사와 함께 외이 전달 기능을 형성한다.귀의 주파수 응답 패턴은 외이의 모양과 크기에 따라 매우 개별적입니다.헤드폰으로 소리를 내고 외이 표면이 다른 다른 헤드를 통해 녹음을 하면 듣는 사람과는 방향 패턴이 달라 이 외이를 이용해 중앙 평면에서 방향을 평가하려고 할 때 문제가 생긴다.그 결과, 더미 헤드 녹음을 들을 때 앞-뒷면 순열 또는 머리 안쪽 국부화가 나타날 수 있으며, 다른 방법으로는 바이노럴 녹음이라고 한다.인간 피실험자는 고주파 음성은 단독 국부화할 수 있지만 저주파 음성은 국부화할 수 없는 것으로 나타났다.그러나 낮은 주파수에서는 바이노럴 국소화가 가능했다.이는 핀나가 고주파의 [18]음파와만 상호작용할 수 있을 정도로 작기 때문일 수 있습니다.사람들은 7,000Hz 이상의 주파수를 포함하는 복잡한 소리의 고도만을 정확하게 국부화할 수 있는 것으로 보이며, 피나는 [19]반드시 존재해야 한다.

동적 양귀 신호

헤드가 정지해 있는 경우, 측면 소리 위치 파악을 위한 양귀 신호(청간 시간 차이 및 청간 수준 차이)는 중앙 평면에서 소리의 위치에 대한 정보를 제공하지 않는다.동일한 ITD와 ILD는 수평 방향이 일정하다면 눈높이 또는 어느 높이에서나 소리로 생성할 수 있다.그러나 헤드가 회전하면 ITD와 ILD가 동적으로 변화하며, 이러한 변화는 높이에 따라 다릅니다.예를 들어 눈높이의 음원이 똑바로 앞에 있고 머리가 왼쪽으로 돌면 소리가 왼쪽 귀보다 오른쪽 귀에서 더 커지고 더 빨리 도착합니다.그러나 음원이 바로 오버헤드일 경우 헤드가 회전해도 ITD와 ILD에는 변화가 없습니다.중간 고도는 중간 정도의 변화를 일으키며, 머리 이동 중 두 귀에 대한 양방향 신호 전달이 뒤바뀌면 [13][20]듣는 사람 뒤에서 소리가 들립니다.Hans[21] Wallach는 머리를 움직이는 동안 소리의 양귀 신호를 인위적으로 변경했다.소리는 객관적으로 눈높이에 배치되었지만, 헤드가 회전할 때 발생하는 ITD와 ILD의 동적 변화는 음원을 높였을 때 발생할 수 있는 변화였다.이 경우 합성 고도에서 소리가 들렸다.음원이 객관적으로 눈높이에 머무른다는 사실은 모노럴 단서가 표고를 특정하는 것을 막았고, 이는 소리가 수직 차원에 정확히 위치할 수 있게 한 머리 이동 중 바이노럴 단서의 동적 변화였음을 보여준다.머리 움직임을 능동적으로 생성할 필요는 없다. 눈을 가린 피사체를 회전 의자에 앉혀 수동적으로 머리를 회전시킬 때와 유사한 설정에서 정확한 수직 위치 파악이 이루어졌다.양귀선의 동적 변화가 인식된 머리 회전에 수반되는 한, 합성 고도를 [13]인식했다.

음원의 거리

[필요한 건]

인간의 청각 시스템은 음원의 거리를 결정할 수 있는 제한된 가능성만 가지고 있다.클로즈업 범위에는 극한 레벨 차이(예: 한쪽 귀에 속삭일 때) 또는 클로즈업 범위의 특정 피나(귀의 가시 부분) 공명과 같은 거리 결정에 대한 징후가 있다.

청각 시스템은 다음과 같은 단서를 사용하여 음원까지의 거리를 추정합니다.

  • 직접/반사비:밀폐된 방에서 두 가지 유형의 소리가 청취자에게 전달됩니다.직접 소리는 벽에 반사되지 않고 듣는 사람의 귀에 들어온다.반사된 소리는 청취자에게 도달하기 전에 적어도 한 번 벽에서 반사된 적이 있습니다.직접음과 반사음의 비율은 음원의 거리를 나타낼 수 있습니다.
  • 음량:멀리 있는 음원은 가까운 음원에 비해 음량이 낮습니다.이 측면은 특히 잘 알려진 음원에 대해 평가할 수 있습니다.
  • 사운드 스펙트럼:고주파는 저주파보다 공기에 의해 빠르게 감쇠됩니다.따라서, 고주파가 감쇠하기 때문에, 원거리 음원은 가까운 음원보다 음소거가 더 잘 들리지 않습니다.알려진 스펙트럼(예: 음성)을 가진 소리의 경우 인식된 소리의 도움을 받아 거리를 대략적으로 추정할 수 있다.
  • ITDG: 초기 시간 지연 간격은 직접파의 도달과 청취자의 첫 번째 강한 반사 사이의 시간 차이를 나타냅니다.인근 소스는 비교적 큰 ITDG를 생성하며, 첫 번째 반사는 더 긴 경로를 가지며 아마도 몇 배 더 길어질 수 있습니다.음원이 멀리 있는 경우 직접 음파와 반사 음파는 경로 길이가 비슷합니다.
  • 움직임: 시각 시스템과 마찬가지로 음향 지각에서도 움직임 시차 현상이 있습니다.움직이는 청취자의 경우, 근처의 음원은 먼 곳의 음원보다 더 빨리 지나갑니다.
  • 레벨 차이:매우 가까운 음원은 귀 사이에 다른 수준의 음원을 일으킵니다.

신호 처리

인간 청각계의 음향 처리는 이른바 임계 대역으로 이루어진다.청력 범위는 각각 1 Bark 또는 100 Mel의 폭을 갖는 24개의 임계 대역으로 분할됩니다.방향 분석을 위해 임계 대역 내부의 신호를 함께 분석합니다.

청각 시스템은 간섭하는 소음에서 원하는 음원의 소리를 추출할 수 있습니다.이렇게 하면 다른 스피커도 대화할 수 있는 경우(칵테일 파티 효과) 청취자는 한 스피커에만 집중할 수 있습니다.칵테일 파티 효과의 도움으로 간섭 방향의 소리가 원하는 방향의 소리와 비교하여 감쇠됩니다.청각 시스템은 신호 대 잡음 비를 최대 15dB까지 증가시킬 수 있습니다. 이는 간섭음이 실제 음량의 절반([citation needed]또는 그 이하)까지 감쇠되는 것을 의미합니다.

밀폐된 방에서의 현지화

밀폐된 방에서는 음원에서 나오는 직접적인 소리가 듣는 사람의 귀에 들어올 뿐만 아니라 벽에 반사된 소리도 들린다.청각 시스템은 먼저 도착하는 [12]직접 소리만 분석하여 소리 위치 파악을 하고 나중에 도착하는 반사 소리는 분석하지 않습니다(제1파 전선의 법칙).따라서 에코 환경에서도 소리 위치 파악이 가능합니다.이 에코 캔슬레이션은 DNLL([22]Lateral Lemniscus)의 등핵에서 발생합니다.

직접음이 우세하고 방향평가에 사용할 수 있는 기간을 결정하기 위해 청각시스템은 다른 임계대역에서의 음량변화와 인식방향의 안정성을 분석한다.여러 크리티컬 대역에서 음량의 강한 공격이 있고 인식 방향이 안정되어 있는 경우, 이 공격은 새로 진입하는 음원의 직접음 또는 신호 특성이 변화하고 있는 음원에 의해 발생할 가능성이 높습니다.이 짧은 시간은 청각 시스템에 의해 이 소리의 방향 및 음량 분석에 사용됩니다.조금 늦게 반사가 오면 임계 대역 내부의 음량을 그렇게 강하게 높이지 않지만, 여러 반사 방향의 소리가 섞여 있기 때문에 방향성이 불안정해집니다.그 결과 청각 시스템에 의해 새로운 방향 분석이 트리거되지 않는다.

이 직접음으로부터의 첫 번째 검출 방향은 안정된 방향 정보와 조합되어 새로운 방향 분석이 가능함을 나타낼 때까지 발견된 음원 방향으로 간주됩니다.(프란센 효과 참조)

응용 프로그램에 대한 특정 기술

오디오 전송 스테레오 시스템

이런 종류의 음향 위치 기술은 우리에게 실제 가상 스테레오 [23]시스템을 제공합니다.KEMAR와 같은 "스마트" 마네킹을 사용하여 신호를 수집하거나 DSP 방법을 사용하여 소스로부터 귀까지 전송 과정을 시뮬레이션합니다.증폭, 녹음, 전송 후 수신된 두 채널은 이어폰이나 스피커를 통해 재생됩니다.이 국소화 접근방식은 전기음향법을 사용하여 청취자의 청각기기를 원음장으로 이동시킴으로써 원음장의 공간정보를 얻는다.그것의 가장 큰 장점은 음향 이미지가 생동감 있고 자연스럽다는 것이다.또한 3D 시스템의 음향 이미지를 재현하기 위해 두 개의 독립적인 전송 신호만 있으면 됩니다.

그림 6 마니킨을 사용한 소리 현지화

3차원 패러 가상화 스테레오 시스템

대표적인 것이 SRS Audio Sandbox, Spatializer Audio Lab,[23] Qsound Qxpander입니다.이들은 HRTF를 사용하여 공통 바이너리 채널 스테레오 재생을 사용하여 서로 다른 방향에서 수신된 음향 신호를 시뮬레이션합니다.따라서 반사된 음파를 시뮬레이션하여 주관적인 공간감과 포락선을 개선할 수 있습니다.패러 버추얼라이제이션 스테레오 시스템이기 때문에 스테레오 사운드 정보를 시뮬레이트하는 것이 주된 목적입니다.기존의 스테레오 시스템은 사람의 귀와는 상당히 다른 센서를 사용한다.이러한 센서는 다른 방향에서 음향 정보를 수신할 수 있지만, 인간의 청각 시스템과 동일한 주파수 응답을 가지고 있지 않다.따라서 바이너리 채널 모드를 적용해도 인간의 청각 시스템은 여전히 3D 음향 효과장을 느낄 수 없습니다.그러나 3D 파라 가상화 스테레오 시스템은 이러한 단점을 극복합니다.HRTF 원리를 사용하여 원래 음장에서 음향 정보를 수집하고 공통 이어폰이나 스피커를 통해 생생한 3D 음장을 생성합니다.

멀티채널 스테레오 가상 리플리케이션

멀티채널 스테레오 시스템에는 많은 재생 채널이 필요하기 때문에 일부 연구자들은 재생 채널의 [23]수를 줄이기 위해 HRTF 시뮬레이션 기술을 채택했습니다.멀티채널 시스템에서 여러 스피커를 시뮬레이트하기 위해 사용하는 스피커는 2개뿐입니다.이 과정을 가상 복제라고 합니다.기본적으로 이러한 접근법은 청각 간 차이 원리와 핀나 필터링 효과 이론을 모두 사용한다.유감스럽게도 이러한 접근 방식은 5.1/7.1 서라운드 사운드 시스템과 같은 기존의 멀티채널 스테레오 시스템을 완벽하게 대체할 수 없습니다.그 이유는 청취 영역이 상대적으로 클 경우 HRTF를 통한 시뮬레이션 재생으로 대칭 위치에서 반전 음향 이미지가 발생할 수 있기 때문입니다.

동물

대부분의 동물들은 두 개의 귀를 가지고 있기 때문에, 인간의 청각 시스템의 많은 영향들은 다른 동물들에게도 발견될 수 있다.따라서 청각 간 시간차(청각 간 위상차)와 청각 간 수준 차이는 많은 동물들의 청각에 중요한 역할을 한다.그러나 이러한 효과의 위치 파악에 미치는 영향은 머리 크기, 귀 거리, 귀 위치 및 귀의 방향에 따라 달라집니다.

측면 정보(왼쪽, 앞쪽, 오른쪽)

귀가 머리 측면에 위치하는 경우 인간의 청각 시스템과 유사한 측면 위치 결정 신호를 사용할 수 있다.즉, 낮은 주파수에 대한 청각간 시간차(청각간 위상차) 평가와 높은 주파수에 대한 청각간 레벨차 평가입니다.명확한 결과를 제공하는 한, 청각 간 위상 차이의 평가는 유용합니다.이는 귓거리가 음파의 절반(최대 1파장)보다 작으면 해당된다.사람보다 머리가 큰 동물의 경우 청각 간 위상차에 대한 평가 범위가 낮은 주파수로 이동하며, 머리가 작은 동물의 경우 이 범위가 더 높은 주파수로 이동한다.

국소화할 수 있는 최소 주파수는 귀의 거리에 따라 달라집니다.귀 거리가 긴 동물은 사람보다 낮은 주파수를 찾을 수 있다.귀 거리가 작은 동물의 경우 가장 낮은 국소화 빈도는 인간보다 높다.

귀가 머리 측면에 있는 경우 높은 주파수에 대해 청각 간 수준 차이가 나타나며 국소화 작업에 대해 평가할 수 있습니다.머리 꼭대기에 귀가 있는 동물의 경우, 머리의 음영이 나타나지 않기 때문에 평가할 수 있는 청각 간 수준 차이가 훨씬 적을 것이다.이 동물들 중 많은 수가 귀를 움직일 수 있고, 이러한 귀의 움직임은 측면 위치 파악 신호로 사용될 수 있습니다.

오돈토케스

돌고래는 먹이를 탐지, 식별, 지역화, 포획하는 데 도움을 주기 위해 반향 위치에 의존합니다.돌고래 소나 신호는 높은 방향성(3dB 빔 폭 약 10도), 광대역(3dB 대역폭 일반적으로 약 40kHz, 피크 주파수 40kHz), 단시간 클릭(약 40μs)을 이용하여 3차원 수중 환경에서 여러 개의 작은 표적을 위치시키는 데 매우 적합합니다.돌고래는 약 1도의 분해능으로 수동적이고 능동적으로 소리를 위치시킬 수 있습니다.교차 모달 매칭(시력과 반향 위치 사이)은 돌고래가 반향 위치 파악을 통해 조사된 복잡한 물체의 공간 구조를 인지한다는 것을 시사한다. 이는 개별 물체의 특징을 공간적으로 해결하고 물체 형상의 전체적 표현으로 통합해야 하는 업적이다.돌고래는 작은 양귀 강도 및 시간 차이에 민감하지만, 수평면과 수직면 모두에서 소리 위치 파악을 위해 잘 발달된 머리 관련 전달 기능에서 파생된 위치 의존적 스펙트럼 신호를 사용한다는 증거가 있다.매우 짧은 시간적분 시간(264μs)으로 다양한 거리에서 여러 대상을 위치시킬 수 있습니다.국소 적응에는 두개골, 코 주머니, 이마 및 턱의 특수 지질 구조뿐만 아니라 음향적으로 격리된 중이와 내이의 현저한 비대칭성이 포함된다.

중앙 평면(앞, 위, 뒤, 아래)에 있습니다.

많은 포유동물의 경우 외이도 입구 근처의 피나에도 뚜렷한 구조물이 있다.그 결과, 방향 의존적 공명이 나타날 수 있으며, 이는 인간 청각 시스템의 중앙 평면에서 위치 결정과 유사하게 추가 위치 결정 신호로 사용될 수 있다.동물들도 사용하는 추가적인 국부적 신호들이 있다.

헤드 틸트

중앙 평면의 소리 위치 파악(소리의 고도)을 위해 서로 다른 높이에 배치된 두 개의 검출기를 사용할 수도 있다.그러나 동물의 경우 소리가 움직임을 완료하기에 충분히 오래 지속된다면 머리를 기울이는 것만으로 거친 고도 정보를 얻을 수 있다.그래서 소리를 정확하게 국소화하려고 할 때 머리를 한쪽으로 젖히는 선천적인 행동이[vague] 설명돼요.시간 차이 또는 진폭 차이 신호에서 2개 이상의 차원으로 순간 국부화를 얻으려면 3개 이상의 검출기가 필요하다.

커플링 이어(플라이)가 있는 위치 확인

작은 기생 파리 오르미아 오크라세아독특한 귀 때문에 소리 위치 결정 실험에서 모범적인 유기체가 되었다.두 귀에 도달하는 소리의 시차를 통상적으로 계산하기에는 너무 작지만 음원의 방향을 정밀하게 판단할 수 있다.반대쪽 귀의 고막은 기계적으로 직접 연결되어 있어 마이크로초 미만의 시간 차이를[24][25] 해결할 수 있으며 새로운 신경 코딩 [26]전략이 필요합니다.Ho는[27] 개구리의 결합된 고막 시스템이 동물의 머리에 작은 도착 시간과 소리 수준 차이만 있을 때 청각 간 진동 불균형을 증가시킬 수 있다는 것을 보여주었다.고막 결합 구조를 기반으로 지향성 마이크를 구축하려는 노력이 진행 중입니다.

바이코디네이트 사운드 현지화(오울)

대부분의 올빼미는 야행성 또는 뇌근육성 맹금류이다.그들은 밤에 사냥을 하기 때문에 비시각적 감각에 의존해야 한다.로저[28] 페인의 실험은 올빼미가 열이나 냄새가 아닌 먹이가 내는 소리에 민감하다는 것을 보여주었다.사실, 이 소리 신호들은 쥐들이 앉아 있는 먼 곳에서 쥐를 위치시키는 데 필요하고 충분합니다.이것이 작동하기 위해서는 올빼미는 음원의 방위각과 고도를 정확하게 위치시킬 수 있어야 한다.

역사

바이노럴이라는 용어는 문자 그대로 '두 귀로 듣는 것'을 의미하며 1859년 양쪽 귀로 같은 소리를 듣거나 두 개의 분리된 소리를 각각 귀로 듣는 관행을 나타내기 위해 도입되었다.1916년이 되어서야 독일철학자이자 심리학자인 칼 스툼프(1848–1936)는 서로 다른 자극으로 양쪽 귀를 자극하는 것을 가리키는 이분법과 [29]같은 자극으로 양쪽 귀를 동시에 자극하는 이분법을 구별했다.

나중에, 이분법적이든 디오틱적이든 양귀 청력이 소리 국부화를 [29][30][page needed]일으키는 수단이라는 것이 명백해질 것이다.

양귀청각의 과학적 고려는 그 현상이 그렇게 명명되기 전에 시작되었고, 윌리엄 찰스 웰스 (1757–1817)가 그의 양안시 [31]연구에 기초하여 1792년에 발표한 추측과 함께.Giovanni Battista Venturi (1746–1822)는 사람들이 양쪽 귀 또는 손가락으로 막힌 한쪽 귀를 사용하여 소리를 국소화하려고 하는 실험을 수행하고 설명했습니다.이 작업은 후속 작업이 아니라 다른 사람들이 인간의 소리 현지화의 [29][31]원리를 알아낸 후에야 복구되었습니다.레일리 경 (1842–1919)은 거의 75년 [31]후에 벤추리가 처음 실험을 한 줄도 모른 채 이와 같은 실험을 하고 그 결과를 도출했습니다.

찰스 휘트스톤 (1802–1875)은 광학 및 색채 혼합을 연구했고 청력도 탐구했습니다.그는 "마이크"라고 불리는 장치를 발명했는데, 각각의 귀 위에 금속판이 있고, 각각은 금속 막대에 연결되어 있다; 그는 이 장치를 소리를 증폭시키기 위해 사용했다.그는 또한 1827년에 [31]발표한 청각이 어떻게 작용하는지를 알아내기 위해 동시에 또는 별도로 양쪽 귀에 을 맞추는 실험을 했다.에른스트 하인리히 베버 (1795–1878)와 아우구스트 시벡 (1805–1849)와 윌리엄 찰스 웰스 또한 쌍안 통합의 [31]원리와 양귀 청력이라고 알려진 것을 비교하고 대조하려고 시도했다.

두 귀 사이의 소리 신호의 차이가 어떻게 소리 국부화와 방향을 가능하게 하는 방식으로 청각 처리에 기여하는지를 이해하는 것은 1859년 '바이노럴'이라는 용어를 만든 서머빌 스콧 앨리슨에 의해 발명된 이후 상당히 발전되었다.Alison은 René Théophile Hyacinthe Laennec (1781–1826)에 의해 발명된 청진기를 기반으로 했다. 청진기에는 두 개의 분리된 "픽업"이 있어 사용자가 두 개의 분리된 [31]위치에서 파생된 소리를 듣고 비교할 수 있다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Jeffress L.A. (1948). "A place theory of sound localization". Journal of Comparative and Physiological Psychology. 41 (1): 35–39. doi:10.1037/h0061495. PMID 18904764.
  2. ^ Schnupp J., Nelken I & King A.J., 2011.청각 신경과학, MIT 프레스, 5장
  3. ^ Blauert, J.: 공간청각: 인간의 소리 현지화의 정신물리학; MIT Press; 케임브리지, 매사추세츠 (1983년)
  4. ^ a b c d e f 톰슨, 다니엘 M.오디오에 대해서:프로젝트 또는 Professional Recording Studio를 최대한 활용합니다.보스턴, 매사추세츠주: 버클리, 2005.인쇄.
  5. ^ a b c 도로, 커티스컴퓨터 음악 튜토리얼.케임브리지, 매사추세츠: MIT, 2007.인쇄.
  6. ^ a b Benade, Arthur H. 음악 음향학의 기초.뉴욕: 옥스퍼드 UP, 1976년.인쇄.
  7. ^ 레일리 L. 12세음향에 대한 우리의 인식[J]런던, 에든버러, 더블린 철학잡지와 과학저널, 1907, 13(74): 214-232.
  8. ^ a b c Zhou X. 가상현실 기술[J].Telecommunications Science, 1996, 12(7): 46-.
  9. ^ Ian Pitt. "Auditory Perception". Archived from the original on 2010-04-10.
  10. ^ DeLiang Wang; Guy J. Brown (2006). Computational auditory scene analysis: principles, algorithms and applications. Wiley interscience. ISBN 9780471741091. For sinusoidal signals presented on the horizontal plane, spatial resolution is highest for sounds coming from the median plane (directly in front of the listener) with about 1 degree MAA, and it deteriorates markedly when stimuli are moved to the side – e.g., the MAA is about 7 degrees for sounds originating at 75 degrees to the side.
  11. ^ 청각 현지화 - Columbia College, Chicago - Audio Arts & Acoustics acousticslab.org/psychoacoustics, (Columbia College, Chicago) - 2021년 5월 16일 접속
  12. ^ a b Wallach, H; Newman, E.B.; Rosenzweig, M.R. (July 1949). "The precedence effect in sound localization". American Journal of Psychology. 62 (3): 315–336. doi:10.2307/1418275. JSTOR 1418275. PMID 18134356.
  13. ^ a b c Wallach, Hans (October 1940). "The role of head movements and vestibular and visual cues in sound localization". Journal of Experimental Psychology. 27 (4): 339–368. doi:10.1037/h0054629.
  14. ^ "Acoustics: The Ears Have It". Newsweek. 1961-12-04. p. 80.
  15. ^ Batteau D.인간의 현지화에서 피나의 역할[J]런던 왕립학회 B: 생물과학, 1967, 168(1011): 158-180.
  16. ^ Musicant A D, Butler R A.핀내 기반 스펙트럼 신호가 소리 위치 파악에 미치는 영향[J].미국 음향학회 저널, 1984, 75(4): 1195~1200.
  17. ^ "The CIPIC HRTF Database". Archived from the original on 2013-09-13.
  18. ^ Robert A. BUTLER; Richard A. HUMANSKI (1992). "Localization of sound in the vertical plane with and without high-frequency spectral cues" (PDF). Perception & Psychophysics. 51 (2): 182–186. doi:10.3758/bf03212242. PMID 1549436.
  19. ^ Roffler Suzanne K.; Butler Robert A. (1968). "Factors That Influence the Localization of Sound in the Vertical Plane". J. Acoust. Soc. Am. 43 (6): 1255–1259. doi:10.1121/1.1910976. PMID 5659493.
  20. ^ 클링, J.W. & Riggs, L.A., 실험 심리학, 제3판, 홀트 라인하트 & 윈스턴, 1971년, 267-268페이지.
  21. ^ Wallach, H (1939). "On sound localization". Journal of the Acoustical Society of America. 10 (4): 270–274. doi:10.1121/1.1915985.
  22. ^ Kidd, Sean A.; Kelly, Jack B. (1996-11-15). "Contribution of the Dorsal Nucleus of the Lateral Lemniscus to Binaural Responses in the Inferior Colliculus of the Rat: Interaural Time Delays". The Journal of Neuroscience. 16 (22): 7390–7397. doi:10.1523/JNEUROSCI.16-22-07390.1996. ISSN 0270-6474. PMC 6578946. PMID 8929445.
  23. ^ a b c 자오 R. 중국과학기술대학, 2006년 청각전달음 위치결정시스템 연구[D]
  24. ^ Miles RN, Robert D, Hoy RR (Dec 1995). "Mechanically coupled ears for directional hearing in the parasitoid fly Ormia ochracea". J Acoust Soc Am. 98 (6): 3059–70. doi:10.1121/1.413830. PMID 8550933.
  25. ^ Robert D, Miles RN, Hoy RR (1996). "Directional hearing by mechanical coupling in the parasitoid fly Ormia ochracea". J Comp Physiol A. 179 (1): 29–44. doi:10.1007/BF00193432. PMID 8965258. S2CID 21452506.
  26. ^ Mason AC, Oshinsky ML, Hoy RR (Apr 2001). "Hyperacute directional hearing in a microscale auditory system". Nature. 410 (6829): 686–90. doi:10.1038/35070564. PMID 11287954. S2CID 4370356.
  27. ^ Ho CC, Narins PM (Apr 2006). "Directionality of the pressure-difference receiver ears in the northern leopard frog, Rana pipiens pipiens". J Comp Physiol A. 192 (4): 417–29. doi:10.1007/s00359-005-0080-7. PMID 16380842. S2CID 5881898.
  28. ^ Payne, Roger S.외양간 올빼미가 소리를 듣고 먹이를 찾는 방법.살아있는 새, 코넬 조류학 연구소 제1회 연차, 151-159년
  29. ^ a b c Wade, NJ; Ono, H (2005). "From dichoptic to dichotic: historical contrasts between binocular vision and binaural hearing". Perception. 34 (6): 645–68. doi:10.1068/p5327. PMID 16042189. S2CID 43674057.
  30. ^ Beyer, Robert T. (1999). Sounds of our times : two hundred years of acoustics. New York: Springer. ISBN 978-0-387-98435-3.
  31. ^ a b c d e f Wade, Nicholas J.; Deutsch, Diana (July 2008). "Binaural Hearing—Before and After the Stethophone" (PDF). Acoustics Today. 4 (3): 16–27. doi:10.1121/1.2994724.

외부 링크