레이텐시(오디오)

Latency (audio)

지연은 오디오 신호가 시스템에 들어갈 때부터 시스템이 나올 때까지의 짧은 지연 시간(통상은 밀리초 단위로 측정)을 의미합니다.오디오 시스템에서의 레이텐시의 잠재적인 요인으로는 아날로그-디지털 변환, 버퍼링, 디지털 신호 처리, 전송 시간, 디지털-아날로그 변환전송 매체에서의 음속 등이 있다.

레이텐시는 사운드 강화 시스템, 폴드백 시스템(특히 인이어 모니터를 사용하는 시스템) 프로페셔널 오디오에서 중요한 퍼포먼스 지표가 될 수 있습니다.과도한 음성 지연은 통신 어플리케이션의 콜 품질을 저하시킬 가능성이 있습니다.인터랙티비티에서는, 컴퓨터의 저레이텐시의 오디오가 중요합니다.

전화 통화

모든 시스템에서 지연은 코덱 지연, 재생 지연 및 네트워크 지연의 3가지 요소로 구성됩니다.

전화 통화의 지연은 에서 귀로 지연이라고 불리기도 합니다.통신업계에서는 Quality of Experience(QoE)라는 용어도 사용합니다.음성 품질은 ITU 모델에 따라 측정됩니다.입에서 귀까지의 지연이 200밀리초를 넘으면 측정 가능한 콜의 품질이 급속히 저하됩니다.평균 오피니언 점수(MOS)는 또한 표준 G.107,[1]: 800 G.108[2] 및 G.109에[3] 정의된 ITU의 품질 척도와 거의 선형적으로 비교되며, 품질 계수 R은 0에서 100까지이다.MOS가 4('양호')이면 R 점수가 80 이상입니다.100R을 달성하려면 MOS가 4.5를 넘어야 합니다.

ITU 및 3GPP는 지연 감도에 [4]따라 최종 사용자 서비스를 클래스로 그룹화합니다.

지연에 매우 민감함 지연에 대한 민감도가 낮다
  • 회화 클래스(3GPP)
  • 인터랙티브 클래스(ITU)
  • 인터랙티브 클래스(3GPP)
  • 응답 클래스(ITU)
  • 스트리밍 클래스(3GPP)
  • 적시 클래스(ITU)
  • 백그라운드 클래스(3GPP)
  • 비중요 클래스(ITU)
서비스 회화형 비디오/음성, 실시간 비디오 보이스 메시지 비디오 및 음성 스트리밍 팩스.
실시간 데이터 트랜잭션 데이터 비실시간 데이터 배경 데이터

마찬가지로 입에서 귀까지 지연에 관한 G.114 권장사항은 지연이 200밀리초를 넘지 않는 한 대부분의 사용자가 "매우 만족"하고 있으며 이에 따른 R은 90 이상임을 나타냅니다.코덱의 선택도 중요한 역할을 합니다.G.711과 같은 최고 품질의(및 최고 대역폭) 코덱은 통상, 부호화/디코딩 지연을 최소한으로 억제하도록 설정되어 있기 때문에, 충분한 throughput이 100 밀리초 미만인 네트워크에서는 지연을 실현할 수 있습니다.64 kbit/s의 비트환율로 G.711은 공중전화 교환망에서 주로 사용되는 부호화 방식입니다.

모바일 콜

GSM 및 UMTS 네트워크에서 사용되는 AMR 협대역 코덱은 인코딩 및 디코딩 프로세스에 지연을 가져옵니다.

모바일 오퍼레이터가 기존의 best effort형 네트워크를 업그레이드하여 All-IP 네트워크상에서 동시에 여러 유형의 서비스를 지원하는 경우 Hierarchical Quality of Service(H-QoS; 계층형 Quality of Service) 등의 서비스를 통해 음성 콜이나 기타 무선 백홀트래픽 [5][6][7]등의 시간에 민감한 프로토콜을 우선시할 수 있습니다.

모바일 지연의 또 다른 측면은 네트워크 간 핸드오프입니다.네트워크 A의 고객이 네트워크 B의 고객에게 콜할 때 콜은 2개의 개별 무선 액세스네트워크, 2개의 코어 네트워크 및 2개의 공급자 간에 물리적인 [8]상호접속을 실행하는 인터링크 게이트웨이 모바일스위칭 센터(GMSC)를 통과해야 합니다.

IP 콜

엔드 투 엔드의 QoS 관리 및 보증 레이트 접속을 사용하면 지연을 아날로그 PSTN/POTS 수준으로 줄일 수 있습니다.충분한 대역폭과 최소한의 지연을 가진 안정적인 연결에서는 VoIP 시스템은 일반적으로 최소 20ms의 고유 지연을 가집니다.이상적인 네트워크 조건에서는 일반 소비자용으로 [9][10]최대 150밀리초의 지연이 요구됩니다.에코가 존재하여 시스템이 에코 억제[11]취소를 수행해야 하는 경우 지연이 더 큰 고려 사항입니다.

컴퓨터 오디오

지연은 컴퓨터의 오디오플랫폼에서 특히 문제가 될 수 있습니다.지원되는 인터페이스 최적화를 통해 지연 시간이 너무 짧아 사람의 귀가 감지할 수 없습니다.버퍼 크기를 줄임으로써 지연 시간을 [12]줄일 수 있습니다.인기 있는 최적화 솔루션은 Steinberg의 ASIO입니다.이 솔루션은 오디오 플랫폼을 바이패스하고 오디오 신호를 사운드 카드의 하드웨어에 직접 연결합니다.많은 프로페셔널 및 준프로페셔널 오디오 애플리케이션은 ASIO 드라이버를 사용하여 사용자가 실시간으로 [13]오디오 작업을 수행할 수 있습니다.Pro Tools HD는 ASIO와 같은 저지연 시스템을 제공합니다.Pro Tools 10 및 11은 ASIO 인터페이스 드라이버와도 호환됩니다.

Linux 실시간[14] 커널은 Linux 커널이 사용하는 표준 타이머 주파수를 변경하여 모든 프로세스 또는 스레드에 실시간 우선순위를 부여하는 수정된 커널입니다.즉, 오디오 스트림과 같은 시간 크리티컬 프로세스가 네트워크액티비티와 같은 중요하지 않은 다른 프로세스보다 우선할 수 있습니다.이것은 유저 마다 설정할 수도 있습니다(예를 들면, 유저 「tux」의 프로세스가 유저 「nobody」의 프로세스나 복수의 시스템 데몬의 프로세스보다 우선하는 경우가 있습니다).

디지털 텔레비전 오디오

현대의 많은 디지털 텔레비전 수상기, 셋톱 박스 및 AV 수상기는 정교한 오디오 처리를 사용합니다.이것에 의해, 오디오 신호를 수신하는 시간과 스피커로 재생하는 시간 사이에 지연이 발생할 수 있습니다.TV는 비디오 신호 처리에도 지연이 발생하기 때문에 시청자가 눈치채지 못할 정도로 두 신호가 충분히 동기화될 수 있습니다.다만, 음성 지연과 비디오 지연의 차이가 큰 경우는, 그 영향이 혼란스러울 가능성이 있습니다.일부 시스템에는 비디오와 동기화하도록 오디오 지연을 조정할 수 있는 립싱크 설정이 있고, 일부 오디오 처리 단계를 끌 수 있는 고급 설정이 있는 시스템도 있습니다.

오디오 지연은 또한 성공하기 위해 정확한 타이밍이 요구되는 리듬 게임에서 심각한 해로움입니다.대부분의 게임은 지연 보정 설정을 가지고 있으며, 이 설정을 통해 보정하기 위해 일정 시간(밀리초)의 타이밍 창을 조정합니다.이 경우 리듬의 착각을 유지하기 위해 게임이 플레이어로부터 필요한 입력을 받기도 전에 노래의 음표가 스피커로 전송됩니다.밴드 드럼이나 DJ 히어로와 같이 음악적인 즉흥 연주에 의존하는 게임들은 여전히 엄청난 어려움을 겪을 수 있다. 왜냐하면 이 게임들은 플레이어가 이러한 경우에 무엇을 칠지 예측할 수 없기 때문이다. 그리고 과도한 지연은 여전히 음을 치고 그들이 연주하는 것을 듣는 사이에 현저한 지연을 야기할 것이다.

브로드캐스트 오디오

음성 지연은 누군가가 위성 또는 이와 유사한 링크를 통해 지연이 높은 라이브브로드캐스트에 관여하고 있는 브로드캐스트시스템에서 발생할 수 있습니다.메인 스튜디오에 있는 사용자는 링크의 반대쪽 끝에 있는 게시자가 질문에 응답할 때까지 기다려야 합니다.이 컨텍스트의 지연은 수백 밀리초에서 몇 초 사이일 수 있습니다.이와 같은 높은 음성 지연에 대처하려면 청취자가 음성 출력을 적절히 조합할 수 있도록 하기 위해 특별한 훈련이 필요합니다.가능한 한 참가자의 반응과 교환을 자연스럽게 하기 위해서는 라이브 프로덕션 오디오 레이텐시를 낮게 유지하는 것이 중요합니다.10밀리초 이상의 레이텐시가, 프로페셔널한 생산 [15]구조내의 오디오 회선의 타겟이 됩니다.

라이브 퍼포먼스 오디오

라이브 퍼포먼스의 지연은 음속으로부터 자연스럽게 발생합니다.1m를 이동하는데 3밀리초가 걸린다.퍼포먼스간의 간격이나 스테이지 모니터(사용하는 경우)에 따라서는, 퍼포먼스간에 약간의 지연이 발생합니다.이것은 그룹 내 아티스트들이 서로 얼마나 멀리 떨어져 있을 수 있는지에 대한 실질적인 한계를 만든다.스테이지 모니터는 스테이지 모니터에 접속되어 있는 케이블을 통해 소리가 빛의 속도에 가깝게 전달되기 때문에 그 한계를 확장합니다.

특히 넓은 공간에서 연주자들은 무대에서 튀어나온 소리가 벽과 구조물에서 튀어 나와 대기 시간과 왜곡과 함께 돌아올 때 반향 또는 음악의 메아리를 듣게 될 것입니다.무대 모니터링의 주요 목적은 아티스트가 이러한 반향의 지연에 의해 흔들리지 않도록 보다 기본적인 사운드를 제공하는 것입니다.

라이브 신호 처리

아날로그 오디오 기기에는 현저한 지연이 없지만 디지털 오디오 기기에는 두 가지 일반적인 프로세스, 즉 포맷에서 다른 포맷으로의 변환과 이퀄라이제이션, 압축, 라우팅 등의 디지털 신호 처리(DSP) 태스크와 관련된 지연이 있습니다.

디지털 변환 프로세스에는 아날로그-디지털 변환기(ADC), 디지털-아날로그 변환기(DAC) 및 저전압 전기신호를 광전송기(ADAT)로 전송하는 AES3 등 디지털 포맷 간에 다양한 변경이 포함됩니다.이러한 프로세스를 완료하는 데 약간의 시간이 소요됩니다.일반적인 지연 시간은 샘플링 속도, 소프트웨어 설계 및 [16]하드웨어 아키텍처에 따라 0.2~1.5밀리초입니다.

유한 임펄스 응답(FIR) 및 무한 임펄스 응답(IIR) 필터와 같은 다양한 오디오 신호 처리 동작은 동일한 끝에 대해 서로 다른 수학적 접근방식을 취하며 서로 다른 지연을 가질 수 있습니다.또한 입력 및 출력 샘플버퍼링에 의해 지연이 추가됩니다.일반적으로 지연 시간은 0.5~10밀리초이며 일부 설계에서는 30밀리초 정도의 [17]지연이 있습니다.

디지털 오디오 장비의 대기 시간은 가수의 음성이 마이크, 디지털 오디오 믹싱, 처리 및 라우팅 경로를 통해 전달된 후 이어 모니터나 헤드폰을 통해 자신의 귀에 전달될 때 가장 두드러집니다.이 경우, 가수의 발성은 머리의 뼈를 통해 그들 자신의 귀로 전달되고, 몇 밀리초 후에 디지털 경로를 통해 그들의 귀로 전달됩니다.한 연구에서는 청취자가 15밀리초를 초과하는 지연을 볼 수 있었습니다.기타 연주와 같은 다른 음악 활동에 대한 대기 시간은 이와 같은 중대한 문제가 아닙니다.자신의 [18]목소리를 듣지 못하는 청취자에게는 10밀리초의 지연이 눈에 띄지 않습니다.

스피커 지연

대규모 장소에서의 음악이나 스피치 프레젠테이션의 사운드 강화에서는, 전면 부근의 과도한 음량에 의지하지 않고, 충분한 음량을 회장 안쪽으로 전달하는 것이 최적입니다.오디오 엔지니어가 를 달성할 수 있는 한 가지 방법은 무대에서 멀리 떨어져 있지만 관객의 뒤쪽에 더 가까이 있는 추가 확성기를 사용하는 것입니다.소리는 음속(공기 온도와 습도에 따라 초당 약 343m)으로 공기를 통과합니다.스테이지 부근의 확성기와 객석 부근의 확성기의 레이텐시 차이를 측정 또는 추정함으로써 오디오 엔지니어는 후자의 확성기로 향하는 오디오 신호에 적절한 지연을 도입하여 근접 및 원거리 확성기에서 동시에 전파자가 도달하도록 할 수 있다.하스 효과로 인해 15밀리초의 추가 지연 시간을 관객에게 더하여 무대의 파장이 먼저 도달하여 관객의 주의를 로컬 라우드 스피커가 아닌 스테이지에 집중할 수 있습니다.지연된 확성기에서 나오는 약간 늦은 소리는 위치 파악에 부정적인 영향을 미치지 않고 인식되는 소리 수준을 높일 뿐입니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ "G.107 : The E-model: a computational model for use in transmission planning" (PDF). International Telecommunication Union. 2000-06-07. Retrieved 2013-01-14.
  2. ^ "G.108 : Application of the E-model: A planning guide" (PDF). International Telecommunication Union. 2000-07-28. Retrieved 2013-01-14.
  3. ^ "G.109 : Definition of categories of speech transmission quality - ITU" (PDF). International Telecommunication Union. 2000-05-11. Retrieved 2013-01-14.
  4. ^ O3b Networks and Sofrecom. "Why Latency Matters to Mobile Backhaul - O3b Networks" (PDF). O3b Networks. Retrieved 2013-01-11.
  5. ^ Nir, Halachmi; O3b Networks and Sofrecom (2011-06-17). "HQoS Solution". Telco.com. Retrieved 2013-01-11.
  6. ^ Cisco. "Architectural Considerations for Backhaul of 2G/3G and Long Term Evolution Networks". Cisco Whitepaper. Cisco. Retrieved 2013-01-11.
  7. ^ "White paper: The impact of latency on application performance" (PDF). Nokia Siemens Networks. 2009. Archived from the original (PDF) on 2013-08-01.
  8. ^ "GSM Network Architecture". GSM for Dummies. Retrieved 2013-01-11.
  9. ^ "G.114 : One-way transmission time". www.itu.int. Retrieved 2019-11-16.
  10. ^ "QoS Requirements for Voice, Video, and Data > Implementing Quality of Service Over Cisco MPLS VPNs". www.ciscopress.com. Retrieved 2019-11-16.
  11. ^ Michael Dosch and Steve Church. "VoIP In The Broadcast Studio". Axia Audio. Archived from the original on 2011-10-07. Retrieved 2011-06-21.
  12. ^ 휴버, 데이비드 M., 로버트 E.런스타인"지연"최신 녹음 기술제7판뉴욕 및 런던:초점, 2013년 252번인쇄.
  13. ^ JD 화성없는 것보다 나은 잠재력: 오디오 지연 문제에 대한 오랜 논의
  14. ^ 실시간 Linux Wiki
  15. ^ Introduction to Livewire (PDF), Axia Audio, April 2007, archived from the original (PDF) on 2011-10-07, retrieved 2011-06-21
  16. ^ Fonseca, Nuno; Monteiro, Edmundo, Latency Issues in Audio Networking, Audio Engineering Society
  17. ^ ProSound Web. 데이비드 맥넬. 네트워크 오디오 트랜스포트: 웨이백 머신에서 2008년 3월 21일 아카이브된 방법요인 보기
  18. ^ 회오리바람.판도라의 상자를 여는 것? "L" 워드 - 레이텐시 및 디지털 오디오 시스템

외부 링크