MPEG 서라운드

MPEG Surround

MPEG 서라운드(ISO/IEC 23003-1[1] 또는 MPEG-D Part[2][3] 1)는 SAC([4][5][6][7]Spatial Audio Coding)라고도 불리며, 모노 또는 스테레오 오디오 서비스를 역호환 방식으로 멀티채널 오디오로 확장하는 방법을 제공하는 서라운드 사운드의 손실 압축 형식입니다.(모노 또는 스테레오) 코어와 MPEG 서라운드 데이터에 사용되는 총 비트환율은 일반적으로 (모노 또는 스테레오) 코어의 코딩에 사용되는 비트환율보다 약간 높을 뿐입니다.MPEG 서라운드는 공간 이미지 데이터를 포함하는 (모노 또는 스테레오) 코어 비트스트림에 사이드 정보 스트림을 추가합니다.MPEG 서라운드 디코딩을 지원하는 플레이어가 재구성된 멀티채널 오디오를 출력하는 동안 레거시 스테레오 재생 시스템은 이 사이드 정보를 무시합니다.

MPEG(Moving Picture Experts Group)는 2004년 3월에 MPEG 공간 오디오 코딩에 관한 제안을 발표했습니다.표준화 프로세스의 출발점이 되는 테크놀로지는 Fraunhofer IIS/Agere Systems와 Coding Technologies/[5]Philips의 두 가지 제안자의 제출을 조합한 것이라고 판단했습니다.MPEG 서라운드 표준은 Moving Picture Experts Group(ISO/IEC JTC1/SC29/WG11)에 의해 개발되어 [1]2007년에 ISO/IEC 23003으로 발행되었습니다.이것은 공식적으로 ISO/IEC 23003 - MPEG 오디오 기술로 알려진 MPEG-D 표준 그룹의 첫 번째 표준이었습니다.

MPEG 서라운드는 2007년에 [8]MPEG-4 오디오 객체 유형 중 하나로 정의되었습니다.2010년에 [9][10]공개된 MPEG-4 No Delay MPEG Surround 객체타입(LD MPEG 서라운드)도 있습니다.SAOC(Spatial Audio Object Coding)는 2010년에 MPEG-D Part 2 - ISO/IEC 23003-2로 발행되었으며 기존 수신기와 완전한 호환성을 유지하면서 공간 렌더링 기능을 재사용함으로써 MPEG 서라운드 표준을 확장합니다.MPEG SAOC 시스템은 디코딩 측 사용자가 각 개별 오디오 객체(예: 개별 악기, 음성, 사람의 음성)[2][3][11][12][13][14][15]의 렌더링을 대화식으로 제어할 수 있도록 합니다.또한 MPEG-D Part 3 - ISO/IEC 23003-3 및 ISO/IEC 14496-3:2009/Amd [16][17]3.에서 정의되는 Unified Speech and Audio Coding(USAC)도 있습니다.MPEG-D 서라운드파라미터 부호화 툴은 USAC [18]코덱에 통합되어 있습니다.

(모노 또는 스테레오) 코어는 임의의 (손실 또는 무손실) 오디오코덱으로 코드화할 수 있습니다.코어 코덱으로서 HE-AAC v2 를 사용하는 경우는, 특히 저비트레이트(5.1 채널의 경우는 64-96 kbit/s)가 가능합니다.

우주에서의 소리의 지각

MPEG 서라운드 코딩은 3D로 소리를 인지하는 능력을 사용하며, 그러한 인식을 일련의 파라미터로 캡처합니다.공간지각은 주로 인간이 수평면에서 어떻게 소리를 위치시키는지를 설명하는 세 가지 매개변수 또는 단서에 기인한다.ILD(Interaural Level Difference), ITD(Interaural Time Difference) 및 IC(Interaural Coordence)입니다.이 세 가지 개념은 다음 이미지에 설명되어 있습니다.소스로부터의 직접 또는 첫 번째 도달 파형은 한 번에 왼쪽 이어를 때리는 반면 오른쪽 이어가 수신한 직접 사운드는 시간 지연 및 레벨 감쇠와 함께 머리 주위로 회절됩니다.이러한 두 가지 효과는 ITD와 ILD의 주요 소스와 관련되어 있습니다.마지막으로 잔향 환경, 원점으로부터의 반사음, 확산원으로부터의 소리, 또는 상관없는 소리가 양쪽 귀에 닿을 수 있는 환경에서는 모두 IC와 관련된다.Figure1. Illustration of ILD, ITD & IC

묘사

MPEG 서라운드는 ILD, ITD 및 IC 파라미터와 동등한 레벨, 위상 및 일관성의 채널 간 차이를 사용합니다.공간 이미지는 전송된 다운믹스 신호에 상대적인 멀티채널 오디오 신호에 의해 캡처됩니다.이들 파라미터는 파라미터와 송신신호를 디코딩하고 고품질 멀티채널 표현을 합성하기 위해 매우 콤팩트한 형태로 부호화된다.

Principles of MPEG Surround Coding

MPEG 서라운드인코더는 멀티채널 오디오 신호 x1 ~xN을 수신합니다.입력 채널 는 N입니다.부호화 프로세스의 가장 중요한 측면은 다운믹스 신호 xt1과 xt2(일반적으로 스테레오)는 멀티채널 입력 신호에서 파생되며 멀티채널 신호가 아닌 채널을 통한 전송을 위해 압축되는 것이 이 다운믹스 신호입니다.인코더는 다운믹스프로세스를 이용하여 보다 유리하게 이용할 수 있습니다.모노 또는 스테레오 다운믹스에서 멀티채널 신호와 충실한 등가물을 생성할 뿐만 아니라 다운믹스 및 인코딩된 공간 큐를 기반으로 최적의 멀티채널 디코딩을 할 수 있습니다.또는 외부에서 다운믹스를 공급할 수 있습니다(그림 블록 앞의 Artistic Downmix).MPEG 서라운드 부호화 프로세스는 전송 채널에 사용되는 압축 알고리즘(그림 블록 앞의 Audio Encoder 및 Audio Decoder)에 의해 무시될 수 있습니다.MPEG-1 레이어 III, MPEG-4 AAC, MPEG-4 High Efficiency AAC 등 모든 유형의 고성능 압축 알고리즘일 수도 있고 PCM일 수도 있습니다.

레거시 호환성

MPEG 서라운드테크놀로지는, 송신된 다운믹스(스테레오등)를 스테레오 MPEG 디코더에 대해서, 멀티 채널 신호의 통상적인 스테레오 버전으로 보이게 함으로써, 기존의 스테레오 MPEG 디코더와 장래의 스테레오 MPEG 디코더와의 호환성을 가능하게 합니다.스테레오 디코더와의 호환성은 휴대용 음악 플레이어 등 헤드폰을 통해 듣는 애플리케이션이 많기 때문에 스테레오 프레젠테이션이 널리 보급되어 있기 때문에 바람직합니다.

MPEG 서라운드는 Dolby Pro-Logic과 같은 일반적인 매트릭스 서라운드 디코더와 호환되는 모드도 지원합니다.

적용들

디지털 오디오 방송

채널 대역폭이 비교적 작고, 전송 장치와 전송 라이선스의 비용이 비교적 높으며, 많은 프로그램을 제공함으로써 사용자의 선택권을 극대화하려는 욕구 때문에, 기존 또는 계획된 디지털 방송 시스템의 대부분은 사용자에게 멀티 채널 사운드를 제공할 수 없습니다.

DRM+는 MPEG 서라운드를 완전히 전송할 수 있도록 설계되었으며[19] 이러한 브로드캐스트도 성공적으로 [20]시연되었습니다.

MPEG 서라운드의 하위 호환성과 비교적 낮은 오버헤드를 통해 오디오 품질을 크게 저하시키거나 다른 서비스에 영향을 주지 않고 DAB에 멀티채널 사운드를 추가할 수 있습니다.

디지털 TV 방송

현재, 대부분의 디지털 TV 방송은 스테레오 오디오 코딩을 사용한다.MPEG 서라운드를 사용하면 DAB와 마찬가지로 확립된 서비스를 서라운드 사운드로 확장할 수 있습니다.

음악 다운로드 서비스

현재 많은 상업적 음악 다운로드 서비스를 이용할 수 있으며 상당한 상업적 성공을 거두고 있습니다.이러한 서비스는 멀티채널 프레젠테이션을 심리스하게 확장하여 스테레오 플레이어와 호환성을 유지하면서 제공할 수 있습니다. 5.1채널 재생 시스템을 탑재한 컴퓨터에서는 압축된 사운드 파일이 서라운드 사운드로 표시되고 휴대용 플레이어에서는 동일한 파일이 스테레오로 재생됩니다.

음악 스트리밍 서비스 / 인터넷 라디오

많은 인터넷 라디오는 모노 또는 스테레오 콘텐츠만 제공할 수 있도록 전송 대역폭이 매우 제한된 상태로 작동합니다.MPEG 서라운드 코딩 테크놀로지는 비트레이트의 허용 동작 범위 내에서 이를 멀티채널 서비스로 확장할 수 있습니다.이 어플리케이션에서는 효율이 가장 중요하기 때문에 전송되는 오디오 신호의 압축이 중요합니다.최신 MPEG 압축 기술(MPEG-4 High Efficiency Profile Coding)을 사용하여 48kbit/s의 낮은 비트 전송률로 완전한 MPEG 서라운드 시스템이 시연되었습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b ISO (2007-01-29). "ISO/IEC 23003-1:2007 - Information technology -- MPEG audio technologies -- Part 1: MPEG Surround". ISO. Archived from the original on 2011-06-06. Retrieved 2009-10-24.
  2. ^ a b MPEG. "MPEG standards - Full list of standards developed or under development". chiariglione.org. Archived from the original on 2010-04-20. Retrieved 2010-02-09.
  3. ^ a b MPEG. "Terms of Reference". chiariglione.org. Archived from the original on 2010-02-21. Retrieved 2010-02-09.
  4. ^ "Preview of ISO/IEC 23003-1, First edition, 2007-02-15, Part 1: MPEG Surround" (PDF). 2007-02-15. Archived (PDF) from the original on 2011-06-14. Retrieved 2009-10-24.
  5. ^ a b ISO/IEC JTC1/SC29/WG11 (July 2005). "Tutorial on MPEG Surround Audio Coding". Archived from the original on 2010-04-30. Retrieved 2010-02-09.
  6. ^ "Working documents, MPEG-D (MPEG Audio Technologies)". MPEG. Archived from the original on 2010-02-21. Retrieved 2010-02-09.
  7. ^ MPEG Spatial Audio Coding / MPEG Surround: Overview and Current Status (PDF), Audio Engineering Society, 2005, archived (PDF) from the original on 2011-07-18, retrieved 2009-10-29
  8. ^ ISO (2007). "BSAC extensions and transport of MPEG Surround, ISO/IEC 14496-3:2005/Amd 5:2007". ISO. Archived from the original on 2011-06-06. Retrieved 2009-10-13.
  9. ^ AES Convention Paper 8099 - A new parametric stereo and Multi Channel Extension for MPEG-4 Enhanced Low Delay AAC (AAC-ELD) (PDF), archived from the original (PDF) on 2011-09-28, retrieved 2011-07-18
  10. ^ ISO/IEC JTC1/SC29/WG11 (October 2009), ISO/IEC 14496-3:2009/FPDAM 2 – ALS simple profile and transport of SAOC, N11032, archived from the original (DOC) on 2014-07-29, retrieved 2009-12-30
  11. ^ ISO (2010-10-06). "ISO/IEC 23003-2 - Information technology -- MPEG audio technologies -- Part 2: Spatial Audio Object Coding (SAOC)". Archived from the original on 2012-02-01. Retrieved 2011-07-18.
  12. ^ Spatial Audio Object Coding (SAOC) – The Upcoming MPEG Standard on Parametric Object Based Audio Coding (PDF), 2008, archived (PDF) from the original on 2012-03-12, retrieved 2011-07-19
  13. ^ Manfred Lutzky, Fraunhofer IIS (2007), MPEG low delay audio codecs (PDF), archived (PDF) from the original on 2011-09-27, retrieved 2011-07-19
  14. ^ MPEG (October 2009). "91st WG11 meeting notice". chiariglione.org. Archived from the original on 2010-02-17. Retrieved 2010-02-09.
  15. ^ ISO/IEC JTC 1/SC 29 (2009-12-30). "Programme of Work (Allocated to SC 29/WG 11) - MPEG-D". Archived from the original on 2013-12-31. Retrieved 2009-12-30.
  16. ^ "ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding". 2011-02-15. Archived from the original on 2012-01-28. Retrieved 2011-07-18.
  17. ^ "ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC)". 2011-06-30. Archived from the original on 2012-01-29. Retrieved 2011-07-18.
  18. ^ "Unified Speech and Audio Coder Common Encoder Reference Software". March 2011. Archived from the original on 2011-08-06. Retrieved 2011-07-18.
  19. ^ "DRM system enhancement approved by ETSI" (Press release). DRM Consortium. 2 September 2009. Archived from the original on 15 October 2009. Retrieved 2009-10-20.
  20. ^ "DRM+ in Band I promoted as a most suitable technology to complement other digital radio standards in countries like France" (Press release). DRM Consortium. 16 July 2009. Archived from the original on 15 October 2009. Retrieved 2009-10-20.

외부 링크