적응형 비트레이트 스트리밍

Adaptive bitrate streaming
적응형 스트리밍 개요
적응형 스트리밍 작동

적응형 비트레이트 스트리밍컴퓨터 네트워크를 통한 멀티미디어 스트리밍에 사용되는 기술이다. 과거에는 대부분의 비디오나 오디오 스트리밍 기술이 RTSP와 함께 RTP와 같은 스트리밍 프로토콜을 활용했지만, 오늘날의 적응형 스트리밍 기술은 거의 독점적으로 HTTP[1] 기반으로 하며 인터넷과 같은 대규모 분산 HTTP 네트워크에서 효율적으로 작동하도록 설계되었다. 사용자의 대역폭과 CPU 용량을 실시간으로 감지하고 그에 따라 미디어 스트림의 품질을 조정하는 방식으로 작동한다. [2] 단일 소스 미디어(비디오 또는 오디오)를 여러 비트 전송률로 인코딩할 수 있는 인코더를 사용해야 한다. 플레이어 클라이언트는[3] 사용 가능한 리소스에 따라 서로 다른 인코딩을 스트리밍하는 방식으로 전환한다.[4] "그 결과 버퍼링이 거의 없고, 시작 시간이 빠르며, 하이엔드 및 로우엔드 연결 모두에 적합한 환경이 구축되었다."[5]

좀 더 구체적으로 말하면, 적응형 비트레이트 스트리밍은 소스 콘텐츠가 다중 비트 전송률로 인코딩되는 HTTP를 통해 비디오 스트리밍을 하는 방법이다. 각각의 다른 비트 전송률 스트림은 작은 멀티초 단위로 분할된다.[6] 세그먼트 크기는 특정 구현에 따라 달라질 수 있지만 일반적으로 2초에서 10초 사이입니다.[4][6] 먼저 클라이언트는 사용 가능한 스트림 세그먼트와 각각의 비트 전송률을 설명하는 매니페스트 파일을 다운로드한다. 스트림 시작 중에 클라이언트는 일반적으로 가장 낮은 비트 전송률 스트림에서 세그먼트를 요청한다. 클라이언트가 네트워크 처리량이 다운로드된 세그먼트의 비트 전송률보다 큰 것을 발견하면 더 높은 비트 전송률 세그먼트를 요청하게 된다. 나중에 클라이언트가 네트워크 처리량이 저하된 것을 발견하면 더 낮은 비트 전송률 세그먼트를 요청하게 된다. 클라이언트의 적응형 비트 전송률(ABR) 알고리즘은 네트워크의 현재 상태를 기준으로 어떤 비트 전송률 세그먼트를 다운로드할지 결정하는 핵심 기능을 수행한다. ABR알고리즘 몇몇 종류의 상업적인 사용에:throughput-based 알고리즘 의사 결정(예:dash.js에서 처리량 규칙)에 처리량은 최근 사전 다운로드에 달성된를 사용한다,buffer-based 알고리즘 및 하이브리드 알고리즘 정보의 양쪽 형식(e.g., 결합만 클라이언트의 현재 버퍼 수준(예:BOLA[7]dash.js에)사용하는 것입니다.dDash[8].js).


현재 용도

포스트 프로덕션 하우스, 컨텐츠 전달 네트워크, 스튜디오는 소비자들에게 더 적은 인력과 더 적은 자원을 사용하는 더 높은 품질의 비디오를 제공하기 위해 적응형 비트 레이트 기술을 사용한다. 특히 적응형 비트 전송률 스트리밍을 위한 다중 비디오 출력물의 생성은 소비자들에게 큰 가치를 더한다.[9] 기술이 제대로 작동한다면 최종 사용자나 소비자의 콘텐츠는 중단 없이 재생되어야 하며 잠재적으로 눈에 띄지 않아야 한다. 미디어 기업들은 현재 수년간 적응형 비트 레이트 기술을 적극적으로 사용해 왔으며, 이는 본질적으로 고해상도 피드(저해상도 및 상승)를 스트리밍할 때 거의 버퍼링을 허용하지 않는 하이엔드 스트리밍 제공업체의 표준 관행이 되었다.

적응형 비트레이트 스트리밍의 이점

기존의 서버 기반 적응형 비트레이트 스트리밍은 미디어 서버가 각 사용자의 네트워크와 재생 조건의 변화에 자동으로 적응하기 때문에 스트리밍 미디어 소비자들에게 최상의 경험을 제공한다.[10] 미디어와 엔터테인먼트 산업은 또한 적응형 비트레이트 스트리밍의 혜택을 받는다. 영상 공간이 커짐에 따라 콘텐츠 전달 네트워크와 영상 제공업체는 고객에게 우수한 시청 경험을 제공할 수 있다. 적응형 비트레이트 기술은 추가 인코딩이 필요하지만 전체 워크플로우를 단순화하고 더 나은 결과를 만들어낸다.

HTTP 기반 적응 비트레이트 스트리밍 기술은 기존의 서버 기반 적응 비트레이트 스트리밍에 비해 추가적인 이점을 제공한다. 첫째, 스트리밍 기술은 RTP 기반 적응형 스트리밍과는 달리 HTTP 위에 구축되기 때문에 패킷은 방화벽과 NAT 장치를 통과하는 데 어려움이 없다. 둘째, HTTP 스트리밍은 순전히 클라이언트 중심이기 때문에 모든 적응 논리가 클라이언트에 상주한다. 이것은 서버와 클라이언트 응용프로그램 사이의 지속적인 연결의 요구사항을 줄인다. 더욱이, 서버는 각 클라이언트의 세션 상태 정보를 유지할 필요가 없으므로 확장성이 향상된다. 마지막으로 HTTP 캐시와 서버 등 기존 HTTP 전달 인프라를 원활하게 채택할 수 있다.[11][12][13][14]

확장 가능한 CDN은 인터넷 청중에게 미디어 스트리밍을 전달하는 데 사용된다. CDN은 오리진 서버의 원본에서 스트림을 수신한 다음, 해당 스트림을 에지 캐시 서버의 대부분 또는 전체에 복제한다. 최종 사용자는 스트림을 요청하고 "가장 가까운" Edge 서버로 리디렉션된다. 이는 libdash[15] 및 D-DASH(Distributed DASH) 데이터 집합을 사용하여 테스트할 수 있으며,[16] 이 데이터 집합은 유럽, 아시아 및 미국 전역에 여러 개의 거울이 있다. HTTP 기반 적응형 스트리밍을 사용하면 Edge 서버가 값비싼 미디어 서버 라이센스(예: Adobe Flash Media Streaming 서버)에 비해 라이센스 비용이 저렴하거나 무료인 간단한 HTTP 서버 소프트웨어를 실행할 수 있다. HTTP 스트리밍 미디어의 CDN 비용은 HTTP 웹 캐싱 CDN 비용과 유사하다.

역사

HTTP에 대한 적응형 비트 전송률은 2002년 10월 WG1 스페셜 스트리밍 그룹에서 DVD 포럼에 의해 만들어졌다. 이 그룹은 도시바피닉스 테크놀로지스가 공동 의장을 맡았으며, 마이크로소프트, 애플 컴퓨터, DTS Inc., 워너 브라더스, 20세기 폭스, 디지털 디럭스, 디즈니, 매크로메디아, 아카마이의 합작으로 전문가 그룹 카운트였다.[dubious ][citation needed] 이 기술은 원래 DVDoverIP라고 불렸고 DVD ENAV 책의 필수적인 노력이었다.[17] 이 개념은 MPEG-1과 MPEG-2 DVD TS 섹터를 작은 2KB 파일로 저장한 것에서 비롯되었으며, 이는 플레이어에 HTTP 서버를 사용하여 제공될 것이다. MPEG-1 세그먼트는 더 낮은 대역폭 스트림을 제공했고, MPEG-2는 더 높은 비트 전송률 스트림을 제공했다. 원래의 XML 스키마는 비트 전송률, 언어 및 URL 서버의 간단한 재생 목록을 제공했다. 첫 번째 작업 시제품은 독일 빌링겐의 하만 카돈 연구소에서 피닉스 테크놀로지에 의해 DVD 포럼에 발표되었다.[citation needed]

구현

Adaptive 비트 레이트 스트리밍은 Move Networks에 의해 도입되었으며 현재는 Adobe Systems, Apple, Microsoft, Octoshape에서 개발 및 활용되고 있다.[18] 2010년 10월, Move Networks는 적응형 비트 레이트 스트리밍(미국 특허 번호 7818444)으로 특허를 받았다.[19]

MPEG-DASH

MPEG-DASH는 국제표준 MPEG-DASH 기술이[20] MPEG에 의해 개발된 유일한 적응형 비트 레이트 HTTP 기반 스트리밍 솔루션이다. DASH 관련 작업은 2010년에 시작되었으며, 2011년 1월에 국제 표준 초안이 되었고, 2011년 11월에는 국제 표준이 되었다.[20][21][22] MPEG-DASH 표준은 2012년 4월에 ISO/IEC 23009-1:2012로 발행되었다.

MPEG-DASH는 Apple Inc. Adobe Systems HTTP Dynamic Streaming과 관련된 기술이다. HTTP Live Streaming(HLS) 및 Microsoft Smooth Streaming.[23] DASH는 3GPP 릴리스 9의 Adaptive HTTP 스트리밍(AHS)과 Open IPTV Forum Release 2의 HTTP Adaptive Streaming(HASS)을 기반으로 한다.[24] MPEG와의 협업의 일환으로 3GPP 릴리즈 10은 무선 네트워크에서 사용하기 위해 DASH(특정 코덱 및 작동 모드 포함)를 채택했다.[24]

적응형 스트리밍 솔루션을 표준화하는 것은 애플의 HLS, 마이크로소프트의 Smooth Streaming, Adobe의 HDS와 유사하지만 더 많은 벤더 중심적인 솔루션과 비교했을 때, 보편적 구축을 위해 채택될 수 있는 솔루션을 시장에 신뢰하기 위한 것이다.

사용 가능한 구현은HTML5-basedbitdash MPEG-DASH player[25]뿐만 아니라 오픈 소스 정보 기술 연구소가(ITEC)Alpen-Adria 대학 Klagenfurt,[3][26]에서 GPAC 그룹의 텔레콤 ParisTech,[27]에서 멀티 미디어 프레임워크bitmovin GmbH,[15]는 도구의C++-based한 DASH클라이언트에 액세스가 도서관 libdash.d는 dash.js[28]playeDASH-IF의 r.

Adobe HTTP 동적 스트리밍

"HTTP 다이내믹 스트리밍은 재생 중 다양한 품질과 크기의 서로 다른 스트림 사이에서 동적으로 전환하여 스트리밍 비디오를 사용자에게 효율적으로 전달하는 과정이다. 이는 사용자에게 대역폭과 로컬 컴퓨터 하드웨어(CPU)가 지원할 수 있는 최상의 시청 경험을 제공한다. 동적 스트리밍의 또 다른 주요 목표는 사용자에게 이 프로세스를 부드럽고 매끄럽게 만들어 스트림의 품질을 업스케일링 또는 다운스케일링해야 할 경우 연속 재생을 방해하지 않고 부드럽고 거의 눈에 띄지 않는 스위치로 만드는 것이다."[29]

최신 버전의 Flash Player 및 Flash Media Server는 기존 RTMP 프로토콜을 통한 적응형 비트 레이트 스트리밍은 물론, Apple 및 Microsoft의 HTTP 기반 솔루션과 유사하게 Flash Player 10.1 이상에서 지원되는 HTTP 동적 스트리밍을 지원한다.[30][31] HTTP 기반 스트리밍은 웹 브라우저에서 사용하는 정상 포트 이외의 방화벽 포트를 열 필요가 없다는 장점이 있다. 또한 HTTP 기반 스트리밍은 브라우저, 프록시, CDN에 의해 비디오 조각을 캐시할 수 있게 하여 원본 서버의 로드를 획기적으로 줄인다.

Apple HTTP 라이브 스트리밍

HTTP Live Streaming(HLS)은 Apple Inc. QuickTime XiOS의 일부로 구현한 HTTP 기반 미디어 스트리밍 통신 프로토콜이다. HLS는 라이브와 비디오디맨드 콘텐츠 모두를 지원한다. 그것은 스트림이나 비디오 자산을 다양한 비트 전송률의 몇 의 작은 MPEG2-TS 파일(비디오 청크)으로 분해하고 스트림이나 파일 세그먼트러를 사용하여 기간을 설정하는 방식으로 작동한다. 그러한 세그먼트머 구현 중 하나는 애플에 의해 제공된다.[32] 또한 세그먼트는 비디오 청크의 재생 목록 파일 역할을 하는 M3U8 형식의 인덱스 파일 세트를 생성하는 역할도 담당한다. 각 재생목록은 주어진 비트 전송률 수준에 관련되며, 관련 비트 전송률이 있는 청크에 대한 상대적 또는 절대적 URL을 포함한다. 그러면 클라이언트는 사용 가능한 대역폭에 따라 적절한 재생 목록을 요청할 책임이 있다.

HTTP Live Streaming은 아이폰 3.0 이상 버전에서 표준 기능이다.[33]

애플은 코멘트에 대한 정보 요청으로서 고려를 위해 IETF에 해결책을 제출했다.[34] 서버 구현(세그먼트레이터)과 클라이언트 플레이어 모두를 위한 다수의 독점적이고 오픈 소스 솔루션이 존재한다.

HLS 스트림은 다음 재생 목록 URL 형식 확장으로 식별할 수 있다. m3u8. 이러한 적응형 스트림은 많은 다른 비트 전송률로 이용할 수 있게 할 수 있고 클라이언트 장치는 서버와 상호 작용하여 신뢰성 있게 전달될 수 있는 최고의 비트 전송률을 얻는다. 클라이언트 디바이스는 iPad, iPhone, STB(Set Top Box) 및 기타 적합한 클라이언트 디바이스에 이르기까지 다양하다.

HLS 재생은 iOS의 Safari와 Mac의 경우, Windows 10의 경우 Microsoft Edge에서만 기본적으로 지원된다. 다른 플랫폼에서 HLS를 재생하기 위한 솔루션은 대부분 플래시 또는 QuickTime과 같은 타사 플러그인에 의존한다.

Microsoft Smooth 스트리밍

Smooth Streaming은 HTTP를 통해 클라이언트에 대한 미디어의 적응적 스트리밍을 가능하게 하는 IIS 미디어 서비스 확장이다.[35] 포맷 사양은 ISO 기본 미디어 파일 포맷을 기반으로 하며 마이크로소프트에 의해 보호 상호운용 가능한 파일 포맷으로 표준화되었다.[36] 마이크로소프트는 적응형 비트 레이트 HTTP 스트리밍을 표준화하려는 3GPP, MPEG, DEH 조직의 노력에 적극적으로 참여하고 있다. Microsoft는 SilverlightWindows Phone 7용 Smooth Streaming Client 소프트웨어 개발 키트와 Apple iOS, Android, Linux와 같은 다른 클라이언트 운영 체제에서 사용할 수 있는 Smooth Streaming Porting Kit를 제공한다.[37] 2010년 11월에 출시된 IIS 미디어 서비스 4.0은 라이브 스무스 스트리밍 H.264/AAC 비디오를 동적으로 Apple HTTP Adaptive Streaming 형식으로 재패킹하여 재인코딩할 필요 없이 iOS 기기에 전달할 수 있는 기능을 도입했다. Microsoft는 Silverlight 클라이언트에 Smooth Streaming을 적용한 라이브 및 주문형 1080p HD 비디오의 제공을 성공적으로 시연했다. 마이크로소프트는 2010년에도 엔비디아와 제휴해 엔비디아 3D비전 기술을 탑재한 PC에 1080p 입체 3D 비디오 라이브 스트리밍을 시연했다.[38]

HTTP를 통한 QuavStreams 적응형 스트리밍

QuavStreams Adaptive Streaming은 Quavlive가 개발한 멀티미디어 스트리밍 기술이다. 스트리밍 서버는 각 비디오의 여러 버전을 가진 HTTP 서버로서, 서로 다른 비트 전송률과 해상도로 인코딩된다. 서버는 현재 사용 가능한 대역폭에 따라 한 레벨에서 다른 레벨로 암호화된 비디오/오디오 프레임을 전송한다. 컨트롤은 전적으로 서버 기반이기 때문에 클라이언트는 특별한 추가 기능을 필요로 하지 않는다. 스트리밍 제어는 피드백 제어 이론을 사용한다.[39] 현재 QuavStreams는 FLV 컨테이너에 muxed H.264/MP3 코덱과 WEBM 컨테이너에 muxed된 VP8/Vorbis 코덱을 지원한다.

업린크

Uplynk는 다양한 브라우저 조합에 걸쳐 iOS, Android, Windows Mac, Linux, Roku 등 여러 플랫폼에 HD 적응형 비트레이트 스트리밍을 단일 비수용형 적응형 스트리밍 형식을 사용하여 클라우드에서 비디오를 인코딩하여 제공한다. 업린크는 서로 다른 플랫폼과 장치에 대해 여러 포맷을 스트리밍하고 저장하기보다는 오직 한 가지 포맷만 저장하고 스트리밍한다. 이 기술을 처음 사용한 스튜디오는 디즈니였다.ABC TV 그룹은 ABC 플레이어, ABC 패밀리, Watch 디즈니 앱뿐만 아니라 라이브 워치 디즈니 채널, 워치 디즈니 주니어, 워치 디즈니 XD의 웹, 모바일 및 태블릿 스트리밍 앱에 대한 비디오 인코딩에 사용한다.[40][41]

자가 학습 고객

최근에는 적응형 비트레이트 스트리밍에서 자체 학습 알고리즘의 이점이 학계에서 조사되고 있다. 초기 자체 학습 접근방식의 대부분이 서버측에서[42][43][44] 시행되고 있는 가운데(: 강화학습이나 인공신경망을 이용한 입학관리 수행), 보다 최근의 연구는 자체 학습 HTTP Adaptive Streaming 클라이언트 개발에 초점을 맞추고 있다. 문헌에는 사사스[45](SARSA[46]) 또는 Q-러닝 알고리즘을 사용하는 여러 가지 접근법이 제시되어 있다. 이러한 모든 접근방식에서 클라이언트 상태는 무엇보다도 현재 인식된 네트워크 처리량과 버퍼 충만 수준에 대한 정보를 사용하여 모델링된다. 이 정보를 바탕으로 자율적으로 학습 의뢰자가 다음 비디오 세그먼트에 대해 어떤 품질 수준을 선택할지 결정한다. 학습 과정은 QoE(품질 수준, 스위치 수, 비디오 정지 수)를 나타내는 피드백 정보를 사용하여 조향된다. 나아가 멀티에이전트 Q-러닝이 적용돼 다중 적응형 스트리밍 고객사 간 QoE 공정성을 높일 수 있는 것으로 나타났다.[47]

비평

HTTP 기반 적응 비트 전송률 기술은 기존의 스트리밍 기술보다 운영적으로 훨씬 더 복잡하다. 문서화된 고려사항으로는 추가 스토리지 및 인코딩 비용, 그리고 전 세계적으로 품질을 유지하는 문제 등이 있다. 또한 복잡한 TCP 흐름 제어 논리와 경쟁하는 복잡한 적응 비트 전송률 논리 사이의 상호작용에 관한 흥미로운 역학관계도 발견되었다.[11][48] [49] [50][51]

그러나, 이러한 비판은 HTTP 전달의 경제성과 확장성에 의해 실제보다 우선시 되었다: 비 HTTP 스트리밍 솔루션은 전문 스트리밍 서버 인프라의 대규모 배치를 필요로 하는 반면, HTTP 기반 적응형 비트 레이트 스트리밍은 다른 모든 콘텐츠를 인턴으로 제공하는 데 사용되는 것과 동일한 HTTP 웹 서버를 활용할 수 있다.

위의 방법에 사용되는 디지털 권리 관리에 대해 명확하게 정의되거나 개방형 표준이 단 한 개도 없이, 제한적이거나 시간에 민감한 콘텐츠를 어떤 기기나 플레이어에 전달하는 100% 호환되는 방법이 없다. 이것은 또한 디지털 권리 관리가 어떤 스트리밍 프로토콜에 의해 채용되는 것에 문제가 있다는 것을 증명한다.

(HTTP Live Streaming에서 사용되는) 일부 구현에서 사용하는 작은 파일로 파일을 분할하는 방법은 매니페스트 파일만 트랙 번호와 비트만을 표시하는 매니페스트 파일로 서로 다른 비트 전송률로 다중 비디오 트랙을 가질 수 있는 단일 비디오 자산 파일로부터 바이트 범위를 요청할 수 있는 HTTP 클라이언트의 능력 때문에 불필요하다고 간주될 수 있다. 그러나, 이 접근방식은 어떤 단순한 HTTP 서버에 의한 청크 서비스도 허용하기 때문에 CDN 호환성을 보장한다. Microsoft Smooth Streaming과 같은 바이트 범위를 사용하는 구현에서는 IIS와 같은 전용 HTTP 서버가 비디오 자산 청크 요청에 응답해야 한다.

참고 항목

참조

  1. ^ Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis (2011). An Experimental Evaluation of Rate-Adaptation Algorithms in Adaptive Streaming over HTTP. In Proceedings of the second annual ACM conference on Multimedia systems (MMSys '11). New York, NY, USA: ACM.
  2. ^ A. 벤탈렙, B. Taani, A. 베긴, C. Timmer, and R. Zimmermann, In IEEE Communications Survey & (IEEE Communications Survey & (IEEEE COMST), 1권 1-1, 2018.
  3. ^ a b DASH at ITEC, VLC Plugin, DASHEncoderDataset by C. 뮬러, S. 레더러, C. 타임머러
  4. ^ a b "Proceedings Template - WORD" (PDF). Retrieved 16 December 2017.
  5. ^ Gannes, Liz (10 June 2009). "The Next Big Thing in Video: Adaptive Bitrate Streaming". Archived from the original on 19 June 2010. Retrieved 1 June 2010.
  6. ^ a b "mmsys2012-final36.pdf" (PDF). Retrieved 16 December 2017.
  7. ^ Spiteri, Kevin; Urgaonkar, Rahul; Sitaraman, Ramesh K. (2016). "BOLA: Near-optimal bitrate adaptation for online videos. IEEE INFOCOM, 2016, by Spiteri, Urgaonkar, and Sitaraman, IEEE INFOCOM, April 2016". arXiv:1601.06748. doi:10.1109/TNET.2020.2996964. S2CID 219792107. Cite 저널은 필요로 한다. journal= (도움말)
  8. ^ "From Theory to Practice: Improving Bitrate Adaptation in the DASH Reference Player, by Spiteri, Sitaraman and Sparacio, ACM Multimedia Systems Conference, June 2018" (PDF).
  9. ^ Marshall, Daniel (18 February 2010). "Show Report: Video Processing Critical to Digital Asset Management". Elemental Technologies. Archived from the original on 4 October 2011. Retrieved 15 October 2011.
  10. ^ Seufert, Michael; Egger, Sebastian; Slanina, Martin; Zinner, Thomas; Hoßfeld, Tobias; Tran-Gia, Phuoc (2015). "A Survey on Quality of Experience of HTTP Adaptive Streaming". IEEE Communications Surveys & Tutorials. 17 (1): 469–492. doi:10.1109/COMST.2014.2360940. S2CID 18220375.
  11. ^ a b Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis. "An Experimental Evaluation of Rate-Adaptation Algorithms in Adaptive Streaming over HTTP" (PDF). Archived from the original (PDF) on 17 October 2011. Retrieved 15 October 2011. Cite 저널은 필요로 한다. journal= (도움말)
  12. ^ Anthony Vetro. "The MPEG-DASH Standard for Multimedia Streaming Over the Internet" (PDF). Retrieved 10 July 2015. Cite 저널은 필요로 한다. journal= (도움말)
  13. ^ Jan Ozer (28 April 2011). "What Is Adaptive Streaming?". Retrieved 10 July 2015. Cite 저널은 필요로 한다. journal= (도움말)
  14. ^ Jeroen Famaey; Steven Latré; Niels Bouten; Wim Van de Meerssche; Bart de Vleeschauwer; Werner Van Leekwijck; Filip De Turck (May 2013). "On the merits of SVC-based HTTP Adaptive Streaming": 419–426. Retrieved 10 July 2015. Cite 저널은 필요로 한다. journal= (도움말)
  15. ^ a b libdash: 비트무비별 오픈 소스 DASH 클라이언트 라이브러리
  16. ^ "Distributed DASH Datset ITEC – Dynamic Adaptive Streaming over HTTP". Itec.uni-klu.ac.at. Retrieved 16 December 2017.
  17. ^ DVD Book Construction, DVD Forum, May 2005
  18. ^ Gannes, Liz (10 June 2009). "The Lowdown on Apple's HTTP Adaptive Bitrate Streaming". Archived from the original on 19 June 2010. Retrieved 24 June 2010.
  19. ^ "Move Gets Streaming Patent; Are Adobe & Apple Hosed? — Online Video News". Gigaom.com. 15 September 2010. Archived from the original on 22 October 2011. Retrieved 15 October 2011.
  20. ^ a b "MPEG ratifies its draft standard for DASH". MPEG. 2 December 2011. Archived from the original on 20 August 2012. Retrieved 26 August 2012.
  21. ^ Timmerer, Christian (26 April 2012). "HTTP streaming of MPEG media - blog entry". Multimediacommunication.blogspot.com. Retrieved 16 December 2017.
  22. ^ "ISO/IEC DIS 23009-1.2 Dynamic adaptive streaming over HTTP (DASH)". Iso.org. Retrieved 16 December 2017.
  23. ^ DASH - 블로그 항목 업데이트
  24. ^ a b ETSI 3GPP 3GPP TS 26.247; 투명한 단대단 패킷 교환 스트리밍 서비스(PSS), HTTP를 통한 프로그레시브 다운로드동적 적응형 스트리밍(3GP-DASH)
  25. ^ "bitdash HTML5 MPEG-DASH player". Dash-player.com. 22 January 2016. Archived from the original on 10 July 2016. Retrieved 16 December 2017.
  26. ^ "A VLC media player plugin enabling dynamic adaptive streaming over HTTP" (PDF). Retrieved 16 December 2017.
  27. ^ "GPAC Telecom ParisTech". Archived from the original on 24 February 2012. Retrieved 28 March 2013.
  28. ^ "dash.js". Github.com. Retrieved 16 December 2017.
  29. ^ 하순, 데이비드. Adobe Developer 연결. Adobe Systems. http://www.adobe.com/devnet/flashmediaserver/articles/dynstream_advanced_pt1.html. 블로그. [2010년 6월 24일 접속]
  30. ^ "HTTP Dynamic Streaming". Adobe Systems. Retrieved 13 October 2010.
  31. ^ "FAQ HTTP Dynamic Streaming". Adobe Systems. Retrieved 12 January 2015.
  32. ^ Mac 개발자 라이브러리. 애플. https://developer.apple.com/library/mac/documentation/networkinginternet/conceptual/streamingmediaguide/UsingHTTPLiveStreaming/UsingHTTPLiveStreaming.html. [2014년 6월 02일 접속]
  33. ^ Prince McLean (9 July 2009). "Apple launches HTTP Live Streaming standard in iPhone 3.0". AppleInsider. Retrieved 15 October 2011.
  34. ^ R. Pantos, HTTP Live Streaming, IETF, retrieved 11 October 2011
  35. ^ "Smooth Streaming". IIS.net. Archived from the original on 15 June 2010. Retrieved 24 June 2010.
  36. ^ Chris Knowlton (8 September 2009), Protected Interoperable File Format, Microsoft, retrieved 15 October 2011
  37. ^ "Microsoft End-to-End Platform Powers Next-Generation Silverlight and IIS Media Experiences Across Multiple Screens". Microsoft. 8 April 2010. Retrieved 30 July 2011.
  38. ^ "First Day of IBC". Microsoft. Archived from the original on 2 February 2011. Retrieved 22 January 2011.
  39. ^ Luca De Cicco; Saverio Mascolo; Vittorio Palmisano. "Feedback Control for Adaptive Live Video Streaming" (PDF). MMSYS2011. Retrieved 9 September 2012.
  40. ^ Dean Takahashi (16 January 2013). "Uplynk creates a cheap and efficient way for Disney to stream videos". VentureBeat. Retrieved 16 December 2017.
  41. ^ Dreier, Troy (16 January 2013). "UpLynk Emerges from Stealth Mode; DisneyABC Is First Customer - Streaming Media Magazine". Streamingmedia.com. Retrieved 16 December 2017.
  42. ^ Y. Fei; V. W. S. Wong; V. C. M. Leung (2006). "Efficient QoS provisioning for adaptive multimedia in mobile communication networks by reinforcement learning". Mobile Networks and Applications. 11 (1): 101–110. CiteSeerX 10.1.1.70.1430. doi:10.1007/s11036-005-4464-2. S2CID 13022779.
  43. ^ V. Charvillat; R. Grigoras (2007). "Reinforcement learning for dynamic multimedia adaptation". Journal of Network and Computer Applications. 30 (3): 1034–1058. doi:10.1016/j.jnca.2005.12.010.
  44. ^ D. W. McClary; V. R. Syrotiuk; V. Lecuire (2008). "Adaptive audio streaming in mobile ad hoc networks using neural networks". Ad Hoc Networks. 6 (4): 524–538. doi:10.1016/j.adhoc.2007.04.005.
  45. ^ V. Menkovski; A. Liotta (2013). "Intelligent control for adaptive video streaming". IEEE International Conference on Consumer Electronics (ICCE). Washington, DC. pp. 127–128. doi:10.1109/ICCE.2013.6486825.
  46. ^ M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "Design and evaluation of a self-learning HTTP adaptive video streaming client". IEEE Communications Letters. 18 (4): 716–719. doi:10.1109/lcomm.2014.020414.132649. hdl:1854/LU-5733061. S2CID 26955239.
  47. ^ S. Petrangeli; M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "A multi-agent Q-Learning-based framework for achieving fairness in HTTP Adaptive Streaming". IEEE Network Operations and Management Symposium (NOMS). Krakow. pp. 1–9. doi:10.1109/NOMS.2014.6838245.
  48. ^ Pete Mastin (28 January 2011). "Is adaptive bit rate the yellow brick road, or fool's gold for HD streaming?". Archived from the original on 7 September 2011. Retrieved 15 October 2011.
  49. ^ Luca De Cicco; Saverio Mascolo. "An Experimental Investigation of the Akamai Adaptive Video Streaming" (PDF). Retrieved 29 November 2011. Cite 저널은 필요로 한다. journal= (도움말)
  50. ^ "Adaptive streaming: a comparison". Archived from the original on 19 April 2014. Retrieved 17 April 2014. Cite 저널은 필요로 한다. journal= (도움말)
  51. ^ Chris Knowlton (28 January 2010). "Adaptive Streaming Comparison". Cite 저널은 필요로 한다. journal= (도움말)

추가 읽기