VR 위치 추적

VR positional tracking

가상현실(VR)에서 위치추적 기능은 유클리드 공간 에서 헤드마운트 디스플레이, 컨트롤러, 기타 물체 또는 신체부위의 정확한 위치를 검출합니다.VR의 목적은 현실의 인식을 모방하는 것이기 때문에 3차원 공간의 환상을 깨지 않도록 위치추적이 정확하고 정밀해야 한다.이를 위해 디스플레이 및 관련 물체 또는 장치의 위치 및 방향(피치, 요 및 롤)을 추적하는 여러 가지 방법이 개발되었습니다.상기 모든 방법은 추적 대상 물체 또는 그 근방에 송신기로부터의 신호를 반복적으로 기록한 후 그 데이터를 컴퓨터에 송신하는 센서를 이용하여 물리적인 위치의 근사치를 유지한다.대체로, 이러한 물리적 위치는 데카르트 직선계, 구형 극계 및 원통계라는 세 가지 좌표계 중 하나 이상을 사용하여 식별되고 정의된다.또한 많은 인터페이스가 가상 3D 공간 내 및 가상 3D 공간과의 상호작용을 감시 및 제어하도록 설계되어 있습니다. 이러한 인터페이스는 위치 추적 시스템과 긴밀히 연계하여 원활한 사용자 [1]경험을 제공해야 합니다.

가상현실에서의 위치추적

무선 추적

무선 트래킹에서는 트래킹공간 주위에 배치되어 있는 일련의 앵커와 트래킹되는1개 이상의 태그를 사용합니다.이 시스템은 GPS와 비슷한 개념이지만 실내와 실외 모두에서 작동합니다.실내 GPS라고도 합니다.태그는 둘레 주위에 배치된 고정 장치를 사용하여 3D 위치를 삼각 측량합니다.Ultra Wideband라고 불리는 무선 기술은 위치 추적이 100mm 미만에 도달할 수 있도록 했다.센서 퓨전 및 고속 알고리즘을 사용하여 200Hz 또는 5ms 지연의 업데이트 속도로 추적 정밀도가 5mm 수준에 도달할 수 있습니다.

장점:

  • 사용자가[2] 자유롭게 이동할 수 있습니다.
  • 동작 범위가 넓어집니다.

단점:

  • 샘플링 속도가 낮으면 정확도가 저하될 수 있습니다.
  • 다른 센서에 비해 낮은 레이텐시(정의) 속도

옵티컬 트래킹

광학 트래킹은 헤드셋 또는 헤드셋 주위에 배치된 카메라를 사용하여 컴퓨터 비전 알고리즘에 따라 위치와 방향을 결정합니다.이 방법은 인간의 입체시력과 같은 원리에 기초하고 있다.사람이 쌍안경으로 사물을 볼 때 두 눈 사이의 원근감이 다르기 때문에 사물이 어느 정도 떨어져 있는지를 대략적으로 정의할 수 있다.광학 트래킹에서 카메라는 물체까지의 거리와 공간에서의 위치를 결정하기 위해 교정된다.광학 시스템은 신뢰성이 높고 비교적 저렴하지만 보정이 어려울 수 있습니다.또한 시스템은 간섭 없이 직사광선을 필요로 합니다.그렇지 않으면 잘못된 데이터를 수신할 수 있습니다.

광학 트래킹은 마커 유무에 관계없이 실행할 수 있습니다.마커를 사용한 추적에는 기준점으로 사용할 알려진 패턴을 가진 표적이 포함되며, 카메라는 이러한 마커를 지속적으로 탐색한 다음 다양한 알고리즘(예: POST 알고리즘)을 사용하여 객체의 위치를 추출합니다.마커는 인쇄된 QR 코드와 같이 볼 수 있지만, 많은 마커는 카메라로만 촬영할 수 있는 적외선(IR)을 사용한다.액티브 실장에서는, 카메라와 동기하기 위해서 온/오프 할 수 있는 IR LED 라이트가 내장되어 있는 마커를 갖추고 있어, 트래킹 [3]에리어내의 다른 IR 라이트를 간단하게 차단할 수 있습니다.수동적 구현은 산란이 거의 없는 선원을 향해 IR광을 반사하는 역반사체입니다.마커리스 트래킹에서는 사전에 배치된 타겟이 필요하지 않습니다.대신 주변 환경의 자연적 특성을 사용하여 [4]위치와 방향을 결정합니다.

외부에서의 추적

이 방법에서는 카메라가 환경의 정지 위치에 배치되어 헤드 마운트 디스플레이나 컨트롤러와 같은 추적 대상 디바이스의 마커 위치를 추적합니다.여러 대의 카메라가 있으면 동일한 마커의 다른 보기를 사용할 수 있으며, 이 중첩을 통해 장치 [3]위치를 정확하게 읽을 수 있습니다.오리지널 Oculus Lift는 이 기술을 사용하여 헤드셋과 컨트롤러에 IR LED를 배치하여 환경 내 외부 카메라가 위치를 [5]읽을 수 있도록 합니다.이 방법은 VR뿐만 아니라 [6]필름용 모션 캡처 기술에서도 응용이 가능한 가장 성숙한 방법입니다.단, 이 솔루션은 공간이 한정되어 있어 디바이스를 항상 볼 수 있는 외부 센서가 필요합니다.

장점:

  • 더 정확한 판독은 카메라를 추가하면 향상됩니다.
  • Inside-out[7] 추적보다 짧은 레이텐시

단점:

  • 폐색, 카메라의 직접적인 시야가 필요합니다.그렇지 않으면 트래킹이 기능하지 않습니다.
  • 외부 센서의 필요성은 제한된 놀이 공간을 의미합니다.

내부 추적

이 방법에서는, 카메라는 추적 대상 디바이스상에 배치되어 외부를 보고, 환경내에서 카메라의 위치를 판단합니다.이 기술을 사용하는 헤드셋은 주변 전체를 보기 위해 여러 대의 카메라가 서로 다른 방향을 향하고 있다.이 방법은 마커를 사용하거나 사용하지 않고 작동할 수 있습니다.HTC 바이브가 사용하는 라이트하우스 시스템은 활성 마커의 한 예입니다.각 외부 Lighthouse 모듈에는 IR LED와 수평 및 수직 방향으로 스위프하는 레이저 어레이가 포함되어 있으며 헤드셋과 컨트롤러의 센서가 이러한 스위프를 검출하고 타이밍을 사용하여 위치를 [8][9]결정할 수 있습니다.Oculus Quest와 같은 마커리스 트래킹은 외부 환경에 탑재할 필요가 없습니다.헤드셋의 카메라를 사용하여 SLAM 또는 동시 현지화 및 매핑이라고 불리는 프로세스를 수행하는데,[4] 여기서 환경의 3D 지도가 실시간으로 생성됩니다.그런 다음 머신러닝 알고리즘은 특징 검출을 사용하여 헤드셋의 주변 [10][11]환경을 재구성하고 분석함으로써 헤드셋의 위치를 3D 지도에서 결정합니다.이 테크놀로지를 사용하면 Microsoft HoloLens와 같은 하이엔드 헤드셋을 스스로 장착할 수 있을 뿐만 아니라 외부 컴퓨터나 [12]센서에 테더링할 필요 없이 저렴한 모바일 헤드셋을 사용할 수 있습니다.

장점:

  • 넓은 플레이 공간 구현, 공간에 맞게 확장 가능
  • 새로운 환경에 적응 가능

단점:

  • 더 많은 온보드 처리 필요
  • 지연 시간이 길어질[7] 수 있습니다.

관성 추적

관성 추적은 가속도계자이로스코프의 데이터를 사용합니다.가속도계는 선형 가속도를 측정합니다.시간에 대한 위치의 도함수는 속도이고 속도의 도함수는 가속도이기 때문에 가속도계의 출력을 통합하여 속도를 구한 다음 다시 통합하여 초기 지점에 상대적인 위치를 찾을 수 있다.자이로스코프각속도를 측정한다.또한 각속도는 초기점에 상대적인 각위치를 결정하기 위해 통합될 수 있다.최신 관성 측정 장치 시스템(IMU)은 MEMS 기술을 기반으로 업데이트 속도가 높고 대기 시간이 최소인 공간에서 방향(롤, 피치, 요)을 추적할 수 있습니다.회전 추적에는 자이로스코프가 항상 사용되지만 비용, 설정 용이성, [13]볼륨 추적 등의 요소에 따라 위치 추적에는 다른 기술이 사용됩니다.

데드 어카운팅은 위치 데이터를 추적하기 위해 사용되며, 사용자[14]모션 변경을 업데이트하여 가상 환경을 변경합니다.가상현실 시스템에서 사용되는 데드 어카운팅 업데이트율과 예측 알고리즘은 사용자 경험에 영향을 미치지만, 다양한 기술이 [14]사용되었기 때문에 베스트 프랙티스에 대한 합의가 이루어지지 않습니다.데드 어카운팅은 드리프트로 이어지기 때문에 관성 트래킹에만 의존하여 정확한 위치를 결정하는 것은 어렵기 때문에 이러한 트래킹은 가상 [15]현실에서 단독으로 사용되지 않습니다.사용자의 움직임과 가상 현실 디스플레이 사이의 지연이 100ms 이상이면 [16]메스꺼움을 유발하는 것으로 확인되었습니다.

관성 센서는 회전 운동(롤, 피치, 요)뿐만 아니라 회전 운동도 추적할 수 있습니다.이 두 가지 유형의 움직임을 함께 6자유도라고 합니다.가상 현실의 많은 애플리케이션은 사용자의 머리 회전뿐만 아니라 사용자의 몸이 어떻게 움직이는지 추적해야 합니다(좌/우, 후/후, 위/아래).[17]모든 가상현실 체험에 6가지 자유도가 필요한 것은 아니지만 머리 이외의 것을 움직여야 할 때 유용하다.

장점:

  • 다른 센서에 비해 빠른 움직임을 잘 추적할 수 있으며, 특히 다른 센서와 결합하면 더 잘 추적할 수 있습니다.
  • 높은 업데이트 속도 가능

단점:

  • 오류가 발생하기 쉬우며, 계산 오류에 의해 빠르게 누적됩니다.
  • 위치를 결정할 때 지연 또는 계산이 잘못되면 메스꺼움이나 두통[18] 등의 증상이 나타날 수 있습니다.
  • 너무 빨리[18] 움직이는 사용자를 따라가지 못할 수 있음
  • 관성 센서는 일반적으로 실내 및 실험실 환경에서만 사용할 수 있으므로 실외 적용은 제한됩니다[19].

센서 퓨전

센서 퓨전 기능은 여러 추적 알고리즘의 데이터를 결합하여 하나의 기술보다 더 나은 출력을 제공할 수 있습니다.센서 융합의 변형 중 하나는 관성 추적과 광학 추적을 병합하는 것입니다.이 두 가지 기술은 관성 센서가 빠른 움직임을 추적하는 데 최적화되어 있지만 오류도 빠르게 누적되고 광학 센서는 관성 [13]약점을 보완하기 위한 절대 기준을 제공하기 때문에 종종 함께 사용됩니다.또한 관성 트래킹은 광학 트래킹의 일부 부족을 상쇄할 수 있다.예를 들어 광학 트래킹이 주된 트래킹 방법이 될 수 있지만, 폐색이 발생했을 때 관성 트래킹은 물체가 광학 카메라에 다시 보일 때까지의 위치를 추정한다.관성 추적은 또한 광학 추적 위치 데이터 사이에 위치 데이터를 생성할 수 있다. 관성 추적은 더 높은 업데이트 속도를 가지기 때문이다.광학 트래킹은 관성 트래킹의 드리프트에도 대응합니다.광학 트래킹과 관성 트래킹을 조합하면 사용자가 머리를 너무 [18]빠르게 움직일 때 일반적으로 발생하는 정렬 오류의 감소가 확인되었습니다.마이크로 전자 자기 시스템의 발전으로 인해 자기/전기 추적은 크기가 작고 비용이 [19]저렴하기 때문에 더욱 보편화되었습니다.

음향 추적

음향 추적 시스템은 반향 위치를 사용하는 동물에서 자연적으로 발견되는 것과 유사한 물체 또는 장치의 위치를 식별하는 기술을 사용합니다.박쥐가 두 귀로 돌아가는 음파의 차이를 이용해 물체를 찾는 것과 마찬가지로 VR의 음향 추적 시스템은 물체의 위치와 방향을 계산하기 위해 장치에 적어도 3개의 초음파 센서와 최소 3개의 초음파 송신기 세트를 사용할 수 있다(예를 들어 핸드헬드 컨트롤러).[20]물체의 위치를 결정하는 방법에는 송신기에서 수신기로의 음파의 비행 시간을 측정하는 방법 또는 전달을 수신하여 사인파의 위상 일관성을 측정하는 방법 두 가지가 있습니다.

비행 시간 방법

송신기에서 이들 3개의 수신기로의 초음파 음파(주파수가 20kHz 이상인 파형)의 이동 시간뿐만 아니라 d와12 d 사이의 거리를 가진 3개의 비공선 센서(또는 수신기) 세트가 주어진다면, 송신기의 상대적 데카르트 위치는 다음과 같이 계산할 수 있습니다.

여기서 각 li 송신기에서 3개의 수신기까지의 거리를 나타내며, 이 거리는 l = ctus 등식을 이용하여 초음파의 이동시간에 기초하여 계산된다.상수 c는 20°C의 건조한 공기에서 343.2m/s와 같은 음속을 나타낸다.최소 3개의 수신기가 필요하기 때문에 이러한 계산은 일반적으로 삼각 측량이라고 합니다.

위치 이외에 디바이스의 방향(즉, 모든 방향으로의 회전도)을 결정하려면 추적 대상물상의 적어도 3개의 비공선점을 알아야 하며, 앞서 언급한 3개의 수신기에 더해 초음파 송신기의 수가 추적 대상 장치당 최소 3개가 되어야 한다.송신기는 3개의 수신기를 향해 순차적으로 초음파를 방출합니다.이 수신기는 위에서 설명한 방법을 사용하여 3개의 송신기에서 공간 데이터를 도출하는 데 사용할 수 있습니다.그런 다음 송신기의 기존 위치 및 서로 [21]상대적인 공간적 위치를 기반으로 장치의 방향을 도출할 수 있습니다.

위상 일관성 있는 방법

TOF 방식과는 달리 음향적으로 물체를 찾기 위해 위상 일관(PC) 추적 방식도 사용되었습니다.PC 추적은 센서에 의해 수신된 현재 음파의 위상을 이전 기준 신호의 위상과 비교하여 지난번 측정에서 송신기의 상대적인 위치 변화를 판단할 수 있도록 한다.이 방법은 절대 측정값이 아닌 관측된 위치 값의 변화에만 적용되기 때문에 측정 오차는 더 많은 관측치에 걸쳐 복합되는 경향이 있습니다.그 결과, 이 방법은 시간이 지남에 따라 개발자들에게 인기를 잃었습니다.


장점:

  • 좌표 및 각도의 정확한 측정
  • 센서는 작고 가벼우므로 설계에 보다 유연하게 통합할 수 있습니다.
  • 디바이스는 저렴하고 제작이 간단합니다.
  • 전자파 간섭 없음

단점:

  • 주변 환경 온도, 기압, 습도에 따라 음속이 달라지면 거리 계산에 오류가 발생할 수 있다.
  • 범위가 한정되어 있어, 방사체와 수신기 사이에 직접 시야가 확보되어 있어야 합니다.
  • 다른 방법에 비해 가능한 최대 샘플링 주파수는 공기 중 음속이 비교적 낮기 때문에 다소 작다(약 수십 Hz).센서 융접을 사용하여 초음파 측정을 증가시키지 않는 한 수십 밀리초의 측정 지연이 발생할 수 있습니다.
  • 음향 간섭(주변 환경의 다른 소리)은 판독을 방해할 수 있다.

요약하자면, 음향 추적의 구현은 비행 [1][22][23]시뮬레이터와 같이 VR 또는 AR 시스템이 상주하는 주변 환경을 완전히 제어할 수 있는 경우에 최적이다.

자기 추적

자기 추적(또는 전자파 추적)은 테르민과 동일한 원리에 기초합니다.전자기 센서로 비균질 자기장의 강도를 측정하는 데 의존합니다.종종 시스템의 송신기 또는 필드 제너레이터라고 불리는 기지국은 시스템의 아키텍처에 따라 교류 또는 정적 전자기장을 생성합니다.

3차원 공간의 모든 방향을 커버하기 위해 3개의 자기장이 순차적으로 생성됩니다.자기장은 서로 수직인 3개의 전자 코일에 의해 생성됩니다.이러한 코일은 이동 대상에 장착된 작은 하우징에 넣어 추적해야 합니다.코일을 순차적으로 통과하는 전류는 코일을 전자석으로 변화시켜 코일이 공간에서의 위치와 방향을 결정할 수 있습니다.

마그네틱 트래킹은 가상 현실에서 자주 사용되는 헤드마운트 디스플레이를 필요로 하지 않기 때문에 종종 완전 몰입형 가상 현실 [18]디스플레이에 사용되는 트래킹 시스템입니다.헤드마운트 디스플레이와 같은 기존 기기는 완전히 밀폐된 가상현실 체험에서 사용자에게 방해가 되기 때문에 자기추적 등에 사용되는 대체기기가 선호된다.자기 추적은 폴헤머스에 의해 수행되었고 레이저 히드라는 식센스에 의해 수행되었다.이 시스템은 금속 물체나 장치 등 전자장에 영향을 줄 수 있는 전도성 물질 근처에서는 제대로 작동하지 않습니다.사용자가 베이스 [18]이미터에서 멀어질수록 마그네틱 트래킹이 심해지고 확장 가능 영역이 제한되며 5m를 초과할 수 없습니다.


장점:

  • 사용자가 착용할 필요가 없고 가상현실 체험에 지장을 주지 않는 방해받지 않는 기기를 사용합니다.
  • 몰입형 가상현실 디스플레이에 적합

단점:

  • 사용자는 베이스 이미터에 근접해야 합니다.
  • 전자장을 방해하는 금속이나 물체 근처에서 트래킹이 악화됩니다.
  • 잦은[19] 교정 요건으로 인해 오류와 지터가 많이 발생하는 경향이 있습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b Aukstakalnis, Steve. Practical augmented reality : a guide to the technologies, applications, and human factors for AR and VR. Boston. ISBN 978-0-13-409429-8. OCLC 958300989.
  2. ^ Emura, Satoru; Tachi, Susumu (August 1998). "Multisensor Integrated Prediction for Virtual Reality". Presence: Teleoperators and Virtual Environments. 7 (4): 410–422. doi:10.1162/105474698565811. ISSN 1054-7460. S2CID 34491936.
  3. ^ a b VR, Road to (2014-06-02). "Overview of Positional Tracking Technologies for Virtual Reality". Road to VR. Retrieved 2020-11-06.
  4. ^ a b "How Oculus squeezed sophisticated tracking into pipsqueak hardware". TechCrunch. Retrieved 2020-11-06.
  5. ^ "Oculus App Store Will Require Pre-Approvals, Comfort Ratings, Tax". TechCrunch. Retrieved 2020-11-06.
  6. ^ Pustka, D.; Hülß, J.; Willneff, J.; Pankratz, F.; Huber, M.; Klinker, G. (November 2012). "Optical outside-in tracking using unmodified mobile phones". 2012 IEEE International Symposium on Mixed and Augmented Reality (ISMAR): 81–89. doi:10.1109/ISMAR.2012.6402542. ISBN 978-1-4673-4662-7. S2CID 18349919.
  7. ^ a b "Inside-out v Outside-in: How VR tracking works, and how it's going to change". Wareable. 2017-05-03. Retrieved 2020-11-06.
  8. ^ Dempsey, P. (2016-08-01). "The Teardown: HTC Vive virtual reality headset". Engineering & Technology. 11 (7): 80–81. doi:10.1049/et.2016.0731. ISSN 1750-9637.
  9. ^ Niehorster, Diederick C.; Li, Li; Lappe, Markus (June 2017). "The Accuracy and Precision of Position and Orientation Tracking in the HTC Vive Virtual Reality System for Scientific Research". i-Perception. 8 (3): 204166951770820. doi:10.1177/2041669517708205. ISSN 2041-6695. PMC 5439658. PMID 28567271.
  10. ^ Chen, Liyan; Peng, Xiaoyuan; Yao, Junfeng; Qiguan, Hong; Chen, Chen; Ma, Yihan (August 2016). "Research on the augmented reality system without identification markers for home exhibition". 2016 11th International Conference on Computer Science & Education (ICCSE). Nagoya, Japan: IEEE: 524–528. doi:10.1109/ICCSE.2016.7581635. ISBN 978-1-5090-2218-2. S2CID 17281382.
  11. ^ Rasmussen, Loki; Basinger, Jay; Milanova, Mariofanna (March 2019). "Networking Consumer Systems to Provide a Development Environment for Inside-Out Marker-Less Tracking for Virtual Reality Headsets". 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). Osaka, Japan: IEEE: 1132–1133. doi:10.1109/VR.2019.8798349. ISBN 978-1-7281-1377-7. S2CID 201066258.
  12. ^ hferrone. "How inside-out tracking works - Enthusiast Guide". docs.microsoft.com. Retrieved 2020-11-06.
  13. ^ a b Bleser, Gabriele; Stricker, Didier (February 2009). "Advanced tracking through efficient image processing and visual–inertial sensor fusion". Computers & Graphics. 33 (1): 59–72. doi:10.1016/j.cag.2008.11.004. S2CID 5645304.
  14. ^ a b Bleser, Gabriele; Stricker, Didier (February 2009). "Advanced tracking through efficient image processing and visual–inertial sensor fusion". Computers & Graphics. 33 (1): 59–72. doi:10.1016/j.cag.2008.11.004. S2CID 5645304.
  15. ^ "How virtual reality positional tracking works". VentureBeat. 2019-05-05. Retrieved 2020-11-06.
  16. ^ Emura, Satoru; Tachi, Susumu (August 1998). "Multisensor Integrated Prediction for Virtual Reality". Presence: Teleoperators and Virtual Environments. 7 (4): 410–422. doi:10.1162/105474698565811. ISSN 1054-7460. S2CID 34491936.
  17. ^ "A quick guide to Degrees of Freedom in Virtual Reality". Kei Studios. 2018-02-12. Retrieved 2020-11-06.
  18. ^ a b c d e Hogue, A.; Jenkin, M. R.; Allison, R. S. (May 2004). "An optical-inertial tracking system for fully-enclosed VR displays". First Canadian Conference on Computer and Robot Vision, 2004. Proceedings.: 22–29. doi:10.1109/CCCRV.2004.1301417. ISBN 0-7695-2127-4. S2CID 1010865.
  19. ^ a b c Atrsaei, Arash; Salarieh, Hassan; Alasty, Aria; Abediny, Mohammad (May 2018). "Human Arm Motion Tracking by Inertial/Magnetic Sensors Using Unscented Kalman Filter and Relative Motion Constraint". Journal of Intelligent & Robotic Systems. 90 (1–2): 161–170. doi:10.1007/s10846-017-0645-z. ISSN 0921-0296. S2CID 3887896.
  20. ^ Jones, Gareth (July 2005). "Echolocation". Current Biology. 15 (13): R484–R488. doi:10.1016/j.cub.2005.06.051. ISSN 0960-9822. PMID 16005275.
  21. ^ Mihelj, Matjaž; Novak, Domen; Beguš, Samo (2014). "Virtual Reality Technology and Applications". Intelligent Systems, Control and Automation: Science and Engineering. 68. doi:10.1007/978-94-007-6910-6. ISBN 978-94-007-6909-0. ISSN 2213-8986.
  22. ^ T. Mazuryk, Virtual Reality History, 애플리케이션, 테크놀로지 및 미래오스트리아 비엔나:빈 공과대학, 1996년
  23. ^ R. Holloway와 A.라스트라, 「가상 환경: 테크놀로지의 조사」, cs.unc.edu.[온라인]이용가능 : http://www.cs.unc.edu/techreports/93-033.pdf

참고 문헌