쌍안경격차

Binocular disparity

쌍안경 격차는 눈의 수평 분리(시차)로 인해 좌우 에 보이는 물체의 영상 위치의 차이를 말한다. 뇌는 쌍안경 차이를 이용해 입체 망막 이미지에서 깊이 정보를 추출한다. 컴퓨터 시야에서 쌍안경 격차는 두 개의 스테레오 영상 내에서 유사한 형상의 좌표 차이를 가리킨다.

목표물에 대한 거리 및/또는 고도를 결정하기 위해 우연의 거리 측정기에 유사한 차이를 사용할 수 있다. 천문학에서 지구상의 서로 다른 위치의 차이는 다양한 천체 시차를 결정하는 데 사용될 수 있으며, 지구의 궤도는 별 시차를 결정하는 데 사용될 수 있다.

정의

그림 1. 쌍안경 불균형의 정의(멀고 가까운)

사람의 눈은 각 개인에 따라 약 50~75mm(양상간 거리)로 수평으로 분리된다. 따라서, 각각의 눈은 주변의 세상을 보는 관점이 약간 다르다. 수직 가장자리를 보면서 한쪽 눈을 번갈아 감으면 쉽게 알 수 있다. 쌍안경 불균형은 양쪽 시야 사이의 수직 가장자리의 명백한 수평 이동으로부터 관찰할 수 있다.

어느 순간, 두 눈의 시선은 우주의 한 지점에서 만난다. 우주에서의 이 지점은 두 눈의 망막에 같은 위치(즉 중심)로 투영된다. 그러나 왼쪽과 오른쪽 눈이 관찰하는 관점이 다르기 때문에, 우주의 다른 많은 지점들은 해당 망막 위치에 떨어지지 않는다. 시각적 쌍안경 불균형은 두 눈의 투영 지점의 차이로 정의되며, 보통 시각 각도로 표현된다.[1]

"쌍안경 불균형"이란 눈 밖에서 이루어지는 기하학적 측정을 말한다. 실제 망막에 나타나는 영상의 불균형은 망막의 단면이 완벽한 원이라고 해도 눈 내부의 요인, 특히 결절점의 위치에 따라 달라진다. 망막의 갭은 각도로 측정했을 때 쌍안경 갭에 준하는 반면, 눈 안쪽 구조가 복잡해 거리로 측정했을 경우 크게 차이가 난다.

그림 1: 검은색 원 전체가 고정점이다. 푸른 물체가 관찰자에게 가까이 있다. 따라서, 그것은 "가까운" 격차 dn 가지고 있다. 더 멀리 떨어져 있는 물체(녹색)는 그에 상응하여 "먼" 차이를 가진다f. 쌍안경 격차는 투영 두 선 사이의 각도다. 그 중 하나는 물체로부터 실제 투영점까지의 실제 투영이다. 다른 하나는 고정점의 결절점을 통과하는 상상 투영법이다.

컴퓨터 시야에서 쌍안경 차이는 스테레오 카메라 세트에서 찍은 스테레오 이미지로부터 계산된다. 기준선이라고 불리는 이들 카메라 사이의 가변 거리는 각 이미지 평면의 특정 지점의 불균형에 영향을 줄 수 있다. 기준선이 증가하면 점의 시야를 맞추는 데 필요한 각도가 커지기 때문에 불균형이 증가한다. 그러나 컴퓨터 시야에서 쌍안경 불균형은 시각적 각도 대신 오른쪽과 왼쪽 이미지 사이의 점의 좌표 차이로 언급된다. 단위는 보통 픽셀 단위로 측정된다.

2D 영상으로 뉴런 속이기

그림 2. 평면 내 깊이로부터의 격차 시뮬레이션. (그림 1과 관련)

망막(일차 시각피질)에서 나오는 시각정보 처리를 담당하는 뇌의 한 부분에 있는 뇌세포(신경)는 눈으로부터 입력된 시각의 불균형의 존재를 감지할 수 있다. 특히, 이러한 뉴런들은 "그들의" 특별한 차이를 가진 물체가 그들이 접근하는 시각장(수용장)의 부분 안에 있다면 활동적일 것이다.[2]

이러한 뉴런의 정확한 성질을 갭과 관련하여 연구자들은 세포에 서로 다른 차이를 가지고 시각적 자극을 제시하며 활성 여부를 관찰한다. 다른 차이를 가진 자극을 제시할 수 있는 한 가지 가능성은 물체를 눈 앞에 다양한 깊이로 배치하는 것이다. 그러나 이 방법의 단점은 멀리 떨어져 있는 물체가 작은 차이를 가지고 있는 반면 가까운 물체는 더 큰 차이를 가지고 있기 때문에 충분히 정확하지 않을 수 있다. 대신에 신경과학자들은 그림 2에 도식화된 다른 방법을 사용한다.

그림 2: 고정 지점과 깊이가 다른 물체의 차이는 물체의 이미지를 한쪽 눈에 표시하고 같은 이미지의 횡방향으로 이동한 이미지를 다른 쪽 눈에 표시함으로써 대신 생성될 수 있다. 완전한 검은 원은 고정의 포인트다. 다양한 깊이의 물체는 왼쪽 눈의 고정선을 따라 배치된다. 물체(채운 색 원)의 깊이 변화에서 발생하는 동일한 불균형은 한쪽 눈이 보는 그림에서 물체를 일정한 깊이(색색 여백이 있는 검은색 원)로 횡방향으로 이동시킴으로써도 발생할 수 있다. 거의 차이가 있을 경우 가로 방향 이동이 훨씬 큰 편차에 비해 동일한 깊이에 대응하려면 더 커야 한다는 점에 유의하십시오. 이것은 신경과학자들이 뉴런의 갭 선택성을 연구하기 위해 무작위 자극으로 보통 하는 것이다. 왜냐하면 갭을 테스트하는데 필요한 가로 방향 거리가 깊이 테스트를 통해 필요한 거리보다 작기 때문이다. 이 원칙은 또한 오토스테레오그램 착시에도 적용되었다.

디지털 스테레오 이미지를 사용한 컴퓨팅 격차

두 스테레오 이미지 사이의 특징의 차이는 보통 오른쪽 이미지에서 볼 때 이미지 형상의 왼쪽으로 이동으로 계산된다.[3] 예를 들어 왼쪽 영상에서 x 좌표 t(픽셀 단위로 측정)에 나타나는 단일 지점은 오른쪽 영상의 x 좌표 t - 3에 있을 수 있다. 이 경우 오른쪽 영상에서 해당 위치의 차이는 3픽셀이 될 것이다.

스테레오 영상이 빠른 격차 계산을 위해 항상 올바르게 정렬되지는 않을 수 있다. 예를 들어 카메라 세트는 수평에서 약간 벗어나 회전할 수 있다. 이미지 수정이라고 알려진 프로세스를 통해 두 이미지는 수평 방향으로만 불균형이 허용되도록 회전한다(, y 이미지 좌표에 불균형이 없다).[3] 이것은 이미지 캡쳐 전에 스테레오 카메라를 정밀하게 정렬시킴으로써도 얻을 수 있는 성질이다.

컴퓨터 알고리즘

수정 후, 대응 문제는 영상 기능이 일치하는지 왼쪽과 오른쪽 영상을 모두 스캔하는 알고리즘을 사용하여 해결할 수 있다. 이 문제에 대한 일반적인 접근법은 왼쪽 영상의 모든 픽셀 주위에 더 작은 이미지 패치를 형성하는 것이다. 이러한 이미지 패치는 해당 이미지 패치를 비교하여 올바른 이미지에서 발생할 수 있는 모든 차이와 비교된다. 예를 들어, 1의 격차에서 왼쪽 이미지의 패치는 오른쪽의 유사한 크기의 패치와 비교되며, 한 픽셀씩 왼쪽으로 이동한다. 이 두 패치의 비교는 패치의 각 픽셀을 비교하는 다음 방정식 중 하나에서 계산 측도를 얻음으로써 이루어질 수 있다. 다음의 모든 방정식에 대해 L과 R은 왼쪽과 오른쪽 열을, r과 c는 조사 중인 두 이미지의 현재 행과 열을 가리킨다. d는 오른쪽 이미지의 차이를 가리킨다.

  • Normalized correlation:
  • 제곱 차이 합계: ( ( r( ,) - (, - d)
  • 절대차이의 : ( , ) -( , c- d) {\sum L

위의 방법 중 하나를 사용하여 계산된 값이 가장 낮은 값과의 차이는 이미지 특성의 차이로 간주된다. 이 최저 점수는 알고리즘이 두 영상에서 해당 형상의 가장 적합한 일치하는 형상을 찾았다는 것을 나타낸다.

위에서 설명한 방법은 흉물-강력 검색 알고리즘이다. 패치 및/또는 이미지 크기가 큰 이 기술은 픽셀이 가장 낮은 상관 관계 점수를 찾기 위해 지속적으로 재검사되므로 시간이 많이 소요될 수 있다. 그러나 이 기법은 픽셀이 겹치는 만큼 불필요한 반복도 수반한다. 보다 효율적인 알고리즘에는 이전 픽셀의 모든 값을 기억하는 것이 포함된다. 훨씬 더 효율적인 알고리즘에는 이전 행의 열 합계를 기억하는 것이 포함된다(이전 픽셀의 모든 값을 기억하는 것 외에). 이전 정보를 저장하는 기법은 이 이미지 분석 과정의 알고리즘 효율을 크게 높일 수 있다.

이미지와의 불균형 사용

격차에 대한 지식은 스테레오 이미지에서 정보를 더 많이 추출하는 데 사용될 수 있다. 불균형이 가장 유용한 한 가지 경우는 깊이/거리 계산이다. 카메라와의 간격과 거리는 반비례한다. 카메라와의 거리가 늘어날수록 격차는 줄어든다. 이것은 스테레오 영상에서 깊이 인식을 가능하게 한다. 기하학과 대수학을 이용하여 2D 스테레오 영상에 나타나는 점들을 3D 공간의 좌표로 매핑할 수 있다.

이 개념은 항해에 특히 유용하다. 를 들어, 화성 탐사 탐사 로봇은 지형에 장애물을 스캔하는 비슷한 방법을 사용한다.[4] 탐사선은 스테레오 네비게이션 카메라로 한 쌍의 영상을 캡처하고, 상승된 물체(바위 등)를 탐지하기 위해 격차 계산을 수행한다.[5] 또한 위치 및 속도 데이터는 로버에 상대적인 물체의 변위를 측정하여 후속 스테레오 영상에서 추출할 수 있다. 어떤 경우에는 타이어 미끄러짐으로 인해 휠의 인코더 센서가 부정확할 수 있기 때문에 이것이 이러한 유형의 정보의 최선의 출처일 수 있다.

참고 항목

참조

  1. ^ Qian, N, 쌍안경 차이와 깊이 인식, 뉴런, 18, 359–368, 1997.
  2. ^ 곤잘레스, F., 페레즈, R., 입체 시력의 기초가 되는 신경 메커니즘, Prog Neurobiol, 55(3), 191–224, 1998.
  3. ^ a b 린다 지 샤피로와 조지 C. 스톡맨(2001) 컴퓨터 비전. 프렌티스 홀, 371–409. ISBN0-13-030796-3.
  4. ^ "컴퓨터 비전 연구소." JPLNASA.GOV. JPL/NASA, N.d. Web. 2011년 6월 5일. <[1]>.
  5. ^ "Spacecraft: Surface Operation: Rover." JPLNASA.GOV. JPL/NASA, N.d. Web. 2011년 6월 5일. http://marsrovers.jpl.nasa.gov/mission/spacecraft_rover_eyes.html.