강력한 기능 가속화
Speeded up robust features![]() |
피쳐 검출 |
---|
에지 검출 |
코너 감지 |
블롭 검출 |
능선 검출 |
Hough 변환 |
구조 텐서 |
부착 불변 피쳐 검출 |
피쳐 설명 |
축척 공간 |
컴퓨터 비전에서는 SURF(Speed updated Robust Features)가 특허 받은 로컬 피쳐 검출기 및 설명자다.객체 인식, 영상 등록, 분류, 3D 재구성 등의 작업에 사용할 수 있다.그것은 부분적으로 SIFT(Scale-invariant feature transform) 설명자에 의해 영감을 받았다.SIFT의 표준 버전은 SIFT보다 몇 배 더 빠르고, SIFT보다 다른 이미지 변형에 대해 더 강력하다고 저자들이 주장했다.
관심 지점을 감지하기 위해 SUP는 헤시안 블롭 검출기의 결정 인자에 대한 정수 근사치를 사용하며, 이는 사전 계산된 적분 영상을 사용하여 3개의 정수 연산으로 계산할 수 있다.그것의 특징 설명자는 관심 지점을 둘러싼 하르 파장 반응의 합계를 기초로 한다.이것들은 또한 적분된 영상의 도움으로 계산될 수 있다.
SOUP 설명자는 사물, 사람 또는 얼굴을 찾고 인식하며, 3D 장면을 재구성하고, 사물을 추적하고, 관심 지점을 추출하는 데 사용되어 왔다.
SOUP는 허버트 베이, 틴느 투이텔라르스, 뤽 반골 등이 처음 출판했으며, 2006년 유럽 컴퓨터 비전 콘퍼런스에서 발표되었다.이 알고리즘의 적용은 미국에서 특허를 얻었다.[1]U-SURF(U-SURF라 한다)의 "올바른" 버전은 영상 회전에 불변하므로 계산 속도가 빠르고 카메라가 수평으로 유지되는 애플리케이션에 더 적합하다.
다해상도 피라미드 기법을 이용해 좌표로 변환해 피라미드 가우스안이나 라플라시안 피라미드 모양으로 원본 영상을 복사해 같은 크기지만 대역폭이 줄어든 이미지를 얻는다.이렇게 하면 Scale-Space라고 불리는 원본 이미지에 특별한 흐림 효과를 얻을 수 있으며 관심 지점들이 Scale 불변성을 보장할 수 있다.
알고리즘 및 기능
SIFT와 동일한 원리와 단계를 기반으로 한 SUFT 알고리즘이지만, 각 단계의 세부 사항은 다르다.알고리즘은 관심 지점 감지, 로컬 근린 설명, 매칭의 3가지 주요 부분으로 구성된다.
탐지
SUFT는 가우스 평활의 근사치로 사각형 필터를 사용한다. (SIFT 접근방식은 계단식 필터를 사용하여 스케일 인바리어스 특성 포인트를 검출하는데, 여기서 가우스(DoG)의 차이는 재스케이드 영상에서 점진적으로 계산된다.)정사각형으로 영상을 필터링하는 것이 통합 이미지를 사용하는 경우 훨씬 빠름:
직사각형 내의 원래 이미지의 합은 직사각형의 네 모서리에서 평가를 요구하면서 적분된 이미지를 사용하여 신속하게 평가할 수 있다.
SOUP는 헤시안 매트릭스에 기초한 블롭 검출기를 사용하여 관심 지점을 찾는다.헤시안 행렬의 결정 인자는 점 주위의 국부적 변화의 척도로 사용되며, 이 결정 인자가 최대인 경우 점을 선택한다.미콜라지크와 슈미드에 의한 헤시안-라플라시안 검출기와는 대조적으로, SUP는 린데베르크에 의해서도 행해지는 것과 같이, 스케일을 선택하는 데 헤시안 결정인자를 이용한다.이미지 I에 점 p=(x, y)가 주어지면 점 p와 척도 σ에서 헤시안 행렬 H(p, σ)는 다음과 같다.
여기서 x( ,) 등은 (x , y ) {\을를 p 지점에 있는 가우스 2차 파생상품의 콘볼루션이다
9×9 크기의 상자 필터는 σ=1.2의 가우스인의 근사치로, blob-response 맵의 최저 레벨(가장 높은 공간 해상도)을 나타낸다.
축척 공간 표현 및 관심 지점 위치
관심 지점은 서로 다른 척도에서 찾을 수 있는데, 부분적으로는 서신 검색이 서로 다른 척도로 보이는 비교 영상을 필요로 하기 때문이다.다른 형상 검출 알고리즘에서는 스케일 공간이 보통 이미지 피라미드로 실현된다.이미지는 가우스 필터로 반복적으로 평활된 후, 피라미드의 다음 높은 수준을 얻기 위해 하위 샘플링된다.따라서 마스크의 다양한 측도가 있는 몇 개의 층이나 계단이 계산된다.
축척 공간은 여러 옥타브(옥타브)로 나뉘는데, 여기서 옥타브는 축척의 배율을 커버하는 일련의 반응 맵을 가리킨다.SOUP에서는 9×9 필터의 출력으로부터 스케일 공간의 최저 레벨이 얻어진다.
따라서 기존 방식과 달리 SOUP의 스케일 공간은 크기가 다른 박스 필터를 적용하여 구현된다.따라서 이미지 크기를 반복적으로 줄이기보다는 필터 크기를 상향 조정하여 스케일 공간을 분석한다.위의 9×9 필터의 출력은 s =1.2 척도의 초기 척도층으로 간주된다( ( = 1.2인 가우스파생상품에 대응).다음 레이어는 적분 이미지의 이산적 특성과 특정 필터 구조를 고려하여 점차적으로 큰 마스크로 영상을 필터링하여 얻는다.이로 인해 9×9, 15×15, 21×21, 27×27 크기의 필터가 발생한다.3×3×3 근린에서의 비최대 억제는 이미지와 과대규모의 관심 지점을 국산화하기 위해 적용된다.헤시안 매트릭스의 결정 인자의 최대치는 브라운 외 연구진이 제안한 방법으로 스케일과 영상 공간에서 보간된다.각 옥타브의 첫 번째 층 사이의 축척 차이가 상대적으로 크기 때문에 이 경우 축척 공간 보간이 특히 중요하다.
설명자
설명자의 목표는 예를 들어 관심 지점의 인접 영역 내에서 픽셀의 강도 분포를 설명함으로써 이미지 기능에 대한 독특하고 강력한 설명을 제공하는 것이다.따라서 대부분의 서술자는 국지적인 방법으로 계산되므로 앞에서 식별된 모든 관심 지점에 대한 설명을 얻는다.
서술자의 차원성은 그 계산 복잡성과 포인트 매칭 강건성/정확성 모두에 직접적인 영향을 미친다.짧은 설명자는 외모 변동에 대해 더 강직할 수 있지만 충분한 차별을 제공하지 못할 수 있고 따라서 너무 많은 잘못된 긍정을 줄 수 있다.
첫 번째 단계는 관심 지점 주위의 원형 영역에서 정보를 기반으로 재현 가능한 방향을 고정하는 것으로 구성된다.그런 다음 선택한 방향에 맞춰 정사각형 영역을 구성하고, 거기서 SOUP 설명자를 추출한다.
오리엔테이션
회전 불변도를 달성하려면 관심 지점의 방향을 찾아야 한다.관심 지점 주위의 반지름 의 원형 인접 영역 내에서 X 방향과 y 방향 모두에서 Har wavelet 응답이 계산되며, 여기서 은 관심 지점을 탐지한 척도다.얻어진 반응은 관심 지점을 중심으로 한 가우스 함수에 의해 가중치가 부여된 다음, 이차원 공간의 점으로 표시되며, 가로 방향 반응은 압시사에서, 세로 방향 반응은 세로 방향이다.우세한 방향은 크기 π/3의 슬라이딩 방향 창 내에서 모든 반응의 합계를 계산하여 추정한다.창 내의 수평 및 수직 반응이 합산된다.두 개의 총계 반응은 국부 방향 벡터를 산출한다.전체적으로 가장 긴 벡터는 관심 지점의 방향을 정의한다.슬라이딩 윈도우의 크기는 견고성과 각도 분해능 사이에서 원하는 균형을 얻기 위해 신중하게 선택해야 하는 매개변수다.
Har wavelet 응답의 합계를 기반으로 하는 설명자
점 주위의 영역을 설명하기 위해, 관심점을 중심으로 위에서 선택한 방향을 따라 정사각형 영역을 추출한다.이 창문의 크기는 20대 입니다.
관심 영역은 더 작은 4x4 사각형 하위 영역으로 분할되며, 각 영역에 대해 5x5 간격의 샘플 포인트에서 Har wavelet 응답을 추출한다.응답은 가우스(변형, 소음 및 번역에 대해 보다 강건성을 제공하기 위해)로 가중된다.
매칭
서로 다른 이미지에서 얻은 설명자를 비교함으로써 일치하는 쌍을 찾을 수 있다.
참고 항목
- SIFT(Scale-invariant feature transform)
- 그라데이션 위치 및 방향 히스토그램
- 국부 에너지 기반 형상 히스토그램(LESH)
- 블롭 검출
- 피쳐 검출(컴퓨터 비전)
참조
- ^ US 2009238460, 후나야마 류지, 야나기하라 히로미치, 뤽 반골, 틴 반 투텔라르스, 허버트 베이, "로부스트 관심 포인트 검출기와 설명자" 2009-09-24
원천
- 허버트 베이, 안드레아스 에센스, 틴느 투이텔라르스, 뤽 반골, ETH 취리히, 카톨리에케 우니베르니시티트 르우벤, "Speed Up Rothous Features, ETH Jurizh, Katholieke Universitedit Leuleven.
- Andrea Maricela Plaza Cordero,Jorge Luis Zambrano Martínez, " Estudio y Selección de las Técnicas SIFT, SURF y ASIFT de Reconocimiento de Imágenes para el Diseño de un Prototipo en Dispositivos Móviles" , 15º Concurso de Trabajos Estudiantiles, EST 2012
- A. M. 로메로와 M. 카졸라, "Comparativa de detectores de caracicasisvisuales y su aplicacion al SLAM", X Workshop de agentes fisicos, Setiembre 2009, Caceresores"
- P. M. Panchal, S. R. Panchal, S. K. Shah, "SIFT와 SOUP의 비교", 컴퓨터 통신 엔지니어링 혁신 연구 국제 저널 제1권 제2호, 2013년 4월
- 허버트 베이, 안드레아스 에센스, 틴네 투이텔라르스, 뤽 반 고올 "SURF: Speed Up Robust Features", 컴퓨터 비전 및 이미지 이해(CVIU), 제110권, 페이지 346–359, 2008
- 크리스토퍼 에반스 "OpenSURF Library", MSc Computer Science, Bristol University of Bristol, 소스 코드 및 문서 보관
- J An Knop, Mukta Prasad, Gert Willems, Radu Timofte, Luc Van Gool, "Hough Transform and 3D SOUP for Robust한 3차원 분류", 유럽 컴퓨터 비전 컨퍼런스(ECV), 2010