현지화 및 매핑 동시 실행

Simultaneous localization and mapping
2005년 DARPA Grand Challenge 우승자 스탠리는 자율 주행 시스템의 일부로 SLAM을 수행했습니다.
SLAM 로봇이 생성한 지도입니다.

동시 현지화매핑(SLAM)은 알 수 없는 환경의 을 구축 또는 업데이트하면서 동시에 에이전트의 위치를 추적하는 계산상의 문제입니다.이것은 처음에는 닭과 달걀의 문제인 것처럼 보이지만, 특정 환경에서는 적어도 대략적인 시간 내에 해결할 수 있는 몇 가지 알고리즘이 있습니다.일반적인 근사 솔루션 방법으로는 입자 필터, 확장 Kalman 필터, 공분산 교차로 및 GraphSLAM이 있습니다.SLAM 알고리즘은 컴퓨터 지오메트리와 컴퓨터 비전의 개념을 기반으로 하며 가상현실 또는 증강현실을 위한 로봇 내비게이션, 로봇 매핑 및 주행 기록계에 사용됩니다.

SLAM 알고리즘은 사용 가능한 리소스에 맞게 조정되므로 완벽을 목표로 하는 것이 아니라 운영 컴플라이언스를 목표로 합니다.공개된 접근법은 자가운전 자동차, 무인항공기, 자율 수중 비행체, 행성 탐사선, 신형 국산 로봇, 그리고 인체 내부에서도 사용된다.디즈니는 2021년 12월 AR 대응 헤드셋이나 스마트폰이 [1]필요 없도록 외장 프로젝터를 갖춘 SLAM 기술을 기반으로 증강현실 기술에 대한 특허를 취득했다.

문제의 수학적 설명

SLAM 문제는 개별 시간 {\ 센서 t 통해 에이전트 추정치와 m {\t을 계산하는 것입니다.모든 수량은 일반적으로 확률론적이므로 목표는 다음을 계산하는 것이다.

Bayes 규칙을 적용하면 지도와 변환 P x -){ P에 따라 위치 후부를 순차적으로 갱신할 수 있는 프레임워크를 얻을 수 있습니다.

마찬가지로 맵은 다음과 같이 순차적으로 갱신할 수 있습니다.

많은 추론 문제처럼, 두 변수를 함께 추론하는 해법은 기대-최대화 알고리즘의 형태로 두 신념의 업데이트를 번갈아 함으로써 국소 최적 해결책으로 찾을 수 있다.

알고리즘

위의 방정식을 근사하는 데 사용되는 통계적 기법에는 Kalman 필터와 입자 필터가 있습니다.로봇의 포즈와 지도 모수에 대한 사후 확률 분포의 추정치를 제공합니다.공분산 교차를 사용하여 위의 모델을 보수적으로 근사하는 방법은 대규모 [2]애플리케이션의 알고리즘 복잡성을 줄이기 위해 통계적 독립성 가정에 대한 의존을 피할 수 있다.다른 근사 방법은 [3]불확실성의 단순한 경계 영역 표현을 사용하여 개선된 계산 효율성을 달성한다.

set-membership 기술은 주로 간격 제약 [4][5]전파에 기초합니다.로봇의 포즈와 지도의 근사치를 둘러싸는 세트를 제공합니다.번들 조정, 더 일반적으로 최대 사후 추정(MAP)은 이미지 데이터를 이용한 SLAM의 또 다른 인기 기술로, 포즈와 랜드마크 위치를 공동으로 추정하여 지도 충실도를 높이며, 이전 증강현실 프로젝트 '탱고'를 대체하는 구글의 ARCORE와 같은 상용화된 SLAM 시스템에 사용된다.MAP 추정기는 전체 후방 확률을 추정하기보다는 센서 데이터가 주어진 로봇 포즈와 지도에 대한 가장 가능성이 높은 설명을 계산한다.

새로운 SLAM 알고리즘은 여전히 활발한 연구 [6]영역이며, 종종 다음과 같이 지도, 센서 및 모델의 유형에 대한 다양한 요구사항과 가정에 의해 구동된다.많은 SLAM 시스템은 이러한 각 측면의 선택지를 조합한 것으로 볼 수 있습니다.

매핑

토폴로지 맵은 기하학적으로 정확한 맵을 작성하는 대신 환경의 연결성(, 토폴로지)을 포착하는 환경 표현 방법입니다.토폴로지 SLAM 접근방식은 메트릭 SLAM [7]알고리즘의 글로벌 일관성을 적용하기 위해 사용되어 왔습니다.

반면 그리드 맵은 이산화된 셀의 배열(일반적으로 정사각형 또는 육각형)을 사용하여 위상 세계를 나타내며 사용되는 셀에 대해 추론합니다.일반적으로 셀은 계산을 단순화하기 위해 통계적으로 독립적이라고 가정한다.이러한 가정 하에 새로운 맵의 셀이 위치 })와 일치하고 일치하지 않는 경우 P x - , 1로 설정됩니다.

현대의 자가 운전 자동차는 사전에 수집된 매우 상세한 지도 데이터를 광범위하게 활용함으로써 지도 문제를 거의 아무것도 아닌 것으로 단순화합니다.여기에는 도로의 개별 흰색 선분 및 커브 위치 표시 수준에 대한 지도 주석이 포함될 수 있습니다.Google의 StreetView와 같은 위치 태그 부착 비주얼 데이터를 지도의 일부로 사용할 수도 있습니다.기본적으로 이러한 시스템은 SLAM 문제를 보다 단순한 현지화 전용 작업으로 단순화하며, 아마도 자동차나 사람과 같은 움직이는 물체는 런타임에만 지도에서 업데이트할 수 있을 것이다.

센싱

Lidar SLAM에서 누적된 등록된 포인트 클라우드.

SLAM은 항상 몇 가지 다른 유형의 센서를 사용하며, 다양한 유형의 센서 파워와 한계는 [8]새로운 알고리즘의 주요 동인이 되어 왔습니다.통계적 독립성은 측정 기준 편향과 측정 소음에 대처하기 위한 필수 요건이다.센서 유형에 따라 센서에 가장 적합한 다양한 SLAM 알고리즘이 생성됩니다.레이저 스캔 또는 시각적 기능은 영역 내의 많은 포인트에 대한 세부 정보를 제공하며, 이러한 포인트 구름의 모양은 이미지 등록을 통해 각 단계에서 쉽고 모호하지 않게 정렬될 수 있기 때문에 SLAM 추론이 불필요할 수 있습니다.반대로 촉각 센서는 에이전트에 매우 가까운 지점에 대한 정보만 포함하기 때문에 매우 희박하기 때문에 순수한 촉각 SLAM으로 보정하려면 강력한 이전 모델이 필요하다.대부분의 실용적인 SLAM 태스크는 이러한 시각적 및 촉각적 극단 사이에 있습니다.

센서 모델은 랜드마크 기반 접근 방식과 원시 데이터 접근 방식으로 크게 나뉩니다.랜드마크는 Wifi 액세스포인트나 무선 비콘 등 센서에 의해 위치를 추정할 수 있는 세계에서 일의로 식별할 수 있는 객체입니다.원시 데이터 접근법에서는 랜드마크를 식별할 수 있다고 가정하지 않고 대신 P t { P 위치의 함수로 직접 표시한다.

광학 센서는 1차원(단일 빔) 또는 2D-(스위핑) 레이저 범위 탐지기, 3D High Definition LiDAR, 3D Flash LIDAR, 2D 또는 3D 소나 센서 및 하나 이상의 2D [8]카메라일 수 있습니다.2005년 이후, 모바일 [9]디바이스와 같은 카메라의 보급이 증가하고 있기 때문에, 주로 시각(카메라) 센서를 사용하는 비주얼 SLAM(Visual SLAM)에 관한 연구가 진행되고 있습니다.시각적 센서와 LIDAR 센서는 많은 경우 랜드마크 추출을 위해 충분한 정보를 제공합니다.기타 최신 SLAM 형태로는 촉각[10] SLAM(로컬 터치만으로 감지), 레이더 [11]SLAM, 음향 [12]SLAM 및 wifi-SLAM(근처 wifi 액세스 포인트의 [13]강도로 감지)이 있습니다.최근의 접근법은 불규칙한 무선 측정의 표시로서 SLAM과 함께 다중 라테레이션(RTLS) 또는 다중 앵글레이션을 위한 준광학 무선 범위를 적용합니다.보행자를 위한 일종의 SLAM은 신발장착 관성측정장치를 주센서로 하여 보행자가 벽을 피할 수 있다는 점에 의존하여 실내측위시스템[14]의해 건물의 평면도를 자동으로 구축한다.

일부 실외 어플리케이션에서는 고정밀 차동 GPS 센서로 인해 SLAM의 필요성이 거의 없어졌습니다.SLAM의 관점에서 보면, 이들은 가능성이 매우 뚜렷하여 추론을 완전히 지배하고 있는 위치 센서로 볼 수 있다.그러나 GPS 센서는 일부 로봇 애플리케이션에 특히 관심이 있는 군사적 충돌 시간 동안 때때로 감소하거나 완전히 감소할 수 있습니다.

운동학 모델링

P( t - ){ P 용어는 으로 로봇에 주어진 동작 명령에 대한 정보를 포함하는 모델의 운동학을 나타냅니다.모델의 일부로 로봇의 운동학이 포함되어 고유 및 주변 소음 조건에서의 감지 추정치를 개선합니다.동적 모델은 다양한 센서와 다양한 부분 오류 모델의 기여도를 균형 있게 조정하고 최종적으로 로봇의 위치와 헤딩을 확률의 구름으로 하여 지도로서의 날카로운 가상 묘사로 구성됩니다.매핑은 그러한 모델의 최종 묘사이며, 맵은 그러한 묘사 또는 모델의 추상 용어입니다.

2D 로봇의 경우 운동학은 일반적으로 회전과 "앞으로 이동" 명령이 혼합되어 추가 모터 노이즈와 함께 구현됩니다.불행히도 각도 및 선형 방향의 독립 소음에 의해 형성된 분포는 가우스적이지 않지만, 종종 가우스에 의해 근사된다.대안적 접근법은 운동학적 용어를 무시하고 각 명령 후에 로봇 휠에서 주행 기록 데이터를 읽는 것이다. 그러면 이러한 데이터는 운동학이 아닌 센서 중 하나로 취급될 수 있다.

어쿠스틱 SLAM

일반적인 SLAM 문제의 확장이 음향 영역에 적용되었으며, 여기서 환경은 음원의 3차원(3D) 위치로 표현된다.[15]이 기술의 초기 구현에서는 음원 위치의 Direction-of-Arrival(DoA; 도착 방향) 추정치를 사용하고 있으며, 음원 위치를 결정하기 위해 사운드 현지화의 주요 기술에 의존합니다.관찰자 또는 로봇에 음향 SLAM을 사용할 수 있도록 마이크 어레이를 장착해야 DoA 기능이 올바르게 추정됩니다.음향 SLAM은 음향 장면 매핑의 추가 연구를 위한 기반을 마련했으며, 음성을 통한 인간-로봇 상호작용에 중요한 역할을 할 수 있다.음향 SLAM 시스템은 여러 개의 간헐적 음원을 매핑하기 위해 랜덤 유한 집합 이론의 기초를 활용하여 음향 [16]랜드마크의 다양한 존재를 처리합니다.그러나 음향적으로 파생된 기능의 특성으로 인해 음향 SLAM은 환경 내에서 잔향, 비활성 및 소음의 문제에 취약합니다.

시청각 SLAM

원래 인간과 로봇 간의 상호작용을 위해 설계된 Audio-Visual SLAM은 [17]환경 내 음향 및 시각적 양식에서 얻은 랜드마크 기능의 융합을 제공하는 프레임워크입니다.인간 상호작용은 시각적 양식뿐만 아니라 음향 양식에서도 인식되는 특징에 의해 특징지어진다. 따라서 인간 중심 로봇과 기계를 위한 SLAM 알고리즘은 두 가지 특징 세트를 모두 고려해야 한다.Audio-Visual 프레임워크는 인간의 자세와 같은 시각적 특징과 인간의 말투와 같은 오디오 특징을 사용하여 인간의 랜드마크를 추정 및 매핑하고 보다 견고한 환경 지도를 위해 믿음을 결합합니다.모바일 로봇(드론, 서비스 로봇 등)의 경우 단안 카메라 또는 마이크로 전자 마이크 어레이와 같은 저전력 경량 장비를 사용하는 것이 중요합니다.AVSLAM은 또한 오디오 센서 고유의 완전한 시야 표현과 방해받지 않는 기능 표현으로 Lightweight Visual Sensor에 공통되는 좁은 시야, 기능 간섭 및 광학적 저하를 보상함으로써 이러한 센서의 보완적인 기능을 가능하게 합니다.오디오 센서가 잔향, 음원의 비활동성 및 소음에 민감하게 반응하는 것은 시각적 모달리티의 획기적인 신념의 융합을 통해 적절히 보상될 수 있습니다.환경에서 오디오와 시각적 양식 사이의 보완적 기능은 인간의 말과 인간의 움직임과 완전히 상호작용하는 로봇 공학 및 기계의 제작에 귀중한 것으로 입증될 수 있습니다.

콜라보레이티브 SLAM

협업 [18]SLAM은 여러 로봇 또는 사용자의 이미지를 결합하여 3D 지도를 생성합니다.

오브젝트 이동

다른 차량이나 보행자를 포함하는 환경과 같은 정적이 아닌 환경은 계속해서 연구 [19][20]과제를 제기한다.SLAM with DATMO는 에이전트 [21]자체와 유사한 방식으로 움직이는 개체를 추적하는 모델입니다.

루프 클로징

루프 폐쇄는 이전에 방문한 위치를 인식하고 그에 따라 믿음을 업데이트하는 문제입니다.모델 또는 알고리즘 오류에 의해 낮은 우선순위가 로케이션에 할당될 수 있기 때문에 문제가 될 수 있습니다.일반적인 루프 폐쇄 방식에서는 두 번째 알고리즘을 적용하여 어떤 유형의 센서 측정 유사도를 계산하고 일치가 검출되면 위치 우선 순위를 재설정합니다.예를 들어, 이전에 방문한 각 위치에서 SIFT 기능의 단어 벡터 백을 저장하고 비교함으로써 이를 수행할 수 있습니다.

탐색

"Active SLAM"은 SLAM의 복합적인 문제와 지도를 최대한 효율적으로 구축하기 위해 다음에 어디로 이동할지 결정하는 문제를 연구합니다.능동 탐사의 필요성은 촉각 SLAM과 같은 희박한 감지 체제에서 특히 두드러진다.액티브 SLAM은 일반적으로 가상 액션 하에서 의 엔트로피를 근사함으로써 수행됩니다."Multi agent SLAM"은 이 문제를 여러 로봇이 최적으로 탐색하도록 스스로 조정하는 경우로 확장합니다.

생물학적 영감

신경과학에서 해마는 SLAM과 유사한 [22][23][24]연산에 관여하는 것으로 보이며 장소 세포를 생성하며 RatSLAM과 같은 생물학적 영감을 받은 SLAM 시스템의 기초를 형성했다.

구현 방법

오픈 소스 로봇 운영 체제(ROS) 라이브러리에는 다양한 SLAM 알고리즘이 구현되어 있으며, OpenCV의 3D 지도 또는 시각적 기능을 위한 Point Cloud Library와 함께 사용되는 경우가 많습니다.

EKF 슬램

로봇공학에서 EKF SLAM은 SLAM을 위해 확장 칼만 필터(EKF)를 사용하는 알고리즘의 클래스입니다.일반적으로 EKF SLAM 알고리즘은 기능 기반이며 데이터 관련성을 위해 최대우도 알고리즘을 사용합니다.EKF SLAM은 1990년대와 2000년대에 [25]FastSLAM이 도입되기 전까지 SLAM의 사실상의 방식이었다.

EKF와 관련된 것은 불확실성에 대한 EKF SLAM의 처리 능력을 크게 손상시키는 가우스 소음 가정이다.후방의 불확실성이 커지면 EKF의 선형화가 [26]실패한다.

GraphSLAM

로봇공학에서 GraphSLAM은 관측 상호의존성의 인자 그래프를 생성하여 생성된 희소 정보 행렬을 사용하는 SLAM 알고리즘이다. (두 관측치는 동일한 [26]랜드마크에 대한 데이터를 포함하는 경우 관련된다.)

역사

SLAM의 중요한 연구는 R.C. Smith와 P.의 연구이다.1986년 [27][28]공간적 불확실성의 표현과 추정에 관한 치즈맨.이 분야의 다른 선구적인 연구는 Hugh F의 연구 그룹에 의해 수행되었습니다. 1990년대 [29]초반의 듀란트-와이테.이는 SLAM에 대한 솔루션이 무한 데이터 제한 내에 존재함을 보여줍니다.이 결과는 계산적으로 다루기 쉽고 해답에 가까운 알고리즘을 찾는 데 동기를 부여한다.SLAM이라는 약어는 1995년 [30]ISR에 처음 등장한 논문 "자율 유도 차량의 현지화"에서 만들어졌다.

Sebastian Thrun이 이끄는 SANTI와 JUNIOR 자동차는 2000년대 DARPA 그랜드 챌린지에서 우승하고 DARPA Urban Challenge에서 2위를 차지했으며 SLAM 시스템을 포함, SLAM이 전 세계적으로 주목을 받았다.대중 시장용 SLAM 구현은 이제 소비자 로봇 진공 [31]청소기에서 찾을 수 있습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Macdonald, Brady. "Disney patents AR without headsets for theme park rides". SiliconValley.com. Retrieved 6 January 2022.
  2. ^ Julier, S.; Uhlmann, J. (2001). Building a Million-Beacon Map. Proceedings of ISAM Conference on Intelligent Systems for Manufacturing. doi:10.1117/12.444158.
  3. ^ Csorba, M.; Uhlmann, J. (1997). A Suboptimal Algorithm for Automatic Map Building. Proceedings of the 1997 American Control Conference. doi:10.1109/ACC.1997.611857.
  4. ^ Jaulin, L. (2009). "A nonlinear set-membership approach for the localization and map building of an underwater robot using interval constraint propagation" (PDF). IEEE Transactions on Robotics. 25: 88–98. doi:10.1109/TRO.2008.2010358. S2CID 15474613.
  5. ^ Jaulin, L. (2011). "Range-only SLAM with occupancy maps; A set-membership approach" (PDF). IEEE Transactions on Robotics. 27 (5): 1004–1010. doi:10.1109/TRO.2011.2147110. S2CID 52801599.
  6. ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (2016). "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age". IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/tro.2016.2624754. hdl:2440/107554. ISSN 1552-3098. S2CID 2596787.
  7. ^ Cummins, Mark; Newman, Paul (June 2008). "FAB-MAP: Probabilistic localization and mapping in the space of appearance" (PDF). The International Journal of Robotics Research. 27 (6): 647–665. doi:10.1177/0278364908090961. S2CID 17969052. Retrieved 23 July 2014.
  8. ^ a b Magnabosco, M.; Breckon, T.P. (February 2013). "Cross-Spectral Visual Simultaneous Localization And Mapping (SLAM) with Sensor Handover" (PDF). Robotics and Autonomous Systems. 63 (2): 195–208. doi:10.1016/j.robot.2012.09.023. Retrieved 5 November 2013.
  9. ^ Karlsson, N.; et al. (Di Bernardo, E.; Ostrowski, J; Goncalves, L.; Pirjanian, P.; Munich, M.) (2005). The vSLAM Algorithm for Robust Localization and Mapping. Int. Conf. on Robotics and Automation (ICRA). doi:10.1109/ROBOT.2005.1570091.
  10. ^ Fox, C.; Evans, M.; Pearson, M.; Prescott, T. (2012). Tactile SLAM with a biomimetic whiskered robot (PDF). Proc. IEEE Int. Conf. on Robotics and Automation (ICRA).
  11. ^ Marck, J.W.; Mohamoud, A.; v.d. Houwen, E.; van Heijster, R. (2013). Indoor radar SLAM A radar application for vision and GPS denied environments (PDF). Radar Conference (EuRAD), 2013 European.
  12. ^ Evers, Christine, Alastair H. Moore, Patrick A.네일러."움직이는 마이크 어레이와 그 주변 스피커의 음향 동시 현지화 매핑(a-SLAM)" 2016년 IEEE 국제 음향, 음성 및 신호 처리 컨퍼런스(ICASSP).IEEE, 2016.
  13. ^ Ferris, Brian, Dieter Fox, Neil D.로렌스."가우스 프로세스 잠재 변수 모델을 사용하여 와이프 슬램."IJCAI, 제7권 제1호 2007년
  14. ^ Robertson, P.; Angermann, M.; Krach, B. (2009). Simultaneous Localization and Mapping for Pedestrians using only Foot-Mounted Inertial Sensors (PDF). Ubicomp 2009. Orlando, Florida, USA: ACM. doi:10.1145/1620545.1620560. Archived from the original (PDF) on 2010-08-16.
  15. ^ Evers, Christine; Naylor, Patrick A. (September 2018). "Acoustic SLAM" (PDF). IEEE/ACM Transactions on Audio, Speech, and Language Processing. 26 (9): 1484–1498. doi:10.1109/TASLP.2018.2828321. ISSN 2329-9290.
  16. ^ Mahler, R.P.S. (October 2003). "Multitarget bayes filtering via first-order multitarget moments". IEEE Transactions on Aerospace and Electronic Systems. 39 (4): 1152–1178. Bibcode:2003ITAES..39.1152M. doi:10.1109/TAES.2003.1261119. ISSN 0018-9251.
  17. ^ Chau, Aaron; Sekiguchi, Kouhei; Nugraha, Aditya Arie; Yoshii, Kazuyoshi; Funakoshi, Kotaro (October 2019). "Audio-Visual SLAM towards Human Tracking and Human-Robot Interaction in Indoor Environments". 2019 28th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN). New Delhi, India: IEEE: 1–8. doi:10.1109/RO-MAN46459.2019.8956321. ISBN 978-1-7281-2622-7. S2CID 210697281.
  18. ^ Zou, Danping, 그리고 Ping Tan."Coslam: 동적 환경에서의 협업적인 비주얼 슬램." 패턴 분석 및 머신 인텔리전스에 관한 IEEE 트랜잭션 35.2(2012): 354-366.
  19. ^ Perera, Samunda; Pasqual, Ajith (2011). Bebis, George; Boyle, Richard; Parvin, Bahram; Koracin, Darko; Wang, Song; Kyungnam, Kim; Benes, Bedrich; Moreland, Kenneth; Borst, Christoph (eds.). "Towards Realtime Handheld MonoSLAM in Dynamic Environments". Advances in Visual Computing. Lecture Notes in Computer Science. Springer Berlin Heidelberg. 6938: 313–324. doi:10.1007/978-3-642-24028-7_29. ISBN 9783642240287.
  20. ^ Perera, Samunda; Barnes, Dr.Nick; Zelinsky, Dr.Alexander (2014), Ikeuchi, Katsushi (ed.), "Exploration: Simultaneous Localization and Mapping (SLAM)", Computer Vision: A Reference Guide, Springer US, pp. 268–275, doi:10.1007/978-0-387-31439-6_280, ISBN 9780387314396
  21. ^ Wang, Chieh-Chih; Thorpe, Charles; Thrun, Sebastian; Hebert, Martial; Durrant-Whyte, Hugh (2007). "Simultaneous Localization, Mapping and Moving Object Tracking" (PDF). Int. J. Robot. Res. 26 (9): 889–916. doi:10.1177/0278364907081229. S2CID 14526806.
  22. ^ Howard, MW; Fotedar, MS; Datey, AV; Hasselmo, ME (2005). "The temporal context model in spatial navigation and relational learning: toward a common explanation of medial temporal lobe function across domains". Psychological Review. 112 (1): 75–116. doi:10.1037/0033-295X.112.1.75. PMC 1421376. PMID 15631589.
  23. ^ Fox, C; Prescott, T (2010). "Hippocampus as unitary coherent particle filter". The 2010 International Joint Conference on Neural Networks (IJCNN) (PDF). pp. 1–8. doi:10.1109/IJCNN.2010.5596681. ISBN 978-1-4244-6916-1. S2CID 10838879.
  24. ^ Milford, MJ; Wyeth, GF; Prasser, D (2004). "RatSLAM: A hippocampal model for simultaneous localization and mapping". IEEE International Conference on Robotics and Automation, 2004. Proceedings. ICRA '04. 2004 (PDF). pp. 403–408 Vol.1. doi:10.1109/ROBOT.2004.1307183. ISBN 0-7803-8232-3. S2CID 7139556.
  25. ^ Montemerlo, M.; Thrun, S.; Koller, D.; Wegbreit, B. (2002). "FastSLAM: A factored solution to the simultaneous localization and mapping problem" (PDF). Proceedings of the AAAI National Conference on Artificial Intelligence. pp. 593–598.
  26. ^ a b Thrun, S.; Burgard, W.; Fox, D. (2005). Probabilistic Robotics. Cambridge: The MIT Press. ISBN 0-262-20162-3.
  27. ^ Smith, R.C.; Cheeseman, P. (1986). "On the Representation and Estimation of Spatial Uncertainty" (PDF). The International Journal of Robotics Research. 5 (4): 56–68. doi:10.1177/027836498600500404. S2CID 60110448. Retrieved 2008-04-08.
  28. ^ Smith, R.C.; Self, M.; Cheeseman, P. (1986). "Estimating Uncertain Spatial Relationships in Robotics" (PDF). Proceedings of the Second Annual Conference on Uncertainty in Artificial Intelligence. UAI '86. University of Pennsylvania, Philadelphia, PA, USA: Elsevier. pp. 435–461. Archived from the original (PDF) on 2010-07-02.
  29. ^ Leonard, J.J.; Durrant-whyte, H.F. (1991). "Simultaneous map building and localization for an autonomous mobile robot". Intelligent Robots and Systems' 91.'Intelligence for Mechanical Systems, Proceedings IROS'91. IEEE/RSJ International Workshop on: 1442–1447. doi:10.1109/IROS.1991.174711. ISBN 978-0-7803-0067-5. S2CID 206935019.
  30. ^ Durrant-Whyte, H.; Bailey, T. (June 2006). "Simultaneous localization and mapping: part I". IEEE Robotics Automation Magazine. 13 (2): 99–110. doi:10.1109/MRA.2006.1638022. ISSN 1558-223X. S2CID 8061430.
  31. ^ Knight, Will (September 16, 2015). "With a Roomba Capable of Navigation, iRobot Eyes Advanced Home Robots". MIT Technology Review. Retrieved 2018-04-25.

외부 링크