보조 입자 필터

Auxiliary particle filter

보조 입자 필터는 미행 관측 밀도를 처리할 때 순차적 중요도 재샘플링(SIR) 알고리즘의 일부 결함을 개선하기 위해 1999년 피트와 셰퍼드 등이 도입한 입자 필터링 알고리즘이다.

동기

입자 필터는 균일한 분포에 대해 확률 질량 을 갖는 입자에 의한 연속 랜덤 변수에 가깝다.랜덤 표본 입자는 → ∞ \infit 값일 경우 연속 랜덤 변수의 확률 밀도 함수의 근사치를 위해 사용될 수 있다

경험적 예측 밀도는 다음과 같은 입자의 가중 합계로서 생성된다.[1]

, and we can view it as the "prior" density.입자의 중량은 동일한 j = M _{1인 것으로 가정한다는 점에 유의하십시오

이전 밀도 ( + 1 우도 + + 조합하면 다음과 같이 경험적 필터링 밀도를 생성할 수 있다.

, where

반면에 우리가 추정하고자 하는 진정한 필터링 밀도는

.

이전 밀도 + 1 ) 를 사용하여 참 필터링 밀도 + 1 + f})를 근사찰할 수 있다

  • 입자 는 이전 밀도 ( t+ 1 )에서 샘플을 추출한다 각 샘플은 동일한 확률로 그려진다.
  • 각 샘플을 가중치 = = R = i, = ( j}={\}{}}}{i}}}}}}}}}}}}}}}}}\가중치는 우도함수 + t+ 1) }.
  • 만약 샘플이 원하는 필터링 밀도로 수렴되는 숫자 R 이라면
  • 입자는 중량 을 사용하여 입자로 다시 샘플링된다

입자 필터의 약점에는 다음이 포함된다.

  • 무게 { 이(가) 큰 분산을 갖는 경우 표본이 경험적 필터링 밀도와 근사할 수 있을 정도로 표본 R 이(가) 커야 한다.즉, 중량이 널리 분포되어 있는 동안 SIR 방식은 부정확해지고 적응이 어렵다는 것이다.

따라서 이 문제를 해결하기 위해 보조 입자 필터를 제안한다.

보조 입자 필터

보조 변수

Comparing with the empirical filtering density which has ,

we now define , where .

+ + )})가 입자의 합계에 의해 형성된다는 것을 알고 있는 보조 변수 은 하나의 특정 입자를 나타낸다.의 도움으로 우리는 분포 ( t+ ,k +)를 가진 세트를 형성할 수 있다Then, we draw from these sample set instead of directly from . In other words, the samples are drawn from 확률은 다른 {\1} }).표본들은 궁극적으로 인 f(t + + 1)에 활용된다 (\.

SIR 방법을 예로 들어보자.

  • 입자 필터는 ( t+ , Y + ){\displaystyle g(\에서 표본을 추출한다
  • Assign each samples with the weight
  • + 를 제어하여 가중치를 균일하게 조정한다
  • 마찬가지로, {\} 입자는 중량 j{\ 입자로 다시 샘플링된다

원래 입자 필터는 이전 밀도에서 표본을 추출하는 반면 보조 필터는 이전 밀도와 우도의 공동 분포에서 추출한다.즉, 보조 입자 필터는 가능성이 낮은 지역에서 입자가 생성되는 상황을 피한다. 결과 은 ft + t + 1 의 근사치를 더 정밀하게 할 수 있다

보조 변수 선택

보조 변수의 은 g + , t + ) _에 영향을 미치며 표본의 분포를 제어한다.g + 1, Y + ) 의 가능한 선택은 다음과 같을 수 있다.
, where t+ k 이 평균이다.

+ , + ) 에서 다음 절차에 따라 대략 + t + 1 + ){\1} 로 표본을 추출한다.

  • First, we assign probabilities to the indexes of . We named these probabilities as the first-stage weights , which are proportional to .
  • 그런 다음 지수를 사용하여 t + t k) _에서 R 표본을 추출한다.그렇게 함으로써 실제로 (t+ ,k + ) },k에서 표본을 추출하고 있다
  • Moreover, we reassign the second-stage weights as the probabilities of the samples, where +1}^{}^{jf(으)}{f(중량은 . μ t+
  • 으로 입자를 M 중량으로 다시 샘플링한다

Following the procedure, we draw the samples from . Since is closely related to the mean ,조건부 가능성이 높다.따라서 샘플링 절차가 더욱 효율적이며 값 디스플레이 을(를) 줄일 수 있다.

기타 관점

여과된 후방은 다음과 같은 M 가중 표본으로 설명된다고 가정한다.

다음 알고리즘의 각 단계는 t -1 에서 새 단계 t)로 전파되는 입자 k {\의 샘플을 그리는 것으로 구성된다이러한 인덱스는 중간 단계로서만 사용되는 보조 변수로서 알고리즘의 명칭이다.인덱스는 일부 기준점 (의 가능성에 따라 그려지며, 어떤 식으로든 전환 모델 t -1 예: 평균, 샘플 등)과 관련이 있다.

는 i= ,, 에 대해 반복되며 이러한 인덱스를 사용하여 이제 조건부 샘플을 그릴 수 있다.

마지막으로 실제 샘플에서의 우도와 예측 지점 t ( :

참조

  1. ^ Pitt, Michael K.; Shephard, Neil. "Filtering Via Simulation: Auxiliary Particle Filters" (PDF). Journal of the American Statistical Association.

원천