보조 입자 필터는 미행 관측 밀도를 처리할 때 순차적 중요도 재샘플링(SIR) 알고리즘의 일부 결함을 개선하기 위해 1999년 피트와 셰퍼드 등이 도입한 입자 필터링 알고리즘이다.
동기
입자 필터는 균일한 분포에 대해
확률 질량
을 갖는 입자에
의한 연속 랜덤 변수에 가깝다.랜덤 표본 입자는 → ∞ \infit 값일 경우 연속 랜덤 변수의 확률 밀도 함수의 근사치를 위해 사용될 수 있다
경험적 예측 밀도는 다음과 같은 입자의 가중 합계로서 생성된다.[1]
, and we can view it as the "prior" density.입자의 중량은 동일한 j = M _{1인 것으로 가정한다는 점에 유의하십시오
이전 밀도 ( + 1 와
우도 + + 를
조합하면 다음과 같이 경험적 필터링 밀도를 생성할 수 있다.
, where 
반면에 우리가 추정하고자 하는 진정한 필터링 밀도는
.
이전 밀도 + 1 ) 를 사용하여 참 필터링 밀도 + 1 + f})를 근사찰할 수 있다

- 입자 는 이전 밀도 ( t+ 1 )에서 샘플을
추출한다
각 샘플은 동일한 확률로 그려진다. - 각 샘플을 가중치 = = R = i, = ( j}={\}{}}}{i}}}}}}}}}}}}}}}}}\
가중치는 우도함수 + t+ 1) }
. - 만약 샘플이 원하는 필터링 밀도로 수렴되는 숫자 R→ 이라면

- 입자는
중량 을 사용하여 입자로
다시 샘플링된다
입자 필터의 약점에는 다음이 포함된다.
- 무게 {
이(가) 큰 분산을 갖는 경우 표본이 경험적 필터링 밀도와 근사할 수 있을 정도로 표본 R 이(가) 커야
한다.즉, 중량이 널리 분포되어 있는 동안 SIR 방식은 부정확해지고 적응이 어렵다는 것이다.
따라서 이 문제를 해결하기 위해 보조 입자 필터를 제안한다.
보조 입자 필터
보조 변수
Comparing with the empirical filtering density which has
,
we now define
, where
.
+ + )})가 입자의
합계에 의해 형성된다는
것을 알고 있는 보조 변수 은 하나의 특정 입자를 나타낸다
.의 도움으로
우리는 분포 ( t+ ,k +)를 가진 세트를 형성할 수 있다
Then, we draw from these sample set
instead of directly from
. In other words, the samples are drawn from 확률은 다른
{\1} }).표본들은 궁극적으로 인 f(t + + 1)에 활용된다 (\
.
SIR 방법을 예로 들어보자.
- 입자 필터는 ( t+ , Y + ){\displaystyle g(\에서 표본을
추출한다
- Assign each samples with the weight

- + 및
를 제어하여 가중치를 균일하게 조정한다
- 마찬가지로, {\} 입자는
중량 j{\의 입자로
다시 샘플링된다
원래 입자 필터는 이전 밀도에서 표본을 추출하는 반면 보조 필터는 이전 밀도와 우도의 공동 분포에서 추출한다.즉, 보조 입자 필터는 가능성이 낮은 지역에서 입자가 생성되는 상황을 피한다. 결과 은 ft + t + 1 의 근사치를 더 정밀하게
할 수 있다
보조 변수 선택
보조 변수의 은 g + , t + ) _에 영향을 미치며
표본의 분포를 제어한다.g + 1, Y + ) 의 가능한 선택은 다음과 같을 수 있다
.
, where 과
t+ k 이 평균이다
.
+ , + ) 에서 다음
절차에 따라
대략 + t + 1 + ){\1} 로 표본을 추출한다.
- First, we assign probabilities to the indexes of
. We named these probabilities as the first-stage weights
, which are proportional to
. - 그런 다음 지수를 사용하여
t + t k) _에서 R 표본을
추출한다.그렇게 함으로써 실제로 (t+ ,k + ) },k에서 표본을 추출하고 있다
- Moreover, we reassign the second-stage weights
as the probabilities of the
samples, where +1}^{}^{jf(으)}{
f(중량은 . μ t+ 
- 으로 입자를
M
중량으로 다시 샘플링한다
Following the procedure, we draw the
samples from
. Since
is closely related to the mean
,조건부 가능성이 높다.따라서 샘플링 절차가 더욱 효율적이며 값 디스플레이 을(를) 줄일 수 있다
.
기타 관점
여과된 후방은 다음과 같은 M 가중 표본으로 설명된다고 가정한다.

다음 알고리즘의 각 단계는 t -1 에서 새 단계 t)로
전파되는
입자 k {\의 샘플을 그리는 것으로 구성된다
이러한 인덱스는 중간 단계로서만 사용되는 보조 변수로서 알고리즘의 명칭이다.인덱스는 일부 기준점 (의 가능성에 따라 그려지며, 어떤
식으로든 전환 모델 t -1
예: 평균, 샘플 등)과 관련이 있다.

는 i= ,, 에 대해 반복되며
이러한 인덱스를 사용하여 이제 조건부 샘플을 그릴 수 있다.

마지막으로 실제 샘플에서의 우도와 예측 지점 t (
:

참조
원천