최소 평균 제곱(LMS) 알고리즘은 오류 신호의 최소 평균 제곱(원하는 신호와 실제 신호의 차이) 생성과 관련된 필터 계수를 찾아 원하는 필터를 모방하는 데 사용되는 적응형 필터의 일종이다.필터가 현재 시간에 오차를 기준으로만 조정된다는 점에서 확률적 그라데이션 강하법이다.1960년 스탠퍼드대 교수 버나드 위드로와 그의 첫 박사과정 학생인 테드 호프에 의해 발명되었다.null
문제 제식
Wiener 필터와의 관계
인과적인 Wiener 필터의 실현은 신호 처리 도메인을 제외하고 최소 제곱 추정치에 대한 해답과 많이 닮았다.입력 행렬 및 출력 벡터 에 대한 최소 제곱 솔루션은
FIR 최소 평균 제곱 필터는 Wiener 필터와 관련이 있지만, 전자의 오차 기준을 최소화하는 것은 교차 상관이나 자동 상관에 의존하지 않는다.위너 필터 솔루션으로 수렴한다.대부분의 선형 적응형 필터링 문제는 위의 블록 다이어그램을 사용하여 공식화할 수 있다.That is, an unknown system is to be identified and the adaptive filter attempts to adapt the filter to make it as close as possible to , while using only observable signals (n) 그러나 및 h는 직접 관측할 수 없다.그 해결책은 위너 필터와 밀접한 관련이 있다.null
기호의 정의
- 은(는) 현재 입력 샘플 수입니다.
- 은(는) 필터 탭 수입니다.
- }} \{\\}^{헤르미티안 전치 또는 결합 전치)
- ( n) 추정 필터, 샘플 n개 이후 필터 계수의 추정으로 해석
아이디어
LMS 필터의 기본 아이디어는 필터 무게를 최적의 필터 무게로 수렴하는 방식으로 업데이트함으로써 최적의 필터 무게- 에 접근하는 것이다.이것은 구배 강하 알고리즘에 기초한다.알고리즘은 작은 가중치(대부분의 경우 0)를 가정하는 것으로 시작하고, 각 단계에서 평균 제곱 오차의 구배를 찾아 가중치를 업데이트한다.즉, MSE-gradient가 양수인 경우, 추가 반복에 동일한 가중치를 사용한다면 오류가 계속 긍정적으로 증가할 것임을 의미하며, 이는 우리가 가중치를 줄여야 한다는 것을 의미한다.마찬가지로 구배도 음수일 경우 가중치를 높여야 한다.중량 업데이트 방정식은
여기서 ∆ 은(는) 평균 제곱 오차를 나타내고 은(는) 수렴 계수다.null
부정적인 기호는 오류를 최소화하는 필터 웨이트인 W_를 찾기 위해 오류의 슬로프인 을(를) 아래로 내려간다는 것을 나타낸다null
필터 가중치의 함수로서의 평균 제곱 오차는 최적 가중치인 평균 제곱 오차를 최소화하는 2차 함수를 의미한다.따라서 LMS는 평균-제곱 오차 대 필터 중량 곡선을 상승/하강함으로써 최적의 가중치를 향해 접근한다.null
파생
필터의 아이디어는 비용 함수를 최소화하는 필터 무게 ( n) 을(를 찾기 위해 가장 가파른 내리막을 사용하는 것이다.먼저 비용 함수를 다음과 같이 정의한다.
여기서 ( ) 은 현재 샘플 n의 오류이고 { } E은 기대값을 나타낸다.null
이 비용 함수(C() )는 평균 제곱 오차로, LMS에 의해 최소화된다. 여기서 LMS가 이름을 얻는다.필터 계수(중량) 벡터의 개별 입력과 관련하여 부분 파생 모델을 취하기 위해 가장 가파른 내리막 평균 적용
여기서 은(는) 그라데이션 연산자임
현재 ( ) 은 비용 함수의 가장 가파른 상승을 가리키는 벡터다.비용 함수의 최소값을 찾으려면 의 반대 방향으로 한 걸음 더 나아가야 한다 C(의 수학적 용어로 표현하려면
여기서 은 단계 크기(최대 상수)이다.즉, 비용 함수를 최소화하는 순차 업데이트 알고리즘을 찾았다.불행히도 이 은 { x( ) e ( ) 을(를) 알 때까지는 실현 가능하지 않다
일반적으로 위의 기대치는 계산되지 않는다.대신 LMS를 온라인(각 새로운 샘플이 수신된 후 업데이트) 환경에서 실행하기 위해 우리는 그 기대치에 대한 즉각적인 추정치를 사용한다.아래 내용 참조.null
단순화
대부분의 시스템에서 함수 { ( ) e ( n) 은(는) 근사치여야 한다.다음과 같은 불편함이 없는 추정기로 이 작업을 수행할 수 있다.
여기서 은 해당 견적에 사용하는 표본 수를 나타낸다.가장 간단한 경우는 = 1 이다.
그러한 간단한 경우에 업데이트 알고리즘은 다음과 같다.
실제로 이것은 LMS 필터의 업데이트 알고리즘을 구성한다.null
LMS 알고리즘 요약
순서 필터에 대한 LMS 알고리즘은 다음과 같이 요약할 수 있다.
매개 변수: | = p필터 순서 |
| = 단계 크기 |
초기화: | |
계산: | = , ,.. . |
| |
| |
| |
평균의 수렴 및 안정성
LMS 알고리즘은 기대치의 정확한 값을 사용하지 않기 때문에 절대적 의미에서는 가중치가 최적 가중치에 도달하지 못하지만 평균적으로는 수렴이 가능하다.즉, 체중이 작은 양으로 변할 수 있지만, 최적의 체중에 대해 변화한다.그러나 가중치가 변동하는 분산이 크면 평균의 수렴이 오도될 수 있다.스텝 사이즈 의 값을 제대로 선택하지 않으면 이 문제가 발생할 수 있다.null
만약 }이 큰 것으로 선택된다면, 가중치가 변하는 양은 구배 추정치에 크게 의존하게 되고, 따라서 가중치가 큰 값으로 변경되어 첫 순간에 음수였던 구배가 이제 양수가 될 수 있다.그리고 두 번째 순간, 무게는 음의 구배 때문에 반대 방향으로 크게 변할 수 있고 따라서 최적 무게에 대해 큰 분산으로 계속 진동할 것이다.반면 이(가) 너무 작다고 선택되면 최적 체중에 수렴할 시간이 너무 커진다.null
따라서 <> 에 대한 상한 값이 필요하다.
where is the greatest eigenvalue of the autocorrelation matrix . If this condition is not fulfilled, the algorithm becomes unstable and 이(가) 갈라진다.null
최대 수렴 속도는 다음과 같다.
여기서 은(는) R{\}}}}의 최소 고유값이다}{\이 최적값보다 작거나 같음을 감안하여 수렴 속도가 되며, 값이 클수록 수렴 속도가 빨라진다ce. 이는 max이(가) 에 가까울 때 더 빠른 수렴 속도를 달성할 수 있다는 것을 의미한다
백색 노이즈 신호는 자기 상관 행렬 = {{R}}=\을(를) 가지고 있으며, 여기서 }}은 신호의 분산이다.이 경우 모든 고유값은 동일하며 고유값 산포도는 가능한 모든 행렬에 대한 최소값이다.따라서 이 결과에 대한 일반적인 해석은 LMS가 백색 입력 신호에 대해 빠르게 수렴되고, 저역 통과 또는 고역 통과 특성을 갖는 프로세스와 같은 색상의 입력 신호에 대해서는 천천히 수렴된다는 것이다.null
상기 에 대한 상한 값 }은(는) 평균의 안정성을 강제할 뿐이지만, ) 의 계수는 여전히 무한히 커질 수 있으며, 즉 계수의 분산이 여전히 가능하다는 점에 유의해야 한다.좀 더 실용적인 바운드는
여기서 t [ 은 의 추적을 나타낸다이 바운드는 ) n)}}의 계수가 이탈하지 않도록 보장한다(실제로는 바운드의 도출에서 이루어진 근사 및 가정으로 인해 다소 낙관적이므로 의 값을 이 상한에 가깝게 선택해서는 안 된다).null
정규화된 최소 평균 제곱 필터(NLMS)
"순수" LMS 알고리즘의 주요 단점은 입력 () x의 스케일링에 민감하다는 것이다이로 인해 알고리즘의 안정성을 보장하는 학습률 을(를) 선택하는 것이 매우 어려워진다(헤이킨 2002).NLMS(Normalized never manage square filter)는 입력의 힘으로 정규화함으로써 이 문제를 해결하는 LMS 알고리즘의 변형이다.NLMS 알고리즘은 다음과 같이 요약할 수 있다.
매개 변수: | = p필터 순서 |
| = 단계 크기 |
초기화: | |
계산: | = , ,.. . |
| |
| |
| |
최적 학습률
간섭(()= (\이 없는 경우 NLMS 알고리즘에 대한 최적의 학습 속도는 다음과 같다.
그리고 입력 및 실제 (알 수 없는) 응답 h {\ { (n과 독립적이다 간섭(() 과 관련된 일반적인 경우, 최적의 학습률은
위의 결과는 v() 과 이(가) 서로 상관관계가 없다고 가정하며, 이는 일반적으로 실제에 해당된다.null
증명
필터 오정렬을 )= h ()- ( ) 로 정의하면다음 샘플에 예상되는 오정렬을 다음과 같이 도출할 수 있다.
= ( )- h ( }\mathbf { r( = y^() - =y)-y(n)-y(n)-y
독립성을 가정할 때 다음과 같이 한다.
최적의 학습률은 [ (+ ) = 0 에서 확인되며, 이는 다음과 같은 결과를 낳는다.
참고 항목
참조
- 몬슨 H.Hayes: 통계 디지털 신호 처리 및 모델링, Wiley, 1996, ISBN0-471-59431-8
- 사이먼 헤이킨:적응형 필터 이론, 프렌티스 홀, 2002, ISBN 0-13-048434-2
- 사이먼 S.헤이스킨, 버나드 위드로(편집자):Last-Mean-Square Adaptive Filters, Wiley, 2003, ISBN 0-471-21570-8
- 버나드 위드로, 새뮤얼 D.스턴스:적응형 신호 처리, 프렌티스 홀, 1985, ISBN 0-13-004029-0
- 웨이펑 류, 호세 프린시페, 사이먼 헤이킨: 커널 적응 필터링: 종합 소개, 존 와일리, 2010, ISBN 0-470-44753-2
- 파울루 S.R.Diniz: Adaptive Filtering: Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9
외부 링크