행렬의 아이젠드 합성
Eigendecomposition of a matrix선형대수학에서, 아이젠데코포지션은 행렬을 정규 형식으로 인수분해하는 것으로, 행렬은 고유값과 고유 벡터의 관점에서 표현된다.대각선화 가능한 행렬만 이 방법으로 인수분해할 수 있습니다.인수분해되는 행렬이 정상 또는 실제 대칭 행렬일 때, 분해는 스펙트럼 정리로부터 파생된 "스펙트럼 분해"라고 불립니다.
행렬 고유 벡터와 고유값의 기본 이론
차원 N의 (0이 아닌) 벡터 v는 형식의 선형 방정식을 만족하는 경우 제곱 N × N 행렬 A의 고유 벡터이다.
스칼라 λ에 대해서요.그리고 나서 θ를 v에 대응하는 고유값이라고 한다. 기하학적으로 말하면, A의 고유벡터는 A가 단순히 늘리거나 축소하는 벡터이며, 이들이 늘리거나 축소하는 양은 고유값이다.위의 방정식을 고유값 방정식 또는 고유값 문제라고 합니다.
그러면 고유값에 대한 방정식이 생성됩니다.
p(ial)를 특성 다항식이라고 하며 특성 방정식이라고 하는 방정식은 미지의 unknown에 있는 N차 다항식이다.이 방정식은 N개의 개별 해를 가지며λ, 여기서 1 µλ N µ N이다.솔루션 집합, 즉 고유값을 [1][2][3]A의 스펙트럼이라고 합니다.
만약 스칼라의 장이 대수적으로 닫히면, 우리는 p를 다음과 같이 인수분해할 수 있다.
정수i n을 고유값 θ의i 대수적 배수라고 한다.대수 곱셈의 합은 : i = 1 N. { _}}=
각 고유값 θ에i 대해 특정 고유값 방정식이 있습니다.
각 고유값 방정식에는 1 µmi µni 선형 독립 솔루션이 있습니다.m 솔루션i(제로 벡터를 제공하는 솔루션 제외)의 선형 조합은 고유값 θ와i 연관된 고유 벡터입니다.정수i m을 θ의i 기하학적 배수라고 한다.대수적 다중도i n과 기하학적 다중도i m은 같을 수도 있고 아닐 수도 있지만, 우리는 항상i m m n을 가지고i 있다는 것을 명심하는 것이 중요하다.가장 간단한 경우는 물론 m = ni = 1일 때입니다i.선형 독립 고유 벡터 N의v 총 수는 기하학적 곱셈을 합산하여 계산할 수 있다.
고유 벡터는 이중 인덱스를 사용하여 고유값으로 인덱싱할 수 있으며ij, v는 ith 고유값의 j번째 고유 벡터입니다.고유 벡터는 k = 1, 2, ..., N인v 단일 지수k v의 간단한 표기법을 사용하여 색인화할 수도 있다.
행렬의 아이젠드 합성
A를 n개의 선형 독립 고유 벡터i q(여기서 i = 1, ..., n)를 갖는 제곱 n × n 행렬이라고 하자.A는 다음과 같이 인수분해할 수 있습니다.
여기서 Q는 ih 열이 A의 고유 벡터i q인 제곱 n × n 행렬이고, δ는 대각 요소가 대응하는 고유값인 δii = δ인i 대각 행렬입니다. 대각화 가능한 행렬만 이 방식으로 인수분해할 수 있습니다.예를 들어 결함행렬[ 1 [ { \ { matrix } \ { matrix } \ ](전단행렬)은 대각화할 수 없다.
n개의 고유 벡터i q는 일반적으로 정규화되지만 정규화할 필요는 없습니다.n개의 고유 벡터의 비정규화 집합인i v는 Q의 열로도 사용할 수 있습니다.이는 Q의 고유 벡터의 크기가 Q의−1 존재에 의해 분해에서 취소된다는 것을 주목함으로써 이해할 수 있다.이 고유치 λi에 1대의 eigenvalues의 λi 하나 이상의linearly 독립적인 값을 가지고 있(그, λi의 기하학적 다양한 1보다 큰 경우)다면, 이러한 값 상호 직교;만약 두개 값 두개의 다른 eigenvalues에 속하는 그들에게 ea에 직굘 하는 것이 아직 사실상 불가능할 것 선택할 수 있다.ch기타(아래 예 참조)A가 정규 매트릭스라면 스펙트럼 정리에 의해 직교 정규 기저 {qi}에서 항상 A를 대각화할 수 있습니다.
분해는 고유 벡터의 기본 특성에서 파생될 수 있습니다.
0이 아닌 고유값을 갖는 선형 독립 고유 벡터i q는 모든 가능한 제품 Ax, 대응하는 행렬 변환의 이미지(또는 범위)와 동일한 x µn C 및 행렬 A의 열 공간에 대한 기저(반드시 직교할 필요는 없음)를 형성합니다.고유값이 0이 아닌 선형 독립 고유 벡터i q의 수는 행렬 A의 순위 및 해당 행렬 변환의 이미지(또는 범위) 차원 및 열 공간과 동일합니다.
고유값이 0인 선형 독립 고유 벡터i q는 행렬 변환 A의 null 공간(커널이라고도 함)에 대한 기준(직교 정규 분포를 따르도록 선택 가능)을 형성합니다.
예
2 × 2 실행렬 A
비단수행렬 B의 곱셈을 통해 대각행렬로 분해될 수 있다
그리고나서
실제 대각행렬[ y \left{small matrixright에 대해 지정합니다.
왼쪽 방정식의 양변에 B를 곱하면 다음과 같습니다.
위의 방정식은 두 개의 연립 방정식으로 분해할 수 있습니다.
고유값 x와 y를 인수분해하면:
내버려 두는
두 가지 벡터 방정식을 얻을 수 있습니다.
또한 두 개의 해를 고유값으로 포함하는 단일 벡터 방정식으로 나타낼 수 있습니다.
여기서 θ는 두 고유값 x와 y를 나타내고 u는 벡터 a와 b를 나타냅니다.
u를 왼쪽으로 이동하고 u를 제외하다
B는 단수가 아니기 때문에 u는 0이 아닌 것이 중요합니다.그러므로,
따라서
행렬 A에 대한 고유값의 해를 θ = 1 또는 θ = 3으로 제공하고, A의 아이젠드 합성으로부터 얻은 대각 행렬은[ matrix matrixright이다.
위의 연립 방정식에 솔루션 되돌리기
방정식을 풀면
따라서 A의 eigendecomposition에 필요한 행렬 B는 다음과 같다.
즉, 다음과 같습니다.
행렬 역행렬 아이젠드 분해
행렬 A를 eigendecomposed할 수 있고 고유값이 0이 아닌 경우 A는 반전 가능하며 그 역수는 다음과 같습니다.
A가 대칭행렬인 는(\ \mathbf {A의 벡터로 형성되므로 Q는 직교행렬임을 한다 {T}}. 또한 δ는 대각 행렬이기 때문에 그 역수를 계산하기가 쉽습니다.
실제적인 의미
측정된 실제 데이터의 행렬에 eigendecomposition을 사용하는 경우, 위의 형식으로 모든 고유값을 수정하지 않고 사용하면 역행렬의 유효성이 낮아질 수 있습니다.이는 고유값이 상대적으로 작아짐에 따라 반전에 대한 기여도가 크기 때문입니다.0에 가깝거나 측정 시스템의 "소음"에 있는 사람들은 과도한 영향을 미치며 [4]역수를 사용하는 해결책(탐지)을 방해할 수 있다.
두 가지 완화 방법이 제안되었습니다. 즉, 작은 고유값 또는 0 고유값을 잘라내는 것과 가장 신뢰할 수 있는 고유값을 그 아래 고유값으로 확장하는 것입니다.
첫 번째 완화 방법은 원래 행렬의 희박한 표본과 유사하므로 가치가 없는 성분을 제거합니다.다만, 솔루션 또는 검출 프로세스가 노이즈 레벨에 가까운 경우는, 컷팅에 의해서, 목적의 솔루션에 영향을 주는 컴포넌트가 삭제되는 일이 있습니다.
두 번째 완화는 고유값을 확장하여 낮은 값이 반전에 미치는 영향은 훨씬 적지만 여전히 기여하여 노이즈 근처의 솔루션을 찾을 수 있습니다.
신뢰할 수 있는 고유값은 매우 유사하고 낮은 값의 고유값이 측정 노이즈의 좋은 표현이라고 가정하면 찾을 수 있습니다(대부분의 시스템에서는 낮다고 가정).
고유값이 값별로 정렬된 경우 정렬된 고유값의 [5]Laplacian을 최소화하여 신뢰할 수 있는 고유값을 찾을 수 있습니다.
여기서 고유값에는 s가 첨자로 표시되어 정렬됨을 나타냅니다.최소화의 위치는 신뢰할 수 있는 가장 낮은 고유값입니다.측정 시스템에서 이 신뢰할 수 있는 고유값의 제곱근은 시스템 구성 요소에 대한 평균 노이즈입니다.
함수 미적분
eigendecomposition을 사용하면 행렬의 멱급수를 훨씬 쉽게 계산할 수 있습니다.f(x)가 다음과 같이 지정되면
그렇다면 우리는 그것을 안다.
δ는 대각 행렬이기 때문에 δ의 함수는 매우 쉽게 계산할 수 있습니다.
f(δ)의 엇대각 원소는 0이다. 즉, f(δ)도 대각 행렬이다.따라서 f(A)를 계산하면 각 고유값에 대한 함수를 계산하는 것으로 줄어듭니다.
유사한 기법은 더 일반적으로 정함수 미적분에 작용한다.
위에서부터.다시 한 번, 우리는 그것을 발견한다.
예
는 ( ) 2, ( ) , ( ) {\ x 2},\;fexp의 예입니다. 또한 A { { 행렬은 다음과 같습니다
특수 행렬에 대한 분해
![]() | 이 섹션은 확장해야 합니다.추가함으로써 도움이 될 수 있습니다. (2008년 6월) |
A가 정상 또는 실제 대칭 행렬일 때, 분해는 스펙트럼 정리로부터 파생된 "스펙트럼 분해"라고 불립니다.
정규 행렬
복소수 제곱행렬 A는 다음과 같이 분해될 수 있는 경우에만 정규이다(AA** = AA, 여기서* A는 켤레 전치이다).
여기서 U는 유니터리 행렬(U* = U−1)이고, δ = diag(θ, ..., θn)는1 대각 [6]행렬이다.U의1 열 un, ..., u는 직교 기저를 형성하며, 대응하는 고유값1 ,, ..., λ를n 갖는 A의 고유 벡터입니다.
A가 에르미트 행렬(A = A*)로 제한되면 δ에는 실제 값 항목만 있습니다.A가 단일 행렬로 제한되면 δ는 복소 단위 원에서 모든 값, 즉 θi = 1을 취한다.
실대칭행렬
특별한 경우로서, 모든 n × n 실제 대칭 행렬에 대해 고유값은 실재하며 고유 벡터는 실재 및 직교 정규 벡터를 선택할 수 있다.따라서 실제 대칭행렬 A는 다음과 같이 분해될 수 있다.
여기서 Q는 열이 A의 고유 벡터(위에서 선택한 실수 및 직교 행렬)인 직교 행렬이고, δ는 항목이 [7]A의 고유 값인 대각 행렬입니다.
유용한 사실
고유값에 관한 유용한 사실
- 고유값의 곱은 A의 행렬식과 같다. 각 고유값은 대수적 배수인 거듭제곱i n으로 증가합니다.
- 고유값의 합은 A의 궤적과 같다. 각 고유값에는i 대수적 배수인 n이 곱됩니다.
- A의 고유값이 θ이고i A가 반전 가능한 경우 A의 고유값은 단순히−1 θ입니다−1
i. - A의 고유값이 θ이면i 모든 홀모픽 함수 f에 대해 f(A)의 고유값은 f(θi)가 됩니다.
고유 벡터에 관한 유용한 사실
- A가 에르미트이고 완전 순위일 경우 고유 벡터의 기초는 상호 직교하도록 선택할 수 있다.고유값은 실재합니다.
- A의 고유−1 벡터는 A의 고유 벡터와 동일합니다.
- 고유 벡터는 곱셈 상수까지만 정의됩니다.즉, Av = µv이면 cv는 스칼라 c ≤ 0에 대한 고유 벡터이기도 합니다.특히, -v와iθ ev(모든 δ에 대하여)도 고유 벡터이다.
- 축퇴 고유값(고유값이 두 번 이상 나타나는 경우)의 경우, 고유 벡터는 추가적인 회전 자유, 즉 (축퇴 부분 공간에서) 고유값을 공유하는 모든 선형(정규) 조합이 (하위 공간에서) 고유 벡터 그 자체라고 할 수 있습니다.
eigendecomposition에 관한 유용한 사실
- A는 선형 독립 고유 벡터 수v N이 고유 벡터의 차원과 동일한 경우에만 분해할 수 있습니다.Nv = N
- 스칼라장이 대수적으로 닫혀 있고 p(p)에 반복근이 없는 경우, 즉 N N \ } = {\lambda}이면 A를 eigendecomposition할 수 있다.
- "A can be eigendecomposed"라는 문장은 A에 역수가 있음을 의미하지 않습니다.
- "A가 역수를 가지고 있다"는 문장이 A를 eigendecomposition할 수 있음을 의미하지는 않습니다.반례로는 [ 1 [ { \ { matrix } \ \ & 1 \end { small } \right 가 있습니다.
행렬 역행렬에 관한 유용한 사실
수치 계산
고유값의 수치 계산
주어진 행렬의 고유값을 계산하려고 합니다.행렬이 작으면 특성 다항식을 사용하여 기호적으로 계산할 수 있습니다.그러나 큰 행렬의 경우 이 방법이 불가능한 경우가 많으며, 이 경우 수치 방법을 사용해야 합니다.
실제로 큰 행렬의 고유값은 특성 다항식을 사용하여 계산되지 않습니다.다항식의 계산은 그 자체로 비용이 많이 들고, 고차 다항식의 정확한 (심볼릭) 루트를 계산하고 표현하기 어려울 수 있다: 아벨-루피니 정리는 일반적으로 고차 다항식의 루트는 n번째 루트를 사용하여 간단히 표현될 수 없다는 것을 의미한다.따라서 고유 벡터와 고유값을 찾기 위한 일반 알고리즘은 반복적입니다.
뉴턴의 방법과 같이 다항식의 근을 근사하기 위한 반복 수치 알고리즘이 존재하지만, 일반적으로 특성 다항식을 계산하고 이러한 방법을 적용하는 것은 비현실적이다.한 가지 이유는 특성 다항식의 계수의 작은 반올림 오차가 고유값과 고유 벡터에 큰 오차를 초래할 수 있기 때문입니다. 즉, 루트는 [8]계수의 극도로 잘못된 조건의 함수입니다.
단순하고 정확한 반복 방법은 멱법이다: 랜덤 벡터 v가 선택되고 단위 벡터의 시퀀스가 다음과 같이 계산된다.
v가 고유 벡터 기준으로 이 고유 벡터의 성분이 0이 아닌 경우(및 가장 큰 크기의 고유 값이 하나만 있는 경우) 이 시퀀스는 거의 항상 최대 크기의 고유 값에 해당하는 고유 벡터로 수렴됩니다.이 간단한 알고리즘은 검색 [9]엔진에서 문서의 페이지 순위를 계산하기 위해 Google을 사용하는 등 일부 응용 프로그램에서 유용합니다.또한, 멱법(power method)은 보다 정교한 알고리즘의 시작점입니다.예를 들어, 시퀀스 내의 마지막 벡터뿐만 아니라 시퀀스 내의 모든 벡터의 스팬을 조사함으로써 고유 벡터에 대한 더 나은 (더 빠른 수렴) 근사치를 얻을 수 있으며, 이 아이디어는 아놀디 [8]반복의 기초가 된다.또는 중요한 QR 알고리즘도 전력법의 [8]미묘한 변환에 근거하고 있다.
고유 벡터의 수치 계산
일단 고유값이 계산되면, 고유 벡터는 방정식을 풀어서 계산할 수 있다.
가우스 소거법이나 행렬 방정식을 푸는 다른 방법을 사용합니다.
그러나 실제 대규모 고유값 방법에서 고유 벡터는 보통 고유값 계산의 부산물로 다른 방법으로 계산된다.예를 들어 전력 반복에서 고유 벡터는 실제로 고유 값보다 먼저 계산됩니다(일반적으로 고유 [8]벡터의 레일리 지수로 계산됨).에르미트 행렬(또는 임의의 정규 행렬)의 QR 알고리즘에서 [8]직교 정규 고유 벡터는 알고리즘의 스텝에서 Q 행렬의 곱으로 얻어진다(더 일반적인 행렬의 경우 QR 알고리즘은 우선 Schur 분해를 제공하며, 여기서부터 역치환 절차에 의해 고유 벡터를 얻을 수 있다).[10]에르미트 행렬의 경우 고유 벡터와 고유값이 모두 [8]필요한 경우 분할 및 정복 고유값 알고리즘이 QR 알고리즘보다 효율적입니다.
기타 토픽
일반화된 특성
고유값의 기하학적 다수는 연관된 아이겐스페이스의 차원, 즉 δI - A의 늘스페이스로 설명할 수 있습니다.대수적 다수는 차원이라고 생각할 수도 있다: 이것은 충분히 큰 k에 대한 행렬의 늘 공간(θI - A)k인 연관된 일반화 아이겐스페이스(제1의 의미)의 차원이다.즉, 일반화 고유 벡터(제1의 감각)의 공간이며, 여기서 일반화 고유 벡터는 δI - A를 충분히 연속적으로 적용하면 최종적으로 0이 되는 벡터이다.모든 고유 벡터는 일반화 고유 벡터이므로 각 고유 공간은 연관된 일반화 고유 공간에 포함됩니다.이것은 기하학적 다중성이 항상 대수적 다중성보다 작거나 같다는 쉬운 증거를 제공한다.
이 사용법을 아래에 설명된 일반 고유값 문제와 혼동해서는 안 됩니다.
켤레 고유 벡터
켤레 고유벡터 또는 콘원벡터는 변환 후 켤레의 스칼라 배수로 전송되는 벡터이며, 여기서 스칼라는 선형 변환의 켤레 고유값 또는 콘원값이라고 불린다.원추형 벡터 및 원추형 값은 정규 고유 벡터 및 고유값과 본질적으로 동일한 정보와 의미를 나타내지만 대체 좌표계가 사용될 때 발생합니다.대응하는 방정식은
예를 들어 논리정연한 전자산란 이론에서 선형변환 A는 산란물체에 의해 이루어지는 작용을 나타내고 고유벡터는 전자파의 편파 상태를 나타낸다.광학에서 좌표계는 전방 산란 정렬(FSA)로 알려진 파형의 관점에서 정의되어 규칙적인 고유값 방정식을 생성하는 반면, 레이더에서 좌표계는 후방 산란 정렬(BSA)로 알려진 레이더 관점에서 정의되어 원뿔값 방정식을 생성합니다.
일반화 고유값 문제
일반화 고유값 문제(두 번째 감각)는 0이 아닌 벡터 v를 찾는 문제이다.
여기서 A와 B는 행렬입니다.만약 v가 이 방정식에 준거한다면, 우리는 v를 A와 B의 일반화 고유 벡터(두 번째 의미)라고 부르고, θ를 A와 B의 일반화 고유 벡터(두 번째 의미) v에 대응하는 일반화 고유 값(두 번째 의미)이라고 한다.θ의 가능한 값은 다음 방정식을 따라야 합니다.
n개의 선형 독립 벡터 {v1, …, v}이(가) 모든 i µ {1, …, nn}, Avi = µBv에ii 대해 찾을 수 있다면, 우리는 다음과 같이 행렬 P와 D를 정의한다.
그러면 다음과 같은 평등이 유지된다.
그 증거는
P는 역수이기 때문에오른쪽 방정식에 역수를 곱해서 증명합니다
여기서 θ는 복소수인 A - δB 형식의 행렬 세트를 연필이라고 한다. 행렬 연필이라는 용어는 [11]행렬의 쌍(A, B)을 나타낼 수도 있다.
B가 반전 가능한 경우, 원래 문제는 다음 형식으로 작성될 수 있습니다.
이것은 표준 고유값 문제입니다.그러나 대부분의 상황에서는 반전을 수행하는 것이 아니라 원래 설명한 대로 일반화된 고유값 문제를 해결하는 것이 바람직합니다.이 경우−1 BA는 일반적으로 에르미트 행렬이 아니며 솔루션의 중요한 특성이 더 이상 명확하지 않기 때문에 A와 B가 에르미트 행렬인 경우에는 특히 중요하다.
A와 B가 대칭 또는 에르미트 행렬이고 B도 양수 행렬이면 고유값 θ는i 실재하고 고유값이 뚜렷한 고유 벡터1 v와2 v는 B-직교입니다(vBv1*2 = 0).[12]이 경우, 위에서 정의한 행렬 P가 다음을 만족하도록 고유 벡터를 선택할 수 있다.
- {\ =\ P I{\ \ {P}
일반화 고유 벡터의 기초가 존재합니다(불량 [11]문제가 아닙니다).이 케이스는 때때로 에르미트식 확정연필 또는 [11]확정연필이라고 불립니다.
「 」를 참조해 주세요.
메모들
- ^ 골럽앤반론(1996년, 310페이지)
- ^ 크라이시그 (1972년, 페이지 273년)
- ^ 네링(1970, 페이지 270)
- ^ Hayde, A. F.; Twede, D. R. (2002). Shen, Sylvia S. (ed.). "Observations on relationship between eigenvalues, instrument noise and detection performance". Imaging Spectrometry VIII. Proceedings of SPIE. 4816: 355. Bibcode:2002SPIE.4816..355H. doi:10.1117/12.453777.
- ^ Twede, D. R.; Hayden, A. F. (2004). Shen, Sylvia S; Lewis, Paul E (eds.). "Refinement and generalization of the extension method of covariance matrix inversion by regularization". Imaging Spectrometry IX. Proceedings of SPIE. 5159: 299. Bibcode:2004SPIE.5159..299T. doi:10.1117/12.506993.
- ^ Horn & Johnson (1985), 페이지 133, 정리 2.5.3
- ^ Horn & Johnson (1985), 136, Collollary 2.5.11
- ^ a b c d e f Trefethen, Lloyd N.; Bau, David (1997). Numerical Linear Algebra. SIAM. ISBN 978-0-89871-361-9.
- ^ 입센, 일세, 레베카 M.2005년 5월 5일부터 8일까지 캐나다 토론토 필즈 인스티튜트, 사이언티픽 컴퓨팅의 반복적인 방법에 관한 제7회 IMACS 국제 심포지엄, Google PageRank의 유언, 분석 및 계산.
- ^ Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000). "section 5.8.2". Numerical Mathematics. Springer. p. 15. ISBN 978-0-387-98959-4.
- ^ a b c Bai, Z.; Demmel, J.; Dongarra, J.; Ruhe, A.; Van Der Vorst, H., eds. (2000). "Generalized Hermitian Eigenvalue Problems". Templates for the Solution of Algebraic Eigenvalue Problems: A Practical Guide. Philadelphia: SIAM. ISBN 978-0-89871-471-5.
- ^ Parlett, Beresford N. (1998). The symmetric eigenvalue problem (Reprint. ed.). Philadelphia: Society for Industrial and Applied Mathematics. p. 345. doi:10.1137/1.9781611971163. ISBN 978-0-89871-402-9.
레퍼런스
- Franklin, Joel N. (1968). Matrix Theory. Dover Publications. ISBN 978-0-486-41179-8.
- Golub, Gene H.; Van Loan, Charles F. (1996), Matrix Computations (3rd ed.), Baltimore: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
- Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6.
- Horn, Roger A.; Johnson, Charles R. (1991). Topics in Matrix Analysis. Cambridge University Press. ISBN 978-0-521-46713-1.
- Kreyszig, Erwin (1972), Advanced Engineering Mathematics (3rd ed.), New York: Wiley, ISBN 978-0-471-50728-4
- Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley, LCCN 76091646
- Strang, G. (1998). Introduction to Linear Algebra (3rd ed.). Wellesley-Cambridge Press. ISBN 978-0-9614088-5-5.
외부 링크
- 스펙트럼 분해에 관한 인터랙티브 프로그램 및 튜토리얼.