전제조건

Preconditioner

수학에서 전제조건이란 주어진 문제를 수치해결방법에 더 적합한 형태로 조건화하는 변형을 전제조건이라고 하는 것을 응용한 것이다.전제 조건은 일반적으로 문제의 조건 수를 줄이는 것과 관련이 있다.그리고 나서 전제된 문제는 대개 반복적인 방법으로 해결된다.null

선형 시스템을 위한 전제 조건화

In linear algebra and numerical analysis, a preconditioner of a matrix is a matrix such that has a smaller condition number than . It is also common to call the preconditioner, 그 자체는 거의 명시적으로 사용할 수 없기 때문에 보다.In modern preconditioning, the application of , i.e., multiplication of a column vector, or a block of column vectors, by , is commonly performed in a matrix-free fashion, i.e., where neither , nor 종종 A 도 아닌 경우도 있음는 매트릭스 형식으로 명시적으로 이용할 수 있다.null

전제조건은 전제조건으로 인해 매트릭스의 조건 수가 감소하기 때문에 의 반복적 선형 해결사의 수렴 속도가 증가하기 때문에 선형 시스템 A = 을(를) 해결하는 반복 방법에 유용하다.사전 예방적 반복 해결사는 일반적으로 직접 해결사(예: 가우스 제거)를 능가하며, 특히 희박한 행렬의 경우 대규모의 경우 더욱 그러하다.반복 솔버를 매트릭스 없는 방법으로 사용할 수 있다. 즉, 계수 A (를) 명시적으로 저장하지 않고 매트릭스 벡터 제품을 평가하여 액세스할 경우 유일한 선택이 된다.null

설명

위의 원래 선형 시스템을 해결하는 대신 올바른 전제 조건을 갖춘 시스템을 고려할 수 있다.

그리고 해결하다

경우

또는, 왼쪽 전제 시스템을 해결할 수도 있다.

두 시스템은 전제조건 매트릭스 이(가) 비정형 한 원래 시스템과 동일한 솔루션을 제공한다.좌파의 전제조건이 더 전통적이다.null

양면 전제제

may be beneficial, e.g., to preserve the matrix symmetry: if the original matrix is real symmetric and real preconditioners and satisfy then the preconditioned matrix 또한 대칭이다.양면 전제조건은 사전조건 P 이(가) 대각선이고 원래 행렬 A 의 열과 행 모두에 스케일링을 적용하여 매트릭스 항목의 동적 범위를 줄인다.null

전제조건의 목표는 예를 들어, 좌우의 전제조건 시스템 매트릭스 - {\ P 또는 A - 1 조건 번호를 줄이는 것이다 작은 조건 번호는 반복 솔버의 빠른 수렴에 도움이 되며, 섭동과 관련하여 솔루션의 안정성을 향상시킨다.예를 들어, 낮은 컴퓨터 정밀도를 사용하여 매트릭스 항목을 보다 적극적으로 정량화할 수 있는 시스템 매트릭스와 오른쪽 측면.null

전제조건 매트릭스 - 1 P A - {\ AP는 거의 명시적으로 형성되지 않는다.주어진 벡터에 전제자 해결 작업 - 1 를 적용하는 동작만 계산하면 될 수 있다.null

일반적으로 의 선택에는 트레이드오프가 있다 P- 연산자 - 1의 각 단계마다 연산자 P - 1을 적용해야 하기 때문에P - P 적용하는 데 적은 비용(계산 시간)이 있어야 한다.따라서 가장 저렴한 전제조건은 = 그 이후 P - 1= P 분명히 이것은 원래의 선형 시스템을 초래하고 전제조건은 아무 것도 하지 않는다.다른 극단에서는 P= 를 선택하면 - 1 A= - = =가 나타난다최적의 조건 번호가 1인 은(는) 정합성을 위해 단일 반복이 필요하지만, 이 P-1 = -, 전제조건을 적용하는 것은 원래 시스템을 푸는 것만큼 어렵다.따라서 조작자 P- 1 를 가능한 한 단순하게 유지하면서 최소한의 선형 반복을 달성하기 위해 P 1}를 이 두 극단 사이의 어딘가로 선택한다.일반적인 전제 조건화 접근법의 몇 가지 예는 아래에 자세히 설명되어 있다.null

사전 정의된 반복 방법

Preconditioned iterative methods for are, in most cases, mathematically equivalent to standard iterative methods applied to the preconditioned system For example, the standard Richardson iteration for solving (는)

전제조건부 P - ( x -) = , ^{- 적용하면 전제조건부 방법으로 전환된다.

선형 시스템에 대한 일반적인 전제 조건 반복 방법의 예로는 전제 조건 결합 구배 방법, 비콘주게이트 구배 방법, 일반화된 최소 잔차 방법이 있다.스칼라 제품을 사용하여 반복 파라미터를 계산하는 반복 방법은 A -b= - ( x - b ) = {\ P^{-1}(을(를 대체하는 것과 함께 스칼라 제품의 해당 변경이 필요하다. {\

행렬 분할

고정 반복 방법= M- (를) 분할하는 매트릭스와C = I- - {\ C에 의해 결정된다

  • 시스템 매트릭스 (는) 대칭 양의-확정성이며,
  • 분할 행렬 (는) 대칭 양의-확정성이며,
  • 반복 방법은 수렴되며, ( C )< {\\ }에 의해 결정된다

조건 번호 (- ) (는) 다음에 의해 경계된다.

기하학적 해석

대칭 양의 한정 행렬 의 경우 사전 P{\도 대칭 양의 한정 행렬로 선택된다.전제 조건 연산자 - P도 대칭 양수 확정이지만 기반 스칼라 제품에 대해서는 해당된다.이 경우 전제조건을 적용할 때 원하는 효과는 기반 스칼라 제품과 관련하여 전제 조건 P- P^{-2차 형태를 거의 구형 상태로 만드는 것이다.[1]null

가변 및 비선형 전제조건

= - 1 T을 나타내는 전제조건이 벡터 T 를) 곱하여 실제로 구현된다는 점을 강조한다. 즉, 제품 . 매트릭스로 제공되지 않지만, 랫드.벡터 에 작용하는 T( r) 로서의 그녀 그러나 일부 인기 있는 r {\ r}에 따라 r 에 대한 의존도는 선형적이지 않을 수 있다.대표적인 예로 전제조건 구성의 일부로 비선형 반복 방법(예: 결합 구배 방법)을 사용하는 경우를 들 수 있다.그러한 전제조건들은 실질적으로 매우 효율적일 수 있지만, 그들의 행동은 이론적으로 예측하기 어렵다.null

무작위 전제조건

가변 전제조건의 한 가지 흥미로운 사례는 무작위 전제조건이다. 예를 들어, 무작위 코스 그리드에 대한 다중 전제조건이다.[2]구배 강하방식에 사용할 경우 무작위 전제조건은 확률적 구배 강하방식의 구현으로 볼 수 있으며, 구배 강하방식의 점증적 "지그재그" 패턴을 깨기 때문에 고정된 전제조건에 비해 더 빠른 수렴으로 이어질 수 있다.null

스펙터클 등가 전제조건

전제조건의 가장 일반적인 용도는 부분 미분방정식의 근사치에서 비롯되는 선형 시스템의 반복적 용액이다.근사치 품질이 좋을수록 행렬 크기가 커진다.이러한 경우에 최적 전제조건화의 목표는 한쪽에서 - {\ P의 스펙트럼 조건 번호를 매트릭스 크기와 무관한 상수로 경계하도록 하는 인데, 이를 D'yakonov에 의해 스펙터클 등가 전제조건이라고 한다., P- 1 P의 적용 원가는 벡터에 의한 A 의 곱셈 원가에 이상적으로 비례(매트릭스 크기와도 무관)해야 한다.null

자코비(또는 대각선) 전제조건

자코비 전제조건은 전제조건의 가장 간단한 형태 중 하나로, 전제조건은 P= d ( ). A)의 대각선으로 선택된다 i를) 하면P i - 1 = {\{\ij}}}}}}}}}}}}}}}}}}{{{{{{{}}}}}}}}}}}}}}}}}}}}}}}}}} 대각선 우위 A 에 효율적이다 빔 문제 또는 1-D 문제의 분석 소프트에 사용된다(EX:-- STAAD PRO).

스페이

The Sparse Approximate Inverse preconditioner minimises where is the Frobenius norm and is from some suitably constrained set of sparse matrices.프로베니우스 규범에 따르면, 이것은 수많은 독립적인 최소 제곱 문제를 해결하는 것으로 감소한다. 의 항목은 일부 첨사성 패턴으로 제한되어야 하며 그렇지 않으면 문제가 의 정확한 반전을 찾는 것만큼 어렵고 시간이 많이 소요되는 것으로 남아 있다.이 방법은 M.J. Grote와 T.가 도입했다.첨탑성 패턴을 선택하기 위한 접근방식과 함께 허클을 누르십시오.[3]null

기타 전제조건

외부 링크

고유값 문제에 대한 전제 조건화

고유치 문제는 몇 가지 대안적인 방법으로 틀에 박힐 수 있으며, 각각은 그 자체의 전제조건으로 이어진다.전통적인 전제조건은 소위 스펙트럼 변환에 기초한다.목표 고유값을 알면(대략) 관련 동질 선형 시스템을 풀어서 해당 고유 벡터를 계산할 수 있으므로 선형 시스템의 전제조건을 사용할 수 있다.마지막으로 고유값 문제를 Rayleigh 지수의 최적화로 형성하면 사전 정의된 최적화 기법이 현장에 도입된다.[4]null

스펙트럼 변환

By analogy with linear systems, for an eigenvalue problem one may be tempted to replace the matrix with the matrix using a preconditioner . However, this makes sense only if the seeking eigenvectors of (와) - (는) 동일하다.스펙트럼 변환의 경우는 이렇다.null

The most popular spectral transformation is the so-called shift-and-invert transformation, where for a given scalar , called the shift, the original eigenvalue problem is replaced with the shift-and-invert problem I x고유 벡터는 보존되며, 반복적인 해결사(예: 동력 반복)에 의해 시프트 앤 인버스 문제를 해결할 수 있다.이것은 일반적으로 고유벡터로 수렴되는 역반사 반복을 제공하며, 이는 시프트 에 가장 가까운 고유값에 해당한다 Rayleigh 지수 반복은 가변 시프트를 갖는 시프트 앤 반전 방법이다.null

스펙트럼 변환은 고유값 문제에 특정되며 선형 시스템에 대한 아날로그가 없다.그들은 관련된 변환에 대한 정확한 수치 계산을 요구하는데, 이것은 큰 문제의 주요 병목 현상이 된다.null

일반 전제 조건

선형 시스템과 밀접하게 연결하기 위해 목표 고유값(를) 알고 있다고 가정해 보자.Then one can compute the corresponding eigenvector from the homogeneous linear system . Using the concept of left preconditioning for linear systems, we obtain , where is리차드슨 반복을 이용하여 해결할 수 있는 전제조건

이상적인 전제조건[4].

The Moore–Penrose pseudoinverse is the preconditioner, which makes the Richardson iteration above converge in one step with , since , denoted by , is the orthogonal projector on the eigenspace, corresponding to . The choice is impractical for three independent reasons.첫째, 의 근사치 ~ 로 대체될 수 있지만, 실제로 알려져 있지 않다 둘째, 정확한 무어-펜로즈 사이비프루스는 우리가 찾으려는 고유 벡터의 지식이 필요하다.This can be somewhat circumvented by the use of the Jacobi–Davidson preconditioner , where approximates . Last, but not least, this approach requires accurate numerical solution of linear system with the system matrix , which becomes as expensive for large problems as the shift-and-invert method above.솔루션이 정확하지 않으면 2단계가 중복될 수 있다.null

실무적 전제조건

먼저 위의 리처드슨 반복에서 이론적을(를) 현재의 근사치 로 대체하여 실제 알고리즘을 얻읍시다.

A popular choice is using the Rayleigh quotient function . Practical preconditioning may be as trivial as just using or . 유전값 문제의 일부 등급에 대해서는 - 1 의 효율성이 수치적으로 입증되었다.선택 - 약 A는 선형 시스템을 위해 개발된 광범위한 전제조건을 고유값 문제에 쉽게 활용할 수 있도록 한다.null

값 변화 때문에 리차드슨 반복과 같은 가장 간단한 방법이라도 선형 시스템 사례에 비해 종합적인 이론 수렴 분석이 훨씬 어렵다null

외부 링크

최적화 전제 조건화

경사로 강하 그림

최적화에서 전제조건은 일반적으로 1차 최적화 알고리즘을 가속화하기 위해 사용된다.null

설명

예를 들어, 그라데이션 강하를 사용하여 실제 값 F) F최소 로컬 최소값을 찾으려면 현재 지점에서 함수의 그라데이션 - -{a})}(또는 대략적인 그라데이션)에 비례하는 단계를 수행하십시오.

전제 조건이 구배에는 다음과 같이 적용된다.

여기서 전제 조건은 레벨 세트를 원처럼 보이게 하는 것을 목표로 벡터 공간의 기하학적 구조를 바꾸는 것으로 볼 수 있다.[5]이 경우 전제된 구배는 그림에서와 같이 극점 부근을 목표로 하여 수렴 속도를 높인다.null

선형 시스템에 대한 연결

2차 함수의 최소값

)= T - F {b}b}}, {b}}}}},}}, }, }, }, }, },

where and are real column-vectors and is a real symmetric positive-definite matrix, is exactly the solution of the linear equation . Since {F)를 최소화하는 전제 조건의 구배 강하 방법은 다음과 같다

이것은 선형 방정식시스템을 풀기 위해 리차드슨 반복이 전제된 것이다.null

고유값 문제에 대한 연결

레일리 지수 최소값

여기서 는) 0이 아닌 실제 열 벡터이고, }은(는) 실제 대칭 양의 정의 행렬이며 은 해당 고유 벡터인 반면,Since is proportional to , the preconditioned gradient descent method of minimizing is

이것은 고유가치 문제 해결을 위해 전제된 리차드슨 반복의 유사점이다.null

가변 전제조건

많은 경우에서와 같이 레벨 세트의 형상이 변화하는 것을 수용하기 위해 반복 알고리즘의 일부 또는 심지어 모든 단계에서 전제조건을 변경하는 것이 유익할 수 있다.

그러나 효율적인 전제조건을 구축하는 것은 종종 계산적으로 비용이 많이 든다는 것을 명심해야 한다.전제조건을 갱신하는 데 드는 증가된 비용은 더 빠른 수렴의 긍정적인 효과를 쉽게 무시할 수 있다.null

참조

  1. ^ Shewchuk, Jonathan Richard (August 4, 1994). "An Introduction to the Conjugate Gradient Method Without the Agonizing Pain" (PDF).
  2. ^ 헤리쿠스 부우메스터, 앤드류 더거티, 앤드류 브 크나제프.비대칭적 결합구배 및 급경사 강하방법의 전제조건Procedia Computer Science, 제51권, 페이지 276-285, Exvier, 2015.https://doi.org/10.1016/j.procs.2015.05.241
  3. ^ Grote, M. J. & Huckle, T. (1997). "Parallel Preconditioning with Sparse Approximate Inverses". SIAM Journal on Scientific Computing. 18 (3): 838–53. doi:10.1137/S1064827594276552.
  4. ^ a b Knyazev, Andrew V. (1998). "Preconditioned eigensolvers - an oxymoron?". Electronic Transactions on Numerical Analysis. 7: 104–123.
  5. ^ Himmelblau, David M. (1972). Applied Nonlinear Programming. New York: McGraw-Hill. pp. 78–83. ISBN 0-07-028921-2.

원천