폰트랴긴의 최대 원리

Pontryagin's maximum principle

폰트랴긴의 최대 원리는 한 상태에서 다른 상태로, 특히 상태나 입력 제어에 대한 제약조건이 있는 상태에서 역동적인 시스템을 취할 수 있는 최선의 제어장치를 찾기 위해 최적 제어 이론에 사용된다.[1]2점 경계값 문제인 이른바 해밀턴 계통에 최대 제어조건인 해밀턴 계통을 해결하기 위해서는 최적의 상태 궤적과 함께 어떤 최적의 제어가 필요하다는 내용을 담고 있다.[a]이러한 필요한 조건은 목적 및 제약 기능에 대한 특정 볼록한 조건 하에서 충분하게 된다.[2][3]

최대 원리는 1956년 러시아 수학자 레프 폰트랴긴과 그의 제자들에 의해 공식화되었으며,[4][5] 초기 적용은 로켓의 말단 속도를 최대화하는 것이었다.[6]그 결과는 고전적인 변화 미적분학에서 아이디어를 얻어 도출되었다.[7]최적 제어의 약간의 동요 후에, 사람들은 동요에 관하여 테일러 팽창의 1차 기간을 고려한다; 동요를 0으로 보내는 것은 최대 원리가 따르는 변동 불평등으로 이어진다.[8]

최적 제어 이론의 이정표로 널리 간주되고 있는 [1]최대 원리의 중요성은 해밀턴을 최대화하는 것이 원래의 무한 차원 제어 문제보다 훨씬 쉽다는 사실에 있다. 함수 공간에 걸쳐 최대화하는 것이 아니라, 문제를 점적 최적화로 전환한다.[9]이와 유사한 논리는 Bellman의 최적성 원리로 이어지고, 최적 궤적이 중간 지점에서 최적 상태를 유지한다는 최적 제어 문제에 대한 관련 접근법이다.[10]결과 해밀턴-자코비-벨만 방정식은 최적화를 위한 필요하고도 충분한 조건을 제공하며, 확률적 최적 제어 문제를 위한 직접적인 확장을 허용하지만, 최대 원리는 그렇지 않다.[8]그러나 유효하기 위해 전체 주 공간을 보유해야 하는 해밀턴-자코비-벨만 방정식과 대조적으로 폰트랴긴의 최대 원리는 특정 궤적만 보유하면 된다는 점에서 잠재적으로 계산적으로 더 효율적이다.[1]

표기법

For set and functions and we use the following notation:

문제 최소화에 필요한 조건의 공식 성명

여기에는 기능 최소화에 필요한 조건이 제시되어 있다. x}을(를) 입력u {\이(가) 있는 동적 시스템의 상태로 전환하십시오

여기서 (는) 허용 가능한 컨트롤 집합이고 (는) 시스템의 단자(즉, 최종) 시간이다. and U 컨트롤을 모든 [ 에 대해 선택해야 애플리케이션에 의해 정의되고 다음과 같이 추상화될 수 있는 기능 J 을 최소화한다.

시스템 역학상의 제약조건은 시스템의 원가계수라 불리는 시간변동 라그랑지안 L 을(를) 도입하여 라그랑지안 L과(와) 결합할 수 있다이는 모든 t [ T 에 대해 정의된 해밀턴 을(를) 다음에 의해 구성하도록 동기를 부여한다.

여기서 (는) }의 전치물이다

폰트랴긴의 최소 원리는 최적 상태 x x 최적 제어 해당 라그랑주 곱셈 벡터 를 최소화해야 한다는 것이다.

전체 시간 [ 0 및 모든 허용 제어 입력 U 에 대해 또한 비용 계산방정식과 그 단자 조건

반드시 만족해야 한다.최종 상태 () (가) 고정되지 않은 경우(즉, 차등 변동이 0이 아닌 경우) 또한 다음과 같아야 한다.

(1)-(4)의 이 네 가지 조건은 최적의 제어를 위해 필요한 조건이다.(4)는 ( ) 이(가) 비어 있는 경우에만 적용된다는 점에 유의하십시오.만약 그것이 고정된다면, 이 조건은 최적화를 위해 필요하지 않다.

참고 항목

메모들

  1. ^ 극단값이 최대인지 최소인지 여부는 해밀턴을 정의하는 데 사용되는 기호 규칙에 따라 달라진다.역사적 관례는 최대치로 이어지며, 따라서 최대 원칙이다.근래에는 형용사를 최대로 또는 최소한으로 사용하지 않고, 단순히 폰트랴긴의 원리로 더 많이 언급되고 있다.

참조

  1. ^ a b c Ross, Isaac (2015). A primer on Pontryagin's principle in optimal control. San Francisco: Collegiate Publishers. ISBN 978-0-9843571-0-9. OCLC 625106088.
  2. ^ Mangasarian, O. L. (1966). "Sufficient Conditions for the Optimal Control of Nonlinear Systems". SIAM Journal on Control. 4 (1): 139–152. doi:10.1137/0304013.
  3. ^ Kamien, Morton I.; Schwartz, Nancy L. (1971). "Sufficient Conditions in Optimal Control Theory". Journal of Economic Theory. 3 (2): 207–214. doi:10.1016/0022-0531(71)90018-4.
  4. ^ Boltyanski, V.; Martini, H.; Soltan, V. (1998). "The Maximum Principle – How it came to be?". Geometric Methods and Optimization Problems. New York: Springer. pp. 204–227. ISBN 0-7923-5454-0.
  5. ^ Gamkrelidze, R. V. (1999). "Discovery of the Maximum Principle". Journal of Dynamical and Control Systems. 5 (4): 437–451. doi:10.1023/A:1021783020548. S2CID 122690986. 다시 인쇄됨
  6. ^ 처음 게시된 작품의 경우 다음 참조를 참조하십시오.
  7. ^ McShane, E. J. (1989). "The Calculus of Variations from the Beginning Through Optimal Control Theory". SIAM J. Control Optim. 27 (5): 916–939. doi:10.1137/0327049.
  8. ^ a b Yong, J.; Zhou, X. Y. (1999). "Maximum Principle and Stochastic Hamiltonian Systems". Stochastic Controls: Hamiltonian Systems and HJB Equations. New York: Springer. pp. 101–156. ISBN 0-387-98723-1.
  9. ^ Sastry, Shankar (March 29, 2009). "Lecture Notes 8. Optimal Control and Dynamic Games" (PDF).
  10. ^ Zhou, X. Y. (1990). "Maximum Principle, Dynamic Programming, and their Connection in Deterministic Control". Journal of Optimization Theory and Applications. 65 (2): 363–373. doi:10.1007/BF01102352. S2CID 122333807.

추가 읽기

외부 링크