Principio del mínimo de Pontriaguin

El Principio del mínimo (máximo) de Pontriaguin se utiliza en la teoría de control óptimo para encontrar el mejor control posible para llevar a un sistema dinámico de un estado a otro, especialmente en la presencia de restricciones para los controles de estado o de entrada. Fue formulado en 1956 por el matemático ruso Lev Pontriaguin y sus alumnos.[1]​ Tiene como un caso especial la ecuación de Euler-Lagrange del cálculo de variaciones.

El principio establece de manera informal que el hamiltoniano debe minimizarse (maximizarse) sobre U {\displaystyle {\mathcal {U}}} , el conjunto de todos los controles permisibles. Si u U {\displaystyle u^{*}\in {\mathcal {U}}} es el control óptimo para el problema, entonces el principio establece que:

H ( x ( t ) , u ( t ) , λ ( t ) , t ) H ( x ( t ) , u , λ ( t ) , t ) , u U , t [ t 0 , t f ] {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t),t)\leq H(x^{*}(t),u,\lambda ^{*}(t),t),\quad \forall u\in {\mathcal {U}},\quad t\in [t_{0},t_{f}]}

donde x C 1 [ t 0 , t f ] {\displaystyle x^{*}\in C^{1}[t_{0},t_{f}]} es la trayectoria y el estado óptimo λ B V [ t 0 , t f ] {\displaystyle \lambda ^{*}\in BV[t_{0},t_{f}]} es el óptimo co-estado de la trayectoria.

El resultado primero se aplicó con éxito en los problemas de tiempo mínimos cuando se ve limitado el control de entrada, pero también puede ser útil en el estudio de problemas con restricciones de estado.

Condiciones especiales para el hamiltoniano también se pueden derivar. Cuando el tiempo final t f {\displaystyle t_{f}} es fijo y el hamiltoniano no depende explícitamente del tiempo ( H t 0 ) {\displaystyle \left({\tfrac {\partial H}{\partial t}}\equiv 0\right)} , a continuación:

H ( x ( t ) , u ( t ) , λ ( t ) ) c o n s t a n t {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t))\equiv \mathrm {constant} \,}

y si el tiempo final es libre, entonces:

H ( x ( t ) , u ( t ) , λ ( t ) ) 0. {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t))\equiv 0.\,}

A continuación se dan las condiciones más generales sobre el control óptimo.

Una vez satisfecho lo largo de una trayectoria, el principio de mínimo de Pontryagin es una condición necesaria para un óptimo. La ecuación de Hamilton-Jacobi-Bellman proporciona una condición necesaria y suficiente para un grado óptimo, pero esta condición debe ser satisfecha sobre la totalidad del espacio de estado.

Maximización y minimización

El principio fue conocido como principio del máximo de Pontryagin y su prueba se basa históricamente en la maximización del hamiltoniano. La aplicación inicial de este principio fue a la maximización de la velocidad terminal de un cohete. Sin embargo, ya que se utilizó posteriormente en su mayoría para la minimización de un índice de rendimiento que aquí se ha denominado como el principio de mínima. El libro de Pontryagin resolvió el problema de minimizar un índice de eficacia.[2]

Notación

En lo que sigue vamos a hacer uso de la siguiente notación.

Ψ T ( x ( T ) ) = Ψ ( x ) T | x = x ( T ) {\displaystyle \Psi _{T}(x(T))={\frac {\partial \Psi (x)}{\partial T}}|_{x=x(T)}\,}
Ψ x ( x ( T ) ) = [ Ψ ( x ) x 1 | x = x ( T ) Ψ ( x ) x n | x = x ( T ) ] {\displaystyle \Psi _{x}(x(T))={\begin{bmatrix}{\frac {\partial \Psi (x)}{\partial x_{1}}}|_{x=x(T)}&\cdots &{\frac {\partial \Psi (x)}{\partial x_{n}}}|_{x=x(T)}\end{bmatrix}}}
H x ( x , u , λ , t ) = [ H x 1 | x = x , u = u , λ = λ H x n | x = x , u = u , λ = λ ] {\displaystyle H_{x}(x^{*},u^{*},\lambda ^{*},t)={\begin{bmatrix}{\frac {\partial H}{\partial x_{1}}}|_{x=x^{*},u=u^{*},\lambda =\lambda ^{*}}&\cdots &{\frac {\partial H}{\partial x_{n}}}|_{x=x^{*},u=u^{*},\lambda =\lambda ^{*}}\end{bmatrix}}}
L x ( x , u ) = [ L x 1 | x = x , u = u L x n | x = x , u = u ] {\displaystyle L_{x}(x^{*},u^{*})={\begin{bmatrix}{\frac {\partial L}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\cdots &{\frac {\partial L}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\end{bmatrix}}}
f x ( x , u ) = [ f 1 x 1 | x = x , u = u f 1 x n | x = x , u = u f n x 1 | x = x , u = u f n x n | x = x , u = u ] {\displaystyle f_{x}(x^{*},u^{*})={\begin{bmatrix}{\frac {\partial f_{1}}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\cdots &{\frac {\partial f_{1}}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\\\vdots &\ddots &\vdots \\{\frac {\partial f_{n}}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\ldots &{\frac {\partial f_{n}}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\end{bmatrix}}}

Declaración formal de las condiciones necesarias para el problema de minimización

Aquí se muestran las condiciones necesarias para la minimización de un funcional. Tomar x {\displaystyle x} siendo el estado del sistema dinámico con el aporte u {\displaystyle u} , de tal forma que

x ˙ = f ( x , u ) , x ( 0 ) = x 0 , u ( t ) U , t [ 0 , T ] {\displaystyle {\dot {x}}=f(x,u),\quad x(0)=x_{0},\quad u(t)\in {\mathcal {U}},\quad t\in [0,T]}

donde U {\displaystyle {\mathcal {U}}} es el conjunto de controles admisibles y T es el terminal (es decir, final) de tiempo del sistema. El control u U {\displaystyle u\in {\mathcal {U}}} debe ser elegido para todos t [ 0 , T ] {\displaystyle t\in [0,T]} para minimizar el funcional objetivo J {\displaystyle J} que se define por la aplicación y puede ser extraída como:

J = Ψ ( x ( T ) ) + 0 T L ( x ( t ) , u ( t ) ) d t {\displaystyle J=\Psi (x(T))+\int _{0}^{T}L(x(t),u(t))\,dt}

Las restricciones en la dinámica del sistema se pueden colindaban al lagrangiano L {\displaystyle L} mediante la introducción de variables en el tiempo multiplicador de Lagrange vectorial λ {\displaystyle \lambda } , Cuyos elementos son llamados los costates del sistema. Esto motiva la construcción del Hamiltoniano H definida para todo t [ 0 , T ] {\displaystyle t\in [0,T]} por:

H ( λ ( t ) , x ( t ) , u ( t ) , t ) = λ ( t ) f ( x ( t ) , u ( t ) ) + L ( x ( t ) , u ( t ) ) {\displaystyle H(\lambda (t),x(t),u(t),t)=\lambda '(t)f(x(t),u(t))+L(x(t),u(t))\,}

donde λ {\displaystyle \lambda '} es la transpuesta de λ {\displaystyle \lambda } .

Principio establece mínimos de Pontryagin que la trayectoria estado óptimo x {\displaystyle x^{*}} , Control óptimo u {\displaystyle u^{*}} Y correspondiente multiplicador de Lagrange vector λ {\displaystyle \lambda ^{*}} debe minimizar el hamiltoniano H de modo que

( 1 ) H ( x ( t ) , u ( t ) , λ ( t ) , t ) H ( x ( t ) , u , λ ( t ) , t ) {\displaystyle (1)\qquad H(x^{*}(t),u^{*}(t),\lambda ^{*}(t),t)\leq H(x^{*}(t),u,\lambda ^{*}(t),t)\,}

para todo tiempo t t [ 0 , T ] {\displaystyle t\in [0,T]} y para todas las acciones de control permisibles u U {\displaystyle u\in {\mathcal {U}}} . También debe darse que

( 2 ) Ψ T ( x ( T ) ) + H ( T ) = 0 {\displaystyle (2)\qquad \Psi _{T}(x(T))+H(T)=0\,}

Adicionalmente, las ecuaciones de coestado

( 3 ) λ ˙ ( t ) = H x ( x ( t ) , u ( t ) , λ ( t ) , t ) = λ ( t ) f x ( x ( t ) , u ( t ) ) + L x ( x ( t ) , u ( t ) ) {\displaystyle (3)\qquad -{\dot {\lambda }}'(t)=H_{x}(x^{*}(t),u^{*}(t),\lambda (t),t)=\lambda '(t)f_{x}(x^{*}(t),u^{*}(t))+L_{x}(x^{*}(t),u^{*}(t))}

debe ser satisfecha. Si el estado final x ( T ) {\displaystyle x(T)} no es fijo (es decir, su variación diferencial no es cero), debe también ser que los costates terminales son tales que

( 4 ) λ ( T ) = Ψ x ( x ( T ) ) {\displaystyle (4)\qquad \lambda '(T)=\Psi _{x}(x(T))\,}

Estas cuatro condiciones en (1) - (4) son las condiciones necesarias para un control óptimo. Tenga en cuenta que (4) sólo se aplica cuando x ( T ) {\displaystyle x(T)} está libre. Si se fija, a continuación, esta condición no es necesaria para una óptima.

Referencias

  1. V.G. Boltyanskii, R.V. Gamkrelidze. L.S. Pontryagin: Towards a theory of optimal processes, (Russian), Reports Acad. Sci. USSR, vol.110(1), 1956
  2. See p.13 of the 1962 book of Pontryagin et al. referenced below.

Bibliografía Adicional

  • V.G. Boltyanskii, R.V. Gamkrelidze. L.S. Pontryagin: Towards a theory of optimal processes, (Russian), Reports Acad. Sci. USSR, vol.110(1), 1956
  • Pontryagin L.S, Boltyanskii V.G, Gamkrelidze R. V, Mishchenko E. F, The Mathematical Theory of Optimal Processes (Russian), English translation: Interscience 1962. ISBN 2-88124-077-1 and ISBN 978-2-88124-077-5
  • Fuller A.T. Bibliography of Pontryagin's maximum principle, J. Electronics & Control vol.15 no.5 Nov. 1963 pp. 513–517
  • Kirk, D.E. Optimal Control Theory, An Introduction, Prentice Hall, 1970. ISBN 0-486-43484-2
  • Sethi, S. P. and Thompson, G. L. Optimal Control Theory: Applications to Management Science and Economics, 2nd edition, Springer, 2000. ISBN 0-387-28092-8 and ISBN 0-7923-8608-6. Slides are available at http://www.utdallas.edu/~sethi/OPRE7320presentation.html
  • Geering, H.P. Optimal Control with Engineering Applications, Springer, 2007. ISBN 978-3-540-69437-3
  • Ross, I. M. A Primer on Pontryagin's Principle in Optimal Control, Collegiate Publishers, 2009. ISBN 978-0-9843571-0-9.
  • Cassel, Kevin W.: Variational Methods with Applications in Science and Engineering, Cambridge University Press, 2013.


Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q3491629
  • Wd Datos: Q3491629