Control óptimo inverso para sistemas no lineales en tiempo continuo

Inverse optimal control for continuous-time nonlinear systems

Contenido principal del artículo

Carlos Vega Pérez
Ricardo Alzate Castaño

Resumen

La optimización aplicada al control automático permite obtener acciones de control que satisfacen no solo el objetivo de control, sino también la minimización de un determinado funcional de costo. Dinámicas complejas dificultan hallar la solución explícita de un problema de control óptimo. El control óptimo inverso evita la solución explícita de la ecuación de Hamilton-Jacobi-Bellman para determinar la ley óptima de control. Ilustrar la potencialidad del control óptimo inverso como alternativa para resolver problemas complejos de optimización en control. Se describe el problema de control óptimo para motivar el control óptimo inverso. Se formulan resultados matemáticos generales y se ilustra su aplicación a través de casos de ejemplo. Las formulaciones matemáticas presentadas son probadas analíticamente en casos del tipo óptimo cuadrático lineal (LQR) y óptimo inverso basado en funciones de control de Lyapuvov (LCF). Es posible formular un problema de control óptimo para sistemas de tipo no lineal, sin abordar la solución explícita del problema de optimización, mediante control óptimo inverso.

Palabras clave:

Descargas

Los datos de descargas todavía no están disponibles.

Detalles del artículo

Biografía del autor/a (VER)

Carlos Vega Pérez, Universidad Industrial de Santander

Ingeniero Electrónico.

Ricardo Alzate Castaño, Universidad Industrial de Santander

Doctor en Automática.

Referencias (VER)

B.D.O. Anderson, J.B. Moore, “Optimal Control: Linear Quadratic Methods”. Prentice-Hall, Englewood,NJ, 1990.

D. E. Kirk, “Optimal Control Theory: An Introduction”, Englewood Cliffs, NJ, USA: Prentice-Hall, 1970.

G.J. Ji. “Inverse Optimal Stabilization of a Class of Nonlinear Systems”. Proceedings of the 26th Chinese Control Conference July 26-31, 2007, Hunan, 226-231.

J. J. Slotine, W. Li, “Applied Nonlinear Control”, Massachusetts Institute of Technology, Englewood Cliffs, New Jersey, Prentice Hall.

Luenberger, D. G. “Introduction to dynamic systems Theory, Models and Applications”, U.S.A, pp.419-427.1979.

L. Rodrigues, “An Inverse Optimality Method to Solve a Class of Second Order Optimal Control Problems”, IEEE 18th Mediterranean Conference on Control & Automation, Marrakech, Morocco, pp.407-412, June 23-25, 2010.

L. S. Pontryagin, V. G. Boltyankii, R. V. Gamkrelizde, and E. F. Mischenko. “The Mathematical Theory of Optimal Processes.” Interscience Publishers, Inc., New York, USA, 1962.

M. Krstic and Z. Li. “Inverse optimal design of input-to-state stabilizing nonlinear controllers”. IEEE Transactions on Automatic Control, 43(3):336–350, 1998.

P. J. Moylan and B. D. O. Anderson. “Nonlinear regulator theory and an inverse optimal control problema”. IEEE Transactions on Automatic Control, 18(5):460– 465, 1973.

R. E. Bellman. “Dynamic Programming”. Princeton, NJ, 1957.

R.E. Kalman, “Contributions to the theory of optimal control” Bol. Soc. Mat. Mex. vol. 5, pp. 102-119, 1960.

R. Freeman, P.V. Kokotovic. “Optimality of Robust Nonlinear Feedback Controls”. Technical report CCEC-93-1103, 1993.

R. Freeman, P.V. Kokotovic, “Robust Control of Nonlinear Systems”, Birkhauser, Boston, 1996.

R. Sepulchre, M. Jankovic, P.V. KokotoviC, “Constructive Nonlinear Control”, Springer, Berlin, 1996.

Z. Liu, Q. Wang, and H. Schurz, “Inverse optimal noise-to-state stabilization of stochastic recurrent neural networks driven by noise of unknown covariance,” Optimal Control Applications and Methods, vol. 30, no. 2, pp. 163–178, 2009.