Upload
others
View
10
Download
0
Embed Size (px)
Citation preview
ANTONIO FERRAMOSCA
CONTROL DE SISTEMAS CON PUNTOS DE
OPERACION CAMBIANTES
SEVILLA
18 de Diciembre de 2007
Universidad de Sevilla
Escuela Superior de Ingenieros
Departamento de Ingenierıa de Sistemas y Automatica
Master en Automatica Robotica y Telematica
Trabajo Fin de Master
Control de sistemas con puntos de
operacion cambiantes
Antonio Ferramosca
Tutor: Daniel Limon Marruedo
18 de Diciembre de 2007
A mia sorella
AGRADECIMIENTOS
Gracias al Prof. Daniel Limon Marruedo, por la dedicacion, las ideas, los consejos
y las ayudas en el trabajo de este primero ano de doctorado, ası como en la infinita
jungla del papeleo.
Gracias al Prof. Eduardo Fernandez Camacho, por la ayuda, dedicacion y disponi-
bilidad en este primero ano de doctorado.
Grazie al Prof. Lalo Magni per avermi invogliato a intraprendere questa strada e
avermi dato la possibilita di fare questa bellissima esperienza.
Grazie ai miei genitori e a mia sorella per l’appoggio e per essere pronti ad ascoltarmi
sempre, anche quando parlo solo a monosillabi.
Gracias a mis amigos Jorn, Guilherme y Mirko, por las ayudas con el espanol en
los primeros meses, por haberme aguantado hasta ahora y por todos los cafes y todas
las cervezas.
Indice general
Lista de figuras V
Notacion 1
Introduccion 3
1. Motivacion y objetivos 5
1.1. Motivacion y objetivos del trabajo . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. El control de plantas con puntos de operacion cambiantes . . . . 8
1.2. Controladores predictivos en la industria. . . . . . . . . . . . . . . . . . 13
1.3. El problema de la estabilidad: optimalidad no implica estabilidad . . . 15
1.4. Controladores predictivos con estabilidad garantizada . . . . . . . . . . 19
1.5. Formulacion general del MPC . . . . . . . . . . . . . . . . . . . . . . . 22
1.6. Robustez de los controladores MPC . . . . . . . . . . . . . . . . . . . . 25
1.6.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
i
1.6.2. Analisis de robustez de los controladores MPC . . . . . . . . . . 26
1.6.3. Formulaciones robustas del MPC . . . . . . . . . . . . . . . . . 28
2. MPC para tracking de sistemas con puntos de operacion cambiantes 33
2.1. Descripcion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2. Resultados preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.1. Calculo de los puntos de equilibrios admisibles . . . . . . . . . . 36
2.3. Calculo del conjunto invariante para tracking . . . . . . . . . . . . . . . 39
2.4. Puntos de operacion a seguir . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5. MPC para tracking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5.1. Propiedades del controlador . . . . . . . . . . . . . . . . . . . . 45
2.6. MPC para el tracking de puntos de operacion incoherentes . . . . . . . 47
2.7. Aplicacion a una maqueta de helicoptero . . . . . . . . . . . . . . . . . 49
2.7.1. Funcion de transferencia . . . . . . . . . . . . . . . . . . . . . . 50
2.7.2. Tracking del angulo de cabeceo . . . . . . . . . . . . . . . . . . 51
3. MPC con nuevo funcional de coste que garantice la optimalidad 55
3.1. Descripcion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2. Resultados preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1. Puntos de equilibrios admisibles y conjunto invariante . . . . . . 57
3.3. MPC para tracking con nuevo funcional de coste . . . . . . . . . . . . . 58
3.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5. Optimizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.6. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4. MPC robusto para tracking 69
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2. Descripcion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3. Resultados preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.1. Puntos de equilibrios admisibles y conjunto invariante . . . . . . 73
4.3.2. Control predictivo robusto basado en tubos . . . . . . . . . . . . 73
4.4. El nuevo control predictivo robusto . . . . . . . . . . . . . . . . . . . . 76
4.5. Diseno estabilizante del controlador . . . . . . . . . . . . . . . . . . . . 78
4.6. Propiedades del controlador propuesto . . . . . . . . . . . . . . . . . . 79
4.7. MPC robusto para tracking con retroalimentacion en la salida . . . . . 80
4.7.1. Descripcion del problema . . . . . . . . . . . . . . . . . . . . . . 81
4.7.2. Resultados preliminares . . . . . . . . . . . . . . . . . . . . . . 81
4.7.2.1. Tubo de estimacion . . . . . . . . . . . . . . . . . . . . 82
4.7.2.2. Tubo de control . . . . . . . . . . . . . . . . . . . . . . 83
4.7.2.3. Set point y conjunto invariante para tracking . . . . . 84
4.7.3. MPC robusto para tracking con retroalimentacion en la salida . 85
5. Aplicacion a la planta de los 4 tanques 87
5.1. La planta real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.1. Estructura del sistema . . . . . . . . . . . . . . . . . . . . . . . 90
5.2. El sistema dinamico de la planta . . . . . . . . . . . . . . . . . . . . . . 93
5.3. Aplicacion del MPC robusto para tracking . . . . . . . . . . . . . . . . 95
5.3.1. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6. Conclusiones 101
6.1. Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Bibliografıa 105
Indice de figuras
1.1. Esquema de un reactor continuo de tanque agitado. . . . . . . . . . . . 7
1.2. Fotografıa de la planta solar DISS. . . . . . . . . . . . . . . . . . . . . 7
1.3. Estructura de control jerarquico. . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Estructura de control jerarquico con alto nivel adaptativo. . . . . . . . 10
1.5. Estructura de control integral. . . . . . . . . . . . . . . . . . . . . . . . 12
2.1. Helicoptero de laboratorio Quanser Consulting . . . . . . . . . . . . . . 49
2.2. Invariante para tracking y region de atraccion . . . . . . . . . . . . . . 52
2.3. Evolucion de los estados . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4. Seguimiento de una referencia con Q = 100 · I2 y R = 1. . . . . . . . . 53
2.5. Seguimiento de una referencia con Q = 100 · I2 y R = 0,1. . . . . . . . . 54
3.1. Evolucion de Jreg − Jtrack en funcion de α . . . . . . . . . . . . . . . . 67
4.1. Ilustracion del lema de los tubos. . . . . . . . . . . . . . . . . . . . . . 75
5.1. Esquema de la planta teorica . . . . . . . . . . . . . . . . . . . . . . . . 88
v
5.2. La planta real. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.3. Automata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.4. Cliente OPC de LabView . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5. Conjuntos que caracterizan el MPC para tracking aplicado a la planta. 96
5.6. Simulacion de la evolucion de las salidas . . . . . . . . . . . . . . . . . 97
5.7. Simulacion de la evolucion temporal de la planta . . . . . . . . . . . . . 98
5.8. Evolucion de las salidas . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.9. Evolucion de la planta en el tiempo . . . . . . . . . . . . . . . . . . . . 99
Notacion
Notacion Significado
(x, t, r) [xT , tT , rT ]T
λX Dado un conjunto X y un escalar λ ∈ IR, λX = λx : x ∈ X
int(X) Interior del conjunto X
T > 0 Matriz definida positiva, es decir, con sus autovalores reales y estricta-
mente positivos.
T > P T − P > 0
‖x‖P
√xT Px, siendo P > 0
In Matriz identidad de tamano n× n.
0n,m Matriz de ceros de tamano n×m
V⊥ Para una matriz V , V⊥ es tal que V T V⊥ = 0 y [V V⊥] es invertible.
Proja(Γ) Dado un conjunto Γ ⊂ IRna+nb , entonces Proya(Γ) = a ∈ IRna : ∃b ∈IRnb , (a, b) ∈ Γ
X × U Producto cartesiano de dos conjuntos dados X ⊂ IRn y U ⊂ IRm: z =
(x, u) ∈ IRn+m : x ∈ X, u ∈ U.
1
Notacion Significado
XN Dado un conjunto X, XN representa el producto cartesiano por sı mismo
N veces, es decir XN = XN−1 ×X, tomando X1 = X.
x0 ⊕X x0 + y, y ∈ X
X1 ⊕X2 Suma de Minkowsky de dos conjuntos dados X1, X2 ⊂ IRn: x1+x2, x1 ∈X1, x2 ∈ X2
X1 ªX2 Diferencia de Pontryagin de dos conjuntos dados X1, X2 ⊂ IRn: x ∈IRn : x⊕X2 ⊆ X1
K X Mapa lineal de un conjunto X ⊂ IRn: Kx : x ∈ X
B Intervalo unitario: B = b ∈ IR : |b| ≤ 1.
BN Caja unitaria: BN = b ∈ IRN : ‖b‖∞ ≤ 1
Introduccion
En esta memoria se presenta el trabajo realizado como proyecto final del Master
en Automatica, Robotica y Telematica de la Universidad de Sevilla, impartido en el
Curso 2006/2007.
El objetivo de este trabajo ha sido estudiar lo que es el control predictivo en parti-
cular modo relacionado al tracking, es decir al seguimiento de referencias.
El control predictivo basado en modelo (MPC) es una tecnica de control que per-
mite de considerar restricciones, en estados y entradas del sistema, en el diseno del
controlador. Eso se consigue prediciendo la evolucion del sistema y calculando la se-
cuencia admisible de senales de control tal que la evolucion del sistema satisfaga las
restricciones. El problema se puede plantear como un problema de optimizacion. Para
disenar un esquema de retroalimentacion, la secuencia de control obtenida se aplica
con una tecnica de horizonte deslizante (receding horizon), resolviendo el problema de
optimizacion en cada periodo de muestreo. La base teorica del MPC hoy en dıa es
bien conocida y la estabilidad asintotica esta garantizada por medio de una apropiada
penalizacion del estado final y anadendo una restriccion final (Mayne, Rawlings, Rao
and Scokaert, 2000).
La mayorıa de resultados sobre MPC, considerano el problema de regulacion, es
decir el problema de llevar el sistema al punto de equilibrio deseado, que se considera
ser el origen. En (Limon, Alvarado, Alamo and Camacho, 2007a) (Limon, Alvarado,
Alamo and Camacho, 2005) se propone un diseno de MPC para el seguimiento sin
offset de una secuencia admisible de referencias. Las diferencias entre esa tecnica y las
tecnicas de regulacion con MPC estandar, son:
Considerar un punto de equilibrio artificial como variable de decision.
3
4 Introduccion
Modificar el funcional de coste, penalizando la diferencia entre el punto de equi-
librio artificial y el punto de equilibrio deseado.
Considerar una restriccion terminal en el estado terminal y en el punto de equi-
librio artificial.
Ese controlador asegura la factiblidad considerando un conjunto invariante para tra-
cking como una restriccion terminal extendida; un control sin offset se obtienen gracias
a un controlador local estabilizante y gracias a la penalizacion de la diferencia entre el
estado de equilibrio artificial y el punto de equilibrio deseado. Unas propiedades de ese
controlador son que el problema de optimizacion es un unico problema QP multipa-
rametrico, el control MPC permite el seguimiento de cualquier referencia admisible y
de cualquier referencia constante a trozos, la ley de control explıcita se puede obtener
utilizando tecnicas conocidas (Bemporad, Morari, Dua and Pistikopoulos, 2002).
La memoria que se presenta esta ası estructurada.
En el capıtulo 1 se presentan las motivaciones y los objetivos que se quieren
obtener en este trabajo final del master, y que seran la base del futuro trabajo
de investigacion que se desarrollara en el curso del doctorado.
En el capıtulo 2 se presenta una nueva formulacion de controlador predictivo para
seguimiento de referencias para sistemas con puntos operativos cambiantes. Se
prueba la estabilidad del controlador y se presentan sus propiedades. Se muestra
tambıen una aplicacion del controlador a una planta de laboratorio.
En el capıtulo 3 se presenta una nueva formulacion del controlador predictivo
presentado en el capıtulo 2, en la que se utiliza un nuevo funcional de coste para
evitar problemas de perdida de optimalidad local.
En el capıtulo 4 se presenta un controlador predictivo robusto para seguimiento
de referencias para sistemas con puntos de operacion cambiantes. Se describen
sus propiedades y se presenta ademas una version de este controlador con retro-
alimentacion en la salida, necesaria en los casos en lo cuales no sea posible medir
el estado del sistema.
En el capıtulo 5 se presentan los resultados experimentales de la aplicacion del
controlador MPC para tracking a la planta de los 4 tanques, que se encuentra en
los laboratorios de la Universidad de Sevilla.
Finalmente se presentan las conclusiones de este trabajo.
Capıtulo 1
Motivacion y objetivos
En este capıtulo tiene como fin poner en contexto el trabajo de investigacion que se
desarrolla en el capıtulo siguiente. Para ello, en primer lugar se presenta la relevancia
en el campo de la industria del problema del control de sistemas en el caso de estar
sometidos a amplios cambios en el punto de funcionamiento y se establecen los obje-
tivos de dicho trabajo. A continuacion se hace un breve balance de las estrategias de
control planteadas para la solucionarlo, enfocandose a la estrategia que se considera
adecuada para abordarlo: el control predictivo. Seguidamente se hace un resumen de
los controladores predictivos y se presenta de forma sucinta el problema de la estabili-
dad con restricciones y como el control predictivo soluciona dicha problematica. Para
finalizar se presenta tambien el problema de las incertidumbres en el control predictivo
y las formulaciones robustas del mismo.
1.1. Motivacion y objetivos del trabajo
La operacion en el conjunto de la industria de procesos ha experimentado una serie
de avances tecnologicos significativos durante los ultimos anos, guiados por la necesidad
de producir de forma segura, limpia y en condiciones competitivas, productos que
satisfagan las necesidades del mercado, tanto en cuanto a demanda como en cuanto a
calidad y uniformidad. Dos razones justifican este hecho: de un lado, la necesidad de
dar respuesta a un mercado que en funcion de sus habitos sociales y/o culturales se
encuentra cada vez mas diversificado y exige, ademas de productos sujetos a estrictos
5
6 1.1. Motivacion y objetivos del trabajo
controles de seguridad, variedad y calidad, con lo que ello comporta en cuanto a ciclos
de vida del producto cada vez mas cortos. De otro lado, la necesidad de propiciar un
crecimiento sostenible minimizando tanto el impacto medioambiental como el consumo
de recursos. Ambos factores contribuyen a que se desee producir de una mas eficiente
satisfaciendo las exigencias y lımites impuestos a los productos.
Por lo tanto resulta deseable buscar tecnicas que control que proporcionen leyes que
optimicen ciertos criterios de eficiencia garantizando al mismo tiempo la satisfaccion de
los lımites impuestos a los productos. Una de las pocas tecnicas que permiten resolver
este problema es el control predictivo (de Prada, 2004).
En la industria de procesos es habitual la existencia de un punto de operacion
optimo o punto de funcionamiento en el cual el proceso deberıa permanecer con el
fin de maximizar su eficiencia. Sin embargo, muchos procesos a lo largo de su normal
funcionamiento se ven sometidos a frecuentes cambios en su punto de funcionamiento,
de forma que para estos no existe un punto de funcionamiento, sino mas bien un
rango de puntos de funcionamiento en cualquiera de los cuales el proceso puede operar
durante un perıodo de tiempo. La seleccion del punto de operacion dentro de este rango
se hara conforme a la diversidad de productos, lotes o situaciones en las que la planta
se pueda encontrar.
Para ilustrar este tipo de procesos tomese por ejemplo un reactor por lotes. En este
proceso se pretende obtener el producto de una reaccion que se desarrolla en su interior
de forma continua y sobre la que se puede influir tıpicamente manipulando el control
de caudal de los reactivos y el caudal de refrigerante (vease la figura 1.1). Este proceso
esta sujeto a las restricciones sobre las variables manipulables que imponen las valvulas
de entrada de reactivo y refrigerante. Por otro lado variables como la temperatura
del reactor o la presion deben permanecer dentro de unos lımites permitidos, y la
concentracion de producto debe cumplir ciertas especificaciones. Ademas es habitual
que el funcionamiento de este reactor cambie su punto normal de operacion de forma
que durante un perıodo se require un funcionamiento determinado por una ciertas
condiciones de temperatura y concentracion. Por lo tanto este proceso require un control
que permita los cambios en el punto de funcionamiento garantizando el cumplimiento
de los lımites impuestos sobre ciertas variables.
Otro proceso en el que el funcionamiento varıa en un determinado rango es el caso
de una planta solar. En este sistema el objetivo es calentar un determinado fluido
gracias a la energıa irradiada por el Sol. Para ello el fluido se hace pasar por unos
paneles solares o bien unos colectores solares disenados al efecto. El objetivo de control
Capıtulo 1. Motivacion y objetivos 7
Figura 1.1: Esquema de un reactor continuo de tanque agitado.
es situar la temperatura de salida en un determinado rango que permita la utilizacion
provechosa de la energıa ya sea para producir electricidad (como en el caso de la planta
DISS que se muestra mas adelante) o para otros usos, como producir frıo mediante
una maquina de absorcion (como es el caso de la planta solar de refrigeracion que se
muestra a continuacion). Observese que las variables manipulables suelen ser valvulas
que tienen unos lımites de actuacion determinados y generalmente con la velocidad de
cambio tambien limitada. Ademas las temperaturas y los caudales a lo largo de los
colectores o paneles deben permanecer dentro de unos lımites para garantizar el buen
funcionamiento de los mismos.
Figura 1.2: Fotografıa de la planta solar DISS.
Debido a la evolucion a lo largo del dıa de la potencia irradiada por el Sol1 las tem-
1En efecto, esta potencia es periodica con una forma creciente por la manana y decreciente a lo
8 1.1. Motivacion y objetivos del trabajo
peraturas de los colectores solares cambian, alejandose de los valores deseados. Por ello
el sistema de control debe garantizar el buen funcionamiento de la planta cambiando
su punto de operacion en funcion de la potencia irradiada con el objeto de mantener la
temperatura de salida dentro del rango permitido y ademas las temperaturas a lo largo
de los colectores dentro de los lımites. El sistema de control debe pues actuar sobre la
planta para garantizar los lımites de las temperaturas ante cada cambio de punto de
funcionamiento.
En consonancia con las necesidades expuestas, este trabajo tiene por finalidad el
desarrollo de una estrategia de control avanzado de procesos con puntos de operacion
cambiantes en presencia de restricciones que permitan una operacion eficiente, flexible e
integral de forma que, haciendo un uso racional de los recursos disponibles, se garantice
de manera uniforme la seguridad y calidad del producto.
1.1.1. El control de plantas con puntos de operacion cambian-
tes
A la hora de acometer el problema de control que se plantea es necesario tener
en cuenta dos aspectos que los condicionan. El primer aspecto se deriva del amplio
rango de operacion que presentan las plantas, el cual acentua la naturaleza no lineal
de sus dinamicas (implıcita en las ecuaciones constitutivas asociadas a los balances de
materia, energıa y cantidad de movimiento) y el grado de incertidumbre (estructural
y parametrica) asociado a sus representaciones en espacio de estados. Ademas en este
tipo de plantas es habitual la distribucion espacial de algunas, o todas sus variables de
estado, lo que hace que su dinamica deba ser descrita por sistemas acoplados de ecua-
ciones algebraicas, diferenciales ordinarias y ecuaciones en derivadas parciales. Por ello,
estos sistemas pueden considerarse como paradigmas de sistemas dinamicos comple-
jos, con elevado acoplamiento y dimension (fundamentalmente debido a la distribucion
espacial de sus variables de estado), y sujetos a restricciones de ındole economica y
medioambiental.
A la naturaleza compleja del sistema se anade la presencia de restricciones en su o-
peracion. Estas restricciones pueden ser lımites en las variables que permiten manipular
la plantas, ası como lımites impuestos sobre variables del proceso. Estas restricciones
pueden derivar de lımites fısicos de las variables o bien de lımites en las zonas de
largo de la tarde.
Capıtulo 1. Motivacion y objetivos 9
evolucion de la planta por motivos economicos, medioambientales o de operacion.
La presencia de restricciones condiciona de forma notable el comportamiento de los
sistemas acentuando su aspecto no lineal, y pueden ser responsables de perdidas de
rendimiento, mal funcionamiento de la planta e incluso inestabilidad (Mayne, 2001).
La forma tradicional de resolver este problema consiste en el diseno de una es-
tructura jerarquica de control en el que un control a bajo nivel se encarga del control
regulatorio de la planta, generalmente realizada por PIDs o automatas programables
interconectados en red. Por encima de este se encuentra el control de alto nivel en el
que se implementa una estrategia avanzada de control, generalmente multivariable. El
fin de este control es la determinacion de las consignas de los controladores a bajo nivel
para mantener el sistema en el punto de operacion deseado. Este punto de operacion
se determina por un nivel de control superior en el que se implementa un optimizador
de las consignas (generalmente calculadas en base a un modelo estatico de la planta
en su conjunto) de acuerdo con los datos de la planta y en base a criterios economi-
cos, provenientes del sistema de integracion de informacion de la planta (CIM). Esta
estructura se ilustra en la figura 1.3.
CIMOPTIMIZADOR
DECONSIGNAS
Proceso
PlantaCONTROL DEALTO NIVEL
CONTROL DEBAJO NIVEL
VM
VP
SP
PO
Figura 1.3: Estructura de control jerarquico.
El control de alto nivel se suele disenar para regular el sistema en torno al punto
de operacion y evitar la violacion de las restricciones. Una de las estrategias de control
avanzado que mas exito han tenido en la industrial de procesos ha sido el control
predictivo (Qin and Badgwell, 1997) pues incorpora un criterio optimo y restricciones
en la ley de control. Cuando el alto nivel indica un cambio de operacion el controlador
debe hacer frente a esta contingencia conduciendo el sistema hacia el nuevo punto
de operacion. Cuando estos cambios son pequenos, entonces los controladores suelen
acometer esta tarea con exito, pero cuando los cambios de operacion son amplios,
pueden aparecer problemas ya sea por el cambio de dinamica en el nuevo punto o bien
10 1.1. Motivacion y objetivos del trabajo
por garantizar la satisfaccion de las restricciones en el transitorio al nuevo punto.
Con el fin de gestionar cambios significativos en los puntos de operacion, el control
a alto nivel se suele dividir en dos subniveles (Becerra, Roberts and Griffiths, 1998): un
subnivel inferior encargado de regular el sistema y un subnivel superior encargado de
la adaptacion del controlador al nuevo punto, o bien de una forma general, de gestionar
el control del transitorio ante grandes cambios en la operacion. Este esquema se ilustra
en la figura 1.4
CIMOPTIMIZADOR
DECONSIGNAS
Proceso
Planta
CONTROL DEALTO NIVEL
CONTROL DEBAJO NIVEL
VM
VP
SP
PO
ESTRATEGIADE ADAPTACIÓN
CONTROL AVANZADO
Figura 1.4: Estructura de control jerarquico con alto nivel adaptativo.
Dentro de este esquema se enmarcan por ejemplo los controladores adaptativos
(como el clasico gain scheduling de los aviones al variar la altura de vuelo). Otros con-
troladores de este tipo son los denominados controladores de referencias o reference go-
vernors (Gilbert, Kolmanovsky and Tan, 1994; Gilbert, Kolmanovsky and Tan, 1999).
Estos controladores corresponden al subnivel superior y asumen que en el subnivel in-
ferior se encuentra un controlador avanzado que estabiliza la planta. Los controladores
de referencias tienen como fin gestionar de forma racional las referencias de un proceso
con el fin de evitar la violacion de restricciones cuando el valor deseado de la consigna
cambia. Es de alguna forma una sofisticacion del conocido filtro de referencias con el
fin de evitar la violacion de restricciones. El diseno de este tipo de controladores se
hace sin atender a la eficiencia del proceso y con el unico fin de evitar la violacion de
los lımites. Este aspecto se trata en (Bemporad, Casavola and Mosca, 1997), en el que
propone un metodo de incorporar cierto criterio de desempeno en el calculo. Los con-
troladores de referencias tambien se han extendido con exito al caso de dinamicas no
lineales (Bemporad, 1998b; Angeli and Mosca, 1999; Gilbert and Kolmanovsky, 2002).
Capıtulo 1. Motivacion y objetivos 11
En el caso del control predictivo existen formulaciones orientadas a gestionar gran-
des transiciones. Estos controladores permiten pues grandes cambios en el punto de
operacion y determinan las acciones de control en base a un criterio de desempeno.
Sin embargo, la garantıa de estabilidad se basa en una estructura jerarquica como la
que se muestra en 1.4 en la que el subnivel superior se encarga de conmutar entre el
controlador predictivo y el otro controlador orientado a recuperar al sistema en caso
de perdida de factibilidad.
Otra forma de abordar este problema es el llamado control integral en el que se
estudian estrategias de control avanzado (generalmente control predictivo) en el que
se incorporan objetivos economicos asociados a los cambios de operacion. Por lo tanto
parte de la tarea de la optimizacion del proceso se traslada del optimizador de con-
signas al control avanzado con el fin de incorporar de alguna forma el coste asociado
a las transiciones en la determinacion del punto de operacion. En (Becerra and Ro-
berts, 1996; Becerra, Roberts and Griffiths, 1997; Becerra et al., 1998) se plantean
diferentes alternativas para la integracion del control predictivo con optimizacion en
lınea de objetivos economicos (como solucion de un problema de control jerarquico, o
solucion de un problema de control multiobjetivo, donde se minimizan tanto los objeti-
vos de regulacion como los economicos, inclusion de consignas asociadas a costes, etc.).
En algunos de los trabajos que hacen uso de estructuras jerarquicas con dos capas,
ademas se parte del supuesto de que los reguladores de las capas bajas mantienen la
estabilidad, aunque este trabajo sı tiene en cuenta la diferencia entre el modelo y la
realidad, planteando un metodo iterativo que permite al algoritmo converger incluso
bajo la existencia de errores de modelado. En (Vesely, Kralova, Harsanyi and Hin-
di, 1998) se plantean los principios y propiedades basicas de un metodo factible para
optimizacion de estado estacionario de sistemas complejos de los dos niveles de un
controlador jerarquico, de modo que el problema se resuelve a traves de la resolucion
de ecuaciones algebraicas.
Sin embargo, en la mayorıa de estos trabajos no se lleva a cabo un estudio de
la estabilidad, robustez y convergencia de los esquemas desarrollados, ni del efecto
de la interaccion entre componentes. Tampoco se aborda en profundidad el problema
de estabilidad y transferencia suave entre consignas en aquellos sistemas que estan
sometidos a frecuentes cambios de especificaciones y a perturbaciones de carga, por lo
que estas deben modificarse con frecuencia durante la operacion.
En consecuencia, las estructuras jerarquicas con garantıa de estabilidad y satisfac-
cion de restricciones producen un peor desempeno que un control integral debido a
su diseno independiente. Por otro lado las estructuras de control integral adolecen de
12 1.1. Motivacion y objetivos del trabajo
estudios de estabilidad y satisfaccion de restricciones. Por ello resulta deseable disenar
estrategias de control que permitan unificar la solucion de este problema de control
integral para grandes transiciones en un solo nivel que garantice la estabilidad en pre-
sencia de restricciones y tenga en cuenta la optimizacion de criterios de desempeno.
El control predictivo es una de las pocas estrategias que permite el control de sistemas
con restricciones atendiendo a un criterio optimo y garantizando la estabilidad y con-
vergencia al punto de equilibrio (Camacho and Bordons, 2004; Mayne, 2001). Por ello,
se propone utilizar el control predictivo como estrategia para abordar el problema que
se propone. En la figura 1.5 se ilustra la idea propuesta y en ella se observa que los dos
niveles de control de la estructura jerarquica (vease la figura 1.4) se reemplaza por un
solo controlador que realiza simultaneamente la tarea de la estabilizacion y del control
al nuevo punto de consigna.
El control predictivo basado en modelo ha concentrado el esfuerzo en los ultimos
anos de numerosos investigadores, avanzando notablemente las bases teoricas, la com-
prension del problema de control, el estudio de sus caracterısticas y limitaciones y
procedimientos de diseno estabilizante (Mayne et al., 2000; Limon, 2002). Ademas el
control predictivo ha demostrado ser tambien una tecnica efectiva para el control ro-
busto con restricciones (Mayne et al., 2000; Limon, 2002; De Nicolao, Magni and Scat-
tolini, 1996; Magni, Nijmeijer and van der Shaft, 2001; Fontes and Magni, 2003; Limon,
Bravo, Alamo and Camacho, 2005; Limon, Alamo, Salas and Camacho, 2006). Como es
bien sabido, el diseno estabilizante de los controladores se basa en el calculo de regiones
invariantes (Blanchini, 1999; Bertsekas, 1972).
CIMOPTIMIZADOR
DECONSIGNAS
Proceso
Planta
CONTROL PREDICTIVO
CONTROL DEBAJO NIVEL
VM
VP
SP
PO
Figura 1.5: Estructura de control integral.
Capıtulo 1. Motivacion y objetivos 13
En el caso de sistemas lineales con o sin incertidumbres, existen controladores efi-
cientes que permiten controlar la planta con garantıa de estabilidad y satisfaccion de
restricciones. En este caso se han propuesto tecnicas para simplificar el problema de
optimizacion a resolver (Alamo, de la Pena, Limon and Camacho, 2005) y permita una
implementacion eficiente en lınea. Por otro lado tambien se han desarrollado tecnicas
para el calculo explıcito de la ley de control vıa la resolucion de un problema mul-
tiparametrico. En el caso de que el punto de equilibro cambie, el controlador debe
ser redisenado y la factibilidad del mismo puede perderse. Como ya se comento ante-
riormente, en (Chisci and Zappa, 2003; Rossiter, Kouvaritakis and Gossner, 1996) se
proponen tecnicas para garantizar la factibilidad basados en un supervisor que conmuta
entre dos controladores.
En el caso de sistemas no lineales, el problema es mas complejo y requiere la so-
lucion de un problema de optimizacion no lineal (Camacho and Bordons, 2004). Para
relajar la carga computacional se han establecido condiciones para garantizar la esta-
bilidad en caso de soluciones suboptimas (Scokaert, Mayne and Rawlings., 1999). El
control predictivo robustos para sistemas no lineales ha madurado mucho recientemente
(Magni, Nijmeijer and van der Shaft, 2001; Limon et al., 2006), pero que su compleji-
dad computacional hace que se considere un problema aun sin cerrar. En este sentido
la aplicacion de tecnicas garantistas como (Limon, Bravo, Alamo and Camacho, 2005)
resultan prometedoras.
1.2. Controladores predictivos en la industria.
El control predictivo ha tenido una evolucion peculiar en la disciplina del control
en tanto en cuanto ha sido una estrategia en la cual el campo industrial ha ido por
delante de la comunidad investigadora. Si bien los controladores predictivos tienen su
origen en el control optimo (Propoi, 1963; Lee and Markus, 1967; Kwon and Pear-
son, 1977), nuevas y mas avanzadas formulaciones surgieron en el seno de la industria,
principalmente en la industria petroquımica y de procesos. La necesidad de controlar
procesos en puntos de operacion lımites con el objetivo de optimizar el proceso pro-
ductivo llevo a la aparicion de controladores predictivos basados en modelos sencillos,
orientados a la resolucion de los problemas de control asociados, tales como la consi-
deracion de restricciones, incertidumbres y no linealidades. Entre otras formulaciones
destacan las siguientes:
14 1.2. Controladores predictivos en la industria.
IDCOM o MPHC : (Identification-Command o Model Predictive Heuristic Control)
propuesto en (Richalet, Rault, Testud and Papon, 1978), utiliza como modelo de
prediccion la respuesta impulsional (FIR), funcion de coste cuadratica, y restric-
ciones en las entradas y salidas. El algoritmo de optimizacion es heurıstico.
DMC : (Dynamic Matrix Control) propuesto en (Cutler and Ramaker, 1980), utiliza
como modelo de prediccion la respuesta ante escalon, lo cual limita su aplicacion a
plantas estables, considera un coste cuadratico penalizando el esfuerzo de control
y no considera restricciones en la optimizacion.
QDMC : (Quadratic Dynamic Matrix Control) propuesto en (Garcıa and Morshe-
di, 1986), surge de la extension del DMC al caso con restricciones. Este contro-
lador forma parte de la denominada segunda generacion de controladores predic-
tivos, en los que el problema de optimizacion asociado se resuelve utilizando la
programacion matematica. Establece dos tipos de restricciones: duras y blandas,
permitiendo la violacion de estas ultimas durante algun periodo de tiempo.
SMOC : (Shell Multivariable Optimizing Control) propuesto en (Marquis and Brous-
tail, 1988), forma parte de la tercera generacion de controladores predictivos.
Permite la utilizacion de modelos en espacios de estados e incorpora observado-
res y modelos de perturbaciones. Introduce tambien restricciones duras, blandas
y con niveles de prioridad.
GPC : (Generalized Predictive Control) propuesto en (Clarke, Mohtadi and Tuffs,
1987a; Clarke, Mohtadi and Tuffs, 1987b), utiliza como modelo de prediccion
la formulacion CARIMA, que incorpora una perturbacion modelada como ruido
blanco. Incorpora restricciones y existen resultados asociados a la estabilidad.
Se han propuesto otras formulaciones de controladores predictivos tales como el
RMPCT, el PCT o el PFC. Una lectura mas profunda sobre todos estos controladores se
puede encontrar en (Camacho and Bordons, 1999), donde se analizan tanto en aspectos
practicos, como en los relativos a la estabilidad y robustez.
En la mayorıa de estos controladores, la estabilidad no esta garantizada, requirien-
dose un ajuste especıfico para cada sistema de una forma heurıstica y sin garantıas de
exito. Por ello, se establecen reglas practicas de ajuste, como la eleccion de un horizonte
de prediccion del orden del tiempo de establecimiento de la planta en sistemas estables.
El problema de la estabilidad no estaba resuelto en general y resultaba de hecho
una suerte de barrera psicologica que los investigadores en control predictivo ni siquiera
Capıtulo 1. Motivacion y objetivos 15
intentaban superar 2 , produciendose un vacıo teorico que mermaba las caracterısticas
de estos controladores.
1.3. El problema de la estabilidad: optimalidad no
implica estabilidad
La ley de control obtenida en un controlador predictivo surge de la optimizacion
de un criterio relacionado con el comportamiento del sistema, en el que se penaliza
tanto el error respecto al punto de equilibrio como el esfuerzo de control necesario para
alcanzar dicho equilibrio. Contrariamente a lo que dicta el sentido comun, el hecho
de que la actuacion aplicada sea optima no garantiza que el sistema en bucle cerrado
alcance el punto de equilibrio tal y como se desea. El problema de la estabilidad tiene su
origen en el desarrollo propio de los controladores predictivos: la necesidad de utilizar
un horizonte de prediccion finito e invariante en el tiempo y la estrategia de horizonte
deslizante.
El origen de los controladores predictivos esta en el control optimo en el cual se
pretende calcular la ley de control u = K∞(x) que minimiza el coste de regular el
sistema al punto de equilibrio a lo largo de toda la evolucion del mismo. Ası, la funcion
de coste a optimizar es:
J∞(xk) =∞∑i=0
L(x(k + i|k), K∞(x(k + i|k)))
y el problema de optimizacion a resolver viene dado por
mınK∞(x)
J∞(xk)
s.a
u(k + j|k) ∈ U ∀j ≥ 0
x(k + j|k) ∈ X ∀j ≥ 0
siendo x(k + j|k) la prediccion del estado del sistema en el instante k + j a partir del
estado en xk. Los conjuntos U y X definen las restricciones, de forma que X es un
conjunto acotado, U compacto y ambos contienen el origen en su interior.
2Morari en (Morari, 1994) hace la siguiente afirmacion en relacion a la estabilidad de los controla-dores predictivos ”the recent work has removed this technical and to some extent psycologycal barrier(people did not even try) and started wide spread efforts to tackle extensions of these basic problemswith the new tools”.
16 1.3. El problema de la estabilidad: optimalidad no implica estabilidad
Este problema de control, bajo ciertas condiciones de observabilidad relacionadas
con la funcion de coste de etapa 3, estabiliza asintoticamente todo estado en cual exista
una solucion con un coste asociado acotado. De hecho, todo punto asintoticamente
estabilizable, se puede estabilizar por esta estrategia de control.
El problema del control optimo se puede resolver utilizando dos tecnicas: la primera
se deriva del principio de optimalidad de Bellman (Bellman, 1957; Bryson and Ho,
1969), segun el cual
J∗∞(x) = mınu∈U
L(x, u) + J∗∞(f(x, u))| f(x, u) ∈ X∞
siendo la ley de control la solucion de este problema de optimizacion en cada estado
K∞(x) = u∗(x). El conjunto X∞ es el conjunto de estados asintoticamente estabili-
zables al origen de una forma admisible. Es en este conjunto en el que esta definido
J∗∞(x).
La solucion de este problema se puede obtener a partir de las ecuaciones de Hamilton-
Jacobi-Bellman, cuya resolucion es muy compleja, si no imposible, salvo en casos es-
peciales como el problema de regulacion de un sistema lineal sin restricciones con una
funcion de coste de etapa cuadratica, que da lugar al regulador lineal cuadratico o LQR
(Bryson and Ho, 1969).
Otro procedimiento para resolver este problema es la aplicacion del calculo varia-
cional, que conduce a las ecuaciones de Euler-Lagrange. La gran diferencia entre ambas
resoluciones es que en las ecuaciones de H-J-B la solucion es la ley de control, condu-
ciendo a soluciones globales y en bucle cerrado, mientras la formulacion de E-L conduce
a soluciones locales y en bucle abierto, si bien la resolucion de estas ecuaciones es mas
sencilla que la de H-J-B. Un analisis mas exhaustivo, pero con un caracter didactico,
sobre control optimo puede encontrarse en (Nevistic, 1997).
La dificultad en la resolucion de este problema llevo a adoptar soluciones practicas
que hiciesen mas sencilla su realizacion. Estas ideas son basicamente las siguientes:
Horizonte finito y fijo : considerando un horizonte finito, el problema de optimiza-
3La condicion de observabilidad consiste en L(x, u) ≥ l·‖(h(x), u)‖σ siendo σ ≥ 1 y h(x) unafuncion detectable con el modelo, y garantiza que si J∗N (xk) → 0 cuando k → ∞, entonces xk → 0(Keerthi and Gilbert, 1988).
Capıtulo 1. Motivacion y objetivos 17
cion toma la forma habitual del control predictivo:
mınuF (k)
JN(xk, uF (k))
s.a
u(k + j|k) ∈ U j = 0, · · · , N − 1
x(k + j|k) ∈ X j = 0, · · · , N − 1
x(k + N |k) ∈ Ω
donde el coste a optimizar
JN(xk, uF (k)) =N−1∑i=0
L(x(k + i|k), u(k + i|k)) + V (x(k + N |k))
siendo V (x) una funcion que penaliza el coste estado final de la prediccion (es-
tado terminal), denominada funcion de coste terminal. Al conjunto Ω al que se
restringe dicho estado se denomina region terminal.
La principal ventaja de la adopcion del horizonte finito reside en que el problema
de optimizacion tiene la forma de un problema de programacion matematica, el
cual admite solucion numerica gracias a los algoritmos existentes (Luenberger,
1989). Notese que el coste computacional de la resolucion de este problema puede
ser muy elevado si el modelo es no lineal.
Estrategia de horizonte deslizante : segun esta tecnica, en cada periodo de mues-
treo se resuelve el problema de optimizacion y se aplica tan solo la actuacion
obtenida para el siguiente periodo de muestreo. En el siguiente periodo de mues-
treo se toma un nuevo estado del sistema y se repite la operacion. Esto dota de
realimentacion a la formulacion basada en el problema de optimizacion en bucle
abierto, lo cual le confiere cierto grado de robustez.
El problema de control optimo con horizonte finito i se puede resolver mediante el
problema de programacion dinamica asociado:
J∗i (x) = mınuL(x, u) + J∗i−1(f(x, u))| f(x, u) ∈ Xi−1
siendo J∗0 (x) = V (x) y X0 = Ω. De la solucion de este problema se deriva la ley de
control Ki(x) = u∗. El conjunto Xi−1 es el conjunto de estados que pueden ser llevados
por una ley de control admisible siguiendo una trayectoria admisible hasta el conjunto
Ω en i − 1 pasos. Este problema de optimizacion es factible en el conjunto Xi, siendo
este el dominio de definicion del controlador Ki(x) y por lo tanto de J∗i (x).
18 1.3. El problema de la estabilidad: optimalidad no implica estabilidad
Considerese un estado inicial tal que el problema de optimizacion con horizonte N
es factible, es decir, x0 ∈ XN . Entonces, aplicando sobre el sistema la actuacion optima
u0 = KN(x0), el estado evoluciona a x1. En ese instante, la actuacion optima viene
dada por la ley de control optima con un horizonte N − 1, por tanto u1 = KN−1(x1).
Esto se debe al principio de optimalidad de Bellman. Entonces, en el instante k, la
actuacion optima vendra dada por uk = KN−k(xk), que es el controlador optimo para
conducir al sistema en N − k pasos al conjunto terminal Ω.
En consecuencia, el horizonte de prediccion se va reduciendo en cada instante, has-
ta el instante N en el cual el sistema alcanza la region terminal Ω. En esta region,
el problema de optimizacion dinamica no esta definido, requiriendose un controlador
alternativo.
Sin embargo, en el control predictivo la estrategia de horizonte deslizante y horizonte
finito e invariante hace que siempre se aplique el controlador con horizonte N . Por lo
tanto, la ley de control del MPC es invariante en el tiempo y viene dada por
uk = KMPC(xk) = KN(xk)
Esto hace que la convergencia del controlador optimo con horizonte finito se pierda,
pues no se reduce el horizonte y este controlador no garantiza que el sistema evolucione
hacia el punto de equilibrio, ni siquiera que alcance la region terminal. Una segunda
consecuencia es la posible perdida de la factibilidad del problema. Por tanto, a pesar
de que en cada instante se aplica una actuacion optima, en el sentido que optimiza un
coste y satisface unas restricciones, esta actuacion no garantiza ni la factibilidad ni la
convergencia del sistema en bucle cerrado.
Esta perdida de la estabilidad supuso un grave problema de los controladores pre-
dictivos, haciendo necesario un ajuste del controlador particular para cada sistema con
el fin de garantizar la estabilidad, con el temor anadido sobre como podıa influir la
variacion de un parametro sobre esta. Por ello los controladores predictivos contaban
entre sus desventajas la dificultad del ajuste.
Capıtulo 1. Motivacion y objetivos 19
1.4. Controladores predictivos con estabilidad ga-
rantizada
El rapido desarrollo de los controladores predictivos supuso un reto en la comunidad
investigadora para dar un soporte teorico bajo el cual se garantizase la estabilidad. Esto
dio lugar a una serie de formulaciones con estabilidad garantizada, cuyo denominador
comun es la utilizacion de la teorıa de Lyapunov, y en particular, el coste optimo como
funcion de Lyapunov. Estas formulaciones se pueden agrupar de la siguiente forma:
MPC con restriccion terminal de igualdad : fue propuesto para garantizar es-
tabilidad del problema LQR con restricciones en (Kwon and Pearson, 1977) y
extendido en (Keerthi and Gilbert, 1988) a sistemas no lineales con modelo en
espacio de estados, en tiempo discreto, sujetos a restricciones. La estabilidad se
garantiza imponiendo como restriccion terminal
x(k + N |k) = 0
bajo ciertas condiciones de controlabilidad y observabilidad del sistema. En este
caso, la funcion de coste optimo es estrictamente decreciente con el tiempo, por
lo que es una funcion de Lyapunov del sistema.
En (Mayne and Michalska, 1990), se formula este controlador para sistemas en
tiempo continuo y se relajan las condiciones para garantizar la estabilidad.
En (Chisci, and Mosca, 1994; Bemporad, Chisci and Mosca, 1995) se extiende esta
condicion a sistemas lineales descritos por un modelo CARMA, sin restricciones.
En este caso, la restriccion terminal se traduce en una condicion sobre las salidas
y las entradas del sistema.
MPC con coste terminal : la estabilidad se logra incorporando en la funcion de
coste, un termino que penalice el estado terminal mediante el denominado coste
terminal. En (Bitmead, Gervers and Wertz, 1990) se propone, para sistemas li-
neales sin restricciones un coste terminal cuadratico cuya matriz de ponderacion
se obtiene de la resolucion de una ecuacion de Riccati.
En (Rawlings and Muske, 1993), en el caso de un sistema lineal estable con
restricciones politopicas, se propone tomar como coste terminal el coste infinito
resultante de aplicar la actuacion nula.
En (Alamir and Bornard, 1995) se utiliza esta tecnica para sistemas no lineales
tomando como coste terminal el coste de un controlador localmente estabilizante
durante un periodo suficientemente largo.
20 1.4. Controladores predictivos con estabilidad garantizada
MPC con restriccion terminal de desigualdad : los problemas computacionales
que supone el cumplimiento de una restriccion de igualdad, llevaron a relajar esta
condicion, extendiendo la restriccion terminal a una vecindad del origen. Ası, se
establece una restriccion terminal de desigualdad de la forma
x(k + N |k) ∈ Ω
siendo el conjunto Ω el denominado conjunto terminal.
Esta estrategia fue propuesta en (Michalska and Mayne, 1993) para sistemas no
lineales en tiempo continuo y sujeto a restricciones. En este trabajo, se elige como
region terminal un invariante positivo del sistema no lineal controlado por un con-
trolador local. Ademas, para garantizar la factibilidad se introduce como variable
de decision el horizonte de prediccion. El controlador ası formulado garantiza que
conduce al sistema a la region terminal, donde el sistema pasa a regularse por el
controlador local que lo estabiliza al origen. De ahı que este controlador se deno-
mine controlador MPC dual. Las bondades de esta formulacion son tan notables,
que marco las futuras lıneas de investigacion en estabilidad.
En (Chisci, Lombardi and Mosca, 1996) se extiende el control predictivo dual al
caso de sistemas lineales con restricciones.
En esta misma lınea, se enmarcan los denominados controladores predictivos
con estabilidad forzada, en los que esta se garantiza por la satisfaccion de una
restriccion estabilizante. En (De Oliveira Kothare and Morari, 2000) se presenta
el denominado control predictivo contractivo. Esta estrategia esta basada en el
trabajo anterior (Yang and Polak, 1993) e incorpora como restriccion terminal
una restriccion que fuerza al estado terminal x(k+N |k) a tener una norma inferior
a la del estado actual xk
‖x(k + N |k)‖P < ‖xk‖P
La secuencia obtenida se aplica en bucle abierto desde el instante k hasta hasta
el k + N , en el que se vuelve a resolver el problema. Esta formulacion tiene dos
problemas: el funcionamiento en bucle abierto durante el horizonte de prediccion,
que se resuelve con un procedimiento de realimentacion extra, y el hecho de que
la factibilidad esta garantizada tan solo en una vecindad del origen, que puede
ser pequena y no se conoce a priori.
En (Primbs, Nevistic and Doyle, 2000), se garantiza la estabilidad forzando que
una funcion de control de Lyapunov conocida a priori, sea estrictamente decre-
ciente
V (x(k + 1|k)) < V (xk)
Capıtulo 1. Motivacion y objetivos 21
Esta restriccion se impone en la actuacion para el instante actual uk, y garantiza
estabilidad para todo horizonte de prediccion N ≥ 1.
MPC con coste y restriccion terminal : esta es la estructura en la que se enmar-
can las mas recientes formulaciones del MPC. Es importante decir que en algunas
de las formulaciones propuestas en las que se garantiza estabilidad con la adicion
unicamente de una funcion de coste terminal, implıcitamente se impone que la
prediccion alcance una vecindad del origen. En consecuencia se deben considerar
tambien como formulaciones con restriccion terminal.
El primer trabajo en el que se garantiza estabilidad incorporando ambos ingre-
dientes es en (Sznaier and Damborg, 1987) en el cual, para sistemas lineales
sujetos a restricciones politopicas, se considera como controlador local el LQR
y como region terminal un invariante asociado. En este trabajo se demuestra
que para cada estado, existe un horizonte de prediccion suficientemente largo, tal
que la solucion optima garantiza la satisfaccion de la restriccion terminal, lo que
permite eliminarla.
Esta misma lınea se sigue en (Parisini and Zoppoli, 1995) para sistemas no linea-
les en tiempo discreto con restricciones. Se calcula un controlador lineal basado
en la linealizacion del modelo en torno al punto de equilibrio (analogamente al
procedimiento presentado en (Michalska and Mayne, 1993) para el calculo de la
region terminal) y se toma como coste terminal una funcion proporcional a la
funcion de Lyapunov asociada al sistema linealizado en torno al origen en bucle
cerrado V (x) = a·xT ·P ·x. La estabilidad se garantiza demostrando que existe
una combinacion de la constante a y del horizonte de prediccion N tal que el
estado terminal resultante del problema de optimizacion (sin restriccion termi-
nal) alcanza un invariante positivo del sistema y la funcion de coste optimo es
estrictamente decreciente.
En (De Nicolao, Magni and Scattolini, 1998) se propone como coste terminal el
coste infinito incurrido por el sistema controlado por el controlador local. Esta
opcion es una aproximacion razonable al coste optimo en el estado terminal, por
lo que el coste del MPC sera proximo al del controlador optimo. La imposicion de
que el estado terminal alcance la region terminal se impone implıcitamente en la
suposicion de que la funcion de coste terminal solo esta definida en la region ter-
minal, tomando un valor infinito fuera de ella. La region terminal es un invariante
positivo del sistema controlado por el controlador local. En (Magni, De Nicolao,
Magnani and Scattolini, 2001), se propone una formulacion implementable del
controlador predictivo anterior. Se basa en considerar como funcion de coste ter-
minal una aproximacion truncada del coste infinito. Pero lo mas destacable de
22 1.5. Formulacion general del MPC
este trabajo es que considera un horizonte de prediccion mayor que el de control
gracias a la incorporacion del controlador local.
En (Jadbabaie, Yu and Hauser, 2001) se establece la estabilidad de un contro-
lador predictivo para sistemas sin restricciones, tomando como coste terminal
una funcion de Lyapunov de control y sin restriccion terminal. En este trabajo
se demuestra que existe una vecindad del origen en la cual la solucion optima
del problema sin restricciones, garantiza la satisfaccion de la restriccion termi-
nal. Ası, de una forma implıcita, se considera dicha restriccion. La eliminacion
de la restriccion terminal hace que el controlador se formule como un problema
de optimizacion sin restricciones, lo que permite su implementacion en sistemas
rapidos, como sistemas aeronauticos.
La formulacion del MPC incluyendo explıcitamente la restriccion terminal y la
funcion de coste terminal no se alcanza hasta el denominado MPC con horizonte
quasi-infinito (Chen and Allgower, 1998). Para el calculo de estos, se propone un
controlador local lineal con una funcion de Lyapunov cuadratica asociada tal que
garantiza que el coste terminal es una cota superior del coste optimo del estado
terminal controlado por el controlador local. De ahı la denominacion horizonte
cuasi-infinito, pues el coste optimo del MPC es una cota superior del coste optimo
(con horizonte infinito).
1.5. Formulacion general del MPC: necesidad de la
region terminal y el coste terminal
Como se ha mostrado anteriormente, las formulaciones del control predictivo con
garantıa de estabilidad han ido evolucionando hasta llegar a la necesidad de la region
terminal y del coste terminal de una u otra forma. Sorprendentemente, todas las estra-
tegias responden a unas condiciones generales de estabilidad. Este importante resultado
es el que se propuso en (Mayne et al., 2000). Este trabajo constituye una piedra angular
del control predictivo y una referencia obligada para futuros desarrollos en este campo.
En este trabajo se analizan las formulaciones existentes de controladores predictivos
con estabilidad garantizada y se establece que el control predictivo con coste terminal
y restriccion terminal puede, bajo ciertas condiciones, estabilizar asintoticamente un
sistema no lineal sujeto a restricciones. Ademas se establecen condiciones suficientes
sobre la funcion de coste terminal y la region terminal para garantizar dicha estabilidad.
Capıtulo 1. Motivacion y objetivos 23
Estas condiciones son las siguientes:
La region terminal Ω debe ser un conjunto invariante positivo admisible del siste-
ma. Es decir, que debe existir una ley de control local u = h(x) tal que estabiliza
el sistema en Ω y ademas la evolucion del sistema y las actuaciones en dicho
conjunto son admisibles.
El coste terminal V (x) es una funcion de Lyapunov 4 asociada al sistema regulado
por el controlador local, tal que
V (f(x, h(x)))− V (x) ≤ −L(x, h(x))
para todo x ∈ Ω. Por lo tanto, la ley de control local estabiliza asintoticamente
el sistema.
Considerando el analisis realizado en la seccion 1.3, se puede ver como las hipotesis
impuestas resuelven los problemas existentes y garantizan la estabilidad.
Necesidad de la region terminal invariante : Si la region terminal es un invarian-
te positivo, entonces el conjunto de estados factibles es el conjunto de estados es-
tabilizables en N pasos XN = SN(X, Ω). Considerese xk ∈ XN . Dada la ausencia
de discrepancias entre el modelo de prediccion y el sistema, se tiene que el estado
al que evoluciona el sistema es el predicho xk+1 = x(k + 1|k). Este estado puede
alcanzar la region Ω en N − 1 pasos, luego xk+1 ∈ XN−1. Gracias a que Ω es un
conjunto invariante, este conjunto tiene la propiedad que XN−1 ⊆ XN y por lo
tanto XN es un conjunto invariante positivo del sistema en bucle cerrado, lo que
garantiza la factibilidad del controlador en todo instante.
Necesidad del coste terminal como funcion de Lyapunov : bajo esta condicion
se garantiza que el coste optimo es estrictamente decreciente, y por lo tanto es
una funcion de Lyapunov del sistema. Esto garantiza la estabilidad asintotica del
sistema en bucle cerrado con restricciones.
La monotonıa de la funcion de coste optimo se basa en la existencia de una
secuencia de actuaciones factibles uF (k+1) basada en la solucion optima obtenida
en el instante anterior u∗F (k). Esta secuencia no es mas que los N − 1 terminos
que restan de la secuencia anterior mas la actuacion obtenida de la ley de control
4En el artıculo (Mayne, 2001), inspirado por (Jadbabaie et al., 2001), se extiende esta condicion afunciones de Lyapunov de control (CLF), que son mas generales que las funciones de Lyapunov.
24 1.5. Formulacion general del MPC
local. Ası, la diferencia entre el coste de esta secuencia, JN(xk+1), y el coste
optimo anterior, J∗N(xk), es
JN(xk+1)− J∗N(xk) = −L(xk, u∗(k|k)) +
L(x∗(k + N |k), h(x∗(k + N |k)))
+V (f(x∗(k + N |k), h(x∗(k + N |k))))− V (x∗(k + N |k))
La incorporacion del coste terminal garantiza que el termino entre llaves es ne-
gativo, y por lo tanto la secuencia factible tiene un coste menor que el optimo
anterior, por lo que la solucion optima tambien lo tendra. En consecuencia
J∗N(xk+1)− J∗N(xk) ≤ −L(xk, KMPC(xk))
y por lo tanto el coste optimo es una funcion de Lyapunov que decrece a lo
largo de la evolucion del sistema, lo que garantiza la estabilidad asintotica. Esta
demostracion se hace con mas detalle en el capıtulo siguiente, dedicado al analisis
de estabilidad del MPC.
Es importante resaltar que, aun en el caso en el que el controlador garantice la
estabilidad en bucle cerrado del sistema, la trayectoria seguida por el mismo no es
optima, en el sentido de que puede existir otra cuyo coste total a lo largo de la misma
sea inferior. Esto se deriva del horizonte finito considerado en la formulacion del pro-
blema. Ası, la trayectoria del sistema difiere de la trayectoria resultante de la secuencia
optima calculada en un instante (consecuencia derivada del principio de optimalidad
de Bellman).
Un resultado muy interesante relacionado con la estabilidad de los controladores
MPC es el denominado MPC suboptimo que se presenta en (Scokaert et al., 1999).
En este trabajo se demuestra que es la factibilidad de la solucion la que garantiza la
estabilidad, siempre que esta garantice un decrecimiento de la funcion de coste, no
siendo necesaria la optimalidad de la solucion obtenida al problema de optimizacion.
Esta consideracion es trascendental para la implementacion de controladores MPC en
sistemas no lineales. En efecto, el problema de optimizacion implicado en el MPC es
en general no convexo, y por lo tanto el problema puede presentar mınimos locales.
La obtencion del mınimo global es sumamente costosa comparada con la obtencion
de un mınimo local, y tanto mas comparada con la obtencion de una solucion que
simplemente presente un menor coste que la anterior.
Capıtulo 1. Motivacion y objetivos 25
1.6. Robustez de los controladores MPC
1.6.1. Introduccion
La estabilidad de los controladores predictivos se garantiza bajo la hipotesis de que
el modelo de prediccion coincide con el modelo del sistema a controlar. Sin embargo,
todo sistema tiene asociado un error con el modelo que representa su dinamica. Por ello,
para que un controlador sea aplicable debe poseer ciertas caracterısticas de robustez.
En el caso en que no hubiese incertidumbres, si se aplica la secuencia de actuaciones
obtenida en bucle abierto, el sistema evoluciona de una manera admisible hasta alcanzar
el conjunto terminal. Sin embargo, las posibles discrepancias existentes entre el modelo
de prediccion y el sistema real pueden hacer que su evolucion viole las restricciones o
bien que el controlador deje de ser factible o incluso que se pierda la convergencia del
sistema en bucle cerrado. El hecho de que el MPC se aplique mediante la estrategia de
horizonte deslizante hace que la actuacion se recalcule en cada periodo de muestreo, lo
que dota de realimentacion al sistema y por lo tanto de cierta robustez.
El estudio de la robustez se puede realizar desde dos puntos de vista: el del analisis
de robustez y el de la sıntesis de controladores robustos. En el primero, se parte de un
controlador MPC obtenido para un sistema sin considerar el efecto de las incertidum-
bres en su diseno y se determina que grado de incertidumbres es capaz de soportar
dicho controlador conservando la estabilidad del sistema.
El segundo enfoque es el de la sıntesis, por el cual se establecen formulaciones
del controlador que consideran en el calculo de las actuaciones el efecto que tienen las
incertidumbres sobre el sistema. El objetivo es por lo tanto garantizar, para cierto grado
de incertidumbres, la estabilidad, la satisfaccion de las restricciones y, a ser posible,
alguna especificacion sobre el desempeno.
A continuacion se trata el primer aspecto, abordandose la sıntesis de controladores
robustos en el siguiente apartado.
26 1.6. Robustez de los controladores MPC
1.6.2. Analisis de robustez de los controladores MPC
En el caso de sistemas lineales, existen numerosas tecnicas de analisis de robustez de
sistemas sin restricciones, pero pocas en el caso de sistemas con restricciones, pues, en
este caso el sistema en bucle cerrado puede ser no lineal. En (Zafiriou, 1990) se presentan
condiciones suficientes (y tambien necesarias) para garantizar la estabilidad nominal
y robusta del MPC. En (Genceli and Nikolau, 1993) se dan condiciones suficientes de
estabilidad robusta del DMC y se analiza el comportamiento del sistema en presencia de
incertidumbres. En (Primbs et al., 2000) se presenta un procedimiento para comprobar
la robustez de controladores predictivos de sistemas lineales con restricciones en las
entradas, basado en la solucion de una serie de desigualdades matriciales lineales (LMI).
La robustez de los controladores predictivos de sistemas no lineales se ha analizado
siguiendo dos lıneas: una en la que se explota la optimalidad del controlador, y otra
basada en la teorıa de Lyapunov.
En la lınea basada en la optimalidad del controlador, en (Glad, 1987) se presenta un
compendio de resultados de estabilidad robusta de controladores optimos para sistemas
no lineales en tiempo continuo, afines en la actuacion y sin restricciones. En este trabajo
se considera unicamente incertidumbres en las actuaciones de dos tipos: incertidumbres
en la ganancia, de forma que la actuacion real ur = φ(u) es una funcion (estatica) de
la actuacion que se aplica, e incertidumbres aditivas, de forma que ur = u + ψ(x). El
principal resultado de este trabajo es la demostracion de que el controlador optimo
estabiliza al sistema con incertidumbres de ganancia contenidas en el sector (1/2,∞),
es decir tal que
1
2·u2 < u·φ(u) < ∞
Este resultado se demuestra para el caso de una entrada y se extiende al caso de
multiples entradas, garantizandose la robustez en otro sector.
Este trabajo se extendio en (Geromel and Da Cruz, 1987) al caso de sistemas dis-
cretos afines en la actuacion, sin restricciones y con incertidumbres en las actuaciones,
considerando tambien horizonte infinito. En este trabajo se analiza la estabilidad del
sistema ante incertidumbres en la ganancia del controlador, obteniendose bajo ciertas
condiciones, un margen de estabilidad, que en el caso de una unica entrada, se reduce
al sector (0,5,∞), como en los sistemas continuos. En este trabajo tambien se analiza
el caso de incertidumbres aditivas en la ganancia.
Capıtulo 1. Motivacion y objetivos 27
En (De Nicolao et al., 1996) se extiende el trabajo de (Geromel and Da Cruz, 1987)
al analisis de robustez de sistemas discretos sin restricciones controlados con un MPC
con restriccion terminal. Si bien el trabajo original esta formulado para el caso de res-
triccion terminal nula, esta se puede extender al caso general pues esta basado en el
principio de optimalidad (De Nicolao et al., 1998). Siguiendo un desarrollo practica-
mente paralelo al desarrollado en (Geromel and Da Cruz, 1987), se obtienen resultados
semejantes.
Otra forma de demostrar la robustez del MPC general basada en la optimalidad
es la presentada en (Magni and Sepulchre, 1997). En este trabajo se demuestra la
optimalidad inversa del MPC: el controlador obtenido de un MPC con horizonte finito
y estabilidad garantizada para un sistema sin restricciones se puede considerar como un
controlador optimo con horizonte infinito considerando un coste de etapa modificado.
En consecuencia, todo controlador MPC hereda las propiedades de robustez de los
controladores optimos, y en particular, el margen de incertidumbre en la ganancia de
(0,5,∞).
El segundo enfoque para el analisis de robustez de los controladores es la teorıa de
Lyapunov, y se basa en la estabilidad asintotica (o bien, exponencial) que presentan es-
tos controladores. La idea basica consiste en garantizar que el coste optimo sigue siendo
una funcion de Lyapunov estrictamente decreciente a pesar de las incertidumbres. Es
por tanto una herramienta general y no aprovecha la optimalidad de los controladores,
sin embargo permite el analisis en presencia de restricciones, no consideradas en el
enfoque de la optimalidad. Es importante resaltar que la presencia de restricciones en
el controlador, en especial sobre los estados, impone un grado de complejidad mayor a
la robustez del controlador, pues se debe garantizar la satisfaccion de las restricciones
en presencia de las incertidumbres.
En (Scokaert, Rawlings and Meadows, 1997) se analiza la estabilidad robusta de los
controladores MPC con horizonte finito para sistemas en tiempo discreto con restric-
ciones bajo incertidumbres aditivas que decaen con el tiempo. Este analisis se orienta
a la estabilidad del MPC cuando se conecta en cascada un observador para estimar
los estados del sistema, suponiendo que el error en la estimacion de los estados decae
con el tiempo. Basandose en las propiedades de los sistemas exponencialmente estables
y bajo la continuidad Lipschitz de la ley de control, se demuestra que el controlador
MPC soporta cierto grado de incertidumbre.
En (De Nicolao et al., 1998) se presenta una formulacion estable del MPC y ademas
se analiza la estabilidad del controlador siguiendo la lınea de (Scokaert et al., 1997),
28 1.6. Robustez de los controladores MPC
considerando incertidumbres aditivas que decaen y cierta condicion de continuidad
sobre el coste optimo.
Todos estos trabajos demuestran que los controladores predictivos tienen cierto
grado de robustez de forma inherente, es decir, que ante cierto grado de incertidumbres,
el sistema mantiene la estabilidad. Otro problema distinto es la sıntesis de controladores
considerando las incertidumbres que presenta el sistema, el cual se trata en la siguiente
seccion.
1.6.3. Formulaciones robustas del MPC
Dado el alto grado de complejidad de los controladores predictivos (que incorporan
optimalidad y satisfaccion de restricciones en el control de sistemas no lineales), la in-
corporacion de las incertidumbres en el diseno es muy costosa, por lo que la mayor parte
de las formulaciones propuestas (con estabilidad garantizada) constituyen soluciones
meramente teoricas.
La forma habitual de considerar las incertidumbres en predictivo es incorporando
todas las posibles realizaciones de estas en la solucion del problema de optimizacion.
Ası, si el sistema incierto responde a un modelo
xk+1 = f(xk, uk, wk)
siendo wk el vector de incertidumbres tal que wk ∈ W ⊂ IRp. La prediccion de la
evolucion del sistema incierto a lo largo del horizonte depende de la realizacion de las
incertidumbres wF = wi con wi ∈ W para i = 0, · · · , N − 1. Considerando esta, el
controlador tiene la forma
mınuF (k)
JN(xk, uF (k),W )
s.a
u(k + j|k) ∈ U j = 0, · · · , N − 1
x(k + j|k) ∈ X j = 0, · · · , N − 1, ∀wF
x(k + N |k) ∈ Ω ∀wF
siendo el estado predicho
x(k + j + 1|k) = f(x(k + j|k), u(k + j|k), wk+j)
con x(k|k) = xk.
Capıtulo 1. Motivacion y objetivos 29
Notese que las restricciones en la evolucion de los estados se deben satisfacer de una
forma robusta, es decir, para todas las posibles realizaciones de las incertidumbres. La
incorporacion de restricciones en el estado complica notablemente el problema, pero,
aun en el caso en el que no haya restricciones sobre los estados, la restriccion terminal
siempre esta presente en el problema de optimizacion pues se anade para garantizar la
estabilidad del controlador.
El coste a optimizar JN(xk, uF (k),W ) puede basarse en las predicciones nominales
del sistema o bien considerar el efecto de las incertidumbres tomando, por ejemplo, la
peor situacion posible. Esto da lugar a la denominada formulacion min-max
JN(xk, uF (k),W ) = maxwF
N−1∑i=0
L(x(k + i|k), u(k + i|k), wk+i) + V (x(k + N |k))
Otra formulacion consiste en anadir un termino en la funcion de coste de etapa que
pondera la posible incertidumbre, como en la formulacion H∞.
Esta forma de considerar las incertidumbres es intuitiva y razonable, pero puede
conducir a soluciones muy conservadoras. Este conservadurismo radica en la naturaleza
misma del control predictivo: la prediccion en bucle abierto.
En efecto, el control predictivo surge como solucion practica e implementable de
controladores optimos, evitando la resolucion del problema de programacion dinamica
gracias a la resolucion en cada instante del problema de optimizacion asociado. Eso
hace que, en vez de obtener una ley de control uk = KN(xk), se obtiene una secuencia
actuaciones asociada al estado actual, xk. En el caso en que haya incertidumbres, la
factibilidad del problema se debe garantizar para todas las posibles incertidumbres.
Por tanto, para que la secuencia obtenida sea factible, debe garantizar que la evolucion
del sistema incierto satisfaga las restricciones para toda posible incertidumbre. En
consecuencia, el conjunto de estados para los cuales existe una solucion factible Xba,
puede ser muy reducido.
Entre los controladores predictivos que se pueden englobar en esta formulacion
esta el controlador min-max propuesto en (Campo and Morari, 1987) para sistemas
lineales, y el controlador dual robusto presentado en (Michalska and Mayne, 1993).
En este trabajo se presenta el denominado MPC dual y se propone un procedimiento
que garantiza robustez. Este procedimiento parte de un controlador local robusto con
un invariante positivo robusto asociado Ω. Sin embargo, considera en el problema de
optimizacion un conjunto φ ⊂ Ω, de forma que la secuencia optima para la region
30 1.6. Robustez de los controladores MPC
conservadora garantice que el estado terminal incierto este contenido en Ω. Esta idea
permite garantizar la satisfaccion robusta de la restriccion terminal.
Si se considera, en vez de una secuencia de actuaciones, una ley de control en la
optimizacion, la actuacion a aplicar en cada estado predicho para una determinada
realizacion de las incertidumbres, depende del estado en que se encuentra y en conse-
cuencia, de la realizacion de las incertidumbres. Por tanto la actuacion puede compen-
sar el efecto de las mismas con el fin de satisfacer las restricciones. En consecuencia, el
conjunto de estados que pueden satisfacer las restricciones de este modo Xbc es mucho
mayor, de forma que
Xba ⊂⊂ Xbc
La incorporacion de esta idea en el controlador MPC da lugar a la denominada
formulacion en bucle cerrado y fue introducida en (Scokaert and Mayne, 1998; Lee and
Yu, 1997) en el contexto del min-max. En esta formulacion, el problema de control no
esta planteado en terminos de una secuencia de actuaciones, sino de una secuencia de
leyes de control
πF = u, π1(x) · · · , πN−1(x)lo cual hace que el problema de optimizacion implicado sea infinito-dimensional. En
consecuencia estos controladores constituyen (por ahora) una herramienta meramente
teorica (Mayne et al., 2000). Sin embargo, estas consideraciones han permitido enfocar
mejor el problema de la robustez, dando un giro en la investigacion en este campo.
Esta formulacion se sigue tambien en (Magni, Nijmeijer and van der Shaft, 2001),
donde se propone un controlador H∞ con horizonte deslizante para un sistema no lineal,
afın en la actuacion y sin restricciones.
Dentro del control predictivo en bucle cerrado se pueden considerar otras formu-
laciones como por ejemplo el trabajo presentado en (Kothare, Balakrishnan and Mo-
rari, 1996). En este se propone un controlador que estabiliza una planta incierta tal
que se puede expresar en cada instante como una combinacion convexa de una serie
de plantas lineales y que presenta restricciones en los estados y en las actuaciones. En
esta formulacion se considera como variable de optimizacion un controlador lineal que
estabiliza todas las plantas y se puede plantear como un LMI que se resuelve en cada
instante.
Tambien se pueden considerar dentro de los controladores en bucle cerrado los
trabajos (Bemporad, 1998a) y (Chisci, Rossiter and Zappa, 2001) en los cuales se
Capıtulo 1. Motivacion y objetivos 31
parametriza la ley de control como uk = K·xk + vk, siendo K·x una ley de control que
estabiliza la planta nominal. El controlador predictivo se formula en terminos de vk. Las
restricciones en los estados y en las actuaciones son politopicas, y por lo tanto, tras el
cambio de variables siguen siendo politopicas. Esta tecnica mejora el condicionamiento
numerico del problema de optimizacion y en cierta forma, el controlador anadido reduce
el efecto de las incertidumbres, pues anade cierta realimentacion en las predicciones en
bucle abierto. Recientemente (Mayne, Seron and Rakovic, 2005) se ha aprovechado esta
idea para disenar un controlador robusto prealimentado basado en la nocion de tubo
(Langson, Chryssochoos, Rakovic and Mayne, 2004). Este controlador se explicara de
forma mas detallada en el siguiente capıtulo.
Ademas, en (Chisci and Zappa, 1999) se anade una restriccion adicional con el fin
de garantizar la satisfaccion robusta de las incertidumbres. Esta idea se generaliza al
caso no lineal en (Kerrigan, 2000), donde se analiza utilizando la teorıa de conjuntos
invariantes la satisfaccion robusta de las restricciones.
Todas estos controladores reducen el conservadurismo de la formulacion en bucle
abierto, pero siguen siendo mas conservadoras que la formulacion en bucle cerrado. A
su favor tienen que son controladores mas facilmente implementables.
32 1.6. Robustez de los controladores MPC
Capıtulo 2
MPC para tracking de sistemas con
puntos de operacion cambiantes
El control predictivo basado en modelo (en ingles Model Predictive Control, MPC)
es una tecnica de control que permite considerar restricciones, en estados y entradas
del sistema, en el diseno del controlador. Eso se consigue prediciendo la evolucion
del sistema y calculando la secuencia admisible de senales de control que minimice
un funcional de coste, tal que la evolucion del sistema satisfaga las restricciones. El
problema se puede plantear como un problema de optimizacion; la secuencia de control
obtenida se aplica con una tecnica de horizonte deslizante, resolviendo el problema de
optimizacion en cada periodo de muestreo.
La base teorica del MPC hoy en dıa es bien conocida y la estabilidad asintotica
esta garantizada por medio de una apropiada penalizacion del estado final y anadiendo
una restriccion final (Mayne et al., 2000).
La mayorıa de los resultados sobre MPC, consideran el problema de regulacion,
es decir el problema de llevar el sistema al punto de equilibrio deseado, en general el
origen. En (Limon et al., 2007a) se propone un diseno de MPC para el seguimiento
sin offset de una secuencia admisible de referencias. Esta claro que para una referencia
distinta de cero, se puede hacer un cambio de coordinadas de forma que el unico punto
de equilibrio sea el origen (Muske and Rawlings, 1993). Sin embargo, la eleccion de un
coste terminal y de restricciones depende del estado de equilibrio deseado; ası un cambio
de referencia necesita un nuevo diseno del controlador. Este enfoque no es factible por
33
34
la elevada cantidad de calculo que se necesita.
Existen algunos resultados para resolver el problema de tracking de sistemas li-
neales. Un primer enfoque notable es el control de referencia (Gilbert et al., 1994),
donde se anade un filtro no lineal de la referencia para garantizar la evolucion admisi-
ble del sistema. Esto es como anadir una referencia artificial (la salida del filtro). En
(Bemporad et al., 1997) se disena un control de referencia para minimizar un ındice de
prestaciones de la evolucion predicha del sistema. En (Blanchini and Miani, 2000) se
prueba que cualquier conjunto invariante para el sistema sujeto a restricciones es un
dominio de atraccion para el seguimiento y se propone una ley de control basada en
interpolaciones.
En (Rossiter and Kouvaritakis, 1998) y (Bemporad et al., 1997) se muestra como
existen semejanzas entre controladores predictivos y gobernadores de mando: los dos
calculan una accion de control para que las restricciones sean satisfechas y se garantice
convergencia a la referencia. La principal diferencia es la manera de considerar esta
accion de control. En (Chisci and Zappa, 2003) se presenta una estrategia de controlador
dual basada en MPC: si el MPC no es factible, el controlador cambia a un modo de
recuperacion de factibilidad, que conduce el sistema a la region de factibilidad del
MPC.
En ese capıtulo se presenta una nueva formulacion de MPC que permite realizar
el seguimiento de cualquier referencia, en una evolucion admisible. Las principales
caracterısticas de ese controlador son:
Se considera un punto de equilibrio artificial como variable de decision.
Se modifica el funcional de coste, penalizando la diferencia entre el punto de
equilibrio artificial y el punto de equilibrio deseado.
Se considera una restriccion terminal extendida, anadendo un termino de pena-
lizacion del error de tracking en el funcional de coste y anadendo una restriccion
terminal en el estado terminal y en el punto de equilibrio artificial.
El controlador permite alcanzar cualquier punto de equilibrio admisible, y si no lo
es, el sistema alcanza el punto admisible mas cercano. La ley de control se obtiene
resolviendo un unico problema de optimizacion QP multiparametrico, y entonces la ley
de control se puede calcular con tecnicas bien conocidas (Bemporad et al., 2002), y
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 35
aplicar a sistemas rapido. El controlador propuesto es interesante tambien en caso de
problemas de regulacion porque permite obtener un mayor dominio de atraccion con
un funcionamiento local casi optimo. La perdida de optimalidad local se puede reducir
penalizando el error de tracking.
2.1. Descripcion del problema
Sea el sistema lineal discreto descrito por:
x+ = Ax + Bu (2.1)
y = Cx + Du
donde x ∈ Rn es el estado actual del sistema, u ∈ Rm es la entrada actual, y ∈ Rp
es la salida actual y x+ es el estado siguiente. El estado del sistema y la senal de
control aplicada en el instante k se denotan como x(k) y u(k). El sistema esta sujeto
a restricciones en el estado y en la entrada:
(x(k), u(k)) ∈ Z
para k ≥ 0. Z ⊂ Rn+m es un poliedro compacto y convexo que contiene el origen:
Z = z ∈ Rn+m : Azz ≤ bz (2.2)
con z = (x, u), estado extendido del sistema.
Hipotesis 2.1 La pareja (A,B) es estabilizable.
El problema que se considera es el diseno de un controlador MPC para el seguimiento
de una referencia constante a trozos s(k) de manera que las restricciones sean siempre
respetadas.
36 2.2. Resultados preliminares
2.2. Resultados preliminares
2.2.1. Calculo de los puntos de equilibrios admisibles
En ese apartado se describe la estrategia para el calculo de los puntos de equilibrio
admisibles que permiten obtener la salida deseada. Es decir, dado un set-point s, el
conjunto de estados de equilibrio (xs, us) tal que Cxs + Dus = s.
Sea s un set-point para el sistema y zs = (xs, us) el punto de equilibrio asociado a
este set-point, tal que:
[A− In B
C D
] [xs
us
]=
[0n,1
s
](2.3)
Sea
E =
[A− In B
C D
], F =
[0n,1
Ip
](2.4)
con Ip matriz identidad de orden p. La ecuacion 2.3 se puede escribir como:
Ezs = Fs
La solucıon de esta ecuacion esta caracterizada por el siguiente lema:
Lema 2.1 Sea el sistema (2.1) tal que (A,B) es estabilizable. Sea r el rango de la
matriz E y sea (U, Σ, V ) la mınima descomposicion en valores singulares de la matriz
E, es decir, E = UΣV T , siendo U ∈ IR(n+p)×r, Σ ∈ IRr×r una matriz diagonal no
singular y V ∈ IR(n+m)×r tales que UT U = I y V T V = I.
Entonces la pareja (zs , s) es una solucion de la ecuacion (2.3) si y solo si existe un
vector θ ∈ IRnθ tal que
zs = Mθθ (2.5)
s = Nθθ
donde las matrices M y N vienen dadas por
M =
[V Σ−1UT FG V⊥
]si r < n + m
V Σ−1UT FG si r = n + m(2.6)
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 37
N =
[G 0p,n+m−r
]si r < n + m
G si r = n + m(2.7)
siendo
G =
Ip si r = n + p
(F T U⊥)⊥ si r < n + p(2.8)
Demostracion:
Primeramente se va a asumir que r < n + m. Para demostrar el lema en este caso,
considerese los dos casos siguientes:
El rango de E es n + p :
En este caso la mınima descomposicion en valores singulares de E viene dada por
E = UΣV T donde U es una matriz invertible. Entonces
EMθ = UΣV T [V Σ−1UT FG V⊥]θ
= [UΣV T V Σ−1UT FG UΣV T V⊥]θ
De las propiedades de las matrices U y V se tiene que UΣV T V Σ−1UT = I y
V T V⊥ = 0, por lo que
EMθ = [FG 0n+p,n+m−r]θ
= F [G 0p,n+m−r]θ = Fs
El rango de E es menor que n + p:
En este caso la mınima descomposicion en valores singulares de E viene dada
por E = UΣV T donde U no es de rango maximo. Tomese entonces la siguiente
matriz invertible Π = [U U⊥]T , entonces la ecuacion (2.3) se satisface si y solo
si ΠEzs = ΠFs. Teniendo en cuenta que E = UΣV T , la parte izquierda de la
ecuacion queda de la siguiente forma
[UT
UT⊥
]UΣV T zs =
[UT UΣV T zs
UT⊥UΣV T zs
]=
[ΣV T zs
0
]
Por lo que zs sera solucion si y solo si se cumplen las siguientes ecuaciones:
ΣV T zs = UT Fs (2.9)
0 = UT⊥Fs (2.10)
38 2.2. Resultados preliminares
Evaluando la parte izquierda de la ecuacion (2.9) se tiene que
ΣV T zs = ΣV T [V Σ−1UT FG V⊥]θ
= [UT FG 0]θ = UT F [G 0]θ = UT Fs
lo cual demuestra la ecuacion (2.9). Por otro lado, dado que s = [G 0]θ, la parte
derecha de la ecuacion (2.10) viene dada por
UT⊥Fs = UT
⊥F [G 0]θ = [UT⊥FG 0]θ
De la definicion de la matriz G se puede deducir que UT⊥FG = 0 y por lo tanto
la ecuacion (2.10) se satisface.
En el caso en que r = n+m entonces V⊥ no existe y la demostracion para este caso
se puede deducir directamente del caso anterior.
Hay que indicar que la ecuacion (2.3) siempre tiene solucion y la forma de dicha
solucion depende del rango de la matriz E.
Sea rg el rango de la matriz G, que es de rango completo por columnas y satisface
que rg ≤ p. Entonces, la dimension del vector θ resulta ser nθ = rg +n+m− r. Ası, las
primeras rg componentes de θ estan determinadas por el valor de consignas deseadas s
y en el caso de que r < n+m, las restantes n+m−r componentes pueden considerarse
variables libres.
El conjunto de referencias que se pueden alcanzar viene dado por el subespacio
generado por las columnas de G. Ası este subespacio dependera del rango de E, segun
los siguientes casos:
1. Si r = n + p entonces rg = p y por lo tanto las salidas del sistema podrıan
alcanzar cualquier valor de s.
2. Si r < n + p entonces rg < p y en consecuencia no todo valor de s podra alcan-
zarse, si no tan solo aquellas referencias s que se puedan generar por las columnas
de G. Por lo tanto, a la hora de disenar el controlador, si se proveen valores de
referencia no pertenecientes al subespacio columna de G, el controlador nunca
podra controlar el sistema sin error en regimen permanente, por lo que se debe
cuidar el proveer solo valores de s adecuados.
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 39
La forma habitual de evitar esta situacion consiste en redefinir el sistema consi-
derando nuevas variables a controlar yc = Lcy ∈ IRpc con pc ≤ rg de forma tal
que la matriz Lc debe garantizar que el rango de la nueva matriz
Ec =
[A− In B
LcC LcD
]
sea n + pc.
Siendo el sistema sujetos a restricciones, el sistema debe alcanzar unos estados de
equilibrio que satisfagan las restricciones. El conjunto de estados de equilibrio admisi-
bles esta definido como:
Zs = zs = (xs, us) : zs ∈ Z, y (A− In)xs + Bus = 0
Entonces el conjunto de estados admisible y el conjuntos de entradas admisibles son:
Xs = Projx(Zs), Us = Proju(Zs)
El conjunto de todos los set-point admisibles es el conjunto S:
S = s ∈ Rp : ∃zs = (xs, us) ∈ Zs tal que s = Cxs + Dus
Dado un set-point admisible s ∈ S, el punto de equilibrio zs que corresponde al valor
de la salida s, es unico si y solo si el rango de E es igual a n + m. Si el rango de E es
menor que n + m, entonces existen infinitos puntos de equilibrio zs, tal que la salida
correspondiente sea igual a s.
2.3. Calculo del conjunto invariante para tracking
En esta seccion se presenta el concepto de conjunto invariante de un sistema lineal
con puntos de operacion cambiantes y se presenta un procedimiento para su determina-
cion. Las definiciones y resultados que se van a presentar a continuacion se encuentran
en (Limon et al., 2007a).
Considerese el sistema (2.1) para el cual se disena una ley de control lineal estabi-
lizante para alcanzar un punto de equilibrio determinado (xs, us) dada por la siguiente
ley
u = K(x− xs) + us, (2.11)
40 2.3. Calculo del conjunto invariante para tracking
siendo K ∈ IRm×n la matriz de ganancia del controlador tal que A + BK es Hurwitz1,
esto es, con todos sus polos en el interior del cırculo unidad. Es claro que el sistema
nominal controlado por este garantiza que x(k) tiende a xs.
Sustituyendo la ecuacion (2.5) en la anterior ecuacion (2.11) se tiene que
u = Kx + [−K Im]zs
= Kx + [−K Im]Mθθ.
Lo cual se puede reescribir como
u = Kx + Lθ, (2.12)
siendo L = [−K Im]M ∈ IRm×nθ .
En esta seccion se quiere determinar el conjunto de estados iniciales y puntos de
equilibrio (es decir (x0, θ)) tales que el sistema controlado por la ley de control (2.12)
evolucione de forma admisible hasta alcanzar dicho punto de equilibrio.
Para ello resulta conveniente definir el siguiente estado extendido w = (x, θ) y
expresar el sistema nominal controlado por (2.12) de la siguiente forma
[x
θ
]+
=
[A + BK BL
0 Inθ
] [x
θ
](2.13)
siendo L = [−K Im]M . Observese que se ha considerado que el punto de equilibrio que
se quiere alcanzar no cambia. Esto se puede escribir de una forma mas compacta:
w+ = Aww
El conjunto de estados w para los cuales el sistema resulta admisible resulta ser
Wλ = w = (x, θ) ∈ IRn+nθ : z = (x,Kx + Lθ) ∈ Z, zs = Mθθ ∈ λZdonde λ ∈ (0, 1) es un parametro arbitrariamente cercano a 1. Esta claro que W = Wλ.
Eso quiere decir que (x, u) = (x,Kx + Lθ) y (xs, us) = Mθθ pertenecen a Z.
El conjunto de estados y puntos de equilibrio que se pretende determinar debe ser
un conjunto invariante del sistema (2.13) contenido en el conjunto Wλ. Un conjunto
1En este trabajo, con cierto abuso de notacion, se dice que una matriz es Hurwitz cuando representala matriz de transicion de un sistema estable, que el caso de sistemas discretos ocurre cuando el modulode todos sus autovalores es inferior a 1
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 41
Ωw es un conjunto invariante admisible para tracking, para el sistema (2.13) sujeto a
las restricciones W, si ∀w ∈ Ωw, entonces Aww ∈ Ωw y Ωw ⊆ W. El maximo conjunto
invariante Ωw es el siguiente :
Ow∞ = w : Ai
ww ∈ W, ∀i ≥ 0
que es el maximo invariante positivo (Gilbert and Tan, 1991). Este conjunto puede no
estar finitamente determinable, debido a que Aw tiene autovalores iguales a 1. Enton-
ces, considerese Wλ como conjunto de restricciones. En este caso, el maximo conjunto
invariante admisible es:
Ow∞,λ = w : Ai
ww ∈ Wλ,∀i ≥ 0
Considerando que el controlador (2.11) garantiza que (x, u) converge asintoticamente
a (xs, us) y utilizando argumentos semejantes a los que se presentan en (Gilbert and
Tan, 1991), se demuestra que dado un λ ∈ (0, 1), Ow∞,λ esta finitamente determinado
y λOw∞ ⊂ Ow
∞,λ ⊂ Ow∞. Dado que λ se puede escoger arbitrariamente cerca de 1,
el conjunto invariante que se obtiene es arbitrariamente cerca del maximo conjunto
invariante Ow∞.
A continuacion, el superındice w indica que el conjunto Ow∞,λ esta definido en el
estado extendido, y el ausencia del superındice indica que O∞,λ esta definido en le
vector de estados x, es decir O∞,λ = Projx(Ow∞,λ).
Desde ahora O∞(xs) indica el maximo conjunto invariante de estados que pueden
alcanzar xs en una forma admisible por medio de la ley de control (2.11). Esta claro
que:
O∞,λ =⋃
xs∈λXs
O∞(xs)
Esta claro que el conjunto λXs esta en O∞,λ y el conjunto de set-point asociados a ese
invariant set es λS.
2.4. Puntos de operacion a seguir
El objetivo principal de un controlador es alcanzar un punto de operacion y mante-
ner la planta en ese punto. Ese punto de operacion muchas veces esta determinado por
un optimizador de set-point que determina el punto de operacion segun unos criterios
y basandose en un modelo de la planta.
42 2.4. Puntos de operacion a seguir
El controlador calcula la accion de control considerando el estado corriente de la
planta y el punto de operacion objetivo. Entonces la ley de control depende de como el
optimizador de set-point provee el punto de operacion objetivo. Hay distintas formas:
1. Objetivo en la salida yt, por ejemplo los valores deseados de las variables de
proceso
2. Objetivo en el estado xs, que es un punto de equilibrio para el modelo lineal que
el controlador utiliza.
3. Objetivo en la entrada ut, por ejemplo el valor deseado de las variables de control.
4. El parametro θ que caracteriza el estado y la entrada de equilibrio del modelo
lineal utilizado por el controlador.
5. Objetivo en el estado zt = (xt, ut) que no es un estado de equilibrio del modelo
utilizado por el controlador.
En el primer caso, se quiere asegurar que cualquier objetivo en la salida es po-
tencialmente alcanzable, es decir, la consigna en la salida corresponde a un punto de
equilibrio del modelo lineal. Esa propiedad esta garantizada si el rango de la matriz E
en la ecuacion (2.3) es igual a n + p. En los casos 2,3,4 existe una pareja estado-salida
de equilibrio del modelo lineal que corresponde al punto operativo de la planta. La ma-
nera mas compacta para caracterizar un punto de equilibrio para el sistema lineal es
el parametro θ; entonces el punto de operacion en estos tres casos puede representarse
como un valor del parametro θ y la ley de control depende del estado y del valor de
ese parametro, es decir, u = KN(x, θ).
En el ultimo caso, el punto de operacion no es un punto de equilibrio del modelo
lineal utilizado por el controlador, y por lo tanto, no se puede representar por medio
de θ. En ese caso, la ley de control esta dada por u = KN(x, zt).
Vale la pena observar que la admisibilidad del punto de operacion no es la cuestiıon a
resolver en esa fase, porque el controlador propuesto asegura una trayectoria admisible,
llevando el sistema al mas cercano punto de equilibrio admisible para el modelo lineal.
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 43
2.5. MPC para tracking
En ese apartado se presenta el controlador MPC para tracking. Se asume que el
punto de operacion objetivo es un punto de equilibrio para el sistema lineal y es deter-
minado por el optimizador de set-point como valor objetivo del parametro θ.
Ese controlador predictivo se caracteriza por el utilizo de un punto de equilibrio
artificial como variable de decision, por el utilizo de un funcional de coste modificado
y de una restriccion terminal extendida. Considerese la siguiente hipotesis.
Hipotesis 2.2
1. Sean Q ∈ Rn×n y R ∈ Rm×m dos matrices definidas positivas.
2. Exista una constante σ > 0 tal que σT ≥ MTx Mx, con Mx = [In,0n]Mθ.
3. Sea K ∈ Rm×n una ganancia de control estabilizable tal que (A + BK) sea Hur-
witz.
4. Sea P ∈ Rn×n una matriz definida positiva tal que:
(A + BK)T P (A + BK)− P = −(Q + KT RK)
5. Sea Owt,K ⊆ Rn+nθ un conjunto invariante poliedrico admisible para tracking para
el sistema (2.1) sujeto a las restricciones (2.2), y para una dada ganancia K.
Para garantizar la factibilidad del problema para cualquier estado extendido deseado
zs = (xs, us) = Mθθ, se introduce un estado extendido artificial zs = (xs, us) = Mθθ
como variable de decision en el funcional de coste. Ademas, la convergencia a un estado
de equilibrio deseado se asegura anadendo un coste de offset en el funcional de coste,
es decir, ‖θ− θ‖2T que penaliza el error entre el estado de equilibrio real y el estado de
equilibrio artificial (se observe que ‖xs − xs‖2H se puede representar en la forma en θ
considerando T = MTx HMx). Entonces, el funcional de coste propuesto es:
VN(x, θ,u, θ) =N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R
+‖x(N)− xs‖2P + ‖θ − θ‖2
T
44 2.5. MPC para tracking
donde u es una secuencia de N entradas de control futuras, u = u(0), ..., u(N − 1),x(i)) es el estado predicho en el instante i dado por x(i + 1) = Ax(i) + Bu(i), con
x(0) = x.
Considerando el funcional de coste, el problema de optimizacion PN(x, θ) para el
MPC propuesto esta dado por:
V ∗N(x, θ) = mın
u,θVN(x, θ,u, θ)
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
Los vectores u y θ son las variables de decision, mientras x y θ son los parametros
del problema PN(x, θ). Ademas el problema resulta ser un problema de programacion
cuadratica estandar, que se puede resolver eficientemente por medio de algoritmos
especıficos. A continuacion se denota con el superındice ∗ la solucion del problema de
optimizacion, es decir u∗ y θ∗.
Las restricciones de PN(x, θ) no dependen de θ. Eso implica que existe una region
XN ⊂ Rn tal que ∀x ∈ XN , PN(x, θ) es factible para cualquier θ ∈ Rnθ . El controlador
se implementa utilizando la estrategia del horizonte deslizante (receding horizon). En
cada paso k, se resuelve PN(x, θ) y se aplica u = KN(x, θ) = u∗(0). El siguiente teorema,
que prueba la estabilidad del controlador, se demuestra en (Limon et al., 2007a):
Teorema 2.1 (Estabilidad) Sean validas las hipotesis 2.1 y 2.2 y sea Ωwt,K = Ow
∞,λ
para un dado λ ∈ (0, 1). Sea un punto de operacion objetivo dado por θ tal que
zs = (xs, us) = Mθθ ∈ λZs. Entonces, para cualquier estado inicial factible x0 ∈ XN
el controlador MPC propuesto κN(x, θ) lleva el sistema asintoticamente al punto de
equilibrio z∗s = (x∗s, u∗s) ∈ λZs satisfaciendo las restricciones en cada instante.
La demostracion del teorema se encuentra en (Limon et al., 2007a). En la siguiente
seccion se presentan las propiedades de este controlador2.
2Las demostraciones de estas propiedades se encuentran en (Alvarado, 2007)
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 45
2.5.1. Propiedades del controlador
El controlador MPC para tracking propuesto en este capıtulo se caracteriza por
unas interesante propiedades.
La primera de estas propiedades muestra como el controlador pueda utilizarse para
el seguimiento de puntos de operacion cambiantes o incluso trayectorias de referencia,
conservando la factibilidad y la admisibilidad. Esta propiedad vale para cualquier va-
lor N del horizonte de prediccion, ası que el controlador puede seguir una referencia
admisible incluso para N = 1, si el sistema parte de un punto de equilibrio.
Propiedad 2.1 (Punto de operacion cambiantes) :Dado cualquier x(0) ∈ XN y
considerando que el punto de operacion esta definido por una secuencia θ(k), entonces
x(k) ∈ XN para cualquier k ≥ 0.
La segunda propiedad importante es que el controlador propuesto es interesante
tambien en caso de problemas de regulacion porque permite obtener un mayor dominio
de atraccion.
Propiedad 2.2 (Aumento del dominio de atraccion) : Considerese un punto de
operacion zs = (xs, us) = Mθθ ∈ λZs. Considerese un MPC para tracking estabilizador,
y considerese un MPC para regulacion tambien estabilizador para regular el sistema a
xs Entonces el dominio de atraccıon del controlador MPC para tracking es mayor de
el del controlador MPC para regulacion.
La siguiente propiedad se refiere al caso en que el punto de operacion a seguir no
es admisible. En ese caso, el controlador lleva el sistema en un punto de equilibrio
admisible tal que la distancia entre este punto y el punto de operacion deseado sea
mınima. Ademas esta distancia se calcula en el coste de offset del funcional de coste,
que va elegido segun dados criterios.
Propiedad 2.3 (Minimizacion del offset) : Considerese un punto de operacion (xs, us) =
Mθθ 6∈ λZs. Entonces, para cualquier x(0) ∈ XN , el estado del sistema satisfacen
x(k) ∈ XN y converge a un punto de equilibrio (x∗s, u∗s) = Mθθ
∗ ∈ λZs tal que:
θ∗ = arg mınθ‖θ − θ‖2
T
Mθθ ∈ λZs
46 2.5. MPC para tracking
que es el punto de equilibrio admisible que minimiza el coste de offset.
Los controladores predictivos se pueden considerar como controladores sub-optimos
dado que se minimiza el funcional de coste para un horizonte de prediccion finito. Si se
utilizara un horizonte de prediccion infinito, el coste serıa el mınimo. Este controlador
se puede calcular para sistemas lineales sin restricciones, pero en caso de presencia de
restricciones el calculor resulta ser mas complicado. En (Hu and Linnemann, 2002)
se demuestra que si el coste terminal es el coste optimo de un LQR sin restricciones,
entonces el controlador MPC a horizonte finito resulta ser igual al controlador LQR
con restricciones en un entorno de la region terminal. El controlador MPC presentado
en ese capıtulo no puede satisfacer esa propiedad debido a la presencia del coste de
offset. La siguiente propiedad demuestra como se pueda obtener un coste mas cercano
del optimo por medio de una adecuada penalizacion del coste de offset.
Propiedad 2.4 (Optimalidad local) : Sea KrN(x, θ) el controlador MPC para regu-
lacion calculado para un punto de equilibrio objetivo (xs, us) = Mθθ. Sea V rN(x, θ) el
funcional de coste correspondiente y sea XrN el dominio de atraccion. Entonces, dado un
ε > 0, existe T > 0 tal que |V rN(x, θ)−V ∗
N(x, θ)| ≤ ε para cualquier x ∈ XrN . Ademas, sea
Υ ⊂ Rn la region en la cual KrN(x, θ) = Kr
∞(x, θ) (por ejemplo V rN(x, θ) = V r
∞(x, θ)),
entonces para cualquier ε > 0 existe T > 0 tal que |V r∞(x, θ)−V ∗
N(x, θ)| ≤ ε, para todos
x ∈ Υ.
Para poder aplicar el controlador propuesto, hay que resolver el problema PN(x, θ).
Se trata de un problema de optimizacion cuadratico que se puede resolver en un tiem-
po polinomial. El numero de variables de decision es Nm + nθ, y entonces la carga
computacional crece con N .
Dado que ese controlador provee un dominio de attraccion mayor que el que provee
el MPC para regulacion, entonces el horizonte de prediccion necesario para estabilizar
un dado conjunto de estados iniciales es mas pequeno, ası como la carga computacional.
Ademas, si el estado inicial es un estado de equilibrio admisible, el MPC para tracking
propuesto puede controlar el sistema para cualquier horizonte de prediccion N ≥ 1, y
entonces el numero de variables de decision puede ser incluso m + nθ. Eso representa
una importante reduccion del coste computacional.
En la siguiente propiedad se demuestra que el problema de optimizacion PN(x, θ) es
un problema de optimizacion cuadratico multiparametrico y la ley de control KN(x, θ)
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 47
es una funcion affine a trozos de (x, θ), que se puede calcular fuera de linea (Bemporad
et al., 2002). Esa funcion affine a trozos se define un un conjunto de regiones criticas,
que en realidad son particiones de la region de factibilidad. Eso permite reducir la carga
computacional de la implementacion en linea del controlador, dado que es suficiente
encontrar la region critica activa y aplicar la correspondiente funcion affine. La busque-
da de esa region se puede realizar mediante una estrategia a arbol (Tøndel, Johansen
and Bemporad, 2002).
Propiedad 2.5 (Solucion explıcita) : La ley de control KN(x, θ) que se obtiene re-
solviendo el problema de optimizacion PN(x, θ) es una funcion affine a trozos de la
pareja (x, θ), y se puede escribir como:
u = Kx(j)x + Kθ(j)θ + c(j), (x, θ) ∈ Γj
donde el conjunto de nr regiones Γj es una particion de XN×Rnθ , por ejemplo Γj
⋂Γi =
Ø para cualquier j 6= i y⋃nr
j=1 Γj = XN × Rnθ .
2.6. MPC para el tracking de puntos de operacion
incoherentes con el modelo de prediccion
En este apartado se considera el caso en el que el punto de operacion objetivo zt
no es un punto de operacion coherente con el modelo lineal de prediccion. En ese caso
el punto de operacion puede que no sea un punto de equilibrio para el modelo lineal,
y entonces no se puede representar como un valor del parametro θ. Ademas la ley de
control tiene que calcular la accion de control considerando el estado corriente y el punto
de operacion objetivo, es decir u = KN(x, zt). El coste de offset y las demostraciones
de estabilidad y convergencia consideradas en el precedente apartado no valen en ese
caso, no pudiendo expresar el punto de operacion como θ.
Considerese la siguiente hipotesis.
Hipotesis 2.3
1. Sean Q ∈ Rn×n y R ∈ Rm×m dos matrices definidas positivas.
48 2.6. MPC para el tracking de puntos de operacion incoherentes
2. Sea H ∈ R(n+m)×(n+m) una matriz semidefinida positiva tal que exista una cons-
tante σ > 0 que satisfaga
σH ≥[
In 0
0 0
]
3. Sea K ∈ Rm×n una ganancia de control estabilizable tal que (A + BK) sea Hur-
witz.
4. Sea P ∈ Rn×n una matriz definida positiva tal que:
(A + BK)T P (A + BK)− P = −(Q + KT RK)
5. Sea Owt,K ⊆ Rn+nθ un conjunto invariante poliedrico admisible para tracking para
el sistema (2.1) sujeto a las restricciones (2.2), y para una dada ganancia K.
El funcional de coste que se considera en ese caso es:
VN(x, zt,u, θ) =N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R
+‖x(N)− xs‖2P + ‖zs − zt‖2
H
donde zs = (xs, us) = Mθθ. Considerando el funcional de coste, el problema de optimi-
zacion PN(x, zt) para el MPC propuesto esta dado por:
V ∗N(x, zt) = mın
u,θVN(x, zt,u, θ)
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
La ley de control esta dada por KN(x, zt) = u∗(0; x, zt). Es evidente que este problema
de optimizacion difiere de el presentado en el precedente apartado solo por el funcional
de coste. Entonces la region de factibilidad es la misma y se indica siempre como XN .
Teorema 2.2 (Estabilidad) Sean validas las hipotesis 2.1 y 2.3 y sea Ωwt,K = Ow
∞,λ
para un dado λ ∈ (0, 1). Sea un punto de operacion objetivo dado por zt = (xt, ut).
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 49
Entonces, para cualquier estado inicial factible x0 ∈ XN el controlador MPC propuesto
κN(x, zt) lleva el sistema asintoticamente al punto de equilibrio z∗s = (x∗s, u∗s) ∈ λZs
satisfaciendo las restricciones en cada instante. Ademas el punto de equilibrio es tal
que:
z∗s = mınzs∈λZs
‖zs − zt‖2H
2.7. Aplicacion a una maqueta de helicoptero
En este apartado se presenta como ejemplo la aplicacion del controlador propues-
to a una maqueta de helicoptero, con el objetivo de controlar el angulo de cabeceo
(Ferramosca, Alvarado, Limon and Camacho, 2007).
El sistema a controlar es un helicoptero de dos rotores paralelos a escala de laborato-
rio disenado por Quanser (figura 2.1), descrito en (Garcia-Sanz, Elso and Engana, 2006)
y (Garcia-Sanz and Elso, 2007).
La maqueta tiene tres grados de libertad medidos mediante tres encoders: el angulo de
alabeo o roll (giro en torno a un eje paralelo a la direccion de avance), el angulo de
cabeceo o pitch (giro en torno a un eje perpendicular a la direccion de avance, angulo α
en la figura 2.1), y el angulo de guinada o yaw (giro en torno a un eje perpendicular al
suelo). Los actuadores son dos rotores electricos de tension continua, acoplados a cada
lado del eje longitudinal, y que accionan las dos helices del helicoptero, produciendo
una fuerza proporcional a la tension de entrada. El cuerpo del sistema esta unido por
medio de una barra a un punto fijo alrededor del cual esta permitido su giro. Ademas
dispone de un contrapeso para aliviar el esfuerzo de los motores.
Figura 2.1: Helicoptero de laboratorio Quanser Consulting
50 2.7. Aplicacion a una maqueta de helicoptero
2.7.1. Funcion de transferencia
El modelo del helicoptero esta descrito en (Garcia-Sanz et al., 2006) y (Garcia-
Sanz and Elso, 2007). La variable a controlar es el angulo de cabeceo α. La funcion de
trasferencia del sistema es la funcion entre el angulo α y la suma de las fuerzas F1 y
F2 proporcionadas por los dos rotores, es decir:
α(s)
Fsuma(s)=
l1Je
s2 +be
Je
s +[mg(h + d) + Mg(h− l3 sin θ)]
Je
(2.14)
Siendo la suma de las fuerzas ejercidas por las helices proporcional a la tension
electrica aplicada a los motores a traves de la constante km, se deduce la siguiente
ecuacion:
α(s)
v(s)=
kml1
Jes2 + bes +[mg(h + d) + Mg(h− l3 sin θ)
] (2.15)
que es la funcion de transferencia que relaciona el angulo de cabeceo α con la tension
electrica v. Esta ecuacion se puede escribir de la forma:
α(s)
v(s)=
k · ωn2
s2 + 2 · ξ · ωn · s + ωn2
(2.16)
donde α(s) se expresa en radiantes y v(s) en voltios.
Como se explica en (Garcia-Sanz and Elso, 2007), la planta introduce un retraso,
ası que la funcion de transferencia, que sustituye a 2.16, es:
α(s)
v(s)=
k · ωn2
s2 + 2 · ξ · ωn · s + ωn2· e−sT (2.17)
Los valores de los parametros son k = 0,113, ξ = 0,11, ωn = 0,58 y T = 0,1.
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 51
2.7.2. Tracking del angulo de cabeceo
El sistema se ha considerado en espacio de estados. Las matrices del sistema LTI
en tiempo continuo son:
A =
[0 1
−0,3364 −0,1276
], B =
[0
0,0380
], (2.18)
C =[1 0
], D = 0 (2.19)
Se ha discretizado el sistema con un tiempo de muestreo Ts = 0,01s, como se sugiere
en (Garcia-Sanz and Elso, 2007). Las matrices del sistema LTI discretizado son:
A =
[1,0000 0,0100
−0,0034 0,9987
], B =
[0,0019
0,3799
]× 10−3, (2.20)
C =[1 0
], D = 0. (2.21)
La restricciones en el entrada son: umin = −17,4 y umax = 2,6. Se supone que el
helicoptero pueda bascular respecto al eje perpendicular a la direccion, de un angulo
maximo de ±90 grados. Ası que se considera ‖x‖∞ ≤ π/2 [rad] como restriccion en el
estado.
El controlador local y la matriz de Lyapunov P se han calculados utilizando un
LQR. Las matrices utilizada han sido Q = 100 · I2 y R = 1 o R = 0,1. El sistema se
ha controlado con el MPC propuesto, considerando un horizonte de control Nc = 3, un
horizonte de prediccion Np = 3 y una matriz T = 10 ·P . La referencia a seguir ha sido
una secuencia de referencias constantes a trozos con valores de set-point s1 = −0,3491,
s2 = −1,2, s3 = 0,25 y s4 = −0,3491.
En la figura 2.2 se muestran el invariante para seguimiento de referencia (en lınea
de trazos) y la region de atraccion (en lınea continua). En la figura 2.3 se muestra
la evolucion de los estados del sistema (en lınea de trazos). En las figuras 2.4(a) y
2.5(a) se muestran las evoluciones del sistema en los dos casos de R = 1 y R = 0,1.
En las figuras 2.4(b) y 2.5(b) se muestran las evoluciones de las referencias artificiales
en los dos casos de R = 1 y R = 0,1. En las figuras se dibujan en lınea continua las
referencias, en lınea de trazos las evoluciones del sistema y en lınea de trazos y puntos
las referencias artificiales x∗s(k). Como se puede ver, las evoluciones del sistema son
admisibles en cada instante y por cada variacion de la referencia. Ademas se puede ver
como, cuando hay un cambio de referencia no factible, el controlador encuentra una
referencia artificial factible y la sigue. En la figura 2.5 se ve como escogiendo R = 0,1 se
52 2.7. Aplicacion a una maqueta de helicoptero
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−1.5
−1
−0.5
0
0.5
1
1.5
2
x1
x 2
Figura 2.2: Invariante para tracking y region de atraccion
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−1.5
−1
−0.5
0
0.5
1
1.5
2
x1
x 2
s3s2 s1
Figura 2.3: Evolucion de los estados
han eliminado las oscilaciones debidas al los autovalores complejos conjugados propios
Capıtulo 2. MPC para tracking de sistemas con puntos de operacion cambiantes 53
0 20 40 60 80 100−1.4
−1.2
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
tiempo (s)
ángu
lo d
e ca
bece
o (r
ad)
(a) Tracking de la referencia.
40 42 44 46 48 50 52 54 56 58
0.05
0.1
0.15
0.2
0.25
tiempo (s)
ángu
lo d
e ca
bece
o (r
ad)
(b) Evolucion de la referencia artificial
Figura 2.4: Seguimiento de una referencia con Q = 100 · I2 y R = 1.
del sistema en bucle abierto. Aunque, las oscilaciones que ocurren en caso de R = 1
(fig. 2.4) no son grandes y se atenuan rpidamente.
54 2.7. Aplicacion a una maqueta de helicoptero
0 20 40 60 80 100−1.4
−1.2
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
tiempo (s)
ángu
lo d
e ca
bece
o (r
ad)
(a) Tracking de la referencia.
40 42 44 46 48 50
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
tiempo (s)
ángu
lo d
e ca
bece
o (r
ad)
(b) Evolucion de la referencia artificial
Figura 2.5: Seguimiento de una referencia con Q = 100 · I2 y R = 0,1.
Capıtulo 3
MPC con nuevo funcional de coste
que garantice la optimalidad
Los controladores predictivos se pueden considerar como controladores sub-optimos
dado que se minimiza el funcional de coste para un horizonte de prediccion finito. Si se
utilizara un horizonte de prediccion infinito, el coste serıa el mınimo. Este controlador
se puede calcular para sistemas lineales sin restricciones, pero en caso de presencia
de restricciones el calculo resulta ser mas complicado. En (Hu and Linnemann, 2002)
se demuestra que si el coste terminal es el coste optimo de un LQR sin restricciones,
entonces el controlador MPC a horizonte finito resulta ser igual al controlador LQR
con restricciones en un entorno de la region terminal.
El controlador MPC presentado en el capıtulo 2 no puede satisfacer esa propiedad
debido a la presencia del coste de offset cuadratico
VO(θ − θ) = ‖θ − θ‖2T
Sin embargo, se ha demostrado como se pueda obtener un coste mas cercano del optimo
por medio de una adecuada penalizacion del coste de offset. Es decir, incrementando
la matriz de penalizacion T se puede alcanzar un mejor grado de optimalidad local del
controlador MPC para tracking.
En este capıtulo se propone una nueva formulacion de un controlador predictivo
para tracking que se caracteriza para la presencia de un nuevo funcional de coste para
mejorar la optimalidad local del controlador. La idea es de considerar un coste de
55
56 3.1. Descripcion del problema
offset en norma infinito, y no cuadratico, que represente una funcion de penalizacion
exacta del error entre el estado de equilibrio real y el estado de equilibrio artificial.
La presencia de esta funcion de penalizacion exacta permite que el controlador MPC
a horizonte finito sea igual al controlador LQR con restricciones en un entorno de
la region terminal, resolviendo ası el problema de perdida de optimalidad local que
caracteriza el controlador descrito en el capiıtulo 2.
Un aspecto importante que se tiene que considerar en este caso es la formulacion
del problema de optimizacion QP en el que tenemos que incorporar el nuevo coste de
offset, que es un coste lineal. En este capıtulo se muestra como es posible formular un
problema de optimizacion QP anadiendo una variable de optimizacion y una restriccion
mas. Ademas, se muestra como las propiedades de estabilidad y optimalidad que aquı se
demuestran para el caso del coste en norma infinito, se puedan extender tambien al
caso en norma 1 consiguiendo formular el problema de optimizacion siempre como un
problema QP.
Es importante evidenciar que, el hecho de poder utilizar una funcion de penaliza-
cion exacta como coste de offset, permite poder reformular todo el funcional de coste,
extendiendolo a otras normas como la norma infinito y la norma uno. Eso permite
formular el problema de optimizacion como un problema de programacion lineal LP.
3.1. Descripcion del problema
Sea el sistema lineal discreto descrito por:
x+ = Ax + Bu (3.1)
y = Cx + Du
donde x ∈ Rn es el estado actual del sistema, u ∈ Rm es la entrada actual, y ∈ Rp
es la salida actual y x+ es el estado siguiente. El estado del sistema y la senal de
control aplicada en el instante k se denotan como x(k) y u(k). El sistema esta sujeto
a restricciones en el estado y en la entrada:
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 57
(x(k), u(k)) ∈ Z
para k ≥ 0. Z ⊂ Rn+m es un poliedro compacto y convexo que contiene el origen:
Z = z ∈ Rn+m : Azz ≤ bz (3.2)
con z = (x, u), estado extendido del sistema.
Hipotesis 3.1 La pareja (A,B) es estabilizable.
El problema que se considera es el diseno de un controlador MPC para el seguimiento
de una referencia constante a trozos s(k) de manera que las restricciones sean siempre
respetadas.
3.2. Resultados preliminares
3.2.1. Calculo de los puntos de equilibrios admisibles y del
conjunto invariante para tracking
Previamente a la presentacion del nuevo controlador propuesto es necesario presen-
tar una serie de resultados preliminares, relativos al calculo de los puntos de equilibrios
admisibles y del conjunto invariante para tracking para el sistema lineal nominal (3.1).
La caracterizacion de los puntos admisible para el sistema nominal se realiza de
la misma forma de la que ya se ha descrito en el apartado 2 del capıtulo 2.
La determinacion del conjunto invariante para tracking para el sistema nominal,
tambien se hace de la misma forma de la que se ha descrito en el apartado 3 del
capıtulo 2.
58 3.3. MPC para tracking con nuevo funcional de coste
3.3. MPC para tracking con nuevo funcional de cos-
te
El MPC para tracking propuesto en el capıtulo 2 puede perder la optimalidad local
debido al coste de offset cuadratico, que se utiliza en el funcional de coste propuesto
para minimizar el error entre el estado de equilibrio real y el estado de equilibrio
artificial y garantizar el seguimiento de referencias cambiantes. Por eso se propone un
nuevo funcional en el que se considera un coste de offset en norma infinito:
VO(θ − θ) = ‖T (θ − θ)‖∞
con T invertible.
Siendo nuestro problema de optimizacion un problema QP, el objetivo es entonces
incorporar este coste en norma infinito, que es un coste lineal, en un problema de
programacion cuadratica. Este problema se puede resolver poniendo una constante γ
en el funcional de coste y anadiendo una restriccion mas al problema, es decir:
‖T (θ − θ)‖∞ ≤ γ
de manera que el problema de optimizacion resulte un problema QP.
Considerese la siguiente hipotesis.
Hipotesis 3.2
1. Sean Q ∈ Rn×n y R ∈ Rm×m dos matrices definidas positivas.
2. Exista una constante σ > 0 tal que σT ≥ MTx Mx, con Mx = [In,0n]Mθ.
3. Sea K ∈ Rm×n una ganancia de control estabilizable tal que (A + BK) sea Hur-
witz.
4. Sea P ∈ Rn×n una matriz definida positiva tal que:
(A + BK)T P (A + BK)− P = −(Q + KT RK)
5. Sea Owt,K ⊆ Rn+nθ un conjunto invariante poliedrico admisible para tracking para
el sistema (3.1) sujeto a las restricciones (3.2), y para una dada ganancia K.
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 59
El nuevo funcional de coste del controlador MPC para tracking propuesto es:
V ON (x, θ,u, θ) =
N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P + ‖T (θ − θ)‖∞
Para poder resolver el problema de optimizacion como un problema QP, el funcional
se puede escribir de esta manera:
V ON (x, θ,u, θ, γ) =
N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P + γ
Considerando este funcional, el nuevo problema de optimizacion a resolver, PON (x, θ),
es:
V O∗N (x, θ) = mın
u,θ,γV O
N (x, θ,u, θ, γ)
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
‖T (θ − θ)‖∞ ≤ γ
La ley de control esta dada por KON(x, θ) = u∗(0; x, θ). Es evidente que este problema
de optimizacion difiere de el presentado en el capıtulo 2 solo por el funcional de coste.
Entonces la region de factibilidad es la misma y se indica siempre como XN .
Como en el caso del controlador anterior, queremos demostrar la estabilidad del
controlador, y luego probar la propiedad de optimalidad.
Teorema 3.1 (Estabilidad) Sean validas las hipotesis 3.1 y 3.2 y sea Ωwt,K = Ow
∞,λ
para un dado λ ∈ (0, 1). Sea un punto operacional objetivo dado por θ tal que zs =
(xs, us) = Mθθ ∈ λZs. Entonces, para cualquier estado inicial factible x0 ∈ XN el con-
trolador MPC propuesto κON(x, θ) lleva el sistema asintoticamente al punto de equilibrio
z∗s = (x∗s, u∗s) ∈ λZs satisfaciendo las restricciones en cada instante.
Demostracion del teorema 3.1: Se asuma que valga la hipotesis 2.2.
60 3.3. MPC para tracking con nuevo funcional de coste
En la primera parte de esta demostracion, se demuestra la factibilidad del sistema
controlado, es decir, x(k + 1) ∈ XN , para cualquier x(k) ∈ XN , y θ. Considerese la
solucion optima del problema PN(x(k), θ), entonces el estado siguiente es x(k + 1) =
Ax(k) + BκON(x, θ). Se definen las siguientes secuencias:
u(x(k + 1), θ)∆= [u∗(1; x(k), θ), · · · , u∗(N − 1; x(k), θ),
K(x∗(N − 1; x(k), θ)− x∗s(x(k), θ)) + u∗s(x(k), θ)]
θ(x(k + 1), θ)∆= θ∗(x(k), θ)
(3.3)
Entonces, (u, θ) es una solucion factible del problema de optimizacion PN(x(k + 1), θ)
debida a:
Dado que x(x(k + 1), θ) = x∗(1; x(k), θ), entonces x(i; x(k + 1), θ) = x∗(i +
1; x(k), θ) i = 0, 1, · · · , N − 1; entonces los primeros N − 1 terminos de la trayec-
toria son admisibles. La admisibilidad de x(N ; x(k + 1), θ) se deduce de (x(N −1; x(k + 1), θ), θ(x(k + 1), θ)) ∈ Ωw
t,K y de ahı la accion de control u(N − 1; x(k +
1), θ) asegura que (x(N ; x(k + 1), θ), θ(x(k + 1), θ)) ∈ Ωwt,K .
La factibiliad de u∗(x(k), θ) y la admisibilidad del conjunto Ωwt,K asegura la fac-
tibilidad u(x(k + 1), θ).
La satisfaccion de la restriccion terminal se demuestra con argumentos similares.
La convergencia se demuestra probando que el coste optimo es una funcion de Lya-
punov. Considerese la soluccion factible propuesta (3.3). Considerando las propiedades
de las trayectorias nominales factibles para x(k+1), la condicion (iv) de la hipotesis 2.2
y utilizando procedimientos estandar en MPC (Mayne et al., 2000) se puede obtener:
VN(x(k + 1), θ;u, θ)− V ∗N(x(k), θ) ≤ −‖x∗(x(k), θ)− x∗s(x(k), θ)‖2
Q
−‖u∗(0; x(k), θ)− u∗s(x(k), θ)‖2R
≤ −‖x∗(x(k), θ)− x∗s(x(k), θ)‖2Q (3.4)
Por la optimalidad, tenemos que V ∗N(x(k + 1), θ) ≤ VN(x(k + 1), θ;u, θ) y entonces:
V ∗N(x(k + 1), θ)− V ∗
N(x(k), θ) ≤ −‖x∗(x(k), θ)− x∗s(x(k), θ)‖2Q
Considerando que Q > 0, entonces
lımk→∞
‖x∗(x(k), θ)− x∗s(x(k), θ)‖2Q = 0
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 61
En virtud de lemma 3.1, se deduce que ‖x∗(x(k), θ)− x∗s(x(k), θ)‖ tiende a 0 entonces
‖x∗s(x(k), θ)− xs‖ tambien tiende a 0. Por lo tanto, x∗(x(k), θ) tiende a xs y entonces
x(k) tiende a xs.
Lema 3.1 Sean validas las hipotesis del teorema 3.1. Considerese un estado de equi-
librio deseado (xs, us) = Mθθ y se asuma que dado un estado x, la solucion optima del
problema PN(x, θ) sea tal que ‖x− x∗s(x, θ)‖Q = 0 (por ejemplo x = x∗s(x, θ)), entonces
‖x− xs‖Q = 0.
Demostracion: Se demuestra por contradiccion. Sea θ∗ = θ∗(x, θ) y considerese
(x∗s, u∗s) = Mθθ
∗. Se suponga que x∗s 6= xs.
Por continuidad se obtiene que existe un λ ∈ [0, 1) tal que para cualquier λ ∈ [λ, 1),
θ = λθ∗+(1−λ)θ y (xs, us) = Mθθ, el estado x∗s esta en el maximo conjunto invariante
admisible (que indicamos como O∞(xs)) para el sistema nominal controlado por u =
K(x− xs) + us (vease (Limon et al., 2007a)).
Indicando con u la secuencia de acciones de control obtenidas con esa ley de control,
se deduce que (u, x∗s, θ) es una solucion factible para PN(x∗s, θ). Entonces, dada la
hipotesis 3.2,
V ∗N(x∗s, θ) ≤ VN(x∗s, θ;u, , θ)
=N−1∑i=0
‖x(i)−xs‖2(Q+KT RK)︷ ︸︸ ︷
‖x(i)− xs‖2Q + ‖K(x(i)− xs)‖2
R +‖x(N)− xs‖2P + ‖T (θ − θ)‖∞
= ‖x∗s − xs‖2P + ‖T (θ − θ)‖∞
Se quiere demostrar que:
‖x∗s − xs‖2P + ‖T (θ − θ)‖∞ < ‖T (θ∗ − θ)‖∞ ∀θ∗ 6= θ
Sean Mx y σ las mismas variables definidas en la hipotesis 3.2. Siendo x∗s − xs =
(1− λ)Mx(θ∗ − θ) y θ − θ = λ(θ∗ − θ), entonces
(1− λ)2‖θ∗ − θ‖2P + λ‖T (θ∗ − θ)‖∞≤ (1− λ)2λP
√nθ‖T (θ∗ − θ)‖2
∞ + λ‖T (θ∗ − θ)‖∞= ‖T (θ∗ − θ)‖∞
[(1− λ)2λP
√nθ‖T (θ∗ − θ)‖∞ + λ
]
62 3.4. Propiedades
donde λP = λmax(T T MTx PMxT ). Asumiendo que X y U son acotados, entonces existe
un η > 0 tal que ‖T (θ∗ − θ)‖∞ ≤ η. Entonces:
‖T (θ∗− θ)‖∞[(1− λ)2λP
√nθ‖T (θ∗ − θ)‖∞ + λ
] ≤ ‖T (θ∗− θ)‖∞[(1− λ)2λP
√nθη + λ
]
y
‖T (θ∗−θ)‖∞[(1−λ)2λP
√nθη +λ
]= ‖T (θ∗−θ)‖∞
[(1−λ)2λP
√nθη −(1−λ)
]+‖T (θ∗−θ)‖∞
Entonces se puede probar que existe un λ ∈ [λ, 1) tal que para todo λ ∈ [λ, 1) se cumple
que (1− λ)2λP√
nθη − (1− λ) < 0, es decir:
(1− λ)λP
√nθη − 1 < 0
De aquı se obtiene que:
1− λ <1
λP√
nθη
y entonces
λ > 1− 1
λP√
nθη
Por lo tanto, definiendo λ = max
(1− 1
λP√
nθη, λ
), se tiene que para todo λ ∈ [λ, 1),
se cumple que V ∗N(x∗s, θ) < ‖T (θ∗ − θ)‖∞.
Siendo la solucion optima de PN(x∗s, θ) dada por u∗(x∗s, θ) = u∗s, · · · , u∗s y siendo
la secuencia de estados asociada x∗(x∗s, θ) = x∗s, · · · , x∗s, entonces el coste optimo es
V ∗N(x∗s, θ) = ‖T (θ∗ − θ)‖∞. Eso produce una contradiccion que prueba el lema.
3.4. Propiedades
La nueva formulacion del controlador conserva las propiedades del controlador des-
crito en el capıtulo 2:
Punto de operacion cambiantes.
Aumento del dominio de atraccion.
Minimizacion del offset.
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 63
Solucion explıcita.
Ademas, este nuevo controlador MPC para tracking garantiza que no se pierda la
optimalidad local. En el controlador MPC presentado en el capıtulo 2 la presencia de
un coste de offset cuadratico causa que no se garantice la propiedad demostrada en
(Hu and Linnemann, 2002) segun la cual, si el coste terminal es el coste optimo de un
LQR sin restricciones, entonces el controlador MPC a horizonte finito resulta ser igual
al controlador LQR con restricciones en un entorno de la region terminal. La nueva
formulacion de controlador predictivo para tracking con funcion de penalizacion exacta
del error entre el estado de equilibrio real y el estado de equilibrio artificial, permite
satisfacer la propiedad anterior, garantiendo optimalidad local. En lo que sigue se
provee y se demuestra esta propiedad.
Propiedad 3.1 (Optimalidad) : Sea KN,r(x, θ) el controlador MPC para regulacion
calculado para un punto de equilibrio objetivo (xs, us) = Mθθ. Sea J∗N,r(x, θ) el funcional
de coste correspondiente y sea XN,r el dominio de atraccion. Entonces, existe T > 0
tal que J∗N,r(x, θ) = J∗N,t(x, θ) para cualquier x ∈ XN,r. Ademas, sea Υ ⊂ Rn una
region tal que Υ = x ∈ X : J∗N,r(x, θ) = J∗∞(x, θ), entonces existe T > 0 tal que
J∗∞(x, θ) = J∗N,t(x, θ), para todos x ∈ Υ.
Demostracion: Se supongan validas las condiciones del teorema 3.1. Sea el problema
de optimizacion para tracking PN,t(x, θ; λ):
J∗N,t(x, θ; λ) = mınu,θ
N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P + ‖T (θ − θ)‖∞
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
El problema de optimizacion para un MPC para regulacion PN,r(x, θ), se puede definir
como:
J∗N,r(x, θ) = mınu,θ
N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P
64 3.4. Propiedades
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
‖T (θ − θ)‖∞ = 0
El problema de optimizacion PN,t(x, θ; λ) equivale al problema PN,r(x, θ), con la ulti-
ma restriccion considerada como una funcion de penalizacion (Luenberger, 1989). Con-
siderese un tercero problema de optimizacion PN,m(x, θ; α):
J∗N,m(x, θ, α) = mınu,θ
N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P + α‖θ − θ‖1
s.t. x(0) = x,
x(j + 1) = Ax(j) + Bu(j),
(x(j), u(j)) ∈ Z, j = 0, · · · , N − 1
(xs, us) = Mθθ,
(x(N), θ) ∈ Ωwt,K
El problema de optimizacion PN,m(x, θ; α) equivale al problema PN,r(x, θ), con la ultima
restriccion considerada como una funcion de penalizacion (Luenberger, 1989).
Considerense los costes optimos J∗N,r(x, θ) y J∗N,m(x, θ). Estos dos costes estan dado
por:
(x∗, θ∗) = arg mınu,θ
JN,r(x, θ)
y
(x∗, θ∗)m = arg mınu,θ
JN,m(x, θ)
La diferencia entre los dos coste optimos esta dada solo por la funcion de penalizacion
α‖θ− θ‖1. El escalar α es el peso que penaliza la violacion de la restriccion ‖θ− θ‖1 =
0. Siendo ‖θ − θ‖1 una funcion de penalizacion exacta, si se define como α∗ > 0
el multiplicador de Lagrange correspondiente a la solucion J∗N,r(x, θ), entonces para
cualquier α ≥ α∗ se tiene que J∗N,m(x, θ) = J∗N,r(x, θ) (Luenberger, 1989; Boyd and
Vandenberghe, 2006).
Considerese ahora el tercer coste otpimo J∗N,t(x, θ). Definiendo
‖T−1‖1 ≤ 1
α∗n
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 65
entonces por las propiedades de las normas
‖T (θ − θ)‖∞ ≥ 1
‖T−1‖1n‖θ − θ‖1 ≥ α∗‖θ − θ‖1
Entonces, para cualquier valor de θ, JN,t(x, θ,u, θ) es cota superior de JN,m(x, θ,u, θ),
es decir JN,m(x, θ,u, θ) ≤ JN,t(x, θ,u, θ), y por lo tanto J∗N,m(x, θ) ≤ J∗N,t(x, θ) ≤J∗N,r(x, θ). Siendo J∗N,m(x, θ) = J∗N,r(x, θ), entonces J∗N,t(x, θ) = J∗N,r(x, θ).
3.5. Optimizacion
En este apartado se presenta de forma mas generalizada el problema del coste de
offset. La idea es que para este coste se pueda utilizar una norma cualquiera, formulando
el problema de optimizacion de manera que sea siempre un QP.
Considerese un coste de penalizacion de offset:
VO(θ − θ) = ‖T (θ − θ)‖q
donde q representa cualquier norma, por ejemplo q = 1, 2,∞, etc. Entonces, conside-
rando las propiedades de equivalencia entre normas y de forma analoga al caso del
coste con norma infinita ‖T (θ − θ)‖∞, se puede demostrar estabilidad y optimalidad.
Desde el punto di vista de la implementacion del problema de optimizacion, tenemos
los siguientes casos:
Caso norma infinito. Como se ha dicho en el apartado anterior, el problema
de optimizacion es un problema QP, anadiendo una variable de optimizacion y
una restriccion mas.
Caso norma 1. En este caso, sabemos que
θi − θi ≤ αi
−(θi − θi) ≤ αi
con i = 1, ..., nθ. Entonces, el problema de optimizacion se puede formular co-
mo un problema QP, anadiendo nθ + 1 variables de optimizacion al problema y
considerando una nueva restriccion, es decir
α1 + α2 + ... + αnθ≤ β
66 3.6. Ejemplo
Caso norma 2. En este caso
‖θ − θ‖T ≤ α ≡ ‖θ − θ‖2T ≤ α2
Entonces, hay que anadir solo una variable de optimizacion, y el problema de
optimizacion se convierte en un problema de Second Order Cone Programming.
Se trata de un problema que pertenece a la familia de los problemas de programa-
cion cuadratica restringido cuadraticamente (QCQP - Quadratically Constrained
Quadratic Programming).
Caso otra norma. Si el problema se puede formular como un problema convexo,
se puede resolver con el metodo de la elipsoide.
3.6. Ejemplo
En este apartado se presenta un ejemplo con el que se demuestran las mejorıas
aportada por el nuevo controlador.
Se ha considerado un sistema SISO estable, de orden dos. El sistema continuo en
espacio de estado esta dado por:
A =
[−2 −1
1 0
], B =
[1
0
], (3.5)
C =[0 0,5
], D = 0 (3.6)
El sistema se ha discretizado con un tiempo de muestreo T = 0,1. Las matrices del
sistema discretizado en espacio de estado son:
A =
[0,8144 −0,0905
0,0905 0,9953
], B =
[0,0905
0,0047
], (3.7)
C =[0 0,5
], D = 0 (3.8)
Se ha considerado un MPC con Np = 1 y Nc = 1.
Se compara el coste optimo del problema de regulacion con el coste optimo del
MPC para tracking. En particular se compara la diferencia entre el coste del problema
de regulacion con el coste del MPC para tracking con coste de offset cuadratico y la
diferencia entre el coste optimo del problema de regulacion con el coste del MPC para
Capıtulo 3. MPC con nuevo funcional de coste que garantice la optimalidad 67
tracking con funcion de penalizacion exacta como coste de offset, presentado en ese
capıtulo. Estos costes se han calculado para un estado elegido aleatoriamente, y al
variar del peso α, tal que en el caso del coste de offset con funcion de penalizacion
exacta valga ‖T (θ − θ)∞‖ ≤ α y en el caso de coste cuadratico sea ‖θ − θ‖2Tp
, con
Tp = αP .
0 200 400 600 800 100010
−20
10−15
10−10
10−5
100
105
alpha
Jreg
−Jt
rack
penalización exactapenalización cuadrática
Figura 3.1: Evolucion de Jreg − Jtrack en funcion de α
En la figura 3.1 se puede ver como la diferencia entre el coste de regulacion y el coste
de tracking con funcion de penalizacion exacta cae drasticamente a partir de un valor
determinado de α. La caıda se debe a la funcion de penalizacion exacta. Es evidente
tambien como la diferencia en el caso del coste con funcion de penalizacion exacta es
mucho mas pequena que la diferencia en el caso de la penalizacion cuadratica.
68 3.6. Ejemplo
Capıtulo 4
MPC robusto para tracking de
sistemas con puntos de operacion
cambiantes
4.1. Introduccion
En este capıtulo se presenta la formulacion de un nuevo controlador predictivo para
el tracking de sistemas linear sujetos a restricciones en caso de presencia de incerti-
dumbres. Por un lado el controlador tiene que ser capaz de garantizar la estabilidad a
pesar de la presencia de las incertidumbres. Por otro lado, se tiene que garantizar la
factibilidad del controlador en casos de cambios de puntos de operacion.
El controlador MPC que se propone en este capıtulo se muestra capaz de controlar un
sistema incierto en caso de incertidumbres acotadas. El seguimiento de referencia se
basa en el controlador presentado en el capıtulo 2, debido a que le nuevo controlador
se basa en predicciones nominales.
De toda forma, cuando las incertidumbres que afectan el sistema son bastante gor-
das, se tiene la necesidad de disenar controladores robustos especializados. En (Rossiter
et al., 1996; Chisci et al., 1996) se propone la incorporacion de controladores auxiliares
para recuperar la factibilidad del sistema cuando esta se pierda ante gran variacion en
el punto de equilibrio. Ası el sistema se controla con el controlador predictivo y si en
un instante determinado, el problema deja de ser factible, se conmuta al controlador
69
70 4.2. Descripcion del problema
auxiliar, que garantiza que en tiempo finito, recuperara la factibilidad del problema.
Otra forma de abordar el problema (Pannocchia and Kerrigan, 2003; Pannocchia,
2004) consiste en considerar la variacion del punto de operacion como una perturbacion
a rechazar. Si bien esta tecnica garantiza el control hacia el punto de equilibrio, las
posibles variaciones que puede soportar el sistema garantizando la factibilidad son
pequenas, lo que hace conservador el sistema.
En este capıtulo se propone un nuevo controlador predictivo que garantiza la con-
vergencia a cualquier punto de operacion admisible sin necesidad de redisenar el con-
trolador ante cada cambio en el punto de operacion ni de conmutar a controladores
auxiliares. Utilizando los resultados presentados en (Limon et al., 2007a) y descritos
en el capıtulo 2, el controlador, mediante la solucion de un unico problema de opti-
mizacion, permite controlar el sistema al punto de equilibrio deseado de forma que,
si a lo largo de su evolucion se desea un cambio a cualquier otro punto de equilibrio,
el controlador lo llevara a una vecindad del mismo de forma admisible. Ademas, para
lograr la robustez del sistema, este controlador se ha redisenado para controlar sistemas
inciertos incorporandole la nocion de control robusto basado en tubos presentada en
(Mayne et al., 2005).
4.2. Descripcion del problema
El controlador que se va a proponer parte de la hipotesis de que el sistema a controlar
se puede representar como un sistema lineal con incertidumbres aditivas acotadas. Es
decir, que el sistema puede describirse por el siguiente modelo:
x+ = Ax + Bu + v
y = Cx + Du
siendo x ∈ IRn, u ∈ IRm e y ∈ IRp el estado, la entrada y la salida actual del sistema
respectivamente; x+ representa el estado siguiente o estado sucesor ; v representa una
senal acotada y desconocida que puede representar bien perturbaciones que afectan al
sistema y/o incertidumbres y discrepancias entre el modelo y la planta a controlar. En
lo que sigue esta senal se denominara como vector o senal de incertidumbres.
Capıtulo 4. MPC robusto para tracking 71
En lo que sigue x(k), u(k) denota el estado y la entrada del sistema a controlar, cuya
evolucion, debe corresponder a la del modelo (4.1) para una cierta realizacion de la
senal de incertidumbres v(k).
El modelo del sistema se asumen las siguientes hipotesis
Hipotesis 4.1 Se asume que el sistema y su modelo dado por (4.1) verifican que
(i) El modelo de la planta dado por las matrices (A,B, C, D) se conoce con exactitud
y que (A,B) es controlable (Domınguez, Campoy, Sebastian and Jimenez, 2002).
(ii) El vector de incertidumbres v es acotado y se conoce un poliedro que contiene el
origen en su interior de la forma
V = v ∈ IRn : Avv ≤ bv (4.1)
tal que v ∈ V a lo largo de la evolucion del sistema. Es decir, que para todo
instante k se debe verificar que
v(k) =(x(k + 1)− Ax(k)−Bu(k)
)∈ V (4.2)
(iii) El vector de estados del sistema a controlar se puede medir y esta accesible para
la determinacion de la ley de control.
El sistema a controlar debe satisfacer una serie de restricciones y lımites en las
senales a lo largo de su evolucion. Estas restricciones pueden representar lımites fısicos
o economicos de ciertas magnitudes, lımites existentes en los actuadores, limitacion
de la evolucion a una determinada region de validez del modelo, etc. Se asume que
estas restricciones se puede expresar como un conjunto de restricciones lineales sobre
los estados y/o entradas del sistema de forma que
x ∈ X (4.3)
u ∈ U (4.4)
siendo X ⊂ IRn y U ⊂ IRm poliedros dados por
X = x ∈ IRn : Axx ≤ bx (4.5)
U = u ∈ IRm : Auu ≤ bu (4.6)
72 4.2. Descripcion del problema
El objetivo del controlador a disenar es conducir al sistema al punto de operacion
deseado de una forma admisible. Ası, para un punto de operacion admisible deseado
dado por (xs, us), se debe encontrar una ley de control de la forma
u(k) = κ(x(k), xs, us) (4.7)
tal que el sistema en bucle cerrado
x(k + 1) = Ax(k) + Bu(k) + v(k)
u(k) = κ(x(k), xs, us)
satisfaga (x(k), u(k)) ∈ Z para todo v(k) ∈ V, para todo k ≥ 0 y ademas x(k) converja
a una vecindad del punto de funcionamiento deseado xs.
Es importante resaltar aquı que el efecto de las incertidumbres acotadas sobre el
sistema en bucle cerrado podrıa hacer imposible la convergencia al punto de funcio-
namiento deseado, pudiendo tan solo garantizar la convergencia a una vecindad del
mismo. En el caso en que las incertidumbres tiendan a un valor en regimen permanen-
te, es posible garantizar la convergencia compensando el efecto de las mismas. Serıa
pues deseable que el controlador a disenar goce de esta propiedad.
En este trabajo se va a proponer una solucion a este problema utilizando la tecnica
del control predictivo. El controlador que se va a proponer se basa en las predicciones
realizadas con el modelo nominal, es decir, considerando nulo el efecto de las incerti-
dumbres. Por lo tanto, el sistema nominal vendra dado por
x+ = Ax + Bu (4.8)
y = Cx + Du
y se denotara por x(i) a la evolucion del sistema nominal para una secuencia de entra-
das determinada. Con el fin de garantizar la satisfaccion de restricciones del sistema
incierto, sera necesario definir unos conjuntos de restricciones mas conservadores para
el sistema nominal. Ası se definen los conjuntos de restricciones conservadores
X = x ∈ IRn : Axx ≤ bx (4.9)
U = u ∈ IRm : Auu ≤ bu (4.10)
tales que X ⊆ X y U ⊆ U.
En lo que sigue se va a considerar la siguiente notacion: dada una secuencia de
actuaciones u y una secuencia de posibles incertidumbres w, ambas de longitud cohe-
rente, la secuencia predicha del sistema incierto partiendo del estado inicial x se denota
Capıtulo 4. MPC robusto para tracking 73
como x = φ(x,u,w), en el cual cada componente de la misma se podra escribir como
x(i) = φ(i; x,u,w). Analogamente la secuencia nominal se podra obtener tomando
w = 0, lo que se expresara como x(i) = φ(i; x,u) = φ(i; x,u,0).
4.3. Resultados preliminares
4.3.1. Calculo de los puntos de equilibrios admisibles y del
conjunto invariante para tracking
Previamente a la presentacion del controlador propuesto es necesario presentar una
serie de resultados sobre los que este se basa. El calculo de los puntos de equilibrios
admisibles y del conjunto invariante para tracking para el sistema lineal nominal (4.8)
sigue las mismas ideas que ya se han presentados en el capıtulo 2.
La caracterizacion de los puntos admisible para el sistema nominal se realiza de
la misma forma de la que ya se ha descrito en el apartado 2 del capıtulo 2. Solo
hay que considerar que los conjuntos de restricciones para el sistema nominal en
este caso son X y U.
La determinacion del conjunto invariante para tracking para el sistema nominal,
tambien se hace de la misma forma de la que se ha descrito en el apartado 3 del
capıtulo 2. Como para el caso de la determinacion de los puntos de equilibrio
admisibles, solo hay que considerar que los conjuntos de restricciones para el
sistema nominal en este caso son X y U.
4.3.2. Control predictivo robusto basado en tubos
En esta seccion se va a presentar de forma breve la estrategia de control predic-
tivo robusto basada en los denominados tubos y sobre la cual se basa el controlador
predictivo que se propone en este trabajo. Esta estrategia se basa en las siguientes
consideraciones.
Considerese una secuencia de acciones de control, u, entonces la trayectoria nominal
predicha es x(i) = φ(i; x(0), u). Dado que el sistema real presenta incertidumbres,
74 4.3. Resultados preliminares
entonces la trayectoria real puede ser diferente de esta prediccion. Para contrastar
los disturbios, seria deseable forzar la trayectoria real a que se encuentre cerca de la
nominal; para obtener eso se elige una accion de control:
u(i) = u(i) + K(x(i)− x(i)) (4.11)
que determina una trayectoria del sistema x(i) = φ(i; x(0),u,v), que depende de los
disturbios v. Defınese la senal e = (x− x); la dinamica de esta senal esta dada por:
e+ = AKe + v; AK = (A + BK) (4.12)
Si la ganancia K es tal que la matriz AK se Hurwitz, entonces la evolucion e(i) esta aco-
tada y por lo tanto la trayectoria real x(i) esta cerca de la predicha. Para acotar la
diferencia e(i) se utiliza la nocion de conjunto invariante robusto positivo (Robust
Positively Invariant set, RPI) (Kolmanovsky and Gilbert, 1998; Rakovic, Kerrigan,
Kouramas and Mayne, 2005).
El conjunto ΦK se define un conjunto invariante robusto positivo (RPI) para el
sistema incierto (4.12) if AKφK
⊕V ⊆ ΦK . El mınimo RPI, F∞, es un conjunto RPI
tal que F∞ ⊆ ΦK para cualquier RPI ΦK . El calculo de F∞ se analiza en (Kolmanovsky
and Gilbert, 1998), donde se demuestra que este conjunto esta dado por:
F∞ =∞⊕
k=0
(AK)kV
La existencia del conjunto F∞ esta garantizada por el hecho que AK es Hurwitz, pero
el calculo puede necesitar un numero infinito de restricciones. Si se utiliza una ley
de control de tipo dead-beat, el calculo de F∞ se puede obtener en un numero finito
de pasos. En (Rakovic et al., 2005) se define una estrategia para el calculo de una
approximacion invariante positiva de F∞.
Basandose en lo anterior, se puede ahora dar la nocion de tubo (Mayne et al., 2005).
Lema 4.1 (Mayne et al., 2005) Sea Φ un conjunto invariante robusto para el sistema
(4.1) controlado por una cierta ley lineal de ganancia K. Dados x ∈ IRn y u ∈ IRm,
defınase x+ = Ax + Bu. Entonces para todo x tal que x ∈ x ⊕ Φ aplicando u =
K(x− x) + u se verifica que
x+ = Ax + Bu + v ∈ x+ ⊕ Φ (4.13)
Capıtulo 4. MPC robusto para tracking 75
Es decir, considerese que ΦK es un RPI para el sistema (4.12) y que x(0) y x(0)
son tales que e(0) = x(0) − x(0) ∈ ΦK ; entonces la trayectoria del sistema incierto
controlado por (4.11) es tal que x(i) ∈ x(i)⊕
ΦK , para cualquier tipo de disturbios. Se
note que la secuencias de estados x(i)⊕
ΦK se puede ver como un tubo de trayectorias.
Ademas, si la secuencia de control nominal u es tal que (x(i), u(i)) ∈ Z
X∆= Xª ΦK U
∆= UªKΦK , entonces Z
∆= Zª (ΦK ×KΦK) (4.14)
x
x+
x
x+
Figura 4.1: Ilustracion del lema de los tubos.
Este lema se ilustra en la figura 4.1 y se puede interpretar de la siguiente forma:
si el estado real se encuentra en una vecindad del estado nominal, el estado siguiente
tambien podra permanecer en la misma vecindad del estado nominal siguiente. Esto
se consigue gracias a la ley aplicada u = K(x− x0) + u0 que compensa la discrepancia
con el sistema nominal con el fin de mantenerse cerca.
Por lo tanto, si se considera la trayectoria nominal del sistema al aplicar una secuen-
cia de actuaciones determinada, la secuencia de vecindades en torno a la trayectoria
forma un tubo (Bertsekas, 1972). Entonces, si el sistema real parte de dicho tubo,
podra evolucionar de forma que nunca abandone dicho tubo.
Dado que el sistema debe satisfacer las restricciones impuestas, se debe garantizar
que la evolucion del sistema incierto sea admisible. Esto se podra lograr estableciendo
lımites a la trayectoria nominal que garantice que toda trayectoria contenida en el tubo
sea admisible. Para ello se definen las siguientes restricciones sobre el sistema nominal
x ∈ X = Xª ΦK (4.15)
u ∈ U = UªKΦK (4.16)
Ası, si x ∈ X, dado que x − x ∈ ΦK , se tiene que x ∈ X y si u ∈ U, dado que
u = K(x− x) + u, u− u ∈ KΦK y por lo tanto u ∈ U. En consecuencia si la evolucion
nominal satisface las restricciones impuestas por X y U, la evolucion del sistema incierto
cumplira las restricciones impuestas por X y U.
76 4.4. El nuevo control predictivo robusto
Basandose en estas propiedades, en (Mayne et al., 2005) se propone un controlador
predictivo robusto para regulacion. Este se basa en la modificacion del control predic-
tivo nominal estandar (Mayne et al., 2000) en el cual se considera como restricciones
los conjuntos conservadores X y U. La novedad del controlador propuesto radica en
que con el fin de garantizar la robustez, se libera el estado inicial de la prediccion x
(pasando a ser una variable de decision) de forma que garantice la siguiente restriccion
estabilizante:
x ∈ x⊕ Φ (4.17)
que garantiza que el estado actual x se encuentre en el tubo de la trayectoria nominal1.
En la siguiente seccion se presenta la principal aportacion de este trabajo: la formu-
lacion de un nuevo controlador predictivo que basandose en los tubos permita controlar
el sistema incierto garantizando la evolucion admisible a cualquier punto de operacion
en el que el sistema incierto sea admisible.
4.4. El nuevo control predictivo robusto
En este apartado se presenta un controlador predictivo robusto, capaz de seguir
cualquier referencia, conservando las propiedades del control predictivo: estabilidad
robusta y evolucion admisible.
La idea es de utilizar el algoritmo para seguimiento de referencias presentado en el
capıtulo 2 para permitir al sistema nominal de alcanzar el estado de equilibrio deseado.
Luego, utilizando la ley de control del tubo, se tiene el estado real dentro del tubo,
cuyo centro es la trayectoria nominal.
Considerese un estado y una entrada de equilibrio objetivo zs = (xs, us) = Mθθ,
el estado de equilibrio artificial (xs, us) = Mθθ2. El coste de offset es VO = ‖θ − θ‖2
T ,
y penaliza la diferencia entre el estado de equilibrio deseado y el estado de equilibrio
artificial.
Entonces, el funcional de coste para un dado estado x y un estado de equilibrio
1Φ es el conjunto invariante robusto positivo segun la notacion del lema 4.1.2x, u, θ representan las variables del sistema nominal.
Capıtulo 4. MPC robusto para tracking 77
deseado θ es el siguiente:
VN(x, θ; u, x, θ) =N−1∑
k=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R + ‖x(N)− xs‖2P + ‖θ− θ‖2
T (4.18)
donde x(i) = φ(i; x, u) y (xs, us) = Mθθ. Este funcional de coste pondera los errores
de la trayectoria nominal predicha respecto al punto de equilibrio artificial a lo largo
de un horizonte de control N ası como el error del estado terminal. El ultimo termino
penaliza la desviacion del punto de equilibrio artificial respecto al deseado. El estado
actual x y el estado de equilibrio deseado θ son parametros, mientras las variables
de decision son la secuencia de futuras acciones de control u, el estado inicial de la
trayectoria nominal x, y el vector θ que define el estado de equilibrio artificial (xs, us).
El problema de optimizacion a resolver, PN(x, θ), se formula de esta manera:
mınu,x,θ
VN(x, θ; u, x, θ)
s.t. x ∈ x⊕ (−ΦK) (4.19)
(x(i), u(i)) ∈ Z (4.20)
(xs, us) = Mθθ, (4.21)
(x(N), θ) ∈ Ωwt,K
(4.22)
con
Z∆= Zª (ΦK ×KΦK),
donde x(i) = φ(i; x, u) y ΦK se asume que es un conjunto invariante robusto positivo
del sistema (4.1) controlado con una ley lineal de ganancia K. El conjunto ΩwK
es un
conjunto invariante para puntos de operacion cambiantes asociado a un controlador
lineal de ganancia K. Observese que la ganancia con la que se calcula este conjunto no
tiene por que ser igual a la utilizada para el calculo de ΦK .
Dado que el conjunto de restricciones no depende de zs = (xs, us) = Mθθ, el pro-
blema de optimizacion PN(x, θ) es factible para todo los estados x contenido en una
region XN ⊂ IRn. El tamano de esta region depende, entre otros factores, del tamano
de ΩK = Proyx(ΩwK
), de forma que cuanto mayor sea esta, mayor sera el tamano de XN
(Limon, Alamo and Camacho, 2005). Ası, para todo x ∈ XN , existe solucion al proble-
ma de optimizacion y esta se denotara por el superındice *, de forma que V ∗N(x, θ) es el
coste mınimo, u∗(x, θ), x∗(x, θ) y θ∗(x, θ) son las variables de decision optimas, x∗(x, θ)
denota la la trayectoria nominal optima, y (x∗s(x, θ), u∗s(x, θ)) = Mθθ∗(x, θ) denota el
punto de equilibrio artificial optimo. Entonces, la ley de control optima esta dada por:
u = κN(x, θ) = K(x− x∗(0; x, θ)) + u∗(0; x, θ) (4.23)
78 4.5. Diseno estabilizante del controlador
Es importante resaltar que en el caso en que las restricciones, el conjunto de incerti-
dumbres, el conjunto invariante robusto ΦK y el conjunto invariante Ωw sean poliedros,
el problema propuesto resulta ser un problema de programacion cuadratica (QP), que
se puede resolver utilizando algoritmos eficientes (Camacho and Bordons, 2004; Luen-
berger, 1989).
En la siguiente seccion se presentan las condiciones a imponer sobre los ingredientes
del controlador propuesto para garantizar la estabilidad robusta del sistema en bucle
cerrado. La demostracion del teorema se encuentra en (Limon, Alvarado, Alamo and
Camacho, 2007b; Alvarado, 2007).
4.5. Diseno estabilizante del controlador
Considerese la siguiente hipotesis:
Hipotesis 4.2 Sean las matrices Q, R, T , P , K y K, y los conjuntos ΦK y ΩwK
tales
que:
(i) Q > 0, R > 0.
(ii) Existe una constante σ > 0 tal que σT ≥ MTx Mx, con Mx = [In,0m]Mθ.
(iii) A + BK es Hurwitz y ademas existe ΦK, conjunto invariante robusto positivo
(RPI) admisible del sistema (4.1) sujeto a las restricciones (4.3) y (4.4) contro-
lado por u = Kx.
(iv) A + BK es Hurwitz, y P > 0 tal que
P − (A + BK)>P (A + BK) = Q + K>RK (4.24)
(v) ΩwK
es el conjunto invariante para tracking Ωw∞,λ para un dado λ ∈ (0, 1) (arbi-
trariamente cerca de 1) para el sistema (2.13) tomando como matriz de ganancia
K y como restricciones X y U .
Bajo estas hipotesis se puede establecer el siguiente teorema:
Capıtulo 4. MPC robusto para tracking 79
Teorema 4.1 Sea el sistema (4.1) sujeto a las restricciones (4.3) y (4.4) tal que sa-
tisface las condiciones de la hipotesis 4.1. Sean las matrices Q, R, T , P , K y K, y
los conjuntos ΦK y ΩwK
tales que satisfacen las condiciones de la hipotesis 4.2. Sea
(4.23) la ley de control derivada del problema de optimizacion propuesto PN(·, ·) con
los ingredientes anteriores. Entonces el sistema controlado por dicha ley garantiza que:
(i) Para todo x(0) ∈ XN , el sistema evoluciona de forma admisible garantizando que
x(i) ∈ XN ⊆ X y u(i) = κN(x(i), xs) ∈ U para todo punto de equilibrio xs ∈ Xs,
para toda posible realizacion de las incertidumbres v(k) ∈ V, k ≥ 0.
(ii) El sistema evoluciona de forma asintotica hacia una vecindad del punto de equi-
libro xs dada por xs ⊕ ΦK.
De este teorema se deriva que el controlador propuesto, disenado de forma que
se satisfaga la hipotesis 4.2, controla de manera admisible el sistema partiendo de
un estado inicial factible x(0) ∈ XN conduciendo el estado incierto hasta alcanzar la
vecindad ΦK entorno al punto deseado. Dentro de esta zona la solucion optima es la
correspondiente al punto de equilibrio y, por lo tanto, la ley lineal dada por la ganancia
K es la encargada de mantener el sistema en ΦK . El controlador K determina el
tamano de la vecindad en torno al punto de equilibrio deseado en la que se va a quedar
contenido el sistema. Consecuentemente, parece razonable disenar dicho controlador
para que sea lo mas pequeno posible atendiendo a alguna medida de su tamano. El
controlador K determina el tamano de la region terminal ΩwK
. Cuanto mayor sea esta
region, mayor sera el dominio de atraccion del controlador XN o equivalentemente,
menor sera el horizonte de control necesario para controlar el sistema en una cierta
region del espacio. De aquı se deduce que K se debe disenar con el objetivo de lograr
una mayor region region terminal.
4.6. Propiedades del controlador propuesto
Ademas de la propiedad de estabilidad robusta, el controlador conserva las propie-
dades del controlador descrito en el capıtulo 2:
Punto de operacion cambiantes.
80 4.7. MPC robusto para tracking con retroalimentacion en la salida
Aumento del dominio de atraccion.
Minimizacion del offset.
Optimalidad local.
Solucion explıcita.
Una nueva propiedad del nuevo controlador es la siguiente:
Propiedad 4.1 (Error en regimen permanente) Si las incertidumbres que influ-
yen sobre el sistema son tales que v(k) tiende a anularse con el tiempo, entonces el
controlador conduce el sistema incierto al punto de equilibrio deseado.
Si por el contrario la incertidumbre tiende a un valor constante, el sistema incierto
alcanza un punto de equilibrio, posiblemente distinto de xs, pero contenido en xs⊕ΦK.
Si las incertidumbres no alcanzan un valor en regimen permanente, el sistema evolu-
ciona de forma que finalmente alcanza xs⊕ΦK donde queda confinado en su evolucion.
4.7. MPC robusto para tracking con retroalimen-
tacion en la salida
El controlador descrito en lo anterior asume que todos los estados del sistema sean
medibles, y entonces utilizables para hacer una retroalimentacion. En realidad pero,
esta hipotesis no esta siempre satisfecha y por lo tanto resulta necesario disenar un
controlador que realice una reatroalimentacion en la salida.
En lo que sigue se presenta un controlador que combina el MPC robusto para tra-
cking con la estrategia de retroalimentacion en la salida propuesta en (Mayne, Rakovic,
Findeisen and Allgower, 2006). El nuevo controlador presenta los mismos ingredientes
del anterior, con unas modificaciones necesarias para realizar la retroalimentacion en
la salida. Se define una problema de control nominal, cuya solucion es el centro del
tubo. La seccion del tubo es un conjunto invariante. El estado real esta dentro de un
tubo (tubo de estimacion), cuyo centro es un estado estimado, y cuya seccion es un
conjunto invariante. El estado estimado esta forzado a quedarse dentro de otro tubo
(tubo de control), cuyo centro es el sistema nominal y cuya seccion es otro conjunto
Capıtulo 4. MPC robusto para tracking 81
invariante, de manera que la trayectoria del estado original se encuentre dentro de un
tubo extendido, cuyo centro es el estado nominal. En cada paso se resolve un problema
de optimizacion, cuyas variables de decision son el estado inicial del sistema nominal,
la secuencia de acciones de control y el estado de equilibrio artificial.
4.7.1. Descripcion del problema
Considerese el sistema incierto en variables de estado a tiempo discreto:
x+ = Ax + Bu + w (4.25)
y = Cx + v
siendo x ∈ IRn, u ∈ IRm e y ∈ IRp el estado, la entrada y la salida actual del sistema
respectivamente; x+ representa el estado siguiente o estado sucesor ; v representa una
senal de perturbacion en el estado y w representa una senal de perturbacion en la
salida.
El sistema (4.25) esta sujeto a las restricciones
x ∈ X (4.26)
u ∈ U (4.27)
y las perturbaciones v y w estan acotadas en los siguientes conjuntos:
w ∈ W; v ∈ V (4.28)
con W y V conjuntos convexos.
El objetivo del controlador a disenar es conducir el sistema al punto de operacion
deseado de una forma admisible a pesar que el sistema sea incierto y que sean dispo-
nibles solo medidas inciertas de la salida. Por eso se hace la siguiente hipotesis:
Hipotesis 4.3 La pareja (A,B) es controlable y la pareja (A,C) es observable.
4.7.2. Resultados preliminares
El MPC robusto para tracking con retroalimentacion en la salida combina las ideas
del MPC robusto basado en tubos con retroalimentacion en la salida (Mayne et al.,
82 4.7. MPC robusto para tracking con retroalimentacion en la salida
2006) con el MPC robusto para tracking presentado anteriormente.
4.7.2.1. Tubo de estimacion
Se utiliza un observador de Luenberger para la estimacion de estados midiendo la
salida:
x+ = Ax + Bu + L(y − y) (4.29)
y = Cx
con x ∈ IRn es el estado observado actual, u ∈ IRm es la accion de control actual, x+
es el estado siguiente del sistema observador, y ∈ IRp es la salida actual del observador
y L ∈ IRn×p es la ganancia del observador.
El error de estimacion se define como:
ee∆= x− x (4.30)
y su dinamica esta determinada por la siguientes ecuaciones:
e+e = ALee + wee (4.31)
wee = (w − Lv)
AL = (A− LC)
La perturbacion wee esta en el conjunto Wee, definido por:
Wee∆= W⊕ (−LV) (4.32)
Vale la siguiente hipotesis:
Hipotesis 4.4 La matriz L es tal que AL es estable (Hurwitz).
Siendo AL Hurwitz, entonces existe un conjunto invariante positivo robusto (Kolmanovsky
and Gilbert, 1998; Rakovic et al., 2005) Φee para el sistema (4.31) tal que:
ALΦee ⊕Wee ⊆ Φee
Por la invarianza de Φee se deriva que:
Capıtulo 4. MPC robusto para tracking 83
Proposicion 4.1 (Tubo de estimacion) Si los estados del sistema inicial y del ob-
servador, x(0) and x(0) satisfacen ee(0) = x(0) − x(0) ∈ Φee, entonces ee(i) ∈ Φee,
es decir x(i) ∈ x(i) ⊕ Φee para cualquier i ∈ IN, y todas las secuencias admisibles de
perturbaciones w y v.
La proposicion permite vincular el estado del sistema real entre el estado del observador
y el conjunto de perturbaciones Φee. Si se garantiza que x ∈ X ª Φee, entonces se
garantiza que x ∈ X.
4.7.2.2. Tubo de control
La estrategia de control es de controlar el sistema del observador (4.29) de manera
que x = x + ee satisfaga las restricciones en el estado, y que la senal de control corres-
pondiente satisfaga las restricciones en la entrada. Entonces se considera un sistema
nominal obtenido de (4.25) quitandole las perturbaciones:
x+ = Ax + Bu (4.33)
y = Cx
Sea φ(i; x, u)∆= φ(i; x, u,0) el estado del sistema nominal en el instante i, si el estado
inicial es x y la entrada u. Para que se rechacen las perturbaciones, se quiere que el
estado del observador sea lo mas cerca posible al estado nominal. Para obtener eso, se
elige una accion de control u tal que:
u = u + Kec (4.34)
ec∆= (x− x)
con ec que representa el error entre el estado del observador y el estado del sistema
nominal. Se puede definir una dinamica del error:
e+c = AKec + wec (4.35)
wec = (LCee + Lv)
AK = (A + KC)
con wec ∈ Wec y:
Wec∆= LCΦee ⊕ LV (4.36)
Se hace la siguiente hipotesis:
84 4.7. MPC robusto para tracking con retroalimentacion en la salida
Hipotesis 4.5 La matriz de control K es tal que AK es estable (Hurwitz).
Esa hipotesis asegura la existencia de un conjunto invariante robusto positivo Φec
para el sistema (4.35), tal que:
AKΦec ⊕Wec ⊆ Φec
Proposicion 4.2 (Tubo) Si el estado inicial del sistema observador y del sistema
nominal, ec(0) y ee(0), son tales que ec(0) ∈ Φec y ee(0) ∈ Φee, entonces x(i) ∈ x(i)⊕Φec ∀i ∈ IN, y todas las secuencias admisibles de perturbaciones w y v. Ademas,
x(i) ∈ x(i) ⊕ Φ ∀i ∈ IN, y todas las secuencias admisibles de perturbaciones w y v,
con Φ = Φee ⊕ Φec.
La demostracion se encuentra en (Mayne et al., 2005). Se hace otra hipotesis:
Hipotesis 4.6 Existen dos matrices K, L y un conjunto invariante robusto positivo
Φee para el sistema e+e = ALee +wee y un conjunto invariante robusto positivo Φec para
el sistema e+c = AKec + wec tal que Xª Φ y UªKΦec no sean conjuntos vacıos.
Teorema 4.2 ((Mayne et al., 2006)) Sea valida la hipotesis 4.6, y sean el estado
real inicial, el estado observado inicial y el estado nominal inicial tales que x ∈ X,
x ∈ X, x ∈ X y ee(0) ∈ Φee y ec(0) ∈ Φec. Si, ademas, el estado inicial nominal x y la
correspondiente secuencia de control u son tales que x(i) = φ(i; x, u) ∈ XªΦ y u(i) ∈UªKΦec para cualquier i ∈ IN, entonces el estado y la senal de control del sistema real
(4.25) x(i) y u(i) = u(i) + K(x(i) − x(i)) satisfacen las restricciones (x(i), u(i)) ∈ Z
para cualquier i ∈ IN y todas las secuencias admisibles de perturbaciones w y v.
4.7.2.3. Set point y conjunto invariante para tracking
Siendo el centro del tubo de control determinado por el sistema nominal, el conjunto
de set point que se puedan alcanzar esta dado por los estados de equilibrio admisibles
para el sistema nominal, sujeto a las restricciones:
X = Xª Φ (4.37)
U = UªKΦec
Capıtulo 4. MPC robusto para tracking 85
Las estrategias para determinar el conjunto de estados de equilibrio deseados Xs, los
estados de equilibrio artificiales zs, y el conjunto invariante para tracking Ωwt,K
, son las
que se han descrito en el capıtulo 2.
4.7.3. MPC robusto para tracking con retroalimentacion en
la salida
Considerando todo lo que se ha presentado en el apartado anterior, se define le
funcional de coste, en el que el estado inicial del sistema nominal x es una variable de
decision que tiene que estar dentro de x⊕Φec. De eso viene que, si x− x = ec(0) ∈ Φec,
entonces ec(i) ∈ Φec, ∀i ∈ IN. En este funcional de coste, como en los anteriores, se
anade un coste de offset ‖θ−θ‖2T que penaliza la diferencia entre el estado de equilibrio
deseado y el estado de equilibrio artificial. El funcional de coste es entonces:
VN(x, θ; x, u, θ) =N−1∑i=0
‖x(i)− xs‖2Q + ‖u(i)− us‖2
R
+ ‖x(N)− xs‖2P + ‖θ − θ‖2
T
con x(i)∆= φ(i; x, u). El problema de optimizacion a resolver, PN(x, θ), es:
mınx,u,θ
VN(x, θ; x, u, θ) (4.38)
s.t. x ∈ x⊕ (−Φec)
x(i) ∈ X = Xª Φ (Φ∆= Φee ⊕ Φec)
u(i) ∈ U = UªKΦec
(x(N), θ) ∈ Ωat,K
Este problema se resolve en linea para obtener un estado nominal optimo x∗(x, θ), y
un secuencia de control optima u∗(x, θ) = u∗(0; x, θ), u∗(1; x, θ), . . . , u∗(N − 1; x, θ)para el sistema nominal y θ∗(x, θ) que define el estado de equilibrio artificial. La accion
de control que se aplica a la planta es, entonces:
kN(x, θ) = u∗(0; x, θ) + K(x− x∗(x, θ)) (4.39)
Se introduce un teorema que determina la estabilidad del controlador propuesto Con-
siderese que XN es el conjunto de estados iniciales nominales admisibles, XN es el
conjunto de estados estimados admisibles (XN = XN ⊕ Φec) y XN es el conjunto de
estados reales admisibles (XN = XN ⊕ Φ). Considerese la siguiente hipotesis:
86 4.7. MPC robusto para tracking con retroalimentacion en la salida
Hipotesis 4.7 Sean las matrices Q, R, T , P , K y K, y el conjunto Ωwt,K
tales que:
(i) Q > 0, R > 0.
(ii) Existe una constante σ > 0 tal que σT ≥ MTx Mx, con Mx = [In,0m]Mθ.
(iii) La matriz K es tal que A + BK es Hurwitz, y P > 0 tal que
P − (A + BK)>P (A + BK) = Q + K>RK (4.40)
(iv) Ωwt,K
es el conjunto invariante para tracking para el sistema nominal (4.33) su-
jeto a (4.37) y utilizando una ganancia de control K, para un dado λ ∈ (0, 1)
(arbitrariamente cerca de 1).
Nota 4.1 La matriz K tiene que ser distinta de K, siendo la prima calculada para
maximizar Ωwt,K
y la segunda para minimizar Φec (Limon et al., 2007b).
Entonces:
Teorema 4.3 Considerese el sistema (4.25) sujeto a las restricciones (4.26) tal que
sean validas las hipotesis 4.3, 4.4, 4.5, 4.6, 4.7. Sea ee(0) = (x− x) ∈ Φee. Sea kN(x, θ)
la ley de control resultado de la solucion del problema de optimizacion PN(x, θ) (4.39).
Entonces, el sistema en bucle cerrado garantiza que ∀x ∈ XN y cualquier estado de
equilibrio deseado xs ∈ λXs, el controlador MPC robusto con retroalimentacion en la
salida lleva asintoticamente el sistema en un entorno del estado de equilibrio deseado
xs ⊕ Φ de forma admisible.
El teorema se demuestra en (Alvarado, 2007).
Capıtulo 5
Aplicacion a la planta de los 4
tanques
En este capıtulo se presentan los resultados experimentales de la aplicacion del
controlador MPC para tracking a la planta de los 4 tanques, que se encuentra en los
laboratorios de la Universidad de Sevilla.
El sistema de la planta de los 4 tanques es un banco de ensayo para estrategias de
control descrito en (Johansson, 2000a). El sistema esta constituido por cuatro depositos
interconectados diagonalmente, come se ve en la figura 5.1. Las bombas de caudal
controlado A y B extraen agua del deposito inferior vertiendola en los tanques 1 y 4,
la bomba A, y en los tanques 2 y 3 la bomba B. Todos los tanques se descargan por
gravedad, el 3 sobre el 1, el 4 sobre el 2, y el 1 y el 2 sobre el deposito inferior.
El objetivo de la planta es controlar los niveles de los tanques 1 y 2 (que son las
salidas del sistema), actuando sobre los caudales de las bombas (que son las senales de
control). Las salidas del sistema es fuertemente acopladas, ya que si se desea aumentar
el nivel del deposito 1, al aumentar del caudal de la bomba A tambien aumenta el nivel
de deposito 4 que al descargarse sobre el 2 aumentarıa el nivel del mismo.
El sistema es un interesante banco de ensayos debido a que:
Todas las variables de estados son accesibles, puesto que las alturas de los lıquidos
se pueden medir.
87
88 5.1. La planta real
Figura 5.1: Esquema de la planta teorica
Dependiendo de los valores de los caudales de las bombas, el sistema puede poseer
un cero de transmision en el semiplano derecho o de fase no mınima.
El modelo del sistema es no lineal.
Las variables a controlar estan fuertemente acopladas.
5.1. La planta real
La configuracion de la planta real se ve en la figura 5.2.
En esta planta se han utilizado cuatro valvulas neumaticas, junto a cuatro cau-
dalımetros magneticos y una bomba de impulsion convencional. Con esto se consigue,
mediante un lazo de control de caudal, garantizar el caudal que circula por cada rama,
Capıtulo 5. Aplicacion a la planta de los 4 tanques 89
Figura 5.2: La planta real.
y por tanto la fraccion de caudal total por cada rama sera la consigna de cada lazo.
Esta configuracion permite de tener un sistema incluso con cuatro variables de control.
El sistema esta controlado por un automata (vease figura 5.3) y en el se imple-
mentan cuatro PID que controlan los caudales. El controlador se comunica con un PC
informando a este de los caudales y alturas; el PC proporciona las referencias de los
caudales e implementa el control a alto nivel.
90 5.1. La planta real
Figura 5.3: Automata
5.1.1. Estructura del sistema
La estructura del sistema se puede resumir ası:
Proceso industrial a controlar. Planta de los 4 tanques conectada con el hard-
ware y el software necesarios para el control.
Equipo conectado al proceso (servidor OPC). Equipo que se encuentra co-
nectado al equipo del proceso industrial que se quiere supervisar y controlar, situado
dentro de su misma red local. El servidor OPC instalado hace de puente entre el pro-
ceso industrial y la propria red local si no dispone de una direccion IP publica, o con
el exterior en caso contrario.
Cliente OPC. Para acceder a los datos que sirve el equipo conectado al proceso,
se dispone un cliente OPC, que puede leer y escribir valores en el servidor OPC.
Programa en Matlab. Programa que realice las lecturas de los valores del sistema
y de las variables a controlar, y sea capaz de modificar los mismos.
Capıtulo 5. Aplicacion a la planta de los 4 tanques 91
Programa en LabView. Como el programa Matlab, se trata de un programa que
realice las lecturas de los valores del sistema y de las variables a controlar, y sea capaz
de modificar los mismos. Este programa permite ademas de monitorear el sistema y
implementa una funcionalidad de alarma.
El funcionamiento del sistema en red local se caracteriza por el control de la planta
realizado por medio del automata y de un ordenador. El automata se ocupa del control
de bajo nivel: como ya explicado anteriormente, este aparato implementa cuatro PID
que controlan los caudales, y se comunica con el PC informando a este de los caudales
y de las alturas de agua en los cuatro tanques. El PC proporciona las referencias
de los caudales e implementa el control de alto nivel. Los datos manipulados por el
ordenador estan cargados en un servidor OPC. En este servidor se encuentran todos
los parametros de funcionamiento de la planta, y ademas una serie de item OPC que
representan las variables de estado, entrada y salida del sistema.
El esquema de control, entonces, se caracteriza por un modelo Simulink, en el cual
se pone la Matlab Function con el algoritmo de control que se quiere aplicar. Los
bloques que representan las entradas y las salidas de este mismo modelo son bloques
de la librerıa OPC, que van a leer y a escribir variables que se encuentran en el servidor
OPC.
El sistema tiene implementado un cliente OPC en LabView para supervisar y mo-
nitorear la planta mientras se realize un ensayo. La necesitad de realizar este cliente es
debida a la imposibilidad de utilizar Simulink para monitorear variables durante una
simulacion. Las pantallas LabView de monitoreo de la planta, se ensenan en figura 5.4.
El funcionamiento del cliente OPC de LabView es parecido a lo del cliente Matlab.
Por medio de este cliente se pueden configurar las variables del proceso, e incluso se
pueden configurar los PID controlados por el automata (figura 5.4(a)). Esto equivale a
escribir items en el servidor OPC. Tambien se puede supervisar la planta, visualizando
las evoluciones de alturas y caudales (figura 5.4(b)). Esto equivale a leer items desde
el servidor OPC.
92 5.1. La planta real
(a) Configuracion de las variables.
(b) Monitoreo de alturas y caudales
Figura 5.4: Cliente OPC de LabView
Capıtulo 5. Aplicacion a la planta de los 4 tanques 93
5.2. El sistema dinamico de la planta
En (Johansson, 2000b) se define un modelo a tiempo continuo en espacio de estadode la planta:
dh1
dt= − a1
A1
√2gh1 +
a3
A1
√2gh3 +
γa
A1qa (5.1)
dh2
dt= − a2
A2
√2gh2 +
a4
A2
√2gh4 +
γb
A2qb
dh3
dt= − a3
A3
√2gh3 +
(1− γb)A3
qb
dh4
dt= − a4
A4
√2gh4 +
(1− γa)A4
qa
Los parametros de la planta son:
Parametro Unidad Descripcion
Ai cm2 Secciones de los depositos
ai cm2 Areas de descarga de los depositos
hi m Niveles de agua en los depositos
qa, qb m3/h Caudales por las bombas
g m/s2 Acceleracion de gravidad
qi m3/h Caudales por las ramas
γi Parametros de las valvulas de tres vias
Linealizando el sistema en torno de un punto operacional dado por h0i y definiendo las
variables xi = hi − h0i y uj = qj − q0
j , con j = a, b y i = 1, ..., 4, se tiene que:
dx
dt=
−1τ1
0 A3
A1τ30
0 −1τ2
0 A4
A2τ4
0 0 −1τ3
0
0 0 0 −1τ4
x +
γa
A10
0 γb
A2
0 (1−γb)A3
(1−γa)A4
0
u
y =
[1 0 0 0
0 1 0 0
]x
(5.2)
con τi = Ai
ai
√2h0
i
g≥ 0, i = 1, ..., 4 que representan las constantes de tiempo de cada
planta. Los parametros γa y γb determinan la presencia de ceros de trasmision en el
94 5.2. El sistema dinamico de la planta
Cuadro 5.1: Restricciones.Parametro Valor Unidad Descripcion
H1max 1.36 m Nivel maximo en el tanque 1
H2max 1.36 m Nivel maximo en el tanque 2
H3max 1.30 m Nivel maximo en el tanque 3
H4max 1.30 m Nivel maximo en el tanque 4
H1min 0.3 m Nivel mınimo en el tanque 1
H2min 0.3 m Nivel mınimo en el tanque 2
H3min 0.3 m Nivel mınimo en el tanque 3
H4min 0.3 m Nivel mınimo en el tanque 4
Q1max 2.8 m3/h Caudal maximo por el tubo 1
Q2max 2.45 m3/h Caudal maximo por el tubo 2
Q3max 2.3 m3/h Caudal maximo por el tubo 3
Q4max 2.4 m3/h Caudal maximo por el tubo 4
Cuadro 5.2: Secciones de los tanques.Parametro Valor Unidad
A1 0.06 m2
A2 0.06 m2
A3 0.06 m2
A4 0.06 m2
sistema, para cualquier punto operacional elegido:
Si 0 ≤ γa+γb < 1 el sistema presenta ceros de trasmision en el semiplano derecho.
Si 1 < γa + γb ≤ 2 el sistema presenta ceros de trasmision en el semiplano
izquierdo.
En los cuadros 5.1 y 5.2 se muestran los valores de las restricciones de la planta y
de las medidas de las secciones de los tanques.
En (Alvarado, 2007) se presenta la identificacion del modelo en espacio de estado
(5.2). En esa identificacion se han tambien identificado lor ruidos en el estado y en la
salida, para obtener un modelo de tipo
x+ = Ax + Bu + w (5.3)
Capıtulo 5. Aplicacion a la planta de los 4 tanques 95
y = Cx + v
y poder ası aplicar el MPC robusto para tracking.
5.3. Aplicacion del MPC robusto para tracking
En este apartado se describe la aplicacion del controlador MPC robusto para tra-
cking con retroalimentacion en la salida a la planta de los 4 tanques. En esos ensayos se
han aplicado cambios en los puntos de operacion de la planta, para averiguar si efectiva-
mente el controlador funciona bien y la planta sigue la referencia sin offset. Primero se
ha aplicado el controlador en simulacion y luego se han hecho pruebas experimentales
directamente con la planta.
Las matrices utilizadas en la sıntesis del controlador son:
Q = C ′ × C R = 1 ∗ 10−4 × I4 (5.4)
El valor de la ganancia K es:
K =
[ −5,9997 −18,7429 6,2544 −37,0666
−20,6413 −12,8487 −29,7042 −3,0337
]
En la figura 5.5 se muestran:
El conjunto CΦK , proyeccion en las salidas del conjunto invariante robusto ΦK ,
y el conjunto CX, proyeccion en las salidas del conjunto de restricciones en el
estado X.
El conjunto de restricciones en la entrada U y el conjunto KΦK .
El conjunto de set-point admisibles S, y la proyeccion en las salidas del conjunto
invariante para tracking Ωt,K .
El conjunto de restricciones de control para el sistema nominal U∆= UªKΦK .
La matriz K se ha calculado utilizando un LQR:
K =
[ −38,7806 −22,3117 13,8988 −13,3518
−22,0209 −42,5509 −13,2292 8,4645
]
96 5.3. Aplicacion del MPC robusto para tracking
Figura 5.5: Conjuntos que caracterizan el MPC para tracking aplicado a la planta.
El horizonte de control elegido es N = 3. La matriz T que penaliza el error entre el
estado de equilibrio artificial y el estado de equilibrio deseado es:
T = 100× P = 1× 104 ×
1,3107 1,0743 1,4670 0,7893
1,0743 1,7371 0,5064 2,4905
1,4670 0,5064 2,5572 −0,8392
0,7893 2,4905 −0,8392 4,9117
5.3.1. Resultados
En este apartado se presentan resultados de simulacion y resultados reales de la
aplicacion del MPC robusto a la planta de los 4 tanques.
Las figuras 5.6 muestra la simulacion de la evolucion de las salidas (los cırculos rojos
representan las referencias).
La figura 5.7 muestra la simulacion de la evolucion en le tiempo de las salidas
(en linea continua) y de las referencias (en linea de tratos). Se nota como, el cero
de trasmission en el semiplano derecho determina una respuesta inversa frente a un
Capıtulo 5. Aplicacion a la planta de los 4 tanques 97
Figura 5.6: Simulacion de la evolucion de las salidas
escalon. La segunda grafica muestra la evolucion de las senales de control.
La figura 5.8 muestra la evolucion real de las salidas de la planta. Se nota la presencia
del error entre el modelo de simulacion y el modelo real, pero las evoluciones son
parecidas.
En la figura 5.9 se muestra las evolucion en el tiempo de las salidas reales (en
linea continua) y de las referencias (en linea de tratos). En este caso se nota como las
trayectorias de la planta son admisibles pero, a diferencia del ensayo en simulacion, es
presente un offset, debido a ruidos propios de la planta real. La segunda grafica muestra
la evolucion de las senales de control.
98 5.3. Aplicacion del MPC robusto para tracking
0 200 400 600 800 1000 1200
0.5
0.6
0.7
0.8
0.9
Evolución de los niveles h1, h
2 y de las referencias
0 200 400 600 800 1000 12000
2
4caudales
0 200 400 600 800 1000 12000.4
0.6
0.8
1
h3 y h
4
Figura 5.7: Simulacion de la evolucion temporal de la planta
Figura 5.8: Evolucion de las salidas
Capıtulo 5. Aplicacion a la planta de los 4 tanques 99
0 500 1000 1500 2000 2500 3000 3500
0.5
0.6
0.7
0.8
0.9
Evolución de los niveles h1, h
2 y de las referencias
0 500 1000 1500 2000 2500 3000 35000
1
2
3
x 10−3 caudales
0 500 1000 1500 2000 2500 3000 3500
0.5
1
h3 y h
4
Figura 5.9: Evolucion de la planta en el tiempo
100 5.3. Aplicacion del MPC robusto para tracking
Capıtulo 6
Conclusiones
En esta memoria se ha presentado el trabajo realizado como proyecto final del
Master en Automatica, Robotica y Telematica de la Universidad de Sevilla, impartido
en el Curso 2006/2007.
El objetivo de este trabajo ha sido estudiar lo que es el control predictivo en parti-
cular modo relacionado al tracking, es decir al seguimiento de referencias.
En el capıtulo 1 de esta memoria se han presentado las motivaciones y los objetivos
de este trabajo final del master, y que seran la base del futuro trabajo de investigacion
que se desarrollara en el curso del doctorado.
En el capıtulo 2 se ha presentado una nueva formulacion de controlador predictivo
para seguimiento de referencias para sistemas con puntos operativos cambiantes. Las
principales caracterısticas de ese controlador son: se considera un punto de equilibrio
artificial como variable de decision; se modifica el funcional de coste, penalizando la
diferencia entre el punto de equilibrio artificial y el punto de equilibrio deseado; se
considera una restriccion terminal extendida, anadendo un termino de penalizacion del
error de tracking en el funcional de coste y anadendo una restriccion terminal en el
estado terminal y en el punto de equilibrio artificial.
El controlador permite alcanzar cualquier punto de equilibrio admisible, y si no lo
es, el sistema alcanza el punto admisible mas cercano. La ley de control se obtiene
resolviendo un unico problema de optimizacion QP multiparametrico. El controlador
propuesto es interesante tambien en caso de problemas de regulacion porque permite
101
102 6.1. Trabajo futuro
obtener un mayor dominio de atraccion con un funcionamiento local casi optimo. Se
ha presentado ademas una aplicacion del controlador a una planta de laboratorio.
En el capıtulo 3 se ha presentado una nueva formulacion del controlador predic-
tivo descrito en el capıtulo 2, en la que se utiliza un nuevo funcional de coste para
evitar problemas de perdida de optimalidad local. Esa formulacion resuelve un lımite
del controlador anterior, es decir la imposibilidad para el MPC a horizonte finito sin
restricciones de hallar un coste igual a lo de un LQR con restricciones, debido a la
presencia del coste de offset cuadratico. El nuevo controlador propuesto en este capıtu-
lo resuelve ese problema gracias al utilizo de una funcion de penalizacion exacta en
norma infinito para el coste de offset, permitiendo de toda manera la formulacion del
problema de optimizacion como un problema QP.
En el capıtulo 4 se ha presenta un controlador predictivo robusto para seguimiento
de referencias para sistemas con puntos de operacion cambiantes. Por un lado el con-
trolador tiene que ser capaz de garantizar la estabilidad a pesar de la presencia de las
incertidumbres. Por otro lado, se tiene que garantizar la factibilidad del controlador
en casos de cambios de puntos de operacion. El controlador MPC propuesto en este
capıtulo se ha mostrado capaz de controlar un sistema incierto en caso de incertidum-
bres acotadas. El seguimiento de referencia se basa en el controlador presentado en el
capıtulo 2. Se han descrito sus propiedades y se ha presentado ademas una version de
este controlador con retroalimentacion en la salida, necesaria en los casos en lo cuales
no sea posible medir el estado del sistema.
En el capıtulo 5 se han presentado los resultados experimentales de la aplicacion
del controlador MPC para tracking a la planta de los 4 tanques, que se encuentra en
los laboratorios de la Universidad de Sevilla.
6.1. Trabajo futuro
El trabajo que se ha presentado en esa memoria representa la base de lo que se quiere
planificar como linea de investigacion futura para el desarrollo de la tesis doctoral.
En primer lugar, basandose en los resultados obtenidos en el tema de la optimalidad,
presentados en el capıtulo 3, un primero objetivo que se quiere conseguir es estudiar
el problema de la formulacion del controlador MPC para tracking considerando un
Capıtulo 6. Conclusiones 103
funcional de coste que sea formulados en norma infinito o norma uno. Eso conlleva
la necesidad de replantear todo el problema en estudio, formulando el problema de
optimizacion como problema de programacion lineal LP. Seria tambien interesante
estudiar como se pueda mejorar el tema de la optimalidad local en los casos de los
controladores robustos que se han presentado en el capıtulo 4. En particular, seria
interesante en principio formular el problema MPC con el nuevo funcional de coste
presentado en el capıtulo 3 para el caso de un sistema nominal, y luego replantear
el entero problema considerando un funcional de coste que sea formulados en norma
infinito o norma uno, y un problema de optimizacion que sea un LP.
Otro tema interesante que se quiere investigar es la posibilidad de aplicar un con-
trolador MPC para tracking tambien a sistemas que no sean lineales. En particular, lo
que se quiere hacer es un estudio del problema del seguimiento de referencia en caso
de sistemas hıbridos y no lineales, para luego formular un controlador que permita
controlar esta categorıa de sistemas en caso de cambios en los puntos de operacion,
garantizando las mismas propiedades que se pueden garantizar en el caso de sistemas
lineales.
Otro objetivo que seria interesante de alcanzar es conseguir que todos esos resultados
teoricos que se espera poder obtener durante el desarrollo de la tesis, sean comprobados
con pruebas experimentales.
104 6.1. Trabajo futuro
Bibliografıa
Alamir, M. and Bornard, G. (1995), ‘Stability of truncated infinite constrained receding
horizon scheme: The gerenal discrete nonlinear case’, Automatica 31, 1353–1356.
Alamo, T., de la Pena, D. M., Limon, D. and Camacho, E. F. (2005), ‘Constrained
min-max predictive control: Modifications of the functional leading to polynomial
complexity’, IEEE Transactions on Automatic Control 50, 710–714.
Alvarado, I. (2007), Model Predictive Control for Tracking Constrained Linear Systems,
PhD thesis, Univ. de Sevilla.
Angeli, D. and Mosca, E. (1999), ‘Command governors for constrained nonlinear sys-
tems.’, IEEE Transactions on Automatic Control 44, 816820.
Becerra, V. and Roberts, P. (1996), ‘Dynamic integrated system optimisation and pa-
rameter estimation for discrete time optimal control of nonlinear systems.’, Int.
Journal of Control 63, 257–281.
Becerra, V., Roberts, P. and Griffiths, G. (1997), Process optimisation using predictive
control: application to a simulated reaction system., in ‘Proc. IFAC Symp. On
Advanced Control of Chemical Processes’.
Becerra, V., Roberts, P. and Griffiths, G. (1998), ‘Novel developments in process opti-
misation using predictive control.’, Journal of Process Control 8, 117–138.
Bellman, R. (1957), Dynamic Programming, Princeton Universuty Press.
Bemporad, A. (1998a), Reducing conservativeness in predictive control of constrained
systems with disturbances, in ‘Proceedings of the CDC’.
Bemporad, A. (1998b), ‘Reference governor for constrained nonlinear systems.’, IEEE
Transactions on Automatic Control 43, 415419.
105
106 BIBLIOGRAFIA
Bemporad, A., Casavola, A. and Mosca, E. (1997), ‘Nonlinear control of constrained
linear systems via predictive reference management.’, IEEE Transactions on Au-
tomatic Control 42, 340–349.
Bemporad, A., Chisci, L. and Mosca, E. (1995), ‘On the stabilizing property of
SIORHC’, Automatica 31, 2013–2015.
Bemporad, A., Morari, M., Dua, V. and Pistikopoulos, E. (2002), ‘The explicit linear
quadratic regulator for constrained systems’, Automatica 38, 3–20.
Bertsekas, D. M. (1972), ‘Infinite-time reachability of state-space regions by using feed-
back control’, IEEE Transactions on Automatic Control 17, 604–612.
Bitmead, R. R., Gervers, M. and Wertz, V. (1990), Adaptive optimal control - The
thinking’s man GPC, Prentice-Hall.
Blanchini, F. (1999), ‘Set invariance in control’, Automatica 35, 1747–1767.
Blanchini, F. and Miani, S. (2000), ‘Any domain of attraction for a linear constrained
system is a tracking domain of attraction.’, SIAM J. Control Optim. 38, 971–994.
Boyd, S. and Vandenberghe, L. (2006), Convex Optimization, Cambridge University
Press.
Bryson, A. and Ho, Y. (1969), Applied Optimal Control, Blaisdell Publishing Company.
Camacho, E. F. and Bordons, C. (1999), Model Predictive Control, 1 edn, Springer-
Verlag.
Camacho, E. F. and Bordons, C. (2004), Model Predictive Control, 2nd edn, Springer-
Verlag.
Campo, P. J. and Morari, M. (1987), Robust model predictive control, in ‘Proceedings
of the ACC’.
Chen, H. and Allgower, F. (1998), ‘A quasi-infinite horizon nonlinear model predictive
control scheme with guaranteed stability’, Automatica 34(10), 1205–1218.
Chisci, L., and Mosca, E. (1994), ‘Stabilizing i-o receding horizon control of CARMA
plants’, IEEE Transactions on Automatic Control 39, 614–618.
Chisci, L., Lombardi, A. and Mosca, E. (1996), ‘Dual receding horizon control of cons-
trained discrete-time linear systems’, European Journal of Control 2, 278–285.
BIBLIOGRAFIA 107
Chisci, L., Rossiter, J. A. and Zappa, G. (2001), ‘Systems with persistent disturbances:
predictive control with restricted constraints’, Automatica 37, 1019–1028.
Chisci, L. and Zappa, G. (1999), Robustifying a predictive controller against persistent
disturbances, in ‘Proceedings of the ECC’.
Chisci, L. and Zappa, G. (2003), ‘Dual mode predictive tracking of piecewise constant
references for constrained linear systems’, Int. J. Control 76, 61–72.
Clarke, D. W., Mohtadi, C. and Tuffs, P. S. (1987a), ‘Generalized predictive control.
Part I: The basic algorithms’, Automatica 23, 137–148.
Clarke, D. W., Mohtadi, C. and Tuffs, P. S. (1987b), ‘Generalized predictive control.
Part II: Extensions and interpretations’, Automatica 23, 149–160.
Cutler, C. R. and Ramaker, B. L. (1980), Dynamic matrix control- a computer control
algorithm, in ‘Proceedings of Automatic Control Conference’.
De Nicolao, G., Magni, L. and Scattolini, R. (1996), ‘On the robustness of receding ho-
rizon control with terminal constraints’, IEEE Transactions on Automatic Control
41, 451–453.
De Nicolao, G., Magni, L. and Scattolini, R. (1998), ‘Stabilizing receding-horizon con-
trol of non-linear time-varying systems’, IEEE Transactions on Automatic Control
43, 1030–1036.
De Oliveira Kothare, S. L. and Morari, M. (2000), ‘Contractive model predictive con-
trol for constrained nonlinear systems’, IEEE Transactions on Automatic Control
45, 1053–1071.
de Prada, C. (2004), ‘El futuro del control de procesos’, Revista Iberoamericana de
Automatica Industrial 1, 1–10.
Domınguez, S., Campoy, P., Sebastian, J. and Jimenez, A. (2002), Control en el espacio
de estados, Prentice Hall.
Ferramosca, A., Alvarado, I., Limon, D. and Camacho, E. F. (2007), MPC para el
seguimiento del angulo de cabeceo de un helicoptero, in ‘XXXVIII Jornadas de
Automatica. Huelva, Espana. 3-5 September’.
Fontes, F. and Magni, L. (2003), ‘Min-max model predictive control of nonlinear sys-
tems using discontinuous feedbacks.’, IEEE Transactions on Automatic Control
48(10), 1750–1755.
108 BIBLIOGRAFIA
Garcıa, C. E. and Morshedi, A. M. (1986), ‘Quadratic programming solution of dynamic
matrix control (QDMC)’, Chemical Engineering Communications 46, 73–87.
Garcia-Sanz, U. and Elso, J. (2007), ‘Ampliacion del benchmark de diseno de contro-
ladores para el cabeceo de un helicoptero’, RIAI 4(1), 107–110.
Garcia-Sanz, U., Elso, J. and Engana, I. (2006), ‘Control del angulo de cabeceo de un
helicoptero como benchmark de diseno de controladores’, RIAI 3(2), 111–116.
Genceli, H. and Nikolau, M. (1993), ‘Robust stability analysis of constrained l1-norm
model predictive control’, AIChE Journal 39, 1954–1965.
Geromel, J. C. and Da Cruz, J. J. (1987), ‘On the robustness of optimal regulators
for nonlinear discrete-time systems’, IEEE Transactions on Automatic Control
32, 703–710.
Gilbert, E. G. and Tan, K. (1991), ‘Linear systems with state and control constraints:
The theory and application of maximal output admissible sets’, IEEE Transactions
on Automatic Control 36, 1008–1020.
Gilbert, E. and Kolmanovsky, I. (2002), ‘Nonlinear tracking control in the presence
of state and control constraints: A generalized reference governor.’, Automatica
38, 20632073.
Gilbert, E., Kolmanovsky, I. and Tan, K. (1994), Nonlinear control of discrete-time
linear systems with state and control constraints: A reference governor with global
convergence properties., in ‘Proceedings of the CDC’.
Gilbert, E., Kolmanovsky, I. and Tan, K. T. (1999), ‘Discrete time reference gover-
nors and the nonlinear control of systems with state and control constraints.’,
International Journal of Robust and Nonlinear Control 5, 487–504.
Glad, S. T. (1987), ‘Robustness of nonlinear state feedback - a survey’, Automatica
23, 425–435.
Hu, B. and Linnemann, A. (2002), ‘Towards infinite-horizon optimality in nonlinear
model predictive control’, IEEE Transactions on Automatic Control 47(4), 679–
682.
Jadbabaie, A., Yu, J. and Hauser, J. (2001), ‘Unconstrained receding-horizon control
of nonlinear systems’, IEEE Transactions on Automatic Control 46(5), 776–783.
Johansson, K. H. (2000a), ‘The quadruple-tank process’, IEEE Trans. Cont. Sys. Te-
chn. 8, 456–465.
BIBLIOGRAFIA 109
Johansson, K. H. (2000b), ‘The quadruple-tank process’, IEEE Transactions on Auto-
matic Control .
Keerthi, S. S. and Gilbert, E. G. (1988), ‘Optimal infinite-horizon feedback laws for a
general class of constrained discrete-time systems: Stability and moving-horizon
approximations’, Journal of Optimization Theory and Applications 37, 265–293.
Kerrigan, E. C. (2000), Robust Constraint Satisfaction: Invariant Sets and Predictive
Control, PhD thesis, University of Cambridge.
Kolmanovsky, I. and Gilbert, E. G. (1998), ‘Theory and conmputation of disturbance
invariant sets for discrete-time linear systems’, Mathematical Problems in Engi-
neering: Theory, Methods and Applications 4, 317–367.
Kothare, M. V., Balakrishnan, V. and Morari, M. (1996), ‘Robust constrained model
predictive control using linear matrix inequalities’, Automatica 32, 1361–1379.
Kwon, W. H. and Pearson, A. E. (1977), ‘A modified quadratic cost problem and
feedback stabilization of a linear system’, Automatica 22, 838–842.
Langson, W., Chryssochoos, I., Rakovic, S. and Mayne, D. Q. (2004), ‘Robust model
predictive control using tubes.’, Automatica 40, 125–133.
Lee, E. B. and Markus, L. (1967), Foundations of optimal control theory, Wiley.
Lee, J. H. and Yu, Z. (1997), ‘Worst-case formulations of model predictive control for
systems with bounded parameters’, Automatica 33, 763–781.
Limon, D. (2002), Control Predictivo de sistemas no lineales con restricciones: estabi-
lidad y robustez, PhD thesis, Universidad de Sevilla.
Limon, D., Alamo, T. and Camacho, E. (2005), ‘Enlarging the domain of attraction of
MPC controllers’, Automatica 41, 629–645.
Limon, D., Alamo, T., Salas, F. and Camacho, E. (2006), ‘Input to state stability
of min-max MPC controllers for nonlinear systems with bounded uncertainties’,
Automatica 42, 629–645.
Limon, D., Alvarado, I., Alamo, T. and Camacho, E. (2005), Mpc for tracking of piece-
wise constant references for constrained linear systems, in ‘Proceedings of the
IFAC World Congress’.
Limon, D., Alvarado, I., Alamo, T. and Camacho, E. (2007a), ‘Mpc for tracking of piece-
wise constant references for constrained linear systems’, Automatica . Accepted
for publication.
110 BIBLIOGRAFIA
Limon, D., Alvarado, I., Alamo, T. and Camacho, E. (2007b), Robust tube based MPC
for tracking of piece-wise constant references for constrained linear systems with
aditive disturbances, in ‘Proceedings of the CDC’.
Limon, D., Bravo, J., Alamo, T. and Camacho, E. (2005), ‘Robust MPC of constrained
nolinear systems based on interval arithmetic’, IEE Control Theory and Applica-
tions 152, 325–332.
Luenberger, D. E. (1989), Programacion lineal y no lineal, Addison-Wesley Iberoame-
ricana.
Magni, L., De Nicolao, G., Magnani, L. and Scattolini, R. (2001), ‘A stabilizing model-
based predictive control algorithm for nonlinear systems’, Automatica 37, 1351–
1362.
Magni, L., Nijmeijer, H. and van der Shaft, A. (2001), ‘A receding-horizon approach
to the nonlinear H∞ control problem’, Automatica 37, 429–435.
Magni, L. and Sepulchre, R. (1997), ‘Stability margins of nonlinear receding-horizon
control via inverse optimality’, Systems & Control Letters 32, 241–245.
Marquis, P. and Broustail, J. P. (1988), SMOC, a bridge between state space and model
predictive controllers: application to the automation of a hydrotreating unit, in
‘Proceedings of the IFAC Workshop on model based predictive control’.
Mayne, D. Q. (2001), ‘Control of constrained dynamic systems’, European Journal of
Control 7, 87–99.
Mayne, D. Q. and Michalska, H. (1990), ‘Robust horizon control of nonlinear systems’,
IEEE Transactions on Automatic Control 35, 814–824.
Mayne, D. Q., Rakovic, S. V., Findeisen, R. and Allgower, F. (2006), ‘Robust out-
put feedback model predictive control of constrained linear systems.’, Automatica
42, 1217–1222.
Mayne, D. Q., Rawlings, J. B., Rao, C. V. and Scokaert, P. O. M. (2000), ‘Constrained
model predictive control: Stability and optimality’, Automatica 36, 789–814.
Mayne, D. Q., Seron, M. and Rakovic, S. (2005), ‘Robust model predictive control of
constrained linear systems with bounded disturbances.’, Automatica 41, 219–224.
Michalska, H. and Mayne, D. Q. (1993), ‘Robust receding horizon control of constrained
nonlinear systems’, IEEE Transactions on Automatic Control 38(11), 1623–1633.
BIBLIOGRAFIA 111
Morari, M. (1994), Model predictive control: Multivariable control technique of choice
in the 1990s?, in D. Clarke, ed., ‘Advances in Model-Based Predictive Control’,
Oxford University Press.
Muske, K. and Rawlings, J. (1993), ‘Model predictive control with linear models’,
AIChE Journal 39, 262–287.
Nevistic, V. (1997), Constrained control of nonlinear systems, PhD thesis, Swiss Federal
Institute of technology (ETH), Zurich (Suiza).
Pannocchia, G. (2004), ‘Robust model predictive control with guaranteed setpoint tra-
cking’, Journ. of Process Control .
Pannocchia, G. and Kerrigan, E. (2003), Offset-free receding horizon control of cons-
trained linear systems subject to time-varying set points and persistents unmea-
sured disturbances, Technical Report CUED/F-INFENG/TR.468, Department of
Engineering. University of Cambridge.
Parisini, T. and Zoppoli, R. (1995), ‘A receding-horizon regulator for nonlinear systems
and a neural approximation’, Automatica 31(10), 1443–1451.
Primbs, J. A., Nevistic, V. and Doyle, J. C. (2000), ‘A receding horizon generaliza-
tion of pointwise min-norm controllers’, IEEE Transactions on Automatic Control
45, 898–909.
Propoi, A. I. (1963), ‘Use of linear programming methods for synthesizing sampled-data
automatic systems’, Automation and Remote Control 24, 837–844.
Qin, S. J. and Badgwell, T. A. (1997), An overview of industrial model predictive con-
trol technology, in ‘Proceedings of the conference on Chemical Process Control’.
Rakovic, S., Kerrigan, E., Kouramas, K. and Mayne, D. Q. (2005), ‘Invariant approxi-
mations of the minimal robustly positively invariant sets’, IEEE Transactions on
Automatic Control 50, 406–410.
Rawlings, J. B. and Muske, K. R. (1993), ‘Stability of constrained receding horizon
control’, IEEE Transactions on Automatic Control 38, 1512–1516.
Richalet, J., Rault, A., Testud, J. L. and Papon, J. (1978), ‘Model predictive heuristic
control: Applications to industrial processes’, Automatica 14, 413–428.
Rossiter, J. and Kouvaritakis, B. (1998), Reference governors and predictive control,
in ‘Proceedings of the ACC’.
112 BIBLIOGRAFIA
Rossiter, J., Kouvaritakis, B. and Gossner, J. (1996), ‘Guaranteeing feasibility in cons-
trained stable generalized predictive control.’, IEE Proc. Control theory Appl.
143, 463–469.
Scokaert, P. O. M. and Mayne, D. Q. (1998), ‘Min-max feedback model predictive
control for constrained linear systems’, IEEE Transactions on Automatic Control
43(8), 1136–1142.
Scokaert, P. O. M., Mayne, D. Q. and Rawlings., J. B. (1999), ‘Suboptimal model
predictive control (feasibility implies stability)’, IEEE Transactions on Automatic
Control 44(3), 648–654.
Scokaert, P. O. M., Rawlings, J. B. and Meadows, E. S. (1997), ‘Discrete-time sta-
bility with perturbations: Application to model predictive control’, Automatica
33(3), 463–470.
Sznaier, M. and Damborg, M. J. (1987), Suboptimal control of linear systems with
state and control inequality constraints, in ‘Proceedings of the CDC’.
Tøndel, P., Johansen, T. A. and Bemporad, A. (2002), Complexity reduction in linear
model predictive control, in ‘Proceedings of the IFAC World Congress’.
Vesely, V., Kralova, Z., Harsanyi, L. and Hindi, K. (1998), ‘Modified feasible method for
hierarchical steady-state control of complex sytems.’, IEE Proc. Control Theory
Appl. 145.
Yang, T. H. and Polak, E. (1993), ‘Moving horizon control of nonlinear systems with
input saturation, disturbances and plant uncertainty’, International Journal of
Control 58, 875–903.
Zafiriou, E. (1990), ‘Robust model predictive control of systems with hard constraints’,
Computers and Chemical Engineering 14, 359–371.