13
Instituto Universitario Politécnico. “Santiago Mariño”. Extensión Porlamar. Escuela de ingeniería de sistemas REALIZADO POR: Br. Quintero Luisanny C.I.: 24.905.763 METODOS DE OPTIMIZACION

Metodos de optimizacion

Embed Size (px)

Citation preview

Page 1: Metodos de optimizacion

Instituto Universitario Politécnico.“Santiago Mariño”.Extensión Porlamar.

Escuela de ingeniería de sistemas

REALIZADO POR:Br. Quintero LuisannyC.I.: 24.905.763

METODOS DE OPTIMIZACION

Page 2: Metodos de optimizacion

Método Lagrange

En los problemas de optimización, los multiplicadores de Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones.

Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.

Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.

Page 3: Metodos de optimizacion
Page 4: Metodos de optimizacion

Ejemplo:

Page 5: Metodos de optimizacion

Matriz Jacobiana

La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto.

En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n dimensional a otro espacio euclidiano m-dimensional.

Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F

Page 6: Metodos de optimizacion
Page 7: Metodos de optimizacion

Kuhn Tucker

No existe una única forma de abordar la resolución de un problema de programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación de este teorema en este caso para problemas sólo con restricciones "<=" (menor o igual).

Si el problema tiene restricciones ">=" éstas se pueden transformar por "<=" multiplicando por - 1. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente.

Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infactible.

Page 8: Metodos de optimizacion

Sin pérdida de generalidad un modelo de Programación No Lineal se puede representar a través del siguiente formato:

Luego podemos reescribir cualquier problema en dicha estructura manteniendo la equivalencia de la representación matemática. Para ejemplificar lo anterior consideremos el siguiente modelo de optimización no lineal que resulta de interés su resolución.

Page 9: Metodos de optimizacion

Notar que sólo fue necesario cambiar la forma de las restricciones de no negatividad (esto se puede hacer multiplicando por -1 cada una de ellas). Cabe destacar que en este caso en particular el problema no considera restricciones de igualdad. Luego las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT) están dadas por:

Al calcular los gradientes respectivos se obtiene:

Page 10: Metodos de optimizacion

Lo cual da origen al siguiente sistema de ecuaciones:

Reemplazando x1=2 y x2=1 podemos despejar los valores de los multiplicadores los cuales cumplen con las condiciones de no negatividad:

Adicionalmente se puede verificar que x1=2 y x2=1 satisface las restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha solución cumple las condiciones necesarias de primer orden de Karush Kuhn Tucker (KKT).

Page 11: Metodos de optimizacion

Extremos no estrictos con dos variables

Dada una función de varias variables, sabemos que presenta un punto crítico cuando su gradiente es nulo. Para identificar de qué punto crítico se trata, debemos usar el criterio de la segunda derivada.

Éste establece que dada una función f(x; y) que presenta un punto crítico en (x0; y0), podemos calcular el siguiente discriminante

Si D > 0 y 22xf local en (x0; y0).

Si D < 0, se tiene un punto silla en (x0; y0).

Finalmente, si D= 0 el criterio de la segunda derivada no decide la naturaleza del punto crítico en (x0;y0).

Page 12: Metodos de optimizacion

Cuando se desea obtener los extremos absolutos de una función en una cierta región del dominio, se deben seguir los siguientes pasos:

1. Hallar los puntos críticos de la función en el dominio y calcular su valor en ellos.

2. Hallar los valores extremos de la función sobre la frontera del dominio.

3. Determinar los valores máximo y mínimo de entre todos los hallados en los dos puntos anteriores.

Page 13: Metodos de optimizacion

Ejemplo: