19
Optimización SIN RESTRICCIONES Métodos de optimización sin restricciones con 2 variables Nuevos Ejercicios Resueltos Todo lo que necesitas en un solo lugar Año 2015 ● N°001 ● Revista de Investigación IUPSM Sección SI

Optimización sin Restricciones

Embed Size (px)

DESCRIPTION

Optimización sin Restricciones. Funciones de dos variables. conceptos, características y mucho mas

Citation preview

Optimización SIN RESTRICCIONES

Métodos de optimización sin restricciones con 2 variables

Nuevos

Ejercicios

Resueltos

Todo lo que necesitas en un solo lugar

Año 2015 ● N°001 ● Revista de Investigación ● IUPSM ● Sección SI

Instituto Universitario Politécnico Santiago Mariño

Extensión Maracay

Escuela de Sistemas

Profesor Luis E. Aponte Sección: SI

Integrantes: Gloria Velasquez

Cesar Bravo

Manuel Romero

Etapas

Importancia

Problemas

resueltos

Contenido MULTIMEDIA

TWITTER @SISTEMAS

FACEBOOK

REVISTA SISTEMAS

INSTAGRAM REVISTA SISTEMAS

Existen muchas definiciones

Para Church-

man y Arnoff:

La investigación

de operaciones

es la aplicación,

por grupos in-

terdisciplinarios, del método

científico a problemas rela-

cionados con el control de las

organizaciones o sistemas

(hombre – ma-

quina). A fin de

que se produz-

can soluciones

que mejor sirvan

Un gran número de problemas de Ingeniería se pueden formular

de esta forma.

La investigación de operacio-nes es una herramienta básica para la toma de las decisiones en las empresas por su enfo-que cuantitativo, apoyada por las matemáticas. Las prime-ras investigaciones de opera-ciones fueron puestas en práctica a principios de la se-gunda guerra mundial, para desarrollar estrategias y tácti-cas de guerra. Para todo esto, los altos mandos militares americanos e ingleses hicie-ron un llamado a todos los científicos para que diseñaran este método, desarrollando primero el “radar”. En 1950 se introdujo a la industria, los negocios y el gobierno, un ejemplo sobresaliente es el método “Simplex” para resol-ver problemas de programa-

ción lineal, desarrollada en 1947 por George Dantzing. El auge mayor para darle la apli-cación universal en casi todas las empresas del mundo fue con el inicio de las compu-tadoras en 1980. La aplicación de los métodos de investigación de operacio-nes, sirve a los profesionistas para tomar las decisiones más acertadas en el ámbito labo-ral. Las empresas deben con-tar con estos métodos, para resolver problemas de optimi-zación de recursos en la enti-dad. La observación es base fundamental para identificar problemas, desarrollándola mediante la formulación del planteamiento del problema y de esta forma determinar las variables culminando con la

La función f(x) a optimizar se suele denominar función objeti-vo. Es muy importante la formu-lación matemática de esta función, así como

el cálculo de sus deriva-das de primer y segundo

orden.

Las variables de las que depende la función objetivo se llaman variables de

diseño y se agrupan en un vector xЄRn. Con frecuencia las variables de diseño

deben satisfacer ciertas restricciones, de igualdad o de-

m1,...,k

0

xkg

Han sido desarrollados, básicamente tres métodos para llevar a ca-bo la búsqueda directa unidireccional, basados en las condiciones de optimalidad. Estos son:

1.- Método de Newton 2.- Aproxima-ciones finitas al método de Newton (Métodos cuasi-Newton) 3.- Métodos de

secante. Para comparar la eficacia de cada método, es útil examinar la velocidad de convergencia de cada uno de ellos. Las velocidades de convergencia se pue-den clasificar de muchas maneras, las más comu-nes son:

De acuerdo con la primera condición necesaria para

que una función tuviera un mínimo local se debe cum-plir que f x '( ) = 0. Por lo tanto podemos aplicar el mé-todo de Newton a la derivada, así:

Asegurándonos que en la etapa k, ,para minimización. Realmente lo que hace el método de Newton es aproximar la función por una función cuadrática en xk . y dado que f x '( ) = 0, diferenciando la ecuación anterior: Que se puede reordenar para dar la primera ecuación. El método de Newton es equivalente a usar un modelo cuadrático y aplicar las condiciones necesarias de optimalidad.

Las ventajas del método de Newton son: 1.- El procedimiento es cuadráticamente conver-gente (p=2), siempre que f ('' x) ≠ 0 2.- Para una función cua-drática el mínimo se ob-tiene en una única iteración.

Las desventajas son: 1.- Se debe calcular tanto f’(x) como f’’(x). 2.- Si f’’(x)→0 el método con-verge muy lentamente. 3.- Si existe más de un extre-mo, el método podría no con-verger al extremo desea-do. Además el método podría oscilar.

Los métodos en diferencias finitas tipo Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o ésta vie-ne dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en diferencias finitas.

Los métodos de secante toman dos puntos, xp y x q y resuelve una ecuación similar a la dada en el método de Newton: donde m es la pendiente de la línea que conecta xp con x q . dada por:

El método de la secante aproxima la segunda derivada por una línea recta. Cuando xq→x p el valor de m se aproximará al valor de la segunda derivada. En este sentido el método de la secante se podría considerar también un método cuasi Newton. Admitiendo que la función es unimodal, el método comienza con dos puntos cualquiera del intervalo de tal manera que la primera derivada tenga signos diferentes. Calculando el cero de la ecuación de partida se obtiene:

Los dos puntos seleccionados para el paso siguiente son x ~ * y x p ó xq dependiendo de los

signos de f’(xp ) y de f’(xq ) con respecto al de f x( *) ~ . El método de la secante parece bastante “crudo” pero funciona bastante bien en la práctica. El orden de convergencia para funciones de una sola variable es de (1 5 2 16 + ≈ ) / . . Su convergencia es ligeramente menor que la del método de Newton de diferencias finitas, pero en muchas ocasiones

En muchos problemas las restricciones se pue-den incluir dentro de la función objetivo, por lo que la dimensionalidad del problema se reduce a una variable. Algunos problemas sin restricciones, inherente-mente incluyen una única variable. Las técnicas de optimización con y sin restric-ciones, generalmente incluyen pasos de búsque-da unidireccional en sus algoritmos.

El método de eliminación de variables no resul-

ta operativo cuando el problema tiene muchas

restricciones o las restricciones son comple-

jas, por lo que resulta muy útil éste método.

Los Multiplicadores de Lagrange es un método

alternativo que además proporciona más in-

formación sobre el problema.

Todos los óptimos que verifiquen las condicio-

nes de regularidad establecidas tienen asocia-

dos los correspondientes multiplicadores.

El teorema de Lagrange establece una condi-

ción necesaria de optimalidad (bajo las condi-

ciones de regularidad).

Una compañía destina su planta a la elaboración de dos tipos de bienes A y B.

Obtiene un beneficio de 4 dolares. por unidad de A y de 6 dolares por unidad de

B. Los números de unidades de los dos tipos que puede producir mediante la

planta están restringidos por la ecuación de transformación del producto dada

por :

con X,Y los numeros de unidades ( en miles) de A y B respectivamente produci-

das por semana. Hallar las cantidades de cada tipo que deben producirse a fin

de maximizar la utilidad

Solución:

Beneficio: 4x+6y

Ecuación de Lagrange:

Bx=

By=

X=.66 ; Y= .49

máximo

El beneficio es de 5.58miles de dolares

044222 yxyx

)442(64 22 yxyxyx

0224 x

0426 y

1

2

x

2

3

y

2

13 x

y

66.13

1336*6

13*2

13*21312

;0232613

04)13(22)13(4

1

2

22

X

xx

xxxx

0

2

2

Bxy

Byy

Bxx

0

04

1

2

2

H

H