10
Sistema CETYS Universidad. Colegio de Ingeniería. Campus Mexicali. Escuela de Ingeniería. Modelos de Investigación de Operaciones II. Problemas de la Unidad de Cadenas de Markov. Fecha de Entrega: Noviembre 09 del 2015 Valor: 100 puntos. Solución de problemas estructurados de Cadenas de Markov. (1) Un despacho de bienes y raices que utiliza dos computadoras muy viejas para tareas de formulación de documentos está padeciendo de altos costos y frecuentes inconvenientes debido al volumen crónico de fallas de dichas computadoras. Se ha observado que cuando ambas computadoras están funcionando por la mañana, existe un 30% de probabilidad de que una de ellas falle durante la tarde y un 10% de probabilidad de que ambas computadoras fallen al llegar la tarde. Si sucede que solo una de las dos computadoras está funcionando al inicio del día, existe una probabilidad del 20% de que la computadora falle al término del día. Si ninguna de las dos computadoras está disponible al inicio del día, el despacho tiene que enviar toda la documentación que se debe formular en ese día a un servicio externo de formulación de documentos. En estos días es obvio que no pueden darse fallas de las computadoras. La reparación de las computadoras del despacho las realiza un taller de computación externo. Este taller recoge las computadoras descompuestas durante el día y las regresa al despacho la mañana siguiente en condiciones de operación. El tiempo de reparación de un día ocurre tanto para cuando hay una computadora descompuesta, como cuando son dos. Modele el comportamiento de las computadoras del despacho como una Cadena de Markov. (a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para esta Cadena de Markov. Asuma que inicialmente el despacho cuenta con las dos computadoras en condiciones de operación. 1

Tarea 002 - Cadenas de Markov

Embed Size (px)

DESCRIPTION

Cadenas de Markov Ejercicios resueltos Investigación de Operaciones II - Wayne Winston

Citation preview

Page 1: Tarea 002 - Cadenas de Markov

Sistema CETYS Universidad.Colegio de Ingeniería.Campus Mexicali.Escuela de Ingeniería.Modelos de Investigación de Operaciones II.Problemas de la Unidad de Cadenas de Markov.Fecha de Entrega: Noviembre 09 del 2015Valor: 100 puntos.

Solución de problemas estructurados de Cadenas de Markov.

(1) Un despacho de bienes y raices que utiliza dos computadoras muy viejas para tareas de formulación de documentos está padeciendo de altos costos y frecuentes inconvenientes debido al volumen crónico de fallas de dichas computadoras. Se ha observado que cuando ambas computadoras están funcionando por la mañana, existe un 30% de probabilidad de que una de ellas falle durante la tarde y un 10% de probabilidad de que ambas computadoras fallen al llegar la tarde. Si sucede que solo una de las dos computadoras está funcionando al inicio del día, existe una probabilidad del 20% de que la computadora falle al término del día. Si ninguna de las dos computadoras está disponible al inicio del día, el despacho tiene que enviar toda la documentación que se debe formular en ese día a un servicio externo de formulación de documentos. En estos días es obvio que no pueden darse fallas de las computadoras. La reparación de las computadoras del despacho las realiza un taller de computación externo. Este taller recoge las computadoras descompuestas durante el día y las regresa al despacho la mañana siguiente en condiciones de operación. El tiempo de reparación de un día ocurre tanto para cuando hay una computadora descompuesta, como cuando son dos. Modele el comportamiento de las computadoras del despacho como una Cadena de Markov.

(a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para esta Cadena de Markov. Asuma que inicialmente el despacho cuenta con las dos computadoras en condiciones de operación.

Xn = numero n de computadoras que fallan

o 0 – 0 computadoras fallano 1 – 1 computadora fallao 2 – 2 computadoras fallan

(b) Construya el diagrama de transiciones que describe cómo el despacho se mueve entre los diferentes estados de la Cadena de Markov a través del tiempo. Indiqué las probabilidades de transición de un estado a otro.

1

Page 2: Tarea 002 - Cadenas de Markov

(c) ¿Qué porcentaje del tiempo el despacho tendrá que enviar todos sus documentos al servicio externo de formulación de documentos?

10%

(d) Si ahora hay dos computadoras disponibles, ¿cuál es la probabilidad de que al cuarto día haya otra vez dos computadoras en condiciones de operación?

42%

(2) Un despacho consultor en materia de Mercadotecnia está analizando para una firma productora de yogurt griego como los clientes cambian de preferencia en relación a tres marcas de este producto. La tabla anexa muestra el comportamiento de 500 clientes y cómo modificaron sus preferencias de la semana 26 a la 27. Así por ejemplo de un total de 100 clientes de la marca 1 en la semana 26, 90 siguieron con esa marca, siete se cambiaron a la marca 2 y tres se cambiaron a la marca 3 en la semana 27.

Marca anterior Marca nueva Total1 2 31 90 7 3 1002 5 205 40 2503 30 18 102 150

2

Page 3: Tarea 002 - Cadenas de Markov

Total 125 230 145 500

(a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para esta Cadena de Markov.

Xn = marca comprada en la semana n (x = 1,2,3) y (n = 0,1,2,…27)

(b) Formule la matriz de probabilidades de transición de la primera etapa para esta Cadena de Markov.

P = [

.9 .7 .03.02 .82 .16.2 .12 .68

]

(c) ¿Cuál será la participación en el mercado para cada una de las tres marcas en la semana 30?

32%, 40% y 26% sucesivamente

(d) En las condiciones de estado estacionario, ¿cuál será la marca menos favorecida?

La marca 3

(3) En el juego de dados denominado Craps (ojos de víbora) una jugada consiste en lanzar un par de dados y sumar el número de puntos que cada dado muestra en su cara superior. Si la suma es 7 el lanzador gana y el casino pierde. Si la suma es 2, 3 o 12 el casino gana. Cualquier otro resultado se denomina el “punto” y el jugador debe lanzar los dados otra vez. Si el resultado de la suma de los dados es igual al punto el jugador gana y el casino pierde. Si el resultado de la suma es 7, el casino gana. Cualquier otro resultado requiere de otro lanzamiento del jugador hasta que resulta el “punto” o una suma de 7.

(a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para esta Cadena de Markov.

o 1 – Comenzaro 2 – 4 o 10o 3 – 5 o 9 o 4 – 6 u 8o 5 – ganaro 6 – perder

(b) Formule la matriz de probabilidades de transición de la primera etapa para esta Cadena de Markov.

3

Page 4: Tarea 002 - Cadenas de Markov

P = [

0 6/36 8/36 10/36 8/36 4/360 27/36 0 0 3/36 6/360 0 26/36 0 4/36 6/360 0 0 25/36 5/36 6/360 0 0 0 1 00 0 0 0 0 1

]

(c) A la larga, ¿cuál es la probabilidad de que el jugador gane el juego?

49%

(d) ¿Es este un juego de dados parejo? Es decir que tanto el jugador como el casino tengan la misma oportunidad de ganar el juego.

No, el casino tiene mayor oportunidad de ganar.

(4) La Tierra de OZ tiene muchas bendiciones (acorde a la historia), pero el clima no es una de ellas. En esa tierra nunca se tienen dos días seguidos de buen clima. Si tienen un día de buen clima, existe la misma probabilidad de que el siguiente día será con lluvia o con nieve. Si tienen un día de nieve o lluvia, existe la misma probabilidad de que el día siguiente tengan el mismo clima. De darse un cambio de nieve o lluvia, solo en la mitad de las veces ese cambio será a días de buen clima.

(a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para la Cadena de Markov que modele el clima en la Tierra de Oz.

Xn = el tiempo en la tierra de Oz el dia n

(b) Formule la matriz de probabilidades de transición de la primera etapa para esa Cadena de Markov.

P = [½ ¼ ¼½ 0 ½¼ ¼ ½

]

(c) A la larga, ¿qué porcentaje de los días serán de buen clima en la Tierra de OZ?

20%

(d) Si hoy es un día de buen clima, ¿en promedio cuántos días deberán trascurrir en la Tierra de Oz para que el clima vuelva a ser bueno?

6 dias

4

Page 5: Tarea 002 - Cadenas de Markov

(5) El caballo de Skef denominado la “Saeta de Palaco” es un corcel pura sangre que compite en las Ferias del Sol del Valle de Mexicali. Cada vez que compite este caballo tiene una probabilidad de ½ de ganar la carrera y de quedar en segundo o tercer lugar con la misma probabilidad. Cada vez que el corcel gana una carrera, Skef gana un premio de $1,000 dólares, cada vez que el corcel llega en segundo lugar Skef gana $500 dólares y pierde $500 dólares cada vez que el corcel llega en tercer lugar.

(a) Defina la variable estocástica, su espacio estado y la estructura de tiempo para esta Cadena de Markov.

Xn = En que lugar quedara el corcel de skeff en n

(b) Formule la matriz de probabilidades de transición de la primera etapa para esta Cadena de Markov

P = [

½ ¼ ¼½ ¼ ¼½ ¼ ¼

]

(c) A la larga, ¿qué porcentaje de las carreras serán ganadas por la “Saeta de Palaco”?

89% de carreras

(d) A la larga, ¿qué tan redituable (nueva palabra: renovable rentable) será para Skef que su caballo participe en las Ferias del Sol del Valle de Mexicali? Justifique su respuesta.

Es redituable ya que Saeta de Palaco tiene mayor probabilidad de quedar en los primeros 3 lugares de la carrera que perderla.

(6) La sala de emergencias del hospital “Sálvese el que Pueda” posee dos ambulancias. Durante un día cualquiera, cada ambulancia que se encontraba en buenas condiciones de operación al inicio del día, puede fallar con probabilidad de 1/4. Si una ambulancia se descompone durante el día, se envía a un taller de la localidad para ser reparada, estando disponible dos días después de haber fallado. Esto es, si una ambulancia falla en el día tres, estará de vuelta, en condiciones de ser usada hasta el día 5. Sea el estado del sistema igual al número de ambulancias disponibles al inicio del día.

(a) Define la variable estocástica, su estructura de tiempo y la matriz de probabilidades de transición de la primera etapa.

P = [.25 .5 .25.125 .5 .375.0625 .375 .5625

]

5

Page 6: Tarea 002 - Cadenas de Markov

Xn = una variable estocástica que representa el numero de ambulancias al inicio del dia (0,1 y 2)

(b) Si actualmente las dos ambulancias están disponibles para ser usadas, dentro de tres días, ¿cuál será el número esperado de ambulancias disponibles?

Sumatoria de las probailidades Pj (j=0 hasta 2)^3 = 1.34 ambulancias = 1 ambulancia

(c) A la larga, ¿cuál será el número más probable de ambulancias disponibles en el hospital?

Valores de π:

- π0 = 0.6667 - π1 = 0.3333

Probabilidades:

- π0 = 0.2258- π1 = 0.4444- π2 = 0.4444

(d) Si el hospital puede ser demandado por no contar con ambulancias disponibles, ¿Cuál será la probabilidad de una demanda?

Probabilidad de que lo demanden = 11%

(7) [Valor = 20 puntos] Una compañía posee dos máquinas. Durante un turno de trabajo cualquiera, cada una de las máquinas que está trabajando al inicio del turno tiene 1/3 de probabilidad de descomponerse. Si la máquina falla durante el turno se envía al departamento de mantenimiento y regresará a producción dos turnos después de ocurrida la falla. Esto es, si una máquina falla durante el tercer turno, regresará a producción hasta el quinto turno. Sea el estado del sistema el número de máquinas trabajando al inicio del n-avo turno,

(a) Formula el diagrama de transiciones para esta situación y describe los estados de la cadena de Markov.

P = [0 0 10 1/3 2/3

1/9 4/9 4/9]

Considere ahora cada una de las siguientes afirmaciones y coleque una “X” en las cajas () de todas aquellas que considere verdaderas.

X (b) A la larga el porcentaje de turnos operando con una máquina en producción será mayor que el porcentaje de turnos operando con dos máquinas.

6

Page 7: Tarea 002 - Cadenas de Markov

(c) El número esperado de máquinas en producción al cabo de un turno es menor que el número esperado de máquinas al cabo de dos turnos, si al inicio se contaban con dos máquinas en producción.

(d) Calcule la probabilidad de llegar a dos máquinas descompuestas partiendo de cero descompuestas después de exactamente un turno, dos turnos.

X (e) Todos los estados de esta cadena de Markov están comunicados y son aperiódicos, por lo cual son recurrentes positivos.

(8) [Valor = 20 puntos] Considere la cadena de Markov con los estados 1,2,...,6 y con la siguiente matriz de probabilidades de transición:

Considere ahora cada una de las siguientes afirmaciones relativas a esta Cadena de Markov y coleque una “X” en las cajas () de todas aquellas que considere verdaderas.

(a) Los estados 1 y 4 son transitorios

X (b) Los estados 2 y 6 forman un conjunto cerrado mínimo de estados que son ergódicos

(c) El estados 3, 2, 5, y 6 son estados recurrentes nulos.

X (d) La cadena de Markov es ergódica.

(e) 3 > (2 + 4)

7