Upload
eduardo-flores
View
9
Download
1
Embed Size (px)
Citation preview
Éste blog está dedicado al curso de Investigación de Operaciones II de la Ingeniería Industrial. Barranquilla, Colombia.
Modelos de Inventario Cadenas de Markov Teoría de Juegos Teoría de decisiones
Cadenas de Markov con estados absorbentes A diferencia de los estados recurrentes, los estados absorbentes tendrás sumas de probabilidades que con el correr del tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de estados .
Para tener una idea más clara sobre éste concepto, se muestra el siguiente ejemplo:
La empresa jurídica Angie Montero, emplea 3 tipos de abogados: subalternos, superiores y socios. Durante cierto año el 10% de los subalternos ascienden a superiores y a un 10% se les pide que abandonen la empresa. Durante un año cualquiera un 5% de los superiores ascienden a socios y a un 13% se les pide la renuncia. Los abogados subalternos deben ascender a superiores antes de llegar a socios. Los abogados que no se desempeñan adecuadamente, jamás descienden de categoría.
a) Forme la matriz de transición Tb) Determine si T es regular, absorbente o ninguna de las 2.c) Calcule la probabilidad de que un abogado subalterno llegue a sociod) ¿Cuánto tiempo deberá permanecer en su categoría un abogado subalterno recién contratado?e) ¿Cuánto tiempo deberá permanecer en la empresa un abogado subalterno recién contratado?f) Calcule la probabilidad de que un abogado superior llegue a socio.
a) Se hace la matriz T y nos queda:
b) Nótese que la parte azul cielo tiene probabilidades iguales a 1, por lo tanto esta es la parte absorbente de la matriz. Por esta razón es una matriz absorbente.
Ahora se procede a restar la matriz normal de la identidad y se halla la inversa para ver los tiempos entre estados, para posteriormente esta última ser multiplicada por la matriz absorbente y saber las probabilidades de cambios de estado.
Harold Torres Barranquilla, Atlántico, ColombiaEstudiante de Ingeniería Industrial
Ver todo mi perfil
Datos personales
2011 (17)junio (12)Conteo Cíclico
de Inventarios
Reducción de estrategias (Ejemplo)
Teoría de decisiones
Juegos de suma cero para dos jugadores con estrate...
Juegos de suma cero
Teoría de Juegos (Conceptualización)
Cadenas de Markov con estados absorbentes
Cadenas de markov con estados recurrentes
Cadenas de markov (Conceptos básicos)
Gestión de inventario
Modelo EOQ (Economic Order Quantity) con demanda p...
Modelo EOQ (Economic Order Quantity) con descuento...
febrero (5)
Archivos individuales
Google Friend ConnectMiembros (9)
Más »
¿Ya eres miembro? Iniciar sesión
Seguidores
0 Más Siguiente blog» Crear blog Acceder
Page 1 of 3Investigación de Operaciones: Cadenas de Markov con estados absorbentes
23/08/2015http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html
Publicado por Harold Torres
Etiquetas: Cadenas de Markov
c) Al multiplicar la matriz inversa por la Absorbente se puede hallar dicha probabilidad, esta es 0.14
d) Al simplemente hallar la matriz inversa se es posible hallar el tiempo en años que debería permanecer normalmente un abogado subalterno en su compañía, serían 5 años.
e) Cuando piden el tiempo que debería permanecer un abogado subalterno pero durante la empresa sería sumar el tiempo en que se queda como subalterno con el tiempo en que permanece como superior: esto es, 5+2.77= 7.77 años.
f) Por último la probabilidad de que pase de subalterno a socio es mostrado en la última matriz, sería 0,28.
Tomado de : Clase de investigación de operaciones dada por el Ingeniero Industrial Medardo González
Recomendar esto en Google
Introduce tu comentario...
Comentar como: Seleccionar perfil...
PublicarPublicar Vista previaVista previa
4 comentarios:Anónimo abril 11, 2012 6:52 p. m.Muy bueno tu ejemplo me aclaró muchas dudas, Gracias!!Responder
almarmt_estudiantes junio 23, 2013 3:31 p. m.Gracias por tu ejemplo. Me ayudó mucho. Responder
giovanet13 mayo 22, 2014 9:37 a. m.Buen ejemplo. Gracias. Soy de cartagena saludos. Responder
Anónimo junio 10, 2014 10:43 a. m.Gracias Responder
Page 2 of 3Investigación de Operaciones: Cadenas de Markov con estados absorbentes
23/08/2015http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html
Entrada más reciente Entrada antiguaPágina principalSuscribirse a: Enviar comentarios (Atom)
Translation Tool
Translate...English Get Babylon 8 Now
Gadgets powered by Google
Harold Torres Marino. Plantilla Simple. Con la tecnología de Blogger.
Page 3 of 3Investigación de Operaciones: Cadenas de Markov con estados absorbentes
23/08/2015http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html