Upload
luis-cortez
View
217
Download
0
Embed Size (px)
Citation preview
7/23/2019 Equipo 3 Cadenas de Markov
1/26
Instituto Tecnolgico de QuertaroInvestigacin de Operaciones II
INTRODUCCIN
7/23/2019 Equipo 3 Cadenas de Markov
2/26
Las cadenas de Markov reciben el nombre por Andri Andryevinch Mrkov, quien
ue un matemtico ruso conocido por sus traba!os en la teor"a de los n#meros y la
teor"a de probabilidades$
%na cadena de Markov es una sucesin de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo n#mero inito de resultados posibles y endonde la probabilidad de cada resultado para un ensayo dado depende slo del
resultado del ensayo inmediatamente precedente y no de cualquier resultado
previo$
&sta herramienta nos ayuda a anali'ar el comportamiento y el gobierno de
determinados tipos de procesos estocsticos, esto es, procesos que evolucionan
de oma no determin"stica a lo largo del tiempo en torno a un con!unto de estados$
(or tanto, representa un sistema que var"a un estado a lo largo del tiempo, siendo
cada cambio una transicin del sistema$ )ichos cambios no estn
predeterminados, aunque s" lo est la probabilidad del pr*imo estado en uncinde los estados anteriores, probabilidades que son constantes a lo largo del tiempo$
+on importantes para la Ingenier"a Industrial porque se aplican en reas tales
como educacin, meradotecnia, servicios de salud, inan'as, contabilidad y
produccin$
&n los negocios, las cadenas de Markov se han utili'ado para anali'ar los
patrones de compra de los deudadores morosos, para planear las necesidades de
personal y para anali'ar el reempla'o del equipo$
7/23/2019 Equipo 3 Cadenas de Markov
3/26
PROBABILIDADE DE TRANICIN EN LA N!"I#A ETAPA
+uponga que se est estudiando una cadena de Markov con una matri' de
probabilidad de transicin conocida P. (uesto que las cadenas con las se tratara
son estacionarias, no nos molestaremos en marcar nuestras cadenas de Markov
como estacionarias-$ %na pregunta de inters es. si una cadena de Markov esten estado ien el tiempo m, /0ul es la probabilidad de que nperiodos despus la
cadena est en el estado j1 (uesto que se trata con una cadena de Markov
estacionaria, esta probabilidad es independiente de m, as" que se podr"a escribir
P=(Xm+n=j|Xm=i )=P (Xn=j|X0=i )=P ij(n)
)ondePij(n) se llama $ro%a%ilidad del n!si&o paso de una transicin del
estado ial estadoj.
2esulta claro quePij (1 )=pij $ (ara determinar Pij(2) , observe que si el
sistema ahora est en el estado i, entonces para que el sistema termine en el
estadojdos periodos a partir de ahora, se debe ir del estado ia alg#n estado ky
luego del estado k al estadoj$ &ste ra'onamiento nos permite escribir
Pij (2 )=k=1
k=s
(probabilidadde transici nde i ak)
X(probabilidad detransici n de k a j)
%sando la deinicin de P, la matri' de probabilidad de transicin, se reescribe la
ultima ecuacin como
Pij (2 )=k=1
k=s
(PikPkj)
&l lado derecho de 3- es solo el producto escalar del rengln ide la matri'Pcon
la columnaJ de la matri'P. por consiguiente,Pij(2)
es el ij4simo elemento de
la matri' P2
$ Al ampliar este ra'onamiento, se puede demostrar que para
n>1 ,
Pij (n )=ij simo elementode Pn
7/23/2019 Equipo 3 Cadenas de Markov
4/26
(or supuesto, paran=0,Pij(0 )=P (X0=j|X0=i ) , as" que se debe escribir
Pij (0 )={1 si j=i0 si j i
Pij (2 )=pi 1p 1j+p i 2p2j++p ispsj
E'e&$lo de la %e%ida de cola
+uponga que toda la industria de bebidas de cola produce solo dos$ )ado que una
persona la #ltima ve' compro cola 5, hay 678 de probabilidades de que su
siguiente compra sea cola 5$ )ado que la ultima compra de una persona ue cola
9, hay :78 de probabilidades de que su siguiente compra sea cola 9$
5$ +i una persona en la actualidad es comprador de cola 9, /cul es la
probabilidad de que compre cola 5 dos veces a partir de ahora1
7/23/2019 Equipo 3 Cadenas de Markov
5/26
9$ +i una persona en la actualidad es comprador de cola 5, /cul es la
probabilidad de que compre cola 5 tres ocasiones a partir de ahora1
olucin
;eamos la compra de cada persona como una cadena de Markov con el estado,
en cualquier tiempo dado, del tipo de cola que compro la persona en la #ltima ve'$
As", las compras de cada individuo pueden representarse como una cadena de
Markov de dos estados, donde
&stado 5< La persona compro cola del tipo 5 la #ltima ve'$
&stado 9< La persona compro cola del tipo 9 la #ltima ve'$
+i se deineXn como el tipo de cola que una persona compra en su n-sima
compra utura compra actual de cola t donde t$ 7-, interpretados como sigue.!S < r es un tiempo pasado,!S < s es el tiempo actual,!S < s 5 t es t unidades de tiempo hacia el uturo$(or lo tanto, el estado del sistema se ha observado en los tiempos tS< s y tS< r$&stos estados se etiquetan como Xs- < i yXr-
7/23/2019 Equipo 3 Cadenas de Markov
24/26
)2 (robabilidades de transicin estacionarias$
;ariables&n el anlisis de las cadenas de Markov de tiempo continuo, un con!untoimportante de variables aleatorias es el siguiente$
0ada ve' que el proceso entra en el estado i, la cantidad de tiempo que pasa enese estado antes de moverse a uno dierente es una variable aleatoria i, donde i< 7, 5, $ $ $, M$&sta distribucin tiene un solo parmetro, llmese ", donde la media es 5V" y la
uncin de distribucin acumulada es PT!i tU < 5 D e-"t, para t 7$
&ste resultado conduce a una orma equivalente para describir una cadena deMarkov de tiempo continuo.(2 La variable aleatoria !i tiene una distribucin e*ponencial con media 5V"i$)2 0uando sale de un estado i, el proceso se mueve a otro estadoj, conprobabilidad#ij, donde#ij satisace las condiciones
82 &l siguiente estado que se visita despus del estado i es independiente deltiempo que pas en el estado i$
Igual que las probabilidades de transicin de un paso tuvieron un papel primordialpara describir una cadena de Markov de tiempos discretos, el papel anlogo en elcaso de la cadena de Markov de tiempo continuo lo tienen las intensidades detransicin$Las intensidades de transicin son.
(robabilidades limitantes se conocen como las probabilidades de estado estableo#robabilidades estacionarias- de la cadena de Markov$Las $j satisacen las ecuaciones
7/23/2019 Equipo 3 Cadenas de Markov
25/26
+in embargo, las siguientes ecuaciones de estado estable proporcionan un
sistema de ecuaciones mas #til para obtener las probabilidades de estado estable.
E'e&$lo2%n taller tiene dos mquinas idnticas en operacin continua e*cepto cuando sedescomponen$ 0omo lo hacen con bastante recuencia, la tarea con ms altaprioridad para la persona de mantenimiento que traba!a tiempo completo esrepararlas cuando sea necesario$ &l tiempo que se requiere para reparar unamaquina tiene distribucin e*ponencial con media de 5V9 d"a$ %na ve' que setermina la reparacin, el tiempo que transcurre hasta la siguiente descomposturatiene distribucin e*ponencial con media de un d"a$ &stas distribuciones sonindependientes$)eina la variable aleatoriaXtS- comoXtS-< n#mero de mquinas descompuestas
en el tiempo tS, de orma que los valores posibles de XtS- son 7, 5, 9$ (or lo tanto,si se corre el parmetro tS de manera continua desde el tiempo 7, el proceso
estocastico de tiempo continuo TXtS-C tS 7U proporciona la evolucin del n#mero
de mquinas descompuestas$ 0omo tanto el tiempo de reparacin como el tiempohasta la siguiente descompostura tienen distribuciones e*ponenciales, TXtS-C tS
7U es una cadena de Marko% de tiem#o contin&o< con estados 7, 5, 9$ &n
consecuencia, se pueden usar las probabilidades de estado estable dadas en lasub4seccin anterior para encontrar la distribucin de probabilidad de estadoestable del n#mero de mquinas descompuestas$ (ara hacer esta tarea se debedeterminar todas las tasas de transicin, esto es, las "i y "ij para i,j < 7, 5, 9$&l estado n#mero de mquinas descompuestas- aumenta en 5 cuando ocurre unadescompostura y disminuye en 5 cuando se termina una reparacin$ 0omo tantolas descomposturas como las reparaciones ocurren una a la ve', q1)91y q)19 1$&l tiempo esperado de reparacin es de W d"a, de manera que la tasa a la que seterminan las reparaciones cuando hay maquinas descompuestas- es 9 por d"a, loque implica que q)(9 )y q(19 )$ )e manera similar, el tiempo esperado hasta quese descompone una maquina en operacin es de un d"a, de manera que la tasa ala que se descompone cuando est en operacin- es de un por d"aC esto implica
7/23/2019 Equipo 3 Cadenas de Markov
26/26
que q() 9 (2 )urante los tiempos en los que las dos mquinas operan, lasdescomposturas ocurren a una tasa de 5> 5 < 9 por d"a, por lo que "75