12
INDICE Introducción ……………………………………………………… 3 Origen ………………………………………………………. 4 Marco Teórico …………………………………………………….. 5 Aplicaciones ……………………………………………………… 9 Conclusión ……………………………………………………….. 11

Cadenas de Markov

Embed Size (px)

DESCRIPTION

Cadenas de Markov

Citation preview

Page 1: Cadenas de Markov

INDICE

Introducción ……………………………………………………… 3

Origen ………………………………………………………. 4

Marco Teórico …………………………………………………….. 5

Aplicaciones ……………………………………………………… 9

Conclusión ……………………………………………………….. 11

Page 2: Cadenas de Markov

INTRODUCCIÓN

Las cadenas de Markov hacen referencia a una herramienta para analizar el comportamiento de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados.

Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. En las cadenas de Markov se consideran ciertos puntos discretos en el tiempo para tomar valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas. Los estados en el tiempo representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito.

Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí.

Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.

2

Page 3: Cadenas de Markov

ORIGEN

La cadena de Markov recibe su nombre del matemático ruso Andréi Andréyevich Márkov (14 de junio de 1956 – 20 de julio de 1922) que desarrolló el método en 1907. Permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.

La cadena de markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

3

Page 4: Cadenas de Markov

MARCO TEORICO

Conceptos básicos

Estados

El estado de un sistema en un instante t es una variable cuyos valores solo pueden pertenecer al conjunto de estaos en el sistema. El sistema modelizado por la cadena, por lo tanto, es una variable que cambia con el valor del tiempo, cambio al que llamamos transición.

Matriz de transición

Los elementos de matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila.

Posee 3 propiedades básicas:

1. La suma de las probabilidades de los estados debe ser igual a 1.2. La matriz de transición debe ser cuadrada.3. Las probabilidades de transición deben estar entre 0 y 1.

Distribución actual (Vector Po): Es la manera en la que se distribuyen las probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te permitirá averiguar cuál será la distribución en periodos posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de probabilidades que en cierto punto quedará fija para el vector P y no presentará cambios en periodos posteriores.

Por consiguiente un estado es recurrente si y solo si no es transitorio.

Ejemplo:

Suponga que hay s-m estados transitorios (t1, t2,…, ts-m) y m estado absorbentes (a1,

a2,…, am), se escribe la matriz de probabilidades de transición P como sigue:

4

Page 5: Cadenas de Markov

Considere el problema siguiente: la compañía K, el fabricante de un cereal para el

desayuno, tiene un 25% del mercado actualmente. Datos del año anterior indican que el

88% de los clientes de K permanecían fieles ese año, pero un 12% cambiaron a la

competencia. Además, el 85% de los clientes de la competencia le permanecían fieles a

ella, pero 15% de los clientes de la competencia cambiaron a K. Asumiendo que estas

tendencias continúen determine ¿cuál es la parte que K aprovecha del mercado?:

a. en 2 años; y

b. en el largo plazo.

Esta situación es un ejemplo de un problema de cambio de marcas que sucede muy a

menudo que se presenta en la venta de bienes de consumo. Para resolver este

problema hacemos uso de cadenas de Markov o procesos de Markov (qué es un tipo

especial de proceso estocástico). El procedimiento se da enseguida.

Procedimiento de solución

Observe que, cada año, un cliente puede estar comprando cereal de K o de la

competencia. Podemos construir un diagrama como el mostrado abajo donde los dos

círculos representan a los dos estados en que un cliente puede estar y los arcos

representan la probabilidad de que un cliente haga un cambio cada año entre los

estados. Note que los arcos curvos indican una "transición" de un estado al mismo

estado. Este diagrama es conocido como el diagrama de estado de transición (notar

que todos los arcos en ese diagrama son arcos dirigidos).

5

Page 6: Cadenas de Markov

Dado ese diagrama nosotros podemos construir la matriz de la transición (normalmente denotada por el símbolo P) la qué nos dice la probabilidad de hacer una transición de un estado a otro estado. Sea:

Estado 1 = cliente que compra cereal de K y

Estado 2 = cliente que compra cereal de la competencia

Tenemos así la matriz de transición P para este problema, dada por

Para estado 1 2

Del estado 1 | 0.88 0.12 |

2 | 0.15 0.85 |

Note aquí que la suma de los elementos en cada fila de la matriz de la transición es uno.

Por datos de este año sabemos que actualmente K tiene un 25% del mercado. Tenemos que la fila de la matriz que representa el estado inicial del sistema dada por:

Estado

1 2

[0.25, 0.75]

Normalmente denotamos esta fila de la matriz por s1 indicando el estado del sistema en el primer periodo (años en este ejemplo en particular). Ahora la teoría de Markov nos dice que, en periodo (año) t, el estado del sistema está dado por el st de la fila de la matriz, donde:

st = st-1(P) =st-2(P)(P) = ... = s1(P)t-1

Tenemos que tener cuidado aquí al hacer la multiplicación de la matriz ya que el orden de cálculo es importante (i.e. st-1(P) no es igual a (P)st-1 en general). Para encontrar st

6

Page 7: Cadenas de Markov

nosotros podríamos intentar hallar P directamente para la potencia t-1 pero, en la práctica, es mucho más fácil de calcular el estado del sistema en cada sucesivo año 1,2,3 ,..., t.

Nosotros ya sabemos el estado del sistema en el año 1 (s1) tal que el estado del sistema en el año dos (s2) está dado por:

s2 = s1P

= [0.25,0.75] |0.88 0.12 |

........|0.15 0.85 |

= [(0.25)(0.88) + (0.75)(0.15), (0.25)(0.12) + (0.75)(0.85)]

= [0.3325, 0.6675]

Note que este resultado tiene sentido intuitivo, e.g. del 25% comprando actualmente al cereal de K, 88% continúan haciendolo, aunque del 75% comprando el cereal del competidor 15% cambia a comprar cereal de K - dando un (fracción) total de (0.25)(0.88) + (0.75)(0.15) = 0.3325 comprando cereal de K.

De lo anterior, en el año dos 33.25% de las personas están en estado 1 - esto es, está comprando cereal de K. Note aquí que, como un chequeo numérico, los elementos de st deben sumar siempre uno.

En el año tres el estado del sistema se da por:

s3 = s2P

= [0.3325, 0.6675] |0.88 0.12 |

............... |0.15 0.85 |

= [0.392725, 0.607275]

Por lo tanto en el año tres 39.2725% de las personas están comprando al cereal de K.

Recalcar que está pendiente la cuestión hecha sobre la porción que K comparte del mercado en el largo plazo. Esto implica que necesitamos calcular st cuando t se hace muy grande (se acerca al infinito). La idea de la largo plazo es basada en la suposición de que, en el futuro, el sistema alcance un "equilibrio" (a menudo llamado el "estado sustentable") en el sentido de que el st = st-1. Esto no quiere decir que las transiciones entre estados no tengan lugar, suceden, pero ellos tienden "al equilibrio global" tal que el número en cada estado permanece el mismo.

7

Page 8: Cadenas de Markov

APLICACIONES

1. Suponga que en el mercado se consiguen 3 tipos de gaseosas que son: Coca cola, Pepsi cola y Big cola. Cuando una persona ha comprado Coca cola existe una probabilidad de que la siga consumiendo del 75%, un 15% de que compre Pepsi cola y un 10% de que compre Big cola; cuando el comprador actualmente consume Pepsi existe una probabilidad de que la siga comprando de 60%, un 25% que compre Coca cola y un 15% Big cola; si en la actualidad consuma Big cola la probabilidad de que la siga consumiendo es del 50%, un 30% que compre Coca cola y 20% Pepsi cola. En la actualidad cada marca (Coca cola, Pepsi y Big cola) tienen los siguientes porcentajes en participación en el mercado respectivamente (60% 30% 10%)

Elaborar la matriz de transición, hallar la probabilidad que tiene cada marca en el periodo 5.

2. Tres fabricantes de automóviles tienen los siguientes datos con respecto a las compras de los clientes: los clientes que actualmente poseen Ford tienen una posibilidad del 40% que en su próxima compran elijan Ford, 30% que prefieran Chevrolet y 30% que sea Nissan; los que actualmente poseen Chevrolet tienen una posibilidad del 20% de comprar un Ford, 50% de continuar con Chevrolet y 30% de elegir Nissan; los que actualmente poseen un Nissan tienen una posibilidad del 25% de adquirir un Ford en su próxima compra, 25% de inclinare por Chevrolet y 50% de continuar con Nissan. En la actualidad Ford tiene preferencia con el 45% del mercado, seguido por Nissan con el 35% y Chevrolet con el 20%. ¿Qué marca tendrá ventaja en preferencia en el periodo 4?

8

Page 9: Cadenas de Markov

3. Suponga que la ocupación de cada persona puede clasificarse como de profesional, calificado o no calificado. Suponga, además, que siempre es cierto que de los hijos de profesionales 70% son profesionales, 20% calificados y 10% no calificados, de los hijos de personas calificadas, 60% son calificados, 20% son profesionales y 20% son no calificados y de los hijos de personas no calificadas, 20% son profesionales, 30% son calificados y 50% no calificados. Suponga que en la generación actual, 35% son profesionales, 35% calificados y 30% no calificados. Halle la probabilidad de profesionistas dentro de 4 generaciones (periodos).

9

Page 10: Cadenas de Markov

CONCLUSIÓN

Las cadenas de Markov nos permiten hacer análisis sobre el estudio de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser cortos o largos. Además se tiene una relación con las probabilidades absolutas. Al conocer más o menos las probabilidades de un experimento, esto a su vez nos permitirá conocer a corto y plazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses, y tomar una decisión de manera consciente y no se comentan muchos errores.

Esto también nos proporcionara un tiempo estimado para que identifiquemos cada estado y el periodo en que se encuentra con la implementación de un proceso, también se establece las probabilidades como una herramienta más en las cadenas de Markov.

10