Las cadenas de Markov

bannerg10

markov

En el posting anterior prometí explicar las cadenas de Markov como caso particular de proceso estocástico. Trataré de hacerlo en los términos más simples y asequibles para todos mis lectores. Basicamente una cadena de Márkov es una serie de estados en la cual la probabilidad de que ocurra un evento u otro depende del evento inmediato que le precede y es completamente independiente de eventos anteriores. Es importante notar y recalcar que la relación es entre el evento que le precede y el que le sucede , elementos anteriores al precedente no arrojan información de ninguna clase sobre la probalidad de ocurrencia del evento a analizar. La relación es solo entre dos estados el precedente y el que sucede, solo basado en el estado anterior podemos hacer inferencias estadísticas del evento que sucede. Los estados anteriores no nos sirven para nada. No es menuda tarea inferir conductas de una serie de eventos solo basado en el paso previo, aunque el concepto es muy facil de atrapar no es tan simple de implementar y obtener resultados significativos. Formalmente en los procesos aleatorios se ha descrito este tipo de escenario como “relación o dependencia simple”, por favor no se dejen engañar por el término simple, solo es simple su planteamiento. También se ha descrito que estos tipos de procesos estocásticos poseen”memoria simple y selectiva del estado anterior”, dado que recuerdan solo el estado anterior o ultimo evento y esto condiciona la probabilidad del evento que le sucede. De modo formal ,en las ciencias matemáticas, una cadena Markov es definida como un proceso estocástico discreto que cumple con la llamada propiedad de Márkov, digase, que en pleno conocimiento de la historia del sistema hasta su instante actual, solo su estado presente puede proveernos con información significativa que nos permite predecir probabilisticamente el estado siguiente. De modo formal una cadena de Markov es una cadena de elementos aleatorios X1, X2, X3,… , el rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:

markov

En este posting me propuse como meta, que mis lectores entendieran lo básico de lo que es una cadena Markov , no hay intención alguna de presentar alguna instancia de su implementación para resolver problemas concretos, como ya dije la noción y formulación es simple de entender  pero su implementación no es tan simple. Espero para el próximo posting un caso concreto de problema en el cual una cadena de Markov es usada para enfrentar un problema, ese posting me tomará mucho más tiempo y dedicación , pero creo que es lo menos a presentar . Trataré de encontrar un escenario y problemática simple donde podamos presentar una cadena de Markov en acción y su implementación , por ahora les diré que el rating de páginas en Google para un usuario determinado  es un ejemplo simple de un Sistema Markov en acción, piensen en torno a eso, por hora es suficiente, al menos para mi. Antes de terminar este posting,  les diré que el matemático al cual le debemos estos modelos fue llamado Andrey Andreevich Markov , por supuesto el nombre no deja lugar a duda que nuestro matemático fue un ruso, lo curioso que encontré en su vida  es que  fue excomunicado de la Iglesia ortodoxa Rusa, trataré de encontrar la razón por la cual ocurrió este evento.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: