5 casos de uso en el mundo real de las cadenas de Markov

Estás leyendo la publicación: 5 casos de uso en el mundo real de las cadenas de Markov

Las cadenas de Markov son un modelo estocástico que representa una sucesión de eventos probables, con predicciones o probabilidades para el siguiente estado basadas únicamente en el estado del evento anterior, en lugar de los estados anteriores. Las cadenas de Markov se utilizan en una variedad de situaciones porque pueden diseñarse para modelar muchos procesos del mundo real. Estas áreas van desde el mapeo de la población animal hasta los algoritmos de los motores de búsqueda, la composición musical y el reconocimiento de voz. En este artículo, discutiremos algunas aplicaciones de la vida real de la cadena de Markov. Los siguientes son los temas a tratar.

Tabla de contenido

  1. La cadena de Markov “sin memoria”
  2. La funcionalidad de la cadena.
  3. Aplicaciones de la vida real
    1. “Pagerank” utilizado por Google
    2. Predecir las tendencias del mercado
    3. Simulación de subreddit
    4. Predicción de la siguiente palabra
    5. Encuestas electorales

Comencemos con una comprensión de la cadena de Markov y por qué se llama una cadena “sin memoria”.

La cadena de Markov “sin memoria”

Las cadenas de Markov son un componente esencial de los sistemas estocásticos. Se utilizan con frecuencia en una variedad de áreas. Una cadena de Markov es un proceso estocástico que cumple con la propiedad de Markov, que establece que mientras se conoce el presente, el pasado y el futuro son independientes. Esto sugiere que si se conoce el estado actual del proceso, no se necesita conocimiento adicional sobre sus estados previos para proporcionar el mejor pronóstico posible de su futuro. Es “Memoryless” debido a esta característica de la Cadena de Markov.

Esta simplicidad puede reducir significativamente el número de parámetros al estudiar dicho proceso. Las cadenas de Markov se utilizan para calcular la probabilidad de que ocurra un evento considerándolo como un estado en transición a otro estado o un estado en transición al mismo estado que antes.

¿Está buscando un repositorio completo de bibliotecas de Python utilizadas en ciencia de datos, echa un vistazo aquí.

La funcionalidad de la cadena.

Un mecanismo probabilístico es una cadena de Markov. La matriz de transición de la cadena de Markov se usa comúnmente para describir la distribución de probabilidad de las transiciones de estado. Si la cadena de Markov incluye N estados, la matriz será N x N, con la entrada (I, J) representando la posibilidad de migrar del estado I al estado J.

Para formalizar esto, deseamos calcular la probabilidad de viajar del estado I al estado J en M pasos. El modelo de la cadena de Markov se basa en dos piezas importantes de información.

  • La Matriz de Transición (abreviada P) refleja la distribución de probabilidad de las transiciones del estado. El total de las probabilidades en cada fila de la matriz será igual a uno, indicando que es una matriz estocástica.
  • Vector de estado inicial (abreviado S) refleja la distribución de probabilidad de comenzar en cualquiera de los N estados posibles. Cada entrada en el vector indica la probabilidad de comenzar en esa condición.
🔥 Recomendado:  Los locos hábitos alimenticios de los multimillonarios tecnológicos

Dadas estas dos dependencias, el estado inicial de la cadena de Markov puede calcularse tomando el producto de P x ​​I. Para anticipar la probabilidad de que ocurran estados futuros, eleve su matriz de transición P a la potencia M-ésima.

Fuente de imagen

La representación anterior es un esquema de un proceso de Markov de dos estados, con estados etiquetados como E y A. Cada número muestra la probabilidad de que el proceso de Markov pase de un estado a otro, y la flecha indica la dirección. Por ejemplo, si el proceso de Markov está en el estado A, la probabilidad de que pase al estado E es 0,4, mientras que la probabilidad de que continúe en el estado A es 0,6.

Aplicaciones de la vida real

Después de la explicación, examinemos algunas de las aplicaciones reales donde son útiles. Se sorprenderá de cuánto tiempo ha estado usando cadenas de Markov sin su conocimiento.

Page y Brin crearon el algoritmo, que se denominó “PageRank” en honor a Larry Page. PageRank es una de las estrategias que utiliza Google para evaluar la relevancia o el valor de una página. Para usar el algoritmo de PageRank, asumimos que la web es un gráfico dirigido, con páginas web que actúan como nodos e hipervínculos que actúan como bordes. PageRank asigna un valor a una página en función del número de backlinks que hacen referencia a ella. Una página que está conectada a muchas otras páginas obtiene una clasificación alta.

Para calcular la puntuación de la página, tenga en cuenta que el navegante puede elegir cualquier página. Sin embargo, no siempre eligen las páginas en el mismo orden. La mayoría de las veces, un navegante seguirá los enlaces de una página secuencialmente, por ejemplo, desde la página “A”, el navegante seguirá las conexiones salientes y luego irá a uno de los vecinos de la página “A”. Sin embargo, este no es siempre el caso.

Una proporción menor pero significativa del tiempo, el navegante abandonará la página actual y seleccionará una página aleatoria de la web para “teletransportarse”. Para dar cuenta de tal escenario, Page y Brin idearon el factor de amortiguamiento, que cuantifica la probabilidad de que el navegante abandone la página actual y se “teletransporte” a una nueva. Debido a que el usuario puede teletransportarse a cualquier página web, cada página tiene la posibilidad de ser elegida por la enésima página.

El mercado de valores es un sistema volátil con un alto grado de imprevisibilidad. Las cadenas de Markov y sus diagramas asociados pueden usarse para estimar la probabilidad de varios climas del mercado financiero y así pronosticar la probabilidad de circunstancias futuras del mercado. Podemos ver que este sistema cambia entre un cierto número de estados al azar. El espacio de estados se refiere a todas las combinaciones concebibles de estos estados. En nuestra situación, podemos ver que un movimiento del mercado de valores solo puede tomar tres formas.

  • Toro Los mercados son tiempos en los que los precios normalmente suben como resultado de la perspectiva positiva de los jugadores para el futuro.
  • Oso Los mercados son tiempos en los que los precios suelen caer como resultado de la perspectiva negativa de los jugadores sobre el futuro.
  • Estancado Los mercados son aquellos en los que no hay ni bajada ni subida de los precios globales.
🔥 Recomendado:  Análisis de componentes independientes frente a análisis de componentes principales

Los mercados justos creen que la información del mercado se distribuye uniformemente entre sus participantes y que los precios varían aleatoriamente. Esto indica que todos los actores tienen el mismo acceso a la información, por lo que ningún actor tiene una ventaja debido a la información privilegiada. Ciertos patrones, así como su probabilidad estimada, pueden descubrirse mediante el examen técnico de datos históricos.

Considere los siguientes patrones de datos históricos en un mercado hipotético con propiedades de Markov. Existe un 90% de posibilidades de que otra semana alcista siga a una semana definida por una tendencia alcista del mercado. Además, existe un 7,5% de posibilidades de que a la semana alcista le siga una negativa y un 2,5% de que se mantenga estático. Después de una semana bajista, existe un 80% de probabilidad de que la semana siguiente también sea bajista, y así sucesivamente.

Simulación de subreddit

Hay un bot en Reddit que genera mensajes de texto significativos y aleatorios. Utiliza GTP3 y Markov Chain para generar texto y aleatorizar el texto, pero aún tiende a ser significativo.

En pocas palabras, Subreddit Simulator extrae una parte significativa de TODOS los comentarios y títulos publicados en las muchas comunidades de Reddit, luego analiza la estructura palabra por palabra de cada declaración. Usando estos datos, produce probabilidades palabra por palabra y luego utiliza esas probabilidades para crear títulos y comentarios desde cero.

Fuente de imagen

En el ejemplo anterior, diferentes bots de Reddit se comunican entre sí mediante la cadena GPT3 y Markov.

Predicción de la siguiente palabra

La cadena de Markov ayuda a construir un sistema que cuando se le da una oración incompleta, el sistema trata de predecir la siguiente palabra en la oración. Dado que cada palabra tiene un estado y predice la siguiente palabra en función del estado anterior.

Para entender eso, tomemos un ejemplo simple. Considere tres oraciones simples.

  • me gusta la fisica
  • Me encanta el ciclismo
  • Me gustan los libros

Todas las palabras únicas de las declaraciones anteriores, a saber, ‘yo’, ‘me gusta’, ‘amor’, ‘física’, ‘ciclismo’ y ‘libros’, podrían construir los diversos estados. La distribución de probabilidad se ocupa de evaluar la posibilidad de pasar de un estado a otro, en nuestro caso de una palabra a otra. Los ejemplos anteriores muestran que la primera palabra en nuestra situación siempre comienza con la palabra ‘yo’.

Como resultado, existe un 100% de probabilidad de que la primera palabra de la frase sea ‘Yo’. Debemos seleccionar entre los términos ‘me gusta’ y ‘amor’ para el segundo estado. La distribución de probabilidad ahora se trata de calcular la probabilidad de que la siguiente palabra sea ‘me gusta’ o ‘amor’ si la palabra anterior es ‘yo’.

🔥 Recomendado:  Libere el poder de la clasificación de búsqueda en sitios web de comercio electrónico utilizando la ciencia de datos

En nuestro ejemplo, la palabra ‘me gusta’ aparece en dos de las tres frases después de ‘yo’, pero la palabra ‘amor’ aparece solo una vez. Como resultado, hay un 67 % de probabilidad de que ‘me gusta’ prevalezca después de ‘yo’ y un 33 % (1/3) de probabilidad de que ‘amor’ triunfe después de ‘yo’. Del mismo modo, hay un 50% de probabilidad de que ‘Física’ y ‘libros’ tengan éxito ‘me gusta’. Y la palabra ‘amor’ siempre va seguida de la palabra ‘ciclismo’.

Encuestas electorales

El objetivo principal de cada partido político es idear planes para ayudarlos a ganar una elección, particularmente una presidencial. Los expertos políticos y los medios de comunicación están particularmente interesados ​​en esto porque quieren debatir y comparar los métodos de campaña de varios partidos. Las cadenas de Markov se utilizaron para pronosticar los resultados de las elecciones en Ghana en 2016.

Las elecciones en Ghana pueden caracterizarse como un proceso aleatorio, y el conocimiento de los resultados de elecciones anteriores puede usarse para pronosticar elecciones futuras de la misma manera que lo hacen los enfoques incrementales.

Las elecciones generales de Ghana de la cuarta república con frecuencia parecen “cambiar de rumbo” después de dos mandatos (es decir, un candidato del Congreso Nacional Democrático (NDC) ganará dos mandatos y un candidato del Partido Patriótico Nacional (NPP) ganará los siguientes dos mandatos).

Como resultado, los MC deberían ser una herramienta valiosa para pronosticar los resultados de las elecciones. Los percentiles de Bootstrap se utilizan para calcular los rangos de confianza para estos pronósticos.

Pensamientos finales

La cadena de Markov se puede usar para simplificar en gran medida los procesos que satisfacen la propiedad de Markov, ya que conocer la historia previa del proceso no mejorará las predicciones futuras, lo que, por supuesto, reduce significativamente la cantidad de datos que deben tenerse en cuenta. Tiene amplios casos de uso en el campo de la ciencia, las matemáticas, los juegos y la teoría de la información. Con este artículo, pudimos entender un montón de casos de uso de la vida real de diferentes campos de la vida.

Referencias

Tabla de Contenido