Vidéo: C107b Processus stochastiques - Variables aléatoires et chaînes Markov 2024
A modèle stochastique > est un outil que vous pouvez utiliser pour estimer les résultats probables lorsqu'une ou plusieurs variables du modèle sont modifiées aléatoirement. Une chaîne de Markov - également appelée chaîne de Markov à temps discret - est un processus stochastique qui agit comme une méthode mathématique pour enchaîner une série de variables générées aléatoirement représentant l'état présent afin de modéliser les changements dans les présents. les variables d'état affectent les états futurs.
Si vous voyagez quelque part tropicale aujourd'hui, vous voyagerez ensuite vers une ville ultramoderne (avec une probabilité de 7/10) ou vers une place dans les montagnes (avec une probabilité de 3/10), mais vous ne voyagerez pas à un autre paradis tropical à côté.
-
-
Si vous voyagez aujourd'hui dans une ville ultramoderne, vous voyagerez à côté d'un paradis tropical ou d'une région montagneuse avec une probabilité égale, mais certainement pas vers une autre ville ultramoderne.
Si vous voyagez dans les montagnes aujourd'hui, vous voyagerez à côté d'un paradis tropical (avec une probabilité de 7/10) ou d'une ville ultramoderne (avec une -probabilité de 2/10) ou une région montagneuse différente (avec un prob -capacité de 1/10). -
-
Parce que votre choix de l'endroit où voyager demain dépend uniquement de l'endroit où vous voyagez aujourd'hui et non de l'endroit où vous avez voyagé dans le passé, vous pouvez utiliser un type particulier de modèle statistique connu sous le nom de chaîne de Markov. modélisez votre prise de décision de destination. De plus, vous pouvez utiliser ce modèle pour générer des statistiques afin de prédire combien de vos prochaines vacances vous passerez dans un paradis tropical, une majesté montagneuse ou une ville ultramoderne.
En regardant un peu plus près ce qui se passe ici, le scénario décrit ci-dessus représente à la fois un modèle stochastique et une méthode de chaîne de Markov. Le modèle inclut une ou plusieurs variables aléatoires et montre comment les changements dans ces variables affectent les résultats prédits. Dans les méthodes de Markov, les états futurs doivent dépendre de la valeur de l'état présent et être conditionnellement indépendants de tous les états passés.
Vous pouvez utiliser les chaînes de Markov comme outil de science des données en créant un modèle qui génère des estimations prédictives de la valeur des futurs points de données en fonction de ce que vous savez de la valeur des points de données actuels dans un ensemble de données.Pour prédire les états futurs uniquement en fonction de ce qui se passe dans l'état actuel d'un système, utilisez des chaînes de Markov.
Les chaînes de Markov sont extrêmement utiles pour modéliser divers processus du monde réel. Ils sont couramment utilisés dans les modèles boursiers, dans les modèles d'évaluation des actifs financiers, dans les systèmes de reconnaissance vocale, dans les systèmes de recherche et de classement, dans les systèmes thermodynamiques, dans les systèmes de régulation génique, dans les modèles d'estimation d'état, pour la reconnaissance de formes, et pour la modélisation de la population.
Une méthode importante dans les chaînes de Markov se trouve dans les processus de la chaîne de Markov Monte Carlo (MCMC). Une chaîne de Markov atteindra finalement un état
stable
- un ensemble de probabilités à long terme pour les états de la chaîne. Vous pouvez utiliser cette caractéristique pour dériver des distributions de probabilité, puis échantillonner à partir de ces distributions en utilisant l'échantillonnage Monte Carlo pour générer des estimations à long terme des états futurs.