Voici tout ce qu’il faut savoir faire sur les chaînes de Markov en mathématiques expertes.
Graphes probabilistes
Chaînes de Markov
- Montrer qu’une suite de variables aléatoires est une chaîne de Markov Montrer qu’une suite de variables aléatoires est une chaîne de Markov
- Modéliser une situation avec une chaîne de Markov Modéliser une situation avec une chaîne de Markov
- Déterminer le graphe associé à une chaîne de Markov Déterminer le graphe associé à une chaîne de Markov
- Déterminer la matrice associée à une chaîne de Markov Déterminer la matrice associée à une chaîne de Markov
- Déterminer la probabilité de passer d’un état à un autre en k transitions Déterminer la probabilité de passer d’un état à un autre en k transitions
Distributions
- Déterminer une distribution initiale dans une chaîne de Markov Déterminer une distribution initiale dans une chaîne de Markov
- Déterminer une distribution d’une chaîne de Markov Déterminer une distribution d’une chaîne de Markov
- Montrer qu’une distribution est invariante d’une chaîne de Markov Montrer qu’une distribution est invariante d’une chaîne de Markov
- Déterminer une distribution invariante d’une chaîne de Markov Déterminer une distribution invariante d’une chaîne de Markov
- Montrer qu’une suite de distributions est convergente Montrer qu’une suite de distributions est convergente