Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
A
Définitions et aspect probabiliste
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Définitions
Un graphe pondéré est un graphe dans lequel chaque arête est affectée d'un nombre réel positif appelé poids de cette arête.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Définition
Un graphe probabiliste est un graphe orienté pondéré par des réels compris entre 0 et 1 et dans lequel la somme des poids des arêtes issues de chaque sommet est égale à 1.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Exemple
Le graphe suivant est un graphe probabiliste à deux états (C et T). On a 0,22+0,78=1 et 0,47+0,53=1.
Le zoom est accessible dans la version Premium.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Définitions
Une suite (Xn)n⩾0 de variables aléatoires est une chaîne de Markov à deux états a et b (respectivement à trois états a, b et c) lorsque, pour tous x0, x1, … , xk, xk+1 dans {a;b} (respectivement dans {a;b;c}), on a :
pX0=x0,X1=x1,…,Xk=xk(Xk+1=xk+1)=pXk=xk(Xk+1=xk+1).
La probabilité pXk=xk(Xk+1=xk+1) s'appelle probabilité de transition de l'état xk à l'état xk+1.
L'ensemble {a;b} (respectivement {a;b;c}) est appelé espace des états.
Illustration à l'aide d'un graphe probabiliste
On peut représenter une chaîne de Markov à l'aide d'un graphe probabiliste. Chaque sommet représente un état de la chaîne de Markov et les poids portés par les arêtes orientées représentent les probabilités de transitions.
Graphe d'une chaîne de Markov à deux états pXk=a(Xk+1=b)=pa,b
Le zoom est accessible dans la version Premium.
Graphe d'une chaîne de Markov à trois états pXk=c(Xk+1=b)=pc,b
Le zoom est accessible dans la version Premium.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Remarque
La définition d'une chaîne de Markov signifie que les états passés n'ont aucune influence sur les états futurs : seul l'état présent a son importance.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Remarque
Les variables aléatoires (Xn) ne sont pas nécessairement à valeurs réelles.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Remarque
La somme des probabilités de transition issues d'un même état est égale à 1.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Définition
La distribution initiale d'une chaîne de Markov (Xn) est la loi de probabilité de X0.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Application et méthode - 3
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Énoncé
Ike n'aime pas prendre le bus pour aller à l'école et préfère prendre son vélo. Il n'utilise pas d'autre moyen de locomotion.
Chaque jour de la semaine, il va à l'école en bus avec une probabilité de 0,8 s'il ne l'a pas emprunté la fois précédente et avec une probabilité de 0,3 sinon.
Représenter la situation par un graphe probabiliste.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Méthode
On repère en premier lieu le nombre d'états : on en a ici deux.
On construit alors un graphe probabiliste à deux sommets (un pour chaque état) et on traduit les probabilités de l'énoncé sous forme de pondérations dans le graphe
On complète en utilisant le fait que la somme des probabilités portées par les arêtes issues d'un même état vaut 1.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
B
Représentation matricielle d'une chaîne de Markov
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Définition
On considère une chaîne de Markov à n états, numérotés 1 ; … ; n, et on note E={1;…;n} l'espace des états.
La matrice de transition P associée à cette chaîne de Markov est la matrice carrée d'ordre n telle que, pour tout i∈E et pour tout j∈E, le coefficient pi,j correspond à la probabilité de transition de l'état i vers l'état j.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Remarque
Dans le programme, on se limite au cas où n=2 ou n=3.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Exemples
1. La chaîne de Markov représentée ci‑dessous par un graphe probabiliste a pour matrice de transition (0,50,80,50,2).
Le coefficient surligné 0,8 indique que la probabilité de passer de l'état 2 à l'état 1 vaut 0,8.
Le zoom est accessible dans la version Premium.
2. La chaîne de Markov représentée par le graphe probabiliste ci‑dessous a pour matrice de transition ⎝⎛0,50,70,30,10,20,40,40,10,3⎠⎞.
Le zoom est accessible dans la version Premium.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Remarque
La distribution initiale peut être représentée par une matrice ligne, souvent notée π0, dont le k‑ième coefficient correspond à la probabilité de l'état k à l'instant initial.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
Propriété
1. Les coefficients de la matrice de transition d'une chaîne de Markov sont des nombres appartenant à l'intervalle [0;1].
2. La somme des coefficients d'une ligne donnée de la matrice de transition est égale à 1.
Une erreur sur la page ? Une idée à proposer ?
Nos manuels sont collaboratifs, n'hésitez pas à nous en faire part.
Oups, une coquille
j'ai une idée !
Nous préparons votre pageNous vous offrons 5 essais
Yolène
Émilie
Jean-Paul
Fatima
Sarah
Utilisation des cookies
Lors de votre navigation sur ce site, des cookies nécessaires au bon fonctionnement et exemptés de consentement sont déposés.