Mathématiques Expertes Terminale

Rejoignez la communauté !
Co-construisez les ressources dont vous avez besoin et partagez votre expertise pédagogique.
Nombres complexes
Ch. 1
Nombres complexes, point de vue algébrique
Ch. 2
Nombres complexes, point de vue géométrique
Arithmétique
Ch. 3
Divisibilité dans Z
Ch. 4
PGCD et applications
Ch. 5
Nombres premiers
Graphes et matrices
Ch. 6
Calcul matriciel et applications aux graphes
Annexes
Cahier d'algorithmique et de programmation
Chapitre 7
Cours 3

Évolution d'une chaîne de Markov

14 professeurs ont participé à cette page
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

A
Étude sur plusieurs rangs

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Propriété
On considère une chaîne de Markov \left(\mathrm{X}_{n}\right) dont on note \mathrm{P} la matrice de transition associée et \pi_{0} la distribution initiale. On note \pi_{n} la loi de \mathrm{X}_{n}.
On a, pour tout entier n, \pi_{n+1}=\pi_{n} \mathrm{P} et \pi_{n}=\pi_{0} \mathrm{P}^{n}.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Remarque

Une chaîne de Markov est donc entièrement déterminée par sa distribution initiale et par sa matrice de transition.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Démonstration
Voir exercice p. 227.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Exemple
On considère la chaîne de Markov définie par le graphe probabiliste ci‑contre et par la distribution initiale \pi_{0}=(0,5 \quad 0,5). Alors la loi de probabilité \pi_{0} de \mathrm{X}_3 est donné par \pi_{3}=\pi_{0} \mathrm{P}^{3} avec \mathrm{P}=\left(\begin{array}{ll}0{,}3 & 0{,}7 \\ 0{,}9 & 0{,}1\end{array}\right).

maths expertes - chapitre 7 - Suites et matrices - Cours - Évolution d'une chaîne de Markov
Le zoom est accessible dans la version Premium.

On a ainsi \pi_{3}=(0{,}576 \quad 0{,}424).
La loi de probabilité de \mathrm{X}_3 est donc la suivante.

\boldsymbol{x}12
\boldsymbol{\mathrm{P}\left(\mathrm{X}_{3}=x\right)}0{,}5760{,}424
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Remarque

Le coefficient d'indice (i\,, j) de la matrice \mathrm{P}^n correspont à la probabilité de passer de l'état i à l'état j en n transitions.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Application et méthode - 4
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Énoncé
On reprend l'exemple précédent. Le lundi, premier jour de l'année scolaire, Ike va à l'école en bus avec une probabilité de 0{,}5. Quelle est la probabilité qu'il aille à l'école en bus le jeudi de cette même semaine ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Méthode

  • On détermine la matrice de transition liée au graphe probabiliste.
  • On calcule ensuite la puissance de la matrice de transition qui correspond au rang pour lequel on veut trouver la distribution de probabilité.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Solution
En rangeant les sommets dans l'ordre alphabétique, la matrice de transition est \mathrm{P}=\left(\begin{array}{ll}0{,}3 & 0{,}7 \\ 0{,}8 & 0{,}2\end{array}\right) et la distribution initiale correspondant au lundi de la rentrée est \pi_{0}=(0,5 \quad 0,5). On veut donc déterminer \pi_{3}=\pi_{0} \mathrm{P}^{3}.
Or \mathrm{P}^{3}=\left(\begin{array}{cc}0{,}475 & 0{,}525 \\ 0{,}6 & 0{,}4\end{array}\right) donc \pi_{3}=(0{,}5375 \quad 0{,}4625).
La probabilité qu'Ike aille à l'école en bus le jeudi de la semaine de la rentrée est donc de 0{,}5375.

Pour s'entraîner
Exercices et p. 221
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

B
Distribution invariante d'une chaîne de Markov

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Propriété (admise)
Soit \left(\mathrm{X}_{n}\right) une chaîne de Markov à 2 ou 3 états de matrice de transition \mathrm{P}.
Il existe au moins une distribution initiale \pi telle que \pi \mathrm{P}=\pi.
Une telle distribution est appelée distribution invariante de la chaîne de Markov.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Remarque

On parle aussi d'état stable de la chaîne de Markov.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Exemple
On considère une chaîne de Markov dont la matrice de transition est \mathrm{P}=\left(\begin{array}{ll}0{,}4 & 0{,}6 \\ 0{,}9 & 0{,}1\end{array}\right).
Alors \pi=(0,6 \quad 0,4) est une distribution invariante.
En effet, \pi \mathrm{P}=(0,6 \quad 0,4)\left(\begin{array}{ll}0{,}4 & 0{,}6 \\ 0{,}9 & 0{,}1\end{array}\right)
=(0{,}6 \times 0{,}4+0{,}4 \times 0{,}9 \quad 0{,}6 \times 0{,}6+0{,}4 \times 0{,}1)
=(0{,}6 \quad 0{,}4)
= \pi.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Remarque

L'existence de la distribution invariante peut également être démontrée pour une chaîne de Markov ayant un nombre d'états quelconque.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Propriété
On considère une chaîne de Markov \left(\mathrm{X}_{n}\right) dont on note \mathrm{P} la matrice de transition et \pi_{0} la distribution initiale.
Pour tout entier naturel n, on note \pi_{n} la distribution de \mathrm{X}_{n}.
Si \mathrm{P} ne contient aucun 0, alors la suite de matrices lignes (\pi_{n}) converge vers l'unique distribution invariante de la chaîne de Markov.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Remarque

Dans le cas où la matrice de transition ne contient pas de 0, la distribution invariante s'interprète de la même manière qu'une limite de suite.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Application et méthode - 5
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Énoncé
On reprend l'exemple précédent. Déterminer la probabilité qu'Ike aille à l'école en vélo à très long terme.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.

Méthode

La notion de distribution invariante permet de modéliser cette notion de « long terme ».
On commence par noter (x \quad y) la (lorsqu'elle est unique) distribution invariante puis on remarque qu'on doit avoir x+y=1.
On traduit ensuite sous forme de système la relation \pi \mathrm{P}=\pi : on obtient alors deux nouvelles relations qui s'avèrent être équivalentes.
On dispose donc au total de deux équations qui nous permettent de trouver x et y.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Solution
La matrice de transition \mathrm{P} ne contient pas de 0 : il existe donc une unique distribution invariante \pi.
Si on note \pi=(x \quad y) cette distribution invariante, alors on a x+y=1 et la relation \pi \mathrm{P}=\pi, c'est‑à‑dire 0{,}3 x+0{,}8 y=x et 0{,}7x+0{,}2 y=y.
Les deux dernières égalités se ramenant en réalité à la même équation, on ne va travailler qu'avec les deux premières, soit \left\{\begin{array}{r}0{,}3 x+0{,}8 y=x \\ x+y=1\end{array}\right. c'est‑à‑dire \left\{\begin{aligned}-0{,}7 x+0{,}8 y &=0 \\ x+y &=1 \end{aligned}\right..
Ce système a pour solution (x\,; y)=\left(\frac{8}{15}\,; \frac{7}{15}\right).
La distribution invariante est donc \pi=\left(\frac{8}{15}\:\: \frac{7}{15}\right). La probabilité qu'Ike aille à l'école en vélo à très long terme vaut \frac{7}{15}.

Pour s'entraîner
Exercices et p. 221

Une erreur sur la page ? Une idée à proposer ?

Nos manuels sont collaboratifs, n'hésitez pas à nous en faire part.

Oups, une coquille

j'ai une idée !

Nous préparons votre pageNous vous offrons 5 essais
collaborateur

collaborateurYolène
collaborateurÉmilie
collaborateurJean-Paul
collaborateurFatima
collaborateurSarah
Utilisation des cookies
Lors de votre navigation sur ce site, des cookies nécessaires au bon fonctionnement et exemptés de consentement sont déposés.