Chargement de l'audio en cours
Plus

Plus

3. Évolution d’une chaîne de Markov
P.225-226

Entraînement


3
Évolution d’une chaîne de Markov





DIFFÉRENCIATION

◉◉ Parcours 1 : exercices 41 ; 45 ; 54 ; 57 ; 70 et 76
◉◉ Parcours 2 : exercices 47 ; 62 ; 65 et 74
◉◉◉ Parcours 3 : exercices 46 ; 58 ; 72 et 77

63
FLASH

On considère une chaîne de Markov à deux états dont la matrice de transition est :
.
Pour une distribution initiale , quelle est la probabilité de chacun des états de la chaîne de Markov au bout de trois transitions ?
Voir la correction

64
FLASH

Déterminer une matrice de transition associée à une chaîne de Markov pour laquelle la distribution est invariante.
Voir la correction

65
[Raisonner.] ◉◉
Dans cet exercice, et désignent deux nombres réels de l’intervalle .
Montrer que l’état est l’unique distribution invariante de la chaîne de Markov associée au graphe probabiliste suivant.

Maths expertes - chapitre 7 - Suites et matrices - exercice 65

Voir la correction

66
[Calculer.]
Soient et deux nombres réels strictements positifs dont la somme est inférieure ou égale à .
Montrer que l’état est l’unique distribution invariante du graphe probabiliste suivant.

Maths expertes - chapitre 7 - Suites et matrices - exercice 65

Voir la correction

67
[Communiquer.]
Maths expertes - chapitre 7 - Suites et matrices - exercice 67 - Repas de Noël

Selon les années, Nadège passe Noël soit chez ses parents, soit chez la famille de son mari Victor.
En 2020, Nadège fête Noël chez la famille de Victor.
Pour les années suivantes, elle choisit où passer Noël selon la règle suivante :
  • lorsqu’elle a passé Noël chez ses parents, il y a une probabilité de qu’elle fête encore Noël chez eux l’année suivante ;
  • lorsqu’elle passe Noël chez la famille de Victor, il y a une probabilité de qu’elle fête Noël chez ses parents l’année suivante.

Quelle est la probabilité qu’elle passe Noël chez ses parents en 2035 ?
Voir la correction

68
ALGO
[Modéliser.]
On considère le graphe probabiliste ci‑dessous.

Maths expertes - chapitre 7 - Suites et matrices - exercice 68

À l’aide d’un programme en Python simulant une marche aléatoire sur le graphe, conjecturer la distribution invariante de cette chaîne de Markov.



Voir la correction

69
TABLEUR
[Modéliser.]
On considère, dans le plan muni d’un repère orthonormé la suite de points définie par , puis, pour tout entier naturel non nul , on construit en déplaçant de vers la droite ou de vers le haut selon la règle suivante :
  • si le déplacement de vers est vers le haut, alors le déplacement de vers le sera aussi avec une probabilité de . Sinon, le déplacement de vers est vers la droite ;
  • si le déplacement de vers est vers la droite, alors le déplacement de vers le sera aussi avec une probabilité de . Sinon, le déplacement de vers est vers le haut.

1. Modéliser la suite des coordonnées de par une chaîne de Markov dont on donnera la représentation par un graphe probabiliste.
Dessinez ici

2. a. Reproduire le tableur suivant.

Évolution d’une chaîne de Markov

b. Que doit‑on écrire dans la cellule D3 pour que le tableur écrive « abscisse » ou « ordonnée » selon la direction dans laquelle doit s’effectuer le déplacement de  ?


c. Compléter les cellules B4 et C4 pour déterminer les coordonnées de en fonction de celles de et du déplacement indiqué en D4.


d. Compléter la cellule E4 pour obtenir le coefficient directeur de la droite .


3. Étirer la ligne 4 vers le bas pour calculer les coordonnées de pour tout puis conjecturer la limite du coefficient directeur de .
Voir la correction

70
[Modéliser.] ◉◉
Maths expertes - chapitre 7 - Suites et matrices - exercice 70 - Calculs équations

Ramanujan est un génie mathématique qui a trois activités au cours d’une journée : conjecturer de nouvelles formules mathématiques, démontrer des résultats et imaginer des applications aux résultats qu’il a déjà inventés.
Chaque heure, il peut changer, ou pas, d’activité.
  • S’il a conjecturé de nouvelles formules au cours de l’heure précédente, il continue avec une probabilité de ou il les démontre avec une probabilité égale à  ;
  • s’il a démontré des résultats, il continue avec une probabilité de ou il imagine des applications à ses résultats avec une probabilité  ;
  • s’il a imaginé des applications, il continue avec une probabilité de ou il conjecture de nouvelles formules avec une probabilité égale à .

1. Représenter graphiquement la chaîne de Markov associée à la situation et déterminer la matrice de transition.

Dessinez ici



2. Au début de la journée, Ramanujan commence toujours par conjecturer de nouvelles formules. Quelle est la probabilité que quatre heures plus tard, il soit en train de démontrer un résultat ?


3. Chaque jour, le mathématicien travaille 10 heures. Quelle est la probabilité qu’il s’occupe avec chacune de ces activités lors de sa dernière heure de travail ?
Voir la correction

71
[Raisonner.]
On considère une chaîne de Markov à deux états et dans laquelle avec différent de et de .

1. Que peut‑on dire de la matrice de transition ?


2. Montrer qu’à long terme, quelle que soit la distribution de probabilité initiale, les deux états sont équiprobables.
Voir la correction

72
[Chercher.] ◉◉◉
On considère la chaîne de Markov définie par la matrice de transition , avec , et par la distribution initiale .

1. Déterminer pour que la deuxième composante de la distribution de probabilité soit maximale après une transition.


2. Que vaut alors la première composante de cette distribution de probabilité ?
Voir la correction

73
[Modéliser.]
Dans un pays, les habitants peuvent soit être des citoyens, soit être des soldats, soit être des dirigeants. Chaque année :
  • un soldat peut devenir un citoyen avec une probabilité de . Sinon, il reste un soldat ;
  • un citoyen peut devenir un soldat avec une probabilité de , être élu dirigeant avec une probabilité de ou rester un citoyen ;
  • un dirigeant peut se faire réélire avec une probabilité de . Il peut également devenir un soldat avec une probabilité de . Dans tous les autres cas, il devient citoyen.

1. Représenter cette situation par une chaîne de Markov (donnée sous la forme d’un graphe probabiliste).

Dessinez ici

2. On choisit un citoyen. Quelle est la probabilité qu’il soit dirigeant dans deux ans ? Dans trois ans ?
Voir la correction

74
SVT
[Modéliser.] ◉◉
Maths expertes - chapitre 7 - Suites et matrices - exercice 74 - Abeilles

Un essaim d’abeilles peut évoluer chaque année de trois manières qui s’excluent mutuellement. Il peut essaimer, produire du miel, ou contracter une maladie.
L’évolution suit les règles suivantes :
  • s’il a essaimé l’année passée, il contracte une maladie l’année en cours avec une probabilité de et il produit du miel avec une probabilité de  ;
  • s’il a produit du miel l’année passée, il essaime avec une probabilité de et il contracte une maladie avec une probabilité de  ;
  • s’il a contracté une maladie l’année passée, il en contracte une nouvelle l’année en cours avec une probabilité de et il produit du miel avec une probabilité de .
La première année, un naturaliste observe que la ruche a essaimé.

1. Quelle est la probabilité qu’elle soit à nouveau en train d’essaimer lorsque le naturaliste reviendra trois années plus tard ?


2. Si on observe le développement de l’essaim sur une longue période, quelle proportion représentent les années où cet essaim a produit du miel ?
Voir la correction

75
[Modéliser.]
Évolution d’une chaîne de Markov - prison

Les Dalton sont en prison. Chaque semaine, ils tentent de s’évader. Leur tentative est une réussite dans 30 % des cas. Une fois évadés, la probabilité qu’ils se fassent capturer chaque semaine s’élève à 80 %.

1. Modéliser cette situation par une chaîne de Markov à deux états. On notera l’état « les Dalton sont libre » et l’état « les Dalton sont en prison ».

Dessinez ici

2. Déterminer la probabilité qu’ils soient libres au bout de huit semaines.


3. Quelle est la probabilité qu’ils purgent la totalité de leur peine d’un mois de prison (quatre semaines) sans avoir réussi à s’évader une seule fois ?
Voir la correction

76
[Chercher.] ◉◉
1. Trouver deux nombres réels strictement positifs et solutions du système ci‑dessous, vérifiant .
.


2. En déduire une distribution invariante de la chaîne de Markov définie par la matrice de transition
.

Voir la correction

77
[Chercher.] ◉◉◉
On considère une chaîne de Markov ayant pour distribution invariante . Soit la chaîne de Markov définie, pour tout , par .
Montrer que est également une distribution invariante de .
Voir la correction

78
[Raisonner.]
[DÉMO]

Soit une chaîne de Markov à deux états numérotés 1 et 2 dont on note la matrice de transition associée, les sommets étant rangés dans l’ordre croissants, et la distribution initiale.
On note, pour tout entier naturel , la matrice ligne correspondant à la distribution de probabilité de la variable aléatoire .

1. En revenant à la définition d’une chaîne de Markov et de , justifier que, pour tout entier naturel , .


2. Montrer alors par récurrence sur que .


3. Reprendre cette démonstration dans le cadre d’une chaîne de Markov à 3 états.
Voir la correction
Utilisation des cookies
Lors de votre navigation sur ce site, des cookies nécessaires au bon fonctionnement et exemptés de consentement sont déposés.