Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
63
Flash
On considère une chaîne de Markov à deux états dont la matrice de transition P est :
P=(0,30,60,70,4).
Pour une distribution initiale π0=(0,50,5), quelle est la probabilité de chacun des états de la chaîne de Markov au bout de trois transitions ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
64
Flash
Déterminer une matrice de transition associée à une chaîne de Markov pour laquelle la distribution (0,10,9) est invariante.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
65
[Raisonner.]
Dans cet exercice, a et b désignent deux nombres réels de l'intervalle ]0;1[.
Montrer que l'état (a+bba+ba) est l'unique distribution invariante de la chaîne de Markov associée au graphe probabiliste suivant.
Le zoom est accessible dans la version Premium.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
66
[Calculer.]
Soient x et y deux nombres réels strictements positifs dont la somme est inférieure ou égale à 1.
Montrer que l'état (313131) est l'unique distribution invariante du graphe probabiliste suivant.
Le zoom est accessible dans la version Premium.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
67
[Communiquer.]
Le zoom est accessible dans la version Premium.
Crédits : Milleflore Images / Shuttersock
Selon les années, Nadège passe Noël soit chez ses parents, soit chez la famille de son mari Victor.
En 2020, Nadège fête Noël chez la famille de Victor.
Pour les années suivantes, elle choisit où passer Noël selon la règle suivante :
lorsqu'elle a passé Noël chez ses parents, il y a une probabilité de 0,3 qu'elle fête encore Noël chez eux l'année suivante ;
lorsqu'elle passe Noël chez la famille de Victor, il y a une probabilité de 0,6 qu'elle fête Noël chez ses parents l'année suivante.
Quelle est la probabilité qu'elle passe Noël chez ses
parents en 2035 ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
68
Algo
[Modéliser.]
On considère le graphe probabiliste ci‑dessous.
Le zoom est accessible dans la version Premium.
À l'aide d'un programme en Python simulant une marche aléatoire sur le graphe, conjecturer la distribution invariante de cette chaîne de Markov.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
69
Tableur
[Modéliser.]
On considère, dans le plan muni d'un repère orthonormé (O;i,j) la suite (An) de points définie par A0(0;0), A1(1;0) puis, pour tout entier naturel non nul n, on construit An+1 en déplaçant An de 1 vers la droite ou de 1 vers le haut selon la règle suivante :
si le déplacement de An−1 vers An est vers le haut, alors le déplacement de An vers An+1 le sera aussi avec une probabilité de 0,6. Sinon, le déplacement de An vers An+1 est vers la droite ;
si le déplacement de An−1 vers An est vers la droite, alors le déplacement de An vers An+1 le sera aussi avec une probabilité de 0,7. Sinon, le déplacement de An vers An+1 est vers le haut.
1. Modéliser la suite des coordonnées de AnAn+1 par une chaîne de Markov dont on donnera la représentation par un graphe probabiliste.
Dessinez ici
2.a. Reproduire le tableur suivant.
Le zoom est accessible dans la version Premium.
b. Que doit‑on écrire dans la cellule D3 pour que le tableur écrive « abscisse » ou « ordonnée » selon la direction dans laquelle doit s'effectuer le déplacement de A1 ?
c. Compléter les cellules B4 et C4 pour déterminer les coordonnées de A2 en fonction de celles de A1 et du déplacement indiqué en D4.
d. Compléter la cellule E4 pour obtenir le coefficient directeur de la droite (A0A2).
3. Étirer la ligne 4 vers le bas pour calculer les coordonnées de An pour tout n⩽200 puis conjecturer la limite du coefficient directeur de (A0An).
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
70
[Modéliser.]
Le zoom est accessible dans la version Premium.
Crédits : Sashkin / Shuttersock
Ramanujan est un génie mathématique qui a trois activités au cours d'une journée : conjecturer de
nouvelles formules mathématiques, démontrer des résultats et imaginer des applications aux résultats qu'il a déjà inventés.
Chaque heure, il peut changer, ou pas, d'activité.
S'il a conjecturé de nouvelles formules au cours de l'heure précédente, il continue avec une probabilité de 0,3 ou il les démontre avec une probabilité égale à 0,5 ;
s'il a démontré des résultats, il continue avec une probabilité de 0,05 ou il imagine des applications à ses résultats avec une probabilité 0,75 ;
s'il a imaginé des applications, il continue avec une probabilité de 0,5 ou il conjecture de nouvelles formules avec une probabilité égale à 0,2.
1. Représenter graphiquement la chaîne de Markov associée à la situation et déterminer la matrice de transition.
Dessinez ici
2. Au début de la journée, Ramanujan commence toujours par conjecturer de nouvelles formules. Quelle est la probabilité que quatre heures plus tard, il soit en train de démontrer un résultat ?
3. Chaque jour, le mathématicien travaille 10 heures. Quelle est la probabilité qu'il s'occupe avec chacune de ces activités lors de sa dernière heure de travail ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
71
[Raisonner.]
On considère une chaîne de Markov à deux états A et B dans laquelle PA(B)=PB(A) avec PA(B) différent de 0 et de 1.
1. Que peut‑on dire de la matrice de transition ?
2. Montrer qu'à long terme, quelle que soit la distribution de probabilité initiale, les deux états sont équiprobables.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
72
[Chercher.]a
On considère la chaîne de Markov définie par la matrice de transition (p(2−p)p(1−p)21−p), avec p∈[0;1], et par la distribution initiale (0,30,7).
1. Déterminer p pour que la deuxième composante de la distribution de probabilité soit maximale après une transition.
2. Que vaut alors la première composante de cette distribution de probabilité ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
73
[Modéliser.]
Dans un pays, les habitants peuvent soit être des citoyens, soit être des soldats, soit être des dirigeants. Chaque année :
un soldat peut devenir un citoyen avec une probabilité de 0,1. Sinon, il reste un soldat ;
un citoyen peut devenir un soldat avec une probabilité de 0,2, être élu dirigeant avec une probabilité de 0,3 ou rester un citoyen ;
un dirigeant peut se faire réélire avec une probabilité de 0,1. Il peut également devenir un soldat avec une probabilité de 0,6. Dans tous les autres cas, il devient citoyen.
1. Représenter cette situation par une chaîne de Markov (donnée sous la forme d'un graphe probabiliste).
Dessinez ici
2. On choisit un citoyen. Quelle est la probabilité qu'il soit dirigeant dans deux ans ? Dans trois ans ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
74
SVT
[Modéliser.]
Le zoom est accessible dans la version Premium.
Crédits : Diyana Dimitrova / Shutterstock
Un essaim d'abeilles peut évoluer chaque année de trois manières qui s'excluent mutuellement. Il peut essaimer, produire du miel, ou contracter une maladie.
L'évolution suit les règles suivantes :
s'il a essaimé l'année passée, il contracte une maladie l'année en cours avec une probabilité de 0,1 et il produit du miel avec une probabilité de 0,8 ;
s'il a produit du miel l'année passée, il essaime avec une probabilité de 0,9 et il contracte une maladie avec une probabilité de 0,05 ;
s'il a contracté une maladie l'année passée, il en contracte une nouvelle l'année en cours avec une probabilité de 0,03 et il produit du miel avec une probabilité de 0,8.
La première année, un naturaliste observe que la ruche a essaimé.
1. Quelle est la probabilité qu'elle soit à nouveau en train d'essaimer lorsque le naturaliste reviendra trois années plus tard ?
2. Si on observe le développement de l'essaim sur une longue période, quelle proportion représentent les années où cet essaim a produit du miel ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
75
[Modéliser.]
Le zoom est accessible dans la version Premium.
Crédits : Oscity / Shutterstock
Les Dalton sont en prison. Chaque semaine, ils tentent de s'évader. Leur tentative est une réussite dans 30 % des cas. Une fois évadés, la probabilité qu'ils se fassent capturer chaque semaine s'élève à 80 %.
1. Modéliser cette situation par une chaîne de Markov à deux états. On notera L l'état « les Dalton sont libre » et P l'état « les Dalton sont en prison ».
Dessinez ici
2. Déterminer la probabilité qu'ils soient libres au bout de huit semaines.
3. Quelle est la probabilité qu'ils purgent la totalité de leur peine d'un mois de prison (quatre semaines) sans avoir réussi à s'évader une seule fois ?
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
76
[Chercher.] 1. Trouver deux nombres réels strictement positifs x et y solutions du système ci‑dessous, vérifiant x+y=1.
⎩⎪⎪⎨⎪⎪⎧32x+61y=x31x+65y=y.
2. En déduire une distribution invariante de la chaîne de Markov définie par la matrice de transition
P=⎝⎜⎜⎛32613165⎠⎟⎟⎞.
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
77
[Chercher.]
On considère une chaîne de Markov (Xn) ayant pour distribution invariante π. Soit (Zn) la chaîne de Markov définie, pour tout n∈N, par Zn=X2n.
Montrer que π est également une distribution invariante de (Zn).
Ressource affichée de l'autre côté. Faites défiler pour voir la suite.
78
Démo
[Raisonner.]
Soit (Xn) une chaîne de Markov à deux états numérotés 1 et 2 dont on note P la matrice de transition associée, les sommets étant rangés dans l'ordre croissants, et π0 la distribution initiale.
On note, pour tout entier naturel n, πn la matrice ligne correspondant à la distribution de probabilité de la variable aléatoire Xn.
1. En revenant à la définition d'une chaîne de Markov Xn et de P, justifier que, pour tout entier naturel n, πn+1=πnP.
2. Montrer alors par récurrence sur n que πn=π0Pn.
3. Reprendre cette démonstration dans le cadre d'une chaîne de Markov à 3 états.
Une erreur sur la page ? Une idée à proposer ?
Nos manuels sont collaboratifs, n'hésitez pas à nous en faire part.
Oups, une coquille
j'ai une idée !
Nous préparons votre pageNous vous offrons 5 essais
Yolène
Émilie
Jean-Paul
Fatima
Sarah
Utilisation des cookies
Lors de votre navigation sur ce site, des cookies nécessaires au bon fonctionnement et exemptés de consentement sont déposés.