Mathématiques Expertes Terminale

Rejoignez la communauté !
Co-construisez les ressources dont vous avez besoin et partagez votre expertise pédagogique.
Nombres complexes
Ch. 1
Nombres complexes, point de vue algébrique
Ch. 2
Nombres complexes, point de vue géométrique
Arithmétique
Ch. 3
Divisibilité dans Z
Ch. 4
PGCD et applications
Ch. 5
Nombres premiers
Graphes et matrices
Ch. 6
Calcul matriciel et applications aux graphes
Ch. 7
Suites et matrices
Annexes
Cahier d'algorithmique et de programmation
Chapitre 7
Entraînement 3

Évolution d'une chaîne de Markov

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
Différenciation
Parcours 1 : exercices  ;  ;  ;  ; et
Parcours 2 : exercices  ;  ; et
Parcours 3 : exercices  ;  ; et
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
63
Flash

On considère une chaîne de Markov à deux états dont la matrice de transition est :
.
Pour une distribution initiale , quelle est la probabilité de chacun des états de la chaîne de Markov au bout de trois transitions ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
64
Flash

Déterminer une matrice de transition associée à une chaîne de Markov pour laquelle la distribution est invariante.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
65
[Raisonner.]
Dans cet exercice, et désignent deux nombres réels de l'intervalle .
Montrer que l'état est l'unique distribution invariante de la chaîne de Markov associée au graphe probabiliste suivant.

Maths expertes - chapitre 7 - Suites et matrices - exercice 65
Le zoom est accessible dans la version Premium.

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
66
[Calculer.]
Soient et deux nombres réels strictements positifs dont la somme est inférieure ou égale à .
Montrer que l'état est l'unique distribution invariante du graphe probabiliste suivant.

Maths expertes - chapitre 7 - Suites et matrices - exercice 65
Le zoom est accessible dans la version Premium.

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
67
[Communiquer.]
Maths expertes - chapitre 7 - Suites et matrices - exercice 67 - Repas de Noël
Le zoom est accessible dans la version Premium.
Crédits : Milleflore Images / Shuttersock

Selon les années, Nadège passe Noël soit chez ses parents, soit chez la famille de son mari Victor.
En 2020, Nadège fête Noël chez la famille de Victor.
Pour les années suivantes, elle choisit où passer Noël selon la règle suivante :
  • lorsqu'elle a passé Noël chez ses parents, il y a une probabilité de qu'elle fête encore Noël chez eux l'année suivante ;
  • lorsqu'elle passe Noël chez la famille de Victor, il y a une probabilité de qu'elle fête Noël chez ses parents l'année suivante.

Quelle est la probabilité qu'elle passe Noël chez ses parents en 2035 ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
68
Algo
[Modéliser.]
On considère le graphe probabiliste ci‑dessous.

Maths expertes - chapitre 7 - Suites et matrices - exercice 68
Le zoom est accessible dans la version Premium.

À l'aide d'un programme en Python simulant une marche aléatoire sur le graphe, conjecturer la distribution invariante de cette chaîne de Markov.

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
69
Tableur
[Modéliser.]
On considère, dans le plan muni d'un repère orthonormé la suite de points définie par , puis, pour tout entier naturel non nul , on construit en déplaçant de vers la droite ou de vers le haut selon la règle suivante :
  • si le déplacement de vers est vers le haut, alors le déplacement de vers le sera aussi avec une probabilité de . Sinon, le déplacement de vers est vers la droite ;
  • si le déplacement de vers est vers la droite, alors le déplacement de vers le sera aussi avec une probabilité de . Sinon, le déplacement de vers est vers le haut.

1. Modéliser la suite des coordonnées de par une chaîne de Markov dont on donnera la représentation par un graphe probabiliste.
Dessinez ici

2. a. Reproduire le tableur suivant.

Évolution d'une chaîne de Markov
Le zoom est accessible dans la version Premium.

b. Que doit‑on écrire dans la cellule D3 pour que le tableur écrive « abscisse » ou « ordonnée » selon la direction dans laquelle doit s'effectuer le déplacement de  ?

c. Compléter les cellules B4 et C4 pour déterminer les coordonnées de en fonction de celles de et du déplacement indiqué en D4.

d. Compléter la cellule E4 pour obtenir le coefficient directeur de la droite .

3. Étirer la ligne 4 vers le bas pour calculer les coordonnées de pour tout puis conjecturer la limite du coefficient directeur de .
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
70
[Modéliser.]
Maths expertes - chapitre 7 - Suites et matrices - exercice 70 - Calculs équations
Le zoom est accessible dans la version Premium.
Crédits : Sashkin / Shuttersock

Ramanujan est un génie mathématique qui a trois activités au cours d'une journée : conjecturer de nouvelles formules mathématiques, démontrer des résultats et imaginer des applications aux résultats qu'il a déjà inventés.
Chaque heure, il peut changer, ou pas, d'activité.
  • S'il a conjecturé de nouvelles formules au cours de l'heure précédente, il continue avec une probabilité de ou il les démontre avec une probabilité égale à  ;
  • s'il a démontré des résultats, il continue avec une probabilité de ou il imagine des applications à ses résultats avec une probabilité  ;
  • s'il a imaginé des applications, il continue avec une probabilité de ou il conjecture de nouvelles formules avec une probabilité égale à .


1. Représenter graphiquement la chaîne de Markov associée à la situation et déterminer la matrice de transition.

Dessinez ici


2. Au début de la journée, Ramanujan commence toujours par conjecturer de nouvelles formules. Quelle est la probabilité que quatre heures plus tard, il soit en train de démontrer un résultat ?

3. Chaque jour, le mathématicien travaille 10 heures. Quelle est la probabilité qu'il s'occupe avec chacune de ces activités lors de sa dernière heure de travail ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
71
[Raisonner.]
On considère une chaîne de Markov à deux états et dans laquelle avec différent de et de .

1. Que peut‑on dire de la matrice de transition ?

2. Montrer qu'à long terme, quelle que soit la distribution de probabilité initiale, les deux états sont équiprobables.
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
72
[Chercher.]a
On considère la chaîne de Markov définie par la matrice de transition , avec , et par la distribution initiale .

1. Déterminer pour que la deuxième composante de la distribution de probabilité soit maximale après une transition.

2. Que vaut alors la première composante de cette distribution de probabilité ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
73
[Modéliser.]
Dans un pays, les habitants peuvent soit être des citoyens, soit être des soldats, soit être des dirigeants. Chaque année :
  • un soldat peut devenir un citoyen avec une probabilité de . Sinon, il reste un soldat ;
  • un citoyen peut devenir un soldat avec une probabilité de , être élu dirigeant avec une probabilité de ou rester un citoyen ;
  • un dirigeant peut se faire réélire avec une probabilité de . Il peut également devenir un soldat avec une probabilité de . Dans tous les autres cas, il devient citoyen.

1. Représenter cette situation par une chaîne de Markov (donnée sous la forme d'un graphe probabiliste).

Dessinez ici

2. On choisit un citoyen. Quelle est la probabilité qu'il soit dirigeant dans deux ans ? Dans trois ans ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
74
SVT
[Modéliser.]
Maths expertes - chapitre 7 - Suites et matrices - exercice 74 - Abeilles
Le zoom est accessible dans la version Premium.
Crédits : Diyana Dimitrova / Shutterstock

Un essaim d'abeilles peut évoluer chaque année de trois manières qui s'excluent mutuellement. Il peut essaimer, produire du miel, ou contracter une maladie.
L'évolution suit les règles suivantes :
  • s'il a essaimé l'année passée, il contracte une maladie l'année en cours avec une probabilité de et il produit du miel avec une probabilité de  ;
  • s'il a produit du miel l'année passée, il essaime avec une probabilité de et il contracte une maladie avec une probabilité de  ;
  • s'il a contracté une maladie l'année passée, il en contracte une nouvelle l'année en cours avec une probabilité de et il produit du miel avec une probabilité de .
La première année, un naturaliste observe que la ruche a essaimé.

1. Quelle est la probabilité qu'elle soit à nouveau en train d'essaimer lorsque le naturaliste reviendra trois années plus tard ?

2. Si on observe le développement de l'essaim sur une longue période, quelle proportion représentent les années où cet essaim a produit du miel ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
75
[Modéliser.]
Évolution d'une chaîne de Markov - prison
Le zoom est accessible dans la version Premium.
Crédits : Oscity / Shutterstock

Les Dalton sont en prison. Chaque semaine, ils tentent de s'évader. Leur tentative est une réussite dans 30 % des cas. Une fois évadés, la probabilité qu'ils se fassent capturer chaque semaine s'élève à 80 %.

1. Modéliser cette situation par une chaîne de Markov à deux états. On notera l'état « les Dalton sont libre » et l'état « les Dalton sont en prison ».


Dessinez ici

2. Déterminer la probabilité qu'ils soient libres au bout de huit semaines.

3. Quelle est la probabilité qu'ils purgent la totalité de leur peine d'un mois de prison (quatre semaines) sans avoir réussi à s'évader une seule fois ?
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
76
[Chercher.]
1. Trouver deux nombres réels strictement positifs et solutions du système ci‑dessous, vérifiant .
.

2. En déduire une distribution invariante de la chaîne de Markov définie par la matrice de transition
.

Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
77
[Chercher.]
On considère une chaîne de Markov ayant pour distribution invariante . Soit la chaîne de Markov définie, pour tout , par .
Montrer que est également une distribution invariante de .
Ressource affichée de l'autre côté.
Faites défiler pour voir la suite.
78
Démo
[Raisonner.]
Soit une chaîne de Markov à deux états numérotés 1 et 2 dont on note la matrice de transition associée, les sommets étant rangés dans l'ordre croissants, et la distribution initiale.
On note, pour tout entier naturel , la matrice ligne correspondant à la distribution de probabilité de la variable aléatoire .

1. En revenant à la définition d'une chaîne de Markov et de , justifier que, pour tout entier naturel , .

2. Montrer alors par récurrence sur que .

3. Reprendre cette démonstration dans le cadre d'une chaîne de Markov à 3 états.

Une erreur sur la page ? Une idée à proposer ?

Nos manuels sont collaboratifs, n'hésitez pas à nous en faire part.

Oups, une coquille

j'ai une idée !

Nous préparons votre pageNous vous offrons 5 essais
collaborateur

collaborateurYolène
collaborateurÉmilie
collaborateurJean-Paul
collaborateurFatima
collaborateurSarah
Utilisation des cookies
Lors de votre navigation sur ce site, des cookies nécessaires au bon fonctionnement et exemptés de consentement sont déposés.