Chargement de l'audio en cours
Plus

Plus

3. Applications
P.387-389

Mode édition
Ajouter

Ajouter

Terminer

Terminer

COURS 3


3
Applications




A
Applications à la loi binomiale


Dans cette partie, nn désigne un entier naturel supérieur ou égal à 11 et pp désigne un nombre réel appartenant à l’intervalle [0 ;1][0 ; 1].

Définition

Deux variables aléatoires sont dites identiquement distribuées lorsqu’elles ont la même loi de probabilité.

Remarque

Deux variables aléatoires identiquement distribuées peuvent être ou ne pas être indépendantes (voir exercice
72
p. 403
).

Propriété (admise)

Toute variable aléatoire suivant une loi binomiale peut s’écrire comme une somme de variables aléatoires de Bernoulli indépendantes et identiquement distribuées.

Propriété

Si X\text{X} suit la loi binomiale de paramètres nn et pp, alors :
1. E(X)=np\mathrm{E}(\mathrm{X})=n p ;
2. V(X)=np(1p)\mathrm{V}(\mathrm{X})=n p(1-p) ;
3. σ(X)=np(1p)\sigma(\mathrm{X})=\sqrt{n p(1-p)}.

Rappel

X\text{X} suit la loi binomiale de paramètres nn et pp lorsque X\text{X} compte le nombre de succès dans un schéma de Bernoulli de paramètres nn et pp.

DÉMONSTRATION

1. Soit X\text{X} une variable aléatoire suivant la loi binomiale de paramètres nn et pp.
Alors, il existe nn variables aléatoires de Bernoulli de paramètre pp telles que X=X1++Xn\mathrm{X}=\mathrm{X}_{1}+\ldots+\mathrm{X}_{n}.
Ainsi, pour tout k{1;;n},E(Xk)=p et V(Xk)=p(1p)k \in\{1 ; \ldots ; n\}, \mathrm{E}\left(\mathrm{X}_{k}\right)=p \text { et } \mathrm{V}\left(\mathrm{X}_{k}\right)=p(1-p) (voir chapitre 12).
Or, E(X)=E(X1++Xn)=E(X1)++E(Xn)=p++p=np\mathrm{E}(\mathrm{X})=\mathrm{E}\left(\mathrm{X}_{1}+\ldots+\mathrm{X}_{n}\right)=\mathrm{E}\left(\mathrm{X}_{1}\right)+\ldots+\mathrm{E}\left(\mathrm{X}_{n}\right)=p+\ldots+p=n p.

2. Les variables aléatoires X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} étant indépendantes, par définition du schéma de Bernoulli, on a :
V(X)=V(X1)++V(Xn)=p(1p)++p(1p)=np(1p)\mathrm{V}(\mathrm{X})=\mathrm{V}\left(\mathrm{X}_{1}\right)+\ldots+\mathrm{V}\left(\mathrm{X}_{n}\right)=p(1-p)+\ldots+p(1-p)=n p(1-p).

3. σ(X)=V(X)=np(1p)\sigma(\mathrm{X})=\sqrt{\mathrm{V}(\mathrm{X})}=\sqrt{n p(1-p)}.

Exemple

Soit X\text{X} une variable aléatoire suivant une loi binomiale de paramètres n=20n = 20 et p=0,2p = 0,2.
On a E(X)=np=20×0,2=4\mathrm{E}(\mathrm{X})=n p=20 \times 0,2=4.
De plus, V(X)=np(1p)=20×0,2×0,8=3,2\mathrm{V}(\mathrm{X})=n p(1-p)=20 \times 0,2 \times 0,8=3,2.
Donc σ(X)=V(X)=3,21,789\sigma(\mathrm{X})=\sqrt{\mathrm{V}(\mathrm{X})}=\sqrt{3,2} \approx 1,789.

Application et méthode 4

Énoncé

Une étude faite dans un restaurant montre que 8585 % des clients consomment un dessert.
On interroge dix clients du restaurant. On suppose qu’on peut assimiler cette expérience à un tirage avec remise.
On note X\text{X} la variable aléatoire correspondant au nombre de clients commandant un dessert parmi ceux interrogés.
1. Calculer et interpréter l’espérance de la variable aléatoire X\text{X}.
2. Calculer la variance et l’écart type (arrondi au millième) de la variable aléatoire X\text{X}.

Solution

On répète 10 fois de manière supposée identique et indépendante l’expérience ayant deux issues :
  • le succès : « Le client choisi a consommé un dessert » de probabilité p=0,85p = 0,85 ;
  • l’échec : « Le client choisi n’a pas consommé de dessert » de probabilité 1p=10,85=0,151 - p = 1 - 0,85 = 0,15.

X\text{X} compte le nombre de succès donc X\text{X} suit la loi binomiale de paramètres n=10n = 10 et p=0,85p = 0,85.

1. X\text{X} suit une loi binomiale donc E(X)=np\mathrm{E}(\mathrm{X})=n p. D'où E(X)=10×0,85=8,5\mathrm{E}(\mathrm{X})=10 \times 0,85=8,5.
Cela signifie qu’au bout d’un grand nombre de répétitions de l’expérience, en moyenne sur 10 clients, 8,5 consomment un dessert.
2. X\text{X} suit une loi binomiale donc V(X)=np(1p)=10×0,85×0,15=1,275\mathrm{V}(\mathrm{X})=n p(1-p)=10 \times 0,85 \times 0,15=1,275.
Ainsi, σ(X)=V(X)=1,2751,129\sigma(\mathrm{X})=\sqrt{\mathrm{V}(\mathrm{X})}=\sqrt{1,275} \approx 1,129.

Pour s'entraîner : exercices exercices 28 et 29 p. 395

Méthode

  • Avant d’appliquer les résultats obtenus dans la propriété, il est tout d’abord essentiel de bien justifier que la variable aléatoire étudiée suit une loi binomiale (voir chapitre 12). Les éléments permettant de le justifier sont indiqués en gras dans la solution ci‑contre.
  • C’est seulement après avoir justifié que X\text{X} suit une loi binomiale que nous pouvons utiliser les égalités suivantes :
    E(X)=np,V(X)=np(1p)\mathrm{E}(\mathrm{X})=n p, \mathrm{V}(\mathrm{X})=n p(1-p) et σ(X)=np(1p)\sigma(\mathrm{X})=\sqrt{n p(1-p)}.


B
Échantillons de nn variables aléatoires identiques et indépendantes


On considère un entier naturel n1n \geq 1 et X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n}, nn variables aléatoires définies sur Ω\Omega supposées indépendantes et identiquement distribuées.
On note Sn=X1++Xn\mathrm{S}_{n}=\mathrm{X}_{1}+\ldots+\mathrm{X}_{n} la somme de ces nn variables aléatoires et Mn=X1++Xnn\mathrm{M}_{n}=\dfrac{\mathrm{X}_{1}+\ldots+\mathrm{X}_{n}}{n} la moyenne de ces nn variables aléatoires.

Propriété

Pour tout k{1;;n}k \in\{1 ; \ldots ; n\}, on a :
1. E(Sn)=nE(Xk)\mathrm{E}\left(\mathrm{S}_{n}\right)=n \mathrm{E}\left(\mathrm{X}_{k}\right) ;
2. V(Sn)=nV(Xk)\mathrm{V}\left(\mathrm{S}_{n}\right)=n \mathrm{V}\left(\mathrm{X}_{k}\right) et σ(Sn)=nσ(Xk)\sigma\left(\mathbf{S}_{n}\right)=\sqrt{n} \sigma\left(\text{X}_{k}\right).

DÉMONSTRATION

1. La linéarité de l’espérance donne E(Sn)=E(X1)++E(Xn)\mathrm{E}\left(\mathrm{S}_{n}\right)=\mathrm{E}\left(\mathrm{X}_{1}\right)+\ldots+\mathrm{E}\left(\mathrm{X}_{n}\right). Or ces variables aléatoires suivent la même loi. Elles ont donc la même espérance. D’où, pour tout k{1;;n},E(Sn)=nE(Xk)k \in\{1\:; \ldots ; n\}, \mathrm{E}\left(\mathrm{S}_{n}\right)=n \mathrm{E}\left(\mathrm{X}_{k}\right).

2. De la même manière, les variables aléatoires X1;;Xn\mathrm{X}_{1}\:; \ldots ; \mathrm{X}_{n} étant supposées indépendantes, on obtient, pour tout k{1;;n}k \in\{1\:; \ldots ; n\}, V(Sn)=V(X1)++V(Xn)=nV(Xk)\mathrm{V}\left(\mathrm{S}_{n}\right)=\mathrm{V}\left(\mathrm{X}_{1}\right)+\ldots+\mathrm{V}\left(\mathrm{X}_{n}\right)=n \mathrm{V}\left(\mathrm{X}_{k}\right).
Enfin, en appliquant la racine carrée (tous les termes sont positifs), on obtient σ(Sn)=nσ(Xk)\sigma\left(\mathbf{S}_{n}\right)=\sqrt{n} \sigma\left(\mathbf{X}_{k}\right).

Remarque

Cette propriété généralise les résultats obtenus sur la loi binomiale en considérant dans ce cas la variable aléatoire X\text{X} comme somme de variables de Bernoulli indépendantes de paramètre pp.

Propriété

Pour tout k{1;;n}k \in\{1\:; \ldots ; n\}, on a :
1. E(Mn)=E(Xk)\mathrm{E}\left(\mathrm{M}_{n}\right)=\mathrm{E}\left(\mathrm{X}_{k}\right) ;
2. V(Mn)=V(Xk)n\mathrm{V}\left(\mathrm{M}_{n}\right)=\dfrac{\mathrm{V}\left(\mathrm{X}_{k}\right)}{n} et σ(Mn)=σ(Xk)n\sigma\left(\mathrm{M}_{n}\right)=\dfrac{\sigma\left(\mathrm{X}_{k}\right)}{\sqrt{n}}.

DÉMONSTRATION

1. Soit k{1;;n}k \in\{1\:; \ldots ; n\}. La linéarité de l’espérance et la propriété précédente donnent E(Mn)=E(X1++Xnn)=E(Snn)=1nE(Sn)=1n×nE(Xk)=E(Xk)\mathrm{E}\left(\mathrm{M}_{n}\right)=\mathrm{E}\left(\dfrac{\mathrm{X}_{1}+\ldots+\mathrm{X}_{n}}{n}\right)=\mathrm{E}\left(\dfrac{\mathrm{S}_{n}}{n}\right)=\dfrac{1}{n} \mathrm{E}\left(\mathrm{S}_{n}\right)=\dfrac{1}{n} \times n \mathrm{E}\left(\mathrm{X}_{k}\right)=\mathrm{E}\left(\mathrm{X}_{k}\right).
2. Par ailleurs, pour tout aR,V(aSn)=a2V(Sn)a \in \mathbb{R}, \mathrm{V}\left(a \mathrm{S}_{n}\right)=a^{2} \mathrm{V}\left(\mathrm{S}_{n}\right).
En combinant cette égalité au résultat de la propriété précédente, V(Mn)=V(Snn)=1n2V(Sn)=1n2×nV(Xk)=V(Xk)n\mathrm{V}\left(\mathrm{M}_{n}\right)=\mathrm{V}\left(\dfrac{\mathrm{S}_{n}}{n}\right)=\dfrac{1}{n^{2}} \mathrm{V}\left(\mathrm{S}_{n}\right)=\dfrac{1}{n^{2}} \times n \mathrm{V}\left(\mathrm{X}_{k}\right)=\dfrac{\mathrm{V}\left(\mathrm{X}_{k}\right)}{n}.
On obtient, par application de la racine carrée, σ(Mn)=σ(Xk)n\sigma\left(\mathrm{M}_{n}\right)=\dfrac{\sigma\left(\mathrm{X}_{k}\right)}{\sqrt{n}}.

Remarque

E(Mn)\mathrm{E}\left(\mathrm{M}_{n}\right) peut s’interpréter comme ceci : en prenant un grand nombre de fois des échantillons de taille n et en calculant à chaque fois la moyenne de l’échantillon obtenu, la moyenne théorique de ces résultats est égale à E(Xk)\mathrm{E}\left(\mathrm{X}_{k}\right).

Application et méthode 5

Énoncé

On lance cinq dés équilibrés à six faces. On note X la variable aléatoire correspondant à la somme des résultats obtenus. Calculer E(X)\mathrm{E}(\mathrm{X}) et V(X)\mathrm{V}(\mathrm{X}).

Solution


Pour tout k{1;;5}k \in\{1 ; \ldots ; 5\}, on note Xk\mathrm{X}_{k} la variable aléatoire correspondant au résultat du dé numéro k.
On a alors X=X1+X2+X3+X4+X5\mathrm{X}=\mathrm{X}_{1}+\mathrm{X}_{2}+\mathrm{X}_{3}+\mathrm{X}_{4}+\mathrm{X}_{5}.
Chaque dé étant équilibré, toutes ces variables aléatoires suivent la même loi de probabilité.
  • Détermination de E(X)\mathbf{E}(\mathbf{X}) :
    On a donc E(X)=5E(X1)( ou 5E(X2))\mathrm{E}(\mathrm{X})=5 \mathrm{E}\left(\mathrm{X}_{1}\right)\left(\text { ou } 5 \mathrm{E}\left(\mathrm{X}_{2}\right)\right).
    Or la loi de probabilité de X1\mathrm{X}_{1} est :
    xix_{i} 11 22 33 44 55 66
    P(X1=xi)P\left(X_{1}=x_{i}\right)
    16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6}

    On a alors E(X1)=1×16++6×16=3,5\mathrm{E}\left(\mathrm{X}_{1}\right)=1 \times \dfrac{1}{6}+\ldots+6 \times \dfrac{1}{6}=3,5.
    D’où E(X)=5E(X1)=5×3,5=17,5\mathrm{E}(\mathrm{X})=5 \mathrm{E}\left(\mathrm{X}_{1}\right)=5 \times 3,5=17,5.
  • Détermination de V(X)\mathbf{V}(\mathbf{X}) :
    Les variables aléatoires X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} étant indépendantes et identiquement distribuées, on a V(X)=5V(X1)\mathrm{V}(\mathrm{X})=5 \mathrm{V}\left(\mathrm{X}_{1}\right).
    Or V(X1)=16×(13,5)2++16×(63,5)2=3512\mathrm{V}\left(\mathrm{X}_{1}\right)=\dfrac{1}{6} \times(1-3,5)^{2}+\ldots+\dfrac{1}{6} \times(6-3,5)^{2}=\dfrac{35}{12} (en appliquant la formule usuelle de la variance).
    D’où V(X)=5×3512=17512\mathrm{V(X)}=5 \times \dfrac{35}{12}=\dfrac{175}{12}.


Pour s'entraîner : exercices exercices 32 et 33 p. 395

Méthode

  • Lorsque la variable aléatoire X\text{X} s’écrit comme somme de variables aléatoires de même loi de probabilité et indépendantes X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} alors X=Sn\mathrm{X}=\mathrm{S}_{n} en reprenant les notations ci-dessus.
  • Pour déterminer l’espérance de X\text{X}, la propriété ci‑dessus donne, pour tout k{1;;n},E(X)=nE(Xk)k \in\{1 ; \ldots ; n\}, \mathrm{E}(\mathrm{X})=n \mathrm{E}\left(\mathrm{X}_{k}\right).
    En particulier, E(X)=nE(X1)\mathrm{E}(\mathrm{X})=n \mathrm{E}\left(\mathrm{X}_{1}\right).
    Il suffit alors de calculer l’espérance de la variable aléatoire X1\mathrm{X}_{1} pour déterminer celle de X\text{X}.
  • Pour déterminer la variance de X\text{X}, la propriété vue ci‑dessus, valable grâce à l’indépendance des variables X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n}, donne V(X)=nV(X1)\mathrm{V(X)}=n \mathrm{V}\left(\mathrm{X}_{1}\right).
  • Enfin, pour déterminer l’écart type de X\text{X}, on utilise σ(X)=nσ(X1)\sigma(\mathrm{X})=\sqrt{n} \sigma\left(\mathrm{X}_{1}\right) ou σ(X)=V(X)\sigma(\mathrm{X})=\sqrt{\mathrm{V}(\mathrm{X})}.


Utilisation des cookies
En poursuivant votre navigation sans modifier vos paramètres, vous acceptez l'utilisation des cookies permettant le bon fonctionnement du service.
Pour plus d’informations, cliquez ici.