Chargement de l'audio en cours
Plus

Plus

2. Espérance et variance d’une somme de variables aléatoires
P.383-386

Mode édition
Ajouter

Ajouter

Terminer

Terminer

COURS 2


2
Espérance et variance d’une somme de variables aléatoires





Dans cette partie, on considère une variable aléatoire X\text{X} définie sur Ω={ω1;ω2;;ωr}\Omega=\left\{\omega_{1}\:; \omega_{2}\:; \ldots\:; \omega_{r}\right\} et on note {x1;x2;;xs}\left\{x_{1}\:; x_{2}\:; \ldots ; x_{s}\right\} l’ensemble des valeurs prises par X\text{X}rr et ss sont des entiers naturels non nuls.

Rappel

On a E(X)=i=1sxi×P(X=xi)\text{E(X)}=\displaystyle\sum_{i=1}^{s} x_{i} \times \mathrm{P}\left(\mathrm{X}=x_{i}\right).

A
Espérance d’une somme de variables aléatoires


Lemme (admis)

En reprenant les notations précédentes, on a E(X)=j=1rX(ωj)P({ωj})\mathrm{E}(\mathrm{X})=\displaystyle\sum_{j=1}^{r} \mathrm{X}\left(\omega_{j}\right) \mathrm{P}\left(\left\{\omega_{j}\right\}\right).

Exemple

Dans le cadre d’un lancer de dé cubique équilibré, on gagne 22 € si on obtient un nombre pair et on perd 66 € si on obtient un nombre impair.
L’espérance de la variable aléatoire X\text{X} correspondant au gain remporté s’élève à E(X)=X(1)×P({1})++X(6)×P({6})=(6)×16++2×16=2 €\mathrm{E}(\mathrm{X})=\mathrm{X}(1) \times \mathrm{P}(\{1\})+\ldots+\mathrm{X}(6) \times \mathrm{P}(\{6\})=(-6) \times \dfrac{1}{6}+\ldots+2 \times \dfrac{1}{6}=-2 €.

Remarque

Dans le lemme, l’espérance s’écrit en fonction des issues ωj\omega_{j} de l’expérience aléatoire et non en fonction des valeurs xix_{i}.

Propriété

Soient X\text{X} et Y\text{Y} deux variables aléatoires définies sur le même univers Ω\Omega. Alors : E(X+Y)=E(X)+E(Y)\mathrm{E}(\mathrm{X}+\mathrm{Y})=\mathrm{E}(\mathrm{X})+\mathrm{E}(\mathrm{Y}).

DÉMONSTRATION

Soient X\text{X} et Y\text{Y} deux variables aléatoires définies sur Ω\Omega. Soit Z\text{Z} la variable aléatoire définie sur Ω\Omega par Z = X + Y\text{Z = X + Y}.

On a alors E(X+Y)=E(Z)=j=1rZ(ωj)P({ωj})\mathrm{E}(\mathrm{X}+\mathrm{Y})=\mathrm{E}(\mathrm{Z})=\displaystyle\sum_{j=1}^{r} \mathrm{Z}\left(\omega_{j}\right) \mathrm{P}\left(\left\{\omega_{j}\right\}\right) (lemme précédent appliqué à Z\text{Z}) et donc E(X+Y)=j=1r(X+Y)(ωj)P({ωj})\mathrm{E}(\mathrm{X}+\mathrm{Y})=\displaystyle\sum_{j=1}^{r}(\mathrm{X}+\mathrm{Y})\left(\omega_{j}\right) \mathrm{P}\left(\left\{\omega_{j}\right\}\right) en utilisant Z = X + Y\text{Z = X + Y}.

On a par ailleurs X+Y(ωj)=X(ωj)+Y(ωj)X+Y\left(\omega_{j}\right)=X\left(\omega_{j}\right)+Y\left(\omega_{j}\right) (somme de fonctions).

Donc E(X+Y)=j=1rX(ωj)P({ωj})+j=1rY(ωj)P({ωj})\mathrm{E}(\mathrm{X}+\mathrm{Y})=\displaystyle\sum_{j=1}^{r} \mathrm{X}\left(\omega_{j}\right) \mathrm{P}\left(\left\{\omega_{j}\right\}\right)+\displaystyle\sum_{j=1}^{r} \mathrm{Y}\left(\omega_{j}\right) \mathrm{P}\left(\left\{\omega_{j}\right\}\right).

D’où E(X + Y) = E(X) + E(Y)\text{E(X + Y) = E(X) + E(Y)} en identifiant les deux sommes précédentes à E(X)\text{E(X)} et E(Y)\text{E(Y)}.

Remarque

Cette propriété permet de déterminer l’espérance de X + Y\text{X + Y} simplement à l’aide de celles de X\text{X} et Y\text{Y} (donc sans la connaissance de la loi de probabilité de X + Y\text{X + Y}).

Remarque

On a également E(XY)=E(X)E(Y)\mathrm{E}(\mathrm{X}-\mathrm{Y})=\mathrm{E}(\mathrm{X})-\mathrm{E}(\mathrm{Y}).

Propriété

Soient X\text{X} et Y\text{Y} deux variables aléatoires définies sur un même univers Ω\Omega et aa un nombre réel.
Alors E(aX)=aE(X) et E(aX+Y)=aE(X)+E(Y)\mathrm{E}(a \mathrm{X})=a \mathrm{E}(\mathrm{X}) \text { et } \mathrm{E}(a \mathrm{X}+\mathrm{Y})=a \mathrm{E}(\mathrm{X})+\mathrm{E}(\mathrm{Y}).

DÉMONSTRATION

Si a=0a = 0, la propriété est évidente car E(0X)=0 et 0E(X)=0\mathrm{E}(0 \mathrm{X})=0 \text { et } 0 \mathrm{E}(\mathrm{X})=0.
On suppose que a0a \neq 0.
  • En notant x1;;xsx_{1} ; \ldots ; x_{s}, les valeurs prises par X\text{X}, alors aXa\text{X} prend les valeurs ax1;;axsa x_{1} ; \ldots ; a x_{s}.
    Par définition, E(aX)=i=1saxiP(aX=αxi)\mathrm{E}(a \mathrm{X})=\displaystyle\sum_{i=1}^{s} a x_{i} \mathrm{P}\left(a \mathrm{X}=\alpha x_{i}\right).
    Ainsi, E(aX)=i=1saxiP(X=xi)=a×i=1sxiP(X=xi)=aE(X)\mathrm{E}(a \mathrm{X})=\displaystyle\sum_{i=1}^{s} a x_{i} \mathrm{P}\left(\mathrm{X}=x_{i}\right)=a \times \displaystyle\sum_{i=1}^{s} x_{i} \mathrm{P}\left(\mathrm{X}=x_{i}\right)=a \mathrm{E}(\mathrm{X}).
  • La deuxième égalité est démontrée dans l’exercice
    50
    p. 397
    .

Remarque

Cette propriété est appelée linéarité de l’espérance.

Application et méthode 2

Énoncé

On joue à un jeu se déroulant en deux étapes.
  • Dans la phase 11, on lance un dé équilibré à six faces.
    Si le résultat obtenu est 11 ou 66, on gagne 99 points. Sinon, on perd 66 points.
  • Dans la phase 22, on lance une pièce équilibrée.
    Si on obtient face, on gagne 66 points. Sinon, on perd 22 points.

Soit X\text{X} la variable aléatoire correspondant au nombre total de points obtenus. Calculer E(X)\mathrm{E}(\mathrm{X}).

Solution

  • Soient X1\mathrm{X}_{1} la variable aléatoire correspondant au gain obtenu à la première étape et X2\mathrm{X}_{2} la variable aléatoire correspondant au gain obtenu à la seconde étape.
    Dans ces conditions, on a X=X1+X2\mathrm{X}=\mathrm{X}_{1}+\mathrm{X}_{2}.
  • On étudie ensuite les lois de probabilité de X1\mathrm{X}_{1} et X2\mathrm{X}_{2}.
    Loi de probabilité de X1\mathbf{X}_{1}
    X1\mathrm{X}_{1} correspond au gain obtenu à la seconde étape qui ne prend que deux valeurs : 66 et 2-2. Il s'agit aussi d'une situation d’équiprobabilité, donc on obtient P(X2=2)=12 et P(X2=6)=12\mathrm{P}\left(\mathrm{X}_{2}=-2\right)=\dfrac{1}{2} \text { et } \mathrm{P}\left(\mathrm{X}_{2}=6\right)=\dfrac{1}{2}.
  • On peut maintenant calculer les espérances de ces deux variables aléatoires : E(X1)=6×23+9×13=1 et E(X2)=2×12+6×12=2\mathrm{E}\left(\mathrm{X}_{1}\right)=-6 \times \dfrac{2}{3}+9 \times \dfrac{1}{3}=-1 \text { et } \mathrm{E}\left(\mathrm{X}_{2}\right)=-2 \times \dfrac{1}{2}+6 \times \dfrac{1}{2}=2.
  • En conclusion, on a E(X)=E(X1)+E(X2)=1+2=1\mathrm{E}(\mathrm{X})=\mathrm{E}\left(\mathrm{X}_{1}\right)+\mathrm{E}\left(\mathrm{X}_{2}\right)=-1+2=1.


Pour s'entraîner : exercices exercices 23 et 24 p. 394

Méthode

  • Lorsque l’énoncé fait état d’une variable aléatoire X\text{X} correspondant à une somme, à une différence ou à un produit par un réel, il est souvent préférable de décomposer cette variable aléatoire en variables aléatoires « plus simples ».
    On commence donc par écrire cette variable aléatoire en somme/différence de variables aléatoires X1\mathrm{X}_{1} et X2\mathrm{X}_{2}, plus faciles à étudier.
  • On étudie la loi de probabilité de chacune de ces variables aléatoires.
  • On en déduit alors E(X1)\mathrm{E}\left(\mathrm{X}_{1}\right) et E(X2)\mathrm{E}\left(\mathrm{X}_{2}\right).
  • On conclut grâce à la linéarité de l’espérance.


B
Variance d’une somme de variables aléatoires indépendantes


Propriété

Soit X\text{X} une variable aléatoire définie sur Ω\Omega dont on note V(X)\mathrm{V}(\mathrm{X}) la variance.
Soit aRa \in \mathbb{R}. Alors V(aX)=a2V(X)\mathrm{V}(a \mathrm{X})=a^{2} \mathrm{V}(\mathrm{X}).

DÉMONSTRATION

Si a=0a = 0, la propriété est évidente car V(0X)=0\mathrm{V}(0 \mathrm{X})=0 et 02×V(X)=00^{2} \times V(X)=0.
On suppose que a0a \neq 0.

En notant x1;;xsx_{1} ; \ldots ; x_{s} les valeurs prises par X\text{X}, alors aXa\text{X} prend les valeurs ax1;;axsa x_{1} ; \ldots ; a x_{s}.
Par définition, V(aX)=i=1s(axiE(aX))2P(aX=axi)\mathrm{V}(a \mathrm{X})=\displaystyle\sum_{i=1}^{s}\left(a x_{i}-\mathrm{E}(a \mathrm{X})\right)^{2} \mathrm{P}\left(a \mathrm{X}=a x_{i}\right).

Donc V(aX)=i=1s(axiaE(X))2P(aX=axi)\mathrm{V}(a \mathrm{X})=\displaystyle\sum_{i=1}^{s}\left(a x_{i}-a \mathrm{E}(\mathrm{X})\right)^{2} \mathrm{P}\left(a \mathrm{X}=a x_{i}\right) par propriété de l’espérance.

D’où, V(aX)=i=1sa2(xiE(X))2P(X=xi)V(a X)=\displaystyle\sum_{i=1}^{s} a^{2}\left(x_{i}-E(X)\right)^{2} P\left(X=x_{i}\right) car aX=axia \mathrm{X}=a x_{i} si, et seulement si, X=xiX=x_{i}.

Ainsi, V(aX)=a2i=15(xiE(X))2P(X=xi)=a2V(X)\mathrm{V}(a \mathrm{X})=a^{2} \displaystyle\sum_{i=1}^{5}\left(x_{i}-\mathrm{E}(\mathrm{X})\right)^{2} \mathrm{P}\left(\mathrm{X}=x_{i}\right)=a^{2} \mathrm{V}(\mathrm{X}).

Exemple

Si X\text{X} est une variable aléatoire vérifiant V(X)=5\mathrm{V}(\mathrm{X})=5, alors V(2X)=22V(X)=4×V(X)=4×5=20\mathrm{V}(2 \mathrm{X})=2^{2} \mathrm{V}(\mathrm{X})=4 \times \mathrm{V}(\mathrm{X})=4 \times 5=20.
De plus, σ(2X)=V(2X)=20=25=2V(X)=2σ(X)\sigma(2 \mathrm{X})=\sqrt{\mathrm{V}(2 \mathrm{X})}=\sqrt{20}=2 \sqrt{5}=2 \sqrt{\mathrm{V}(\mathrm{X})}=2 \sigma(\mathrm{X}).

Rappel

En reprenant les notations précédentes, on a V(X)=i=1s(xiE(X))2×P(X=xi)\mathrm{V}(\mathrm{X})=\displaystyle\sum_{i=1}^{s}\left(x_{i}-\mathrm{E}(\mathrm{X})\right)^{2}\times \mathrm{P}\left(\mathrm{X}=x_{i}\right).

Remarque

L'écart type σ(aX)\sigma(a \mathrm{X}) vérifie σ(aX)=aσ(X)\sigma(a \mathrm{X})=|a| \sigma(\mathrm{X}).

Définition

Soient X1,X2,,Xn\mathrm{X}_{1}, \mathrm{X}_{2}, \ldots, \mathrm{X}_{n}, nn variables aléatoires à valeurs respectivement dans E1,E2,,EnE_{1}, E_{2}, \dots, E_{n}.
On dit que X1,X2,,Xn\mathrm{X}_{1}, \mathrm{X}_{2}, \ldots, \mathrm{X}_{n} sont indépendantes lorsque, pour tous x1E1,x2E2,,xnEnx_{1} \in \mathrm{E}_{1}, x_{2} \in \mathrm{E}_{2}, \ldots, x_{n} \in \mathrm{E}_{n} :
P(X1=x1X2=x2Xn=xn)=P(X1=x1)×P(X2=x2)××P(Xn=xn)\mathrm{P}\left(\mathrm{X}_{1}=x_{1} \cap \mathrm{X}_{2}=x_{2} \cap \ldots \cap \mathrm{X}_{n}=x_{n}\right)=\mathrm{P}\left(\mathrm{X}_{1}=x_{1}\right) \times \mathrm{P}\left(\mathrm{X}_{2}=x_{2}\right) \times \ldots \times \mathrm{P}\left(\mathrm{X}_{n}=x_{n}\right).

Attention : Si les variables X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} sont deux à deux indépendantes, on ne peut pas en conclure que X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} sont mutuellement indépendantes.
En effet, si on considère deux lancers de dés équilibrés indépendants et si on note :
  • X1\mathrm{X}_{1} (respectivement X2\mathrm{X}_{2}) la variable aléatoire valant 1 si le résultat du premier (second) dé est pair ;
  • Y\text{Y} la variable aléatoire valant 11 si la somme des résultats des deux dés est paire et 00 sinon.

On vérifie que X1,X2\mathrm{X}_{1}, \mathrm{X}_{2} et Y\text{Y} sont deux à deux indépendantes mais pas mutuellement indépendantes.

Propriété

Si X\text{X} et Y\text{Y} sont deux variables aléatoires indépendantes définies sur Ω\Omega, alors :
V(X+Y)=V(X)+V(Y)\mathrm{V}(\mathrm{X}+\mathrm{Y})=\mathrm{V}(\mathrm{X})+\mathrm{V}(\mathrm{Y})

DÉMONSTRATION

Voir exercice
77
p. 405
.

Remarque

On dit aussi que les variables aléatoires X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} sont mutuellement indépendantes.

Remarque

Connaître la parité de la somme n’aide pas à deviner celle d’un dé. De même, connaître la parité d’un dé n’aide pas à déterminer celle de la somme, ni de l’autre dé. Mais, si l’on sait la parité des deux dés, alors on connaît celle de la somme.

Remarque

Si X1;;Xn\mathrm{X}_{1} ; \ldots ; \mathrm{X}_{n} sont nn variables aléatoires indépendantes définies sur Ω\Omega, alors V(X1++Xn)=V(X1)++V(Xn)\mathrm{V}\left(\mathrm{X}_{1}+\ldots+\mathrm{X}_{n}\right)=\mathrm{V}\left(\mathrm{X}_{1}\right)+\ldots+\mathrm{V}\left(\mathrm{X}_{n}\right).

Application et méthode 3

Énoncé

On reprend le jeu et la variable aléatoire de l’application précédente (partie A). Calculer V(X)\text{V(X)}.

Solution

On avait obtenu les lois de probabilité suivantes.
xi\boldsymbol{x}_{\boldsymbol{i}} 6-6 99
P(X1=xi)\mathrm{P}\left(\mathrm{X}_{1}=x_{i}\right)
23\dfrac{2}{3} 13\dfrac{1}{3}

yi\boldsymbol{y}_{\boldsymbol{i}} 2-2 66
P(X2=yi)\mathrm{P}\left(\mathrm{X}_{2}=y_{i}\right)
12\dfrac{1}{2} 12\dfrac{1}{2}
  • Dans un premier temps, on calcule V(X1)\mathrm{V}\left(\mathrm{X}_{1}\right).
    On avait obtenu E(X1)=1\mathrm{E}\left(\mathrm{X}_{1}\right)=-1 donc
    V(X1)=23(6(1))2+13(9(1))2 soit V(X1)=1503=50\mathrm{V}\left(\mathrm{X}_{1}\right)=\dfrac{2}{3}(-6-(-1))^{2}+\dfrac{1}{3}(9-(-1))^{2} \text { soit } \mathrm{V}\left(\mathrm{X}_{1}\right)=\dfrac{150}{3}=50.
  • On calcule ensuite V(X2)\mathrm{V}\left(\mathrm{X}_{2}\right)
    On avait obtenu E(X2)=2\mathrm{E}\left(\mathrm{X}_{2}\right)=2 donc
    V(X2)=12(22)2+12(62)2 soit V(X2)=16\mathrm{V}\left(\mathrm{X}_{2}\right)=\dfrac{1}{2}(-2-2)^{2}+\dfrac{1}{2}(6-2)^{2} \text { soit } \mathrm{V}\left(\mathrm{X}_{2}\right)=16.

Les variables aléatoires X1\mathrm{X}_{1} et X2\mathrm{X}_{2} sont indépendantes.
On a donc V(X)=V(X1)+V(X2)=50+16=66\mathrm{V}(\mathrm{X})=\mathrm{V}\left(\mathrm{X}_{1}\right)+\mathrm{V}\left(\mathrm{X}_{2}\right)=50+16=66.

Pour s'entraîner : exercices exercices 26 et 27 p. 395

Méthode

  • Lorsqu’une variable aléatoire X\text{X} correspond à une somme (différence) de variables aléatoires ou à un simple produit par un réel, il est souvent préférable de décomposer cette variable aléatoire en variables aléatoires « plus simples ».
  • Ici, on commence donc par écrire X\text{X} comme la somme de X1\mathrm{X}_{1} et X2\mathrm{X}_{2}.
  • On précise que X1\mathrm{X}_{1} et X2\mathrm{X}_{2} sont indépendantes.
  • On étudie la loi de probabilité de chacune de ces variables aléatoires X1\mathrm{X}_{1} et X2\mathrm{X}_{2}.
  • On en déduit alors E(X1)\mathrm{E}\left(\mathrm{X}_{1}\right) et E(X2)\mathrm{E}\left(\mathrm{X}_{2}\right).
  • On obtient alors V(X1)\mathrm{V}\left(\mathrm{X}_{1}\right) et V(X2)\mathrm{V}\left(\mathrm{X}_{2}\right).
  • On conclut enfin grâce aux propriétés de la variance dans le cas de variables aléatoires indépendantes : on a V(X)=V(X1)+V(X2)\mathrm{V}(\mathrm{X})=\mathrm{V}\left(\mathrm{X}_{1}\right)+\mathrm{V}\left(\mathrm{X}_{2}\right).


Utilisation des cookies
En poursuivant votre navigation sans modifier vos paramètres, vous acceptez l'utilisation des cookies permettant le bon fonctionnement du service.
Pour plus d’informations, cliquez ici.