V. Moments d'une variable aléatoire

Calcul des moments d'une variable aléatoire. Notion d'espérance mathématique, variance (et écart type). Théorème de la moyenne. Changements de variable (translation et homothétie).

1. Moment d’ordre 1 ou espérance mathématique

Considérons pour commencer le cas de la variable discrète, plus facile à appréhender. Supposons qu’au cours de \(N\) expériences la variable aléatoire \(X\) ait pris \(m_1\) fois la valeur \(x_1\), \(m_2\) fois la valeur \(x_2\)..., \(m_n\) fois la valeur \(x_n\).

On a naturellement : \[\sum_{i=1}^{i=N}m_i=N\]

On obtient une moyenne arithmétique : \[M(X)=\frac{m_1x_1+m_2x_2+ \cdots +m_nx_n}{N}\]

Quand \(N\) augmente indéfiniment, on a (voir le chapitre 2) : \[\frac{m_i}{N}\rightarrow p_i\]

L’expression \( M(X)=E(X)=\sum_{i=1}^{i=N}p_ix_i \) est appelée espérance mathématique ou moyenne parfois notée \(\overline{X}\).

Pour une variable continue, il suffit de procéder par analogie : \[E(X)=\int_{-\infty}^{+\infty}x~f(x)~dx\]

Une variable aléatoire \(X\) telle que \(E(X)=\overline{X}=0\) est dite centrée.

1.1. Changement de variable par translation

Remplaçons \(X\) par \(X+a\).

En variable discrète :

\[\begin{aligned} E(X+a)&=\sum_i p_i(x_i+a)=\sum_i p_ix_i +a\sum_i p_i \\ E(X+a)&=E(X)+a\end{aligned}\]

En variable continue :

\[\begin{aligned} E(X+a)&=\int_{-\infty}^{+\infty}(x+a)~f(x)~dx=\int_{-\infty}^{+\infty}x~f(x)~dx+a\int_{-\infty}^{+\infty}f(x)~dx \\ E(X+a)&=E(X)+a\end{aligned}\]

1.2. Changement de variable par homothétie

Cette fois, remplaçons \(X\) par \(aX\).

On démontrerait de même que \(E(aX)=a~E(X)\)

2. Le théorème de la moyenne

Considérons plus généralement une fonction de la variable aléatoire \(Y=g(X)\).

On démontre que la moyenne de cette fonction est : \[E\big\{g(X)\big\}=\int_{-\infty}^{+\infty}g(x)~f(x)~dx\]

L’espérance mathématique (ou moment d’ordre 1) constitue une application de ce théorème sur la fonction élémentaire constituée par la variable elle-même. On peut ainsi définir des moments plus élevés de la variable (ordre 2, ordre 3, etc.).

\[\begin{aligned} &\text{En variable discrète :} &&m_k=E(x^k)=\sum p_i~x_i^k \\ &\text{En variable continue~:} &&m_k=E(x^k)=\int_{-\infty}^{+\infty}x^kf(x)~dx\end{aligned}\]

3. Variance. Écart-type

La variance correspond, par définition, au moment centré d’ordre 2.

Elle est notée : \[\sigma_x^2=E\big\{(X-m_1)^2\big\}\]

On écrira donc suivant les cas :

\[\begin{aligned} &\text{En variable discrète :} &\sigma_x^2&=\sum p_i(x_i-m_1)^2 \\ &\text{En variable continue :} &\sigma_x^2&=\int_{-\infty}^{+\infty}(x_i-m_1)^2f(x)~dx\end{aligned}\]

L’écart-type \(\sigma_x\) est la racine carrée de la variance.

3.1. Théorème

Effectuons un calcul élémentaire de la variance, compte tenu des propriétés établies précédemment :

\[\begin{aligned} \sigma_x^2&=E\{(X-m_1)^2\}=E(X^2-2m_1X+m_1^2) \\ &=E(X^2)-2m_1E(X)+m_1^2=E(X^2)-m_1^2 \\ \sigma_x^2&=m_2^2-m_1^2\end{aligned}\]

Une variable aléatoire \(X\) est normale si \(\sigma_x=1\).

Une variable aléatoire \(X\) est réduite si \(E(X)=0\) et \(\sigma_x=1\).

3.2. Changement de variable

NB : La notation barre qui suit signifie moyenne.

Effet d’une translation :

\[\begin{aligned} \sigma_{x+a}^2&=E\big\{(X+a)-\overline{(X+a)}\big\}^2 \\ &=E\big\{X+a-\overline{X}-a\big\}^2=E\big\{X-\overline{X}\big\}^2 \\ \sigma_{x+a}^2&=\sigma_x^2\end{aligned}\]

La variance est donc conservée dans une transformation par translation.

Effet d’une homothétie :

\[\begin{aligned} \sigma_{ax}^2&=E\big\{(aX)-\overline{(aX)}\big\}^2=a^2E\big\{(X)-E(X)\big\}^2 \\ &=a^2\big\{E(X^2)-[E(X)]^2\big\}=a^2(m^2-m_1^2) \\ \sigma_{ax}^2&=a^2~\sigma_x^2\end{aligned}\]

4. Exercice d’application classique

Une variable aléatoire \(X\) a pour moyenne \(m_x\) et pour écart-type \(\sigma_x\).

On effectue le changement de variable : \[Y=\frac{X-m_x}{\sigma_x}\]

Montrer que \(Y\) est une variable réduite.

Réponse

Il faut montrer que \(m_y=0\) et \(\sigma_y=1\).

Calcul de la moyenne : \[m_y=E(Y)=E\left\{\frac{X-m_x}{\sigma_x}\right\}=\frac{1}{\sigma_x}E(X-m_x)=0\]

La variable est donc bien centrée. Il s’ensuit que \(\sigma_y^2=E(Y^2)\).

Calculons alors \(E(Y^2)\) : \[E(Y^2)=E\left\{\left[\frac{X-m_x}{\sigma_x}\right]^2\right\}=\frac{1}{\sigma_x^2}E(X-m_x)^2=\frac{1}{\sigma_x^2}\cdot\sigma_x^2=1\]

↑ Haut