Passer au contenu principal

Cours : Sommes de variables aléatoires

Sommes de variables aléatoires

Voici tout d'abord un rappel du cours de première.

Définitions

Une variable aléatoire réelle $X$ sur l'univers $\Omega$ d'une expérience aléatoire est une application de $\Omega$ sur $\mathbb{R}$. Soit $x$ une valeur prise par la variable aléatoire $X$. L'événement " $X=x$ " est l'ensemble des événements $e_{j}$ de $\Omega$ tels que $X\left(e_{j}\right)=x$. L'événement " $X \leq x$ " est l'ensemble des événements $e_{j}$ de $\Omega$ tels que $X\left(e_{j}\right) \leq x$. On définit de même les événements " $X<x$ ", " $X \geq x$ " et " $X>x$ " La loi de probabilité de $\mathbf{X}$ est la probabilité qui, à toute valeur $x$ prise par X , associe la probabilité $p(X=x)$.

La variable aléatoire, de valeurs $x_{i}$, de probabilités $p_{i}$ pour $i$ entre 1 et $n$, admet pour espérance le réel, noté $E(X)$, défini par: $E(X)=p_{1} x_{1}+p_{2} x_{2}+\ldots+p_{n} x_{n}$. $E(X)$ représente la valeur moyenne espérée de $X$ sur un grand nombre d'expériences.

La variance de X , notée $V(X)$, est définie par :

$$ V(X)=p_{1}\left(x_{1}-E(X)\right)^{2}+p_{2}\left(x_{2}-E(X)\right)^{2}+\ldots+p_{n}\left(x_{n}-E(X)\right)^{2} . $$

On remarque que $V(X)=E\left((X-E(X))^{2}\right)$.

Formule de König-Huygens $V(X)=E\left(X^{2}\right)-(E(X))^{2}$. L'écart-type, noté $\sigma$, de la variable aléatoire X est défini par $\sigma=\sqrt{V(X)}$. L'écart-type mesure la dispersion des valeurs prises par X autour de son espérance.

Et voici ci-dessous le cours de terminale.

I Variables aléatoires et opérations

Définition

Soient X et Y deux variables aléatoires définies sur le même univers $\Omega$.

La somme $X+Y$ est la variable aléatoire qui, à tout événement $e_{j}$ de $\Omega$ associe le réel $X\left(e_{j}\right)+Y\left(e_{j}\right)$. Et si $a$ est un réel, alors le produit $a X$ est la variable aléatoire qui, à tout événement $e_{j}$ de $\Omega$ associe le réel $a X\left(e_{j}\right)$.

Linéarité de l'espérance

Soient X et Y deux variables aléatoires définies sur le même univers $\Omega$. Soit $a$ un réel fixé. On a : $E(X+Y)=E(X)+E(Y)$ et $E(a X)=a E(X)$

Propriété

On se place dans le cadre d'une succession de 2 épreuves indépendantes. Si X est une variable aléatoire associée à la première épreuve, et Y une variable aléatoire associée à la seconde épreuve, alors on dit que les variables aléatoires $\mathbf{X}$ et Y sont indépendantes, et on a la relation d'additivité suivante : $V(X+Y)=V(X)+V(Y)$.

Propriété

Soient $X$ une variable aléatoire et $a$ un réel fixé. On a : $V(a X)=a^{2} V(X)$

II Espérance et variance d'une loi binomiale

Propriété

Si $X$ suit une loi de Bernoulli de paramètre $p$, alors : son espérance est : $E(X)=p$ sa variance est : $V(X)=p(1-p)$ son écart-type est : $\sigma(X)=\sqrt{p(1-p)}$

Propriété

La loi binomiale, de paramètres $n$ et $p$, est la loi de probabilité d'une variable aléatoire $X$ telle que : $X=Y_{1}+Y_{2}+\ldots+Y_{n}$ où $Y_{1}, Y_{2}, \ldots, Y_{n}$, sont des variables aléatoires indépendantes de loi de Bernoulli de même paramètre $p$. Pour chaque $k$ entier entre 1 et $n, Y_{k}$ vaut 1 en cas de succès et 0 en cas d'échec à la $k$. ième expérience. La variable $X$ dénombre bien le nombre total de succès.

Conséquence

Si $X$ suit une loi binomiale de paramètre $n$ et $p$, alors : son espérance est : $\square$ $E(X)=n p$ sa variance est :

$$ V(X)=n p(1-p) $$

son écart-type est :

$$ \sigma(X)=\sqrt{n p(1-p)} $$

III Échantillons

Définition

Un échantillon aléatoire de taille $n$ d'une loi de probabilité est une liste de variables aléatoires indépendantes identiques ( $X_{1}, X_{2}, \ldots, X_{n}$ ) suivant cette loi. Une liste ( $x_{1}, x_{2}, \ldots, x_{n}$ ) de valeurs prises par les variables aléatoires $X_{i}$ est une réalisation de l'échantillon.

Propriété

Soit ( $X_{1}, X_{2}, \ldots, X_{n}$ ) un échantillon de la loi de probabilité de la variable aléatoire X . Soit la somme : $S_{n}=X_{1}+X_{2}+\ldots+X_{n}$ Soit la moyenne : $M_{n}=\frac{S_{n}}{n}$ On a alors : $E\left(S_{n}\right)=n \times E(X)$

$$ V\left(S_{n}\right)=n \times V(X) $$

$$ \sigma\left(S_{n}\right)=\sqrt{n} \times \sigma(X) $$

Et: $E\left(M_{n}\right)=E(X)$

$$ V\left(M_{n}\right)=\frac{V(X)}{n} $$

$$ \sigma\left(M_{n}\right)=\frac{\sigma(X)}{\sqrt{n}} $$