Couples et Suites de variables discrètes
Couples de variable aléatoires
- Dans toute cette partie, \( X \) et \( Y \) désignent deux variables discrètes définies sur un même espace probabilisé \( (\Omega, \mathcal{A}, P) \).
- On note :
- \( X(\Omega) = \{ x_i \, | \, i \in I \}\) et \(Y(\Omega) = \{ y_j \, | \, j \in J \} \)
- On appelle couple de variables aléatoires discrètes et on note \( (X, Y) \), toute application de \( \Omega \) vers \( \mathbb{R}^2 \) définie par :
- \( \omega \mapsto (X(\omega), Y(\omega)) \)
- On appelle loi du couple de variables aléatoires discrètes \( (X, Y) \), ou encore la conjointe des variables \( X \) et \( Y \), l’ensemble des couples \( (x_i, y_j; p_{i,j}) \), où :
- \( x_i \in X(\Omega), \, y_j \in Y(\Omega) \)
- \( p_{i,j} = P(X = x_i \cap Y = y_j) \)
- \( X(\Omega) = \{ x_1, x_2, x_3 \}, \, Y(\Omega) = \{ y_1, y_2, y_3, y_4 \} \)
- Tableau de probabilités :
- Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules de l’urne.
- On note \( X \) le nombre de boules blanches parmi les 3 boules, et \( Y \) le nombre de boules rouges.
- Déterminer la loi du couple \( (X, Y) \).
- \( p(X = 2 \cap Y = 2) = 0 \)
- \( p(X = i \cap Y = j) = 0 \) si \( i + j > 3 \)
- \( p(X = 1 \cap Y = 1) = \frac{C_2^1 \cdot C_3^1 \cdot C_4^1}{C_9^3} \)
- \( p(X = i \cap Y = j) = \frac{C_2^i \cdot C_3^j \cdot C_4^{3-i-j}}{C_9^3} \)
- \( p(X = 0 \cap Y = 0) = \frac{C_2^0 \cdot C_3^0 \cdot C_4^3}{C_9^3} = \frac{4}{84} \)
- Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est \( p \in ]0, 1] \) et la probabilité d’obtenir face est \( q = 1 - p \).
- On note \( X \) le rang du premier pile et \( Y \) le rang d’apparition du deuxième pile.
- Déterminer la loi du couple \( (X, Y) \).
- \( X(\Omega) = \mathbb{N}^* \)
- \( Y(\Omega) = \mathbb{N} - \{0, 1\} \)
- \( i \in X(\Omega), \, j \in Y(\Omega) \)
- \( P(X = i \cap Y = j) = 0 \) si \( i \geq j \)
- \( P(X = i \cap Y = j) = P(F_1 \cap F_2 \cap \cdots \cap F_{i-1} \cap P_i \cap F_{i+1} \cap \cdots \cap F_{j-1} \cap P_j) \)
- Les lancers sont indépendants, donc :
- \( P(X = i \cap Y = j) = P(F_1) \cdot P(F_2) \cdots P(F_{i-1}) \cdot P(P_i) \cdot P(F_{i+1}) \cdots P(F_{j-1}) \cdot P(P_j) \)
- \( P(X = i \cap Y = j) = q^{i-1} \cdot p \cdot q^{j-i-1} \cdot p \)
- \( P(X = i \cap Y = j) = q^{j-2} \cdot p^2 \)
Définition 1
Définition 2
Exemple 1 :
\( x_i / y_j \) | \( y_1 \) | \( y_2 \) | \( y_3 \) | \( y_4 \) |
\( x_1 \) | \( p_{1,1} \) | \( p_{1,2} \) | \( p_{1,3} \) | \( p_{1,4} \) |
\( x_2 \) | \( p_{2,1} \) | \( p_{2,2} \) | \( p_{2,3} \) | \( p_{2,4} \) |
\( x_3 \) | \( p_{3,1} \) | \( p_{3,2} \) | \( p_{3,3} \) | \( p_{3,4} \) |
Exemple 2 :
Y | 0 | 1 | 2 | 3 |
---|---|---|---|---|
X = 0 | \( \frac{4}{84} \) | \( \frac{18}{84} \) | \( \frac{12}{84} \) | \( \frac{1}{84} \) |
X = 1 | \( \frac{1}{84} \) | \( \frac{6}{84} \) | \( \frac{2}{84} \) | \( 0 \) |
X = 2 | \( 0 \) | \( \frac{1}{84} \) | \( \frac{1}{84} \) | \( 0 \) |
Exemple 3 :
Lois marginales
- Soit \( (X, Y) \) un couple de variables aléatoires discrètes. La loi de \( X \) est appelée la première loi marginale du couple \( (X, Y) \), et la loi de \( Y \) est appelée la deuxième loi marginale du couple \( (X, Y) \).
- Lorsque l’on connaît la loi du couple \( (X, Y) \), on peut en déduire la loi de \( X \) et la loi de \( Y \) grâce à la formule des probabilités totales :
- Soit \( (X, Y) \) un couple de variables aléatoires, alors on a :
- \( \forall i \in I, \, P(X = x_i) = \sum_{j \in J} P(X = x_i \cap Y = y_j) \)
- \( \forall j \in J, \, P(Y = y_j) = \sum_{i \in I} P(X = x_i \cap Y = y_j) \)
Définition 1
Indépendance de variable discrètes
- On dit que deux variables aléatoires discrètes \( X \) et \( Y \) sont indépendants si :
- \( \forall (i, j) \in X(\Omega) \times Y(\Omega), \, P(X = x_i \cap Y = y_j) = P(X = x_i) \cdot P(Y = y_j) \)
- Si \( X \) et \( Y \) sont indépendants, on a aussi :
- \( P(X \leq x \cap Y \leq y) = P(X \leq x) \cdot P(Y \leq y) \)
- Si \( f \) et \( g \) sont deux fonctions numériques définies respectivement sur \( X(\Omega) \) et \( Y(\Omega) \), alors \( f(X) \) et \( g(Y) \) sont indépendants.
- Soient \( X_1, \dots, X_n \) des variables aléatoires discrètes, on dit que les variables \( X_1, \dots, X_n \) sont mutuellement indépendantes si :
- \( P(X_1 = x_1 \cap \cdots \cap X_n = x_n) = P(X_1 = x_1) \cdot \cdots \cdot P(X_n = x_n) \)
- \( E(g(X, Y)) = \sum_{x \in X(\Omega) , y \in Y(\Omega)} g(x, y) \, P(X = x \cap Y = y) \)
- Pour une seule variable :
- \( E(g(X)) = \sum_{x \in X(\Omega)} g(x) \, P(X = x) \)
- \( E(XY) = \sum_{x, y} x y \, P(X = x \cap Y = y) \)
- Si \( X \) et \( Y \) sont indépendants, alors :
- \( E(XY) = E(X) \cdot E(Y) \)
- \( E(XY) = \sum_{x, y} x y \, P(X = x \cap Y = y) \)
- \( X \) et \( Y \) indépendants, donc \( P(X = x \cap Y = y) = P(X = x) \cdot P(Y = y) \)
- Donc :
- \( E(XY) = \sum_{x \in X(\Omega)} \sum_{y \in Y(\Omega)} x y \, P(X = x) \cdot P(Y = y) \)
- \( = \sum_{x \in X(\Omega)} x \, P(X = x) \cdot \sum_{y \in Y(\Omega)} y \, P(Y = y) \)
- \( = E(X) \cdot E(Y) \)
- La réciproque de cette propriété est fausse :
- \( E(XY) = E(X) \cdot E(Y) \) n'implique pas que \( X \) et \( Y \) sont indépendants.
Deux variables
Définition
Propriétés
n variables
Définition
Théorème de transfert
Propriété
Démonstration
Attention
Covariance et coefficient de corrélation
- Soient \( X \) et \( Y \) deux variables aléatoires discrètes admettant une espérance.
- On appelle covariance de \( X \) et \( Y \) le nombre réel :
- \( \text{cov}(X, Y) = E((X - E(X))(Y - E(Y))) \)
- Si \( \text{cov}(X, Y) > 0 \) : \( X \) et \( Y \) varient dans le même sens.
- Si \( \text{cov}(X, Y) < 0 \) : \( X \) et \( Y \) varient dans des sens contraires.
- Si \( X \) et \( Y \) admettent un moment d’ordre 2, alors la covariance de \( X \) et \( Y \) existe et on a :
- \( \text{cov}(X, Y) = E(XY) - E(X)E(Y) \)
- \( \text{cov}(X, Y) = E((X - E(X))(Y - E(Y))) \)
- \( \text{cov}(X, Y) = E(XY - XE(Y) - E(X)Y + E(X)E(Y)) \)
- \( \text{cov}(X, Y) = E(XY) - E(XE(Y)) - E(E(X)Y) + E(E(X)E(Y)) \)
- \( \text{cov}(X, Y) = E(XY) - E(X)E(Y) - E(X)E(Y) + E(X)E(Y) \)
- \( \text{cov}(X, Y) = E(XY) - E(X)E(Y) \)
- D’où \( \text{cov}(X, Y) = E(XY) - E(X)E(Y) \)
- C’est cette formule que l’on va utiliser pour calculer la covariance.
- Si \( Y = X \) :
- \( \text{cov}(X, X) = E(XX) - E(X)E(X) \)
- \( \text{cov}(X, X) = E(X^2) - (E(X))^2 = \text{VAR}(X) \)
- Si \( X \) et \( Y \) sont indépendants, alors \( \text{cov}(X, Y) = 0 \).
- Attention : \( \text{cov}(X, Y) = 0 \) n’implique pas que \( X \) et \( Y \) sont indépendants.
- Exemple : Si \( \text{cov}(X, Y) \neq 0 \), alors \( X \) et \( Y \) ne sont pas indépendants.
- Si \( X \) et \( Y \) sont deux variables telles que \( \text{cov}(X, Y) = 0 \), on dit que les variables sont non corrélées.
- Soient \( X \), \( X' \), \( Y \) et \( Y' \) quatre variables discrètes admettant des moments d’ordre 2 et \( a \), \( b \) deux réels, on a :
- \( \text{cov}(aX + bX', Y) = a \text{cov}(X, Y) + b \text{cov}(X', Y) \)
- \( \text{cov}(X, aY + bY') = a \text{cov}(X, Y) + b \text{cov}(X, Y') \)
- Si \( \sigma(X) \neq 0 \) et \( \sigma(Y) \neq 0 \), on appelle coefficient de corrélation :
- \( \rho(X, Y) = r(X, Y) = \frac{\text{cov}(X, Y)}{\sigma(X) \sigma(Y)} \)