Lois discrètes usuelles
Lois discrètes finis
1. Loi de Bernouilli (ou indicatrice d'évènement)
- \(X = 0 \) si boule noir
- \(X = 1 \) si boule blanche
-
\( X \) 0 1 \( P(X)\) \( 1 - \frac{1}{3} \) \( \frac{1}{3} \) - On considère une expérience aléatoire et \( A \) un événement lié à cette expérience tel que \( P(A) = p \). On définit alors la variable aléatoire \( X \) en posant :
- \( X = 1 \) si \( A \) est réalisé
- \( X = 0 \) sinon
- \( X \) est une variable aléatoire qui prend les valeurs \( 0 \) et \( 1 \), avec :
- \( P(X = 0) = 1 - p \)
- \( P(X = 1) = p \)
- Soit \( p \in [0,1] \), on dit que \( X \) suit la loi de Bernoulli de paramètre \( p \).
- Cette loi est notée \( \mathcal{B}(p) \), parfois aussi \( \mathcal{B}(1,p) \).
- \( X(\Omega) = \{0, 1\} \)
- \( P(X = 0) = 1 - p \) , \( P(X = 1) = p \)
-
\( X \) 0 1 \( P \) \( 1 - p \) \( p \) - Espérance : \( E(X) = p \)
- Variance : \[ V(X) = E(X^2) - \big(E(X)\big)^2 = p - p^2 = p(1 - p) \]
- Notons \( q = 1 - p \), alors \( V(X) = p \cdot q \)
- L'écart type est donné par : \( \sigma_X = \sqrt{p \cdot q} \)

Mise en place :
Exemple :
2. Loi Binomiale
- On considère une expérience et un événement \( A \) lié à l'expérience tel que \( P(A) = p \).
- On suppose que l'on effectue \( n \) fois l'expérience dans les mêmes conditions (avec remise) et on considère \( X \) le nombre de fois où \( A \) est réalisé au cours de ces expériences.
- \( X(\Omega) = \{0, 1, 2, \ldots, n\} = [\![ 0, n ]\!] \).
- Parmi les \( n \) expériences, il y a \( C_n^k \) façons de placer les \( k \) fois où \( A \) est réalisé.
- Chacun de ces \( C_n^k \) événements est réalisé avec la probabilité \( p^k (1-p)^{n-k} \), on a donc : \[ \forall k \in [\![ 0, n ]\!] ; P(X = k) = C_n^k p^k (1-p)^{n-k} \]
- Cette loi est notée \( \mathcal{B}(n,p) \) (Avec remise).
- Le modèle de cette loi est simple, on répète \(n\) fois une expérience aléatoire par laquelle on distingue deux issues possibles : le succès ou l’échec. Les essais sont indépendants, \(p\) est la probabilité du succès à chaque essai et \(X\) le nombre aléatoire de succès obtenus au cours des \(n\) essais.
- On lance \( n \) fois deux dés et on note \( X \), le nombre de fois où les deux dés affichent le même résultat.
- La probabilité que les deux dés aient le même résultat est donnée par : \[ p = \frac{6}{36} = \frac{1}{6}. \]
- Les essais sont indépendants, et à chaque fois la probabilité de succès vaut : \[ p = \frac{6}{36} = \frac{1}{6}. \]
- On a donc \( X \sim \mathcal{B}(n, \frac{1}{6}) \), où \( X \) suit une loi binomiale de paramètres \( n \) et \( p = \frac{1}{6} \).
- \( P(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} \)
- \( E(X) = \sum_{k=0}^{n} k \cdot P(X = k) = \sum_{k=0}^{n} k \cdot \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} \)
- \( = \sum_{k=1}^{n} n \cdot \binom{n-1}{k-1} \cdot p^k \cdot (1-p)^{n-k} \)
- \( = n \cdot \sum_{k=1}^{n} \binom{n-1}{k-1} \cdot p^k \cdot (1-p)^{n-k} \)
- Posons \( j = k-1 \implies k = j+1 \)
- Si \( k = 1 \implies j = 0 \)
- Si \( k = n \implies j = n-1 \)
- Donc: \( E(X) = n \cdot \sum_{j=0}^{n-1} \binom{n-1}{j} \cdot p^{j+1} \cdot (1-p)^{n-j-1} \)
- \( E(X) = n \cdot p \cdot \sum_{j=0}^{n-1} \binom{n-1}{j} \cdot p^j \cdot (1-p)^{n-j-1} \)
- \( E(X) = n \cdot p \cdot (p + 1 - p)^{n-1} \)
- Alors: \( E(X) = n \cdot p \)
- \( V(X) = np(1-p) \)
Mise en place :
Cas d'emploi :
Exemple :
L'espérance :
Variance :
3. Loi uniforme
- \( X(\Omega) = \{x_1, x_2, ..., x_N\} \)
- \( \forall k \in X(\Omega), P(X = k) = \frac{1}{N} \)
- \( E(X) = \sum_{k=1}^{n} k \cdot P(X = k) = \sum_{k=1}^{n} k \cdot \frac{1}{n} = \frac{1}{n} \sum_{k=1}^{n} k \)
- \( E(X) = \frac{1}{n} \cdot \frac{n \cdot (n+1)}{2} = \frac{n+1}{2} \)
- \( E(X^2) = \sum_{k=1}^{n} k^2 \cdot \frac{1}{n} = \frac{1}{n} \sum_{k=1}^{n} k^2 \)
- \( E(X^2) = \frac{1}{n} \cdot \frac{n \cdot (n+1) \cdot (2n+1)}{6} = \frac{(n+1) \cdot (2n+1)}{6} \)
- \( V(X) = E(X^2) - \big(E(X)\big)^2 \)
- \( V(X) = \frac{(n+1) \cdot (2n+1)}{6} - \left(\frac{n+1}{2}\right)^2 \)
- \( V(X) = \frac{(n+1)}{2} \cdot \left[\frac{2n+1}{3} - \frac{n+1}{2}\right] \)
- \( V(X) = \frac{(n+1)}{2} \cdot \frac{4n + 2 - 3n - 3}{6} \)
- \( V(X) = \frac{(n+1) \cdot (n-1)}{12} = \frac{n^2 - 1}{12} \)
- \( \text{Alors: } V(X) = \frac{n^2 - 1}{12} \)
Mise en place :
L'espérance :
Variance :
4. Loi hypergéometrique (ou des tirages sous remise)
- Une urne contient 10 boules, dont 4 blanches, et on prend au hasard une poignée de 7 boules.
- On note \( X \) le nombre de boules blanches.
- Déterminer la loi de \( X \):
- \( X(\Omega) = \{1, 2, 3, 4\} \)
- \( P(X = k) = \frac{C_{4}^{k} \cdot C_{6}^{7-k}}{C_{10}^{7}} \)
- On considère une boîte dans laquelle sont placées \( N \) boules, il y a \( M \) boules blanches et \( N-M \) boules rouges (\( n \leq N \)).
- On effectue alors \( n \) boules, sans remise (\( n \leq N \)), et on appelle \( X \) le nombre de boules blanches obtenues.
- \( X \) prend la valeur \( k \), avec \( 0 \leq k \leq n \) et \( 0 \leq n-k \leq N-M \).
- \( \text{Max}(0, n - N + M) \leq K \leq \text{Min}(M, n) \)
- \( P(X = k) = \frac{C_{M}^{k} \cdot C_{N-M}^{n-k}}{C_{N}^{n}} \)
- \( E(X) = n \cdot p \)
Exemple :
Reconnaître une loi hypergéométrique:
L'esperance:
5. Loi géométrique (ou loi d'attente d'un premier succès premier succès dans un processus sans mémoire)
- On considère une expérience aléatoire (\( e \)) et un événement \( A \) tel que \( P(A) = p \).
- On répète l’expérience dans ces conditions identiques (les expériences sont indépendantes), et on appelle \( X \) le nombre d’épreuves effectuées jusqu’à ce que \( A \) soit réalisée pour la première fois.
- \( X(\Omega) = [\![ 1, +\infty [ \)
- \( A_k: \) « avoir l’événement \( A \) en \( k^{\text{ème}} \) essai »
- \( P(X = k) = P(\overline{A}_1 \cap \overline{A}_2 \cap \cdots \cap \overline{A}_{k-1} \cap A_k) \)
- \( = P(\overline{A}_1) \cdot P(\overline{A}_2) \cdots P(\overline{A}_{k-1}) \cdot P(A_k) \)
- \( = (1-p) \cdot (1-p) \cdots (1-p) \cdot p \)
- \( = p \cdot (1-p)^{k-1} \)
- Soit \( p \in ]0, 1] \). On dit que \( X \) suit la loi géométrique de paramètre \( p \) (notée \( g(p) \)) si:
- \( X(\Omega) = \mathbb{N}^* \)
- \( \forall n \in \mathbb{N}^*, \, P(X = n) = (1-p)^{n-1} \cdot p \)
- \( E(X) = \frac{1}{p} \)
- \( V(X) = \frac{1-p}{p^2} \)
- On rencontre le schéma géométrique dans des problèmes de temps du premier succès lors d’une répétition indépendante d’une même expérience de Bernoulli. C’est le cas du temps d’attente du premier succès dans un tirage successif avec remise.
Mise en place :
Définition :
Esperance :
Variance :
Reconnaître une loi géometrique :
6. Loi de Poisson
- Soit \( \lambda > 0 \). On dit qu’une variable \( X \) suit la loi de Poisson (notée \( P(\lambda) \)) si:
- \( X(\Omega) = \mathbb{N} \)
- \( \forall n \in \mathbb{N}, \, P(X = n) = \frac{e^{-\lambda} \cdot \lambda^n}{n!} \)
- \( E(X) = \lambda \)
- \( V(X) = \lambda \)
- La loi de Poisson est souvent utilisée pour modéliser le nombre d'événements se produisant dans un intervalle de temps fixe ou dans une région fixe, lorsque ces événements sont rares et indépendants.
- Les caractéristiques sont :
- Les événements sont indépendants les uns des autres.
- La probabilité d’un événement est proportionnelle à la taille de l’intervalle ou de la région.
- La probabilité de deux événements ou plus dans un intervalle très petit est négligeable.
- Utilisée pour décrire le nombre de clients arrivant dans une file d'attente dans une période donnée.
- Modélisation des appels reçus par un standard téléphonique en une heure.
- Analyse du nombre de défauts dans une longueur fixe de matériau (exemple : défauts par mètre dans un rouleau de tissu).
- Étude des accidents de la route dans une zone géographique spécifique pendant un mois.