Spaceuit Logo Spaceuit Plateforme Éducative

Informatique Appliquée

Fillière Intelligence Artificielle

Automne 2024

Ali El Hourch
[email protected]


Guide
Nouveau
Assistant AI
Visual Studio Code Google Classroom Whatsapp Whatsapp Discord Discord
Module 1: Probabilités Et Statistiques Module 2: Architecture Des Ordinateurs Module 3: Structure De Données En C Module 4: Système d'exploitation 1 Module 5: Programmation Web 1 Module 6: Langues Etrangéres Module 7: Compétences Culturelles & Artistiques

Semestres

Automne 2024

Tronc Communs

Informatique Appliquée

Lois discrètes usuelles


Lois discrètes finis


1. Loi de Bernouilli (ou indicatrice d'évènement)

  • \(X = 0 \) si boule noir
  • \(X = 1 \) si boule blanche
  • \( X \) 0 1
    \( P(X)\) \( 1 - \frac{1}{3} \) \( \frac{1}{3} \)
  • Mise en place :

    • On considère une expérience aléatoire et \( A \) un événement lié à cette expérience tel que \( P(A) = p \). On définit alors la variable aléatoire \( X \) en posant :
      • \( X = 1 \) si \( A \) est réalisé
      • \( X = 0 \) sinon
    • \( X \) est une variable aléatoire qui prend les valeurs \( 0 \) et \( 1 \), avec :
      • \( P(X = 0) = 1 - p \)
      • \( P(X = 1) = p \)
    • Soit \( p \in [0,1] \), on dit que \( X \) suit la loi de Bernoulli de paramètre \( p \).
    • Cette loi est notée \( \mathcal{B}(p) \), parfois aussi \( \mathcal{B}(1,p) \).

    Exemple :

    • \( X(\Omega) = \{0, 1\} \)
    • \( P(X = 0) = 1 - p \) , \( P(X = 1) = p \)
    • \( X \) 0 1
      \( P \) \( 1 - p \) \( p \)
    • Espérance : \( E(X) = p \)
    • Variance : \[ V(X) = E(X^2) - \big(E(X)\big)^2 = p - p^2 = p(1 - p) \]
    • Notons \( q = 1 - p \), alors \( V(X) = p \cdot q \)
    • L'écart type est donné par : \( \sigma_X = \sqrt{p \cdot q} \)

2. Loi Binomiale

    Mise en place :

    • On considère une expérience et un événement \( A \) lié à l'expérience tel que \( P(A) = p \).
    • On suppose que l'on effectue \( n \) fois l'expérience dans les mêmes conditions (avec remise) et on considère \( X \) le nombre de fois où \( A \) est réalisé au cours de ces expériences.
    • \( X(\Omega) = \{0, 1, 2, \ldots, n\} = [\![ 0, n ]\!] \).
    • Parmi les \( n \) expériences, il y a \( C_n^k \) façons de placer les \( k \) fois où \( A \) est réalisé.
    • Chacun de ces \( C_n^k \) événements est réalisé avec la probabilité \( p^k (1-p)^{n-k} \), on a donc : \[ \forall k \in [\![ 0, n ]\!] ; P(X = k) = C_n^k p^k (1-p)^{n-k} \]
    • Cette loi est notée \( \mathcal{B}(n,p) \) (Avec remise).

    Cas d'emploi :

    • Le modèle de cette loi est simple, on répète \(n\) fois une expérience aléatoire par laquelle on distingue deux issues possibles : le succès ou l’échec. Les essais sont indépendants, \(p\) est la probabilité du succès à chaque essai et \(X\) le nombre aléatoire de succès obtenus au cours des \(n\) essais.

    Exemple :

    • On lance \( n \) fois deux dés et on note \( X \), le nombre de fois où les deux dés affichent le même résultat.
    • La probabilité que les deux dés aient le même résultat est donnée par : \[ p = \frac{6}{36} = \frac{1}{6}. \]
    • Les essais sont indépendants, et à chaque fois la probabilité de succès vaut : \[ p = \frac{6}{36} = \frac{1}{6}. \]
    • On a donc \( X \sim \mathcal{B}(n, \frac{1}{6}) \), où \( X \) suit une loi binomiale de paramètres \( n \) et \( p = \frac{1}{6} \).

    L'espérance :

    • \( P(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} \)
    • \( E(X) = \sum_{k=0}^{n} k \cdot P(X = k) = \sum_{k=0}^{n} k \cdot \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} \)
    •             \( = \sum_{k=1}^{n} n \cdot \binom{n-1}{k-1} \cdot p^k \cdot (1-p)^{n-k} \)
    •             \( = n \cdot \sum_{k=1}^{n} \binom{n-1}{k-1} \cdot p^k \cdot (1-p)^{n-k} \)
    • Posons \( j = k-1 \implies k = j+1 \)
    • Si \( k = 1 \implies j = 0 \)
    • Si \( k = n \implies j = n-1 \)
    • Donc: \( E(X) = n \cdot \sum_{j=0}^{n-1} \binom{n-1}{j} \cdot p^{j+1} \cdot (1-p)^{n-j-1} \)
    • \( E(X) = n \cdot p \cdot \sum_{j=0}^{n-1} \binom{n-1}{j} \cdot p^j \cdot (1-p)^{n-j-1} \)
    • \( E(X) = n \cdot p \cdot (p + 1 - p)^{n-1} \)
    • Alors: \( E(X) = n \cdot p \)

    Variance :

    • \( V(X) = np(1-p) \)

3. Loi uniforme

    Mise en place :

    • \( X(\Omega) = \{x_1, x_2, ..., x_N\} \)
    • \( \forall k \in X(\Omega), P(X = k) = \frac{1}{N} \)

    L'espérance :

    • \( E(X) = \sum_{k=1}^{n} k \cdot P(X = k) = \sum_{k=1}^{n} k \cdot \frac{1}{n} = \frac{1}{n} \sum_{k=1}^{n} k \)
    • \( E(X) = \frac{1}{n} \cdot \frac{n \cdot (n+1)}{2} = \frac{n+1}{2} \)

    Variance :

    • \( E(X^2) = \sum_{k=1}^{n} k^2 \cdot \frac{1}{n} = \frac{1}{n} \sum_{k=1}^{n} k^2 \)
    • \( E(X^2) = \frac{1}{n} \cdot \frac{n \cdot (n+1) \cdot (2n+1)}{6} = \frac{(n+1) \cdot (2n+1)}{6} \)
    • \( V(X) = E(X^2) - \big(E(X)\big)^2 \)
    • \( V(X) = \frac{(n+1) \cdot (2n+1)}{6} - \left(\frac{n+1}{2}\right)^2 \)
    • \( V(X) = \frac{(n+1)}{2} \cdot \left[\frac{2n+1}{3} - \frac{n+1}{2}\right] \)
    • \( V(X) = \frac{(n+1)}{2} \cdot \frac{4n + 2 - 3n - 3}{6} \)
    • \( V(X) = \frac{(n+1) \cdot (n-1)}{12} = \frac{n^2 - 1}{12} \)
    • \( \text{Alors: } V(X) = \frac{n^2 - 1}{12} \)

4. Loi hypergéometrique (ou des tirages sous remise)

    Exemple :

    • Une urne contient 10 boules, dont 4 blanches, et on prend au hasard une poignée de 7 boules.
    • On note \( X \) le nombre de boules blanches.
    • Déterminer la loi de \( X \):
    • \( X(\Omega) = \{1, 2, 3, 4\} \)
    • \( P(X = k) = \frac{C_{4}^{k} \cdot C_{6}^{7-k}}{C_{10}^{7}} \)

    Reconnaître une loi hypergéométrique:

    • On considère une boîte dans laquelle sont placées \( N \) boules, il y a \( M \) boules blanches et \( N-M \) boules rouges (\( n \leq N \)).
    • On effectue alors \( n \) boules, sans remise (\( n \leq N \)), et on appelle \( X \) le nombre de boules blanches obtenues.
    • \( X \) prend la valeur \( k \), avec \( 0 \leq k \leq n \) et \( 0 \leq n-k \leq N-M \).
    • \( \text{Max}(0, n - N + M) \leq K \leq \text{Min}(M, n) \)
    • \( P(X = k) = \frac{C_{M}^{k} \cdot C_{N-M}^{n-k}}{C_{N}^{n}} \)

    L'esperance:

    • \( E(X) = n \cdot p \)

5. Loi géométrique (ou loi d'attente d'un premier succès premier succès dans un processus sans mémoire)

    Mise en place :

    • On considère une expérience aléatoire (\( e \)) et un événement \( A \) tel que \( P(A) = p \).
    • On répète l’expérience dans ces conditions identiques (les expériences sont indépendantes), et on appelle \( X \) le nombre d’épreuves effectuées jusqu’à ce que \( A \) soit réalisée pour la première fois.
    • \( X(\Omega) = [\![ 1, +\infty [ \)
    • \( A_k: \) « avoir l’événement \( A \) en \( k^{\text{ème}} \) essai »
    • \( P(X = k) = P(\overline{A}_1 \cap \overline{A}_2 \cap \cdots \cap \overline{A}_{k-1} \cap A_k) \)
    •                     \( = P(\overline{A}_1) \cdot P(\overline{A}_2) \cdots P(\overline{A}_{k-1}) \cdot P(A_k) \)
    •                     \( = (1-p) \cdot (1-p) \cdots (1-p) \cdot p \)
    •                     \( = p \cdot (1-p)^{k-1} \)

    Définition :

    • Soit \( p \in ]0, 1] \). On dit que \( X \) suit la loi géométrique de paramètre \( p \) (notée \( g(p) \)) si:
    • \( X(\Omega) = \mathbb{N}^* \)
    • \( \forall n \in \mathbb{N}^*, \, P(X = n) = (1-p)^{n-1} \cdot p \)

    Esperance :

    • \( E(X) = \frac{1}{p} \)

    Variance :

    • \( V(X) = \frac{1-p}{p^2} \)

    Reconnaître une loi géometrique :

    • On rencontre le schéma géométrique dans des problèmes de temps du premier succès lors d’une répétition indépendante d’une même expérience de Bernoulli. C’est le cas du temps d’attente du premier succès dans un tirage successif avec remise.

6. Loi de Poisson

    Définition :

    • Soit \( \lambda > 0 \). On dit qu’une variable \( X \) suit la loi de Poisson (notée \( P(\lambda) \)) si:
    • \( X(\Omega) = \mathbb{N} \)
    • \( \forall n \in \mathbb{N}, \, P(X = n) = \frac{e^{-\lambda} \cdot \lambda^n}{n!} \)

    Espérance :

    • \( E(X) = \lambda \)

    Variance :

    • \( V(X) = \lambda \)

    Reconnaître une loi de Poisson :

    • La loi de Poisson est souvent utilisée pour modéliser le nombre d'événements se produisant dans un intervalle de temps fixe ou dans une région fixe, lorsque ces événements sont rares et indépendants.
    • Les caractéristiques sont :
      • Les événements sont indépendants les uns des autres.
      • La probabilité d’un événement est proportionnelle à la taille de l’intervalle ou de la région.
      • La probabilité de deux événements ou plus dans un intervalle très petit est négligeable.

    Cas d'emploi :

    • Utilisée pour décrire le nombre de clients arrivant dans une file d'attente dans une période donnée.
    • Modélisation des appels reçus par un standard téléphonique en une heure.
    • Analyse du nombre de défauts dans une longueur fixe de matériau (exemple : défauts par mètre dans un rouleau de tissu).
    • Étude des accidents de la route dans une zone géographique spécifique pendant un mois.