← Retour aux chapitres
Chapitre 14 — Probabilités

Loi des grands nombres

Inégalités de Markov et Bienaymé-Tchebychev, loi des grands nombres.

📄 Télécharger le PDF
Programme officiel — Terminale Spécialité Mathématiques 📄 Télécharger le BO 🔗 Source officielle (eduscol)

Capacités exigibles — Programme officiel (BO)

  • Représenter une variable aléatoire comme somme de variables aléatoires plus simples.
  • Calculer l'espérance d'une variable aléatoire, notamment en utilisant la propriété de linéarité.
  • Calculer la variance d'une variable aléatoire, notamment en l'exprimant comme somme de variables aléatoires indépendantes.
  • Appliquer l'inégalité de Bienaymé-Tchebychev pour définir une taille d'échantillon, en fonction de la précision et du risque choisi.

Démonstrations exigibles — Programme officiel (BO)

  • Espérance et variance de la loi binomiale.

Exemples d'algorithme — Programme officiel (BO)

  • Calculer la probabilité de \((|S_n - pn| > \sqrt{n})\) où \(S_n \sim \mathcal{B}(n,p)\) ; comparer avec l'inégalité de Bienaymé-Tchebychev.
  • Simulation d'une marche aléatoire.
  • Simuler \(N\) échantillons de taille \(n\) d'une variable aléatoire d'espérance \(\mu\) et d'écart type \(\sigma\) ; calculer l'écart type \(s\) des moyennes observées et le comparer à \(\sigma/\sqrt{n}\).

1. Introduction

Lancez une pièce équilibrée 10 fois : vous pouvez très bien obtenir 7 faces. Mais si vous la lancez 10 000 fois, la fréquence des faces sera très proche de \(\frac{1}{2}\). C'est l'idée fondamentale de la loi des grands nombres.

Ce chapitre donne les outils mathématiques pour quantifier cet écart entre fréquence observée et probabilité théorique. On dispose de deux inégalités puissantes :

  • L'inégalité de Markov : majore la probabilité qu'une VA dépasse un seuil.
  • L'inégalité de Bienaymé-Tchebychev : majore la probabilité qu'une VA s'écarte de son espérance.

Ces outils sont utilisés partout : sondages électoraux, contrôle qualité en industrie, tests médicaux, études statistiques.

2. Cours

Rappels — Variables aléatoires et transformations

Soit \(X\) une variable aléatoire prenant les valeurs \(x_1, x_2, \ldots, x_n\). La variable aléatoire \(Y = aX + b\) (où \(a, b \in \mathbb{R}\)) prend pour valeurs les réels \(y_i = ax_i + b\).
Espérance, variance, écart-type de \(aX+b\) Soit \(X\) une variable aléatoire et \(Y = aX+b\) :
  • \(E(aX+b) = aE(X)+b\)
  • \(V(aX+b) = a^2 V(X)\)
  • \(\sigma(aX) = |a|\,\sigma(X)\)
Un décalage (ajouter \(b\)) ne change pas la variance : la dispersion reste la même, seul le centre change. Un facteur \(a\) multiplie l'écart-type par \(|a|\).

A) Inégalités

A.1 Inégalité de Markov

Une variable aléatoire est dite positive ou nulle si toutes les valeurs qu'elle prend sont des réels positifs ou nuls.
Inégalité de Markov Soit \(X\) une variable aléatoire à valeurs positives ou nulles, et \(a > 0\) un réel. Alors : \[P(X \geq a) \leq \frac{E(X)}{a}\]
Illustration intuitive Si le gain moyen d'un jeu est \(E(X) = 3\) €, alors la probabilité de gagner plus de \(10\) € ne peut pas dépasser \(\frac{3}{10} = 0{,}3\).
Cette borne est souvent grossière, mais elle est toujours valable sans hypothèse supplémentaire.
L'inégalité de Markov ne s'applique qu'à des variables aléatoires à valeurs positives ou nulles. Si \(X\) peut prendre des valeurs négatives, on ne peut pas l'utiliser directement.

A.2 Inégalité de Bienaymé-Tchebychev

Inégalité de Bienaymé-Tchebychev Soit \(X\) une variable aléatoire d'espérance \(E(X)\) et de variance \(V(X)\), et \(a > 0\). Alors : \[P\bigl(|X - E(X)| \geq a\bigr) \leq \frac{V(X)}{a^2}\]

Cette inégalité mesure la probabilité que \(X\) s'écarte de son espérance d'au moins \(a\). Plus la variance est faible, plus cette probabilité est petite — la VA est concentrée autour de son espérance.

Reformulation utile : \(P\bigl(E(X)-a \leq X \leq E(X)+a\bigr) \geq 1 - \dfrac{V(X)}{a^2}\).
En posant \(a = k\sigma\) (où \(\sigma = \sqrt{V(X)}\)) : \(P\bigl(|X-E(X)| \geq k\sigma\bigr) \leq \dfrac{1}{k^2}\).

B) Inégalité de concentration et loi des grands nombres

Échantillon de taille \(n\) Soit \(X\) une variable aléatoire. Un échantillon de taille \(n\) de la loi de \(X\) est une liste \((X_1, X_2, \ldots, X_n)\) de variables aléatoires indépendantes et de même loi que \(X\).

On appelle moyenne empirique la variable aléatoire : \[M_n = \frac{1}{n}\sum_{i=1}^n X_i\]
Espérance et variance de \(M_n\) Si les \(X_i\) sont indépendantes et de même loi que \(X\) : \[E(M_n) = E(X) \qquad \text{et} \qquad V(M_n) = \frac{V(X)}{n}\] L'écart-type de \(M_n\) vaut \(\dfrac{\sigma(X)}{\sqrt{n}}\) : il diminue quand \(n\) augmente.
Théorème — Inégalité de concentration Soit \(X\) une VA d'espérance \(E(X)\) et de variance \(V(X)\). Pour tout réel \(a > 0\) : \[P\bigl(|M_n - E(X)| \geq a\bigr) \leq \frac{V(X)}{n\,a^2}\]
Comment utiliser l'inégalité de concentration ?
  1. Identifier \(E(X)\) et \(V(X)\).
  2. Choisir le seuil \(a\) (écart toléré autour de l'espérance).
  3. Appliquer la formule : \(P(|M_n - E(X)| \geq a) \leq \dfrac{V(X)}{na^2}\).
  4. Pour trouver \(n\) : résoudre \(\dfrac{V(X)}{na^2} \leq \varepsilon\), soit \(n \geq \dfrac{V(X)}{\varepsilon\, a^2}\).
Loi des grands nombres Pour tout réel \(a > 0\) : \[\lim_{n \to +\infty} P\bigl(|M_n - E(X)| \geq a\bigr) = 0\] La moyenne empirique converge en probabilité vers l'espérance. Plus \(n\) est grand, plus \(M_n\) est concentrée autour de \(E(X)\).

B.1 Application à une fréquence (loi de Bernoulli)

Soit \(X_i\) une VA de Bernoulli de paramètre \(p\) : \(E(X_i) = p\) et \(V(X_i) = p(1-p)\). La fréquence empirique est \(F_n = \dfrac{1}{n}\displaystyle\sum_{i=1}^n X_i\).

L'inégalité de concentration donne : \[P\bigl(|F_n - p| \geq a\bigr) \leq \frac{p(1-p)}{na^2}\] Or \(p(1-p) \leq \dfrac{1}{4}\) pour tout \(p \in [0;1]\) (maximum atteint en \(p = \frac{1}{2}\)), donc : \[P\bigl(|F_n - p| \geq a\bigr) \leq \frac{1}{4na^2}\]
Cette dernière inégalité est très pratique car elle ne dépend pas de \(p\) ! On peut l'utiliser même sans connaître la vraie valeur de \(p\) (cas d'un sondage).

3. Exemples guidés

Exemple 1 — Inégalité de Markov

Un jeu de hasard procure un gain \(X \geq 0\) avec \(E(X) = 4\) €. Majorer \(P(X \geq 12)\).

Solution : \(X \geq 0\) et \(a = 12\), donc par l'inégalité de Markov :

\[P(X \geq 12) \leq \frac{E(X)}{a} = \frac{4}{12} = \frac{1}{3} \approx 0{,}333\]

La probabilité de gagner plus de 12 € est au plus \(\frac{1}{3}\).

Exemple 2 — Inégalité de Bienaymé-Tchebychev

Soit \(X \sim \mathcal{B}(100;\, 0{,}4)\). Majorer \(P(|X - 40| \geq 10)\).

Solution :

  • \(E(X) = np = 100 \times 0{,}4 = 40\)
  • \(V(X) = np(1-p) = 100 \times 0{,}4 \times 0{,}6 = 24\)

Avec \(a = 10\) :

\[P(|X - 40| \geq 10) \leq \frac{V(X)}{a^2} = \frac{24}{100} = 0{,}24\]

La probabilité de s'écarter de plus de 10 de la valeur 40 est au plus \(0{,}24\).

Exemple 3 — Inégalité de concentration

On lance une pièce (\(p = 0{,}5\)) \(n = 400\) fois. \(F_n\) est la fréquence de "pile". Majorer \(P(|F_n - 0{,}5| \geq 0{,}05)\).

Solution : On utilise \(p(1-p) \leq \frac{1}{4}\) :

\[P(|F_n - 0{,}5| \geq 0{,}05) \leq \frac{1}{4 \times 400 \times (0{,}05)^2} = \frac{1}{4 \times 400 \times 0{,}0025} = \frac{1}{4} = 0{,}25\]

La probabilité que la fréquence s'écarte de plus de 5 % de 0,5 est au plus \(0{,}25\).

Exemple 4 — Taille d'échantillon nécessaire

On veut que \(P(|F_n - p| \geq 0{,}03) \leq 0{,}05\). Quel \(n\) minimum faut-il ?

Solution : On utilise \(p(1-p) \leq \frac{1}{4}\). Il suffit que :

\[\frac{1}{4na^2} \leq 0{,}05 \quad \text{avec } a = 0{,}03\] \[\frac{1}{4n \times 0{,}0009} \leq 0{,}05 \implies 4n \times 0{,}0009 \geq \frac{1}{0{,}05} = 20\] \[n \geq \frac{20}{4 \times 0{,}0009} = \frac{20}{0{,}0036} \approx 5556\]

Il faut au moins \(n = 5556\) observations.

Exemple 5 — Loi des grands nombres (interprétation)

On lance un dé équilibré \(n\) fois. La fréquence du "6" est \(F_n\). La loi des grands nombres affirme que \(F_n\) converge en probabilité vers \(p = \frac{1}{6}\).

Concrètement : pour tout \(\varepsilon > 0\), on peut rendre \(P(|F_n - \frac{1}{6}| \geq \varepsilon)\) aussi petit qu'on veut en prenant \(n\) assez grand.

Application numérique avec \(\varepsilon = 0{,}01\) et \(n = 10\,000\) :

\[P\!\left(\left|F_n - \tfrac{1}{6}\right| \geq 0{,}01\right) \leq \frac{1}{4 \times 10\,000 \times 0{,}0001} = \frac{1}{4} = 0{,}25\]

Avec \(n = 100\,000\) : le majorant tombe à \(0{,}025\). La convergence est lente mais garantie.

4. Exercices progressifs

⭐ Facile Exercice 1 — Inégalité de Markov

Soit \(X\) une variable aléatoire positive avec \(E(X) = 6\).

  1. Majorer \(P(X \geq 18)\).
  2. Majorer \(P(X \geq 30)\).
  3. Peut-on avoir \(P(X \geq 3) \leq 1\) d'après Markov ? Que conclut-on ?
  1. \(P(X \geq 18) \leq \dfrac{E(X)}{18} = \dfrac{6}{18} = \dfrac{1}{3}\).
  2. \(P(X \geq 30) \leq \dfrac{6}{30} = \dfrac{1}{5} = 0{,}2\).
  3. Markov donnerait \(P(X \geq 3) \leq \dfrac{6}{3} = 2\). Cette borne est \(> 1\), elle n'est donc pas informative (une probabilité est toujours \(\leq 1\)). Markov n'est utile que quand le majorant est \(\leq 1\), i.e. quand \(a \geq E(X)\).
⭐ Facile Exercice 2 — Bienaymé-Tchebychev

Soit \(X\) avec \(E(X) = 15\) et \(V(X) = 9\).

  1. Majorer \(P(|X - 15| \geq 6)\).
  2. En déduire une minoration de \(P(9 \leq X \leq 21)\).
  3. Majorer \(P(|X - 15| \geq 3)\).
  1. \(P(|X-15| \geq 6) \leq \dfrac{V(X)}{a^2} = \dfrac{9}{36} = \dfrac{1}{4} = 0{,}25\).
  2. \(P(9 \leq X \leq 21) = P(|X-15| \leq 6) = 1 - P(|X-15| \geq 6) \geq 1 - \dfrac{1}{4} = \dfrac{3}{4} = 0{,}75\).
  3. \(P(|X-15| \geq 3) \leq \dfrac{9}{9} = 1\). Borne non informative (majorant = 1).
⭐⭐ Moyen Exercice 3 — Loi binomiale et Bienaymé-Tchebychev

Soit \(X \sim \mathcal{B}(80;\, 0{,}25)\).

  1. Calculer \(E(X)\) et \(V(X)\).
  2. Majorer \(P(|X - E(X)| \geq 8)\).
  3. En déduire une minoration de \(P(12 \leq X \leq 28)\).
  1. \(E(X) = 80 \times 0{,}25 = 20\) et \(V(X) = 80 \times 0{,}25 \times 0{,}75 = 15\).
  2. \(P(|X-20| \geq 8) \leq \dfrac{15}{64} \approx 0{,}234\).
  3. \(P(12 \leq X \leq 28) = P(|X-20| \leq 8) \geq 1 - \dfrac{15}{64} = \dfrac{49}{64} \approx 0{,}766\).
⭐⭐ Moyen Exercice 4 — Taille d'échantillon pour un sondage

Un sondeur veut estimer la proportion \(p\) d'une opinion dans une population. Il veut que la probabilité que sa fréquence observée \(F_n\) s'écarte de \(p\) de plus de \(2{,}5\%\) soit au plus \(4\%\).

Quel est le nombre minimal de personnes à interroger ?

On utilise \(p(1-p) \leq \dfrac{1}{4}\). On veut :

\[\frac{1}{4na^2} \leq 0{,}04 \quad \text{avec } a = 0{,}025\] \[4n \times (0{,}025)^2 \geq \frac{1}{0{,}04} = 25\] \[4n \times 0{,}000625 \geq 25\] \[n \geq \frac{25}{0{,}0025} = 10\,000\]

Il faut interroger au moins 10 000 personnes.

⭐⭐⭐ Difficile Exercice 5 — Inégalité de Tchebychev sous forme d'encadrement

Soit \(X\) une VA d'espérance \(\mu\) et d'écart-type \(\sigma > 0\).

  1. En posant \(a = k\sigma\) dans l'inégalité de Bienaymé-Tchebychev, montrer que : \[P\bigl(|X-\mu| \geq k\sigma\bigr) \leq \frac{1}{k^2}\]
  2. En déduire que \(P(\mu - k\sigma \leq X \leq \mu + k\sigma) \geq 1 - \dfrac{1}{k^2}\).
  3. Appliquer pour \(k=2\) : quelle fraction minimale de la population se trouve dans l'intervalle \([\mu-2\sigma;\, \mu+2\sigma]\) ?
  4. Appliquer pour \(k=3\). Comparer avec la règle empirique de la loi normale (\(\approx 99{,}7\%\)).
  1. On applique Bienaymé-Tchebychev avec \(a = k\sigma\) : \[P(|X-\mu| \geq k\sigma) \leq \frac{V(X)}{(k\sigma)^2} = \frac{\sigma^2}{k^2\sigma^2} = \frac{1}{k^2}\]
  2. \(P(\mu - k\sigma \leq X \leq \mu + k\sigma) = 1 - P(|X-\mu| \geq k\sigma) \geq 1 - \dfrac{1}{k^2}\).
  3. Pour \(k=2\) : \(P(\mu-2\sigma \leq X \leq \mu+2\sigma) \geq 1 - \dfrac{1}{4} = 75\%\). Au moins 75% de la distribution se trouve dans cet intervalle, quelle que soit la loi de \(X\).
  4. Pour \(k=3\) : \(P(\mu-3\sigma \leq X \leq \mu+3\sigma) \geq 1 - \dfrac{1}{9} \approx 88{,}9\%\). La loi normale donne \(\approx 99{,}7\%\) : la borne de Tchebychev est donc très pessimiste (valable pour toute distribution), alors que la règle empirique suppose la normalité.
⭐⭐⭐ Difficile Exercice 6 — Un dé est-il truqué ?

On lance un dé 600 fois et on obtient 120 fois le résultat "6". La fréquence observée est donc \(F_{600} = \dfrac{120}{600} = 0{,}2\). Si le dé est équilibré, la probabilité théorique est \(p = \dfrac{1}{6} \approx 0{,}1\overline{6}\).

  1. Calculer l'écart \(|F_{600} - p|\) (valeur exacte).
  2. En utilisant l'inégalité de concentration, majorer \(P\!\left(|F_{600} - p| \geq |F_{600} - p|\right)\) pour un dé équilibré.
  3. Cette probabilité est-elle faible ? Peut-on conclure que le dé est truqué ?
  1. \(|F_{600} - p| = \left|0{,}2 - \dfrac{1}{6}\right| = \left|\dfrac{6}{30} - \dfrac{5}{30}\right| = \dfrac{1}{30} \approx 0{,}0\overline{3}\).
  2. On utilise \(p(1-p) \leq \dfrac{1}{4}\) avec \(n = 600\) et \(a = \dfrac{1}{30}\) : \[P\!\left(|F_{600} - p| \geq \tfrac{1}{30}\right) \leq \frac{1}{4 \times 600 \times \left(\frac{1}{30}\right)^2} = \frac{1}{4 \times 600 \times \frac{1}{900}} = \frac{1}{\frac{2400}{900}} = \frac{900}{2400} = \frac{3}{8} = 0{,}375\]
  3. Le majorant est \(0{,}375\), ce qui n'est pas négligeable. Avec un dé équilibré, une telle fréquence peut survenir avec une probabilité d'au moins 0 et d'au plus 37,5%. On ne peut pas conclure que le dé est truqué sur la seule base de cette inégalité. (Une analyse par test statistique plus précis serait nécessaire.)

📌 Fiche de synthèse

Les deux inégalités fondamentales

Inégalité de Markov (\(X \geq 0\), \(a > 0\)) : \[P(X \geq a) \leq \frac{E(X)}{a}\] Utile dès que \(a > E(X)\).
Inégalité de Bienaymé-Tchebychev (\(a > 0\)) : \[P(|X - E(X)| \geq a) \leq \frac{V(X)}{a^2}\] Équivalent : \(P(E(X)-a \leq X \leq E(X)+a) \geq 1 - \dfrac{V(X)}{a^2}\)

Inégalité de concentration (moyenne empirique)

\(M_n = \dfrac{1}{n}\displaystyle\sum_{i=1}^n X_i\) (variables i.i.d.) : \[P(|M_n - E(X)| \geq a) \leq \frac{V(X)}{na^2}\]
Cas Bernoulli (fréquence \(F_n\), paramètre \(p\)) : \[P(|F_n - p| \geq a) \leq \frac{p(1-p)}{na^2} \leq \frac{1}{4na^2}\]
Loi des grands nombres : \(\displaystyle\lim_{n\to+\infty} P(|M_n - E(X)| \geq a) = 0\)

À retenir absolument

  • Markov : uniquement pour les VA positives ou nulles.
  • Bienaymé-Tchebychev : borne générale, sans hypothèse sur la loi.
  • Trouver \(n\) : résoudre \(\dfrac{1}{4na^2} \leq \varepsilon\) donne \(n \geq \dfrac{1}{4\varepsilon a^2}\).
  • Ces bornes sont pessimistes mais universelles.

📐 Démonstrations exigibles

Ces démonstrations sont exigibles au baccalauréat — Terminale Spécialité Mathématiques.

Espérance et variance de la loi binomiale

Théorème / Énoncé

Si \(X \sim \mathcal{B}(n, p)\), alors \(E(X) = np\) et \(V(X) = np(1-p)\).

Démonstration

On écrit \(X = X_1 + X_2 + \cdots + X_n\) où les \(X_i\) sont des variables de Bernoulli indépendantes de paramètre \(p\) : \(X_i = 1\) avec probabilité \(p\), \(X_i = 0\) avec probabilité \(1-p\).

Calcul pour chaque \(X_i\) :

\[E(X_i) = 0 \cdot (1-p) + 1 \cdot p = p\] \[E(X_i^2) = 0^2 \cdot (1-p) + 1^2 \cdot p = p\] \[V(X_i) = E(X_i^2) - E(X_i)^2 = p - p^2 = p(1-p)\]

Espérance de \(X\) (par linéarité) :

\[E(X) = E(X_1) + \cdots + E(X_n) = np\]

Variance de \(X\) (par indépendance — la variance d'une somme de variables indépendantes est la somme des variances) :

\[V(X) = V(X_1) + \cdots + V(X_n) = np(1-p) \quad \square\]

💻 Exemples d'algorithme

Algorithmes au programme de ce chapitre, à implémenter en Python.

Inégalité de Bienaymé-Tchebychev — vérification simulée

Pour \(S_n \sim \mathcal{B}(n,p)\), calculer \(P\!\left(\left|\frac{S_n}{n} - p\right| > \varepsilon\right)\) et comparer avec la borne \(\frac{p(1-p)}{n\varepsilon^2}\).

import random

def bienayme_simulation(n, p, epsilon=0.1, N=20000):
    """
    Estime P(|S_n/n - p| > epsilon) pour S_n ~ B(n, p).
    Compare avec la borne de Bienaymé-Tchebychev.
    """
    depassements = sum(
        1 for _ in range(N)
        if abs(sum(random.random() < p for _ in range(n)) / n - p) > epsilon
    )
    proba_emp = depassements / N
    borne_bt  = p * (1 - p) / (n * epsilon**2)
    return proba_emp, borne_bt

print(f"{'n':>6} | {'P_empirique':>12} | {'Borne B-T':>10} | {'Inégalité?':>10}")
for n in [10, 50, 100, 500, 1000]:
    pe, bt = bienayme_simulation(n, 0.3, epsilon=0.1)
    ok = "✓" if pe <= bt else "✗"
    print(f"{n:>6} | {pe:>12.4f} | {bt:>10.4f} | {ok:>10}")

Simulation d'une marche aléatoire

Une marche aléatoire simule le déplacement d'un point qui avance de +1 ou -1 à chaque pas, illustrant la loi des grands nombres.

import random, math

def marche_aleatoire(N=1000, p=0.5):
    """
    Simule une marche aléatoire de N pas.
    +1 avec probabilité p, -1 avec probabilité 1-p.
    """
    position = 0
    trajectoire = [0]
    for _ in range(N):
        pas = 1 if random.random() < p else -1
        position += pas
        trajectoire.append(position)
    return position, trajectoire

# Simulation et statistiques
nb_sim = 1000
positions_finales = [marche_aleatoire(1000)[0] for _ in range(nb_sim)]
moyenne = sum(positions_finales) / nb_sim
ecart_type = math.sqrt(sum((x - moyenne)**2 for x in positions_finales) / nb_sim)
print(f"Moyenne des positions finales : {moyenne:.2f}  (espérance = 0)")
print(f"Écart-type observé            : {ecart_type:.2f}  (théorique = √1000 ≈ {math.sqrt(1000):.2f})")
🎬 Animation interactive
Appuyez sur ▶ Lancer pour démarrer l'animation

Simulation de la loi des grands nombres

Vérifier expérimentalement que la moyenne empirique \(\bar{X}_n\) converge vers \(\mu\) et que son écart-type vaut \(\sigma/\sqrt{n}\).

import random, math, statistics

def simulation_loi_grands_nombres(n, mu, sigma, N=2000):
    """
    Simule N échantillons de taille n de loi N(mu, sigma²).
    Compare l'écart-type des moyennes observées avec sigma/sqrt(n).
    """
    moyennes = [
        statistics.mean(random.gauss(mu, sigma) for _ in range(n))
        for _ in range(N)
    ]
    s_obs    = statistics.stdev(moyennes)
    s_theor  = sigma / math.sqrt(n)
    print(f"n = {n:5d}  |  s_obs = {s_obs:.5f}  |  σ/√n = {s_theor:.5f}")

print("Vérification du théorème central limite\n")
for n in [10, 50, 100, 500, 1000]:
    simulation_loi_grands_nombres(n, mu=0, sigma=1)
🎬 Animation interactive
Appuyez sur ▶ Lancer pour démarrer l'animation