Loi des grands nombres
Inégalités de Markov et Bienaymé-Tchebychev, loi des grands nombres.
📄 Télécharger le PDF📋 Sommaire
Capacités exigibles — Programme officiel (BO)
- Représenter une variable aléatoire comme somme de variables aléatoires plus simples.
- Calculer l'espérance d'une variable aléatoire, notamment en utilisant la propriété de linéarité.
- Calculer la variance d'une variable aléatoire, notamment en l'exprimant comme somme de variables aléatoires indépendantes.
- Appliquer l'inégalité de Bienaymé-Tchebychev pour définir une taille d'échantillon, en fonction de la précision et du risque choisi.
Démonstrations exigibles — Programme officiel (BO)
- Espérance et variance de la loi binomiale.
Exemples d'algorithme — Programme officiel (BO)
- Calculer la probabilité de \((|S_n - pn| > \sqrt{n})\) où \(S_n \sim \mathcal{B}(n,p)\) ; comparer avec l'inégalité de Bienaymé-Tchebychev.
- Simulation d'une marche aléatoire.
- Simuler \(N\) échantillons de taille \(n\) d'une variable aléatoire d'espérance \(\mu\) et d'écart type \(\sigma\) ; calculer l'écart type \(s\) des moyennes observées et le comparer à \(\sigma/\sqrt{n}\).
1. Introduction
Lancez une pièce équilibrée 10 fois : vous pouvez très bien obtenir 7 faces. Mais si vous la lancez 10 000 fois, la fréquence des faces sera très proche de \(\frac{1}{2}\). C'est l'idée fondamentale de la loi des grands nombres.
Ce chapitre donne les outils mathématiques pour quantifier cet écart entre fréquence observée et probabilité théorique. On dispose de deux inégalités puissantes :
- L'inégalité de Markov : majore la probabilité qu'une VA dépasse un seuil.
- L'inégalité de Bienaymé-Tchebychev : majore la probabilité qu'une VA s'écarte de son espérance.
Ces outils sont utilisés partout : sondages électoraux, contrôle qualité en industrie, tests médicaux, études statistiques.
2. Cours
Rappels — Variables aléatoires et transformations
- \(E(aX+b) = aE(X)+b\)
- \(V(aX+b) = a^2 V(X)\)
- \(\sigma(aX) = |a|\,\sigma(X)\)
A) Inégalités
A.1 Inégalité de Markov
Cette borne est souvent grossière, mais elle est toujours valable sans hypothèse supplémentaire.
A.2 Inégalité de Bienaymé-Tchebychev
Cette inégalité mesure la probabilité que \(X\) s'écarte de son espérance d'au moins \(a\). Plus la variance est faible, plus cette probabilité est petite — la VA est concentrée autour de son espérance.
En posant \(a = k\sigma\) (où \(\sigma = \sqrt{V(X)}\)) : \(P\bigl(|X-E(X)| \geq k\sigma\bigr) \leq \dfrac{1}{k^2}\).
B) Inégalité de concentration et loi des grands nombres
On appelle moyenne empirique la variable aléatoire : \[M_n = \frac{1}{n}\sum_{i=1}^n X_i\]
- Identifier \(E(X)\) et \(V(X)\).
- Choisir le seuil \(a\) (écart toléré autour de l'espérance).
- Appliquer la formule : \(P(|M_n - E(X)| \geq a) \leq \dfrac{V(X)}{na^2}\).
- Pour trouver \(n\) : résoudre \(\dfrac{V(X)}{na^2} \leq \varepsilon\), soit \(n \geq \dfrac{V(X)}{\varepsilon\, a^2}\).
B.1 Application à une fréquence (loi de Bernoulli)
Soit \(X_i\) une VA de Bernoulli de paramètre \(p\) : \(E(X_i) = p\) et \(V(X_i) = p(1-p)\). La fréquence empirique est \(F_n = \dfrac{1}{n}\displaystyle\sum_{i=1}^n X_i\).
3. Exemples guidés
Un jeu de hasard procure un gain \(X \geq 0\) avec \(E(X) = 4\) €. Majorer \(P(X \geq 12)\).
Solution : \(X \geq 0\) et \(a = 12\), donc par l'inégalité de Markov :
\[P(X \geq 12) \leq \frac{E(X)}{a} = \frac{4}{12} = \frac{1}{3} \approx 0{,}333\]La probabilité de gagner plus de 12 € est au plus \(\frac{1}{3}\).
Soit \(X \sim \mathcal{B}(100;\, 0{,}4)\). Majorer \(P(|X - 40| \geq 10)\).
Solution :
- \(E(X) = np = 100 \times 0{,}4 = 40\)
- \(V(X) = np(1-p) = 100 \times 0{,}4 \times 0{,}6 = 24\)
Avec \(a = 10\) :
\[P(|X - 40| \geq 10) \leq \frac{V(X)}{a^2} = \frac{24}{100} = 0{,}24\]La probabilité de s'écarter de plus de 10 de la valeur 40 est au plus \(0{,}24\).
On lance une pièce (\(p = 0{,}5\)) \(n = 400\) fois. \(F_n\) est la fréquence de "pile". Majorer \(P(|F_n - 0{,}5| \geq 0{,}05)\).
Solution : On utilise \(p(1-p) \leq \frac{1}{4}\) :
\[P(|F_n - 0{,}5| \geq 0{,}05) \leq \frac{1}{4 \times 400 \times (0{,}05)^2} = \frac{1}{4 \times 400 \times 0{,}0025} = \frac{1}{4} = 0{,}25\]La probabilité que la fréquence s'écarte de plus de 5 % de 0,5 est au plus \(0{,}25\).
On veut que \(P(|F_n - p| \geq 0{,}03) \leq 0{,}05\). Quel \(n\) minimum faut-il ?
Solution : On utilise \(p(1-p) \leq \frac{1}{4}\). Il suffit que :
\[\frac{1}{4na^2} \leq 0{,}05 \quad \text{avec } a = 0{,}03\] \[\frac{1}{4n \times 0{,}0009} \leq 0{,}05 \implies 4n \times 0{,}0009 \geq \frac{1}{0{,}05} = 20\] \[n \geq \frac{20}{4 \times 0{,}0009} = \frac{20}{0{,}0036} \approx 5556\]Il faut au moins \(n = 5556\) observations.
On lance un dé équilibré \(n\) fois. La fréquence du "6" est \(F_n\). La loi des grands nombres affirme que \(F_n\) converge en probabilité vers \(p = \frac{1}{6}\).
Concrètement : pour tout \(\varepsilon > 0\), on peut rendre \(P(|F_n - \frac{1}{6}| \geq \varepsilon)\) aussi petit qu'on veut en prenant \(n\) assez grand.
Application numérique avec \(\varepsilon = 0{,}01\) et \(n = 10\,000\) :
\[P\!\left(\left|F_n - \tfrac{1}{6}\right| \geq 0{,}01\right) \leq \frac{1}{4 \times 10\,000 \times 0{,}0001} = \frac{1}{4} = 0{,}25\]Avec \(n = 100\,000\) : le majorant tombe à \(0{,}025\). La convergence est lente mais garantie.
4. Exercices progressifs
Soit \(X\) une variable aléatoire positive avec \(E(X) = 6\).
- Majorer \(P(X \geq 18)\).
- Majorer \(P(X \geq 30)\).
- Peut-on avoir \(P(X \geq 3) \leq 1\) d'après Markov ? Que conclut-on ?
- \(P(X \geq 18) \leq \dfrac{E(X)}{18} = \dfrac{6}{18} = \dfrac{1}{3}\).
- \(P(X \geq 30) \leq \dfrac{6}{30} = \dfrac{1}{5} = 0{,}2\).
- Markov donnerait \(P(X \geq 3) \leq \dfrac{6}{3} = 2\). Cette borne est \(> 1\), elle n'est donc pas informative (une probabilité est toujours \(\leq 1\)). Markov n'est utile que quand le majorant est \(\leq 1\), i.e. quand \(a \geq E(X)\).
Soit \(X\) avec \(E(X) = 15\) et \(V(X) = 9\).
- Majorer \(P(|X - 15| \geq 6)\).
- En déduire une minoration de \(P(9 \leq X \leq 21)\).
- Majorer \(P(|X - 15| \geq 3)\).
- \(P(|X-15| \geq 6) \leq \dfrac{V(X)}{a^2} = \dfrac{9}{36} = \dfrac{1}{4} = 0{,}25\).
- \(P(9 \leq X \leq 21) = P(|X-15| \leq 6) = 1 - P(|X-15| \geq 6) \geq 1 - \dfrac{1}{4} = \dfrac{3}{4} = 0{,}75\).
- \(P(|X-15| \geq 3) \leq \dfrac{9}{9} = 1\). Borne non informative (majorant = 1).
Soit \(X \sim \mathcal{B}(80;\, 0{,}25)\).
- Calculer \(E(X)\) et \(V(X)\).
- Majorer \(P(|X - E(X)| \geq 8)\).
- En déduire une minoration de \(P(12 \leq X \leq 28)\).
- \(E(X) = 80 \times 0{,}25 = 20\) et \(V(X) = 80 \times 0{,}25 \times 0{,}75 = 15\).
- \(P(|X-20| \geq 8) \leq \dfrac{15}{64} \approx 0{,}234\).
- \(P(12 \leq X \leq 28) = P(|X-20| \leq 8) \geq 1 - \dfrac{15}{64} = \dfrac{49}{64} \approx 0{,}766\).
Un sondeur veut estimer la proportion \(p\) d'une opinion dans une population. Il veut que la probabilité que sa fréquence observée \(F_n\) s'écarte de \(p\) de plus de \(2{,}5\%\) soit au plus \(4\%\).
Quel est le nombre minimal de personnes à interroger ?
On utilise \(p(1-p) \leq \dfrac{1}{4}\). On veut :
\[\frac{1}{4na^2} \leq 0{,}04 \quad \text{avec } a = 0{,}025\] \[4n \times (0{,}025)^2 \geq \frac{1}{0{,}04} = 25\] \[4n \times 0{,}000625 \geq 25\] \[n \geq \frac{25}{0{,}0025} = 10\,000\]Il faut interroger au moins 10 000 personnes.
Soit \(X\) une VA d'espérance \(\mu\) et d'écart-type \(\sigma > 0\).
- En posant \(a = k\sigma\) dans l'inégalité de Bienaymé-Tchebychev, montrer que : \[P\bigl(|X-\mu| \geq k\sigma\bigr) \leq \frac{1}{k^2}\]
- En déduire que \(P(\mu - k\sigma \leq X \leq \mu + k\sigma) \geq 1 - \dfrac{1}{k^2}\).
- Appliquer pour \(k=2\) : quelle fraction minimale de la population se trouve dans l'intervalle \([\mu-2\sigma;\, \mu+2\sigma]\) ?
- Appliquer pour \(k=3\). Comparer avec la règle empirique de la loi normale (\(\approx 99{,}7\%\)).
- On applique Bienaymé-Tchebychev avec \(a = k\sigma\) : \[P(|X-\mu| \geq k\sigma) \leq \frac{V(X)}{(k\sigma)^2} = \frac{\sigma^2}{k^2\sigma^2} = \frac{1}{k^2}\]
- \(P(\mu - k\sigma \leq X \leq \mu + k\sigma) = 1 - P(|X-\mu| \geq k\sigma) \geq 1 - \dfrac{1}{k^2}\).
- Pour \(k=2\) : \(P(\mu-2\sigma \leq X \leq \mu+2\sigma) \geq 1 - \dfrac{1}{4} = 75\%\). Au moins 75% de la distribution se trouve dans cet intervalle, quelle que soit la loi de \(X\).
- Pour \(k=3\) : \(P(\mu-3\sigma \leq X \leq \mu+3\sigma) \geq 1 - \dfrac{1}{9} \approx 88{,}9\%\). La loi normale donne \(\approx 99{,}7\%\) : la borne de Tchebychev est donc très pessimiste (valable pour toute distribution), alors que la règle empirique suppose la normalité.
On lance un dé 600 fois et on obtient 120 fois le résultat "6". La fréquence observée est donc \(F_{600} = \dfrac{120}{600} = 0{,}2\). Si le dé est équilibré, la probabilité théorique est \(p = \dfrac{1}{6} \approx 0{,}1\overline{6}\).
- Calculer l'écart \(|F_{600} - p|\) (valeur exacte).
- En utilisant l'inégalité de concentration, majorer \(P\!\left(|F_{600} - p| \geq |F_{600} - p|\right)\) pour un dé équilibré.
- Cette probabilité est-elle faible ? Peut-on conclure que le dé est truqué ?
- \(|F_{600} - p| = \left|0{,}2 - \dfrac{1}{6}\right| = \left|\dfrac{6}{30} - \dfrac{5}{30}\right| = \dfrac{1}{30} \approx 0{,}0\overline{3}\).
- On utilise \(p(1-p) \leq \dfrac{1}{4}\) avec \(n = 600\) et \(a = \dfrac{1}{30}\) : \[P\!\left(|F_{600} - p| \geq \tfrac{1}{30}\right) \leq \frac{1}{4 \times 600 \times \left(\frac{1}{30}\right)^2} = \frac{1}{4 \times 600 \times \frac{1}{900}} = \frac{1}{\frac{2400}{900}} = \frac{900}{2400} = \frac{3}{8} = 0{,}375\]
- Le majorant est \(0{,}375\), ce qui n'est pas négligeable. Avec un dé équilibré, une telle fréquence peut survenir avec une probabilité d'au moins 0 et d'au plus 37,5%. On ne peut pas conclure que le dé est truqué sur la seule base de cette inégalité. (Une analyse par test statistique plus précis serait nécessaire.)
📌 Fiche de synthèse
Les deux inégalités fondamentales
Inégalité de concentration (moyenne empirique)
À retenir absolument
- Markov : uniquement pour les VA positives ou nulles.
- Bienaymé-Tchebychev : borne générale, sans hypothèse sur la loi.
- Trouver \(n\) : résoudre \(\dfrac{1}{4na^2} \leq \varepsilon\) donne \(n \geq \dfrac{1}{4\varepsilon a^2}\).
- Ces bornes sont pessimistes mais universelles.
📐 Démonstrations exigibles
Ces démonstrations sont exigibles au baccalauréat — Terminale Spécialité Mathématiques.
Espérance et variance de la loi binomiale
Si \(X \sim \mathcal{B}(n, p)\), alors \(E(X) = np\) et \(V(X) = np(1-p)\).
On écrit \(X = X_1 + X_2 + \cdots + X_n\) où les \(X_i\) sont des variables de Bernoulli indépendantes de paramètre \(p\) : \(X_i = 1\) avec probabilité \(p\), \(X_i = 0\) avec probabilité \(1-p\).
Calcul pour chaque \(X_i\) :
\[E(X_i) = 0 \cdot (1-p) + 1 \cdot p = p\] \[E(X_i^2) = 0^2 \cdot (1-p) + 1^2 \cdot p = p\] \[V(X_i) = E(X_i^2) - E(X_i)^2 = p - p^2 = p(1-p)\]Espérance de \(X\) (par linéarité) :
\[E(X) = E(X_1) + \cdots + E(X_n) = np\]Variance de \(X\) (par indépendance — la variance d'une somme de variables indépendantes est la somme des variances) :
\[V(X) = V(X_1) + \cdots + V(X_n) = np(1-p) \quad \square\]💻 Exemples d'algorithme
Algorithmes au programme de ce chapitre, à implémenter en Python.
Inégalité de Bienaymé-Tchebychev — vérification simulée
Pour \(S_n \sim \mathcal{B}(n,p)\), calculer \(P\!\left(\left|\frac{S_n}{n} - p\right| > \varepsilon\right)\) et comparer avec la borne \(\frac{p(1-p)}{n\varepsilon^2}\).
import random
def bienayme_simulation(n, p, epsilon=0.1, N=20000):
"""
Estime P(|S_n/n - p| > epsilon) pour S_n ~ B(n, p).
Compare avec la borne de Bienaymé-Tchebychev.
"""
depassements = sum(
1 for _ in range(N)
if abs(sum(random.random() < p for _ in range(n)) / n - p) > epsilon
)
proba_emp = depassements / N
borne_bt = p * (1 - p) / (n * epsilon**2)
return proba_emp, borne_bt
print(f"{'n':>6} | {'P_empirique':>12} | {'Borne B-T':>10} | {'Inégalité?':>10}")
for n in [10, 50, 100, 500, 1000]:
pe, bt = bienayme_simulation(n, 0.3, epsilon=0.1)
ok = "✓" if pe <= bt else "✗"
print(f"{n:>6} | {pe:>12.4f} | {bt:>10.4f} | {ok:>10}")
Simulation d'une marche aléatoire
Une marche aléatoire simule le déplacement d'un point qui avance de +1 ou -1 à chaque pas, illustrant la loi des grands nombres.
import random, math
def marche_aleatoire(N=1000, p=0.5):
"""
Simule une marche aléatoire de N pas.
+1 avec probabilité p, -1 avec probabilité 1-p.
"""
position = 0
trajectoire = [0]
for _ in range(N):
pas = 1 if random.random() < p else -1
position += pas
trajectoire.append(position)
return position, trajectoire
# Simulation et statistiques
nb_sim = 1000
positions_finales = [marche_aleatoire(1000)[0] for _ in range(nb_sim)]
moyenne = sum(positions_finales) / nb_sim
ecart_type = math.sqrt(sum((x - moyenne)**2 for x in positions_finales) / nb_sim)
print(f"Moyenne des positions finales : {moyenne:.2f} (espérance = 0)")
print(f"Écart-type observé : {ecart_type:.2f} (théorique = √1000 ≈ {math.sqrt(1000):.2f})")
Simulation de la loi des grands nombres
Vérifier expérimentalement que la moyenne empirique \(\bar{X}_n\) converge vers \(\mu\) et que son écart-type vaut \(\sigma/\sqrt{n}\).
import random, math, statistics
def simulation_loi_grands_nombres(n, mu, sigma, N=2000):
"""
Simule N échantillons de taille n de loi N(mu, sigma²).
Compare l'écart-type des moyennes observées avec sigma/sqrt(n).
"""
moyennes = [
statistics.mean(random.gauss(mu, sigma) for _ in range(n))
for _ in range(N)
]
s_obs = statistics.stdev(moyennes)
s_theor = sigma / math.sqrt(n)
print(f"n = {n:5d} | s_obs = {s_obs:.5f} | σ/√n = {s_theor:.5f}")
print("Vérification du théorème central limite\n")
for n in [10, 50, 100, 500, 1000]:
simulation_loi_grands_nombres(n, mu=0, sigma=1)