Leçon 229 : Suite de variables aléatoires indépendantes

Download Report

Transcript Leçon 229 : Suite de variables aléatoires indépendantes

229
Probabilités
229 - S UITES
DE VARIABLES ALÉATOIRES INDÉPENDANTES DE MÊME LOI DE
B ERNOULLI . VARIABLE ALÉATOIRE DE LOI BINOMIALE
Prérequis : Variable aléatoire discrète, indépendance, moments, théorème de transfert, inégalité de BienayméTchébychev, fonction génératrice, produit de convolution.
Notations : (Ω, F , P) espace probabilisé.
I)
Loi du succès d’un schéma de Bernoulli
A)
Épreuve à deux issues, loi de Bernoulli
Déf 1 : (loi de Bernoulli)
¡ ¢
Soit X une variable aléatoire et p ∈]0, 1[. On dit que X suit une loi de Bernoulli de paramètre p , et on note X ∼ B p s’il
existe A ∈ F tel que P(A) = p et que X = 1A .
¡ ¢
Csq : Si X ∼ B p , P(X = 1) = p = 1 − P(X = 0).
Prop 1 : (Espérance, variance, fonction génératrice)
¡ ¢
Si X ∼ B p , alors E(X) = p et V(X) = p(1 − p) et ∀s ∈ [−1, 1], GX (s) = 1 − p + sp .
Rem 1 : Une variable aléatoire de Bernoulli correspond à une expérience aléatoire à deux issues, succès ou échec.
B)
Schéma de Bernoulli, loi binomiale
Déf 2 : (loi binomiale)
Soit n ∈ N∗ et p ∈]0, 1[. Soit encore (Ai )1≤i ≤n une suite d’évènements indépendants de même probabilité
p et X une
¡
¢
variable aléatoire réelle. On dit que X suit une loi binomiale de paramètres n et p , et on note X ∼ B n ; p si X a la
P
même loi que ni=1 1Ai .
¡
¢
¡ ¢
Csq : Si X ∼ B n ; p , X(Ω) = J0, n K et ∀k ∈ J0, n K, P(X = k) = nk p k (1 − p)n−k .
Preuve : Soit n ∈ N∗ et p¡∈]0, 1[¢ et (Ai )1≤i ≤n une suite d’évènements indépendants et de probabilité p . Posons X =
Pn
i =1 1Ai . On a bien X ∼ B n ; p .
On a automatiquement X(Ω) = J0, n K car les (1Ai ) valent 0 ou 1 et sont en nombre n .
Soit k ∈ J0, n K, l’évènement (X = k) n’est réalisé que si exactement k variables aléatoires 1Ai valent 1 et n − k valent 0 :
"
(X = k) =
G
# "
#
\¡
¢ \ \¡
¢
1Ai = 1
1Ai = 0
J⊂J0,n K, |J|=k i ∈J
i 6∈J
Les évènements (Ai )1≤i ≤n sont indépendants, donc (Ai ; Ai )1≤i ≤n
aussi, et donc, par σ-additivité et en notant
X le sont
que P(1Ai = 1) = p et P(1Ai = 0) = 1 − p , on obtient P(X = k) =
p k (1 − p)n−k .
Or il y a exactement
¡n ¢
k
J⊂J0,n K, |J|=k
parties à k éléments dans J0, n K, d’où le résultat :
¡n ¢
k
p k (1 − p)n−k .
Prop 2 : (Espérance, variance, fonction génératrice)
¡
¢
Si X ∼ B n ; p , alors E(X) = np , V(X) = np(1 − p) et ∀s ∈ [−1, 1], GX (s) = (1 − p + sp)n .
¡
¢
¡
¢
¡
¢
Prop 3 : Si X et Y sont indépendantes et X ∼ B n ; p et Y ∼ B m ; p , alors X + Y ∼ B n + m ; p
Application : (Théorème de Weierstrass)
On peut approcher uniformément toute fonction continue sur [0, 1] par une suite de polynômes.
1
■
229
Probabilités
II )
Approximations de la loi binomiale
A)
Théorème de Poisson
Déf 3 : Soit λ > 0 et X une variable aléatoire discrète. On dit que X suit une loi de Poisson si X(Ω) = N et si ∀k ∈ N,
P(X = k) = e −λ λk! . Dans ce cas, on note X ∼ P (λ).
k
Prop 4 : Si X ∼ P (λ), E(X) = λ, V(X) = λ et ∀s ∈ [−1, 1], GX (s) = exp (λ(s − 1)).
Rem 2 : La loi de Poisson est utilisée pour approcher la probabilité de phénomènes rares comme l’apparition de
tremblements de terre dans une zone donnée.
Thm 1 : (de Poisson)
¡
¢
Soit (p n ) ∈]0, 1[N pour laquelle il existe λ > 0 tel que np n −→ λ. Soit encore ∀n ∈ N, S n ∼ B n ; p n .
n→∞
½ ¡n ¢ k
n−k
λk
p
(1
−
p
)
si
k
≤
n
n
n
k
Posons ∀k ∈ N, P(S n = k) =
. Alors ∀k ∈ N, P(S n = k) −→ e −λ
n→∞
0
sinon
k!
³
´n ³
´−k
k
1 − nλ
∼ e −λ × 1.
Preuve : np n ∼ λ d’où p n ∼ nλ et ∀k ∈ N, p n ∼ nλk et (1 − p n )n−k = (1 − p n )n (1 − p n )−k ∼ 1 − nλ
∞
∞
∞
∞
∞
¡n ¢ n k
¡n ¢ k
n−k
−λ λk
∼ e k! .
De plus k ∼ k! , ce qui amène bien à k p n (1 − p n )
■
∞
∞
Rem 3 : Le théorème de Poisson permet d’approcher une loi binomiale, qui modélise une succession de tirages avec
remise, lorsque le nombre de tirages tend vers l’infini et lorsque l’espérance a une limite finie. En pratique, on l’utilise
lorsque n est grand (de l’ordre de 30) et p est petit (de l’ordre de 0, 1).
¡
ex 1 : Parmi n personnes, la loi du nombre de personnes nées le 1er janvier suit une loi B n ;
n
.
ment grand, on peut l’approcher par une loi P (λ) où λ = 365
B)
1
365
¢
. Pour n suffisam-
Théorème de De Moivre-Laplace
1 ) Loi normale, théorème de De Moivre-Laplace global
Déf 4 : Soit µ ∈ R et σ2 > 0. On dit qu’une variable aléatoire X suit une loi gaussienne ou normale de paramètres µ et
³
´
¡
¢
(x−µ)2
σ2 , et on note X ∼ N µ ; σ2 si elle admet la densité x 7→ p 1 2 exp − 2σ2 définie sur R.
2πσ
Lorsque µ = 0 et σ2 = 1, on dit que X suit une loi gaussienne ou normale centrée réduite.
¡
¢
Prop 5 : Si X ∼ N µ ; σ2 , alors E(X) = µ et V(X) = σ2 .
Rem 4 : La densité de la loi normale centrée réduite est souvent notée φ et sa fonction de répartition Φ.
Application : (Théorème de De Moivre-Laplace global)
¡
¢
S n − E(S n )
Soit p ∈]0, 1[, posons q = 1 − p . Soit encore ∀n ∈ N∗ S n ∼ B n ; p . Posons ∀n ∈ N∗ , Z n =
.
σS n
Z b
x2
1
Alors ∀(a, b) ∈ R2 , a < b , P(a ≤ Z n ≤ b) −→
e− 2 d x.
n→∞ 2π a
2 ) Approximation de la loi binomiale, application aux intervalles de confiance
ex 2 : Onà jette!1 200 fois un dé. Quelle est la probabilité d’obtenir entre 180 et 210 fois la face 1 ? La probabilité est
µ ¶ µ ¶
210
X 1200 1 k 5 1200−k
P=
.
k
6
6
k=180


¶
µ
180 − E(S 1200 )
210 − E(S 1200 )
210 − 200 
 180 − 200
(180 ≤ S 1200 ≤ 200) =
≤ Z 1200 ≤
= q
≤ Z 1200 ≤ q
.
σS n
σS n
1200 × 16 × 56
1200 × 61 × 56
Ã
!
Ã
!
Et donc P ' Φ
q 10
5
1200× 36
−Φ
q −20
5
1200× 36
' 0, 72
2
229
Probabilités
ex 3 : (Intervalle de confiance et contrôle de qualité)
Au terme d’un processus de fabrication, on effectue un contrôle de qualité des pièces produites : sur un lot de n = 200
pièces, 24 sont défectueuses.
Premier problème : On veut estimer la proportion¡ p¢de pièces défectueuses (dans l’ensemble du stock) avec un indice
de certitude de 0, 95. On note ∀k ∈ J1, n K, X k ∼ B p les variables aléatoires de Bernoulli désignant l’état de la k -ième
pièce (le « succès » est alors le fait que la k -ième pièce est défectueuse. Chacune de ces variables aléatoires a pour
espérance p et pour variance σ2 = p(1 − p).
P
On note alors X n = n1 nk=1 X k la moyenne empirique de la famille (X i )1≤i ≤n . On a d’après l’énoncé X n = 0, 12. D’après le
³
´
P
2σ
théorème de De Moivre Laplace appliqué à S n = nk=1 X k , on déduit que P |X n − p| < p
' 0, 95. On estime alors σ par
n
q
¡
¢
¡
¢
X n (1 + X n ) ' 0, 325 et on obtient l’approximation : P |p − 0, 12| < 0, 046 ' 0, 95, on encore P 0, 07 < p < 0, 16 ' 0, 95
Second problème : Combien suffit-il de contrôler de pièces pour avoir, avec un risque de 0, 05, un intervalle de
confiance centré de longueur 0, 04 ? p
On cherche n pour que l’amplitude
2
p(1−p)
p
n
exactement, on majore le produit p(1 − p) par
de la fourchette soit inférieure à 0, 04. Comme on ne connaît pas p
1
4.
On trouve alors
Sources :
1. Probabilités 1, J-Y. Ouvrard, Cassini
2. Probabilités pour l’agrégation interne, Chafaï-Zitt
3. Probability and random processes, Grimmet-Stirzaker, OUP
4. Les maths en pratique, F. Liret, Dunod
5. Analyse pour l’agrégation, Queffélec-Zuily, Dunod
3
p1
n
≤ 0, 04 d’où n ≥ 252 = 625.