le cinquieme fils. - PDF eBooks Free | Page 1

Download Report

Transcript le cinquieme fils. - PDF eBooks Free | Page 1

Variable aléatoire discrète
I.
Variable aléatoire discrète
I.1
Rappel : Image réciproque par une application
Définition 1
Soit f : E −→ F une application de B ⊂ F . On appelle image réciproque de B par f l’ensemble
f −1 (B) = {x ∈ E | f (x) ∈ B}
Exemple :
4
Considérons la fonction de R dansR définie par f (x) = x2 .
On a f [1, 2] = [1, 4] et f −1 [1, 4] = [−2, −1] ∪ [1, 2]
On a notamment f −1 f ([1, 2]) 6= [1, 2]
3
2
1
−2
Attention :
!
−1
1
2
L’emploi de la notation f −1 ne sous-entend en rien que f est bijective.
Proposition 1
f −1
[
i∈I
[
f −1 (Bi )
Bi =
et
i∈I
\
i∈I
(f ◦ g)−1 (B) = g −1
I.2
f −1
\
f −1 (Bi )
Bi =
i∈I
f −1 (B)
Définition
Définition 2
Soit (Ω, A, P ) un espace probabilisé. On appelle variable aléatoire discrète sur (Ω, A, P ) toute application
X : Ω 7→ R vérifiant les deux conditions :
1. X(Ω) = {X(w) | w ∈ Ω} est finie ou dénombrable (i.e. au plus dénombrable.)
On peut donc numéroter ses éléments à l’aide d’indices entiers :
X(Ω) = {x0 , x1 , x2 , . . . , xn , . . . }
2. ∀ n ∈ N, {X = xn } = {w ∈ Ω | X(w) = xn } = X −1 {xn } ∈ A
Autrement dit {X = xn } est un évènement. On le note aussi [X = xn ] ou (X = xn )
Exemples :
1. On lance une pièce équilibré : on gagne 1D si la pièce donne façe , on perd 1D sinon. Ceci peut être
modélisé par Ω = {p, f }, P l’équiprobabilité sur Ω, A = P(Ω) et X l’application X : Ω 7→ {−1, 1}
avec X(p) = −1 et X(f ) = 1.
1
2. On lance deux dés équilibrés et on s’intéresse à leur somme. Celle-ci est une variable aléatoire
discrète X à valeurs dans {2, . . . , 12}, Ω = [[ 1, 6 ]]2 muni de la tribu P(Ω) et de l’équiprobabilité P .
Remarque :
{X = xk }
est un système complets d’évènements.
k∈N G
(puisque disjoint et
{X = xk } =
G
X −1 ({xk }) = X −1
{xk }
= X −1 (X(Ω)) = Ω)
k∈N
k∈N
k∈N
G
Proposition 2
Pour tout A ⊂ X(Ω), X −1 (A) est un évènement. On le note {X ∈ A} ou (X ∈ A).
Remarque :
C’est toujours vrai pour A ⊂ R, puisque X −1 (A) = X −1 A ∩ X(Ω) et A ∩ X(Ω) est au plus
dénombrable.
Proposition 3
opérations sur les variables aléatoires
Si X et Y sont des variables aléatoires discrètes sur (Ω, A, P ) et λ ∈ R, alors X + Y , λX, XY , max(X, Y )
et min(X, Y ) sont des variables aléatoires discrètes.
Si f est une fonction de X(Ω) dans R, f ◦ X, que l’on note abusivement f (X), est une variable
aléatoire.
Remarques :
• Notamment, X 2 et
1
X
(si défini) sont des variables aléatoires .
• L’ensemble des variables aléatoires est un espace vectoriel .
I.3
Loi d’une variable aléatoire
Définition 3
Soit X une variable aléatoire discrète dont l’image est à valeurs dans (xi )i∈I , (I ⊂ N.)
On appelle loi, ou distribution, de X la famille des (pi )i∈I , où :
∀i ∈ I, pi = P (X = xi )
Exemples :
1. Pile ou face : la loi de X est donnée par p−1 = p1 = 1/2. On dit que X suit une loi uniforme sur
l’ensemble {−1, +1}.
2. Lancer de deux dés : la loi de X est donnée par le vecteur ligne p = (p2 , p3 , . . . , p12 ) suivant :
1 2 3 4 5 6 5 4 3 2 1
, , , , , , , , , ,
p=
36 36 36 36 36 36 36 36 36 36 36
Exemple 1 : Un sauteur tente de franchir des hauteurs successives numérotées 1, 2, . . . , n, . . . Il n’essaie
de franchir la hauteur n que s’il a réussi à passer les hauteurs précédentes. Si le sauteur a déjà réussi
les n premiers sauts, la probabilité qu’il franchisse avec succès la n-ième hauteur est n1
2
Soit X la variable aléatoire égale au numéro de la dernière hauteur franchie correctement. Déterminer la
loi de X.
Pour n ∈ N∗ , soit An l’évènement « le sauteur a franchi la hauteur n ». Par hypothèse, on a pour
1
tout n > 2, P (An |A1 ∩ ... ∩ An−1 ) = ·
n
Par la formule des probabilités composées, on obtient donc, pour n > 1,
P (An ) = P (A1 ∩ · · · ∩ An ) =
1
n!
Pour tout n ∈ N∗ , P (An ) = P (X > n) = P (X = n) + P (X > n)
= P (X = n) + P (X > n + 1)
= P (X = n) + P (An+1 )
1
1
Par suite ∀ n ∈ N∗ , P (X = n) =
−
n! (n + 1)!
Remarque :
Comme ∀ n ∈ N, 0 6 P
\
Ap
p∈N∗
6 P (An ) −−−−−→ 0 l’évènement « le sauteur franchit toutes les hauteurs » est
n→+∞
quasi-impossible ce qui justifie la supposition d’une hauteur maximale dans l’énoncé
Proposition 4
Si X prend ses valeurs dans {xn | n ∈ N}, les xn étant distincts, et si (pn )n∈N est une suite de réels positifs
+∞
X
vérifiant
pn = 1 , alors il existe une probabilité P sur (Ω, A) telle que
n=0
∀ n ∈ N, P (X = xn ) = pn .
On note alors PX la mesure de probabilité définie par PX (xn ) = P (X = xn )
Remarque :
Si X(Ω) est finie, on a le même énoncé mais avec une somme finie.
Exemple 2 : Si X(Ω) = N.
On définit une de probabilité tel que par P ({X = k}) = e−λ
En effet on a bien
+∞
X
eλ
n=0
+∞ k
X
λk
λ
= e−λ
= e−λ eλ = 1.
k!
k!
n=0
L’évènement {X ∈ 2N} a alors pour probabilité
P X ∈ 2N) = P
!
λk
k!
+∞
G
{X = 2k}
k=0
!
=
+∞
X
1 + e2λ
. En effet :
2
P (X = 2k) = e−λ
k=0
+∞
X
eλ + e−λ
λ2k
= e−λ ×
(2k)!
2
k=0
Attention :
Deux variables peuvent avoir la même loi et ne pas être identiques :
On jette une pièce équilibré. X renvoi 1 si la pièce donne pile, sinon. Y fait l’inverse. On a PX = PY
mais X 6= Y puisque X(P ) = 1 ⇐⇒ Y (P ) = 0 (Ω = {P, F })
Définition 4
Soit X une variable aléatoire discrète. On appelle fonction
de répartition de X la fonction FX de R dans
[0, 1] définie par FX (x) = P (X 6 x) = PX ] − ∞, x] .
3
Proposition 5
• Une fonction de répartition est une fonction croissante.
•
lim FX (x) = 0, lim FX (x) = 1.
x→−∞
x→+∞
Exemple : Fonction de répartition de loi uniforme,de loi géométrique (dessin)
I.4
I.4.a
Exemples usuels de lois d’une variable aléatoire
Loi uniforme sur un ensemble fini de réels (rappel PCSI)
C’est la loi correspondant à l’équiprobabilité :
Définition 5
On dit que la variable aléatoire discrète X suit une loi uniforme sur l’ensemble {1, . . . n} si X(Ω) =
{1, . . . n} et
1
∀ k ∈ [[ 1, n ]], P (X = 1) =
n
On note alors X ֒→ U{1,...n}
C’est bien une loi de probabilité puisque
n
X
P (X = k) =
k=1
I.4.b
n
X
1
=1
n
k=1
Loi de Bernouilli (rappel PCSI)
C’est la loi exprimant le succès (ou l’echec) d’une expérience à deux issus :
Définition 6
On dit que la variable aléatoire discrète X suit la loi de Bernouilli de paramètre p ∈]0, 1[ si X(Ω) = {0, 1}
et
P (X = 1) = p et P (X = 0) = 1 − p
On note alors X ֒→ B(p)
Remarques :
• Si X(Ω) = {a, b}, on parlerait plutôt de loi de Rademacher que de loi de Bernouilli
1 si w ∈ A
• En notant A = {X = 1}, on a X = 1A : w 7→
.
0 si w 6∈ A
1A est appelée fonction indicatrice ou fonction caractéristique de A. On la note aussi χA .
I.4.c
Loi binomilale (rappel PCSI)
Il s’agit de la loi du nombre de succès obtenus en répétant n fois des épreuves indépendantes avec pour
chaque épreuve une probabilité de succès p (cf exemple ?? page ??).


P (X = k) = P 

G
I⊂{1,...,n}
Card(I)=k


\
i∈I
Si ∩
\
j6∈I



Sj  
=
4
X
I⊂{1,...,n}
Card(I)=k


Y
i∈I
P (Si )
Y
j6∈I

P (Sj )
Définition 7
On dit que la variable aléatoire discrète X suit la loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[ si
X(Ω) = {0, 1, 2, . . . , n} et
n k
∀ k ∈ [[ 0, n ]], P (X = k) =
p (1 − p)n−k
k
On note alors X ֒→ B(n, p)
C’est bien une loi de probabilité puisque
n
X
P (X = k) =
k=1
n X
n
n k
p (1 − p)n−k = p + (1 − p = 1
k
k=1
Remarque :
La loi géométrique est un cas particulier de loi binomiale : B(p) = B(1, p)
Proposition 6
Soit X1 , . . . , Xn n variables indépendantes suivant la même loi de Bernoulli B(p), alors la variable X =
X1 + · · · + Xn suit une loi binomiale B(n, p).
Remarque :
Autrement dit, lors d’un tirage de n boules sans remise, il revient au même de faire n tirages (indépendant) successifs ou de tirer les n boules d’un seul coup.
I.4.d
Loi géométrique
On lance un dé équilibré jusqu’à l’apparition d’un 6. Soit X la variable aléatoire donnant le rang du
k−1
1 5
(cf voir exemple ?? )
premier 5. On a P (X = k) =
6 6
P (A) = P
Sk ∩
k−1
\
i=1
Si
!
= P (Sk )
n
Y
i=1
P Si
par indépendance
Définition 8
On dit que la variable aléatoire discrète X suit la loi géometrique de paramètre p ∈]0, 1[ si X(Ω) = N∗ et
∀ k ∈ N∗ , P (X = k) = p(1 − p)k−1 = pq k−1
On note alors X ֒→ G(p)
C’est bien une loi de probabilité puisque pour p ∈]0, 1[, on a |1 − p| < 1 d’où
+∞
X
k=1
P (X = k) =
+∞
X
k=1
p(1 − p)k−1 = p
1
=1
1 − (1 − p)
Remarques :
• La loi géométrique peut être interprétée comme rang du premier succès dans une suite illimitée
d’épreuves de Bernoulli indépendantes et de même paramètre p.
• Il existe une variante de la loi géométrique à valeur dans N donnée par P (X = k) = pq k . Cette
variante s’interpréterait comme le nombre d’échec avant le premier succès.
5
Proposition 7
Soit X une variable aléatoire à valeur dans N∗ telle que P (X = 1) 6∈ {0, 1}.
X suit une loi géométrique si, et seulement si
∀ (k, n) ∈ N2 , P (X > n + k | X > n) = P (X > k)
On dit que la loi géométrique est une loi sans mémoire
Ce vocabulaire est issus de ce qu’on appelle les processus de Markov où n et p sont des temps. Cela traduit que des propriétés
des variables aléatoires dans le futur dépendent uniquement des informations du temps présent, pas des informations issues
du passé
démonstration :
P (X > n + k | x > n) = P (X > k) =
=
P (X > n + k) ∩ (x > n)
P (X > n)
p(1 − p)n+k−1
= p(1 − p)k−1
p(1 − p)k−1
=
P (X > n + k)
P (X > n)
Réciproquement : Soit (un )n∈N définie par un = P (X > n).
La relation ∀ (k, n) ∈ N2 , P (X > n + k | X > n) = P (X > k) devient
∀ (k, n) ∈ N2 , un+k = un uk
Notamment pour k = 1, ∀ n ∈ N∗ , un+1 = un u1 . C’est donc une suite géométrique de raison q = u1 d’où
∀ n ∈ N∗ , un = P (X > n) = q n
Mais P (X = n) = P (X > n − 1) − P (X > n) = q n−1 − q n = (1 − q)q n−1 .
Il suffit de poser p = 1 − q (∈]0, 1[ par hypothèse).
Exemple : On lance un dé jusqu’à l’apparition d’un 5. On a X ∼ G
1
6
.
Après trois lancers, toujours pas de 5. Quelle est la loi du nouveau temps d’attente jusqu’à apparition
du 5 ?
Réponse : la même. Une loi géométrique de paramètre 51 puisque P (X = 3 + p | X > 3) = P (X = p)
I.4.e
Loi de Poisson
Contrairement aux autres loi, il n’est pas aisé de donner une modélisation élémentaire de la loi de Poisson.
Concrêtement on l’utilise pour décrire le comportement du nombre d’évènements se produisant dans un
laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l’évènement précédent.
Voilà quelques exemples d’utilisations : nombre de véhicule franchissant un péage pendant une temps t,
survenue annuelle d’ourangan aux états unis, émission de particules radioactive dans un temps t donné,
la finance pour modéliser la probabilité de défaut d’un crédit, estimation de nombres de passager par les
compagnie aérienne...
Définition 9
On dit que la variable aléatoire discrète X suit la loi de Poisson de paramètre λ > 0 si X(Ω) = N et
P (X = k) =
e−λ λk
k!
On note alors X ֒→ P(λ). La loi de Poisson est aussi appelée loi des évènements « rares »
C’est bien une loi de probabilité puisque
+∞
X
P (X = n) =
n=0
6
+∞ −λ k
+∞ k
X
X
e λ
λ
= e−λ
= e−λ eλ = 1
k!
k!
n=0
n=0
Le théorème suivant donne une approximation de la loi binomiale par la loi de Poisson :
Théorème 1 Théorème de Poisson
Soit (pn )n∈N une suite de ]0, 1[N et λ > 0 tel que lim npn = λ (c’est-à-dire pn ∼
n→+∞
λ
n ).
Soit (Xn )n∈N une suite de variable aléatoire tel que Xn ֒→ B(n, pn ) alors pour k ∈ N
lim P (Xn = k) = e−λ
n→+∞
λk
k!
Remarque :
Autrement dit, si p est « petit », n « grand » et si X ֒→ B(n, p) alors sa loi est approximativement la
loi de poisson P(np). En général, si n > 30 et p 6 0, 1, il est d’usage de remplacer la loi binomiale par
la loi de poisson.
Si npn = λ on peut montrer (résultat hors-programme et difficile) que
+∞ k
X
P (Xn = k) − e−λ λ 6 2λ min(2, λ) .
k! n
k=0
Exemple 3 : Un président d’un bureau de vote décide de noter le nombre X de personnes ayant leur
anniversaire le même jour que lui parmi les 500 premiers électeurs qui se présentent.
La situation peut être assimilée suite d’épreuves indépendantes et X ֒→ B(500, 1/365)
(en négligeant la question des années bissextiles sinon on prendrait p = 4/(3 × 365 + 366), ce qui ne changerait pas
grand chose numériquement).
n−k
364
500
1
.
Ainsi : P (X = k) =
k 365k 365
500
. Voilà une comparaison
On approxime la loi de X par une loi de Poisson de paramètre λ = np =
365
numérique pour des petites valeurs de k :
k
P (X = k)
e−λ λk
k!
0
0,2537
0,2541
1
0,3484
0,3481
2
0,2388
0,2385
3
0,1089
0,1089
4
0,0372
0,0373
5
0,0101
0,0102
Proposition 8
Soit X1 , X2 deux variables aléatoires discrètes indépendantes suivant respectivement les lois P(λ) et P(µ).
Alors X = X1 + X2 ֒→ P(λ + µ).
I.5
Couple de variables aléatoires indépendantes
I.5.a
Loi conjointe et marginale
Définition 10
Soit X, Y deux variables aléatoires sur l’espace probabilisé (Ω, A, P ).
Z = (X, Y ) est appelé couple de variables aléatoires (ou variables aléatoire de dimension 2). On le définit
comme étant l ’application
Z : Ω
ω
Rn
X(ω), Y (ω)
−→
7−→
X est appelée première marginale du couple (X, Y ), et Y seconde marginale.
Remarque :
Le vecteur aléatoire (X1 , . . . , Xn ) permet de transporter la probabilité P de A sur Rn .
7
Définition 11
La loi de Z = (X, Y ) est appelée loi conjointe du couple de variables aléatoires (X, Y ). Elle correspond
à la famille de réels (px,y )x∈X(Ω)×Y (Ω) définie par
∀ (x, y) ∈ X(Ω) × Y (Ω), px,y = P (X = x, Y = y) = P (X, Y ) = (x, y)
|
{z
}
notation
Les lois PX et PY de X et Y sont appelés loi marginales du couple (X, Y ).
Remarque :
La loi conjointe est alors une mesure de probabilité sur X(Ω) × Y (Ω) souvent notée, PX,Y (attention
à ne pas faire de confusion avec les probabilités conditionnelles), définie pour B ⊂ X(Ω) × Y (Ω) par
PX,Y (B) = P (X, Y ) ∈ B = P ω ∈ Ω | X(ω), Y (ω) ∈ B
|
{z
}
notation
Si B s’écrit B = I × J, on note alors PX,Y (B) = P (X ∈ I, Y ∈ J). La définition correspond au cas
B = {(x, y)} = {x} × {y}.
Proposition 9
En notant X(Ω) = {xi | i ∈ N} et Y (Ω) = {yj | j ∈ N} ,
P (X = xi ) =
+∞
X
P (X = xi , Y = yj )
et
P (Y = yj ) =
P (X = xi , Y = yj )
i=0
j=0
!
+∞
X
Attention :
Autrement dit, la connaissance de PX,Y permet de déterminer PX et PY .
La réciproque est fausse, comme le montre l’exemple ci-dessous
Exemple 4 : On tire au hasard deux nombres dans {1, 2}. On note X la valeur du premier tirage, Y du
second. On pose Z = 3 − X.
X, Y et Z suivent la loi uniforme sur {1, 2} mais (X, Y ) et (X, Z) n’ont pas la même loi.
X
Y
1
2
1
2
1
4
1
4
1
4
1
4
1
2
1
0
1
2
2
1
2
0
X
loi de (X,Y)
Z
loi de (X,Z)
Autrement dit (X, Y ) et (X, Z) ont même lois marginales mais pas même lois conjointes.
Exemple 5 : Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[
et la probabilité d’obtenir face q = 1 − p, on note X le rang d’apparition du premier pile et Y le rang
d’apparition du second pile.
Donner les loi conjointes et marginale.
On a X(Ω) = N∗ et Y (Ω) = [[ 2, +∞[[ .
• Pour n > k, P (X = n, Y = k) = 0 par définition de X et Y .
• Pour n < k P (X = n, Y = k) = p2 q k−2 car l’événement {X = n, Y = k} est réalisé si on
obtient pile aux n-ième et k-ième lancers, les tirages entre le premier et le k-ième différents de
ces deux-là donnant face et les résultats des différents lancers étant indépendants.
8
On a pour (n, k) ∈ N∗ × [[ 2, +∞[[
P (X = n) =
+∞
X
P (X = n, Y = k) =
n=1
=
+∞
X
P (X = n, Y = k) =
k=n+1
2 n+1
q
p
= pq n−1
q
1−q
+∞
X
p2 q k−2
k=n+1
On retrouve sans surprise que X suit la loi G(p).
P (Y = k) =
k−1
X
P (X = n, Y = k) =
k−1
X
n=1
n=1
p2 q k−2 = (k − 1)p2 q k−2
On dit que Y suit une loi de Pascal de paramètre (2, p)
I.5.b
Loi conditionnelle
Définition 12
Soit X et Y deux variables aléatoires sur (Ω, A, P ) et soit x ∈ X(Ω) tel que P (X = x) 6= 0.
On appelle loi conditionnelle de Y sachant (X = x) la loi de X dans l’espace probabilisé (Ω, A, P(X=x) ).
Pour y ∈ Y (Ω), elle est donc définie par : définie par
P(X=x) (Y = y) = P (Y = y|X = x) =
P (Y = y, X = x)
P (X = x)
Exemple 6 : Dans l’exemple précédent, on a alors pour (n, k) ∈ N∗ × [[ 2, +∞[[
 2 k−2
p q
k−n+1
P (X = n, Y = k)  n−1 = pq
= pq
P(X=n) (Y = k) =

P (X = n)

0
et
P(Y =k) (X = n) =
Proposition 10



P (X = n, Y = k)
=

P (Y = n)

si n < k,
sinon.
1
p2 q k−2
=
2
k−2
(k − 1)p q
k−1
0
Loi conjointe par lois marginales et lois conditionnelles
si n < k,
sinon.
Soit (X, Y ) un couple de variables aléatoires tel que, pour tout (x, y) ∈ X(Ω)×Y (Ω), on ait P (X = x) 6= 0
et P (Y = y) 6= 0. Alors :
1. P (X = x, Y = y) = P (X = x)P (Y = y|X = x).
2. P (X = x) =
X
P (Y = y)P (X = x|Y = y).
y∈Y (Ω)
3. P (Y = y) =
X
P (X = x)P (Y = y|X = x).
x∈X(Ω)
Remarque :
Ce qui permet de déterminer la loi conjointe connaissant une loi marginale d’une des variable associée
à la probabilité conditionnelle de l’autre variable.
Exemple 7 : Soient X et Y deux variables aléatoires à valeurs dans N tel que pour tout entier naturel
m, la loi conditionnelle de X sachant {Y = m} soit la loi binomiale B(m, p). Déterminer la loi de X.
9
Pour k ∈ N, comme {Y = m} est un système complet d’évènements,
P (X = k)
=
+∞
X
P (X = k, Y = m) =
m=0
+∞
X
P(Y =m) (X = k)P (Y = m)
m=0
m−k
+∞
+∞ X
λm −λ pk λk −λ X (1 − p)λ
m k
e =
e
p (1 − p)m−k
m!
k!
(m − k)!
k
m=k
m=k
i
+∞
(pλ)k −λ X (1 − p)λ
(pλ)k −λ (1−p)λ
=
e
=
e e
k!
i!
k!
i=0
=
=
(pλ)k −pλ
e
k!
Donc X ֒→ P(pλ)
I.5.c
Variables aléatoires indépendantes
Définition 13
Deux variables aléatoires X et Y sont dites indépendantes si pour tout (x, y) ∈ X(Ω) × Y (Ω)
P (X = x, Y = y) = P (X = x)P (Y = y)
Remarque :
Si l’on connaît la loi de X et celle de Y et si l’on sait que X et Y sont indépendantes, alors on peut
reconstruire la loi conjointe du couple (X, Y ) à partir des lois marginales.
Proposition 11
Deux variables aléatoires discrètes X et Y sur Ω, A, P sont dites indépendantes si, et seulement si pour
tout (A, B) ∈ A2 , {X ∈ A} et {Y ∈ B} sont indépendants c’est-à-dire
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B)
Remarque :
{X ∈ A, Y ∈ B} = {X ∈ A} ∩ {Y ∈ B}, on retrouve bien la notion d’évènements indépendants.
Proposition 12
Images de variables indépendantes
Soient X et Y des variables aléatoires indépendantes sur (Ω, A, P ). Soit f une fonction définie sur X(Ω)
et g une fonction définie sur Y (Ω). Alors les variables aléatoires f (X) et g(Y ) sont indépendantes.
Exemple : Si X et Y sont indépendantes, alors pour tout m ∈ N∗ , X m et Y m aussi.
Exemple 8 : Soient X et Y deux variables aléatoires indépendantes sur le même espace probabilisé
(Ω, A, P ), suivant toutes deux une loi géométrique de paramètre 12 et soit k ∈ N∗ ·
Déterminer la probabilité de l’événements {X > kY }.
Comme {Y = i} i∈N∗ est un système complet d’évènements, on a
P (X > kY ) =
+∞
X
P (X > kY, Y = i) =
+∞
X
i=1
i=1
10
P (X > kiY, Y = i)
Les variables X et Y étant indépendante, on a
P (X > ki, Y = i) =

P (X > ki)P (Y = i) = 
+∞
X
q=ki
=
Ainsi P (X > kY ) = 2
ki
1
1
2
1−
1
2

P (X = q)
1
2i
(k+1)i
1
1
· i =2
2
2
i
+∞ X
2
1
1
1
= k+1
= 2 k+1
.
1
k+1
2
2
2
−1
1
−
2k+1
i=1
Extension à n variables aléatoires
Des variables aléatoires X1 , . . . , Xn sur Ω, A, P sont dites mutuellement indépendantes (ou tout simplement indépendantes) si pour tout pour tout i ∈ [[ 1, n ]] et pour tout Ai ∈ A, les évènements
{X1 ∈ A1 }, . . . , {Xn ∈ An } sont indépendants c’est-à-dire
définition 14
P (X1 ∈ A1 , . . . , Xn ∈ An ) = P (X1 ∈ A1 ) . . . . . . P (Xn ∈ An )
Remarque :
On admettra que X1 , . . . , Xn sont mutuellement indépendantes si, et seulement si (x1 , . . . , xn ) ∈
X1 (Ω) × · · · × Xn (Ω), les évènement {X1 = x1 }, . . . , {Xn = xn } sont indépendants, c’est-à-dire si on
n
Y
a
P (Xi = xi ).
P (X1 = x1 , . . . , Xn = xn ) =
i=1
!
Attention :
Comme pour les évènements mutuellement indépendants, n variables mutuellement indépendantes
sont 2 à 2 indépendantes. La réciproque est fausse.
Exemple : Si X1 , . . . , Xn sont mutuellement indépendantes à valeurs dans N alors Sn−1 = X1 +. . .+Xn−1
et Xn sont indépendantes. En effet
X
P (Sn = k, Xn = p) =
P (X1 = k1 , . . . , Xn−1 = kn−1 , Xn = p)
k1 +···+kn−1 =k
k1 ...,kn ∈N
=
X
P (X1 = k1 , . . . , Xn−1 = kn−1 )P (Xn = p)
k1 +···+kn−1 =k
k1 ...,kn ∈N
=
P (Sn = k)P (Xn = p)
Remarque :
Si (X1 , . . . , Xm , Xm+1 , . . . , Xn ) sont (mutuellement) indépendantes, alors on peut montrer (résultat
hors programme) que n’importe quelle expression en (X1 , . . . , Xm ) est indépendante avec n’importe
quelle expression en (Xm+1 , . . . , Xn ) (c’est-à-dire f (X1 , . . . , Xm ), g(Xm+1 , . . . , Xn ) sont indépendants.
Ce résultat est souvent rencontrés sous l’appellation lemme des coalitions.
11
II.
Espérance et variance
II.1
Espérance
II.1.a
Définition
Définition 15
Soit X une variable aléatoire discrète d’image dénombrable. On note X(Ω) = {xi | i ∈ N} où et les xi
deux à deux distincts, et pi = P (X = xi ).
On dit que la variable X admet une espérance si la série Σxi pi est absolument convergente (c’est-à-dire
Σ|xi |pi converge)
On appelle alors espérance ou moyenne de X le réel
E(X) =
+∞
X
xi pi =
i=0
Important : On admet que la somme
+∞
X
+∞
X
xi P (X = xi )
i=0
xi P (X = xi )
ne dépend pas de l’ordre d’énumération.
i=0
C’est une propriété importante (mais hors-programme) des séries absolument convergente
Remarques :
• Si X(Ω) est finie, la somme est finie et la convergence est alors assurée. On retrouve la définition
de première année.
X
• Sur un univers finie, on a vu en première année que E(X) =
X(ω)P ({ω}).
ω∈Ω
(Ce résultat reste vrai pour Ω quelconque mais il faudrait d’abord donner un sens à cette notation)
Exemple :
1. Si A ∈ A, pour X = 1A , on a E(1A ) = 1 × P (X = 1) + 0 × P (X = 0) = P (A).
2. Si ∀ ω ∈ Ω, X(ω) = a alors X admet une espérance et E(X) = aP (X = a) = a.
3. Reprenons l’exemple du sauteur (page 2).
On a vu que X(Ω) = N∗ et P (X = n) =
1
1
−
.
n! (n + 1)!
Avec la règle de d’Alembert il est immédiat de montrer que les séries
Ainsi X admet une éspérance et on a :
E(X) =
=
Proposition 13
X
1
n n!
et
X
n
(n+1)!
+∞
+∞
+∞
+∞
X
X
X
X
n
1
n
(n + 1) − 1
n
−
=
−
−
n! (n + 1)! n=1 (n − 1)! n=0 n! n=0 (n + 1)!
n=0
+∞
+∞ X
X
1
1
1
=e−1
par téléscopage.
−
−
p! n=0 n! (n + 1)!
p=0
formule de sommations des queues
Si X(Ω) = N ou N∗ et si X admet une espérance alors
E(X) =
+∞
X
n=1
12
P (X > n)
convergent.
Exemple 9 : On a quatre dés équilibrés en main qu’on lance en même temps jusqu’à ce qu’apparaisse
le numéro 2 sur au moins l’un des quatre dés. Quel est le nombre moyen de « quadruples lancers »
nécessaires ?
4
Première méthode : La probabilité qu’un deux ne sorte pas sur un lancer est 65 . En supposant
les lancers indépendants, la
aléatoire donnant le nombre de lancer pour obtenir un deux suit
variable
5 4
.
donc la loi géométrique G 1 − 6
On termine avec l’espérance de la loi géométrique (page 17)
Seconde méthode : Soit T1 , T2 , T3 , T4 les temps aléatoires nécessaires pour faire apparaître le 2 sur
les 4 dés respectivement. Ces variables sont indépendantes et de même loi géométrique G( 61 ). Notons
T la variable aléatoire correspondant au minimum de ces temps, T = min(T1 , T2 , T3 , T4 ). Pour tout
n de N∗ , on a
P (T > n) =
P (T1 > n, T2 > n, T3 > n, T4 > n)
=
=
P (T1 > n)P (T2 > n)P (T3 > n)P (T4 > n)
P (T1 > n)4
n−1
n−1
k−1
+∞
X
5
1 5
1 56
=
Mais P (T1 > n) =
P (T1 = k) =
P (T1 = k) =
=
Ainsi, d’après
6 6
6 1 − 65
6
k=n
k=n
k=n
la formule de sommations des queues,
+∞
X
+∞
X
E(T ) =
+∞ 4(n−1)
X
5
n=1
6
=
1
1−
5 4
6
≈ 1, 93
Remarque :
Ce résultat peut s’avérer pratique lorsqu’on manipule le max ou le min de variables indépendantes.
II.1.b
Règles sur les espérance
Théorème 2
Théorème du transfert
Soit X une variable aléatoire discrète et f une fonction à valeurs réelles.
Y = f (X) admet une espérance si, et seulement si Σf (xi )P (X = xi ) converge et :
E[Y ] = E[f (X)] =
+∞
X
f (xi )P (X = xi )
i=0
Remarque :
On peut donc calculer l’espérance de f (X) sans connaître sa loi, mais juste celle de X.
+∞
X
m
xm
Notamment , sous réserve d’existence, E(X ) =
i P (X = xi )
i=0
Exemple : Si X ֒→ P(1), On pose Y =
La série de terme général
E(Y ) =
X
1
.
1+X
1 e−1
converge (d’Alembert) et
1 + n n!
+∞
+∞ −1
X
X
e−1
e
1 e−1
=
=
= e−1 (e − 1) = 1 − e−1
1
+
k
n!
(n
+
1)!
n!
n=0
n=1
n=0
+∞
X
13
Proposition 14
linéarité de l’espérance
Soit X, Y admettant des espérances et λ, µ ∈ R. Alors λX + µY admet une espérance et
E(λX + µY ) = λE(X) + µE(Y )
Notamment, ∀ a, b ∈ R, E(aX + b) = aE(X) + b.
Exemple 10 : On considère un entier n > 2 et une urne contenant n jetons numérotés de 1 à n. On
prélève ces jetons successivement et sans remise. On note (u1 , . . . , un ) la liste des numéros successivement tirés. Pour 2 6 i 6 n, on dit qu’il y a « montée » (resp.« descente ») au i-ième tirage
si ui > ui−1 (resp. ui < ui−1 ). On note X (resp. Y ) la variable aléatoire égale au nombre total de
montées (resp. de descentes).
Determiner E(X) et E(Y ).
L’univers Ω = Bij([[ 1, n ]]). On a donc Card(Ω) = n! et A = P (Ω). Les variables X et Y sont à valeurs
dans [[ 0, n − 1 ]]. Pour i ∈ [[ 2, n ]], on note Xi la variable qui vaut 1 s’il y a montée au i-ième tirage et
0 sinon. On a alors X = X2 · · · + Xn . Pour i ∈ [[ 2, n ]] l’évènement {Xi = 1} est réalisé si ui−1 < ui .
On choisit deux éléments de [[ 1, n ]] au hasard, le plus petit est ui−1 , le plus grand ui ; les n − 2 autres
jetons peuvent être tirées dans un ordre quelconque. On trouve
P (Xi = 1) =
Par suite E(X) =
n
X
1
i=2
2
=
(n − 2)!
1
= .
n!
2
n
2
n−1
.
2
On peut procéder de la même manière pour Y , mais on peut remarquer plus simplement que X +Y =
n−1, car s’il n’y a pas montée au i-ième tirage, il y a descente. On en déduit que E(Y ) = n−1−E(X) =
n−1
2
Proposition 15
Inégalité et espérance
1. Si 0 6 X 6 Y et si Y admet une espérance alors X admet une espérance.
2. Soit X, Y admettant des espérances
(a) Si X > 0 alors E(X) > 0.
(b) Si X 6 Y alors E(X) 6 E(Y ).
(c) E(X) 6 E |X|
II.1.c
Espérance d’un produit
De façon général E(XY ) 6= E(X)E(Y ) :
Exemple 11 : Soit X ֒→ B( 12 ) et Y = X.
D’après le théorème de transfert E(XY ) = E(X 2 ) =
1
2
× 02 +
1
2
× 12 =
1
2
et E(X)E(Y ) = 14 .
Théorème 3
Si X et Y sont deux variables aléatoires indépendantes admettant une espérance, alors XY admet une
espérance et
E(XY ) = E(X)E(Y )
14
!
Attention :
La réciproque est fausse comme le montre l’exemple ci dessous
Exemple 12 : Soit X ֒→ U{−1,0,1} et Y = X 2 .
X et Y ne sont pas indépendante puisque P (X = 1, Y = 0) = 0 6= P (X = 1)P (Y = 0) = 91 .
Pourtant E(XY ) = E(X 3 ) =
II.2
1
3
× (−1)3 +
1
3
× 03 +
1
3
× 13 = 0, et E(X) = 0.
Variance et écart type
La moyenne d’un DS ne nous apporte pas une information très précise. Une moyenne de 10 peut être
tout aussi bien être obtenue lorsque tous les étudiants ont 10 mais aussi lorsque la moitié ont 0 et les
autres 20.
Pour compléter l’information il faut disposer d’une quantité permettant de mesurer la dispersion autour
de cette moyenne.
Proposition 16
Si X 2 admet une espérance alors X aussi
Remarque :
Pour m ∈ N∗ , si X m admet une espérance, alors le réel E(X m ) est appelée moment d’ordre m de X.
En reprenant la démonstration précédente, on montre que X admet alors un moment à tout ordre
inférieur à m
Corollaire 1
2
X et X − E(X) admette une espérance si, et seulement si X 2 admet une espérance
Définition 16
Si X admet un moment d’ordre 2, (ie X 2 est d’espérance finie), on appelle variance de X le réel défini
par
Var(X) = E (X − E(X))2
ou défini par la Formule de Koenig
Var(X) = E(X 2 ) − E(X)2
Définition 17
Si X admet une variance, on appelle écart type de X le réel σ(X) =
p
Var(X)
Interprétation : De façon générale, la variance d’une variable mesure la moyenne des carrés des écarts
à sa moyenne (dispersion quadratique par rapport à la moyenne). Ainsi, plus la loi d’une variable est
étalée autour de sa moyenne, plus sa variance est grande. D’autre part, si X représente une grandeur
physique (donc ayant une dimension, par exemple une durée ou une distance), alors l’écart-type a
la même dimension que X, tandis que la variance a cette dimension au carré, ce qui la rend moins
parlante en pratique. Le terme écart-type est d’ailleurs à comprendre au sens « écart typique » d’une
variable à sa moyenne.
Proposition 17
Si X admet une variance alors, pour a, b ∈ R, aX + b aussi et
Var(aX + b) = a2 Var(X)
15
!
Attention :
Variance et écart type ne sont pas linéaire.
Le cas de Var(X + Y ) est traité à la proposition 19
Remarque :
Si E(X) = 0 et Var(X) = 1, on dit que X est une variable centrée et réduite .
De façon générale Y = X−E(X)
est une variable centrée réduite.
σ(X)
II.3
Espérance et variance des principales lois
Loi uniforme sur un ensemble fini de réels
E(X) =
n
X
k=1
k×
1
n
et
Var(X) =
k=1
=
Loi de Bernouilli (rappel PCSI)
E(X) = 1 × p + 0 × (1 − p)
et
Loi binomilale (rappel PCSI) :
En effet
E(X) =
=
=
et
n2 − 1
n(n + 1)
et Var(X) =
. En effet
2
12
!
n
n(n + 1)
1 X 2
E(X 2 ) − E(X)2 =
k −
n
2
E(X) =
n(n + 1)(2n + 1) n(n + 1)
−
6
2
E(X) = p et Var(X) = p(1 − p). En effet
Var(X) = E (X − E(X))2 = (1 − p)2 × p + (0 − p)2 × (1 − p)
E(X) = np et Var(X) = np(1 − p).
n
n
X
X
n k
n k
k
p (1 − p)n−k =
k
p (1 − p)n−k
k
k
k=0
k=1
n−1
n
X n − 1
X
n−1 k
n−k
pi+1 (1 − p)n−1−i
n
p (1 − p)
=n
i
k−1
i=0
k=1
n−1
np p + (1 − p)
= np
Var(X) = E(X 2 ) − E(X)2 = E X(X − 1) + E(X) − E(X)2
!
n
X
n k
n−k
=
+ np − n2 p2
k(k − 1)
p (1 − p)
k
k=2
!
n
X
n−2 k
n−k
+ np − n2 p2
=
n(n − 1)
p (1 − p)
k−2
k=2
!
n−2
X n − 2
i+2
n−2−i
+ np − n2 p2
p (1 − p)
= n(n − 1)
i
i=0
= n(n − 1)p2 + np − n2 p2 = np − np2
Loi géométrique :
En effet E(X) =
+∞
X
k=0
où f (x) =
+∞
X
k=0
De plus
xk =
E(X) =
1−p
1
.
et Var(X) =
p
p2
kp(1 − p)k−1 = pf ′ (1 − p)
1
= puisque |1 − p| < 1 (cf séries entieres).
1−x
16
2
2
Var(X) = E(X ) − E(X) =
où g(x) =
+∞
X
k 2 xk−1 =
k=0
d
dx
+∞
X
k=0
2
k−1
k p(1 − p)
!
−
1
p2
1
= pg(1 − p) − 2
p
!
+∞
X
1+x
d
k
xf ′ (x) = −
puisque |1−p| < 1 (cf séries entieres).
kx
=
dx
(1 − x)3
k=0
+∞
X
1
1
Autre : Var(X) = E X(X − 1) + E(X) − E(X)2 = p
k(k − 1)(1 − p)k−1 + − 2
p p
k=0
1
1
′′
= p(1 − p)f (1 − p) + − 2
p p
E(X) = λ et Var(X) = λ
Loi de Poisson :
En effet
E(X) =
+∞
+∞
X
X
e−λ λk
λk−1
k
= λe−λ
k!
(k − 1)!
k=0
k=1
= λe−λ
+∞
X
k=0
λk
= λe−λ eλ
k!
Var(X) = E(X 2 ) − E(X)2
= E X(X − 1) + E(X) − E(X)2
!
+∞
X
e−λ λk
+ λ − λ2
=
k(k − 1)
k!
k=2
!
+∞
k−2
X
λ
+ λ − λ2 = λ2 e−λ eλ + λ − λ2
= λ2 e−λ
(k − 2)!
et
k=2
Nom
Loi uniforme
X ֒→ U[[ 1,n ]]
Loi de Bernouillie
X ֒→ B(p)
Loi de Binomiale
X ֒→ B(n, p)
Loi de géométrique
Ensemble
des valeurs
[[ 1, n ]]
{0, 1}
[[ 0, n ]]
N∗
X ֒→ G(p)
Loi de Poisson
X ֒→ P(λ)
II.4
N
loi
P (X = k) =
1
n
P (X = 1) = p
P (X = 0) = (1 − p)
n k
P (X = k) =
p (1 − p)n−k
k
P (X = k) = p(1 − p)k−1
P (X = k) = e−λ
λk
k!
E(X)
var(X)
n+1
2
n2 − 1
12
p
p(1 − p)
np
np(1 − p)
1
p
1−p
p2
λ
λ
Covariance
Définition 18
Si X et Y admette une variance alors les quantités ci-dessous existe et on appelle covariance du couple
aléatoire (X, Y ) la quantité
Cov(X, Y ) = E X − E(X) Y − E(Y )
= E(XY ) − E(X)E(Y )
17
(Formule de Koenig)
Remarque :
On a vu que si X et Y sont indépendantes alors Cov(X, Y ) = 0 (cf. théorème 3), mais que la réciproque est fausse.
Des variables aléatoires dont la covariance est nulle sont dites corrélées, non corrélées dans le cas
contraires
Exemple : Reprenons l’exemple 5 page 8. On a vu que pour (n, k) ∈ N∗ × [[ 2, +∞[[
(
p2 q k−2
n−1
2 k−2
P (X = n) = pq
, P (Y = k) = (k − 1)p q
et P (X = n, Y = k) =
0
si n < k,
sinon.
√
q
.
X suit la loi géométrique G(p) donc σ(X) =
p
Y suit une loi dite de Pascal. En calquant la démonstration de la loi géométrique, on obtient E(Y ) =
2
.
p
+∞
+∞ X
X
nkP (X = n, Y = k) (on a admis lors de la définition
On va montrer l’existence de E(XY ) =
k=2 n=1
de l’espérance que l’ordre d’énumération n’importait pas).
La deuxième somme est en fait une somme finie. Il y a donc convergence et
+∞
X
nkP (X = n, Y = k) =
n=1
X
nkp2 q k−2 = kp2 q k−2
n=1
De plus p2 k 2 (k − 1)q k−2
Ainsi la série
k−1
X
∼
k→+∞
p2 k 3 q k−2 =
k−1
X
n=
n=1
o
k→+∞
1
k2
1 2 2
p k (k − 1)q k−2
2
puisque q ∈]0, 1[.
p2 k 2 (k − 1)q k−2 converge. Par suite, XY admet une espérance et
E(XY ) =
+∞ X
+∞
X
nkP (X = n, Y = k) =
k=2 n=1
+∞
p2 X 2
k (k − 1)q k−2
2
k=2
Utilisons maintenant les techniques mise en oeuvre dans le cours sur les séries entières : Pour x ∈] − 1, 1[,
+∞
X
1
en posant f (x) =
=
xk , on a en dérivant (R = 1)
1−x
k=0
xf ′ (x) =
+∞
X
kxk puis xf ′′ (x) + f ′ (x) =
k=1
Par suite E(XY ) =
+∞
X
k 2 xk−1 et enfin xf (3) (x) + 2f ′′ (x) =
k=1
k=1
p2
p2
(qf (3) (q) + 2f ′′ (q)) ==
2
2
6q
4
+
4
(1 − q)
(1 − q)3
Cov(X, Y ) = E(XY ) − E(X)E(Y ) =
définition 19
+∞
X
Coefficient de corrélation
Cov(X, Y )
σ(X)σ(Y )
18
=
3q 2
+ d’où
p2
p
q
2
3q 2
+ − 2 = 2
2
p
p p
p
Soit X et Y admettant une variance et tel que σ(X) 6= 0 et σ(Y )) 6= 0.
On appelle coefficient de corrélation linéaire de X et Y le réél
ρ(X, Y ) =
k 2 (k − 1)xk−2
Exemple : Reprenons l’exemple précédent. X ֒→ G(p) donc σ(X) =
√
q
.
p
En calquant la démonstration de la loi géométrique, on obtient σ(Y ) =
ρ(X, Y ) = q
Proposition 18
q
p2
q
p2
q
2q
p2
√
2q
, d’où
p
1
=√
2
Inégalité de Cauchy-Schwarz
Si X 2 et Y 2 admettent une espérance, alors la variable aléatoire XY aussi et
p
p
E(|XY |) 6 E(X 2 ) E(Y 2 )
Corollaire 2
Soit X et Y admettant une variance et tel que σ(X) 6= 0 et σ(Y )) 6= 0. On a
−1 6 ρ(X, Y ) 6 1
Remarque :
On peut montrer (hors programme) que |ρ(X, Y )| = 1 si, et seulement si ∃ (a, b, c) ∈ (R∗ )2 × R tel
que aX + bY + c = 0 presque sûrement (i.e. P (aX + bY + c = 0) = 1) (Un sens est facile à montrer)
De façon générale, plus le coefficient de corrélation est proche de 1 en valeur absolue, plus les variables
X et Y sont linéairement liées. Un coefficient de corrélation nul signifie donc que les deux variables
ne sont pas linéairement liées. Il n’empêche qu’elle peuvent être liées par un autre type de relation :
c’est ce qui apparaît clairement sur l’exemple 12 page 15 ( avec Y = X 2 ), puisqu’une fois X connue,
il n’existe plus aucune incertitude sur Y .
II.5
Variance d’une somme finie de variables aléatoires
Proposition 19
Soit X et Y deux variables aléatoires admettant une variance. Alors X + Y admet une variance et
Var(X + Y ) = Var(X) + Var(Y ) + 2 Cov(X, Y )
Plus généralement si X1 , . . . , Xn admettent des variances alors X1 + · · · + Xn admet une variance et
Var(X1 + · · · + Xn ) =
n
X
Var(Xi ) + 2
X
Cov(Xi , Xj )
16i<j6n
i=1
Corollaire 3
Si X1 , . . . , Xn admettent des variances et sont deux à deux indépendantes (mais pas nécessairement
mutuellement indépendante) alors X1 + · · · + Xn admet une variance et
Var(X1 + . . . + Xn ) = Var(X1 ) + · · · + Var(Xn )
19
Remarque :
• Si X1 , . . . , Xn sont deux à deux indépendantes et suivent le même loi alors
√
Var(X1 + . . . + Xn ) = n Var(X1 )
• Cette formule montre l’intérêt de décomposer une variable aléatoire en somme de variables
aléatoires indépendantes plus simples.
Exemple 13 : On considère une suite de lancers d’une pièce de monnaie, la probabilité d’obtenir pile
sur un lancer étant p ∈]0, 1[. Pour tout n ∈ N, on note Xn le rang d’apparition du n-ième pile. On
pose ensuite Y1 = X1 et pour tout entier n > 2, Yn = Xn − Xn−1 (temps d’attente du n-ème pile).
1. Montrer que les variables (Yn )n∈N∗ forment une suite de variables indépendantes de même loi.
2. En déduire l’espérance et la variance de Xn .
1. On note Bk l’évènement « le k-ième lancer
donne un pile ». Pour tout n ∈ N∗ , Yn est à valeurs
∗
∗
∗n
dans N . Soit n ∈ N , (i1 , i2 , . . . , in ) ∈ N . On a
{Y1 = i1 , . . . , Yn = in }
= {X1 = i1 , X2 = i1 + i2 , . . . , Xn = i1 + i2 + · · · + in }
\
= Bi1 ∩ Bi1 +i2 . . . ∩ Bi1 +i2 +···+in
Bk
k∈I
où I = [[ 1, i1 + i2 + · · · + in ]]\{i1 , i1 + i2 , i1 + i2 + · · · + in }.
Comme les résultats des différents lancers sont indépendants, les Bk sont des évènements (mutuellement) indépendants. Donc on obtient (en notant q = 1 − p)
P (Y1 = i1 , . . . , Yn = in ) = p × p × · · · × p × q i1 +i2 +···+in −n =
n
Y
k=1
n
Y
pq ik −1 = pq i1 −1
pq ik −1
k=2
Comme ({Y1 = i1 })i1 ∈N∗ est un système complet d’évènements, on obtient en sommant sur i1
P (Y2 = i2 , . . . , Yn = in ) =
+∞
X
i1 =1
=
+∞
X
P {Y1 = i1 } ∩ {Y2 = i2 , . . . , Yn = in }
P (Y1 = i1 , . . . , Yn = in )
i1 =1
+∞
X
=
q
i1 −1
i1 =1
=
n
Y
pq ik −1
k=2
!
n
Y
k=2
pq ik −1 =
q
p
×
q
1−q
Y
n
pq ik −1
k=2
Une récurrence immédiate donne alors
P (Yn = in ) = pq in −1
et on a d’après le résultat précédents
P (Y1 = i1 , . . . , Yn = in ) =
n
Y
P (Yk = ik )
k=1
(Yn )n∈N∗ forment bien une suite de variables indépendantes suivant la même loi G(p).
2. Par téléscopage on a : Xn = Y1 + · · · + Yn . Les Yk ont pour espérance
précédente et le corollaire 3 donne alors :
E(Xn ) =
n
X
k=1
E(Yk ) =
n
p
et
Var(Xn ) =
n
X
k=1
20
1
p
et variance
E(Yk ) =
nq
p2
q
p2 .
La question
II.6
II.6.a
Inégalités de Markov et Bienaymé-Tchebychev
Les inégalités
Proposition 20
Inégalité de Markov
Soit X une variable aléatoire possédant une espérance. On a
∀ t > 0, P (|X| > t) 6
E(|X|)
t
Remarque :
Si E(X m ) existe, en considérant Y = X m , comme {|X| > t} = {|X|m > tm }, pour t > 0, en appliquant
l’inégalité de Markov à Y on obtient
∀ t > 0, P (|X| > t) 6
Corollaire 4
E(|X|m )
tm
Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire possédant une variance.
Var(X)
∀ t > 0, P |X − E(X)| > t 6
t2
σ 2 (X)
=
t2
Remarque :
En posant t = uσ(X) l’inégalité de Tchebychev devient
1
∀ u > 0, P |X − E(X)| > uσ(X) 6 2
u
Ceci permet de comprendre le terme de « écart type » ou « unité d’écart ». Si X possède un moment
d’ordre 2, la probabilité d’observer une déviation par rapport à l’espérance d’au moins u unités d’écart
est majorée par u12
Exemple 14 : On jette 3600 fois un dé. Minorer la probabilité que le nombre d’apparitions du 1 soit
compris strictement entre 480 et 720.
Donner un nombre n pour que la probabilité que le 1 apparaisse au moins n fois soit inférieur à 0,05
• Notons X le nombre d’apparition du 1. X suit la loi binomiale B(3600, 1/6)
k 3600−k
720 X
3600
1
5
La probabilité cherchée est
.
k
6
6
k=481
La valeur exacte de cette somme nécessiterait le recourt à l’informatique. L’inégalité de Tchebychev
est une alternative pratique à ce calcul déraisonnable (mais faisable si on connait la bonne bibilothèque
ne python). En effet, on a
E(X) = 3600 ×
1
= 600
6
et
Var(X) = 3600 ×
1 5
× = 500
6 6
(cf II.3)
On remarque que P (480 < X < 720) = P (|X − 600| < 120) = 1 − P (|X − 600| > 120).
D’où P (480 < X < 720) > 1 − 500/1202 ≈ 0, 965.
(La vrai valeur étant (≈ 0, 999.)
• On veut maintenant trouver n tel que P (X > n) 6 0, 05.
21
P (X > n) = P X − E(x) > n − E(X) 6 P |X − E(x)| > n − E(X)
6
Var(X)
2
(n − E(X))
=
500
6 0, 05
(n − 600)2
d’où n = 700 convient.
Remarques :
• On aurait pu faire le même raisonnement sur certain intervalle non centré. Par exemple P (550 <
X < 800) > P (550 < X < 650) = 1 − 500/502 ≈ 0, 8.
Le résultat est évidemment moins bon. (La vraie valeur est de (≈ 0.988.)
• L’inégalité de Markov donne de piètres résultats.
II.6.b
(P (480 < X < 720) > 1 − P (X > 721) ≈ 0, 168.)
Loi faible des grands nombres
Théorème 4
loi faible des grands nombres
Si (Xn )n∈N est une suite de variables aléatoires deux à deux indépendantes et de même loi admettant un
moment d’ordre 2, alors, en posant Sn = X1 + · · · + Xn , m = E(X1 ), on a pour tout ε > 0,
Sn
− m > ε = 0
lim P n→+∞
n
Remarques :
• Au vu de la démonstration, on pourrait un peu affaiblir les hypothèses et juste supposer que les
variables sont deux à deux non-corrélées, de même variance et de même espérance.
Sn
• On dit que la suite
converge en probabilité vers m.
n n∈N
• L’appellation « loi faible » suggère qu’il existe une « loi forte
». Celle-ci est hors-programme et
dit, sous les mêmes hypothèses, que lim P Snn − E(X1 ) = 0.
n→+∞
Exemple 15 : Soit A ∈ A un événement. On considère une suite d’épreuves indépendantes. Pour n ∈ N∗ ,
on note Xn = 1A la variable de Bernoulli qui vaut 1 si l’événement A est réalisé lors de la n-ième
épreuve, 0 sinon. Elle est de paramètre p = P (A).
La suite (Xn )n∈N est une suite de variables de Bernoulli indépendantes, de même paramètre p. On a
ici m = p. La loi faible des grands nombres s’écrit :
Sn
− p > ε = 0
lim P n→+∞
n
Interprétation : Sn est le nombre de succès,
Sn
n
la fréquence de succès au cours des n premières épreuves.
La loi faible des grands nombres s’accorde avec l’intuition pour dire que plus n est grands, plus la
fréquence de succès se rapproche de p.
Application : Avant le second tour d’une élection présidentielle opposant les candidats A et B, un
institut de sondage interroge au hasard n = 1000 personnes dans la rue. On note p la proportion
(inconnue) d’électeurs décidés à voter pour A dans la population totale. Dans l’échantillon sondé,
1000
≈ 0, 54.
cette proportion est égale à S1000
22
1. Trouver t pour que P (0, 54 − ε < p < 0, 54 + ε) > 0, 95. Commenter.
2. Inversement l’institut de sondage désire présenter à ses clients une fourchette à
jours un niveau de confiance au moins égal à 95%.
Combien de personnes doit-il interroger ?
+
− 1%
avec tou-
Remarque :
On dit que I =]0, 54 − ε; 0, 54 + ε[ un intervalle de confiance au niveau niveau 0,95.
1. En reprenant la démonstration de la loi faible des grands nombre, on a d’après l’inégalité de
Bienaymé-Tchebychev :
Sn
Var(X1 )
− m > ε 6
∀ ε > 0, P n
nε2
Sn
1
p(1 − p)
1
Ce qui donne P sup
x(1
−
x)
=
6
− p > ε 6
4
n
nε2
4nε2
x∈[0,1]
En considérant le complémentaire, il vient,
Sn
Sn
1
P
−ε<p<
+ε >1−
n
n
4nε2
D’où, avec la valeur numérique n=1000 et
1−
S1000
1000
= 0, 54, on veut
1
1
> 0.95 ⇐⇒ t > √ ≈ 0, 0707
2
4000ε
10 2
Avec t = 0.071, I =]0, 469; 0, 611[. Une partie de l’intervalle correspond à p < 12 . Ainsi, la probabilité
d’erreur donnant A vainqueur à 54% est inférieur à 5% (1-0,95.)
2. Cette fois-ci, on impose ε = 0, 01 et on cherche n minimal tel que
1
6 0, 05
4n × 0, 01
ce qui donne n > 50 000. Le sondage va coûter cher. . .
II.7
II.7.a
Séries génératrice
définition
Définition 20
Soit X une variable aléatoire à valeur dans N. Pour tout t ∈ [−1, 1], la variable aléatoire tX admet une
espérance.
On appelle alors fonction génératrice de X la série entière définie par
+∞
X
P (X = n)tn
GX (t) = E tX =
n=0
Remarques :
• Comme GX (1) = 1, le rayon de convergence de GX est supérieur à 1.
• Comme les coefficients d’une série entière sont uniques, la loi d’une variable aléatoire X à valeurs
dans N est caractérisée par sa fonction génératrice GX c’est-à-dire
GX = GY ⇐⇒ PX = PY
Exemples :
23
1. Si X ֒→ G(p), pour t ∈ [−1, 1]
GX (t) =
+∞
X
n=1
=⇒
tn p(1 − p)n−1 = tp
GX (t) =
+∞
X
n=1
+∞
X
n−1
k
t(1 − p)
= tp
t(1 − p)
tp
1 − t(1 − t)
2. Si X ֒→ P(λ), pour t ∈ [−1, 1], GX (t) =
+∞
X
tn
n=1
k=0
(car |t(1 − p)| < 1)
+∞
X
λn −λ
(λt)n
e = e−λ
donc
n!
n!
n=1
GX (t) = eλ(t−1)
3. Si X ֒→ U(p)[[ 1,n ]] , pour t ∈ [−1, 1], GX (t) =

t 1 − tn

 ·
t
= n 1−t

n

1
n
k
X
k=1
si t 6= 1,
.
sinon.
4. Si X ֒→ B(p), GX (t) = pt0 (1 − p) + t1 p = pt + (1 − p).
Proposition 21
Si X et Y sont deux variables aléatoires à valeurs dans N alors
∀ t ∈ [−1, 1], GX+Y (t) = GX (t)GY (t)
!
Attention :
Comme d’habitude, la réciproque est fausse.
Remarque :
Pour n variables (mutuellement) indépendantes X1 , . . . , Xn , en reprenant la démonstration et en
raisonnant par récurrence, on a


n
Y
i=1
GXi (t)
=
+∞
X
n=0

P

n
G
+∞
 n X
{X1 = q1 , . . . , Xn = qn }
t
=
P (X1 + · · · + Xn = n) tn

q1 ,...qn ∈N
q1 +···+qn =n
n=0
= GX1 +···+Xn (t)
Exemple : Si X ֒→ B(n, p), pour t ∈ [−1, 1], en écrivant X =
indépendante suivant la loi B(p), il vient par récurrence
n
X
Xi , où les Xi sont mutuellement
i=1
n
GX (t) = GnX1 (t) = pt + (1 − p)
On peut retrouver ceci directement (et facilement) par la formule du binôme de Newton.
24
II.7.b
Série génératrice et moment
Proposition 22
La variable aléatoire X admet une espérance si et seulement si GX est dérivable en 1 et, dans ce cas,
E(X) = G′X (1).
Proposition 23
La variable aléatoire X admet une variance si et seulement si GX est deux fois dérivable en 1. On a
E X(X − 1) = G′′X (1).
Remarque :
2
La variance est alors déterminée par Var(X) = G′′X (1) + G′X (1) − G′X (1)
25