COMPLÉMENTS DE PROBABILITÉS Exercice 1 (Convergences

Download Report

Transcript COMPLÉMENTS DE PROBABILITÉS Exercice 1 (Convergences

U NIVERSITÉ PARIS D IDEROT, 2014-2015
C OMPLÉMENTS
C ALCUL S TOCHASTIQUE , F EUILLE 1
DE
P ROBABILITÉS
Exercice 1 (Convergences). Soit {Xi }i≥1 une suite de variables aléatoires réelles centrées de
carré intégrable. Donner un équivalent simple de E[|X1 + · · · + Xn |] lorsque n → ∞.
Exercice 2 (Classes monotones). Soient P et Q deux mesures de probabilité sur un espace
mesurable (Ω, A).
1. Vérifier que l’ensemble M = A ∈ A, P(A) = Q(A) est une classe monotone.
2. En déduire que si P et Q coïncident sur un π-système engendreant A, alors P = Q.
3. Montrer que la fonction de distribution d’une variable aléatoire réelle caractérise sa loi.
4. Soient X et Y deux variables aléatoires réelles intégrables sur (Ω, A, P), telles que
∀A ∈ C,
E[X1A ] = E[Y 1A ],
où C est un π−système vérifiant Ω ∈ C et σ(C) = A. Que peut-on conclure ?
5. Soient C1 , . . . , Cn des π−systèmes inclus dans A et contenant l’élément Ω. On suppose que
pour tout (A1 , . . . , An ) ∈ C1 × · · · × Cn ,
P (A1 ∩ · · · ∩ An )
=
P (A1 ) × · · · × P (An ) .
Montrer que les tribus σ(C1 ), . . . , σ(Cn ) sont indépendantes.
Exercice 3 (Espérance conditionnelle). Soient X et Y deux variables aléatoires réelles de carré
intégrable sur (Ω, A, P). On suppose que presque-sûrement, E[X|Y ] = Y et E[Y |X] = X.
1. Montrer que presque-sûrement, X = Y .
2. Montrer que le résultat reste vrai si X et Y sont seulement supposées intégrables. (On
pourra commencer par supposer X, Y positives, et calculer E[X|Y ∧ n] pour tout n ∈ N.)
Exercice 4 (Calculs gaussiens). Soit X ∼ N (0, σ 2 ).
1. Calculer E[exp(tX 2 )] pour tout t ∈ R.
2. Calculer E[X n ] pour tout n ∈ N.
3. Calculer E[exp(zX)] pour tout z ∈ C.
Exercice 5 (Convergence gaussienne). Soit {Xn }n≥1 une suite de variables gaussiennes.
1. Donner une condition nécessaire et suffisante sur les suites {µn }n≥1 et {σn }n≥1 pour que
la suite {Xn }n≥1 converge en loi. Quelle est alors la loi limite ?
2. On suppose maintenant que la suite {Xn }n≥1 converge en probabilité. Montrer que la
convergence a aussitôt lieu dans Lp pour tout p ≥ 1.
Exercice 6 (Vecteurs aléatoires). Soit X = (X1 , . . . , Xd ) un vecteur aléatoire.
1. Montrer que la matrice de covariance KX , lorsque elle existe, est symétrique positive.
2. Montrer que si X est gaussien, alors sa fonction caractéristique peut s’exprimer
simplement en fonction de la moyenne mX ∈ Rd et de la matrice de covariance KX .
3. Soit A ∈ Mr,d (R). Montrer que si X est gaussien alors Y = AX l’est aussi.
4. En déduire que pour tout vecteur m ∈ Rd et toute matrice symétrique positive K ∈ Md (R),
il existe un vecteur gaussien Y de moyenne m et covariance K. On note Y ∼ N (m, K).
5. Expliciter, lorsqu’elle existe, la densité de N (m, K) par rapport à la mesure de Lebesgue.
6. La limite en loi d’une suite de vecteurs gaussiens est-elle nécessairement gaussienne ?
7. On suppose que X ∼ N (0, K). Calculer E[e−
tXAX
2
] pour A ∈ Md (R) symétrique.
Exercice 7 (Covariance et indépendance).
1. Soit 0 ≤ θ ≤ 1 et (X, Y ) ∼ N 0, 1θ
. On pose Z = X + Y et W = X − Y . Quelles sont
θ1
les lois de Z et W ? Ces deux variables sont-elles indépendantes ?
2. Soient X, U des variables indépendantes avec X ∼ N (0, 1) et U ∼ Unif{−1, +1}. On pose
Y = U X. Donner la loi de Y puis calculer Cov(X, Y). X et Y sont-elles indépendantes ?
Exercice 8 (Conditionnement gaussien).
1. Soit (X, Y1 , . . . , Yd ) un vecteur gaussien centré. Montrer que E[X|Y1 , . . . , Yd ] coïncide avec
la projection orthogonale de X sur Vect(Y1 , . . . , Yd ), puis que la loi conditionnelle de X
sachant (Y1 , . . . , Yd ) est une gaussienne dont on précisera les paramètres.
2. Soit (X, Y ) un vecteur gaussien bi-dimensionnel arbitraire. Expliciter la loi conditionnelle
de X sachant Y en fonction des paramètres.
Exercice 9 (Marche aléatoire). Soit {Xn }n≥1 une suite de variables indépendantes uniformes sur
{−1, +1} et soit {Fn }n≥0 sa filtration naturelle. On pose S0 := 0 et pour tout n ∈ N,
Sn := X1 + · · · + Xn .
1. Vérifier que {Sn }n≥0 est une martingale de carré intégrable et expliciter son crochet.
2. Pour a ∈ Z, on note Ta = inf{n ∈ N : Sn = a}. Pour a, b > 0, calculer E[T−a ∧ Tb ] et
P (T−a < Tb ). En déduire que presque-sûrement, la marche visite tous les sites.
Exercice 10 (Martingales). Soit {Xn }n≥0 une suite de variables aléatoires réelles et {Fn }n≥0 sa
filtration naturelle. On suppose que X0 = 0. Pour tout λ ∈ R et tout n ∈ N, on pose
nλ2
λ
Yn := exp iλXn +
.
2
Montrer que les conditions suivantes sont équivalentes :
(i) Pour chaque λ ∈ R, {Ynλ }n≥0 est une martingale relativement à {Fn }n≥0 .
(ii) Il existe des variables aléatoires {Un }n≥1 IID de loi N (0, 1) telles que pour tout n ≥ 1,
Xn
= U1 + · · · + Un .