Remarques computationnelles sur le mouvement brownien

Download Report

Transcript Remarques computationnelles sur le mouvement brownien

Remarques computationnelles
sur le mouvement brownien fractionnaire persistant
Pierre Gazzano – Nikos Lygeros
1. Introduction
Le but de cette note est l'étude des mouvements browniens fractionnaires persistants. Cette
note attache une part importante aux algorithmes de simulation, mais elle n’est pas pour
autant une étude de ces algorithmes. Elle représente plutôt une étude des mouvements
browniens fractionnaires et de leurs propriétés, via une approche effective et expérimentale.
Cette note est principalement basée sur l’ouvrage de B.Mandelbrot : Gaussian, Self Affinity
and Fractals.
2. Définitions
2.1 Définition d’un processus brownien fractionnaire.
Un mouvement brownien fractionnaire est un processus B H (t ) , continu, de moyenne nulle et
dont la distribution vérifie :
E  B H (t + τ ) − B H (t ) = h− H E  B H (t + hτ ) − B H (t )
La fonction de corrélation est:
E[ B H (t ) B H (t + δ )] =
1 2H
2H
2H
t + t +δ − δ
2
(
)
H est communément appelé le coefficient de Hurst.
Lorsque nous avons : H = 0.5 , le processus est un processus brownien classique. Tandis que
lorsque nous avons : H > 0.5 , le processus est dit persistant, ou à mémoire longue. Cela
signifie que les valeurs du processus entre deux temps très espacés ont une corrélation faible
mais non négligeable. Ceci signifie aussi que le processus brownien sera d'autant plus riche au
niveau des basses fréquences que la valeur de H sera proche de 0.9 impliquant ainsi que les
grandes variations ont tendance à persister.
3. Deux approches de la variance
3.1 Première approche
Les incréments sont définis par X (t ) = B H (t + 1) − B H (t ) . On démontre alors que :
 δ
2
2
E (∆X ) = E  ∑ X (t + u ) = E ∆B H  = CH δ 2 H .
 u =1

2
Et la déviation standard correspondante est :
CH δ H −1 . Cette expression décroit toujours vers
0 lorsque δ tend vers l'infini, mais ce taux de décroissance dépend de H. Lorsque H
augmente, cette quantité pour δ fixé, augmente. Pour cette raison, nous avons tendance à dire
qu’en prenant cette définition, les mouvements browniens fractionnaires avec un H élevé sont
les plus fluctuants.
3.2 Seconde approche
Il est possible aussi de définir la variance de la façon suivante :
δ
S (t , δ ) = δ ∑ X (t + u ) − δ −1∆X 
2
−1
2
2
u =1
Un calcul simple donne :
E  S 2 (t , δ ) ≈ EX 2 − CH δ 2 H −2
Cette quantité a pour limite EX 2 lorsque δ tend vers l’infini, mais la croissance est plus
rapide lorsque H est proche de 0.5 que lorsque H est proche de 0.9. Ainsi lorsqu’un
processus s’agglutine autour de sa moyenne, aussi nous disons que ce processus ne fluctue
pas. Avec cette définition, les processus ayant un coefficient proche de 1 ne sont pas
fluctuants.
4. Fast Fractal Brownian Noise Generator
Cet algorithme est issu du livre de B. Mandelbrot : Gaussian, Self Affinity and Fractals, p
340.
Soit B H (t ) un tirage d’un FBM. Un échantillon de T valeurs de B H (t ) ayant une variance
égale à 1 et une moyenne nulle sera calculé comme somme d’un terme à haute fréquence et
d’un terme à basse fréquence. Le processus à haute fréquence sera un processus markovien, et
le processus à basse fréquence est défini comme une somme pondérée d’un nombre N(T) de
termes d’un processus markovien. En d’autres termes pour calculer une valeur à l’instant t, il
faudra calculer toutes les valeurs précédentes.
4.1 Définition du terme à basse fréquence : BLH (t , H )
N (T )
BLH (t , H ) = ∑ Wn X (t , rn | MG )
n=1
où X (t , rn | MG ) est le processus de Markov de variance 1 et de covariance rn2 = exp(−2 B−n ) .
Le poids Wn associé à X (t , rn | MG ) est la racine de
Wn2 =
H (2 H −1)( B1−H − B−1+ H ) −2(1−H ) n
B
Γ(3 − 2 H )
 log(QT ) 
.
Le nombre N(T) vaut 
 log( B ) 
Enfin, le terme X (t , rn | MG ) est défini par récurrence :
X (1, rn | MG ) = Gn (1)
X (t , rn | MG ) = rn X (t −1, rn | MG ) + (1− rn2 )1/ 2 Gn (t )
4.2 Définition du terme à haute fréquence BHH (t , H )
La construction du terme à haute fréquence est indépendante de T. Le terme BHH (t , H ) sera
toujours un processus markovien. La variance est définie par :
1−
B H −1H (2 H −1)
Γ(3 − 2 H )
et la corrélation d’incrément 1 vaut :
B1−H H (2 H −1)
Γ(3 − 2 H )
n=1
En général, nous prenons : Q = 6, B = 3 , ce qui donne N (T ) = 10 pour T = 10000
N
22 H −1 −1 + ∑ TWn (1− rn ) −
4.3 Définition intrinsèque du mouvement brownien.
La définition explicite du mouvement brownien est B H (t ) :
B H (0) = b0
0
∫
B H (t ) − B H (0) = −∞
t
(t − s ) H −1/ 2 − (−s) H −1/ 2 dB ( s ) + ∫ (t − s ) H −1/ 2 dB ( s)
0
Γ( H + 1/ 2)
L’inconvénient de cette définition, c’est qu’elle n’est pas directement implémentable car les
intégrales sont divergentes lorsque nous discrétisons le calcul.
Avant de donner une deuxième définition d’un mouvement brownien fractionnaire, nous
allons définir quelques fonctions.
On définit la fonction hypergéométrique par :
(a)n (b)n x n
(c)n n !
n=0
∞
F21 (a, b, c, x) = Hypergeom([a, b],[c, ], x) = ∑
où a , b, c sont des réels.
Cette fonction n’est définie que pour x < 1 , mais nous pouvons étendre le domaine de
définition de [−1,1] à [−∞,1] en appliquant la formule suivante :
Si x <−1 alors Hypergeom([ a, b],[c], x) = Hypergeom([ a, c − b],[c], x /(1− x))(1− x)−a
Deux cas de la fonction hypergéométrique sont reproduits ici :
où a=0.0001, b=10 et c=10 pour la première image et a=10, b=1 et c=0.0001 pour la
deuxième.
Nous définissons le noyau KH (t , s ) de la manière suivante :
1
H −1/ 2
F21 ( H −1/ 2,1/ 2 − H , H + 1/ 2,1− t / s)
(t − s )
Γ( H + 1/ 2)
Le graphique du noyau pour H = 0.6 est :
KH (t , s) =
Avec le noyau KH , il est possible de définir le mouvement brownien fractionnaire ainsi :
t
B(t ) = ∫ KH (t , s)dB( s )
0
Pour comprendre la nature d’un mouvement brownien fractionnaire, on peut considérer que le
mouvement brownien fractionnaire est une somme pondérée sur une mesure brownienne.
Ainsi, la pondération par le noyau permet d’introduire le phénomène de mémoire.
5. Implémentation et calculs.
5.1 Etude de la variance et de la covariance
Il est possible de calculer de manière directe la variance, qui est donnée par :
2
t2
t1
t1
E ( B(t2 ) − B (t2 )) = ∫ f (t2 , s) ds +∫ f (t1 , s ) ds −2 ∫ f (t2 , s ) f (t1 , s)ds .
2
2
0
0
0
Le calcul est reproduit en annexe. Nous pourrions utiliser ce résultat, mais pour des raisons
de temps de calcul, nous allons prendre la définition donnée par B. Mandelbrot, à savoir :
0
2
∫ ((1− s)
2 H −∞
E ( B (t2 ) − B (t2 )) = (t2 − t1 )
H −1/ 2
− (−s ) H −1/ 2
) ds +1/ 2 H
2
Γ( H + 1/ 2) 2
Nous avons calculé à l’aide de Maple le deuxième membre de l’égalité précédente et simulé
un très grand nombre de valeurs de E ( B (t2 ) − B (t1 )) 2 .
Les graphiques suivants montrent E ( B (t2 ) − B (t1 )) 2 en fonction de t 2 − t1 pour H = 0.6 et
H = 0.9 .
Pour des valeurs proches de H =0.5, la variance est bien reproduite pour toutes les
fréquences, mais pour H =0.9, la divergence entre les résultats obtenus et la variance ellemême apparait dès les hautes fréquences.
Nous avons ensuite étudié la deuxième définition de la variance. Nous avons implémenté la
fonction, pour différentes valeurs de H . Voici les graphiques qui représentent E  S 2 (t , δ ) en
fonction de δ .
Nous avons auparavant normalisé les séries, ce qui fait que leur variance vaut 1. Le graphique
montre que pour des coefficients H proches de 0.5, la quantité E  S 2 (t , δ ) croît rapidement
vers 1. À l’inverse, lorsque H est proche de 1, la convergence est plus lente. Ce graphique
démontre ainsi la conclusion obtenue par le calcul.
Nous avons ensuite étudié la mémoire longue d’un mouvement brownien persistant. La
fonction de corrélation entre deux points espacés de δ est :
1 2H
2H
2H
t + t +δ − δ
2
Les trois graphiques suivants montrent la fonction de corrélation pour respectivement trois
valeurs de H, à savoir : H = 0.55, H = 0.7, H = 0.9 , ainsi que les points obtenus par
E ( B (t ) B (t + δ )) =
simulation pour différentes valeurs de δ .
(
)
Ces graphiques démontrent que la corrélation peut-être parfaitement reproduite par un
mouvement brownien obtenu avec le premier algorithme.
6. Annexe
t2
t1
t1
0
0
0
2
E ( B(t2 ) − B(t1 ))  = ∫ f (t2 , s )2 ds + ∫ f (t1 , s )2 ds − 2 ∫ f (t1 , s ) f (t2 , s)ds


En développant on obtient :
2
2
2
E ( B(t2 ) − B(t1 ))  = E ( B(t1 ))  − 2 E ( B(t2 ) − B(t1 )) + E ( B(t2 )) 






Grâce à l’isométrie d’Itô, on a :
t2
t1
t1
 t2
 t1


 t1






E  ∫ f (t1 , s )dB( s) ∫ f (t2 , s) dB( s ) = E  ∫ f (t2 , s ) dB( s) ∫ f (t1 , s )dB ( s ) + E  ∫ f (t2 , s) dB( s ) ∫ f (t1 , s )dB( s)
 0

 t1
 0


 0

0
0
t1
t1
t1
 t2

 t1



E  ∫ f (t2 , s )dB( s) ∫ f (t1 , s )dB ( s ) = E  ∫ f (t2 , s) dB( s ) ∫ f (t1 , s ) dB( s) = ∫ f (t2 , s ) f (t1 , s )ds
 0
 0

 0
0
0
Donc :
t2
t1
t2
 t1



2
2
2



E  B (t2 ) − B (t1 )  = ∫ f (t2 , s ) ds + ∫ f (t1 , s ) ds − 2 E  ∫ f (t1 , s) dB ( s ) ∫ f (t2 , s ) dB ( s )
 0

 0
0
0
t2
t1
t1
 t2
 t1


 t1









E  ∫ f (t1 , s) dB ( s) ∫ f (t2 , s )dB ( s ) = E  ∫ f (t2 , s) dB ( s) ∫ f (t1 , s )dB ( s ) + E  ∫ f (t2 , s )dB ( s) ∫ f (t1 , s )dB ( s )


 0
 0


 0

 t1
0
0
Le second membre vaut 0, il reste :
t1
t1
 t2

 t1
 t1


E  ∫ f (t2 , s )dB ( s) ∫ f (t1 , s) dB ( s ) = E  ∫ f (t2 , s ) dB ( s ) ∫ f (t1 , s )dB ( s) = ∫ f (t2 , s ) f (t1 , s ) ds
 0
 0

 0
0
0