Memory of Fire

Download Report

Transcript Memory of Fire

IL TEOREMA ERGODICO MOLTIPLICATIVO E GLI
ESPONENTI DI LYAPUNOV
Primo esempio
Primo esempio
Consideriamo lo spazio di probabilit`a (M, F, µ) associato ad (X , p)
dove
1 1 1 1 1 1
X = {1, 2, 3, 4, 5, 6} , p =
, , , , ,
6 6 6 6 6 6
`e lo schema finito associato al lancio di un dado.
Primo esempio
Consideriamo lo spazio di probabilit`a (M, F, µ) associato ad (X , p)
dove
1 1 1 1 1 1
X = {1, 2, 3, 4, 5, 6} , p =
, , , , ,
6 6 6 6 6 6
`e lo schema finito associato al lancio di un dado.
M = X N , cio`e ogni elemento di M ha la forma x = x1 x2 · · · con
xi ∈ X e la misura µ `e specificata richiedendo che µ({xi = l}) =
per ogni i ∈ N e l ∈ X (misura di Bernoulli).
1
6
Primo esempio
Consideriamo lo spazio di probabilit`a (M, F, µ) associato ad (X , p)
dove
1 1 1 1 1 1
X = {1, 2, 3, 4, 5, 6} , p =
, , , , ,
6 6 6 6 6 6
`e lo schema finito associato al lancio di un dado.
M = X N , cio`e ogni elemento di M ha la forma x = x1 x2 · · · con
xi ∈ X e la misura µ `e specificata richiedendo che µ({xi = l}) =
per ogni i ∈ N e l ∈ X (misura di Bernoulli).
Ad (M, F, µ) possiamo associare una trasformazione f : M → M
definita da f (x1 x2 · · · ) = x2 x3 · · · (shift).
1
6
Primo esempio
Consideriamo lo spazio di probabilit`a (M, F, µ) associato ad (X , p)
dove
1 1 1 1 1 1
X = {1, 2, 3, 4, 5, 6} , p =
, , , , ,
6 6 6 6 6 6
`e lo schema finito associato al lancio di un dado.
M = X N , cio`e ogni elemento di M ha la forma x = x1 x2 · · · con
xi ∈ X e la misura µ `e specificata richiedendo che µ({xi = l}) = 61
per ogni i ∈ N e l ∈ X (misura di Bernoulli).
Ad (M, F, µ) possiamo associare una trasformazione f : M → M
definita da f (x1 x2 · · · ) = x2 x3 · · · (shift).
Siano date inoltre 6 matrici Al ∈ Mm (R), l = 1, . . . , 6 e la mappa
T : M → Mm definita da
T (x1 x2 · · · ) = Al
se
x1 = l
Primo esempio
Consideriamo lo spazio di probabilit`a (M, F, µ) associato ad (X , p)
dove
1 1 1 1 1 1
X = {1, 2, 3, 4, 5, 6} , p =
, , , , ,
6 6 6 6 6 6
`e lo schema finito associato al lancio di un dado.
M = X N , cio`e ogni elemento di M ha la forma x = x1 x2 · · · con
xi ∈ X e la misura µ `e specificata richiedendo che µ({xi = l}) = 61
per ogni i ∈ N e l ∈ X (misura di Bernoulli).
Ad (M, F, µ) possiamo associare una trasformazione f : M → M
definita da f (x1 x2 · · · ) = x2 x3 · · · (shift).
Siano date inoltre 6 matrici Al ∈ Mm (R), l = 1, . . . , 6 e la mappa
T : M → Mm definita da
T (x1 x2 · · · ) = Al
se
x1 = l
Dal teorema ergodico ordinario sappiamo che
n−1
1X
A1 + · · · + A6
T (f k (x)) =
n→∞ n
6
lim
k=0
µ − q.o.
Se per`
o siamo interessati a conoscere le propriet`a che governano il
comportamento
asintotico dei prodotti aleatori
Qn−1
n
Tx := k=0 T (f k (x)) = Axn · · · Ax1 allora entra in gioco il
Teprema ergodico moltiplicativo (tem), il quale assicura che il
limite
1
1
lim (Txn∗ Txn ) 2n
n→∞ n
esiste ed `e µ − q.o. costante, uguale ad una matrice Λ con
autovalori ben definiti (anche se non dice quali!)
Se per`
o siamo interessati a conoscere le propriet`a che governano il
comportamento
asintotico dei prodotti aleatori
Qn−1
n
Tx := k=0 T (f k (x)) = Axn · · · Ax1 allora entra in gioco il
Teprema ergodico moltiplicativo (tem), il quale assicura che il
limite
1
1
lim (Txn∗ Txn ) 2n
n→∞ n
esiste ed `e µ − q.o. costante, uguale ad una matrice Λ con
autovalori ben definiti (anche se non dice quali!)
Un fatto importante e molto generale `e che tali esponenti non
dipendono in generale in maniera continua dagli elementi di
(l)
matrice aij di Al , l = 1, . . . , 6.
Secondo esempio
Secondo esempio
Sia f : R → R una trasformazione che genera un sistema dinamico
unidimensionale per mezzo del processo iterativo
xn+1 = f (xn ) ,
x0 ∈ R
Secondo esempio
Sia f : R → R una trasformazione che genera un sistema dinamico
unidimensionale per mezzo del processo iterativo
xn+1 = f (xn ) ,
x0 ∈ R
Se x0 e x¯0 sono due condizioni iniziali vicine, dopo n iterazioni si ha
xn − x¯n = f n (x0 ) − f n (¯
x0 ) ' (Dx0 f n )(x0 − x¯0 )
con
Dx0 f n = f 0 (f n−1 (x0 )) · · · f 0 (x0 )
Secondo esempio
Sia f : R → R una trasformazione che genera un sistema dinamico
unidimensionale per mezzo del processo iterativo
xn+1 = f (xn ) ,
x0 ∈ R
Se x0 e x¯0 sono due condizioni iniziali vicine, dopo n iterazioni si ha
xn − x¯n = f n (x0 ) − f n (¯
x0 ) ' (Dx0 f n )(x0 − x¯0 )
con
Dx0 f n = f 0 (f n−1 (x0 )) · · · f 0 (x0 )
Il tasso di separazione lungo l’orbita di x0 `e allora definito come
1
λ(x0 ) = lim log |Dx0 f n δx|
n→∞ n
Secondo esempio
Sia f : R → R una trasformazione che genera un sistema dinamico
unidimensionale per mezzo del processo iterativo
xn+1 = f (xn ) ,
x0 ∈ R
Se x0 e x¯0 sono due condizioni iniziali vicine, dopo n iterazioni si ha
xn − x¯n = f n (x0 ) − f n (¯
x0 ) ' (Dx0 f n )(x0 − x¯0 )
con
Dx0 f n = f 0 (f n−1 (x0 )) · · · f 0 (x0 )
Il tasso di separazione lungo l’orbita di x0 `e allora definito come
1
λ(x0 ) = lim log |Dx0 f n δx|
n→∞ n
Se f `e C 1 e conserva una misura di probabilit`a µ allora il tem, che
in questo caso altro non `e che il teorema ergodico usuale, afferma
che il limite esiste per µ-quasi ogni punto iniziale x0 .
Secondo esempio
Sia f : R → R una trasformazione che genera un sistema dinamico
unidimensionale per mezzo del processo iterativo
xn+1 = f (xn ) ,
x0 ∈ R
Se x0 e x¯0 sono due condizioni iniziali vicine, dopo n iterazioni si ha
xn − x¯n = f n (x0 ) − f n (¯
x0 ) ' (Dx0 f n )(x0 − x¯0 )
con
Dx0 f n = f 0 (f n−1 (x0 )) · · · f 0 (x0 )
Il tasso di separazione lungo l’orbita di x0 `e allora definito come
1
λ(x0 ) = lim log |Dx0 f n δx|
n→∞ n
Se f `e C 1 e conserva una misura di probabilit`a µ allora il tem, che
in questo caso altro non `e che il teorema ergodico usuale, afferma
che il limite esiste per µ-quasi ogni punto iniziale x0 .
Se poi µ `e ergodica allora
Z
λ = log |f 0 (x)|µ(dx) µ − q.o.
Il teorema ergodico moltiplicativo (tem)
Il teorema ergodico moltiplicativo (tem)
Prima versione (Oseledec, 1968): sia µ una misura di probabilit`a
su uno spazio M (ad esempio una variet`a compatta di dimensione
m) e f : M → M una trasformazione che conserva µ.
Il teorema ergodico moltiplicativo (tem)
Prima versione (Oseledec, 1968): sia µ una misura di probabilit`a
su uno spazio M (ad esempio una variet`a compatta di dimensione
m) e f : M → M una trasformazione che conserva µ. Sia inoltre
T : M → Mm (R) una funzione misurabile tale che
Z
log+ kT (x)k µ(dx) < ∞
M
+
dove log a = max(0, log a) e
1

∗
1
2
kT k = (tr (T T )) = 
2
X
i,j
`e la norma euclidea di T = (tij ) ∈ Mm (R).
2
|tij |
Il teorema ergodico moltiplicativo (tem)
Prima versione (Oseledec, 1968): sia µ una misura di probabilit`a
su uno spazio M (ad esempio una variet`a compatta di dimensione
m) e f : M → M una trasformazione che conserva µ. Sia inoltre
T : M → Mm (R) una funzione misurabile tale che
Z
log+ kT (x)k µ(dx) < ∞
M
+
dove log a = max(0, log a) e
1

∗
1
2
kT k = (tr (T T )) = 
2
X
2
|tij |
i,j
`e la norma euclidea di T = (tij ) ∈ Mm (R). Posto
Txn := T (f n−1 x) · · · T (fx)T (x), il limite
1
lim (Txn∗ Txn ) 2n = Λx
n→∞
esiste per µ-quasi ogni x (Txn∗ `e la matrice trasposta di Txn ).
Il teorema ergodico moltiplicativo (tem)
Prima versione (Oseledec, 1968): sia µ una misura di probabilit`a
su uno spazio M (ad esempio una variet`a compatta di dimensione
m) e f : M → M una trasformazione che conserva µ. Sia inoltre
T : M → Mm (R) una funzione misurabile tale che
Z
log+ kT (x)k µ(dx) < ∞
M
+
dove log a = max(0, log a) e
1

∗
1
2
kT k = (tr (T T )) = 
2
X
2
|tij |
i,j
`e la norma euclidea di T = (tij ) ∈ Mm (R). Posto
Txn := T (f n−1 x) · · · T (fx)T (x), il limite
1
lim (Txn∗ Txn ) 2n = Λx
n→∞
esiste per µ-quasi ogni x (Txn∗ `e la matrice trasposta di Txn ). I
logaritmi degli autovalori di Λx si chiamano esponenti caratteristici.
Se f `e C 1 e Txn = Dx f n (in tal caso Txn `e un cociclo, cio`e
Txn+m = Txn Tfmn x ), si chiamano esponenti di Lyapunov.
Se f `e C 1 e Txn = Dx f n (in tal caso Txn `e un cociclo, cio`e
Txn+m = Txn Tfmn x ), si chiamano esponenti di Lyapunov. Li
indichiamo con λ1 (x) ≥ λ2 (x) ≥ · · · ≥ λm (x) se ripetuti in accordo
alle loro molteplicit`a, oppure con λ(1) (x) > λ(2) (x) > · · · > λ(r ) (x)
se non ripetuti.
Se f `e C 1 e Txn = Dx f n (in tal caso Txn `e un cociclo, cio`e
Txn+m = Txn Tfmn x ), si chiamano esponenti di Lyapunov. Li
indichiamo con λ1 (x) ≥ λ2 (x) ≥ · · · ≥ λm (x) se ripetuti in accordo
alle loro molteplicit`a, oppure con λ(1) (x) > λ(2) (x) > · · · > λ(r ) (x)
(x), . . . , m(r ) (x) sono le rispettive
se non ripetuti. Se m(1)P
molteplicit`a allora m = rj=1 m(j) .
Se f `e C 1 e Txn = Dx f n (in tal caso Txn `e un cociclo, cio`e
Txn+m = Txn Tfmn x ), si chiamano esponenti di Lyapunov. Li
indichiamo con λ1 (x) ≥ λ2 (x) ≥ · · · ≥ λm (x) se ripetuti in accordo
alle loro molteplicit`a, oppure con λ(1) (x) > λ(2) (x) > · · · > λ(r ) (x)
(x), . . . , m(r ) (x) sono le rispettive
se non ripetuti. Se m(1)P
molteplicit`a allora m = rj=1 m(j) .
Definizione: Supponiamo che f sia C 1 . Un punto x ∈ M si dice
punto regolare per f se Rm ' Tx M ammette una filtrazione
(1)
Rm = Ex
tale che
lim
n→∞
(j)
(2)
⊃ Ex
(r )
⊃ · · · ⊃ Ex
1
log k(Dx f n )uk = λ(j) (x)
n
(j+1)
per ogni 0 6= u ∈ Ex \ Ex
.
Seconda versione: nelle ipotesi fatte sopra l’insieme dei punti
regolari `e un insieme di Borel di misura µ piena, in altre parole il
limite sopra esiste µ-quasi ovunque.
In particolare, per ogni vettore u ∈ Rm che non appartiene al
(2)
sottospazio Ex il limite scritto sopra fornisce l’esponente massimo
λ(1) (x).
Seconda versione: nelle ipotesi fatte sopra l’insieme dei punti
regolari `e un insieme di Borel di misura µ piena, in altre parole il
limite sopra esiste µ-quasi ovunque.
In particolare, per ogni vettore u ∈ Rm che non appartiene al
(2)
sottospazio Ex il limite scritto sopra fornisce l’esponente massimo
λ(1) (x).
(j)
La seconda versione segue dalla prima quando si definisca Ex
come il sottospazio di Rm generato dagli autospazi di Λx
(j)
corrispondenti agli autovalori ≤ e λ (x) . In particolare
P
(j)
dim Ex = ri=j m(i) .
Dipendenza misurabile dello spettro
Dipendenza misurabile dello spettro Dato x ∈ M
chiamiamo l’insieme Sp(Dx f ) degli esponenti caratteristici e delle
loro molteplicit`a lo spettro di Dx f :
Sp (Dx f ) := {(λ(j) (x), m(j) (x)) | j = 1, . . . , r (x)}
Lo spettro `e f -invariante e se la misura µ `e ergodica allora `e
µ − q.o. costante.
Dipendenza misurabile dello spettro Dato x ∈ M
chiamiamo l’insieme Sp(Dx f ) degli esponenti caratteristici e delle
loro molteplicit`a lo spettro di Dx f :
Sp (Dx f ) := {(λ(j) (x), m(j) (x)) | j = 1, . . . , r (x)}
Lo spettro `e f -invariante e se la misura µ `e ergodica allora `e
µ − q.o. costante.
Come dipende lo spettro dal punto x?
Indichiamo con Q ⊆ M l’insieme dei punti regolari di f : M → M.
Dati r interi m(1) , . . . , m(r ) , sia
Q(m(1) , . . . , m(r ) )
l’insieme dei punti x ∈ Q tali che f ha r esponenti λ(j) di
molteplicit`a m(j) (j = 1, . . . , r ). Si ha:
Indichiamo con Q ⊆ M l’insieme dei punti regolari di f : M → M.
Dati r interi m(1) , . . . , m(r ) , sia
Q(m(1) , . . . , m(r ) )
l’insieme dei punti x ∈ Q tali che f ha r esponenti λ(j) di
molteplicit`a m(j) (j = 1, . . . , r ). Si ha:
1) ∪ Q(m(1) , . . . , m(r ) ) = Q, dove l’unione `e presa su tutti gli
r > 0 e tutte le r -uple di interi positivi con 1 ≤ m(j) ≤ dim M
Indichiamo con Q ⊆ M l’insieme dei punti regolari di f : M → M.
Dati r interi m(1) , . . . , m(r ) , sia
Q(m(1) , . . . , m(r ) )
l’insieme dei punti x ∈ Q tali che f ha r esponenti λ(j) di
molteplicit`a m(j) (j = 1, . . . , r ). Si ha:
1) ∪ Q(m(1) , . . . , m(r ) ) = Q, dove l’unione `e presa su tutti gli
r > 0 e tutte le r -uple di interi positivi con 1 ≤ m(j) ≤ dim M
2) f (Q(m(1) , . . . , m(r ) )) = Q(m(1) , . . . , m(r ) )
Indichiamo con Q ⊆ M l’insieme dei punti regolari di f : M → M.
Dati r interi m(1) , . . . , m(r ) , sia
Q(m(1) , . . . , m(r ) )
l’insieme dei punti x ∈ Q tali che f ha r esponenti λ(j) di
molteplicit`a m(j) (j = 1, . . . , r ). Si ha:
1) ∪ Q(m(1) , . . . , m(r ) ) = Q, dove l’unione `e presa su tutti gli
r > 0 e tutte le r -uple di interi positivi con 1 ≤ m(j) ≤ dim M
2) f (Q(m(1) , . . . , m(r ) )) = Q(m(1) , . . . , m(r ) )
3) λ(j) (fx) = λ(j) (x)
Indichiamo con Q ⊆ M l’insieme dei punti regolari di f : M → M.
Dati r interi m(1) , . . . , m(r ) , sia
Q(m(1) , . . . , m(r ) )
l’insieme dei punti x ∈ Q tali che f ha r esponenti λ(j) di
molteplicit`a m(j) (j = 1, . . . , r ). Si ha:
1) ∪ Q(m(1) , . . . , m(r ) ) = Q, dove l’unione `e presa su tutti gli
r > 0 e tutte le r -uple di interi positivi con 1 ≤ m(j) ≤ dim M
2) f (Q(m(1) , . . . , m(r ) )) = Q(m(1) , . . . , m(r ) )
3) λ(j) (fx) = λ(j) (x)
(j)
(j)
(j+1)
4) se Ux = Ex \ Ex
(j)
(j)
(Dx f )Ux = Ufx
(j)
allora Ux `e covariante:
Ora, essendo le funzioni
Q(m(1) , . . . , m(r ) ) 3 x →
1
(j)
log k(Dx f n )|Ux k
n
misurabili, lo sono anche i loro limiti, cio`e le funzioni
λ(j) : Q(m(1) , . . . , m(r ) ) → R, j = 1, . . . , r . La dipendenza degli
(j)
spazi Ux da x `e un problema pi`
u delicato, ma la risposta `e la
stessa: variano in modo misurabile.
Qualche altro dettaglio
Qualche altro dettaglio
Teorema ergodico subadditivo (Kingman).
Sia (hn )n≥1 una sequenza di funzioni misurabili M → R ∪ {−∞}
con le propriet`a:
1. integrabilit`a: h1+ ∈ L1 (M, µ);
2. subadditivit`a: hm+n ≤ hm + hn ◦ f m , µ − q.o.
Qualche altro dettaglio
Teorema ergodico subadditivo (Kingman).
Sia (hn )n≥1 una sequenza di funzioni misurabili M → R ∪ {−∞}
con le propriet`a:
1. integrabilit`a: h1+ ∈ L1 (M, µ);
2. subadditivit`a: hm+n ≤ hm + hn ◦ f m , µ − q.o.
Allora esiste una funzione misurabile f -invariante
h : M → R ∪ {−∞} tale che h+ ∈ L1 (M, µ),
1
hn = h,
n→∞ n
lim
µ − q.o.
e
1
lim
n→∞ n
Z
Z
1
hn (x)µ(dx) = inf
hn (x)µ(dx)
n n M
M
Z
=
h(x)µ(dx)
M
Esempio: hn (x) = log k(Txn )∧p k, (p = 1, . . . , m).
Teorema sui prodotti di matrici (Ruelle)
Teorema sui prodotti di matrici (Ruelle) Sia (Tn )n>0 una
sequenza di matrici reali m × m tali che
lim sup
n→∞
1
log kTn k ≤ 0
n
Poniamo T n = Tn · · · T2 T1 ed assumiamo che i limiti
limn→∞ n1 log k(T n )∧p k esistano per p = 1, . . . , m. Allora
Teorema sui prodotti di matrici (Ruelle) Sia (Tn )n>0 una
sequenza di matrici reali m × m tali che
lim sup
n→∞
1
log kTn k ≤ 0
n
Poniamo T n = Tn · · · T2 T1 ed assumiamo che i limiti
limn→∞ n1 log k(T n )∧p k esistano per p = 1, . . . , m. Allora
1) esiste il limite limn→∞ (T n∗ T n )1/2n = Λ
Teorema sui prodotti di matrici (Ruelle) Sia (Tn )n>0 una
sequenza di matrici reali m × m tali che
lim sup
n→∞
1
log kTn k ≤ 0
n
Poniamo T n = Tn · · · T2 T1 ed assumiamo che i limiti
limn→∞ n1 log k(T n )∧p k esistano per p = 1, . . . , m. Allora
1) esiste il limite limn→∞ (T n∗ T n )1/2n = Λ
2) se γ (1) > · · · > γ (r ) sono gli autovalori (reali) di Λ (con la
possibilit`a che γ (r ) = 0) e U (1) , . . . , U (r ) i corrispondenti autospazi,
e se poniamo inoltre V (j) = U (j) + · · · + U (r ) con j = 1, . . . , r e
V (r +1) = {0}, allora si ha limn→∞ n1 log kT n uk = log γ (j) quando
u ∈ V (j) \ V (j+1)
(1)
(m)
Dimostrazione. Siano tn ≥ · · · ≥ tn gli autovalori di
(T n∗ T n )1/2 . Dalle ipotesi segue che i limiti
p
Y (l)
1
1
log
tn = lim log k(T n )∧p k
n→∞ n
n→∞ n
lim
l=1
esistono per p = 1, . . . , m, e cos`ı anche i limiti
(p)
limn→∞ n1 log tn = χ(p) . Siano poi λ(1) > · · · > λ(r ) i χ(p) distinti
(j)
e Un (j = 1, . . . , r ) gli spazi generati dagli autovettori di
(T n∗ T n )1/2 corrispondenti. La prima parte segue ora dal fatto che
(j)
per ogni j la sequenza (Un )n>0 `e di Cauchy. Inoltre, posto
(j)
U (j) = limn→∞ Un , per ogni δ > 0 esiste K > 0 tale che
(l)
max {|(u, u0 )| : u ∈ U (j) , u0 ∈ Un , kuk = ku0 k = 1}
(j) −λ(l) |−δ)
≤ K e (−n|λ
Ci`
o implica anche che se 0 6= u ∈ U (j) e n `e abbastanza grande
λ(j) − 2δ ≤
1
kT n uk
log
≤ λ(j) + 2δ
n
kuk
Traccia della dimostrazione del tem
Traccia della dimostrazione del tem
1) Per il teorema ergodico esiste un insieme Γ1 ⊆ M misurabile ed
f -invariante tale che µ(Γ1 ) = 1 e
limn→∞ n1 log kT (f n−1 x)k = 0 se x ∈ Γ1 .
Traccia della dimostrazione del tem
1) Per il teorema ergodico esiste un insieme Γ1 ⊆ M misurabile ed
f -invariante tale che µ(Γ1 ) = 1 e
limn→∞ n1 log kT (f n−1 x)k = 0 se x ∈ Γ1 .
2) Per il teorema ergodico subadditivo si pu`o trovare un insieme
Γ2 ⊆ M misurabile ed f -invariante tale che µ(Γ2 ) = 1 ed i limiti
limn→∞ n1 log k(Txn )∧p k esistano per p = 1, . . . , m e siano funzioni
f -invarianti di x.
Traccia della dimostrazione del tem
1) Per il teorema ergodico esiste un insieme Γ1 ⊆ M misurabile ed
f -invariante tale che µ(Γ1 ) = 1 e
limn→∞ n1 log kT (f n−1 x)k = 0 se x ∈ Γ1 .
2) Per il teorema ergodico subadditivo si pu`o trovare un insieme
Γ2 ⊆ M misurabile ed f -invariante tale che µ(Γ2 ) = 1 ed i limiti
limn→∞ n1 log k(Txn )∧p k esistano per p = 1, . . . , m e siano funzioni
f -invarianti di x.
3) Basta ora applicare la teorema precedente alle matrici
Tn = T (f n−1 x) con x ∈ Γ1 ∩ Γ2 .
Il caso invertibile
Il caso invertibile Supponiamo che f sia un diffeomorfismo.
In questo caso possiamo considerare la dinamica generata da f −1 .
L’inversa della matrice Dx f n `e data da
[Dx f n ]−1 = Df n x f −n
Il caso invertibile Supponiamo che f sia un diffeomorfismo.
In questo caso possiamo considerare la dinamica generata da f −1 .
L’inversa della matrice Dx f n `e data da
[Dx f n ]−1 = Df n x f −n
La misura invariante per f −1 `e ancora µ, mentre lo spettro `e
−λ(r ) > · · · > −λ(2) > −λ(1) (con le stesse molteplicit`a). Se
(−r )
Rm = Ex
(−2)
⊃ · · · ⊃ Ex
(−1)
⊃ Ex
` la corrispondente filtrazione, per ogni j = 2, . . . , r si ha µ − q.o.
(1−j)
dim Ex
(j)
e
(1−j)
∪ Ex = Rm
+ dim Ex = m
(1−j)
Ex
e dunque
Ex
(j)
(j)
∩ Ex = {0}
Se poniamo
(j)
Wx
(j)
(−j)
:= Ex ∩ Ex
possiamo scrivere, µ − q.o.,
(1)
Rm = Ex
(−1)
∩ (Ex
(2)
∪ Ex ) ∩ · · ·
(1−r )
· · · ∩ (Ex
(1)
= Wx
(2)
⊕ Wx
(r )
⊕ · · · ⊕ Wx
(r )
(−r )
∪ Ex ) ∩ Ex
Se poniamo
(j)
Wx
(j)
(−j)
:= Ex ∩ Ex
possiamo scrivere, µ − q.o.,
(1)
Rm = Ex
(−1)
∩ (Ex
(2)
∪ Ex ) ∩ · · ·
(1−r )
· · · ∩ (Ex
(1)
(2)
⊕ Wx
= Wx
(r )
(−r )
∪ Ex ) ∩ Ex
(r )
⊕ · · · ⊕ Wx
L’ultima espressione prende il nome di decomposizione (misurabile)
associata allo spettro. Si ha
(j)
Dx f ±n Wx
(j)
e per ogni 0 6= u ∈ Wx
lim
n→±∞
(j)
= Wf ±n x
j = 1, . . . , r
vale
1
log k(Dx f n )uk = ±λ(j) (x)
n
Prodotti esterni
Prodotti esterni
m
Consideriamo lo spazio R( p ) := ∧p Rm , 1 ≤ p ≤ m, generato dalle
forme esterne p-lineari u1 ∧ · · · ∧ up con ui ∈ Rm .
Prodotti esterni
m
Consideriamo lo spazio R( p ) := ∧p Rm , 1 ≤ p ≤ m, generato dalle
forme esterne p-lineari u1 ∧ · · · ∧ up con ui ∈ Rm . Date
f1 , . . . , fp ∈ (Rm )∗ poniamo
(u1 ∧ · · · ∧ up )(f1 , . . . , fp ) = det[{fi (uj )}i,j ]
Prodotti esterni
m
Consideriamo lo spazio R( p ) := ∧p Rm , 1 ≤ p ≤ m, generato dalle
forme esterne p-lineari u1 ∧ · · · ∧ up con ui ∈ Rm . Date
f1 , . . . , fp ∈ (Rm )∗ poniamo
(u1 ∧ · · · ∧ up )(f1 , . . . , fp ) = det[{fi (uj )}i,j ]
Se {e1 , · · · , em } `e la base canonica di Rm allora
{ei1 ∧ · · · ∧ eip , 1 ≤ i1 < i2 < · · · < ip ≤ m}
m
`e una base ortonormale di R( p ) rispetto al prodotto scalare (e alla
norma da esso indotta):
(u1 ∧ · · · ∧ up , v1 ∧ · · · ∧ vp ) = det[{(ui , vj )}i,j ]
m
Su R( p ) facciamo agire il prodotto esterno p-esimo (Dx f n )∧p di
Dx f n :
(Dx f n )∧p (u1 ∧ · · · ∧ up ) = (Dx f n )u1 ∧ · · · ∧ (Dx f n )up
m
Su R( p ) facciamo agire il prodotto esterno p-esimo (Dx f n )∧p di
Dx f n :
(Dx f n )∧p (u1 ∧ · · · ∧ up ) = (Dx f n )u1 ∧ · · · ∧ (Dx f n )up
Dato un punto regolare x ∈ M, lo spettro di (Dx f )∧p , cio`e il
logaritmo degli autovalori del prodotto esterno p-esimo ottenuto
dal limite
Λ∧p
=
x
≡
1
lim k(Dx f n )∧p k n
n→∞
1
lim ((Dx f n )∧p ∗ (Dx f n )∧p ) 2n
n→∞
P
P
`e dato dai numeri γ = j nj λ(j) con 0 ≤ nj ≤ m(j) e j nj = p. Il
sottospazio associato a γ nella corrispondente decomposizione di
m
(k )
R( p ) P
`e generato da elementi del tipo u1 ∧ · · · ∧ up con uj ∈ Wx j
dove pj=1 λ(kj ) = γ.
(0)
Se indichiamo con Ωp il parallelepipedo p-dimensionale generato
(0)
dai vettori u1 , · · · , up il suo volume |Ωp | `e dato da
q
(0)
|Ωp | = (u1 ∧ · · · ∧ up , u1 ∧ · · · ∧ up ) ≡ ku1 ∧ · · · ∧ up k
In particolare, se i vettori u1 , · · · , up sono ortogonali allora
Q
(0)
|Ωp | = pj=1 kuj k.
(0)
Se indichiamo con Ωp il parallelepipedo p-dimensionale generato
(0)
dai vettori u1 , · · · , up il suo volume |Ωp | `e dato da
q
(0)
|Ωp | = (u1 ∧ · · · ∧ up , u1 ∧ · · · ∧ up ) ≡ ku1 ∧ · · · ∧ up k
In particolare, se i vettori u1 , · · · , up sono ortogonali allora
Q
(0)
|Ωp | = pj=1 kuj k.
(0)
(n)
Sotto l’azione della dinamica Ωp si trasforma in Ωp generato da
(Dx f n u1 , · · · , Dx f n up ) il cui volume `e
(n)
|Ωp | = k(Dx f n )∧p (u1 ∧ · · · ∧ up )k
(kj )
da cui si vede che se uj ∈ Wx
, j = 1, . . . , p, allora
p
X
1
(n)
lim log |Ωp | =
λ(kj )
n→∞ n
j=1
(0)
Se indichiamo con Ωp il parallelepipedo p-dimensionale generato
(0)
dai vettori u1 , · · · , up il suo volume |Ωp | `e dato da
q
(0)
|Ωp | = (u1 ∧ · · · ∧ up , u1 ∧ · · · ∧ up ) ≡ ku1 ∧ · · · ∧ up k
In particolare, se i vettori u1 , · · · , up sono ortogonali allora
Q
(0)
|Ωp | = pj=1 kuj k.
(0)
(n)
Sotto l’azione della dinamica Ωp si trasforma in Ωp generato da
(Dx f n u1 , · · · , Dx f n up ) il cui volume `e
(n)
|Ωp | = k(Dx f n )∧p (u1 ∧ · · · ∧ up )k
(kj )
da cui si vede che se uj ∈ Wx
, j = 1, . . . , p, allora
p
X
1
(n)
lim log |Ωp | =
λ(kj )
n→∞ n
j=1
In particolare, il tasso di espansione (o contrazione) di un
parallelepipedo m-dimensionale `e dato P
dalla somma di tutti
P gli
esponenti con la loro molteplicit`a cio`e rj=1 m(j) λ(j) ≡ m
i=1 λi e,
se il sistema dinamico conserva i volumi, tale somma `e nulla.
Esempio
Esempio Se il determinante
P Jacobiano Jx := det Dx f non dipende
da x, cio`e Jx ≡ J, allora rj=1 m(j) λ(j) = log |J|. Ci`o accade per
l’automorfismo del toro, dove J = 1.
Esempio Se il determinante
P Jacobiano Jx := det Dx f non dipende
da x, cio`e Jx ≡ J, allora rj=1 m(j) λ(j) = log |J|. Ci`o accade per
l’automorfismo del toro, dove J = 1.
Un altro esempio `e la mappa di H´enon f : R2 → R2 data da
f : (x, y ) → (y + 1 − ax 2 , bx),
a, b ∈ R+
si ha J = −b e dunque λ1 + λ2 = log b. Se b `e abbastanza piccolo
ci`
o significa che i volumi vengono contratti esponenzialmente. In
particolare, per a = 1.4 e b = 0.3 gli esperimenti numerici
evidenziano l’esistenza di un attrattore strano con entropia
positiva, pertanto deve essere λ2 < 0 < λ1 . Osserviamo che f `e un
diffeomorfismo con inversa
f −1 : (x, y ) → (b −1 y , x − 1 + ab−2 y 2 )
Simmetrie
Simmetrie Se m = 2N e la matrice T (x) = Dx f `e simplettica per
ogni x, cio`e
0 −IN
∗
T ΛT = Λ
Λ=
IN
0
allora si ha T n∗ ΛT n = Λ e dunque det(T n∗ T n ) = 1 per ogni
n > 0. Pertanto gli esponenti sono simmetrici rispetto allo zero:
λi + λm−i+1 = 0,
i = 1, . . . , N
Simmetrie Se m = 2N e la matrice T (x) = Dx f `e simplettica per
ogni x, cio`e
0 −IN
∗
T ΛT = Λ
Λ=
IN
0
allora si ha T n∗ ΛT n = Λ e dunque det(T n∗ T n ) = 1 per ogni
n > 0. Pertanto gli esponenti sono simmetrici rispetto allo zero:
λi + λm−i+1 = 0,
i = 1, . . . , N
Pi`
u in generale, la condizione
T ∗ ΛT = e −a Λ
d`a det(T n∗ T n ) = e −m a per ogni n > 0 e dunque una simmetria
rispetto ad a/2:
λi + λm−i+1 + a = 0,
i = 1, . . . , N
Entropia
Entropia Sia ψ(x) la funzione definita su [0, 1] da

 −x log x se 0 < x ≤ 1
ψ(x) =

0
se x = 0
ψ `e non negativa, continua e strettamente concava su [0, 1].
Entropia Sia ψ(x) la funzione definita su [0, 1] da

 −x log x se 0 < x ≤ 1
ψ(x) =

0
se x = 0
ψ `e non negativa, continua e strettamente concava su [0, 1].
Sia poi (M, F, µ) uno spazio di probabilit`a e
P = {P0 , P1 , . . . , PN−1 } una partizione di M.
Entropia Sia ψ(x) la funzione definita su [0, 1] da

 −x log x se 0 < x ≤ 1
ψ(x) =

0
se x = 0
ψ `e non negativa, continua e strettamente concava su [0, 1].
Sia poi (M, F, µ) uno spazio di probabilit`a e
P = {P0 , P1 , . . . , PN−1 } una partizione di M.
Si chiama entropia di P (rispetto alla misura µ) l’informazione
media associata a P, cio`e il numero
H(P) =
N−1
X
i=0
ψ(µ(Pi ))
Date due partizioni P e Q l’entropia della partizione P ∨ Q `e data
da
H(P ∨ Q) = H(P) + H(Q|P)
dove H(Q|P) `e l’entropia condizionata della partizione Q rispetto
alla partizione P data da
X
X
H(Q|P) :=
µ(Pi )
ψ(µ(Qj |Pi ))
i
j
Date due partizioni P e Q l’entropia della partizione P ∨ Q `e data
da
H(P ∨ Q) = H(P) + H(Q|P)
dove H(Q|P) `e l’entropia condizionata della partizione Q rispetto
alla partizione P data da
X
X
H(Q|P) :=
µ(Pi )
ψ(µ(Qj |Pi ))
i
j
Si ha
0 ≤ H(Q|P) ≤ H(Q)
con H(Q|P) = 0 se e solo se Q ≥ P(mod0), cio`e Q `e un
raffinamento di P,
Date due partizioni P e Q l’entropia della partizione P ∨ Q `e data
da
H(P ∨ Q) = H(P) + H(Q|P)
dove H(Q|P) `e l’entropia condizionata della partizione Q rispetto
alla partizione P data da
X
X
H(Q|P) :=
µ(Pi )
ψ(µ(Qj |Pi ))
i
j
Si ha
0 ≤ H(Q|P) ≤ H(Q)
con H(Q|P) = 0 se e solo se Q ≥ P(mod0), cio`e Q `e un
raffinamento di P, e H(Q|P) = H(Q) se P e Q sono indipendenti,
cio`e µ(Pi ∩ Qj ) = µ(Pi )µ(Qj ), ∀i, j.
Date due partizioni P e Q l’entropia della partizione P ∨ Q `e data
da
H(P ∨ Q) = H(P) + H(Q|P)
dove H(Q|P) `e l’entropia condizionata della partizione Q rispetto
alla partizione P data da
X
X
H(Q|P) :=
µ(Pi )
ψ(µ(Qj |Pi ))
i
j
Si ha
0 ≤ H(Q|P) ≤ H(Q)
con H(Q|P) = 0 se e solo se Q ≥ P(mod0), cio`e Q `e un
raffinamento di P, e H(Q|P) = H(Q) se P e Q sono indipendenti,
cio`e µ(Pi ∩ Qj ) = µ(Pi )µ(Qj ), ∀i, j.
n−1 −k
` ben definito il
Data f : M → M poniamo P n := ∨k=0
f P. E
limite
H(P n )
hµ (f , P) = lim
n→∞
n
e si chiama entropia di P relativa a f .
Se assegnamo all’insieme delle partizioni di M la metrica di
Rokhlin dR data da
dR (P, Q) = H(P|Q) + H(P|Q),
si pu`
o mostrare che hµ (f , P) `e continua su tale insieme, pi`
u
precisamente
|hµ (f , P) − hµ (f , Q)| ≤ dR (P, Q)
Se assegnamo all’insieme delle partizioni di M la metrica di
Rokhlin dR data da
dR (P, Q) = H(P|Q) + H(P|Q),
si pu`
o mostrare che hµ (f , P) `e continua su tale insieme, pi`
u
precisamente
|hµ (f , P) − hµ (f , Q)| ≤ dR (P, Q)
Prendendo l’estremo superiore sulle partizioni otteniamo l’entropia
metrica del sistema dinamico (M, F, µ, f ):
hµ (f ) = sup hµ (f , P)
P
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
La partizione P si dice generante se π `e un isomorfismo. Questa
propriet`a pu`o essere espressa dicendo che la famiglia di partizioni
P n `e densa nell’insieme di tutte le partizioni rispetto alla metrica di
Rokhlin.
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
La partizione P si dice generante se π `e un isomorfismo. Questa
propriet`a pu`o essere espressa dicendo che la famiglia di partizioni
P n `e densa nell’insieme di tutte le partizioni rispetto alla metrica di
Rokhlin. Da ci`o segue il
Teorema del generatore (Sinai).
Se P `e generante allora hµ (f , P) = hµ (f ).
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
La partizione P si dice generante se π `e un isomorfismo. Questa
propriet`a pu`o essere espressa dicendo che la famiglia di partizioni
P n `e densa nell’insieme di tutte le partizioni rispetto alla metrica di
Rokhlin. Da ci`o segue il
Teorema del generatore (Sinai).
Se P `e generante allora hµ (f , P) = hµ (f ).
In direzione opposta si ha che ogni sistema ergodico con entropia
finita ammette una descrizione simbolica che lo rende isomorfo ad
un processo stocastico stazionario:
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
La partizione P si dice generante se π `e un isomorfismo. Questa
propriet`a pu`o essere espressa dicendo che la famiglia di partizioni
P n `e densa nell’insieme di tutte le partizioni rispetto alla metrica di
Rokhlin. Da ci`o segue il
Teorema del generatore (Sinai).
Se P `e generante allora hµ (f , P) = hµ (f ).
In direzione opposta si ha che ogni sistema ergodico con entropia
finita ammette una descrizione simbolica che lo rende isomorfo ad
un processo stocastico stazionario:
Teorema (Krieger).
Se (M, F, µ, f ) `e ergodico e hµ (f ) < ∞ allora esiste sempre una
partizione generante, quindi tale che hµ (f ) = hµ (f , P).
Sia A = {0, 1, . . . , N − 1} l’alfabeto e consideriamo il codice
π : M → AN definito da (φx)n = ωn = k ⇐⇒ f n (x) ∈ Pk .
La partizione P si dice generante se π `e un isomorfismo. Questa
propriet`a pu`o essere espressa dicendo che la famiglia di partizioni
P n `e densa nell’insieme di tutte le partizioni rispetto alla metrica di
Rokhlin. Da ci`o segue il
Teorema del generatore (Sinai).
Se P `e generante allora hµ (f , P) = hµ (f ).
In direzione opposta si ha che ogni sistema ergodico con entropia
finita ammette una descrizione simbolica che lo rende isomorfo ad
un processo stocastico stazionario:
Teorema (Krieger).
Se (M, F, µ, f ) `e ergodico e hµ (f ) < ∞ allora esiste sempre una
partizione generante, quindi tale che hµ (f ) = hµ (f , P).
Esempio Per la famiglia logistica fr : [0, 1] → [0, 1] definita da
fr (x) = rx(1 − x) con parametro r ∈ (0, 4] la partizione
P = {[0, 12 ), [ 21 , 1]} `e generante.
Esponenti di Lyapunov ed entropia
Esponenti di Lyapunov ed entropia
Indichiamo ancora con Q l’insieme dei punti regolari di M e
definiamo una funzione χ : Q → R come
X
χ(x) :=
m(j) (x)λ(j) (x)
λ(j) (x)≥0
Se gli esponenti sono tutti negativi poniamo χ(x) := 0.
Esponenti di Lyapunov ed entropia
Indichiamo ancora con Q l’insieme dei punti regolari di M e
definiamo una funzione χ : Q → R come
X
χ(x) :=
m(j) (x)λ(j) (x)
λ(j) (x)≥0
Se gli esponenti sono tutti negativi poniamo χ(x) := 0.
Teorema (Ruelle, 1978)
Se f : M R→ M `e una mappa C 1 e µ una misura f -invariante, allora
hµ (f ) ≤ M χ(x) µ(dx).
Esponenti di Lyapunov ed entropia
Indichiamo ancora con Q l’insieme dei punti regolari di M e
definiamo una funzione χ : Q → R come
X
χ(x) :=
m(j) (x)λ(j) (x)
λ(j) (x)≥0
Se gli esponenti sono tutti negativi poniamo χ(x) := 0.
Teorema (Ruelle, 1978)
Se f : M R→ M `e una mappa C 1 e µ una misura f -invariante, allora
hµ (f ) ≤ M χ(x) µ(dx).
Teorema (Pesin, 1977)
Se f : M → M `e un diffeomorfismo con derivata
h¨olderiana e µ
R
una misura f -invariante a.c. allora hµ (f ) = M χ(x) µ(dx).
Esponenti di Lyapunov ed entropia
Indichiamo ancora con Q l’insieme dei punti regolari di M e
definiamo una funzione χ : Q → R come
X
χ(x) :=
m(j) (x)λ(j) (x)
λ(j) (x)≥0
Se gli esponenti sono tutti negativi poniamo χ(x) := 0.
Teorema (Ruelle, 1978)
Se f : M R→ M `e una mappa C 1 e µ una misura f -invariante, allora
hµ (f ) ≤ M χ(x) µ(dx).
Teorema (Pesin, 1977)
Se f : M → M `e un diffeomorfismo con derivata
h¨olderiana e µ
R
una misura f -invariante a.c. allora hµ (f ) = M χ(x) µ(dx).
Osserviamo che sebbene χ sia definita solo su Q, gli integrali su M
sono ben definiti essendo µ(M \ Q) = 0 per il tem. Se poi µ `e
ergodica
allora χ P
`e µ-quasi ovunque costante e
R
(j) (j)
χ(x)
µ(dx)
=
λ(j) ≥0 m λ .
M
Esempio
Esempio
Sia M = Tm il toro m-dimensionale e f : Tm → Tm un
automorfismo lineare con autovalori ν1 , . . . , νm tali che
ν1 · · · νm = 1.
Esempio
Sia M = Tm il toro m-dimensionale e f : Tm → Tm un
automorfismo lineare con autovalori ν1 , . . . , νm tali che
ν1 · · · νm = 1.
P
In questo caso si ha χ(x) = |νi |≥1 log |νi | per ogni x ∈ Tm .
Esempio
Sia M = Tm il toro m-dimensionale e f : Tm → Tm un
automorfismo lineare con autovalori ν1 , . . . , νm tali che
ν1 · · · νm = 1.
P
In questo caso si ha χ(x) = |νi |≥1 log |νi | per ogni x ∈ Tm .
Se µ `e laP
misura di Haar su Tm allora si ha (Pesin)
hµ (f ) = |νi |≥1 log |νi |.
Esempio
Sia M = Tm il toro m-dimensionale e f : Tm → Tm un
automorfismo lineare con autovalori ν1 , . . . , νm tali che
ν1 · · · νm = 1.
P
In questo caso si ha χ(x) = |νi |≥1 log |νi | per ogni x ∈ Tm .
Se µ `e laP
misura di Haar su Tm allora si ha (Pesin)
hµ (f ) = |νi |≥1 log |νi |.
D’altra parte, per un’arbitraria
misura di probabilit`a f -invariante ρ
P
si ha (Ruelle) hρ (f ) ≤ |νi |≥1 log |νi |, che insieme al principio
variazionale per l’entropia d`a
X
htop (f ) = sup hρ (f ) ≤
log |νi |
ρ
|νi |≥1
Esempio
Sia M = Tm il toro m-dimensionale e f : Tm → Tm un
automorfismo lineare con autovalori ν1 , . . . , νm tali che
ν1 · · · νm = 1.
P
In questo caso si ha χ(x) = |νi |≥1 log |νi | per ogni x ∈ Tm .
Se µ `e laP
misura di Haar su Tm allora si ha (Pesin)
hµ (f ) = |νi |≥1 log |νi |.
D’altra parte, per un’arbitraria
misura di probabilit`a f -invariante ρ
P
si ha (Ruelle) hρ (f ) ≤ |νi |≥1 log |νi |, che insieme al principio
variazionale per l’entropia d`a
X
htop (f ) = sup hρ (f ) ≤
log |νi |
ρ
|νi |≥1
Valendo l’uguaglianza
P per ρ = µ si ha infine
htop (f ) = hµ (f ) = |νi |≥1 log |νi | (Sinai, 1958).
Esempio
Esempio
Famiglia logistica: fr (x) = rx(1 − x). Se r = 4 si trova
e dal teorema ergodico e il teorema di Pesin si
µ(dx) = √ dx
π
x(1−x)
ha
Z
hµ (f ) = λ =
1
log |f 0 (x)|µ(dx) = log 2 = htop (f )
0
Analogo risultato per valori del parametro r ∈ (0, 4] tali che il
punto critico 1/2 viene mappato su un’orbita periodica instabile in
un numero finito di passi (Ruelle).
Esempio
Famiglia logistica: fr (x) = rx(1 − x). Se r = 4 si trova
e dal teorema ergodico e il teorema di Pesin si
µ(dx) = √ dx
π
x(1−x)
ha
Z
hµ (f ) = λ =
1
log |f 0 (x)|µ(dx) = log 2 = htop (f )
0
Analogo risultato per valori del parametro r ∈ (0, 4] tali che il
punto critico 1/2 viene mappato su un’orbita periodica instabile in
un numero finito di passi (Ruelle).
Di nuovo: dipendenza non continua dal parametro r .
Esponenti di Lyapunov e dimensione frattale
La dimensione d’informazione di una misura di probabilit`a µ su M
`e il numero
dimH µ = inf{dimH A : µ(A) = 1}
Esponenti di Lyapunov e dimensione frattale
La dimensione d’informazione di una misura di probabilit`a µ su M
`e il numero
dimH µ = inf{dimH A : µ(A) = 1}
dove dimH A `e la dimensione di Hausdorff dell’insieme A:
dimH A = sup {α : mα = +∞} = inf {α : mα = 0}
con
mα = lim inf
ρ→0 σ
∞
X
(ρk )α
k=1
e i ρk ≤ ρ sono diametri di insiemi che formano un ricoprimento
numerabile σ di A.
Esponenti di Lyapunov e dimensione frattale
La dimensione d’informazione di una misura di probabilit`a µ su M
`e il numero
dimH µ = inf{dimH A : µ(A) = 1}
dove dimH A `e la dimensione di Hausdorff dell’insieme A:
dimH A = sup {α : mα = +∞} = inf {α : mα = 0}
con
mα = lim inf
ρ→0 σ
∞
X
(ρk )α
k=1
e i ρk ≤ ρ sono diametri di insiemi che formano un ricoprimento
numerabile σ di A.
Esempio
Per la misura invariante µ supportata sull’attrattore di H`enon per
a = 1.4 e b = 0.3 si trova dimH µ ' 1.21 (Grassberger).
Altro esempio
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
contiene il simbolo 1 in proporzione p.
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1.
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1. Sia ora f : [0, 1] → [0, 1] la mappa
f (x) = 2x (mod1). Tale mappa opera come una traslazione sullo
sviluppo binario di x.
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1. Sia ora f : [0, 1] → [0, 1] la mappa
f (x) = 2x (mod1). Tale mappa opera come una traslazione sullo
sviluppo binario di x. Sia inoltre µp l’unica misura bernoulliana
f -invariante su [0, 1] tale che µp ((1/2, 1]) = p ( µ1/2 `e Lebesgue ).
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1. Sia ora f : [0, 1] → [0, 1] la mappa
f (x) = 2x (mod1). Tale mappa opera come una traslazione sullo
sviluppo binario di x. Sia inoltre µp l’unica misura bernoulliana
f -invariante su [0, 1] tale che µp ((1/2, 1]) = p ( µ1/2 `e Lebesgue ).
L’esponente di Lyapunov di f vale λ = log f 0 = log 2 per ogni
misura invariante µp .
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1. Sia ora f : [0, 1] → [0, 1] la mappa
f (x) = 2x (mod1). Tale mappa opera come una traslazione sullo
sviluppo binario di x. Sia inoltre µp l’unica misura bernoulliana
f -invariante su [0, 1] tale che µp ((1/2, 1]) = p ( µ1/2 `e Lebesgue ).
L’esponente di Lyapunov di f vale λ = log f 0 = log 2 per ogni
misura invariante µp . Inoltre, essendo la partizione binaria
generante, l’entropia `e
hµp (f ) = −p log p − (1 − p) log (1 − p)
Altro esempio
Sia Xp ⊂ [0, 1] l’insieme dei numeri in [0, 1] il cui sviluppo binario
` noto che (Eggleston,
contiene il simbolo 1 in proporzione p. E
1949)
−p log p − (1 − p) log (1 − p)
dimH Xp =
log 2
In particolare dimH X1/2 = 1. Sia ora f : [0, 1] → [0, 1] la mappa
f (x) = 2x (mod1). Tale mappa opera come una traslazione sullo
sviluppo binario di x. Sia inoltre µp l’unica misura bernoulliana
f -invariante su [0, 1] tale che µp ((1/2, 1]) = p ( µ1/2 `e Lebesgue ).
L’esponente di Lyapunov di f vale λ = log f 0 = log 2 per ogni
misura invariante µp . Inoltre, essendo la partizione binaria
generante, l’entropia `e
hµp (f ) = −p log p − (1 − p) log (1 − p)
Il risultato di Eggleston si pu`o riscrivere nella forma
dimH µp =
hµp (f )
λ
Se f : M → M preserva una misura ergodica µ con esponenti di
Lyapunov (µ − q.o. costanti) λ1 ≥ λ2 ≥ · · · ≥ λm si chiama
dimensione di Lyapunov di µ il numero
dimΛ µ = k +
λ1 + · · · + λk
|λk+1 |
dove
k = max{i : λ1 + · · · + λi > 0}
Se f : M → M preserva una misura ergodica µ con esponenti di
Lyapunov (µ − q.o. costanti) λ1 ≥ λ2 ≥ · · · ≥ λm si chiama
dimensione di Lyapunov di µ il numero
dimΛ µ = k +
λ1 + · · · + λk
|λk+1 |
dove
k = max{i : λ1 + · · · + λi > 0}
Si ha la
Congettura (Kaplan e Yorke (1979)) Se µ `e SRB allora
dimΛ µ = dimH µ.
Se f : M → M preserva una misura ergodica µ con esponenti di
Lyapunov (µ − q.o. costanti) λ1 ≥ λ2 ≥ · · · ≥ λm si chiama
dimensione di Lyapunov di µ il numero
dimΛ µ = k +
λ1 + · · · + λk
|λk+1 |
dove
k = max{i : λ1 + · · · + λi > 0}
Si ha la
Congettura (Kaplan e Yorke (1979)) Se µ `e SRB allora
dimΛ µ = dimH µ.
Algoritmi per il calcolo numerico degli esponenti
1. Il metodo di Benettin et al
(1980)
1. Il metodo di Benettin et al (1980)
Il metodo `e basato sull’osservazione che il volume di un generico
parallelepipedo p-dimensionale
Ωp cresce con un tasso esponenziale
P
dato dalla somma pi=1 λi dei primi p esponenti di Lyapunov
(ripetuti). Sia dunque u1 , . . . , um una base ortonormale di Tx M. I
vettori Dx f n u1 , . . . , Dx f n um non saranno pi`
u ortogonali n´e
normalizzati (in generale).
1. Il metodo di Benettin et al (1980)
Il metodo `e basato sull’osservazione che il volume di un generico
parallelepipedo p-dimensionale
Ωp cresce con un tasso esponenziale
P
dato dalla somma pi=1 λi dei primi p esponenti di Lyapunov
(ripetuti). Sia dunque u1 , . . . , um una base ortonormale di Tx M. I
vettori Dx f n u1 , . . . , Dx f n um non saranno pi`
u ortogonali n´e
normalizzati (in generale).
Si pu`
o per`o ottenere una nuova base siffatta per mezzo della
procedura di ortonormalizzazione di Gram-Schmidt:
D x f n u1
(n)
v1 =
kDx f n u1 k
e, per i = 2, . . . , m,
(1 − Pv(n) ) · · · (1 − Pv(n) )Dx f n ui
(n)
1
i−1
vi =
k(1 − Pv(n) ) · · · (1 − Pv(n) )Dx f n ui k
i−1
dove Pv u = (v, u) v.
1
1. Il metodo di Benettin et al (1980)
Il metodo `e basato sull’osservazione che il volume di un generico
parallelepipedo p-dimensionale
Ωp cresce con un tasso esponenziale
P
dato dalla somma pi=1 λi dei primi p esponenti di Lyapunov
(ripetuti). Sia dunque u1 , . . . , um una base ortonormale di Tx M. I
vettori Dx f n u1 , . . . , Dx f n um non saranno pi`
u ortogonali n´e
normalizzati (in generale).
Si pu`
o per`o ottenere una nuova base siffatta per mezzo della
procedura di ortonormalizzazione di Gram-Schmidt:
D x f n u1
(n)
v1 =
kDx f n u1 k
e, per i = 2, . . . , m,
(1 − Pv(n) ) · · · (1 − Pv(n) )Dx f n ui
(n)
1
i−1
vi =
k(1 − Pv(n) ) · · · (1 − Pv(n) )Dx f n ui k
i−1
1
dove Pv u = (v, u) v. L’esponente λi sar`a allora ottenuto da
1
λi = lim log k(1 − Pv(n) ) · · · (1 − Pv(n) )Dx f n ui k
n→∞ n
1
i−1
2. Il metodo di Eckmann e Ruelle (1985)
2. Il metodo di Eckmann e Ruelle (1985) Una matrice T reale
m × m pu`o essere decomposta come T = QR dove Q `e una
matrice ortogonale e R una matrice triangolare superiore. Se la
matrice di partenza `e non singolare e richiediamo che gli elementi
diagonali di R siano non negativi, allora tale decomposizione `e
unica.
2. Il metodo di Eckmann e Ruelle (1985) Una matrice T reale
m × m pu`o essere decomposta come T = QR dove Q `e una
matrice ortogonale e R una matrice triangolare superiore. Se la
matrice di partenza `e non singolare e richiediamo che gli elementi
diagonali di R siano non negativi, allora tale decomposizione `e
unica. Un metodo per ottenere questa decomposizione utilizza
ancora una volta la procedura di ortonormalizzazione di
Gram-Schmidt: sia T = (u1 | · · · |um ) dove ui denota la i-esima
(n)
colonna di T . Se poniamo v1 = kuu11 k e
(n)
vi
=
(1 − Pv(n) ) · · · (1 − Pv(n) )ui
i−1
1
k(1 − Pv(n) ) · · · (1 − Pv(n) )ui k
i−1
,
i = 2, . . . , m
1
allora Q = (v1 | · · · |vm ) e

(v1 , u1 ) (v1 , u2 ) (v1 , u3 )

0
(v2 , u2 ) (v2 , u3 )

R = Q ∗T = 
0
0
(v3 , u3 )

..
..
..
.
.
.
...
...
...
..
.





Poniamo dunque
Dx f = Q1 R1
e decomponiamo
Tk0
e
Tk0 = Df k−1 x f Qk−1 ,
= Qk Rk cosicch`e Dx
fn
k = 2, 3, . . .
= Qn Rn · · · R1 .
Poniamo dunque
Dx f = Q1 R1
Tk0
e
Tk0 = Df k−1 x f Qk−1 ,
fn
k = 2, 3, . . .
e decomponiamo
= Qk Rk cosicch`e Dx = Qn Rn · · · R1 . Il
metodo si basa sul fatto che il prodotto Rn · · · R1 `e a sua volta una
matrice triangolare superiore, i cui autovalori sono semplicemente
(n)
gli elementi diagonali rii , pertanto (scegliendo ai fini pratici
Qn = Im ):
1
(n)
λi = lim log rii
n→∞ n
Poniamo dunque
Dx f = Q1 R1
Tk0
e
Tk0 = Df k−1 x f Qk−1 ,
fn
k = 2, 3, . . .
e decomponiamo
= Qk Rk cosicch`e Dx = Qn Rn · · · R1 . Il
metodo si basa sul fatto che il prodotto Rn · · · R1 `e a sua volta una
matrice triangolare superiore, i cui autovalori sono semplicemente
(n)
gli elementi diagonali rii , pertanto (scegliendo ai fini pratici
Qn = Im ):
1
(n)
λi = lim log rii
n→∞ n
Osserviamo che gli esponenti cos`ı ottenuti sono automaticamente
(j)
ordinati in ordine decrescente. Usando questo fatto, lo spazio Ex
corrispondente agli autovalori ≤ λ(j) pu`o essere calcolato come
segue:
Poniamo dunque
Dx f = Q1 R1
Tk0
e
Tk0 = Df k−1 x f Qk−1 ,
fn
k = 2, 3, . . .
e decomponiamo
= Qk Rk cosicch`e Dx = Qn Rn · · · R1 . Il
metodo si basa sul fatto che il prodotto Rn · · · R1 `e a sua volta una
matrice triangolare superiore, i cui autovalori sono semplicemente
(n)
gli elementi diagonali rii , pertanto (scegliendo ai fini pratici
Qn = Im ):
1
(n)
λi = lim log rii
n→∞ n
Osserviamo che gli esponenti cos`ı ottenuti sono automaticamente
(j)
ordinati in ordine decrescente. Usando questo fatto, lo spazio Ex
corrispondente agli autovalori ≤ λ(j) pu`o essere calcolato come
segue: siano m(1) (x), . . . , m(r ) (x) le molteplicit`a degli autovalori
λ(1) > · · · > λ(r ) e consideriamo gli ultimi
νj (x) = m(j) (x) + · · · + m(r ) (x) vettori colonna della matrice
R1−1 · · · Rn−1 ∆ dove ∆ `e la matrice costituita dai soli elementi
(j)
(j)
diagonali di Rn · · · R1 . Allora si ha Ex = limn→∞ Ex (n) dove
(j)
Ex (n) `e lo spazio generato dai νj vettori considerati sopra.
Base stazionaria di Lyapunov (Ershov e Potapov (1998))
Base stazionaria di Lyapunov (Ershov e Potapov (1998))
Siano gi; n (x), i = 1, . . . , m, gli autovettori ortogonali della matrice
(n)
simmetrica Λx := (Dx f n )∗ Dx f n e γi; n (x) i corrispondenti
1/2n
autovalori. Per quanto visto si ha limn→∞ γi; n (x) = e λi , µ − q.o.
Base stazionaria di Lyapunov (Ershov e Potapov (1998))
Siano gi; n (x), i = 1, . . . , m, gli autovettori ortogonali della matrice
(n)
simmetrica Λx := (Dx f n )∗ Dx f n e γi; n (x) i corrispondenti
1/2n
autovalori. Per quanto visto si ha limn→∞ γi; n (x) = e λi , µ − q.o.
I vettori normalizzati ottenuti evolvendo i gi; n , cio`e
hi;n (x) := p
1
γi; n (x)
Dx f n gi;n (x)
formano una base ortonormale di Tf n x M ! Infatti
1
(Dx f n gi; n , Dx f n gj;n )
γi; n γj; n
1
(gi;n , (Dx f n )∗ Dx f n gj;n )
= √
γi;n γj; n
r
γj; n
=
(gi;n , gj;n ) = δi,j
γi; n
(hi; n , hj; n ) =
√
(n)
Poniamo inoltre Ξx := Dx f n (Dx f n )∗ . Allora si ha
(n)
Ξx hi; n (x) =
=
1
Dx f n (Dx f n )∗ Dx f n gi;n (x)
γi;n (x)
γ (x)
pi;n
Dx f n gi;n (x) = γi;n (x) hi; n (x)
γi;n (x)
p
(n)
Poniamo inoltre Ξx := Dx f n (Dx f n )∗ . Allora si ha
(n)
Ξx hi; n (x) =
=
1
Dx f n (Dx f n )∗ Dx f n gi;n (x)
γi;n (x)
γ (x)
pi;n
Dx f n gi;n (x) = γi;n (x) hi; n (x)
γi;n (x)
p
(n)
ovvero hi;n (x) `e autovettore della matrice Ξx
γi; n (x).
con autovalore
(n)
Poniamo inoltre Ξx := Dx f n (Dx f n )∗ . Allora si ha
(n)
Ξx hi; n (x) =
=
1
Dx f n (Dx f n )∗ Dx f n gi;n (x)
γi;n (x)
γ (x)
pi;n
Dx f n gi;n (x) = γi;n (x) hi; n (x)
γi;n (x)
p
(n)
ovvero hi;n (x) `e autovettore della matrice Ξx
γi; n (x). Osserviamo anche che
1
(Dx f n )∗ hi;n (x) =
p
=
p
γi; n (x)
con autovalore
(n)
Λx gi;n (x)
γi; n (x) gi;n (x)
e dunque si ha la relazione inversa
1
gi;n (x) = p
γi; n (x)
(Dx f n )∗ hi;n (x)
Nel caso invertibile, una base ortonormale di Tx M sar`a data da
hi;n (x−n ) = p
1
γi;n (x−n )
dove si `e posto xk = f k (x), k ∈ Z.
Dx−n f n gi;n (x−n )
Nel caso invertibile, una base ortonormale di Tx M sar`a data da
hi;n (x−n ) = p
1
γi;n (x−n )
Dx−n f n gi;n (x−n )
dove si `e posto xk = f k (x), k ∈ Z.
Si ha
(n)
(n)
[Λx−n ]±1 gi;n (x−n )
[Ξx−n ]±1 hi;n (x−n )
=
= γi;±1n (x−n )
gi;n (x−n )
hi;n (x−n )
I vettori limite
hi (x) := lim hi;n (x−n )
n→∞
(i = 1, . . . , m)
determinano una base di Lyapunov stazionaria e si dimostra che
tale base `e unica in ogni punto regolare x ∈ M.