IE vF ƒinisg—lliD 4wos™he in ˜ottigli—4 @IWUSA

Download Report

Transcript IE vF ƒinisg—lliD 4wos™he in ˜ottigli—4 @IWUSA

1
There are more things in heaven and earth, Horatio,
Than are dreamt of in your philosophy.
- Hamlet (1.5.167-8), Shakespeare
Non spezziamo quello che e intero, diventa zero.
- L. Sinisgalli, "Mosche in bottiglia" (1975)
2
Fisica dei Sistemi Complessi
More is Better
Armando Bazzani
Dipartimento di Fisica e Astronomia
Gennaio 2017
2
Contents
0.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Sistemi Dinamici e Meccanica Statistica
1.1 Funzione di distribuzione . . . . . . . . . . . . . . . . . . . . . .
1.2 Modelli dinamici per sistemi complessi . . . . . . . . . . . . . . .
1.2.1 Modello per evolutione di un ecosistema . . . . . . . . . .
1.2.2 Esempio di modello: il traco . . . . . . . . . . . . . . .
1.3 Descrizione statistica di un sistema sico . . . . . . . . . . . . . .
7
11
13
13
15
17
2 Approccio Statistico e Formalismo Termodinamico
21
3 Urti tra particelle e moto Browniano
41
4 Sulla costruzione di un modello stocastico
49
5 Integrazione stocastica
53
6 Equazione di Fokker-Planck
55
7 Appendice
61
8 Equazioni di erenziali stocastiche
65
2.1
2.2
2.3
2.4
2.5
2.6
Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Entropia e carattere Hamiltoniano della dinamica . . . . . . . . .
Sistemi all'equilibrio termodinamico . . . . . . . . . . . . . . . .
Relazione tra Grandezze termodinamiche . . . . . . . . . . . . .
Principio di Massima Entropia e Teoria di Onsager . . . . . . . .
Entropia di Gibbs e Random walk su network . . . . . . . . . . .
26
29
30
32
33
37
5.1 Processo di Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.1 Equazione di Fokker-Planck all'equilibrio . . . . . . . . . . . . . . 58
6.2 Hamiltoniana con bagno termico . . . . . . . . . . . . . . . . . . 60
7.1 Integrale Stocastico (di Ito) . . . . . . . . . . . . . . . . . . . . .
7.2 Cambio di variabile . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.1 Esempio: frequenza con rumore . . . . . . . . . . . . . . .
7.2.2 Esempio: oscillatore stocastico . . . . . . . . . . . . . . .
8.1
8.2
8.3
8.4
8.5
Equazione di Backward . . . . . . . . . . . . . . . . . . . . . . .
Equazione di Forward . . . . . . . . . . . . . . . . . . . . . . . .
Minimizzazione dell'energia libera F . . . . . . . . . . . . . . . .
Massimizzazione dell'entropia S . . . . . . . . . . . . . . . . . . .
Espressione generale dell'equazione di Fokker-Planck . . . . . . .
3
61
62
63
63
66
67
68
69
71
4
CONTENTS
9 Integrazione stocastica
73
10 Equazioni di erenziali stocastiche
79
9.1 Processo di Wiener . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Integrale Stocastico (di Ito) . . . . . . . . . . . . . . . . . . . . .
9.3 Cambio di variabile . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1 Esempio: frequenza con rumore . . . . . . . . . . . . . . .
9.3.2 Esempio: oscillatore stocastico . . . . . . . . . . . . . . .
10.1
10.2
10.3
10.4
10.5
10.6
10.7
Equazione di Backward . . . . . . . . . . . . . . . . . . . . . . .
Equazione di Forward . . . . . . . . . . . . . . . . . . . . . . . .
Analisi spettrale per un rumore . . . . . . . . . . . . . . . . . . .
Approssimazione overdamped: equazione di Smoluchowski . . . .
10.4.1 Soluzione dell'equazione di Smoluchowski . . . . . . . . .
Formalismo termodinamico . . . . . . . . . . . . . . . . . . . . .
Formula di Jarzinski . . . . . . . . . . . . . . . . . . . . . . . . .
Kramer Rate Theory . . . . . . . . . . . . . . . . . . . . . . . . .
73
74
75
76
76
80
81
82
84
89
91
99
104
0.1. INTRODUZIONE
0.1 Introduzione
5
Il concetto di Complessita e in contrasto con la metodo riduzionista su cui si
basa la sica che consiste nella ricerca delle leggi fondamentali della Natura
6
CONTENTS
Chapter 1
Sistemi Dinamici e
Meccanica Statistica
L'approccio sico-matematico alla Scienza della Complessita si basa sulla costruzione
di modelli per quanto possibile sempli cati utilizzando il concetto di Sistema
Dinamico. Consideriamo dunque la de nizione di sistema dinamico: si richiede
l'introduzione di
uno spazio delle fasi: M i cui punti siano associati allo stato dinamico del
sistema e su cui e de nita una misura (x);
un usso di fase, ovvero un gruppo di trasformazioni invertibili su M
dipendenti da un parametro reale t
x(t) = t (x) x 2 M
con le proprita: t s = t+s
(t) sono di erenziabili
0 = I ovvero l'identita
la misura (x)dx e invariante per la dinamica del usso di fase ((x) da
la densit'e.gli stati rispetto alla misura di Lebesgue):
8A M insieme misurabile, vale che (t (A)) = (A)
La richiesta di uno spazio delle fasi signi ca un'assunzione a priori della possibilita di identi care lo stato dinamico del sistema (ovvero gli osservabili che ne
determinano l'evoluzione). Questo presuppone l'aver identi cato gli osservabili
rilevanti per il fenomeno considerato, trascurando tutte le altre variabili presenti.Inoltre la struttura geometrica dello spazio delle fasi ci da delle informazioni
fondamentali sulla natura del fenomeno osservato (ad esempio il numro di gradi di liberta). L'esistenza di un usso di fase t assume che l'evoluzione dello
stato del sistema e deterministica e dipende solo dalle condizioni iniziali nello
spazio delle fasi; il tempo svolge ovviamente il ruolo di parametro privilegiato
per l'evoluzione del sistema ed e al contempo una variabile sica. Le proprieta
matematiche del usso di fase (proprieta di gruppo e regolarita) consentono di
associare un campo vettoriale
d t
a(x) = tlim
!0 dt (x)
7
8
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
Le traiettorie x(t) = t(x0) sono soluzioni del sistema di equazioni di erenziali
x_ (t) = a(x(t))
Infatti dalle de nizioni segue che
t(x(t)) x(t) = a(x(t))
x_ (t) = lim
t!0
t
Data una funzione regolare f (x) de nita nello spazio delle fasi (f (x)si dice
osservabile), l'evoluzione di f (x) lungo le traiettorie t (x) si de nisce
f (x; t) = f (t (x))
(1.1)
Se introduciamo la derivata di Lie
@f
(1.2)
Da(x) f (x; t) = a(x) (x; t)
@x
otteniamo la seguente equazione per l'evoluzione temporale
Da(x) f (x; t) =
@f
(x; t)
@t
(1.3)
Dimostrazione: le proprieta di gruppo del usso di fase consentono generalizzare
una a ermazione vera per t ! 0 ad ogni tempo. Quindi basta veri care che
f (x; t) = f (x + a(x)t + ::) = f (x; 0) + a(x)
da cui per t ! 0 otteniamo l'equazione.
@f
t + ::::
@x
Notiamo che l'equazione (6.1) e lineare e possiamo ottenere una soluzione
formale utilizzando la de nzione di trasformata di Lie
X tn
Dn f (x)
f (x; t) = exp tDa(x) f (x) =
n! a(x)
n 0
Per de nizione di usso di fase abbiamo
t(x) = exp tDa(x) x
e quindi si ottiene la notevole relazione
f exp tDa(x) x = exp tDa(x) f (x)
valida per qualunque osservabile. Se esiste una funzione I (x) nello spazio delle
fasi tale che
@I
a(x) = 0
@x
I (x) risulta invariante rispetto al usso di fase t e si dice integrale primo
del moto. L'esistenza di integrali primi del moto impone vincoli geomettrici
alle soluzioni t(x) in quanto le super ci I (x) = const: sono invarianti nello
spazio delle fasi e si puo ridurre la dimensionalita del sistema restringendoci
proiettando su tali super ci.
9
La richiesta di convervare una misura (x) nello spazio delle fasi implica La
conservazione della misura implica
Z
Z
Z
@ t
t
(x)dx = ( (x))Det
dx = (x)dx
t (A)
@x
A
A
qualunque sia il sottoinsieme A misurabile nello spazio delle fasi ed ha conseguenze sulle proprieta del campo vettoriale a(x): vale il seguente
Lemma. Il campo vettoriale a(x) soddisfa alla relazione
div a(x)(x) = 0
(1.4)
Approssimando il usso di fase per t ! 0
t(x) = x + a(x)t + ::::
abbiamo la relazione di erenzale
@a
@
a(x)t 1
t dx = (x)dx
(x)
@x
@x
da cui
@
(x)a(x) = 0
@x
Corollario: Il usso di fase sistema dinamico associato al campo vettoriale
Nella Meccanica Classica i sistemi dinamici piu rilevanti sono i sistemi Hamiltoniani, per cui il usso di fase e associato alle equazioni di erenziali:
x_ = a(x) tale che la divergenza r a(x) = 0 conserva la misura di Lebesgue.
q = @H
@p
p = @H
@q
Inroducendo la matrice simplettica J
0
I
0
con I matrice identita di ordine pari al numero di gradi di liberta, i sistemi
Hamiltoniani hanno la forma
@H
x_ = J
@x
con x = (q; p). Dalla de nizione segue che i sistemi dinamici Hamiltoniani
conservano i volumi nello spazio delle fasi e la funzione di Hamilton H (x) e un
integrale primo del moto.
L'equazione
a(x) = 0
de nisce i punti ssi (o soluzione di equilibrion) del sistema. Lo studio dei punti
ssi fornisce informazioni importanti sulla dinamica e sulla struttura dello spazio
delle fasi. Esempio: in uno spazio delle fasi sferico deve esistere almeno un punto
I
10
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
sso in quanto non e possibile costruire un campo vettirale sulla sfera senza
punti ssi; quindi un sistema che non ha punti ssi non puo avere una super ce
invariante sferica. Classi chiamo i punti ssi per sistemi bidimensionali: dato
un punto sso x0 la linearizzazione del campo vettoriale a(x) nell'intorno del
punto sso si de nisce
@a
X_ = (x0 )X
(1.5)
@x
con X = x x0 . In talune condizioni il moto del sistema linearizzato consente
di ottenere informazioni sul moto del sistema completo: la matematica che
si occupa di tali problemi e la Teoria delle Perturbazioni. Il sistema (1.5) e
completamente risolubile calcolando autovalori ed autovettori v della matrice
@ai =@xj (x0 ) che possono essere complessi. Consideriamo il caso di una matrice
diagonalizzabile. Nel caso reale la soluzione si scrive direttamente come
X
X (t) = ck vk ek t
k
dove le costanti ck dipendono dalle condizioni iniziali. Nel caso complesso se k
e autovalore anche il suo complesso coniugato lo e, ed avremo
h
i
X
R
R
X (t) = cRk Re(vk )ek t cos cos(Ik t) cIk Im(vk )ek t sin cos(Ik t)
k
dove la somma si estende soloR;Ia meta degli autovalori escludendo i complessi
coniugati e le costanti reali ck dipendono dalle condizioni iniziali. In questo
caso avremo dei piano invarianti de niti dai vettori reali Re(vk ) e Im(vk ).
Il moto risulta una composizione di un moto oscillatorio ed una dilatazione (o
contrazione) esponenziale. Gli autovalori i de niscono la stabilita lineare del
sistema. Nel caso Rei > 0 per un qualche i il sistema risulta instabile e vi
de nisce una direzione dilatante. Nel caso piano abbiamo solo due possibilita:
autovalori reali e quindi il moto sara esponeinziale con due auto-direzioni contraenti o dilatanti, oppure due autovalori complessi coniugati R iI con moti
a spirale (dilatante o contraente) e una oscillazione di frequenza ! = I . Il
caso puramente oscillante implica R = 0 e risulta stabile sia per futuro che
nel passato in quanto le traiettorie sono delle ellissi nello spazio delle fasi. Nel
caso = 0 abbiamo una situazione degenere in quanto esistono in niti punti
ssi lungo una retta per il sistema linearizzato; in tal caso la dinamica reale
dipende dai termini non lineari. In molte situazioni siche il sistema dipende da
parametri esterni (che possono essere costanti o modulati nel tempo) e per valori
particolari del parametro si puo annullare un autovalore. Il passaggio da una
matrice ad autovalori reali ad una ad autovalori complessi richiede il 'collasso'
di una comppia di autovalori in zero che da reali diventano complessi coniugati
o vicecersa. La proprieta di conservare i volume nello spazio delle fasi implica
un vincolo per gli autovalori del sistema linearizzato
X
k = 0
k
in quanto la traccia della matrice deve essere nulla. Nel caso piano abbiamo
quindi due possibilita: la matrice ha due autovalori reali oppure due autovalori immaginari puri i!. Nel primo caso avreamo una direzione dilatante
11
1.1. FUNZIONE DI DISTRIBUZIONE
e una contraente nello spazio delle fasi; nel secondo caso un moto puramente
oscillatorio. I sistemi Hamiltoniani soddisfano a tale condizione e i punti ssi
si dicono iperbolici o ellittici. Infatti in entrambi i casi e possibile trovare un
integrale primo del moto quadratico per la dinamica che de niscono curve di
livello iperboli o ellissi.
1.1 Funzione di distribuzione
Per descrivere l'evoluzione di un sistema composto da molte particelle identiche (che evolvono senza interagire) invece di una singola traiettoria avremo
una distribuzione (x; t) di traiettorie con (x; 0) = 0 (x) la distribuzione delle
condizioni iniziali. L'integrale su un sottoinsieme dello spazio delle fasi A
Z
A
(x; t)dx
da il numero di particelle che appartengono all'insieme A al tempo t. Se normalizziamo la disribuzione ad 1, possiamo dare un' interpretazione probabilistica
come densita di probabilita di avere una particella nell'insieme A dello spazio
delle fasi. Dal momento che la dinamica e deterministica, data una distribzione
iniziale 0(x) la sua evoluzione e determinata da
@ t
(1.6)
(x; t) = 0 ( t (x))det
@x
dove t(x) rappresenta il usso di fase. L'equazione (1.6) esprime la condizione
di cotinuita per la conservazione del numero di particelle in un elemento di
volume dx
(x; t)t (dx) = 0 ( t (x))dx
Nota: nel caso det @ t=@x 6= 1 la dinamica non e reversibile nel tempo in
qunato l'evoluzione della funzione di distribuzione distingue tra futuro e passato.
Nel caso la dinamica conservi una misura con densita (x) nello spazio delle fasi,
questa de nisce una distribuzione stazionaria rispetto alla misura di Lebesgue
Z
Z
Z
@ t
t
(x)dx = ( (x))det
dx = (x)dx
t (A)
qualunque sia A. Quindi
@x
A
@ t
(x) = ( t (x))det
@x
A
(1.7)
Nota: la distribuzione potrebbe non essere una funzione regolare.
La conservazione di una misura da parte del usso di fase e in relazione con
l'esistenza di un integrale primo del moto (condizione necessaria). Se esiste
un integrale primo I (x), allora ogni distribuzione (I ) risulta invariante per la
dinamica. In particalare lo spazio risulta foliato in super ci invarianti I (x) = I0
e possiamo introdurre delle coordinate adattate (I; ). L'elemento di volume
nello spazio delle fasi si trasforma
1 dI ^ d
dx =
kOI k
12
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
dove d rappresenta l'elemto di area dell super cie I (x) = I0 . Nel caso esista
una misura invariante possiamo restringere la misura sulle super ci invarianti
d
d
@ t
()dI ^
=
( t ())
det
kOI ()k
kOI k( t ()) @ dI ^ d
ovvero
()
(1.8)
kOI k( t ())
e una misura invariante sulla super cie I (x) = I0 .
Dato un osservabile f (x) de niamo il valor medio < f > al tempo t rispetto
alla distribuzione
Z
< f > (t) = f (x)(x; t)dx
Per de nizione abbiamo anche
Z
Z
< f > (t) = f (t (y))0 (y)dy = f (y; t)0 (y)dy
da cui
d<f >
dt
=
Z
@f
a( (y)) (t (y))0 (y)dy =
@y
t
Z
f (y; t)
@
a(t (y))0 (y)dy
@y
dove abbiamo fatto un'integrazione per parti con condizione al contorno nulle
all'in nito. Mettendo insieme le de nizioni si ottiene l'equazione
Z
Z
Z
@
@
@ t
@
t
f (x) dx =
f (x) a(x)0 ( (x))det
dx =
f (x) a(x)(x; t)dx)
@t
@x
@x
@x
qualunque sua f (x). Ne segue che (x; t) deve soddisfare l'equazione di Liouville
@
@
= @x
a(x)(x; t)
@t
Nel caso il campo vettoriale a(x) abbia divergenza nulla si ottiene
(1.9)
@
@t
@
= a(x) @x
(x; t)
che e del tutto analoga all'equazione per l'evoluzione degli osservabili. Possiamo
ottenere una soluzione formale dell'equazione (1.9) mediante la trasformata di
Lie
@
(x; t) = exp t a(x) 0 (x)
@x
Nota: nel caso di campi vettoriale dipendenti dal tempo la situazione si complica.
In un approccio probabilistico (x; t) rappresenta la probabilita di trovare una
particella nel punto x al tempo t ed avremo la condizione di normalizzazione
Z
(x; t)dx = 1
Tale condizione e invariante durante l'evoluzione con l'equazione (1.9). In generale la densita (x; t) puo essere una funzione generalizzata, in tal caso (x)dx
13
1.2. MODELLI DINAMICI PER SISTEMI COMPLESSI
denota la misura associata alla densita di particelle. Nel caso di una particella
che parta dal punto x0 avremo 0 (x) = (x x0). L'integrale calcolato su un
insieme A dello spazio delle fasi (A si de nisce "evento" se misurabile rispetto
a dx) ed indica la probabilita che si veri chi A:
P robfx(t) 2 Ag
Z
=
A
(x; t)dx = P (A)
(1.10)
1.2 Modelli dinamici per sistemi complessi
1.2.1 Modello per evolutione di un ecosistema
Consideriamo un ecosistema formato da n-popolazioni in evoluzione: siano xk
le percentuali relative delle popolazioni si introduce una matrice stocastica jk
che introduce una probabilita di mutazione che trasforma individui della popolazione k in individui della popolazione j e un potenziale di tness fk che modula
la capacita riprodutiva della popolazione k. De niamo quindi la tness della
distribuzione xk come
X
(x) = fk xk
(1.11)
k
Per limitare la crescita delle popolazioni (risorse limitate) si assume l'esistenza di
un termine di competizione tra la popolazione xk e le altre popolazioni attraverso
il potenziale di tness. Il modello di evoluzione (quasi-species equation) si scrive
X
x_ j = jk fk xk (x)xj
(1.12)
k
Dalle equazioni segue che
X
j
x_ j =
X
k
(x)
fk xk
X
j
xj =
1
X
k
!
xk
(x)
per cui Pk xk = 1 e un piano invariante che risulta asintoticamente attrattivo
se t ! 1. La condizione di equilibrio si scrive
X
jk fk xk = (x)xj
k
ed equivale al calcolo degli autovettori ed autovalori della matrice jk fk . Dal
momento che e una matrice stocastica ed fk 0 il primo quadrante risulta
invariante. Quindi possiamo cercare soluzione
dell'equazione nell'intersezione
tra il primo quadrante ed il sottospazio Pk xk = 1 mediante tecniche di punto
sso. Per esempio ricordiamo il teorema di Brouwer: ogni funzione continua che
mappi un insieme compatto e convesso in se stesso ammette un punto sso. La
situazione sopra e esattamente di questo tipo, quindi abbiamo un punto sso x
tale che
X
X
jk fk xk = (x )xj
xj = 1
xj 0
j
k
Tale punto sso e soluzione autoconsistente del problema agli autovalori
X
jk fk xk = xj
k
14
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
con
=
X
j
fj xj
Supponiamo che sia autovettore di jk fk nel primo quadrante x 0 con
autovalore , dalle equazioni del moto segue che
x_ j = ( (x ))xj
Allore se fosse > (x ) o viceversa, tutti gli elementi del vettore x crescerebbero (o decrescerebbero) e non sarebbe possibile conservare la somma unitaria.
Quindi l'unica possibilita consistente e che = (x ) per un qualunque autovettore nel primo quadrante. Consideriamo l'e etto delle condizioni al contorno xj = 0: posto xj = 0 si ottiene
X
x_ j = jk fk xk > 0
x
k
Ovvero la dinamica al contorno e repulsiva. Notiamo anche che una popolazione
con tness nulla non potrebbe riprodursi e la sua dinamica dipende solo dalle
altre popolazioni
X
x_ j = jk fk xk (x)xj
k6=j
quindi il sistema si fattorizza poiche possiamo studiare la dinamica delle popolazioni diverse da j in modo indipendente e quindi ricavare la popolazione j
integrando l'equazione precedente. La presenza del potenziale di tness si puo
interpretare come una modi ca delle interazioni jk tra popolazioni e lo stato
stazionario e una modi ca dello stato stazionario per la matrice stocastica jk .
Consideriamo
il problema della stabilita variando lo stato di equilibrio x0 + x
P
con j xj = 0 (per rimanere nel sottospazio invariante) e linearizziamo il
sistema
x_ j = jk fk (x0 )jk xk (x)x0j
Osserviamo che la condizione P x = 0 risulta invariante per il sistema linearizzato: ovvero (x)x0 e la componente lungo x0 del vettore jk fk xk lungo
x0 . Ne segue che la matrice
jk fk (x)
(1.13)
e la restrizione dell'applicazione jk fk al sottospazio x (che non contiene
l'autovettore x0) quindi se x0 corresponde all'autovalore massimo di jk fk ci
aspettiamo che gli autovalore della matrice (1.13) siano tutti minori di (x0 )
e quindi x0 sia un equilibrio stabile. Possiamo provare direttamente tale a ermazione integrando l'equazione (1.12) mediante la sostitizione di variabile
Xj (t) = xj (t) exp
Ne segue
X_ j = x_ j exp
Z t
Z t
(x(s))ds +(x)xj (t) exp
(x(s))ds
Z t
(x(s))ds = jk fk xk exp
Z t
(x(s))ds = jk fk X
1.2. MODELLI DINAMICI PER SISTEMI COMPLESSI
Abbiao un sistema lineare nel sottospazio invariante
X
j
Xj = exp
Z t
(x(s))ds
15
Quindi le Xj (t) crescono esponenzialmente in funzione della tness media. Se
risolviamo il sistema lineare (abbiamo autovalori con parte reale positiva), dalla
de nizioane segue che
X (t)
xj (t) = P j
(1.14)
k Xk (t)
e la soluzione stazionaria x0 sara quella corrispodente all'autovalore massimo
reale della matrice jk fk (il cui autovettore risulta nel primo quadrante) in
quanto tutti gli altri decadono esponenzialmente attraverso la di erenza della
parte reale con l'autovalore massimo. La soluzione x0 risulta quindi stabile se
corrisponde all'autovalore massimo. Se l'e etto della tness si introduce come
perturbazione alla matrice identita possiamo provare che l'autovettore della matrice jk fk e una pertubazione del autovettore corrispodente all'autovalore unitario della matrice stocastica jk . Consideriamo l'equazione agli autovalori
nella forma
X
jk (1 + fk )(x0k + xk ) = (1 + )(x0j + xj )
con x0
k
stato stazionario con autovalore 1 per la matrice stocastica. Si ottiene
quindi il sistema
X
X
(jk jk ) xk = jk fk x0k x0j
k
k
Trascurando termini quadraticiPnelle variazioni.
Nota: dobbiamo richiedere che j xj = 0 per rimanere nel piano invariante e
imponiamo tale vincolo alla soluzione dell'equazione precedente.
Il sistema si risolve in quanto x0 de nisce il kernel della matrice Laplaciana
jk jk , quindi scegliamo in modo da togliere la componente del kernel.
Abbiamo la relazione
X
fk x0k = 0
k
ovvero la variazione dell'autovalore e la variazione di tness (quindi l'autovalore
rimane reale). La variazione dell'autovettore si ottiene invertendo la matrice
Laplaciana
xk = (kj kj ) 1 (jl fl x0l x0j )
1.2.2 Esempio di modello: il traco
Consideriamo un esempio di sistema complesso che cercheremo di modellizzare
mediante un'equazione di Liouville. Supponiamo di avere un insieme di N
particelle che si muovono distribuite lungo una circoferenza secondo la legge
dinamica (optimal velocity model)
x_ k = vk
k = 1; :::N
v_ k =
(vk vopt(xk 1 xk ))
(1.15)
16
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
dove vopt(d) e una funzione che de nisce la velocita ottimale di un veicolo in
funzione della distanza d.E molto dicile determinare sperimentalmente la funzione vopt(d) (probabilimente non esiste una funzione universale che vada bene
per tutti gli individui), allora si adotto un approccio sico-riduzionista de nendo
una generica funzione vopt(d), che rispecchi le osservazioni sperimentali (anche
se parziali), dipendente da un numero piccolo (idealmente il piu piccolo possibile
mantenendo le capacita descrittive del modello) di parametro
vopt (d) = v1
1
dmin
d
altrimento
d dmin
vopt = 0
(1.16)
Il modello viene quindi a dipendere dai seguenti parametri
1. che de nisce l'inverso del tempo di reazione di un veicolo: piu e alto piu
i veicoli reagiscono rapidamente ai combiamenti adattando lo loro velocita
alla velocita ottimale;
2. v1 e la velocita limite quando il veicolo e libero;
3. dmin e legata alla dimensione nita dei veicoli;
4. de nisce il comportamento dei veicoli a velocita bassa: con la velocita
ottimale aumenta rapidamente con la distanza.
Per il momento semplifcheremo il modello considerando il limite ! 1 (si elimina l'inerzia) e la seconda equazione del modello diventa (la velocita si congela
al valore ottimale)
vk = vopt (xk 1 xk )
avremo quindi il sistema
x_ k = vopt (xk 1 xk )
k = 1; :::N
Possiamo quindi eliminare ancora i parametri v1 a dmin scalando il tempo
t ! tdmin=v1 e lo spazio x ! x=dmin , utilizzando la de nizione (1.16) si ottiene
quindi
1
x_ k = 1
k = 1; :::N
(1.17)
xk 1 xk
La solutione del sistema (1.17) risulta comunque complicata, possiamo, pero,
calcolare le solutioni di equilibrio stazionario x_ k = v0 constante de nita dall'equazione
1
v0 = 1
(1.18)
x
dove x e la distanza tra i veicoli che rimane constante (dato che la velocita e
constante). Se abbiamo N veicoli distribuiti su una distanza L avremo x =
L=N e pertanto v0 e determinato. Notiamo che 1=x de nisce la densita di
veicoli, quindi la relazione (1.18) si legge come v0 = v0(). Possiamo utilizzare
tale analogia per sempli care il modello (1.17) in approssimazione continua.
Nell'ipotesi che la distanza tra i veicoli vari lentamente (ovvero piu lentamente
del tempo caratteristico di evolzuione di xk ) allora possiamo approssimare la
densita locale con la densita media nell'intorno di un punto dato
2n
'x 1 x
(xk ) '
x
x
k n
1
k+n
k
1
k
1.3. DESCRIZIONE STATISTICA DI UN SISTEMA FISICO
17
(ricordiamo che xk 1 xk 1 per costruzione). Pertanto dal momento che
i veicoli sono identici, possiamo fattorizzare l'equazione di Liouville ottenendo
un'equazione non lineare di continuita
@
@
= @x
(1 ) (1.19)
@t
Ricordiamo che tale equazione risulta applicabile solo in situazioni in cui la
densita locale varia lentamente, altrimenti dobbiamo ritornare alla dinamica
(1.17). Ovviamente le condizioni stazionarie sono descritte dall'equazione (1.19).
Possiamo introdurre il usso locale
= (1 ) (1.20)
e studiare la dipendenza del usso dalla densita: fundamental Diagram (; ).
Si noti che abbiamo un punto di usso massimo per una densita critica :
1
d
=
1
(1
+
)
=0
)
=
d
(1 + )1=
Al di sotto del valore critico un aumento di densita locale ha come conseguenza un aumento del usso, viceversa al di sopra del valore critico ad un aumento
della densita corrisponde una diminzione del usso. Questa semplice considerazione mette in luce come nel primo caso il sistema in stato stazionario reagisca
ad una uttuazione locale della densita modi cando il usso in modo da ridurre
la uttuazione stessa, mentre nel secondo caso la diminuzione del usso tende a
destabilizzare il sistema in quanto potera ad ampli care l'aumento locale della
densita. Ci aspettiamo quindi che le soluzioni stazionarie dell'equazione (1.19)
siano stabili se ast ed instabili altrimenti.
1.3 Descrizione statistica di un sistema sico
La possibilita di interpretare (x; t) come la funzione di distribuzione di particelle di un sistema statistico e basata sul fatto che le particelle non interagiscono
e sono soggette alla stessa dinamica: in tal caso una singola particella diventa
rappresentativa di tutto il sistema se de niamo le condizioni iniziali come distribuzione di probabilita. Per un approccio Meccanico Statistico alla descrizione
di un sistema, analizziamo il concetto di indipendenza. Consideriamo un sistema
sico scomponibile in due sottosistemi (ovvero lo spazio delle fasi e il prodotto
diretto di due sottospazi e la stato del sistema x e x = (x1; x2)), la distribuzione
congiunta (x1 ; x2; t) rappresenta la probabilita che x1 e x2 siano rispettivamente lo stato del primo e del secondo sottosistema. In generale non e possibile
calcolare la distribuzione congiunte dalle distribuzioni dei singoli sottosistemi in
quanto vi e una correlazione tra sistemi stessi dovuta alle interazioni e lo stato
del primo sistema dipende da secondo sistema
(x ; x )
(x1 = x2 ) = 1 2
(x2 )
Ma se i sistemi possono essere considerati indipendenti (la loro interazione e
trascurabile) allora e possibile approssimare
(x1 ; x2 ; t) ' 1 (x1 ; t)2 (x2 ; t)
18
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
dove 1;2(x; t) sono le funzioni di distribuzione dei singoli sottosistemi. Il concetto di indipendenza viene dalla Teoria delle Probabilita: la probabilita di eventi
indipendenti che si veri cano insieme si calcola per moltiplicazione delle singole
probabilita. Eventi isolati sono evidentemente indipendenti, ma e impossibile
scomporre un sistema dinamico in sottosistemi indipendenti (salvo casi triviali)
in quanto l'inversione temporale implica una correlazione per ogni tempo nel
moto di particelle che siano venute in interazione. Tuttavia i sistemi caotici forti mostrano una decorrelazione esponenzialmente rapida (i tempi caratteristici
di decorrelazione sono collegati agli esponenti di Ljapounov del sistema) tra la
dinamica di particelle diverse per cui il concetto di indipendenza si puo applicare. Nei sistemi statistici sici formati da particelle poco interagenti (o molto
caotici) la meccanica statistica spesso si approssima la funzione di distribuzione
del sistema con
Y
(x; t) =
i (xi ; t)
(1.21)
i=1;N
Allora per i sistemi scomponibili in sottosistemi indipendenti la quantita ln (x)
puo diventare allora una grandezza estensiva: ovvero il suo valore si ottiene
sommando su tutti i sottosistemi. Nel caso di particelle identiche i = p 8i
e la particella singola diventa rappresentativa di tutto il sistema. Nel caso di
sistemi complessi tale approccio non puo che essere applicato solo parzialmente:
ovvero in talune situazione si cerca di scomporre a varie scale il sistema in
sottosistemi la cui energia di interazione sia piccola rispetto alla loro energia
interna e eventualmente si considera un approccio perturbativo.
La funzione di distribuzione (x) contiene tutte le informazioni per una descrizione statistica di un sistema a molti gradi di liberta. Costruiamo un'equazione
per l'evoluzione di (x; t).
Equazione di Evoluzione. Sia dato un sistema dinamico t (x) e sia A M,
allora l'evoluzione della funzione di distribuzione e data da:
(x; t)
= 0( t(x)) j @x t j
Dimostrazione: dato un qualunque evento A vale che
Z
A
(x; t)dx
=
=
(1.22)
Z
0 (y)dy
t (A)
Z
0 ( t (x)) j @x t j dx 8A
A
e data l'arbitrarieta di A segue l'asserto.
Utilizzando le proprieta del usso di fase segue la
Equazione di Liouville. Consideriamo lo sviluppo in serie di Taylor di t (x)
nella variabile t. Vale la seguente equazione di Liouville:
) @t (x; t) =
Dimostrazione:
r (a(x)(x; t))
(1.23)
19
1.3. DESCRIZIONE STATISTICA DI UN SISTEMA FISICO
Assumendo soddisfatte tutte le condizioni di regolarta necessarie, consideriamo lo sviluppo
t(x) = 0 (x) + _ 0(x)t + O(t2)
= x + a(x)t + O(t2)
)j @x t (x) j = j @x (x a(x)t + O(t2 )) j
= j I @x a(x)t + O(t2 ) j
0
1
@x1 a1 (x)t
1 @x2 a2(x) 1
C
...
C
C
=
C
...
...
...
...
C
A
...
...
1 @xn an (x)
2
= 1 (r a(x))t + O(t )
Ne segue:
) (x; t) = 0 t (x) j @x t j
= 0 (x) @t0 (x)t + O(t2) j @x t j
= 0 (x) @x 0(x) a(x)t + O(t2 ) j 1 r a(x) t + O(t2 ) j
= 0(x) a(x) @x 0 (x)t r a(x)0(x)t + O(t2 )
) (x; t)t (x; 0) = a(x) @x 0 (x) r a(x)0 (x) + O(t2 )
Nel limite t ! 0 segue l'asserto: la generalizzazione ad un tempo generico
utilizza le proprieta di gruppo del usso di fase t+t = t t.
Per i sistemi Hamiltoniani avremo x_ = a(x) = @x HJ da cui:
r a(x) = 0
) @t (x; t)(x; t) = a(x) @x (x; t) = [H; ] = DH (x; t) (1.24)
In cui [; ] sono le Parentesi di Poisson che sono in diretta relazione con la derivata
di Lie DH : DH = [H; ].
Di particolare interesse per le applicazioni sono le soluzioni stazionarie per
cui (x; t) = (x), per cui
r a(x)(x) = 0
La distribuzione statzionaria descrive le proprieta del sistema in caso di equilibrio. La Meccanica Statistica cerca di descivere di descrivere le proprieta della
distribuzione stazionaria di un sistema senza risolvere esplicitamente la dinamica del sistema stesso. L'ipotesi fondamentale alla base di un approccio Statistico
e l'ipotesi ergodica : ovvero in uno stato stazionario l'evoluzione di un sistema
soddisfa alla proprieta che la media temporale su un insieme equivale alla media
spaziale rispetto alla misura invariante
B
B
det B
B
B
@
lim
T !1
Z T
0
A (t (x))dx =
Z
A (x)(x)dx
dove A (x) e la funzione carateristica dell'insieme A misurabile.
(1.25)
20
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
Chapter 2
Approccio Statistico e
Formalismo Termodinamico
Consideriamo un sistema costituito da N elementi il cui stato assume com probabilita p e q = 1 p gli stati x = 1. La sequenza fx1; x2; :::; xN g de nosce lo
stato microscopico del sistema. Supponendo che lo stato di ciascuna particella
sia independente da quello delle altre altre la probabilita di uno stato
P (fx1 ; x2 ; :::; xN g) = pn+ qn
dipende solo dal numero di particelle n+ nello stato +1 (n = N n+). Se consideriamo n+ come osservabile macroscopico, la disribuzione binomiale de nisce
PN (n+ ) = nN pn+ qN n+
+
con valor medio pN e varianza p(1 p)N . Nel limite N ! 1 abbiamo il risultato
matematico:
Teorema del Limite Centrale.
n Np
x= p+
p(1 p)N
Consideriamo la variabile
p
n+ = x p(1 p)N + Np
allora la distribuzione di probabilita di x soddisfa a
lim
N !1
p
NpqPN (x) =
p1 exp
x2
2
2
Tale risultato e basato sulla formula di Stirling per approssimare la funzione
fattoriale
p
lim ln N ! ' N N e N 2N
N !1
Calcoliamo s
N
n+
N
' 2n (NN n ) nn+ (N N n )N
+
+ +
+
21
n+
22CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
e quindi valutiamo
N n+ q N n+
n+ N n+
ln nnN+ (Np
+
n
n+ ln +
Np
=
)
(N
= N ln N
n+ ) ln
N
n+ ln n+
p
(x
pqN + Np) ln
p
' (x pqN + Np)
1+
"s
n+
Np
= 1+
n
Nq
= 1
s
N n+ n
n+ p q
e dato che
(n+=Np)(n
!
+(
x2 q
Np
s
x2 p
Nq
(2.1)
p
x pqN + Nq) ln
#
1 2
2 x + O(N
x2
s
p
1+
x2 q
Np
!
"
s
x2 p
Nq
s
x2 p
Nq
!
1 x2 p
2 Nq
1=2 ) ' x2
2
1
s
1
x pqN + Nq)
' 2Npq(n =Np)(n =Nq) exp
+
=Nq) =
n+ ) + n+ ln p + (N
s
1 x2q + (
2 Np
x2 q
Np
Possiamo sempli care
e ottenere in ne
x2 q
Np
n+ ) ln(N
n+
Nq
Utilizzando la de nizione di x, abbiamo
per cui
(N
1
s
x2 p
Nq
!
x2
2
= 1 + O(N
1=2 )
otteniamo il teorema.
Per il sistema considerato supponiamo di de nire una funzione Energia con
p
n+
E = En+ = NpE
= E + xE Npq
Np
allora il teorema dimostrato consente di approssimare nel limite termodinamico
(N 1 con E = NpE e 2 = E 2Npq)
1
(
E E )2
P (E ) ' p 2 exp
22
2
Notiamo: le uttuazioni relative in energia sono valutate dal rapporto =E =
p
q=Np e quindi scalano con N 1=2 come ci si attende per un valor medio.
#
n+ ) ln q
23
Questo risultato si interpreta in modo dinamico supponendo che ogni particella aggiorni il suo stato in modo indipdendente dalle altre. In tal caso la
distribuzione p(n+) descrive la probabilita di rilevare uno stato n+.
In modo equivalente possiamo introdurre una dinamica la funzione di distribuzione
P (n+ ; N )
P (n+ ; N ) = qP (n+ ; N 1) + pP (n+ 1; N 1)
la cui soluzione dopo N passi e la distribuzione binomiale: si sfrutta la relazione
(N 1)! + (N 1)! = N ! n+ !(N 1 n+ )!
(n+ 1)!(N n+ )!
n+ !(N n+ )!
Per un numero variabile di N possiamo riscrivere la distribuzione binomiale
n+ n
) = C n+ !n !
+
ponendo la costante di normalizzazione
C = exp( + )
In un approccio alternativo introduciamo la funzione Entropia di Gibbs : ad ogni
stato x del sistema e associata la probabilita
P (x) = pn+ qn
e de niamo Entropia di Gibbs il funzionale
X
S ([P ]) =
P (x) ln P (x)
P (n+ ; n
x
dove la somma corre su tutti gli stati. Dal momento che la probabilita dipende
solo da (n+; n ) de niamo P (n+; n ) la probabilita di trovare il sistema nello
stato (n+; n ) e vale la relazione
P (n+ ; n )
= P (x)
(n+ ; n )
dove (n+; n ) e il peso statistico del macrostato (n+ ; n ) (nel caso il sistema
abbia una dinamica la misura deve essere data dalla misura invariante). Segue
che possiamo calcolare l'Entropia nella forma
X P (n+ ; n )
P (n+ ; n )
S ([P ]) =
ln (n ; n )
(2.2)
+
x (n+ ; n )
Come abbiamo notato l'Entropia e massima quando P (x) equidistribuisce tra i
microstati, tuttavia possiamo introdurre dei vincoli come
X
X
n+ P (n+ ; n ) = n +
n P (n+ ; n ) = n
n+ ;n
n+ ;n
cos che l'Entropia diventa funzione dei parametri n e possiamo cercare l'estremale
per il funzionale Entropia mediante la tecnica dei moltiplicatori di Lagrange
X
F (P ) =
(ln(P (n+; n )(n+; n )) + +n+ + n ) P (n+; n )
n+ ;n
24CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
che variato rispetto rispetto al cambiamento P +P , da la condizione stazionaria
X
P (n+ ; n )
F (P ) =
ln (n ; n ) + +n+ + +n P (n+; n ) = 0
+
n+ ;n
in quanto la condizione di normalizzazione implica
X
P (n+ ; n ) = 0
n+ ;n
Otteniamo la soluzione nella forma
ln P((nn+;; nn )) + +n++ n = 0
+
dove i valori
P (n+ ; n
)
) / exp(
+ n+
sono imposti dai vincoli. Supponendo che
1
(n+ ; n ) /
n+ ! n !
abbiamo quindi una distribuzione di Poisson come estremale
P (n+ ; n
dove = exp(
)=e
+ ).
n++ n
n+ !n !
Imponendo i vincoli abbiamo
n = L'Entropia di Gibbs diventa una funzione dei parametri n X
S (n1 ; n 2 ) =
[+ + + ln + + ln +] P (n+; n )
n+ ;n
= n + n + ln n+ + n n ln n
(2.3)
Possiamo allora calcolare quale distribuzione massimizza l'Entropia se imponiamo un vincolo del tipo
+ n + + + n + = E
Dal calcolo diretto
dn
@S
=
ln(
n+ ) +
ln
n = ln(n+ ) + ln n
@ n
dn
+
+
quindi la condizione di estremalita diventa
ln n+ = ln n
e possiamo scegliere
+
n = exp(k1 )
Interpretando come energie si trova delle particelle troviamo la distribuzione
exp(k(+n+ + n ))
P (n+ ; n ) = C
(2.4)
n+ ! n !
n )(n+ ; n
)
25
con k in funzione di E .
In modo analogo calcoliamo la distribuzione a massima entropia con il vincolo
che il momento secondo sia ssato
Z
x2 P (x)dx = T
Si ottiene la condizione
ovvero
ln P (x) + x2 = 0
P (x) / exp(x2 ) = exp
x2
2T
La distribuzione Gaussiana risulta la distribuzione di equilibrio dovuta a collisioni che in media conservano l'energia cinetica (collisioni in media elastiche).
Sia
p2
E=
2
abbiamo quindi
E
P (E ) / exp
T
che de nisce la distribuzione di Boltzmann per il peso statistico di un microstato ad energia E ; tale distribuzione gioca un ruolo fondamentale per descrivere
i sistemi in equilibrio termodinamico. Il concetto di equilibrio termodinamico
e essenzialmente associato alla possibilita di scomporre un sistema in sottosistemi il cui stato statistico non cambia se vengono separati dal sistema stesso.
Ovvero le mutue interazioni tra i sottostemi necessarie per il raggiungimento
di uno stato di equilibrio non contribuiscono a mantenere lo stato di equilibrio stesso. Se isolassimo i sottosistemi di un sistema in equilibrio termodinamico non osserveremmo nessun combiamento. Allora trattando di sistemi
all'equilibrio possiamo considerare (per esempio) l'energia come una grandezza additiva: l'energia totale e data dalla somma delle energie delle parti. In
meccanica la funzione Energia e un integrale primo del moto per la dinamica
del sistema e, in generale, e il solo integrale primo del moto. Quindi ha senso
calcolare il peso statistico (ovvero il numero di microstati) corrispondente al valore E dell'energia w(E ). Per descrivere l'equilibrio termodinamico si ricorre al
concetto di Entropia di Boltzmann come logaritmo del peso statistico associato
al valore E di energia
SB (E ) = k ln w(E )
(2.5)
Nel caso di equilibrio termodinamico, se dividiamo il sistema in due sottosistemi
ad energia E1 + E2 = E , l'indipendenza tra gli stati dei due sosttosistemi implica
w(E ) = w(E1 )w(E E1 )
S (E ) = S1 (E1 ) + S2 (E E1 )
e l'Entropia e una grandezza additiva. Il principio di Massima Entropia per
caratterizzare l'equilibrio termodinamico e una legge empirica validata da esperimenti e quindi ha un valore assoluto a prescindere dai modelli. Una conseguenza di tale legge nel caso sopra e che l'equazione
dSB
dE1
=0
26CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
caratterizza l'equilibrio termodinamico. Allora per i due sottosistemi vale che
dS1 dS2 1
=
=
dE1
dE2
T
dove abbiamo de nito il concetto di temperatura T per caratterizzare l'equilibrio.
Dalla de nizione di Entropia segue
w(E1 ) / exp
E
kT
e ritroviamo la distribuzione di Boltzmann. Una diversa de nizione di Entropia e l'Entropia di Gibbs ottenuta mediando il logaritmo della funzione di
distribuzione sui microstati (x)
Z
k
(2.6)
(E ) E1+E2=E ln((x))(x)dx
dove l'integrazione considera i microstati x = (x1; x2) tali che E1 + E2 = E con
E1 parametro (i sistemi sono indipedenti quindi non vi e energia di interazione).
(E ) indica il peso dei microstati per la normalizzazione nel microcanonico. Nel
SG (E1 ) =
caso la funzione di distribuzione di un sistema dipenda solo dall'energia abbiamo
la relazione
SG (E1 ) = k ln (1 (E1 )2 (E E1 ))
che coincide con l'entropia di Boltzmann in quanto
w(E ) / 1 (E1 )2 (E E1 )
Nel seguito vedremo che gli stati di equilibrio termodinamico costituiscono
un'eccezione tra i possibili stati stazionari di un sistema statistico, e nel caso di sistemi complessi lo studio di stati stazionari di non equilibrio (NESS)
risulta particolarmente importante.
2.1 Entropia
Il concetto di Entropia misura la degenerazione di uno stato di equilibrio macroscopico in termini di stati microscopici. La caratterizzazione dello stato macroscopico avviene tramite le grandezze medie (additive o intensive) e come esempio
utilizzeremo una funzione "energia" generica che si speci chera in modo diverso a seconda dei sistemi considerati (parleremo genericamente di una funzione
costo). Associamo dunque, una funzione Energia allo stato macroscopico: il
numero di microstati corrispondenti ad un valore H (x) = E puo essere dato
dalla misura della super cie (E ) = fH (x) = E g nello spazio delle fasi (nota:
evidentemente (E ) ha misura di volume nulla). I cosidetti principi entropici
assumo quindi l'equivalenza di tutti i microstati x 2 (E ): in termini probabilitstici signi ca attribuire la stessa probabilita ad ogni microstato di essere
lo stato del sistema. Tale procedura si interpreta anche da un punto di vista
dell' informazione sul sistema: in mancanza di informazione si equipartisce la
probabilita tra gli stati possibili (ovviamente gli stati considerati devono essere
stati sici). Da un punto di vista dinamico tale assunzione e legata all' ipotesi
ergodica nei sistemi dinamici: se consideriamo la traiettoria del sistema sulle
27
2.1. ENTROPIA
super ci (E ) e introduciamo su (E ) la misura di super cie ottenuta proiettando la misura invariante, per un qualunque sottoinsieme misurabile di (E )
il tempo di permanenza (la frazione di tempo per cui la traiettoria appartiene
al sottoinsieme) e proporzionale alla misura del sottoinsieme stesso nel limite
t ! 1. Ne consegue che il sistema non ammette nessun altro invariante del
moto oltre ad H stesso. In modo piu preciso supponendo che H = E de nisca
una super cie compatta, possiamo operare un cambio di variabili che conserva
il volume tale che
dE
dx = d ^
jgradH j
dove d e l'elemento di area sulla super cie. Dal momento che il sistema conserva la misura dx nello spazio delle fasi, la misura
dE =
d
jgradE j
risulta una misura conservata dalla dinamica sulla super cie e l'ipotesi ergodica sulla dinamica si scrive
1 Z T A (x(t))dt
E (A) = lim
(2.7)
T !1 T
0
dove A (E ), A e la funzione caratteristica dell'insieme A ed x(t) e una
traiettoria con condizione iniziale sulla super cie (E ). Una condizione necessaria e che l'energia sia l'unico integrale primo del moto del sistema; notiamo
anche che il limite (2.7) non dice nulla sul tempo di rilassamento del sistema. La
misura E consente quindi di calcolare i valori medi di un qualunque osservabile
sul sistema
Z
1
f (x)dE
(2.8)
< f >=
E ()
In generale, il precedente approccio consente di esprimere l'integrale sui microstati del sistema utilizzando l'energia. L'ipotesi egodica implca che durante
l'evoluzione il sistema si avvicina arbitrariamente ad ogni microstato sulla supercie (E ). In condizioni stazionarie possiamo che la funzione di distribuzione
(x) dia la distribuzione stazionare del sistema in funzione dell'energia unico
integrale del moto. Ne segue che (E )((E )) pesa il numero dei microstati
con energia E , mentre il peso di ciascun microstato dipende dalla microdinamica (ricordiamo che la dinamica Hamiltoniana conserva la misura di Lebesgue e
quindi il peso di ogni microstato e lo stesso). Nel caso il sistema in equilibrio
si possa dividere in sottosistemi indipendenti (ipotesi che si assume valida solo
nello stato di equilibrion), allora la distribuzione stazionaria congiunta soddisfa
(x1 ; x2 ; :::; xN ) = 1 (x1 )2 (x2 ) ::: N (xN )
L'Entropia di Gibbs risulta quindi una grandezza estensiva
S () /
hlog i =
=
Z
M
X
i
(x) log (x) dx
hlog i (xi )i =
X
i
(2.9)
Si (i ) + S2 (i )
28CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
Nota: la de nizione di Boltzmann di Entropia e diversa, ma l'Entropia di Gibbs
si puo de nire anche dinamicamente anche per stati di non equilibrio una volta
nota la dinamica di (x; t).
Nel caso = (E ) abbiamo
^(E )dE = (E )E ()dE
da cui la de nzione di Entropia di Gibbs diventa
Z
(E )
S (^) = k ^(E ) ln
dE
E ()
Da un punto di vista generale vi e una stretta relazione tra i concetti di Entropia
ed Informazione che e stata formalizzata da Shannon(Shannon, C.E. (1948), "A
Mathematical Theory of Communication", Bell System Technical Journal, 27,
pp. 379-423 & 623-656.) A titolo di esempio consideriamo un sistema con un
numero nito di stati e sia pn n 2 f1; ::; H g la funzione di distribuzione. Dalla
de nizione abbiamo
X
X
S fpn g =
pn ln pn
pn = 1
n
n
Piu le probabilita si concentrano su degli stati speci ci maggiori sono le informazioni che abbiamo sul sistema (idealmente se pn = 1 abbiamo la massima
informazione in quanto conosciamo lo stato del sistema stesso). Possiamo evidenziare questo fatto considerando
il massimo dell'Entropia sulle possibili distribuzioni pn con il vincolo P pn = 1. Utilizzando il metodo dei moltiplicatori
di Lagrange abbiamo
X
S =
(1 + ln pn + )pn = 0
n
Data l'arbitrarieta di pn abbiamo la condizione
1 + ln pn + = 0 ) pn = exp (1 + )
quindi pn sono tutti eguali e la condizione di vincolo che determina il moltiplicatore di Lagrange fornisce pn = 1=N con N il numero di stati. Si tratta di un
massimo stretto per la convessita della funzione x ln x: sia data una qualunque
distribuzione pn vale che
!
X
X
1 = S 1 ; :::; 1 2
S fpn g =
pn ln pn ln
p ln
n
n
n
n
N
N
dove abbiamo applicato la diseguaglianza di Jensen. Tale risultato e un'applicazione
del Principio di Maximum Entropy (E. T. Jaynes, "Information Theory and Statistical Mechanics" Physical Review, vol. 106, no. 4, pp. 620-630; May 15,
1957.): si deve attribuire ad un sistema statistico la distribuzione di probabilita
che lasci la piu grande incertezza compatibile con i vincoli sul sistema stesso.
Ovvero non e giusti cato introdurre alcuna ipotesi o bias aggiuntivo sul sistema.
Nel caso sico (E ) il principio di Massima Entropia diventa
Z (E ) ^dE = 0
S = k
1 + ln ^((
E ))
E
che implica
^(E ) = CE ((E ))
dove C e la costante di normalizzazione.
29
2.2. ENTROPIA E CARATTERE HAMILTONIANO DELLA DINAMICA
2.2 Entropia e carattere Hamiltoniano della dinamica
La de nizione di Gibbs permette anche un calcolo dell'Entropia nel caso di un
sistema fuori dall'equilibrio per cui la funzione di distribuzione varia nel tempo
= (x; t). In tal caso la variazione di entropia si scrive
dS
dt
=
=
=
=
Z
d
log dx
dt
Z M
d
log dx
dt
M
Z 1 @t log + @t dx
ZM
(log + 1) @tdx
M
Supponendo che il sistema evolva secondo l'equazione di Liouville abbiamo:
dS
dt
=
=
=
=
T h:div
Z
ZM
ZM
MZ
Z
M
(log + 1) @x (a(x)) dx =
@x ((log + 1)a(x)) dx
a(x)@x (1 + log ) dx
1
a(x) @x dx =
Z
Z
M
a(x)@x (1 + log )dx
Z
@x (a(x)) dx @x a(x)dx =
M
M
M
@x a(x)dx =< @x a(x) >
(2.10)
dove abbiamo applicato il teorema della divergenza e la condizione che si annulli alla frontiera. La variazione di Entropia risulta pertanto legata al valor
medio della divergenza del campo vettoriale. Dalla de nizione di sistema dinamico per cui e conservata una misura (che nel nostro caso e dx) l'Entropia
e automaticamente conservata e questa proprieta e intrinsecamente correlata
alla reversibilita nel tempo: ovvero l'evoluzione non puo distinguere il futuro
o il passato qualunque sia l'osservabile considerato. In particolare nei sistemi
Hamiltoniani la variazione di Entropia e nulla.
Nota: dal momento che la non conservazione dell'Entropia di Gibbs e legata
alla divergenza dato un campo vettoriale a(x) e sempre possibile scomporre il
campo secondo
@V
a(x) =
+ a^(x)
@x
dove il potenziale V (x) risolve l'equazione di Poisson
@2V
@x2
= diva(x)
mentre a^(x) e un campo a divergenza nulla (quindi conserva l'Entropia).
Nota: la de nizione di Entropia non e invariante per cambio di coordinate (se
questo non conserva la misura dx): da un calcolo diretto, se operiamo il cambio
30CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
y = T (x) la nuova funzione di distribuzione (rispetto all'elemento di volume dy)
diventa
^(y) = (T 1 (y))j@y T 1 j
dove j@y T 1 j e il determinate della matrice Jacobiana. Ne segue che nelle nuove
variabili l'Entropia si trasforma
Z
Z
Z
Z
^(y)
dy
=
^
(
y
)
ln
(
y
)
dy
^(y) ln j@y T 1 jdy
(x) ln (x)dx = ^(y) ln
j@y T 1 j
Abbiamo quindi un termine ulteriore rispetto alla de nizione standard. Il problema e che la misura dell'Entropia e legata alla densita degli stati nello spazio
delle fasi in quanto si considerano equiprobabili gli stati in ciascun elemento di
volume, ma cambiando il modo con cui misuriamo gli elementi di volume cambia
anche l'Entropia.
2.3 Sistemi all'equilibrio termodinamico
Il concetto di equilibrio termodinamico e strettamente collegato al secondo principio della termondinamica e quindi e caratterizzato dalla massimizzazione della
funzione Entropia rispetto ai vincoli che imponiamo sul sistema. Assumendo
di considerare l'Entropia di Gibbs dobbiamo identi care gli osservabili Ek che
de niscono lo stato del sistema rispetto a tutti i possibili stati microscopici. Il
valore di tali variabili viene determinato imponendo dei vincoli alla massimizzazione dell'entropia mediante i moltiplicatori di Lagrange
F (1 ; :::; M ) = k
Z
(x) ln (x)dx
M
X
i=1
i
Z
Ei (x)(x)dx
Possiamo inoltre avere una dipendenza da altri parametri che descrivono l'interazione
con l'ambiente esterno e che limitano i possibili valori di Ek (e quindi dei moltiplicatori i). Le condizioni di equilibrio termodinamico vengono quindi determinate dalla massimizzazione della funzione di Entropia tenendo conto dei vincoli.
La condizione di estremale per S () rispetto alle variazioni di de nisce una
classe di distribuzioni esponenziali:
F
implica infatti
=
Z
k ln (x)
k ln (x) =
M
X
i=1
M
X
i=1
!
i Ei (x) (x)dx = 0
i Ei (x) + cost:
dove abbiamo utilizzato R dx = 0; ovvero
(x) = A 1 () exp
i=1
A() normalizza la distribuzione
A() =
Z
exp
!
M
X
i
M
X
i
i=1
E (x)
k i
!
E (x) dx
k i
(2.11)
31
2.3. SISTEMI ALL'EQUILIBRIO TERMODINAMICO
ma ha un preciso signi cato sico. Il valore dei parametri i viene determinato
dai vincoli sul sistema; notiamo che
< Ei >=
Z
@
kA 1 ()
@i
Ei (x)(x)dx =
per cui otteniamo la relazione
< Ei >= k
Z
!
@A()
Ei (x) dx = kA 1 ()
k
@i
i=1
M
X
i
exp
@
ln A()
@i
che supponiamo invertibile. Se calcoliamo l'espressione per l'Entropia, si ottiene
S () = k
ln A() +
M
X
i
i=1
k
!
< Ei >
consistente con il fatto che l'Entropia e stazionaria per variazione di @S
= k @@ ln A()+ < Ei >= 0
@
j
j
Utilizzando la de nizione di < Ei > segue allora
M
X
@ < Ei >
@j
i=1
che implica
@S
@j
i
=0
@S
= i
@ < Ei >
suggerendo l'interpretazione i = Ti 1 con Ti 'temperature' associate alle diverse
energie. Inoltre abbiamo
@S
@ < Ei >
=
Inoltre abbiamo la relazione formale
S(
)=k
F(
@S @j
j @j @ < Ei >
X
)+
M
X
i=1
!
i
< Ei >
dove identi chiamo F () = ln A() Energia Libera di Gibbs e i = (kTi) 1 con
k costante di Boltzmann per l'unita di misura. Quindi il signi cato di A() e
quello di Funzione di Partizione del sistema canonico. che stabilisce la relazione
tra i moltiplicatori e i valori medi delle energie e quindi ai vincoli. Il Principio di
Massima Entropia per lo stato di equilibrion termodinamico richiede che S ()
sia massimo compatibilmente con i vincoli: se quindi abbiamo ad esempio
X
ET =
< Ei >
i
esprimendo l'Entropia come funzione delle < Ei >: S ((< E >)) abbiamo
@S
@ < Ej >
=0
32CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
dove e il moltiplicatore di Lagrange. Ovvero i = = 1=T che esprime il
fatto che le temperature Ti devono coincidere per l'equilibrio termodinamico.
Come esempio consideriamo un sistema di N >> 1 particelle che si possano
distribuire in M stati discreti di energia, soggette al vincolo della conservazione
dell'energia totale del sistema. Ipotizziamo che tutti gli stati siano equivalenti e
che il sistema si possa trovare in ciascuno di essi con eguale probabilita (ipotesi
ergodica in caso di misura uniforme).
Posto:
E
=
M
X
j =1
(2.12)
nj EJ
: numero di particelle con energia Ej
Contando il numero di modi possibili che realizzano la condizione (2.12):
N!
(2.13)
] modi n1 ! nM !
Massimizziamo il logaritmo della quantita (2.13) considerando il vincolo (2:5) e
utilizzando i moltiplicatori di Lagrange:
log(] modi) PMj=1 nj EJ = F (n1 ; ; nM )
log(] modi) = log n1!Mn! M ! = log(M !) PMj=1 log(nj !)
Dato che M ! e costante non contribuisce alla funzione da massimizzare:
nj
) F (n1 ; ; nM ) =
M
X
j =1
nj Ej
M
X
j =1
log(nj !)
Facendo tendere M ! 1, vale l'approssimazione:
j log k R nj log xdx = n log n
log(nj !) = Pnk=1
j
j nj nj log nj
1 P
M
) F (n1 ; ; nM ) j=1 (nj log nj nj + nj Ej )
@F
Ej = 0 ) nj e Ej
@nj = log nj
Questa relazione e stata ottenuta massimizzando il logaritmo della (2.13), ovvero
cercando quale con gurazione avrebbe generato un valore maggiore di entropia
per il sistema. Nell'ipotesi che il sistema statistico tenda ad evolvere verso stati
di massima entropia, resta il quesito di come sia possibile raggiungere questo
stato.
2.4 Relazione tra Grandezze termodinamiche
La de nizione di Entropia per i sistemi all'equilibrio consente la seguente uguaglianza di erenziale:
dE = T dS P dV
Nota: la derivata dell'energia rispetto a una grandezza additiva genera sempre
una grandezza estensiva.
2.5. PRINCIPIO DI MASSIMA ENTROPIA E TEORIA DI ONSAGER
33
Questa relazione mostra il legame tra tre grandezze addittive di un sistema
(energia, volume, entropia) e le grandezze termodinamiche estensive pressione
e temperatura, legando entropia con temperatura e volume con pressione:
T = @S E jV
P = @V E jS
Il principio di aumento di entropia dei sistemi irreversibili si scrive come:
Q < T S
dove Q e S sono la variazione di energia interna per scambio di calore e la
variazione di entropia nel corrispondente stato di equilibrio. Dall'energia interna
si costruiscono i potenziali termodinamici attraverso trasformazioni di Legendre:
dE = T dS P dV = T dS d (P V ) + V dP
Funzione Termica W = E + P V
dW = T dS + V dP
variazione di energia a pressione costante:
CV = @T E jV
CP = @T W jP
) dE = T dS P dV = d (T S ) SdT P dV
Energia libera:F = E T S
dF = SdT P dV
L'energia libera consente di calcolare l'energia interna:
E = F T @T F jV
In ne si ottiene il potenziale termodinamico:
dF = SdT P dV = SdT d (P V ) + V dP
= F + PV
d = SdT + V dP
Nota: nei processi irreversibili a volume e temperatura costante avviene una
diminuzione dell'energia libera.
2.5 Principio di Massima Entropia e Teoria di
Onsager
Il Secondo Principio della Temodinamica implica l'esistenza di una funzione di
stato Entropia e che tale funzione ha un valore massimo nel caso di equilibrion termodinamico (Maximal Entropy Principle). Supponiamo che un sistema
sia descritto dagli osservabili macroscopici E1; :::; En (potrebbero essere le energie di alcuni sottosistemi in interazione), sviluppando l'Entropia in un intorno
dell'equilibrio otteniamo
1 X Gij EiEj
S = S0
2
34CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
dove i valori di Ei rappresentano lo scostamento dall'equilibrio: G e una matrice simmetrica de nita positiva. Nella de nzione di Boltzmann di Entropia
S (E1 ; :::; En ) rappresenta il logaritmo del peso statistico w(E ) dei microstati
corrispondenti ai valori di E ; ne segue che la probabilita di osservare una uttuazione E risulta proporzionale a
1 X Gij EiEj (2.14)
w(E ) / exp
2
Il valor medio delle uttuazione e nullo, mentre abbiamo la funzione correlazione
< Ei Ej >= Kij = Gij1
Inoltre il principio di Massima Entropia implica l'esistenza di equazioni fenomenologiche che riportano il sistema all'equilibio
X
E_ i = Lij Xj
j
dove Xj sono le 'forze' associate alle variable Ei
Xi =
@S
@Ei
=
X
j
Gij Ej
sono dei coecienti fenomenologici. Le forze Xi agiscono sul sistema per
riportarlo alla condizione di equilibrio e la matrice L descrive l'azione di ogni
forza sul tutto il sistema. Abbiamo quindi l'equazione lineare
E_ = (LG)E
(2.15)
la cui soluzione si scrive
E (t + ) = exp( LG )E (t)
Il rilassamento all'equilibrio implica che LG deve avere autovalori a parte reale
negativa. Dal momento che l'Entropia aumenta nel processo di rilassamento
all'equilibrio, dalla relazione
Lij
dS
dt
=
X
i
Xi
dEi
dt
=
X
ij
Xi Lik Xj 0
La parte simmetrica di L e quindi semide ntiva positiva e segue dalla positivita
e simmetria della matrice G
p
p
~vLG~v = ~u G 1 L G~u 0
p
posto ~v = G 1~u, quindi anche LG e una matrice semide nita positiva ed il
sistema tende a rilassare all'equilbrio di massima Entropia. La distribuzione
Gaussiana delle uttuazioni suggerisce che il sistema nell'intorno dell'equilibrio
sia descritto da un'equazione lineare stocastica che in media si riduca alla dinamica (2.15)
< E (t + ) >= exp( LG )E (t)
>0
2.5. PRINCIPIO DI MASSIMA ENTROPIA E TEORIA DI ONSAGER
35
Nelle stesse ipotesi possiamo calcolare la correlazione del processo stazionario
< Ei (t + )Ej (t) >= Kij ( ) = exp( LG )ik Gki1 = Gik1 exp( GL )kj (2.16)
Il fatto che la correlazione < Ei(t + )Ej (t) > non dipenda da t corrisponde
all'ipotesi di stazionarieta del processo stocastico che descrive le uttuazioni.
Se supponiamo di considerare la correlazione nel passato si ottiene
Kij ( ) = < Ei (t )Ek (t) >=< Ei (t )Ek (t ) > [exp( LG )]Tkj
= Gik1[exp( LG )]Tkj = Gik1 exp( GLT )kj = KijT ( )
L'ipotesi fondamentale di Onsager e che in uno stato di equilibrion non e possibile distinguere in modo sperimentale la direzione del tempo dalle uttuaazioni
del sistema. Pertanto deve accadere
K ( ) = K ( )
(2.17)
e la matrice fenomelogica L deve essere simmetrica: L = LT .
Possiamo studiare come tale relazioni si applicano al caso di una dinamica espressa dalla Master equation
X
_(n; t) = wn;n0 (n0 ; t) wn0 ;n (n; t)
(2.18)
n0
Introduciamo l'Entropia di Gibbs e supponiamo che valga un Principio di Massima Entropia con il vincolo di un'energia interna V (n) per caratterizzare la
soluzione di equilibrio
che implica
X
n
ln() + X
n
V (n)
!
=0
X
s () = A() 1 exp( V (n))
n
dove A() e la funzione di partizione
X
A() = exp(
n
V (n))
e de nisce il valor medio dell'energia interna
X
< E >= V (n) exp( V (n)) =
n
@A
()
@
che dipende all'ambiente. Supponiamo che il sistema Allora posto = s + otteniamo lo sviluppo dell'Entropia con il vincolo
1 X (n)2 + O(3)
S () = S (s )
(2.19)
2 n s ( n )
Quindi consideriamo la dinamica di una famiglia di osservabili per un sistema
uttuante vicino all'equilibrio
X
Yk (t) = yk (n)(n; t)
n
36CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
che obbedisce all'equazione
X
yk (n) (wn;n0 (n0 )
Y_ k (t) =
n;n0
X
=
n;n0
(n0 ) (yk (n) yk (n0 )) wn;n0
Introduciamo le equazioni fenomenologiche
X
_ Yk (t) = Lkh
dove
h
sono de nite dalla relazione
dS X dYh
= h dt =
dt
d'altra parte abbiamo
'
X
k;n
k yk
(2.20)
(2.21)
h
h
h
dS
dt
wn0 ;n (n))
(n) d
(n)
dt
(n) d
(n)
n s (n) dt
X
per cui valgono le relazioni vicino alla condizione di equilibrio
X
(n) = s (n)
k yk (n)
k
Sostituendo nell'equazione (2.20) otteniamo
X
X
_ Yk (t) =
s (n0 ) (yk (n)yh (n0 )
h
da cui
h
Lkh =
X
n;n0
n;n0
yk (n)yh (n0 )s (n0 )wn;n0
X
n;n0
yk (n0 )yh (n0 )) wn;n0
yk (n0 )yh (n0 )s (n0 )wn;n0
In base alla teoria di Onsager deve valere Lhk = Lkh per cui deve valere
X
X
yk (n)yh (n0 )s (n0 )wn;n0 =
yh (n0 )yk (n)s (n)wn0 ;n
n;n0
n;n0
(il secondo pezzo e gisimmetrico) che risulta soddisfatta se
s (n0 )wn;n0 = s (n)wn0 ;n
(2.22)
Nell'equazione (2.18), questa condizione implica che il usso di probabilita tra
due stati (n; n0) e nullo nello stato stazionario e la per lo stato stazionario vale
la relazione
w0
(2.23)
s (n0 ) = n ;n0 s (n)
w(n; n )
che puessere utilizzata im modo ricorsivo prendendo un qualunque percorso tra
i due stati. Dal principio di Massima Entropia la soluzione stazionaria si scrive
mediante l'energia interna
s (n) = A exp( V (n))
2.6. ENTROPIA DI GIBBS E RANDOM WALK SU NETWORK
37
e dal bilancio dettagliato segue che
V (n) V (n0 ) = ln(w(n0 ; n)) ln(w(n; n0 ))
(2.24)
Se associamo una 'forza' tra lo stato n e o stato n0 come
w(n0 ; n)
F (n0 ; n) = ln
w(n; n0 )
la relazione (2.24) signi ca che il campo di forze e conservativo e ammette
potenziale V (n). Se quindi de niamo
V (n) V (n0 )
w(n0 ; n) / exp
)
2
la condizione precedente risulta automanticamente soddisfatta. Vedremo come
questo sia collegato alla Transition Rate Theory di Kramer.
2.6 Entropia di Gibbs e Random walk su network
Consideriamo il sistema stocastico costituito da un ensemble di N che si muovono
su un network in modo indipednente da un nodo all'altro. Ogni particella realizza un processo stocastico k (t) a valori sullo spazio dei nodi del network con
la proprieta di Markov
ij (t) = E (fk (t + t) = ig=fk (t) = j g)
indipedente dalla particella k. I valori ij (t) danno le probabilita che una
particella transiti dal nodo (stato) j allo stato i in un tempo t. Per completezza
deve valere la relazione X
ij = 1
ij 0
i
Diremo che il random walk e regolare se
ij (t) ! ij + ^ij t + o(t)
per t ! 0. Lo stato del network e determinato dalla n(t)-nupla (n1; :::; nM )
che de nisce ad ogni istante il numero di particelle in ciascun nodo. Possiamo
scrivere la dinamica stocastica nello spazio degli stati di rete costruendo il processo stocastico n(t) in relazione ai random walk k (t): posto i(j ) la funzione
caratteristica di un nodo
i (j ) = ij
abbiamo
X
ni (t) = i (k (t))
k
Se nella rete si muove una singola particella abbiamo
X
p(i; t + t) = ij (t)p(j; t)
j
38CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
dove p(i; t) e la probabilit'a di trovare la particella nel nodo i al tempo t. La
soluzione di tale equazione equivale al problema degli autovalori ed autovettori
della matrice stocastica ij ed in particolare abbiamo una soluzione stazionaria
corrispondente all'autovalore 1
X
psi = ij psj
j
Se il random walk e regolare possiamo prendere il limite t ! 0 ottenendo la
Master equation
dpi X
= ^ij pj (t)
(2.25)
dt
j
dove ^ij e una matrice Laplaciana (ovvero Pi ^ij = 0). Per interpretare
l'equazione (2.25) come equazione di continuita possiamo scrivere
dpi
dt
=
X
j 6=i
^ij pj (t)
X
j 6=i
^ji pi (t)
(2.26)
dove al membro destro compaiono il usso entrante ed il usso uscente dal nodo
i e ^ij diventano i tassi di transizione. La soluzione completa dell'equazione implica il calcolo degli autovalori ed autovettori della matrice ^ij ed in particolare
l'autovettore ps(i) corrispondente all'autovalore nullo da la soluzione stazionaria: ps(i) si puo interpretare come la probabilita di trovare una particella nel
nodo i o anche tempo medio
di ritorno della particella nel nodo i (imponiamo
quindi la normalizzazione Pi ps(i) = 1)). Ora ogni particella e identica e la
dinamica indipedente, quindi la probabilita stazionaria di trovare la rete nello
stato n si calcola attraverso la distribuzione multinomiale
Q s
[p (j )]nj X n = N
s
(2.27)
p (n) = N ! jQ
j
j nj !
j
Tale distribuzione risulta la distribuzione attrattiva del random walk ottenuto
muovendo tutte la particelle contemporaneamente nella rete in modo indipendente. In tal caso il tempo di rilassamento del sistema rete coincide con quello
della singola particella.
Possiamo modellare il problema dal punto di vista del sistema rete in cui lo stato
di rete e l'insieme degli stati dei singoli nodi (n1; :::; nM ) (livello mesoscopico).
Calcoliamo quindi le proprieta di Markov della dinamica di rete
n0 ;n (t) = E
(
X
k
) (
X
i (k (t + t)) = n0i ; i = 1; :::; M =
k
i (k (t)) = nj ; j = 1; :::; M
assumendo che nel tempo t ogni particella possa fare un singolo step. La
probabilita di transizione si calcola sul numero di modi possibili che connettono
i due stati di rete: ovvero in quanti modi posso creare la con gurazione n0
partendo dalla con gurazione n pesando coascuno modo per la probabilita di
realizzarlo. Nel caso si muova una particella alla volta n ed n0 possono di erire
solo per lo spostamento di una particella tra un nodo e l'altro e il conteggio si
puo e ettuare in modo esplicito
n;ji (n) (t) / (nj + 1 ij )ij (t) ' (nj + 1 ij )^ij t
(2.28)
)!
39
2.6. ENTROPIA DI GIBBS E RANDOM WALK SU NETWORK
dove l'operatore ji aggiunge una particella al nodo j e la toglie al nodo i: in
quanto la particella da spostare si puo scegliere tra nj +1 e quindi ci sono nj +1
spostamenti possibili. La condizione di normalizzazione si impone sommando
su tutti gli stati di arrivo. Il processo di Markov associato soddisfa a
X
X
X
p_(n; t) / (nj +1)^ij p(ji n; t)+ii p(n; t) = (nj +1)^ij p(ji n; t)
ni ^ji p(n; t)
j 6=i
j
j
dove si una il fatto che ^ij e una matrice laplaciana. La costante di normalizzione
in uisce quindi sulla scala temporale ma non sulla distribuzione stazionaria che
coincide con la multinomiale (2.27). Da un punto di vista entropico possiamo
de nire l'Entropia di Gibbs
X
S [p] =
p() ln(p())
dove indica un microstato del sistema de nito dala dinamica delle N particelle.
Se imponiamo la massimizzazione con il vincolo sui valori di aspettazione < ni >
per la popolazione dei nodi si ottiene il funzionale
X
X X
F [< n >] =
p() ln(p()) + i p()ni
i
che si deve variare rispetto alle distribuzioni p(), con i moltiplicatori di Lagrange. Abbiamo la condizione
Y
X
ln(p()) + ini = 0 ) p() =/ exp ( ini)
i
i
Ne segue che se consideriamo gli stati della rete e la loro molteplicita, abbiamo
ancora
N! Y
exp ( ini)
p(n) =
n1 !:::nM ! i
dove i si ssano tramite i vincoli: ovvero
i = ln
dove si richiede che
X
i
N
< ni >
< ni >= N
La distribuzione multinomial risulta quindi una distribuzione a massima Entropia di Gibbs con il vincolo sui valori medi della popolazione dei nodi.
40CHAPTER 2.
APPROCCIO STATISTICO E FORMALISMO TERMODINAMICO
Chapter 3
Urti tra particelle e moto
Browniano
Utilizzeremo gli urti di particelle per dare un esempio di come si costruisce un
modello mesoscopico ovvero un modello che pur trascurando i dettagli della
dinamica microscopcia riesce a riprodurne alcuni e etti da un punto di vista
statistico. Daremo innanzitutto alcune ipotesi " siche" per la trattazione degli
urti tra due particelle: assumiamo
1. Urti istantanei (tempo d'urto t tempo caratteristico di evoluzione del sistema)
(ovvero degli osservabili del gas di particelle);
2. Urti binari (e un'approssimazione sensata: se il tempo d'urto e molto
piccolo, e molto dicile avere piu di due particelle che si urtano simultaneamente);
3. Leggi di conservazione dell'Energia Cinetica e della Quantita di Moto.
Considero una particella test di massa M che interagisce con un gas di particelle
di massa m M . Siano rispettivamente P e p la quantita di moto della
particella test e di una particella urtante, sia PCM la quantita di moto rispetto
della particella test al sistema del centro di massa:
PCM = v
(3.1)
dove = Mm=(m + M ) e la massa ridotta e v = V v. Nello studio di urti
successivo possimao considerare P un processo stocastico che descrive legato
alla distribuzione delle particelle nel gas man mano che si susseguono gli urti.
Assumiamo che p abbia i seguenti valori di aspettazione e varianza:
E ( p) = 0
E (pi ; pj ) = mT i;j = mT I
L'ultima relazione viene dalla de nizione di temperatura in Meccanica Statistica
(ponendo a 1 la costante di Boltzmann)
2
p
3
E
(3.2)
2m = 2 T
41
0
42
CHAPTER 3. URTI TRA PARTICELLE E MOTO BROWNIANO
Durante il processo il vettore PCM viene ruotato di un angolo in seguito
all'urto in un piano de nito da P e da p (supponiamo interazioni di tipo campo
centrale cos che si conservi L):
P = (cos 1) PCM + (! PCM ) sin in cui e l'angolo di de essione dipendente dal paramentro d'urto e ! e il
versore lungo la direzione del momento angolare L. La dinamica dell'urto puo
essere espressa in modo discreto utilizzando il tempo di urto :
P (t + ) = P (t) + P
= P (t) + (cos 1) PCM + (! PCM ) sin Cerchiamo di costruire un modello mesoscopico in grado di riprodurre le proprieta statistiche della dinamica P (t) senza dover descrivere la dinamica microscopica di ogni urto. La conservazione dell'energia cinetica nel sistema del
centro di massa E = v2=2 implica che la variazione della velocita relativa ak
quadrato deve essere nulla. Sia u = v abbiamo
u2 = (u + u)2 u2
= 2uu + (u)2 = 0
u)2
) u = (
2juj
q
quindi, nel caso di piccole deviazioni (ju 1j), la componente lungo la direzione dell'urto risulta di secondo ordine rispetto. Assumiamo ora le seguenti
ipotesi sulla distribuzione delle variabili e !:
1. e distribuita in modo simmetrico rispetto a = 0
2. ! e distribuita uniformemente su di una sfera unitaria
Inoltre supponiamo che e ! siano variabili indipendenti (e inoltre siano indipendenti tra un urto e il successivo). Per ssato P calcoliamo il valore di
aspettazione di P con:
E (P ) = E (cos 1) E (PCM ) + E (! PCM ) E (sin )
Per la simmetria della distribuzione di , E (sin ) = 0, quindi:
1) E (PCM ) = 2E sin2 2 E (PCM )
dove si media sui porametri d'urto e sul momento P 0 della particella urtante
Nel calcolare la varianza il termine di doppio prodotto di annulla in quanto
PCM (! PCM ) = 0. Quindi:
E (P )
=
E (cos componente lungo la direzione dell0 urto
E P 2
=
+
z }| {
E (cos 1)2 E PCM 2
E sin2 E (! PCM )2
|
{z
componente ortogonale
}
43
Dal momento che ! e un versore (norma unitaria) distribuito uniformemente si
ha che:
E (! PCM )2 = E PCM 2
) E P 2 ' E (cos 1)2 + sin2 E PCM 2
=
Introduciamo il parametro
4E sin2 E PCM 2
2
2 sin
= 2 2
E
cos che possiamo scrivere
E (P ) = E (PCM )
2 )
E (P 2 ) = 2 E (PCM
(3.3)
e per trovare la variazione della Ptdopo un intervallo di tempo t, sommiamo
i contributi di ognuno degli N = urti subiti dalla particella test:
N
X
N
X
Pk = Pk NE (P ) + NE (P )
k=1
k=1
NE (P ) = 2N E (PCM ) = t E (PCM )
P^ = P E (P )
N
N
X
X
p
P^k = N p1N P^k
k=1
k=1
Ricordiamo la de nizione (3.1) e nell'ipotesi m M per cui ' m possiamo
approssimare
m
E (PCM ) ' P
M
in quanto il contributo medio di p si annulla nel caso di isotropia. Analogamente
possiamo valutare
1
MV 2 1 3T
2
2
E (PCM ) = 2
+ m 2 ' 3mT
M 2
pertanto vale la stima
N
1X
E
N k=1
2
PCM
' 3mT
Ricordando che abbiamo 3 componenti, segue E (p2i ) = mT . Nell'ipotesi di urti
indipendenti possiamo applicare il teorema del limite centrale che a erma: la
somma di tante variabili aleatorie indipendenti a media e varianza nita tende
44
CHAPTER 3. URTI TRA PARTICELLE E MOTO BROWNIANO
ad una variabile Gaussiana con media somma delle medie a vraianza somma
delle varianze. Nel nostro caso la somma
N
X
p1
P^k
N k=1
per N 1 tendera ad una variabile Gaussiana a media nulla e varianza
2 ). Possiamo allora ottenere la dinamica di P (t) secondo la ricor2 E (PCM
renza
q
p
m
2 )t
(3.4)
P (t + t) = P (t) M
P (t)t + 2N E (PCM
con t variabile gaussiana normalizzata. La ricorrenza precedente si puo scrivere
nella forma
p
m
P (t + t) P (t) =
P
(t) + 2 mT p t
(3.5)
t
M
t
p
Notiamo che la variabile (t)= t ha varianza 1t , che diverge per t ! 0:
quindi la relazione (3.5) non de nisce un'equazione di erenziale ordinaria. Tuttavia e possibile dare un signi cato a taleplimite nell'ambito delle equazioni
di erenziali stocastiche e la variabile (t)= t de nisce quello che in sica si
chiama rumore bianco. Se de niamo il coeciente di drift = m=M e il coefciente di di usione D = mT si ottiene la relazione (Relazione di Einstein):
D
=
(3.6)
MT
che lega il coeciente di di usione stocastica con la dissipazione dinamica (relazione di uttuazione-dissipazione). In sica e conveniente introdurre il limite
del processo stocastico che si ottiene sommando variabili Gaussiane indipendenti
normalizzate a media nulla
N
1 X
wt = lim p
N t = t
(3.7)
t!0 t k=1 k
Tale limite ha un signi cato rigoroso nell'ambito della teoria dei processi stocastici e de nisce il processo di Wierer wt(!): si tratta di un processo stocastico
Gaussiano (ovvero wt(!) e una variabile aletoria Gaussiana dipendente dalla realizzazione di un evento ! per ogni scelta di t 0) a media nulla ed incrementi
indipendenti (proprieta di Markov)
E ((wt wu )(wu ws )) = E ((wt wu )) E ((wu ws )) = 0
8 t>u>s
Inoltre la varianza per un incremeneto t coincide con t
E (wt+t wt )2 = t
(3.8)
Le realizzazioni del processo di Wiener sono funzioni continue mapnon di erenziabili: infatti possiamo dedurre dalla relazione (3.8) che jwtj / t e quindi
non esiste il limite del rapporto incrementale. Tuttavia generalizando il concetto
di funzione de niamo il rumore bianco (t)
wt = (t)
(3.9)
lim
t!0 t
45
che diventa un processo stocastico Gaussiano a media nulla e correlazione istantanea
E ( (t) (s)) = (t s)
Utilizzando il concetto di rumore bianco possiamo scrivere formalmente un'equazione
di erenzaile stocastica (equazione di Langevin) prendendo il limite formale
t ! 0 nell'espressione (3.5)
p
P _(t) = P (t) + 2 MT (t)
(3.10)
E necessario tener presente che l'espressione (3.10) e formale e la sua corretta
interpretazione e data dalla dinamica discreta (3.4). Tuttavia l'equazione di
Langevin risulta utile per il calcolo della proprieta statistiche del processo P .
Posto P = E (P ), calcoliamo la media di ambo i membri dell'equazione di
Langevin
P_ = P
da cui
P (t) = P (0)e t
Analogamente per il momento secondo si ottiene:
p
dP 2
= 2P_ P = 2P (t)( P (t) + 2 MT (t))
dt
Prendendo il valor medio
p
d
E (P 2 = 2 E (P 2 + 2 2 MT E (P (t) (t))
dt
Per determinare l'ultimo valor medio calcoliamo
E (P (t) (t)) =
Z t
0
E (P (s) (t))ds +
p
2
MT
Z t
0
(3.11)
E ( (s) (t))ds
Nell'espressione precedente solo l'ultimo termine da un contributo con
Z t
Z t
1
E ( (s) (t))ds = (t s)ds =
2
0
0
Si ha quindi:
d
E P2
dt
=
2
E P2
+ 2M
T
(3.12)
Si ha quindi una soluzione (ponendo = E P 2 ):
(t) = 0 e 2 t + 1 e 2 t MT
Cio implica il rilassamento del momento secondo della distribuzione verso il
valore stazionario MT (nota: la temperatura del bagno termico de nisce la
varianza). Dal momento che l'equazione (3.10) e lineare possiamo scrivere la
soluzione in modo esplicito: da
p
d t
e P (t) = 2 MT e t (t)
dt
46
CHAPTER 3. URTI TRA PARTICELLE E MOTO BROWNIANO
otteniamo la soluzione nella forma
P (t) = P (0) +
Z t
0
e (t s) (s)ds
(3.13)
Notiamo innazitutto che tale integrale deve essere interpretato in quanto (t) e
una distribuzione: si tratta di un integrale stocastico la cui de nizione generale
e data da Z t
NX1
f (t) (s)ds = lim
f (tk )(w(tk+1 ) w(tk ))
t!0
0
k=0
dove N t = t, tk = kt e w(t) e processo di Wiener. f (t) puo essere un
processo stocastico quadrato sommabile, che soddisfa a condizioni tecniche per
la misurabilita. Per qunto ci riguarda e importantet notare che f (tk ) deve
essere indipendente dall'incremento w(tk+1 ) w(tk ). La natura "ambigua" dell'equazione di Langevin viene chiarita dalla dinamica discreta (3.5) che possiamo
scrivere nella forma
p
P = P (t)t + 2MT wt
Tale espressione suggerisce la possibilita di introdurre un di erenziale per indicare un incremento in nitesimo del momento
p
dP = P (t)dt + 2MT dwt
(3.14)
Tale espressione si chiama di erenziale stocastico ed si associa ad un'equazione
di erenziale stocastica, che equivale all'equazione di Langevin. Per una trattazione elementare delle equazioni stocastiche si veda Appendice. Notiamo solo
come dalle proprieta del processo di Wiener (3.8) si possa scrivere
E (dwt2 ) = dt
Ne segue la possibilita di calcolare il di erenziale di P 2 utilizzando direttamente
il di erenziale (3.14): dallo sviluppo di Taylor abbiamo
P 2 = 2P P + P 2
Nell'idea di tenere solo i termini che danno contributo all'ordine (t) abbiamo
p
P 2 ' 2P ( P (t)t + 2MT wt) + 2MT wt2
da cui il nuovo di erenziale
p
dP 2 = 2P ( P (t)dt + 2MT dwt ) + 2MT dwt2
(3.15)
Ora wt2 e un processo stocastico con media t e varianza
E (wt2 t)2 = E (wt4 ) t2 = 2t2
(ricordare il calcolo dei momenti per le variabili Gaussiane); ovvero le uttuazioni del termine wt2 sono di ordine superiore respetto al termine wt.
Possiamo allora scrivere
p
dP 2 = 2P ( P (t)dt + 2MT dwt ) + 2MT dt
(3.16)
47
Tale risultato e un'applicazione del calcolo di Ito (vedi appendice). Osserviamo
che prendendo il valor medio si ottiene
dE (P 2 ) = 2 E (P 2 ) + 2MT dt
ritrovando l'equazione (3.12). Generalizzando quanto abbiamo fatto consideriamo il moto di una particella in un bagno termico soggetta ad un potenziale
armonico possiamo scrivere
p
x_ =
m
p
p_ = kx p + 2T m t
(3.17)
Siamo interessati al problema dell'evoluzione dell'Energia Meccanica (integrale
primo del moto per il sistema per = 0) con
E=
p2 kx2
2m + 2
Utilizzando il calcolo di Ito, abbiamo
p
kx dt
m
p
<
p2
kx2
E
>=<
>=
2m
2
2
2
2T m dwt + kx mp dt + 2T dt = 2 2pm dt + 2T
Potendo applicare il teorema del viriale sulla media temporale dell'energia cinetica (cio e per rumori piccoli) abbiamo
dE =
p dt +
dove <> indica media temporale lungo le orbite imperturbate. Abbiamo quindi
l'equazione di erenziale stocastica
p
E_ = E + 2T + 2T Et
(3.19)
Per il comportamento dell'energia media abbiamo
E = E0 + 2T (1 e t )
L'Energia non e distribuita in modo Gaussiano. Dobbiamo trovare un'equazione
per la funzione di distribuzione. Faremo questo in condizioni piu generali introducendo il concetto di dinamica stocastica.
dt +
p
2T
pdw(3.18)
t
48
CHAPTER 3. URTI TRA PARTICELLE E MOTO BROWNIANO
Chapter 4
Sulla costruzione di un
modello stocastico
Le caratteristiche delle equazioni di erenziali stocastiche, ovvero le proprieta
del rumore bianco, rendono necessario un approfondimento su come si costruisce
un modello stocastico per un sistema sico. Consideriamo un rotatore che sia
perturbato stocasticamente nella frequenza ! ogni intervallo di tempo t. La
dinamica per un intervallo t si scrive
x(t + t) = A(!(t)t) x(t)
(4.1)
p(t + t)
p(t)
dove si e introdotta la matrice
!t sin !t
A(!t) = cos
(4.2)
sin !t cos !t
dove l'Azione meccanica e un integrale primo del moto
p2
2
x
+
2 2
Ora supponiamo che ogni intervallo t il sistema sia perturbato stocasticamente
variando la frequenza secondo lo schema
!(t) = !0 (1 + (t))
(4.3)
dove (t) e un processo stocastico a gradini formato da variabili aleaorie indipedenti a varianza limitata 2 e media nulla. Ora la scala di tempo t de nisce
la scala del tempo di correlazione del sistema in quanto il rumore
e scelto a
gradini, mentre la scala di evoluzione del sistema e data da !0 1 Consideriamo
quindi il caso !0t 1, abbiamo l'approssimazione
!(t)t sin !(t)t =
1 !t+ 1=2!2t2
0 A(!(t)t) = cos
sin !(t)t cos !(t)t
! t 1
0
1=2!2t2
(4.4)
E=
49
50CHAPTER 4.
SULLA COSTRUZIONE DI UN MODELLO STOCASTICO
Ne segue che la dinamica dell'oscillatore stocastico potrebbe essere in forma di
equazione di erenziale discreta con
1 !2t2x(t)
x(t + t) x(t) = !p(t)t
2
1 !2t2 p(t)
p(t + t) p(t) = !x(t)t
2
(4.5)
Nel limite t ! 0 le uttuazioni sono pesate da (t)t e supponiamo di fare il
limite di rumore bianco
(t)t ! dwt
lim
t!0
(ovvero deve avere media nulla e varianza 2 = t 1). Nel limite abbiamo
!2 t2 = !02 (1 + 2 + 2 )t2 ! !02 dt
p
poiche ' 1= t e 2t2 ! dwt2 che e statisticamente equivalente a dt. La
dinamica iniziale si approssima con l'equazione di erenziale stocastica
1 2
dx = !0 p(dt + dwt )
2 !0 xdt
1 2
dp = !0 x(dt dwt )
2 !0 pdt
Nota: il sistema precedente non coincide con la forma canonica delle equazioni
del moto che si otterrebbero da un Hamiltoniano stocastico e la presenza del
termine aggiuntivo dipendende dall'ipotesi 2 / 1=t. Ovvero se la varianza
delle uttuazzioni risulta piccola rispetto all'inverso del tempo di correlazione
1=t il limite del rumore bianco non e giusti cato.
Per mantenere la struttura canonicita delle soluzioni delle equazioni di Hamilton
occorre cambiare la de nizione di equazione canonica stocastica. Infatti sia dato
l'Hamiltoniano stocastico in forma di di erenziale
!2
!2
d!H = 0 (x2 + p2 )dt + 0 (x2 + p2 )dwt
(4.6)
2
2
se imponiamo la forma canonica classica alle equazioni e quindi facciamo il limite
di rumore bianco si ottiene
x_ = !0 p(1 + )
p_ = !0 x(1 + )
la cui soluzione non approssima il sistema iniziale se considerate equazioni di
Ito e quindi non ha carettere canonico.
Diamo una de nizione piu formale di usso di fase stocastico t0(x; wt) come una trasformazione de nita su uno spazio delle fasi dipendente dalla realizzazione
di un processo di Wiener wt (o piu in generale di un processo stocastico). Ovviamente si richiedono delle condizioni per poter rappresentare
x(t) = t0 (x; [wt ])
51
come la realizzazione di un processo dinamico stocastico a partire da una condizione iniziale x in funzione della realizzazione wt. Innazituto deve valere una
regola di composizione (semigruppo)
t
ts (s0 (x; [ws]); [wt]) = t0 (x; [wt]) tlim
!0 0 (x; [wt ]) = x
per una qualunque ssata realizzazione wt e le trasformazioni devono essere
invertibili per ogni wt. Inoltre in generale richiediamo invarianza per traslazione
temporale in senso statistico
ss+t(x; [wt]) = t0(x; [w0t]) 8s 0
(4.7)
dove w0t e una diversa realizzazione del processo stocastico, ma comunque possibile: la relazione sopra signi ca che possiamo iniziare l'evoluzione in qualunque
momento in quanto una qualunque realizzazione del processo stocastico wt tra
s e t + s ha una corrispondente realizzazione diversa tra 0 e t che risulta indipendente dalla storia passata ws . In ne si richiede che se annulliamo l'e etto
delle uttuazioni
t0 (x; 0)) = t(x)
troviamo un usso di fase deterministico. Date le precedenti condizioni, sotto
opportune ipotesi di regolarita possiamo scrivere lo sviluppo
0 t(x; [wt]) = x + a(x)t + b(x)wt + 21 c(x)wt2 + O(t3=2)
dove le proprieta di semi gruppo implica la relazione
@b
c(x)wt2 = b(x)
@x
con wt1 + wt2 = wt, ovvero
wt21 + wt22 + 2wt1 wt2 c(x) = b(x)
@b
@x
Tale sviluppo associa l'equazione di erenziale stocastica
1 @b dt + b(x)dwt
dx = a(x) + b(x)
(4.8)
2 @x
al usso iniziale. Se quindi abbiamo vogliamo associare un usso di fase canonico
ad un Hamiltoniano stocastico
d!H (x; p) = H0 (x; p)dt + H1 (x; p)dwt
le equazioni del moto devono avere la forma
dx = @H0 =@pdt + @H1 =@pdwt + 1=2(@H1 =@p)(@ 2 H1 =@p@x)dt 1=2(@H1 =@x)(@ 2 H1 =@p2 )dt
dp = @H0 =@xdt @H1 =@xdwt 1=2(@H1 =@p)(@ 2 H1 =@x2 )dt + 1=2(@H1 =@x)(@ 2 H1 =@p@x)dt
Nel caso dell'oscillatore stocastico (4.6) abbiamo il sistema
dx = !0 (dt + dwt )p !02 =2xdt
dp = !0 (dt + dwt )x !02 =2pdt
52CHAPTER 4.
SULLA COSTRUZIONE DI UN MODELLO STOCASTICO
che genera un usso di fase canonico. Nel caso di una Hamiltoniana puramente
stocastica d!H = H1dwt osserviamo che
@H
@H
1 @ 2H1 dx + 2 @ 2H1 dx dp + @H1 dp2
dH1 = 1 dx + 1 dp +
@x
@p
2 @x2
@x@p
@p2
da cui dH1 = 0 che corrisponde alla conservazione in media dell'energia nel limite di rumore bianco. Nel prossimo capitolo vedremo le proprieta dell'integrazone
stocastica alla base delle equazione di erenziali stocastiche di Ito.
Chapter 5
Integrazione stocastica
5.1 Processo di Wiener
La de nizione di sistemi dinamici stocastici e strettamente legata alle proprieta
di integrale stocastico che si ottengono a partire da una dinamica discreta stocastica abbiamo operato il limite t ! 0 per una dinamica discreta. Rimane
aperta la questione di come dare un signi cato a tale limite nel caso di una
dinamica stocastica che scriviamo in generale come:
p
x(t + t) = x(t) + a(x)t + b(x) (t) t
Se consideriamo la variabile:
X
p
w = (tk ) t
k
t k = k t
dove (t) sono variabili indipendenti a media nulla e varianza unitaria. Utilizzando il teorema del limite centrale, il limite t ! 0 de nisce un processo
stocastico Gaussiano che prende il nome di Processo di Wiener W (t) (Wiener
ha dimostrato infatti la sua esistenza da un punto di vista matematico) ed e
caratterizzato delle seguenti proprieta:
< W (t) >= 0
perche i fattori (tk ) hanno tutti media nulla
< W 2 (wt ) >= t
perche
XX
W2 =
(tk ) (th )t = kh N t
Il processo di Wiener e il processo stocastico che descrive i moti Browniani,
in cui le traiettorie sono random e continue, con media nulla e varianza crescente
col tempo; i moti di usivi come quello Browniano hanno le uttuazioni spaziali
53
54
CHAPTER 5. INTEGRAZIONE STOCASTICA
spaziale di ordine pari alla radice del tempo. Cio si capisce dalla proprieta di
riscalemento
W (t) = 1=2 W (t)
che segue dalla costruzione. Un problema di particolare interesse e la statistica
del tempo di primo passaggio attraverso ad una soglia (si noti che tale tempo
non si ricava dalla distribuzione di probabilia)
Ta = infft : W (t) = ag
(5.1)
Per il calcolo della statistica di Ta osserviamo che
P (W (t) > a) = P (Ta < t&W (t) > a) = 21 P (Ta < t)
La seconda segue per la simmetria del processo di Wiener: una volta che il
processo ha raggiunto la soglia a e completamente simmetrico il fatto che stia
a destra e a sinistra della soglia. Abbiamo l'eguaglianza
Z 1
2
e x =2t dx
P (Ta < t) = 2P (W (t) > a) = p 2
2t a
da cui segue la densita di probabilita di Ta
2 Z 1 e x2=2tdx
d
(5.2)
pa (t) = P (Ta < t) = p
dt
2t a
Altre importanti proprieta del processo di Wiener sono:
gli incrementi (Wt1 Wt0 ) e (Wt2 Wt1 ) con t0 < t1 < t2 sono indipendenti
< Wt ; Ws >= minft; sg
Wt+4t Wt = 0 con < 1 altrimenti e 1 cioe W non e di erenziabile
t
4t
2
Chapter 6
Equazione di Fokker-Planck
Dato un ensemble di particelle abbiamo visto come un'equazione di erenziale
stocastica sia in grado di descrivere a livello mesoscopico l'e etto di interazioni binarie indipedenti (collisioni) tra particelle, costruiamo ora l'equazione per
l'evoluzione della distribuzione di probabilita a partire dall'equazione di continuita: ovvero imponiamo la conservazione del numero di particelle nell'evoluzione
temporale. Sia x(t) = t(x; w(t)) il usso di fase stocastico associato ad
un'equazione di erenziale stocastica
dx = a(x)dt + b(x)dwt
e sia I (x) un osservabile de nito nello spazio delle fasi, l'evoluzione del valore
di aspettazione lungo il usso di fase e dato da
I (x; t) = E (I (t (x; w(t))))
dove il valore di aspettazione e preso du tutte le realizzazioni del processo di
Wiener w(t). E' possibile costruire un'equazione di erenzale per I (x; t) dalla
relazione (utilizzando la formula di Ito)
@I
1 @I 2 b(x)2dt
dI = (a(x)dt + b(x)dwt ) +
@x
2 @x2
Prendendo il valor medio otteniamo l'equazione di ereziale alle derivate parziali
@I @I
1 @I 2 b(x)2
=
a(x) +
(6.1)
@t @x
2 @x2
Introducendo l'operatore di Lie
@ 1 @2
DL = a(x) +
@x 2 @x2
possiamo scrivere la soluzione in modo formale
I (x; t) = exp(tDL ) I (x)
Nell'intepretazione statistica dei sistemi dinamici stocastici associamo un funzione di distribuzione 0(x) alle condizioni iniziali di un ensemble di particelle
55
56
CHAPTER 6. EQUAZIONE DI FOKKER-PLANCK
indipendenti soggette ad una diversa realizzazione del rumore (in una situazione
sica si assume che a posizioni spaziali diverse, anche molto vicine, di un ensemble di particelle corrispondono a realizzazioni diverse del rumore in un singolo
esperimento). Allova vale la relazione
Z
I (t) = I (x; t)0(x)dx
per la media di I sull'ensemble. Ne segue che
Z
Z
I (t) = exp (tDL ) I (x)0 (x) = I (x) exp tDLy (x)
dove DLy e l'operatore aggiunto, per un qualunque osservabile I (x), purche la
distribuzione di particelle si annulli al bordo dello spazio (condizione al contorno). Allora poniamo
(x; t) = exp tDLy 0 (x)
per de nire l'evoluzione della funzione di distribuzione ed otteniamo l'equazione
di Fokker-Planck
@
1 @ 2 b2(x)
@
=
DLy (x; t) =
a(x) +
(6.2)
@t
@x
2 @x2
Data la densita di particelle (t; p) la conservazione del numero di particelle
in un elemento di volume dp si scrive
@p(t t)
(t + t; p(t))dp(t) = (t; p(t t))dp(t t)det
dp
@p(t)
dove @p(t t)=@p(t) indica la matrice Jacobiana della trasformazione p(t) !
p(t t). Notiamo che utilizzziamo l'usuale misura di Lebesgue per l'equazione
di continuita come conseguenza di un'ipotesi di equidistribuzioni dei microstati nello spazio delle fasi. Se tale ipotesi non fosse vera dovremo construire
l'equazione di continuita rispetto alla misura corretta nello spazio delle fasi.
Notiamo ancora come l'equazione di continuita richieda di invertire la dinamica
(ovvero scrivere p(t t) in funzione di di p(t)), che non e equivalente a dire
che il tempo e invertibile. Esplicitando la relazione precedente ottenniamo
p
) (t + 4t; p) = (t; p + p4t 2m T 4t(t)) det j1 + 4tj
p
= ((t; p) + @
(
p4t
2m T 4t)
@p
2
+ 21 @@p2 (2mT 4t)2)(1 + " 4t) + O(4t 32 )
p
@2
) (t + 4t; p) (t; p) = @
(
p4t)
2
mT 4t ) + (t; p)3 4t + 2 mT 4t
@p
@p
In cui abbiamo supposto che il sistema abbia dimensione
3 e abbiamo utilizzato
l'equivalenza stocastica "2 ~ t a meno di O(t 32 ), ovvero le uttuazioni di "2 si
possono trascurare nel limite t ! 0.
L'equazione precedente descrive l'evoluzione di una distribuzione di probabilita
57
(t; p)
per una particolare scelta del "rumore" (t), scelta indipendente dall'evoluzione del sistema nei tempi precedenti a t. Per una evoluzione probabilistica si prende il valor medio :
2
(t + 4t; p) (t; p) @ = p + 3 + mT @ + O(4t 12 )
4t
@p2
@p
In opportune ipotesi di regolarita possiamo calcolare il limite per t ! 0:
@
@t
@
= @p
( p) + m
T
@2
@p2
Questa equazione prende il nome di equazione di Fokker-Planck.
(6.3)
58
CHAPTER 6. EQUAZIONE DI FOKKER-PLANCK
6.1 Equazione di Fokker-Planck all'equilibrio
De niamo l'operatore Lp:
Lp = (
@
T @2
p+m 2)
@p
@p
e l'equazione di Fokker-Planck diventa:
@
@t
che ha soluzione:
= Lp (p; t) = etLp 0 (p)
Si veri ca che l'equazione di Fokker-Planck conserva l'integrale: R (p; t) dp = 1.
De niamo la densita di corrente di probabilita:
J=
(
p + m T
E introduciamo l'equazione di continuita:
@ @J
+
@t @p
@
)
@p
=0
(6.4)
(6.5)
Possiamo risolvere l'equazione tramite il calcolo di autofunzioni e autovalori, e
si puo dimostrare che esiste la distribuzione stazionaria e che essa e associata
all'autovalore 0:
@
( @p
p+m
T
@2
) = 0
@p2 1
Se il coeciente di di usione e non nullo ovunque, allora 1 e unica. Tutti gli
altri autovalori sono negativi, cioe la soluzione decade esponenzialmente verso la
stazionarieta. La grandezza degli autovalori dipende dal coeciente di di usione
e regola la velocita del rilassamento.
La condizione di stazionarieta del sistema e espressa dall'equazione:
@J
@p
=0
(6.6)
signi ca che il usso di probabilita e nullo attraverso ogni super cie nello spazio
delle fasi. Le correnti possono essere presenti, ma devono avere linee di usso
chiuse (ad esempio un sistema caratterizzato da moti convettivi): non vi e scambio di corrente tra il siostema e l'ambiente esterno.
Lo stato all'equilibrio termodinamico e espresso dall'annullamento della corrente:
J =0
(6.7)
per cui ogni sottoinsieme e all'equilibrio con le altre parti del sistema stesso.
L'equilibrio termodinamico e chiamato "bilancio dettagliato", poiche il sistema
6.1. EQUAZIONE DI FOKKER-PLANCK ALL'EQUILIBRIO
59
e l'ambiente si scambiano la stessa quantita di informazioni in ogni istante.
L'equazione di Fokker-Planck risulta:
2
@
@
( @p
p + m T 2 )1 = 0
@p
p
= 1 @ = @ ln()
mT
@p
@p
p2
) 1 = cost e 2mT
(6.8)
che corrisponde alla distribuzione di Boltzmann.
Per la soluzione generale possiamo introdurre i momenti scalati p^ e considerare
il cambio di coordinate:
p = e t p^
cos che la nuova funzione di distribuzione diventa:
^(^p; t) dp^ = (p; t) dp = (e t p^; t)e t dp^
! ^(^p; t) = (e t p^; t)e t
Otteniamo quindi:
@ ^
@ @
=
(
p^ e t )e 3 t 3 e 3 t
@t
@t @p
=
@
@2
+
3
+m T
p^ e t e 3 t
@p
@p
@ 2 ^
@2
m T e 3 t 2 = m T e2 t 2
@p
@ p^
p
3
e 3 t
=
Si veri ca facilmente che l'equazione:
@ ^
@ 2 ^
=
m T e2 t 2
@t
@ p^
ha una soluzione gaussiana a media nulla e varianza:
2 (t) = 2
Z t
0
mT e2 t dt = mT (e2 t
1)
Ovvero: ^(^p; t) = (p21 2(t))3 exp( 2mT (pe^22 t 1) )
Tale soluzione corrisponde alla scelta iniziale di una di Dirac. In ne ritroviamo:
e3 t
e2 t p2
(p; t) = p
exp
(
2mT (e2 t 1) )
( 2mT (e2 t 1))3
2
= (p2mT1(e2 t 1))3 exp( 2mT (1p e 2 t ) )
1
1 NOTA: da quanto fatto si pu
o stabilire una relazione tra l'equazione di Fokker-Planck e
la distribuzione di Maxwell nel caso di un gas con collisioni binarie ed indipendenti con tempi
di rilassamento locali sucientemente veloci.
60
CHAPTER 6. EQUAZIONE DI FOKKER-PLANCK
6.2 Hamiltoniana con bagno termico
Possiamo considerare un caso
piu generale supponendo che il gas abbia una
Hamiltoniana: H (x; p) = 2pm2 + V (x)
L'equazione di Fokker Planck diventa:
@
@ @H
@ @H
@
@2
=
+
+
p + m T 2 @t
@x @p
@p @x
@p
@p
(sistema hamiltoniano a cui e aggiunto un "bagno termico").
Per caratterizzare la soluzione stazionaria sfruttiamo il fatto che H e integrale primo del moto per il sistema isolato e cerchiamo una soluzione nella
forma:
1 (x; p) e H
2
2
! @p@ pe ( 2pm +V (x)) + mT @p@22 e ( 2pm V (x))
Fattorizzando e V (x) ritroviamo l'equazione di Fokker-Planck, con soluzione:
p2
1
e 2mT ! =
T
e ritroviamo la distribuzione di Maxwell Boltzmann. Notiamo che tale risultato e conseguenza della relazione tra la de nizone di bagno termico tramite
le equazioni di erenziali stocastiche e la relazione di Einstein ed il fatto che
l'energia cinetica sia una forma quadratica nei momenti a coecienti costanti. In una formulazione generale Hamiltoniana la de nizione di bagno termico
deve soddisfare dei requisiti sici per ritrovare la distribuzione di Boltzmann.
Inoltre e sottointeso che si utilizza la misura di volume di Lebesgue standard
dxdp nello spazio delle fasi in quanto quest'ultima e la misura invariante per il
usso di fase Hamiltoniano. Se poi integriamo su parte delle variabili otteniamo
le distribuzioni marginali. Dato che l'Hamiltoniana si fattorizza nella somma di
due termini indipendenti le distribuzioni marginali sono
p2
1 (p) / e 2mT
1 (x) / e V (x)
(la forma del potenziale deve assicurare la sommabilita della seconda). La distribuzione 1 (p) e una Gaussiana a media nulla e varianza inversamente proporzionale alla temperatura T . Ne segue the il valore di aspettazione dell'energia
cinetica si calcola
Z
p2
p2
T
e 2mT dp = n
2mT
2
where n is the number of degrees of freedom (equipartition of the kinetic energy).
Se si vuole la distribuzione in funzione dell'Energia occorre utilizzare la relazione
dE
dxdp =
kgradH k d(E )
dove d e l'elemento di volume sulla sulla ipersuper cie di energia costante.
Abbiamo quindi la de nizione
Z
E
d(E )
1 (E ) / e T
(6.9)
kgradH k
E =const
Chapter 7
Appendice
7.1 Integrale Stocastico (di Ito)
Consideriamo dei processi stocastici f (t; w) quadrato-sommabili in media:
Z t2
t1
< f 2 (t; w) > dt < 1
E de niamo l'Integrale Stocastico di Ito come il processo stocastico de nito dal
limite:
Z t2
NX1
f (tk ; w)(Wtk+1 Wtk )(w) =
lim
f (t; w) dwt
4t!0
t1
k=0
quando tale limite esiste.
Assumiamo di aver dimostrato l'esistenza probabilistica (ovviamente non
puo esserci convergenza puntuale, ma solo probabilistica) di tale limite, con
l'ipotesi che, dati due processi x(w) e y(w) con traiettorie puntuali diverse, essi
sono da considerarsi identici se in media vale:
< (x(w) y(w))2 >= 0
Una importante proprieta dell'integrale di Ito e che ha media nulla:
<
Z t2
t1
f (t; w) dwt >= 0
perche < Wtk+1 Wtk >= 0
Se invece consideriamo la varianza, risulta:
<(
Z t2
f (t; w) dwt )2 >
XX
= <
f (tk ; w)f (th ; w)(Wtk+1
t1
X
= < f 2(tk ; w)(Wtk+1 Wtk )2 >
poiche il doppio prodotto e non nullo solo quando tk = th.
61
Wtk )(Wth+1
Wth ) >
62
CHAPTER 7. APPENDICE
Sapendo che < (Wtk+1
Z t2
<(
t1
Wtk )2 >= 4t , risulta:
f (t; w) dwt )2 > =
Z t2
t1
f 2 (t; w) dt
(7.1)
Da cio risulta evidente che vale (formalmente):
0 t =6 s
< dWt dWs > =
dt t = s
e avremo quindi due famiglie di di erenziali:
I ) dx = f (t)dt
classico
II ) dx = f (t; w)dt + g(t; w)dwt stocastico
Dimostriamo ora la validita della seguente espressione: R0t Wt dwt = W2t2
X
Wtk (Wtk+1
Wtk )
=
=
=
=
=
t
2
X
(Wtk Wtk+1 Wt2k )
X
(Wt2k+1 Wt2k )
(Wt2k+1 Wtk Wtk )
X
Wt2
Wtk+1 (Wtk+1 Wtk )
X
Wt2
(Wtk+1 + Wtk Wtk )(Wtk+1 Wtk )
X
X
Wt2
Wtk (Wtk+1 Wtk )
(Wtk+1 Wtk )(Wtk+1
X
) 2 P Wtk (Wtk+1 Wtk ) = Wt2 P(Wtk+1 Wtk )2
Z t
X
W2 t
=
Wtk dwt
Wtk (Wtk+1 Wtk ) = t
) 4lim
t!0
2 2
0
7.2 Cambio di variabile
Associato all'integrale di Ito si introduce il concetto di di erenziale stocastico:
dx = f (t; w)dt + g(t; w)dwt .
Vediamo ora come possiamo operare un cambio di variabile da x a y(x):
@y
(x(t + 4t) x(t))
@x
@2y
2
3
+ 21 @x
2 (x(t + 4t) x(t)) + O((x(t + 4t) x(t)) )
@y
@2y
2
= @x
(f (t)4t + g(t)4wt) + 12 @x
2 (f (t)4t + g(t)4wt )
+ O(4t) 23
3
@y
@2y 2
2
= @x
(f (t)4t + g(t)4wt) + 12 @x
2 g (t)4 wt + O(4t) 2
In cui abbiamo trascurato tutti i termine di ordine superiore a (4t) 23 . Osserviamo che e possibile sostituire 42wt con 4t:
< (4w2 4t)2 >=< 4w4 > < 4t2 >= 34t2 4t2 = O(4t2 )
y(x(t + 4t)) y(x(t))
t
=
t
Wtk )
63
7.2. CAMBIO DI VARIABILE
Percio si ottiene:
y(x(t + 4t)) y(x(t)) =
cioe:
dy =
@y
1 @ 2y g2(t)4t + O(4t) 32
(
f (t)4t + g(t)4wt ) +
@x
2 @x2
@y
@y
1 @y2 g2(t)dt
f (t)dt + g(t)dwt +
@x
@x
2 @x2
(Formula di Ito)
Notiamo che il cambio di variabile per un di erenziale stocastico contiene
un termine non covariante.
7.2.1 Esempio: frequenza con rumore
Consideriamo due processi x(t) e y(t) cos costruiti:
x(t) = cos(wt )
y(t) = sin(wt )
e proviamo a individuarne i di erenziali cos:
dx = sin(wt ) dwt
dx = cos(wt ) dwt
Notiamo che questa scelta non e corretta, in quanto risulta non conservato il
raggio I = x2 + y2 :
dI = 2x( sin(wt ) dwt ) + 2y(cos(wt ) dwt ) + 2(sin2 (wt ) dwt2 ) + 2(cos2 (wt ) dwt2 ) = 2dt
La scelta corretta e la seguente:
1
dx = sin(wt ) dwt
2 cos(wt ) dt
dx = cos(wt ) dwt 12 sin(wt ) dt
7.2.2 Esempio: oscillatore stocastico
Consideriamo il seguente rotatore:
x_ (t) = wy
y_ (t) = wx
Introduciamo un rumore stocastico, ponendo che la frequenza sia perturbata da
un rumore stocastico, e cerchiamo di determinarne i di erenziali:
dx = wy dt "y dwt
dx = wx dt "x dwt
In sica e conveniente de nire la "derivata" dwdtt chiamandola "rumore bianco":
si tratta di una
distribuzione gaussiana con valor medio nullo e per la quale
dwtk
dw
t
s
vale < dts ; dtk >= (ts tk ). La sua trasformata di Fourier comprende tutte
64
CHAPTER 7. APPENDICE
le frequenze possibili per ogni ampiezza, con uno spettro di potenza piatto e
quindi potenza in nita.
Se consideriamo nuovamente I = x2 + y2 :
dI = 2x( wy dt "y dwt ) + 2y(wx dt + "x dwt ) + 2(x2 + y2 )dt = 2"2 I dt
vediamo che le equazioni stocastiche di erenziali nella forma considerata non
hanno l'azione I come integrale primo del moto. Dal punto di vista dei sistemi
hamiltoniani, un rotatore stocastico non genera un usso di fase stocastico con
le proprieta di conservazione che caratterizzano i sistemi hamiltoniani stessi.
La spiegazione va cercata nel fatto che le equazioni stocastiche non sono oggetti
covarianti (ovvero le loro proprieta dipendono dalle variabili utilizzate). In modo
piu corretto consideriamo il usso di fase stocastico R(wt):
x(t) = cos(wt) sin(wt)
x0
y(t)
sin(wt) cos(wt)
y0
utilizzando le variabili:
x2 + y2
! I == arctan
x
y
si ottiene l'equazione:
! d = w dt + " dwt
Questa e l'equazione giusta con la correzione stocastica giusta per conservare il
carattere hamiltoniano. Possiamo mostrare che le equazioni considerate prima
sono errate provando a risolverle numericamente. Per evitare di perdere la possibilita di conservare l'energia, usiamo il metodo dello Splitting, cioe cambiamo
frequenza aggiungendo rumore ad ogni step 4t:
x(t + 42t )
y(t + 42t )
cos(w 42t ) sin(w 42t )
sin(w 42t ) cos(w 42t )
p
x0 (t + 42t ) = "y( 42t ) (t) 4t
p
y0 (t + 42t ) = "y( 42t ) (t) 4t
=
x(t)
y(t)
(t) variabile aleatoria a media nulla e varianza unitaria
x(t + 4t) = cos(w 42t ) sin(w 42t )
x(t + 42t )
y(t + 4t)
sin(w 42t ) cos(w 42t )
y(t + 42t )
Che comporta I_ 6= 0
(7.2)
Chapter 8
Equazioni di erenziali
stocastiche
Una equazione di erenziale generica stocastica e una generalizzazione di un
di erenziale stocastico ed il suo signi cato e legato all'integrale di Ito:
dx = a(x) dx + b(x) dwt
R
R
x(t2 ) x(t1 ) = tt12 a(x(t)) dt + tt12 b(x(t)) dwt
Al ne di dare un'interpretazione dinamica delle equazioni di erenziali stocastiche introduciamo il usso di fase stocastico:
tt21 (x; w) = x(t2jx0)
che rappresenta la soluzione per una data condizione iniziale x0 e una ssata realizzazione del rumore di Wiener w(t) (la scelta di tale realizzazione corrisponde
alla scelta di un particolare evento w nello spazio di probabilita associato al processo di Wiener).
Il usso di fase stocastico ha le seguenti proprieta:
lim t+4t(x; w) = x 8x tt1 (x) e continua in e di erenziabile in x
4t!0 t
tt32 (w) tt21 (w) = tt31 (w)
La natura stazionaria del processo di Wiener esprime il fatto che la distribuzione
di probabilita associata al processo stesso e invariante per trasformazioni temporali. Posto:
t
P04xt0 (A) = P fxjt+4t x 2 A con x = 4
0 (x0 )g
vale che:
P04xt0 (A) = Pttx+04t (A)
In termini di usso stocastico possiamo scrivere:
tt+4t(x; W (w)) = 40 t(x; W (w0))
65
66
CHAPTER 8. EQUAZIONI DIFFERENZIALI STOCASTICHE
che signi ca che per ogni realizzazione del processo di Wiener che evolve da
t a t + 4t per una data condizione iniziale x esiste un'altra realizzazione del
processo di Wiener equivalente che evolve tra 0 e 4t. La corrispondenza
W t (w) = w0
conserva la misura di probabilita.
Fissando delle condizioni iniziali per l'equazione stocastica:
x(0) = x0
in cui x0 stessa puo essere una variabile aleatoria, cerchiamo un processo stocastico x tale che:
x(t) = x0 +
Z t
0
a(x(s)) ds +
Z t
0
b(x(s)) dws
La soluzione di questa equazione esiste solo se a(x) e b(x) sono misurabili e
uniformemente Lipschitz-continue.
8.1 Equazione di Backward
Il nostro obiettivo e legare le singole variazioni microscopiche del sistema alla
sua evoluzione media macroscopica, e per farlo consideriamo il caso piu semplice: un sistema in cui la variabilita di una singola particella rappresentativa
descrive la variabilita di tutto il sistema, che risulta cos soggetto alla proprieta
di "riduzione" (ipotesi alla base della meccanica stocastica del gas perfetto).
Il usso di fase associato alla variabile stocastica x(t) lungo una certa traiettoria w soddisfa:
40 t(x0; t) = x0 + a(x0)4t + b(x0 )4 + O(4t 23 )
Dato un qualsiasi osservabile f0(x), la sua evoluzione e de nita dalla seguente
espressione:
f (t0 x(t)) = f (x; t)
Studiamo quindi l'evoluzione di tale osservabile dal tempo t = 0 al tempo t + 4t
per la variabile x lungo la traiettoria w:
t
f (x; t + 4t; w) = f (t0+4t (x; w)) = f (t4+t4t (4
0 (x; w); w))
= f (t0(40 t(x; w); w0)) = f (40 t(x; w); t; w0)
= f (x + a(x) 4 t + b(x) 4 wt + O(4t 23 ; t; w0)
(x; t; w0)(a(x) 4 t + b(x) 4 wt)
= f (x; t; w0) + @f
@x
2
+ 21 @@xf2 (x; t; w0)b2(x)4t + O(4t 32 )
8.2. EQUAZIONE DI FORWARD
67
dove si e usato il fatto che vale l'equivalenza stocastica 4wt2 = 4t. Se consideriamo la media su tutte le realizzazioni del processo di Wiener (per una data
scelta di x), tenendo conto che la media su w0 e equivalente alla media su w
grazie alla stazionarieta del processo si ottiene:
1 @ 2f(x; t)b2 (x) + :::
@ f
f(x; t + 4t) = f(x; t) + a(x) 4 t +
@x
2 @x2
Da cui:
@ f 1 @ 2 f
f(x; t + 4t) f(x; t) @ f
(8.1)
=
=
a(x) +
lim
4t!0
4t
@t
@x 2 @x2
(Equazione di Backward o Prima equazione di Kolmogorov)
Se de niamo l'operatore di evoluzione L:
@ 1 @2
L = a(x) +
@x 2 @x2
la soluzione dell'equazione precedente si scrive
f (x; t) = etL f (x)
Questo operatore caratterizza i processi di Markov, cioe i processi nei quali la
conoscenza del futuro (t + 4t) dipende solo dal presente t e non dal passato.
Per questo motivo L non e invertibile:
f ( t; x) 6= e tL f (x)
(non e una soluzione sica).
8.2 Equazione di Forward
Ricaviamo l'equazione di Fokker-Plank associata alla dinamica data da una
equazione di erenziale stocastica. Data una distribuzione di condizioni iniziali
o (x) de niamo (y; t; w) l'evoluto della funzione di distribuzione per una ssata
realizzazione w:
(y; t) =< (y; t; w) >
y = t (x)
Il valor medio dell'osservabile f al tempo t deve soddisfare la seguente uguaglianza:
Z
Z
f = f (x; t)0 (x) dx = f (y)(x; t) dy
Assumendo che la distribuzione di probabilita sia sucientemente regolare, possiamo derivare:
Z
Z
@f
!
(x; t)jt=00(x) dx = f (y) @
(y; t)jt=0 dy
@t
@t
68
CHAPTER 8. EQUAZIONI DIFFERENZIALI STOCASTICHE
E ricordando che:
Z
@f
(x; t)jt=0 0 (x) dx =
@t
Z
Lf (x; 0)0 (x) dx
Nell'ipotesi che 0(x) si annulli al bordo dello spazio, risulta:
Z
f (x)L 0 (x) dx =
Z
f (x)
@
(x; t)jt=0 dx
@t
Poiche l'uguaglianza deve essere valida per qualsiasi osservabile f , otteniamo:
@ (x; 0) = L (x; 0)
@t
@
1 @2 2
! @
=
(8.2)
@t [ @x a(x) + 2 @x2 b (x)](x; t)
(Equazione di Forward di Kolmogorov, ovvero equazione di Fokker-Plank associata all'equazione di Backward)
Se introduciamo la densita di corrente
@ 2
b (x)
= a(x) + 21 @x
la soluzione stazionaria soddisfa la condizione di bilancio dettagliato e la corrente
di equilibrio e nulla. In tal caso possiamo calcolare la soluzione in modo esplicito:
Z
2 (a(x) @b2 ) dx + c
log =
b2 (x)
@x
Z
2
1
@b
2
1
log = 2 (b ) a(x)
2 @x dx + c
L'esistenza di un equilibrio di bilancio dettagliato implica delle condizioni di
conservativita in quanto
2
2(b2) 1 a(x) 21 @b
dx
@x
deve essere un di erenziale esatto (quindi il suo rotore deve essere nullo).
8.3 Minimizzazione dell'energia libera F
Possiamo scrivere l'energia interna termodinamica come:
E=
Z
H (x; p) dxdp
Per sistemi vicini all'equilibrio, il di erenziale dell'energia interna e:
dE = T dS P dV
in cui S e l'entropia di Gibbs, T la temperatura, P la pressione e V il volume.
Se consideriamo la variazione del'energia libera F = E T S , cioe il lavoro
che viene ricevuto o e ettuato dal sistema su un'isoterma, come un funzionale
69
8.4. MASSIMIZZAZIONE DELL'ENTROPIA S
F^ ()
= FT , possiamo considerare il problema di minimizzare l'energia libera
come il problema di massimizzare l'entropia con il vincolo di conservare l'energia
interna:
F^ () = S () E ()
von e moltiplicatore di Lagrange. Cerchiamo il valore di per cui @ F (^) = 0,
cioe la condizione per cui l'energia libera e minima:
R
R
F^ =
(1 + ln()) dxdp
H dxdp
1 + ln() H = 0
e H
se identi chiamo: = T1
ritroviamo pertanto
la distribuzione di Maxwell-Boltzmann.
L'integrale R A dx, con A = e H=T , prende il nome di funzione di partizione. In
realta la funzione di partizione si integra su tutti gli "stati diversi" dello spazio
delle fasi, tenendo conto del fatto che lo scambio di due particelle identiche
lascia inalterato lo stato dinamico del sistema. Dalla de nizione dell'entropia
di Gibbs abbiamo:
R
S=
( HT + ln(A) dxdp = ET ln(A)
) ln(A) = T1 (E T S ) = FT
F = T ln(A)
1 = R e HT dxdp
A
R
) F = T ln e HT dxdp
dove l'integrale e fatto su tutti gli stati del sistema dinamicamente diversi (non
scambio di particelle). E abbiamo quindi la relazione tra funzione di partizione
ed energia libera. Questa relazione stabilisce l'importanza dell'energia libera nell'interpretazione della meccanica statistica: osserviamo che la condizione
di energia libera minima corrisponde alla distribuzione di Maxwell-Boltzmann.
Risulta quindi chiaro che l'energia libera e l'elemento il cui funzionale e minimizzato quando il sistema si trova all'equilibrio (in bilancio dettagliato).
8.4 Massimizzazione dell'entropia S
Consideriamo l'equazione di Fokker-Plank vista all'inizio del paragrafo precedente:
@
@ @H
@ @H
@
@2
=
+
+
p + m T 2 @t
@x @p
@p @x
@p
@p
p
dV
Sostituendo p_ = dx e x_ = m , otteniamo:
@
@t
2
@
@V @
@
@
= mp @x
+
+
p + m T 2 @x @p
@p
@p
Cerchiamo una distribuzione funzione dell'energia, cioe una che sia un integrale primo del sistema isolato:
@ @V @
@
( mp @x
+ @x @p )(E ) = [H; E ] @E
=0
70
CHAPTER 8. EQUAZIONI DIFFERENZIALI STOCASTICHE
Cerchiamo di determinare se una distribuzione di questo tipo puo essere o meno
soluzione per l'equazione di Fokker-Planck all'equilibrio. Si ha che per una
distribuzione di questo genere vale:
(H; (x; p)) = (
Un calcolo discreto porta a:
p2
2m + V (x))
= Ae
H
T
che corrisponde a un minimo per R ln() dxdp, cioe l'Entropia S e massimizzata,
con i vincoli:
R
E = H dxdp
R
dxdp = 1 (normalizzazione)
Il legame tra temperatura ed energia libera del sistema si esplicita attraverso la
funzione di partizione e quindi l'energia libera. Sia
A(
abbiamo immediatemente
dA
d
=
=
)=
Z
A(
Z
e H (x;p) dxdp
H (x; p)e H (x;p) dxdp =
Z
) A(1 ) H (x; p)e
H (x;p) dxdp
! dA
= A( ) E
d
pertanto il legame tra e E ( = T1 ) si esplicita nell'equazione
d
log[A(
d
)]
con E dato. Se consideriamo un sistema hamiltoniano
H (x; p) =
avremo in modo esplicito
A(
)=
Z
p2
2m + V (x)
p2
e ( 2m +V (x)) dxdp =
r
2m N Z
e V (x) dx
dove N e il numero di gradi di liberta. Si noti come A( ) ri etta l'andamento
del potenziale in quanto l'integrale avra i contributi maggiori in corrispondenza
dei minimi del potenziale V (x).
8.5. ESPRESSIONE GENERALE DELL'EQUAZIONE DI FOKKER-PLANCK
71
In ne possiamo dimostrare che la derivata
d2
log[A(
d 2
)] > 0
cos che possiamo sempre invertire la relazione tra ed E . Dal calcolo esplicito
d 1 dA
dA 2
1
1 d2 A =
=
+
d A( ) d
A( ) 2 d
A( ) d 2
= V ar(E ) > 0 per de nizione < H 2 > < H >2
Inoltre segue che dE
d < 0 ovvero l'energia e monotona crescente in funzione
della temperatura.
8.5 Espressione generale dell'equazione di FokkerPlanck
L'espressione piu generale per l'equazione di Fokker-Planck e la seguente:
2
@
@ D
= @x
a(x) (x; t) + 2 (x; t)
(8.3)
@x 2
In cui a(x) e il termine di drift e D il termine di di usione (si noti che anche la
temperatura T , inclusa in D, dipende dalla posizione x ).
La densita di corrente di probabilita e:
@
@t
J = a(x)
@ D
@x 2
e lo stato del sistema e de nito stazionario se @J
@x = 0, ovvero si annulla la divergenza della corrente.
Nel caso in cui la condizione di stazionarieta sia data dall'annullarsi di J , il
sistema e in equilibrio termodinamico, detto anche "bilancio dettagliato", cioe
la condizione in cui ogni sottosistema e in equilibrio con l'ambiente ed il sistema
stesso.
La linearita dell'equazione di Fokker-Planck consente un approccio formale
alla soluzione introducendo l'operatore:
L=
e ponendo:
D @2
@
a(x) +
@x
2 @x2
(x; t) = etL 0 (x)
Qualora esista una distribuzione stazionaria non "RUVIDA?" (ovvero non sia
= 0), si dimostra che l'operatore L ha tutti autovalori negativi, tranne un
autovalore = 1:
lim eLt 0(x) = 1(x)
t!1
72
CHAPTER 8. EQUAZIONI DIFFERENZIALI STOCASTICHE
qualunque 0 (x) condizione iniziale. L'inversione temporale dell'operatore etL
porterebbe quindi a soluzioni divergenti e pertanto non siche. L'utilizzo degli
operatori L puo essere utile nella costruzione di metodi numerici basati sullo
"splitting operatori".
Chapter 9
Integrazione stocastica
9.1 Processo di Wiener
Nella costruzione dell'equazione di Fokker-Planck a partire da una dinamica
discreta stocastica abbiamo operato il limite t ! 0 per una dinamica discreta.
Rimane aperta la questione di come dare un signi cato a tale limite nel caso di
una dinamica stocastica che scriviamo in generale come:
p
x(t + 4t) = x(t) + a(x)4t + b(x) (t) 4t
Se consideriamo la variabile:
w=
X
k
p
(tk )
4t
tk = k 4t
dove (t) sono variabili indipendenti a media nulla e varianza unitaria, utilizzando il teorema del limite centrale, il limite 4t ! 0 de nisce un processo stocastico
gaussiano che prende il nome di Processo di Wiener W (t) ed e caratterizzato
delle seguenti proprieta:
< W (t) >= 0
perche i fattori (tk ) hanno tutti media nulla
perche
< W 2 (wt ) >= t
W2 =
XX
(tk ) (th )4t = kh N 4t
Il processo di Wiener e il processo stocastico che descrive i moti Browniani,
in cui le traiettorie sono random e continue, con media nulla e varianza crescente col tempo; i moti di usivi come quello browniano hanno la parte spaziale
proporzionale alla radice del tempo.
73
74
CHAPTER 9. INTEGRAZIONE STOCASTICA
Altre importanti proprieta del processo di Wiener sono:
gli incrementi (Wt1 Wt0 ) e (Wt2 Wt1 ) con t0 < t1 < t2 sono indipendenti
< Wt ; Ws >= minft; sg
Wt+4t Wt = 0 con < 1 altrimenti e 1 cioe W non e di erenziabile
t
4t
2
9.2 Integrale Stocastico (di Ito)
Consideriamo dei processi stocastici f (t; w) quadrato-sommabili in media:
Z t2
t1
< f 2 (t; w) > dt < 1
E de niamo l'Integrale Stocastico di Ito come il processo stocastico de nito dal
limite:
Z t2
NX1
lim
f (tk ; w)(Wtk+1 Wtk )(w) =
f (t; w) dwt
4t!0
t1
k=0
quando tale limite esiste.
Assumiamo di aver dimostrato l'esistenza probabilistica (ovviamente non
puo esserci convergenza puntuale, ma solo probabilistica) di tale limite, con
l'ipotesi che, dati due processi x(w) e y(w) con traiettorie puntuali diverse, essi
sono da considerarsi identici se in media vale:
< (x(w) y(w))2 >= 0
Una importante proprieta dell'integrale di Ito e che ha media nulla:
<
Z t2
t1
f (t; w) dwt >= 0
perche < Wtk+1 Wtk >= 0
Se invece consideriamo la varianza, risulta:
Z t2
<(
f (t; w) dwt )2 >
XX
= <
f (tk ; w)f (th ; w)(Wtk+1
t1
X
= < f 2(tk ; w)(Wtk+1 Wtk )2 >
poiche il doppio prodotto e non nullo solo quando tk = th.
Sapendo che < (Wtk+1 Wtk )2 >= 4t , risulta:
Z t2
<(
t1
f (t; w) dwt )2 > =
Z t2
t1
f 2 (t; w) dt
Da cio risulta evidente che vale (formalmente):
0 t =6 s
< dWt dWs > =
dt t = s
Wtk )(Wth+1
Wth ) >
(9.1)
75
9.3. CAMBIO DI VARIABILE
e avremo quindi due famiglie di di erenziali:
I ) dx = f (t)dt
classico
II ) dx = f (t; w)dt + g(t; w)dwt stocastico
Dimostriamo ora la validita della seguente espressione: R0t Wt dwt = W2t2
X
Wtk (Wtk+1
Wtk )
=
=
=
=
=
t
2
X
(Wtk Wtk+1 Wt2k )
X
X
(Wt2k+1 Wt2k )
(Wt2k+1 Wtk Wtk )
X
Wt2
Wtk+1 (Wtk+1 Wtk )
X
Wt2
(Wtk+1 + Wtk Wtk )(Wtk+1 Wtk )
X
X
Wt2
Wtk (Wtk+1 Wtk )
(Wtk+1 Wtk )(Wtk+1
) 2 P Wtk (Wtk+1 Wtk ) = Wt2 P(Wtk+1 Wtk )2
Z t
X
W2 t
=
Wtk (Wtk+1 Wtk ) = t
Wtk dwt
) 4lim
t!0
2 2
0
9.3 Cambio di variabile
Associato all'integrale di Ito si introduce il concetto di di erenziale stocastico:
dx = f (t; w)dt + g(t; w)dwt .
Vediamo ora come possiamo operare un cambio di variabile da x a y(x):
y(x(t + 4t)) y(x(t))
=
+
=
+
=
@y
(x(t + 4t) x(t))
@x
1 @ 2 y (x(t + 4t) x(t))2 + O((x(t + 4t) x(t))3 )
2 @x2
@y
1 @ 2y (f (t)4t + g(t)4wt)2
(
f (t)4t + g(t)4wt ) +
@x
2 @x2
32
O(4t)
@y
1 @ 2y g2(t)42wt + O(4t) 23
(
f (t)4t + g(t)4wt ) +
@x
2 @x2
In cui abbiamo trascurato tutti i termine di ordine superiore a (4t) 32 . Osserviamo che e possibile sostituire 42 wt con 4t:
< (4wt2 4t)2 >=< 4wt4 > < 4t2 >= 34t2 4t2 = O(4t2 )
Percio si ottiene:
@y
1 @ 2y g2(t)4t + O(4t) 32
y(x(t + 4t)) y(x(t)) = (f (t)4t + g(t)4wt ) +
@x
2 @x2
cioe:
@y
@y
1 @y2 g2(t)dt
dy = f (t)dt + g(t)dwt +
@x
@x
2 @x2
Wtk )
76
CHAPTER 9. INTEGRAZIONE STOCASTICA
(Formula di Ito)
Notiamo che il cambio di variabile per un di erenziale stocastico contiene
un termine non covariante.
9.3.1 Esempio: frequenza con rumore
Consideriamo due processi x(t) e y(t) cos costruiti:
x(t) = cos(wt )
y(t) = sin(wt )
e proviamo a individuarne i di erenziali cos:
dx = sin(wt ) dwt
dx = cos(wt ) dwt
Notiamo che questa scelta non e corretta, in quanto risulta non conservato il
raggio I = x2 + y2:
dI = 2x( sin(wt ) dwt ) + 2y(cos(wt ) dwt ) + 2(sin2 (wt ) dwt2 ) + 2(cos2 (wt ) dwt2 ) = 2dt
La scelta corretta e la seguente:
1
dx = sin(wt ) dwt
2 cos(wt ) dt
dx = cos(wt ) dwt 21 sin(wt ) dt
9.3.2 Esempio: oscillatore stocastico
Consideriamo il seguente rotatore:
x_ (t) = wy
y_ (t) = wx
Introduciamo un rumore stocastico, ponendo che la frequenza sia perturbata da
un rumore stocastico, e cerchiamo di determinarne i di erenziali:
dx = wy dt "y dwt
dx = wx dt "x dwt
In sica e conveniente de nire la "derivata" dwdtt chiamandola "rumore bianco":
si tratta di una
distribuzione gaussiana con valor medio nullo e per la quale
vale < dwdttss ; dwdttkk >= (ts tk ). La sua trasformata di Fourier comprende tutte
le frequenze possibili per ogni ampiezza, con uno spettro di potenza piatto e
quindi potenza in nita.
Se consideriamo nuovamente I = x2 + y2 :
dI = 2x( wy dt "y dwt ) + 2y(wx dt + "x dwt ) + 2(x2 + y2 )dt = 2"2 I dt
vediamo che le equazioni stocastiche di erenziali nella forma considerata non
hanno l'azione I come integrale primo del moto. Dal punto di vista dei sistemi
hamiltoniani, un rotatore stocastico non genera un usso di fase stocastico con
77
9.3. CAMBIO DI VARIABILE
le proprieta di conservazione che caratterizzano i sistemi hamiltoniani stessi.
La spiegazione va cercata nel fatto che le equazioni stocastiche non sono oggetti
covarianti (ovvero le loro proprieta dipendono dalle variabili utilizzate). In modo
piu corretto consideriamo il usso di fase stocastico R(wt):
x(t) = cos(wt) sin(wt)
x0
y(t)
sin(wt) cos(wt)
y0
utilizzando le variabili:
x2 + y2
! I == arctan
x
y
si ottiene l'equazione:
! d = w dt + " dwt
Questa e l'equazione giusta con la correzione stocastica giusta per conservare il
carattere hamiltoniano. Possiamo mostrare che le equazioni considerate prima
sono errate provando a risolverle numericamente. Per evitare di perdere la possibilita di conservare l'energia, usiamo il metodo dello Splitting, cioe cambiamo
frequenza aggiungendo rumore ad ogni step 4t:
x(t + 42t )
y(t + 42t )
=
cos(w 42t ) sin(w 42t )
sin(w 42t ) cos(w 42t )
x(t)
y(t)
p
x0 (t + 42t ) = "y( 42t ) (t) 4t
p
y0 (t + 42t ) = "y( 42t ) (t) 4t
(t) variabile aleatoria a media nulla e varianza unitaria
x(t + 4t) = cos(w 42t ) sin(w 42t )
x(t + 42t )
y(t + 4t)
sin(w 42t ) cos(w 42t )
y(t + 42t )
Che comporta I_ 6= 0
(9.2)
78
CHAPTER 9. INTEGRAZIONE STOCASTICA
Chapter 10
Equazioni di erenziali
stocastiche
Una equazione di erenziale generica stocastica e una generalizzazione di un
di erenziale stocastico ed il suo signi cato e legato all'integrale di Ito:
dx = a(x) dx + b(x) dwt
R
R
x(t2 ) x(t1 ) = tt12 a(x(t)) dt + tt12 b(x(t)) dwt
Al ne di dare un'interpretazione dinamica delle equazioni di erenziali stocastiche introduciamo il usso di fase stocastico:
tt21 (x; w) = x(t2jx0)
che rappresenta la soluzione per una data condizione iniziale x0 e una ssata realizzazione del rumore di Wiener w(t) (la scelta di tale realizzazione corrisponde
alla scelta di un particolare evento w nello spazio di probabilita associato al processo di Wiener).
Il usso di fase stocastico ha le seguenti proprieta:
lim t+4t(x; w) = x 8x tt1 (x) e continua in e di erenziabile in x
4t!0 t
tt32 (w) tt21 (w) = tt31 (w)
La natura stazionaria del processo di Wiener esprime il fatto che la distribuzione
di probabilita associata al processo stesso e invariante per trasformazioni temporali. Posto:
t
P04xt0 (A) = P fxjt+4t x 2 A con x = 4
0 (x0 )g
vale che:
P04xt0 (A) = Pttx+04t (A)
In termini di usso stocastico possiamo scrivere:
tt+4t(x; W (w)) = 40 t(x; W (w0))
79
80
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
che signi ca che per ogni realizzazione del processo di Wiener che evolve da
t a t + 4t per una data condizione iniziale x esiste un'altra realizzazione del
processo di Wiener equivalente che evolve tra 0 e 4t. La corrispondenza
W t (w) = w0
conserva la misura di probabilita.
Fissando delle condizioni iniziali per l'equazione stocastica:
x(0) = x0
in cui x0 stessa puo essere una variabile aleatoria, cerchiamo un processo stocastico x tale che:
x(t) = x0 +
Z t
0
a(x(s)) ds +
Z t
0
b(x(s)) dws
La soluzione di questa equazione esiste solo se a(x) e b(x) sono misurabili e
uniformemente Lipschitz-continue.
10.1 Equazione di Backward
Il nostro obiettivo e legare le singole variazioni microscopiche del sistema alla
sua evoluzione media macroscopica, e per farlo consideriamo il caso piu semplice: un sistema in cui la variabilita di una singola particella rappresentativa
descrive la variabilita di tutto il sistema, che risulta cos soggetto alla proprieta
di "riduzione" (ipotesi alla base della meccanica stocastica del gas perfetto).
Il usso di fase associato alla variabile stocastica x(t) lungo una certa traiettoria w soddisfa:
40 t(x0; t) = x0 + a(x0)4t + b(x0 )4 + O(4t 23 )
Dato un qualsiasi osservabile f0(x), la sua evoluzione e de nita dalla seguente
espressione:
f (t0 x(t)) = f (x; t)
Studiamo quindi l'evoluzione di tale osservabile dal tempo t = 0 al tempo t + 4t
per la variabile x lungo la traiettoria w:
t
f (x; t + 4t; w) = f (t0+4t (x; w)) = f (t4+t4t (4
0 (x; w); w))
= f (t0(40 t(x; w); w0)) = f (40 t(x; w); t; w0)
= f (x + a(x) 4 t + b(x) 4 wt + O(4t 23 ; t; w0)
(x; t; w0)(a(x) 4 t + b(x) 4 wt)
= f (x; t; w0) + @f
@x
2
+ 21 @@xf2 (x; t; w0)b2(x)4t + O(4t 32 )
10.2. EQUAZIONE DI FORWARD
81
dove si e usato il fatto che vale l'equivalenza stocastica 4wt2 = 4t. Se consideriamo la media su tutte le realizzazioni del processo di Wiener (per una data
scelta di x), tenendo conto che la media su w0 e equivalente alla media su w
grazie alla stazionarieta del processo si ottiene:
1 @ 2f(x; t)b2 (x) + :::
@ f
f(x; t + 4t) = f(x; t) + a(x) 4 t +
@x
2 @x2
Da cui:
@ f 1 @ 2 f
f(x; t + 4t) f(x; t) @ f
(10.1)
=
=
a(x) +
lim
4t!0
4t
@t
@x 2 @x2
(Equazione di Backward o Prima equazione di Kolmogorov)
Se de niamo l'operatore di evoluzione L:
@ 1 @2
L = a(x) +
@x 2 @x2
la soluzione dell'equazione precedente si scrive
f (x; t) = etL f (x)
Questo operatore caratterizza i processi di Markov, cioe i processi nei quali la
conoscenza del futuro (t + 4t) dipende solo dal presente t e non dal passato.
Per questo motivo L non e invertibile:
f ( t; x) 6= e tL f (x)
(non e una soluzione sica).
10.2 Equazione di Forward
Ricaviamo l'equazione di Fokker-Plank associata alla dinamica data da una
equazione di erenziale stocastica. Data una distribuzione di condizioni iniziali
o (x) de niamo (y; t; w) l'evoluto della funzione di distribuzione per una ssata
realizzazione w:
(y; t) =< (y; t; w) >
y = t (x)
Il valor medio dell'osservabile f al tempo t deve soddisfare la seguente uguaglianza:
Z
Z
f = f (x; t)0 (x) dx = f (y)(x; t) dy
Assumendo che la distribuzione di probabilita sia sucientemente regolare, possiamo derivare:
Z
Z
@f
!
(x; t)jt=00(x) dx = f (y) @
(y; t)jt=0 dy
@t
@t
82
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
E ricordando che:
Z
@f
(x; t)jt=0 0 (x) dx =
@t
Z
Lf (x; 0)0 (x) dx
Nell'ipotesi che 0(x) si annulli al bordo dello spazio, risulta:
Z
f (x)L 0 (x) dx =
Z
f (x)
@
(x; t)jt=0 dx
@t
Poiche l'uguaglianza deve essere valida per qualsiasi osservabile f , otteniamo:
@ (x; 0) = L (x; 0)
@t
@
1 @2 2
! @
=
(10.2)
@t [ @x a(x) + 2 @x2 b (x)](x; t)
(Equazione di Forward di Kolmogorov, ovvero equazione di Fokker-Plank associata all'equazione di Backward)
Se introduciamo la densita di corrente
@ 2
b (x)
= a(x) + 21 @x
la soluzione stazionaria soddisfa la condizione di bilancio dettagliato e la corrente
di equilibrio e nulla. In tal caso possiamo calcolare la soluzione in modo esplicito:
Z
2 (a(x) @b2 ) dx + c
log =
b2 (x)
@x
Z
2
1
@b
2
1
log = 2 (b ) a(x)
2 @x dx + c
L'esistenza di un equilibrio di bilancio dettagliato implica delle condizioni di
conservativita in quanto
1
@b2
2
1
2(b ) a(x) 2 @x dx
deve essere un di erenziale esatto (quindi il suo rotore deve essere nullo).
10.3 Analisi spettrale per un rumore
Consideriamo il processo stocastico di Wiener: si tratta di una funzione gaussiana di una variabile aleatoria (t), che rappresenta il "segnale" cui associamo
il rumore. Possiamo scomporre tale segnale in serie di Fourier:
Z
(t) = ^(w)eiwt dw
dove ^(w) risulta una variabile aleatoria tale che
< j^(w)j2 >= spettro di potenza
< (t) (s) >= f (t; s) = funzione di correlazione
10.3. ANALISI SPETTRALE PER UN RUMORE
83
Consideriamo un rumore stazionario (t) per sui la funzione di correlazione si
scrive
< (t) (s) >= f (t s)
e supponiamo che f (t) ammetta la trasformata di Fourier
1 Z f ( )e iw d
f^(w) = p
2
allora e possibile rappresentare il segnale-rumore tramite la trasformata di una
misura spettrale
(t) =
Z
eiwt d (w)
dove (t) e una misura nello spazio delle frequenze (che potrebbe anche non ammettere funzione densita; ovvero la densita e una distribuzione) con la proprieta
(formale):
(w0) >= fp^(w) (w w0) dwdw0
< d (w)d
2
< (t) (s) >
=
=
Z Z
Z Z
! f (t s) = p1
(w0) >=
eiwt e iwt < d (w)d
eiw(t s)
p (w w0 )f^(w) dwdw0
2
Z
^ iw(t s) dw
2 f (w)e
d(w) nel senso delle distribuzioni e una variabile aleatoria che rappresenta la
dw
componente di Fourier w del segnale registrato (t). Tale approccio ca sotto
il nome di analisi spettrale del processo stocastico edfornisce informazioni sul
processo stesso. In particolare dal momento che j dw j2 rappresenta l'energia
trasportata dall'onda elementare eiwt, segue che la trasformata di Fourier della
funzione di correlazione da lo spettro di potenza f^(w) contenuto nel segnale.
Ad esempio nel caso di rumore bianco
< (t) (s) >= 2 (t s)
la trasformata di Fourier e una funzione costante p22 per cui lo spettro di
potenza e costante su tutte le frequenze. L'energia totale ottenuta integrando
sullo spettro di potenza risulta pertanto in nita. Un rumore bianco e pertanto
un'astrazione matematica: nessun segnale in natura puo essere un rumore bianco, ma puo solo darne un'approssimazione su una parte dello spettro.
Un secondo esempio e dato dal rumore di O rstein-Ulhembeck, per cui la
funzione di correlazione e
< (t) (s) >= e (t s)
t>s
84
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
La traformata di Fourier diventa
Z 1
Z 0
1
1
(
)
iwt
( ) iw =
p
2 0 e e d + p2 1 e
= p12 + iw + iw =
2
= p12 22+ w2
che corrisponde ad una potenza spettrale che decade come w12 .
10.4 Approssimazione overdamped: equazione
di Smoluchowski
Consideriamo un sistema hamiltoniano sotto l'azione di un bagno termico stocastico:
p2
2m + V (q)
H=
con equazioni stocastiche del moto:
dp = @V
@x dt
p dt +
dq = mp dt
p2T m dw
t
Utilizzando il fatto che 1 de nisce una scala temporale di rilassamento, possiamo studiare il limite ! 1 senza alterare la distribuzione spaziale di equilibrio. Dalla prima equazione si ottiene
dp
m
=m
@V dt
@x
p dt +
da cui perche dp=m rimanga nito nle limite
in parentesi si annulli: ovvero
p dt =
dwt
2T m p
=m ! infty occorre che il termine
@V dt p
+ 2T m dw
pt
@x
Sostituendo nella prima si ottiene
dq =
p
@V dt
@x m
p
+ 2T pdwmt
e introducendo dei 'tempi scalati' m = t arriviamo all'equazione ridotta
dq =
p
@V
d + 2T dw
@q
(10.3)
Tale equazione determina la cosidetta approssimazione di Smoluchowski e determina una grande sempli cazione rispetto al sistema hamiltoniano iniziale.
85
10.4. APPROSSIMAZIONE OVERDAMPED: EQUAZIONE DI SMOLUCHOWSKI
Associata all'equazione (10.3) possiamo scrivere l'equazione di Fokker-Planck
per la funzione di distribuzione (q; t):
@
@t
2
@
= @q@ @V
+ T 2
@q
@q
Nel caso unidimensionale
non e dicile calcolare la funzione di distribuzione
stazionaria ( @@t = 0) dall'equazione:
@V
@
s + T s
@q
@q
=0 !
s
/ e
V (q )
T
La soluzione generale tendera in modo esponenziale verso la soluzione stazionaria.
Notiamo che la soluzione stazionaria (/ e V T(q) ) corrisponde alla distribuzione
marginale della distribuzione stazionaria di Maxwell-Boltzmann per il sistema
hamiltoniano iniziale:
p2
H
e T = e ( 2m +V (q))=T
Infatti l'approssimazione di Smoluchowski corrisponde al congelamento della
dinamica nel momento p. Nel caso multidimensionale la condizione di equilibrio
e strettamente legata all'esistenza del potenziale V (q), ovvero data l'equazione
di Fokker-Planck:
@
@t
=
@
@2
a(q) + T 2 @q
@q
la condizione di equilibrio @q@ a(q) + T @q@22 = 0 si riduce alla condizione di
annullamento delle correnti spaziali:
a(q) + T
@
=0
@q
solo nel caso rot a(q) = 0 (altrimenti l'equazione precedente non sarebbe consistente). In tal caso esiste un potenziale se non ci sono singolarita nel dominio:
a(q) =
In termini di densita di correnti:
J = a(q)
@V
(q)
@q
T
@
@q
la condizione precedente implica che all'equilibrio le correnti siano nulle: condizione di bilancio dettagliato. Da un punto di vista sico il bilancio dettagliato
signi ca che ogni parte del sistema va all'equilibrio con le altre parti del sistema
stesso, ovvero se dividiamo il sistema all'equilibrio in due sottosistemi, avremo
ancora due sistemi all'equilibrio.
Notiamo che la corrente si compone di due termini: una corrente indotta @dal
campo a(q) ed una corrente indotta dal gradiente della distribuzione / ( @q ):
86
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
tale termine si puo associare ad una forza entropica (ovvero una forza dovuta alla non uniformita della distribuzione che corrisponde alla soluzione di
massima entropia). Possiamo associare un potenziale alla forza entropica con
@Vent
= T @ = T @ ln (10.4)
@q
@q
@q
che risulta associato alla de nizione di Entropia di Gibbs del sistema
Z
SGibbs =
(q; t) ln (q; t) dq
All'equilibrio di bilancio dettagliato le densita di corrente delle varie forze si
equilibrano. Possiamo ottenere una stima del rilassamento all'equilibrio 0(q).
In generale vale che:
da cui:
J
J
= a( q )
= T
@0
0 @q
T
T @
@q
1 @
@q
=
=0
T
@
ln( )
@q 0
Dove abbiamo utilizzato la condizione di equilibrio. Supponendo una piccola
deviazione dall'equilibrio:
(q; t) = 0 (q)(1 + (q; t))
possiamo linearizzare l'equazione di Fokker-Planck:
ancora:
@
0 (q)
@t
0
=
@
@t
@ J
J @
@2
(
)=
+
T 2 ln( )
@q @q
@q
0
2
= T @q@ ln( ) @
+ T @q@ 2 ln( )
@q
0
Utilizzando lo sviluppo ln( 0 ) = ln(1 + ) ' legge:
0
il primo ordine perturbativo si
@
@ @
@2
=
T 0 + 0 T 2
@t
@q @q
@q
ne posto che a(q) = T 1 @0 si ottiene:
0
In
0 @q
@
@t
2
@
= a(q) @q
+ T @@q2
Se approssimiamo il campo vettoriale a(q) = q (ovvero un campo attrattivo
lineare verso un punto di equilibrio nell'origine), abbiamo una solutione nella
forma
s
2
q2
(q; t) =
exp T=2(1 e 2t)
tT (et 1)
87
10.4. APPROSSIMAZIONE OVERDAMPED: EQUAZIONE DI SMOLUCHOWSKI
dove la condizione iniziale e una di Dirac. Il rilassamento verso l'equilibrio
dipende quindi dallo smorzamento dovuto al fattore
s
2
tT (et 1)
che descresce con una scala di tempo 1. In modo analogo possiamo valutare
la variazione della norma di 1 d Z 2(q; t)dq = Z a(q) @ dq + T Z @ 2 dq
2 dt
@q
@q2
Un'integrazione per parti(assumendo = 0 al bordo del dominio) porta
Z
@
1 Z @a (q)2dq
a(q) dq =
@q
2 @q
cos che
1 d Z 2 (q; t)dq = 1 Z @a (q)2 dq T Z @ 2 dq
(10.5)
2 dt
2 @q
@q
Se quindi supponiamo che la divergenza del campo a(q) sia positiva (questo e
vero nell'intorno di un minimo) avremo un rilassamento esponenziale di kk a
cui si sovrappone un termine dissipativo legato alla norma del gradiente.
La soluzione stazionaria e piu complessa nel caso non esista la funzione potenziale e l'equazione di Smoluchowski ha la forma:
@
@t
=
@
@2
a(q) + T 2 @q
@q
e la mancanza di potenziale implica rot a(q) 6= 0. In tal caso esiste comunque
una soluzione stazionaria caratterizzata da:
divJ = 0
(10.6)
@
J = a(q) T
@q
ma le correnti non sono nulle all'equilibrio. La condizione divJ = 0 signi ca che
il campo delle correnti non puo avere un usso netto attraverso una qualunque
super cie: dato un qualunque dominio D, sia @D la sua frontiera, otteniamo
dal teorema di Stokes:
Z
Z
J d = divJ dq = 0
@D
D
nello stato stazionario (tutte le linee di corrente sono chiuse). Da un punto di
vista sico signi ca che il sistema non e in equilibrio con le sue parti in quanto
vi sono correnti macroscopiche interne. Se costruiamo una linea di corrente
(q(t)): ovvero _ = J ( ) allora dalla de nizione (10.6) segue
Z
J2
dt =
Z
a(q)J (q)dt
88
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
in quanto
I
@ ln dq = 0
@q
e la relazione precedente si legge che il lavoro del campo entropico lungo una
linea chiusa di corrente all'equilibrio e pari al lavoro del campo esterno (ovvero
della sua parte rotazionale) all'equilibrio. Dato che il lavoro del campo entropico sempre positivo quato si interpreta come una continua dissipazione di lavoro
nello stato di equilibrio con conseguente aumento di entropia dell'ambiente esterno. Per precisare la relazione tra l'equazione di Smoluchowski e l'entropia di
Gibbs si consideri:
Z
S=
ln() dq
Calcolando la derivata temporale otteniamo:
@S
@t
=
Z
(1 + ln()) @
dq =
@t
Z
(1 + ln()) @q@ a(q) dq
Z
Il secondo termine e sempre positivo in quanto:
T
Z
2
(1 + ln()) @q@ 2 dq =
T
Z
T (1
2
+ ln()) @q@ 2 dq
@ @
dq < 0
@q @q
(sempre supponendo nulla la al bordo dello spazio delle con gurazioni). Il
primo termine si scrive come:
Z
@
a(q) dq =
@q
Z
@a
dq
@q
per cui equivale al valore di aspettazione della divergenza del campo a(q). Solo
la parte conservativa di a(q) contribuisce all'entropia: scomponendo
@V
@q
a(q) = arot (q)
con div atot(q) = 0 , abbiamo
dS
dt
=T
Z @ 2 dq
@q Z
(10.7)
@2V
dq
@q2
( @@q2V2 indica il laplaciano di V (q)). All'equilibrio dsdt = 0 deve accadere che
Z
@2V
dq >
@q2
0
altrimenti non esiste una soluzione stazionaria non banale. Tale termine si
riferisce all'entropia assorbita dall'ambiente esterno tramite il potenziale. In
alcuni casi il calcolo delle densita di corrente stazionarie e possibile. Inserendo
la scomposizione (10.7) nella de nzione delle correnti si ottiene
J = arot (q)
@V
@
T
@q
@q
89
10.4. APPROSSIMAZIONE OVERDAMPED: EQUAZIONE DI SMOLUCHOWSKI
Dividendo per e calcolando rotore si ottiene
rot J = rot(arot)
se tale equazione puo essere intergrata ponendo J= = arot che signi ca divJ= =
0 allora si puo calcolare anche la distribuzione di equilibrion nella forma
@ ln 1
@V
V
=
) / exp
@q
T @q
T
che da la distribuzione di Boltzmann legata alla parte conservativa del campo
a(q). Tale soluzione e possible se
divJ= = J @
=0
@q
ovvero nella situazione stazionaria il campo delle densita di corrente e ortogonale
al gradiente della distribuzione e quindi le correnti stanno sulle super ci =
cost: e diventa un integrale primo del moto del campo di corrente. Potremo
chiamara tale cosi come casi integrabili in analogia all'esistenza degli integrali
primi del moto per i sistemi Hamiltoniani.
10.4.1 Soluzione dell'equazione di Smoluchowski
L'equazione di Smoluchowski costituisce uno dei modelli piu usati per modellare
a livello mesocopico sistemi complessi. Discuteremo quindi alcuni metodi per la
soluzione di tale equazione nel caso si possa scrivere nella forma
@t (x; t) = @x B (x)Ux (x)(x; t) + T @x B (x)@x (x; t)
(10.8)
dove Ux e il gradiente di un potenziale U (x). Notiamo che abbiamo scelto di
rappresentare il termine di usivo tramite un operatore autoaggiunto @x B (x)@x
(B (x) e una matrice simmetrica de nita positiva). Possiamo calcolare facilmente
la soluzione stazionaria per l'equazione (10.8) dalla condizione
U (x)
T @x B (x) x (x) + @x (x) = 0
T
che caratterizza la distribuzione di Maxwell-Boltzmann 0 (x) = exp( U (x))
con = 1=T (in partica la matrice B (x) de nisce una disomogeneita nello spazio
che corrisponde ad una defomazione dell'operatore @x e non altera la condizione
di equilibrio locale). Possiamo infatti dimostrare che tale soluzione corrisponde
al minimo di energia libera: sia il dominio di de nizione con la condizione al
contorno che non ci sia usso di particelle attraverso la frontiera @
n(x) j (x; t) = 0
(10.9)
dove n(x) e la normale alla frontiera e la densita di corrente e data al solito da
j (x; t) = B (x)(Ux (x)(x) + T @x (x))
Tale condizione garantisce la conservazione della probabilita totale
Z
Z
Z
d
(x; t)dx = @x j (x; t)dx =
n(x) j (x; t)ds = 0
dt
@
90
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
per il teorema della divergenza. L'energia libera totale e de nita dal funzionale
F (t) = E
TS =
Z
U (x)(x; t)dx + T
Z
(x; t) ln (x; t)dx
(10.10)
dove il primo termine e l'energia interna ed il secondo termine da l'entropia di
Gibbs. Calcoliamo quindi
Z
dF
dt
= (U (x) + T + T ln (x; t)) @t(x; t)dx =
dF
dt
=
Integrando per parti segue
Z
Z
(U (x) + T + T ln (x; t)) @xj (x; t)
Z @x ((U (x) + T + T ln (x; t))j (x; t)) dx+
@ (x; t)
Ux (x) + T x
j (x; t)
(x; t)
e utilizzando il teorema della divergenza e le condizioni al contorno abbiamo
Z
@x ((U (x) + T + T ln (x; t))j (x; t)) dx =
Z
@
= (U (x)+T +T ln (x; t))j (x; t)n(x)ds = 0
In ne la variazione dell'Energia Libera si scrive
Z
j (x; t)B 1 (x)j (x; t)
dF
=
(10.11)
dt
(x; t)
che esplicita come l'Energia Libera diminuisca sempre durante la dinamica di
Smoluchowski (la matrice B 1 (x) pure de nita positiva) no alla soluzione di
equilibrio di Maxwell Boltzmann che corrisponde a j = 0. Dalla de nizione
(10.10) segue che anche la densita di Energia Libera si annulla all'equilibrio.
E interessante calcolare la densita di energia libera per una data distributione
(x) che si scrive nella forma
(x)
f (x) = T (x) ln
(10.12)
0 (x)
L'espressione precedente e de nita correttamente solo per (x) > 0 e diventa
singolare per (x) ! 0 a meno che il potenziale stesso U (x) non sia singolare.
Pertanto se U (x) e una funzione regolare in non puo accadere che (x; t) si
annulli durante dinamica di Smoluchowski.
Lo studio del rilassamento verso l'equilibrio si puo e ettuare tramite le proprieta degli autovalori dell'operatore lineare
L = @x B (x)Ux (x) + T @x B (x)@x = @x e U (x)=T B (x)@x eU (x)=T
(10.13)
de nito nello spazo delle funzioni f L2 -sommabili che soddisfano alla condizione
al contorno (10.9) (ovvero la densita di corrente associata non ha componente
lungo la normale alla super cie @ ). Operiamo la trasformazione
f 0 (x) = eU (x)=2T f (x)
cos che l'operatore L si trasforma
L0 = eU (x)=2T @x e U (x)=T B (x)@x eU (x)=2T
(10.14)
91
10.5. FORMALISMO TERMODINAMICO
che risulta autoaggiunto. Calcoliamo infatti
Z
Z
g0 L0 f 0 dx =
g0 e U=2T B@x eU=2T f 0 nds
=
@Z
@
gj (f; x) nds
Z
@
Z
@x eU=2T g0 @x eU=2T f 0 dx =
fj (g; x) nds +
Z
@x eU=2T g0 @x eU=2T f 0 dx
dove abbiamo usato la de nizione di densita di corrente associata ad una funzione f
j (f; x) = B (x)T e U (x)=T @x eU (x)=T f (x) = B (x)T eU (x)=T @x e U (x)=T f (x)
ne segue che tutti gli autovalori dell'operatore L0 (quindi anche di L) sono tutti
reali e le corrispondenti autofunzioni sono ortogonali. Inoltre L0 e un operatore
de nito negativo in quanto
Z Z
2
@x eU=2T f 0 dx 0
f 0 L0 f 0 dx =
La distribuzione 0(x) = exp( U (x=2T )) e evidentemente un autovettore corrispondente all'autovalore nullo ed in generale, salvo casi degeneri, non esistono
altri autovettori indipendenti nel kernel dell'operatore L0. Tutti gli altri autovalori n sono quindi strettamente negativi e data una qualunque distribuzione
0 (x) possiamo sempre espandere nella base degli autovettori un (x)
X
0 (x) =
cn un (x)
n0
L'evoluzione dell'equazione di Smoluchovski equivale a
@t 0 (x; t) = L0 0 (x; t)
che ha come soluzione
X
0 (x; t) =
en t cn un (x)
n 0
(10.16)
Supponendo gli autovalori ordinati in senso decrescente, 1 1 de nisce la scala
di tempo di rilassamento verso la soluzione di equilibrio. La formula (10.16)
esplicita l'azione del propagatore per l'equazione di Smoluchovski
exp(Lt)0 (x) = (x; t)
10.5 Formalismo termodinamico
Associamo un formalismo termodinamico all'equazione di Smoluchowski nella
forma generale
@J
@
@
=
J (x) = a(x)(x; t) T (x; t)
(10.17)
@t
@x
@x
dove J de nisce la densita di corrente. Consideriamo il caso dove esiste un
potenziale a(x) = @V=@x e de niamo l'energia interna come
Z
E (t) = V (x)(x; t)dx
(10.18)
=
Z
f 0 L0 g0 dx
(10.15)
92
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
Calcoliamo la variazione di energia interna con
dE
dt
Z
=
@J
V (x) dx =
@x
Z
@V
J (x; t)dx
@x
dove si e fatta un'integrazione per parti utilizzando le condizioni al contorno
di annullamento di e J al bordo o all'in nito. Utilizzando la de nizione di
Entropia di Gibbs
Z
S=
(x; t) ln (x; t)dx
otteniamo
Z
Z
dS
@J
J @
=
(1
+
ln
)dx =
dx
dt
@x
@x
da cui usando
@ 1
@V
= J + @x @x T
Z
Z
= J J dx + @V
Jdx
(10.19)
@x
che rappresenta il calore assorbito dal sistema per unita di tempo. Il primo
fattore si interpreta come produzione di Entropia interna Sint (sempre positivo),
mentre il secondo termine e la produzione di Entropia dovuta al campo esterno
(Sex ). De niamo il lavoro fatto sul sistema con
T
dS
dt
dW
dt
dS
= dE
T ex
(10.20)
dt
dt
Per de nizione nel caso esista il potenziale il lavoro fatto risulta nullo ed il
sistema raggiunge l'equilibrio massimizzando l'entropia interna. In condizioni
di equilibrio termondinamico la densita di corrente e nulla, quindi la produzione
di entropia interna si annulla. E interessante generalizzare i precedenti risultati
per un caso in cui non esiste il potenziale, ma il sistema rilassa comunque verso
una soluzione stazionaria s(x) dell'equazione (10.17), caratterizzata da
@Js
@x
=0
La de nizione di variazione di Entropia rimane inalterata
dS
T
dt
=T
dS
dt
Z
Z
J @
dx =
@x
Z
J J
dx
Z
(10.21)
J adx
e possiamo ancora interpretare il primo termine come produzione di Entropia
interna ed il secondo termine come la variazione di Entropia dovuta al lavoro del
campo esterno. In questo caso quando il sistema e rilassato allo stato stazionario
la variazione totale di entropia e nulla
=
@
Js ln s dx =
@x
Z
@Js
ln s dx = 0
@x
ma il lavoro dissipato dalla produzione interna di Entropia
dSint
dt
=
Z
Js Js
dx
s
(10.22)
93
10.5. FORMALISMO TERMODINAMICO
e positivo, dal momento che la corrente allo stato stazionario
Js = a(x)s T
@s
@x
non puo essere nulla per un campo a(x) non irrotazionale
rot Js = rota(x) 6= 0;
s
Introduciamo un potenziale ecace mediante
Vs (x) = T ln s (x)
(10.23)
ed un'energia interna
Z
E = Vs (x)(x; t)dx
In analogia a quanto fatto sopra possiamo calcolare la variazione del lavoro fatto
dal sistema
dW
dt
= T dSdtint + fracdEdt =
Z
J J
dx
Allo stato stazionario deve valere
Z
Js Js
dx =
s
Z
Z a+
a Js dx
@Vs
@x
Jdx
(10.24)
(10.25)
dove il termine a destra corrisponde al lavoro dissipato tramite la produzione
di Entropia mentre il termine a sinistra al lavoro del campo esterno. La produzione di Entropia interna eguaglia l'Entropia introdotta dall'ambiente allo
stato stazionario. Pertanto lo stato stazionario non e uno stato di equilibrio e si parla di NESS (Non Equilibrium Stationary State). Dalla condizione
di stazionarieta divJ = 0, possiamo caratterizzare gli stati di NESS in forma
integrale come
Z
Js d = 0
@V
ovvero il usso attraverso una super cie chiusa (bordo di un volume V ) delle
correnti e nullo. Fuori dalle condizioni di equilibrio de niamo pertanto il lavoro
fatto dalle correnti
Z @Vs
W=
a(x) +
Jdx
(10.26)
@x
dovuto alla somma del lavoro del campo esterno e del campo di gradiente associato all'energia della distribuzione stazionaria. In condizioni stazionarie
e quindi dove
Js
s
s
= a(x) + @V
@x
a(x) =
@Vs
@x
94
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
anche le correnti sono nulle. Studiare le proprieta degli stati NESS e un campo
di ricerca tutt'ora aperto. Facciamo alcune considerazioni utillizzando un caso
lineare (con autovalori a parte rela negativa)
a(x) = Ax
In tal caso e noto a priori che la soluzione stazionaria ha la forma di una Gaussiana
(
x; 1 x)
(10.27)
s (x) / exp
4T
dove e una matrice di covarianza de nita da
=
1
Z
0
exp(As) exp(AT s)ds
Possiamo quindi interpetare la distribuzione (10.27) come una distribuzione di
Maxwell-Boltzmann con V (x) = (x; 1 x)=4. Nota: in generale A e la sua
trasposta AT non commutano. Osserviamo che nel caso lineare la dipendenza
della temperatura diventa un fattore di scala spaziale. La corrente stazionaria
e quindi de nita
1 Js (x) = Ax + 1 x s (x)
2
che dopo alcuni passaggi si puo anche scrivere nella forma
1 Z 1 exp(As) (A AT ) exp(AT s)xds
(10.28)
Js (x) = s (x)
2 0
2
La condizione di stazionarieta sulla implica
@Js
(x; 1 Ax) + Tr 1 (x; 2 x) = 0
=
Tr
A
@x
2T
2
4T
da cui si ottiene
1
TrA + Tr2 = 0
(10.29)
e l'equazione
2(x; 1Ax) + (x; 2x) = 0 , 2( 1x; Ax) + ( 1x; 1x) = 0
Nel caso lineare valgono quindi le seguenti proprieta:
la corrente stazionaria Js si annulla sull'origine (punto critico del campo
di forze);
la corrente stazionaria Js risulta sempre ortogonale al gradiente della funzione di distribuzione stazionaria @s =@x / 1x:
1
1
1
1
1
Js x = (Ax; x) + ( x; x) s (x) = 0
2
utilizzando le proprieta di Js .
95
10.5. FORMALISMO TERMODINAMICO
la divergenza del campo vettoriale Js (x)=s (x) e nulla: un cacolo diretto
porge
s
= J2s @
=0
@x
s
per il punto precedente. Da questo segue anche che
1Z 1
@ Js
(A AT ) exp(AT s)ds = 0
exp(
As)
=
Tr
@x s
2 0
2
(si puo avere anche una dimostrazione diretta in quanto Js e il prodotto
si una matrice simmetrica per una antisimmetrica). Abbiamo quindi il
risultato che sia Js che Js =s hanno divergenza nulla: da un punto di
vista dinamico tale fatto implica che s e quindi (x; 1x)=2 e un integrale
primo del moto per il campo vettoriale
Z
(A AT ) exp(AT s)xds
Js 1 1
exp(
As)
=
(10.30)
s
2 0
2
@ Js
@x s
la scomposizione del campo iniziale Ax secondo
1 1x + Ax
^ = @V + Ax
^
2
@x
de nisce un campo vettoriale a divergenza nulla (cfr. eq. (10.29)): notiamo che pero A^ non coincide con la parte antisimmetrica di A anche se A^
si annulla se la parte antisimmetrica di A e nulla (A^ risulta antisimmetrica). Dalla formula (10.30) segue infatti
Z 1
^Ax = 1 exp(As) (A AT ) exp(AT s)xds
2 0
2
Ax =
^ e direttamente collegato all'energia necessaria
Il campo irrotazionale Ax
per mantenere lo stato di NESS (in relazione con la produzione di Entropia
interna), si calcola in modo esplicito
Z
Js Js
dx =
s
Z
^ Ax
^ )s(x)dx
(Ax;
Tale espressione mette in luce come non vi e una relazione univoca tra la
forma della distribuzione stazionaria NESS e le correnti determinate dalla
parte rotazionale del campo esterno.
Il lavoro scambiato per unita di tempo risulta risulta estremale per lo stato
di NESS (ricordiamo che tale lavoro risulta nullo allo stato stazionario)
dW
dt
=
Z
J J
dx
Consideriamo la variazione
s (x) !
Z
^ Jdx
Ax
s (x)(1 + (x))
(10.31)
96
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
e calcoliamo la variazione della corrente dalla de nizione
@ @
J = Axs T s = Js T s
@x
@x
Valutiamo quindi la variazione della produzione di entropia del sistema
Z
Z Z
J J
@ ^
^ Js(x)(x)dx
dx = 2T
; Ax s (x)dx + Ax
@x
^ s(x)
Il primo termine si annulla integrando per parti, in quanto Js (x) = Ax
e la divergenza della densita di corrente e nulla allo stato stazionario.
Analogamente la variazione del secondo termine si calcola
Z
Z
Z
Z
^ Jsdx
^ Jdx = Ax
^ Jdx = Ax
^ Js T s @ dx = Ax
Ax
@x
dove il secondo termini non contribuisce in quanto integrando per parti
vale che
Z
Z
@Js
@
^
dx =
dx = 0
s Ax @x
@x
Quindi sommando i due termini otteniamo che il lavoro dW=dt e estremale
rispetto alle variazioni di s . Dal punto di vista della produzione interna
di Entropia, possiamo dire che la produzione di Entropia e stazionaria
per variazioni della distribuzione che non varino il lavoro della correnti
dovuto alla componente del campo esterno lungo la direzione delle correnti stazionarie. In e etti dal momento che le correnti sono ortogonali
al gradiente di s una modi ca delle correnti in tale direzione non corrisponde ad una modi ca di s anche se cambia la produzione di entropia:
se s e uno stato estremale di un principio variazionale, quest'ultimo deve
essere inidpendente dalle correnti lungo la direzione normale al gradiente.
Notiamo in ne la produzione di Entropia (10.22) e un funzionale de nito
positivo con un minimo quando le correnti si annullano; possiamo quindi
aspettarci che lo stato NESS corrisponda ad un minimo di produzione di
entropia: all'equilibrio il sistema minimizza la quantita di lavoro assorbita
dall'ambiente.
Le proprieta del caso lineare si possono generalizzare solo quando un campo
vettoriale generico sia scomponibile secondo lo schema
@V
@x
+ arot(x)
(10.32)
dove V (x) e associato alla soluzione stazionaria secondo la de nizione
V (x)
s (x) = exp
(10.33)
T
a(x) =
e arot(x) risulta un campo a divergenza nulla. Tale decomposizione non e possibile in generale e quindi la determinazione dello stato stazionario risulta complessa. Nel caso considerato la condizione di stazionarieta diventa
@J
@x
@V
@
= s(x) @x
a(x) +
@x
s @V
a(x) + @V
@V
T @x
@x @x
s
= arot(x) @
=0
@x
97
10.5. FORMALISMO TERMODINAMICO
e dunque arot(x) risulta ortogonale al gradiente di s(x). Segue che
Js
s
T @s
s @x
= a(x)
= arot(x)
e quindi ha divergenza nulla. Notiamo che la condizione (10.32) puo essere utilizztata per calcolare la soluzione stazionaria: dato un campo vettoriale che puo
essere decomposto nella forma (10.32) dove V (x) tiene conto della divergenza di
a(x) mentre arot (x) descrive la parte rotazionale, se arot (x) risulta ortogonale
al gradiente di V (x) allora
V (x)
s (x) / exp
T
Infatti vale ancora Js (x) = arot(x)s (x) e dal calcolo diretto segue
s
= arot @
= aTrot @V
(x) = 0
@x
@x s
Questo fatto ci consente di introdurre una classe di equivalenza per i campi
vettoriali associati ad una stessa distribuzione stazionaria. Se ad un campo
vettoriale a(x) che genera una distribuzione stazionaria s (x) sommo un campo
arot (x) a divergenza nulla che sia ortogonale al gradiente di s (x), allora anche
il campo a(x) + arot(x) genera la stessa distribuzione di equilibrio. L'e etto
dell'introduzione del campo cambia le correnti tramite il termine arot(x)s (x)
e di conseguenza la produzione interna di Entropia. Questa osservazione fa
capire come il problema di de nire un principio variazionale per l'interpretazione
degli stati NESS sia dicile da trovare in una situazione generale. Tuttavia se
de niamo il lavoro fatto sul sistema per unita di tempo in analogia a (10.20)
@Js
@x
dW
dt
=
Z @V
a+ s
@x
Jdx
Si dimostra che la produzione di entropia interna risulta stazionaria (minima in
e etti) per variazione della distribuzione stazionaria s(x) ! s(x)(1 + (x))
che non modi chino il lavoro scambiato con l'ambiente. Valgono infatti le relazioni
Z
Z
J J
Js Js
dx =
dx
s
e analogamente
Z
Z @Vs
Jdx = Js Js dx
a+
@x
s
(nota: per de nizione Vs = e ricordiamo che a + @Vs=@x = Js=s ) nel caso
sia soddisfatta la condizione (10.21). In altre parole la condizione stazionaria e caratterizzata dal fatto che il sistema non puo diminuire la produzione
di entropia variando la distribuzione senza modi care il lavoro scambiato con
l'ambiente.
Il caso lineare puo essere utilizzato per uno studio locale della soluzione
stazionaria per l'equazione di F.P. (10.17) vicino ai punti critici del campo. Dal
momento che la condizione di stazionarieta div Js = 0 e una condizione locale
rimane vero che i punti critici della funzione s(x) sono i punti critici del campo
98
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
vettoriale a(x) e che le correnti sono nulle in corrispodenza dei punti critici.
Inoltre nell'intorno dei punti critici stessi le linee di corrente risultano tangenti
alle super ci s(x) = cost:. Tale condizione implica anche la proprieta: se
consideriamo l'integrale di cammino lungo una curva AB tra i punti xa e xb
del campo esterno a(x) (lavoro del campo)
Z
Z
J
@ ln s
WAB =
a(x) d =
T
d =
=
Z AB
AB
AB
J
d
s
s
@x
T (ln s (xb )
ln s(xa ))
(10.34)
Abbiamo due casi estremi: se prendiamo un percorso AB ortogonale alle linee
di corrente o per cui la corrente si annulla, la relazione sopra si riduce a
Z
AB
a(x) d J
= T (ln s(xb) ln s (xa )) = V (xb)
V (xa )
Se invece consideriamo un ciclo chiuso allora
I
I
Js
a(x) d =
d
s
Introducendo il campo vettoriale (anche in condizioni non stazionarie)
u(x; t) = J (x; t)=(x; t) = a(x) +
@V
(x; t)
@x
V (x; t) = T ln (x; t)
la relazione precedente equivale all'equazione
rot(a(x)) = rot(us(x))
(10.35)
in condizioni stazionarie che deve essere accoppiata con la condizione
s
divus = us @V
= us (us a)
(10.36)
@x
Le equazioni (10.35) e (10.36) de niscono la condizione di stazionarieta; notiamo
ancora che in generale divus 6= 0 a meno che le correnti non siano sulle super ci
di livello di s(x). Tale sistema equivale all'equazione per il potenziale Vs (x)
@ 2 Vs
@x2
=
@Vs
@x
@Vs
@x
+ a(x)
@a
@x
(10.37)
Possiamo dare un'interpretazione del ruolo delle correnti de nendo il lavoro
(costo) per un percorso dato tra A e B come
WAB =
Z
AB
(a
u) d
anche in situazioni non stazionarie. Dalla relazione (10.34) segue allora che
le correnti stazionarie e la distribuzione associata sono quelle per cui il lavoro
WAB e lo stesso su tutti i percorsi e pari a VA VB . Tale condizione risulta
necessaria ma non suciente per la stazionariata. Bisogna che il campo di
correnti rhos(x)us (x) abbia divergenza nulla. Notiamo in ne come il costo di
un percorso dovuto alle correnti sia proporzionale a J= per unita di lunghezza.
99
10.6. FORMULA DI JARZINSKI
10.6 Formula di Jarzinski
Consideriamo un sistema Hamiltoniano in un bagno termico, per cui l'evoluzione
e data dall'equazione di Fokker-Planck
@
@t
=
@H @ @H @
@
@2
+
+
p + T 2
@p @q @q @p
@p
@p
= LH dove LH e l'operatore di evoluzione di Fokker-Planck e
H (p; q) =
p2
2 + V (q)
(abbiamo posto m = 1). La dinamica e la sovrapposizione di un'evoluzione
deterministica Hamiltoniana e un'evoluzione stocastica che simula il bagno termico. La soluzione di equilibrio s(x) e la distribuzione di Maxwell-Boltzmann
e l'Energia Libera e de nita da l'energia libera:
F
=E
TS =
Z
Hs (x)dx + T
Z
dove A e la funzione di partizione
A=
Z
exp
s (x) ln s (x) = T ln A
H (x)
dx
T
dove l'integrale e esteso a tutti gli stati microscopici diversi dello spazio delle
fasi del sistema. In una trasformazione isoterma quasi statica l'Energia Libera
permette di calcolare il lavoro W fatto sul sistema secondo il di erenziale:
dF = P dV S dT
per cui per un'isoterma quasi statica tra sue stati A e B vale (in questo caso W
e il lavoro fatto sul sistema):
FB
FA =
Z B
A
P dV
=W
Nel caso di una trasformazione irreversibile per cui S Q=T avremo che
W
> FB FA
Tale disuguaglianza vale anche se facciamo la media su una distribuzione di
trasformazioni tra gli stati A e B :
> 4F
W
e la di erenza W 4F e il lavoro mediamente dissipato in media dalle trasformazioni (II Principio della Termodinamica). La realizzazione di una trasformazione corrisponde alla modi ca del potenziale V (q; ) in funzione di un parametro
(t). Il paradigma del Landscape Potential introdotto per descrivere il comportamento di molti esempi di sistema complesso (specialmente il biologia: ex. il
problema del protein folding) e basata sull'esistenza di una funzione energia
libera per il sistema. Una misura sperimentale di 4F diventa quindi molto
100
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
importante al ne di un'interpretazione meccanica statistica di alcuni fenomeni.
Se si fosse in grado di operare trasformazioni reversibili in condizione isoterme
vale W = 4F , indipendente dalla trasformazione. Supponendo di dimostrare
un teorema adiabatico possiamo approssimare
H (x;)
con _ = 1
(10.38)
a (x; ) = A 1 ()e T
Notiamo che per essere ecace tale deve valere per un tempo t ' 1 altrimenti
una trasformazione tra A e B porterebbe comunque ad una distribuzione che
di erisce di una quantita O(1) rispetto alla stima (10.38). Cerchiamo allora di
stimare l'errore cercando una soluzione nella forma
(x; t) = a (x; ) + ^(x; t)
Una sostituzione diretta nell'equazione di Fokker-Planck porge
@ ^
LH ^ = T A 1 @A + @H e H(Tx;)
con
@t
AT
@
@
Z
1
@H
H (x; )
A @H
= T @ exp T dx = T @
Pertanto la precedente equazione si scrive nella forma
@H
@H
@ ^
LH ^ =
a (x; )
@A
@
@t
@
@
(10.39)
Ricordando che l'operatore LH ha un solo autovettore ad autovalore nullo (dato
dalla distribuzione stazionaria) mentre tutti gli altri autovettori sono negativi,
il fatto che il valor medio del r.h.s. dell'equazione (10.39) sia nullo implica che ^
ha proiezione nulla su a (x; ) (in questo caso diventa un parametro in quanto
la sua variazione contribuisce all'ordine successivo). Utilizzando la teoria delle
funzioni lineari is scrive
Z
@H
@H
^(x; t) = exp(LH (t s))
a (x; )ds
@
@
e l'integrale a sinistra rimane limitato anche per tempi lunghi. Allora possiamo
valutare la variazione di Energia Libera nel caso adiabatico, dalla relazione
Z
H (x; )
F () = T ln exp
dx
otteniamo
T
Z
= H (x; B ) T H (x; A) dx
qualunque sia la relazione (t) (purche quasi statica). Consideriamo il caso limite opposto: la trasformazione e cos veloce che il sistema si puo considerare isolato (ovvero l'evoluzione avviene piu velocemente di 1 tempo di rilassamento
del bagno termico). In tal caso la variazione di energia H (x; ) da direttamente
il lavoro fatto sul sistema purche calcolata lungo la speci ca soluzione t(x0; )
a partire dalla condizione iniziale x0 distribuita secondo
H (x0 ; A )
0 (x0 ) = A 1 (A ) exp
e
TF
T
101
10.6. FORMULA DI JARZINSKI
Ricordioamo che il usso t(x0; ) = x(t) e di tipo simplettico (ovvero conservativa) e calcoliamo il seguente valore di aspettazione ( = 1=T ):
Z
< e W >= dx (x; t)e W (x)
dove W (x) = H (x; B ) H ( t;(x); A ) e il lavoro fatto durante l'evoluzione
t(x0 ; ) Vale inoltre (x; t) = 0 ( t(x; )), dato che il sistema evolve in modo
hamiltoniano ( t indica la trasformazione inversa). Sostituendo y = t(x; )
si ottiene:
Z
t
<e W > =
dy 0 (y)e (H ( (y;);B ) H (y;A ))
dove 0(y) = A 1(A )e H (y;A )
in quanto il sistema evolve a partire da uno stato di equilibrio. Quindi
Z
t
A(B )
< e W >= A 1 (A ) dy e H ( (y;));B =
A(A )
e nelle precedenti ipotesi riotteniamo:
4F = T ln < e W >
anche
nel caso di trasformazioni non reversibili, dal momento che < e W >=
A(B ) dipende solo dal punto di inizio e dal punto di ne e non dal percorso.
A(A )
L'idea di Jarzinski e di poter far valere tale risultato per una generica trasformazione (non solo per i casi limite); tuttavia la dimostrazione matematica di
questo fatto non e banale e non vi e in generale. Procederemo con considerazioni
siche: studiamo l'evoluzione di un sistema insieme al suo ambiente (in modo
che il sistema unione sia isolato), cos che l'Hamiltoniano completo si scrive:
H (x; X ) = H (x; ) + H (X ) + Hint (x; X )
dove Hint(x; X ) descrive l'interazione tra sistema ed ambiente (lo stato dell'ambiente e descritto dalle variabili X ) in modo Hamiltoniano. Ricordiamo
l'ipotesi che si assumein Meccanica Statistica.:
jjHint jj << jjH jj << jjH jj
Per il sistema completo (che evolve in modo Hamiltoniano) possiamo applicare
il ragionamento precedente:
Z (B )
< e W >=
Z ( )
A
con W lavoro fatto su tutto (sistema + ambiente) e Z () funzione di partizione
sistema + ambiente. Trascurando l'energia di interazione Hint possiamo approssimare:
Z () = A()A
dove A e la funzione di partizione per l'Hamiltoniano H (X ) che non dipende da
. Pertanto:
Z (B ) A(B )
=
Z ( ) A( )
A
A
102
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
Inoltre se supponiamo che alla ne della trasformazione l'ambiente ritorni allo
stesso equilibrion iniziale (ovvero non vi e stato scambio netto di energia tra
ambiente e sistema) allora il lavoro W continua a rappresentare il lavoro fatto
si riferisce al lavoro fatto sul sistema. Ne segue la formula di Jarzinski generale:
A(B )
< e W >=
= e 4F
(10.40)
A(A )
valida per trasformazioni anche irreversibili per un sistema in equilibrio termico.
Tale formula e ovviamente falsa da un punto di vista matematico, poiche:
Il carattere Hamiltoniano del sistema-ambiente e in contraddizione (in
linea di principio) con il rilassamento verso l'equilibrio termodinamico, a
meno di non dimostrare la congettura di Boltzmann che la situazione di
equilibrio termodinamico sia quella che corrisponde ad un numero di congurazioni microscopiche di gran lunga superiori a quello degli altri stati
e quindi un sistema Hamiltoniano ergodico si trovi vicino a una con gurazione di quilibrio con probabilita vicina ad 1.
Assumere che nella trasformazione lo scambio di energia tra sistema ed
l'ambiente sia trascurabile equivale ad assumere che la trasformazione
avvenga disaccoppiando l'ambiente ed il sistema (e quindi fattorizzando
di fatto l'Hamiltoniano); la presenza di Hint(x; X ) e pero essenziale per
mantenere il bagno termico e quindi il suoe e etto in realta non puo essere
trascurato.
A prescindere da queste critiche, la formula di Jarzinski ha un ruolo importante nello studio dei sistemi in non equilibrio attraverso un approccio termodinamico in quanto consente di stimare la variazione di energia libera tra due
con gurazioni con:
4F = T log < e WT
dove W e il lavoro fatto sul sistema in questione in una trasformazione anche non
reversibile. La media signi ca che tale trasformazione deve essere ripetuta no
ad ottenere un campione statistico signi cativo della distribuzione e del lavoro
W (visto come variabile dinamica). La necessita di utilizzare un ensemble di
traiettorie apre un ulteriore problema per la signi cativita del campione: quanti
esperimenti occorrono per avere una stima accettabile per la media? Notiamo
innanzitutto come conseguenza della disuguaglianza di Jensen per funzioni convesse (x):
Z
f d
Z
6 f d
con una qualunque misura. Allora:
<e
e quindi:
<e
!
W
T
4F
>> e
<W>
T
<W>
>> e T
4F 6 < W >
T
103
10.6. FORMULA DI JARZINSKI
che esprime appunto il secondo principio della termodinamica. L'uguaglianza
di Jarzinski contiene infatti il secondo principio, pero grazie alle sue assunzioni
circa i sistemi Hamiltoniani e il bagno termico.
In ne se ricordiamo che l'espansione in serie di Taylor del logaritmo:
X ( 1)k < xk >
=
log < e x > = log
k!
k >0
X ( 1)k < xk >
X ( 1)k < xk > 2
1
+ :::
=
+2
k!
k!
k>1
k>1
corrisponde allo sviluppo dei cumulanti per i momenti della variabile aleatoria
x e che nell'ipotesi che x sia gaussiana a media nulla < x >= 0:
2
<x >
< ex >= e 2
tale sviluppo si riduce a:
< x2 >
log < e x >=
2
Nel caso dell'energia libera abbiamo:
T
W
2 V ar( T )+ < W >=
= < W > 21T (< W 2 < W 2 >)
se W si suppone essere una variabile gaussiana. Da questa si deduce che il lavoro
dissipato (ovvero che contribuisce all'energia libera) si stima con:
1
Wdiss = V ar(W ) (relazione di uttuazione-dissipazione)
2T
E' intuitivo che maggiore e la uttuazione di W, maggiore e il carattere irreversibile della classe di trasformazioni considerata. Maggiore sara quindi la
necessita di fare un campione numeroso. Nonostante le critiche la relazione di
Jarzinski sta diventando un importante strumento nell'ambito della sica dei
sistemi complessi in rapporto alla teoria-modelli da una parte ed esperimenti
dall'altra.
4F =
104
CHAPTER 10. EQUAZIONI DIFFERENZIALI STOCASTICHE
10.7 Kramer Rate Theory
Consideriamo la dinamica descritta dall'equazione di Smoluchowski:
p
dx = U 0 (x)dt + 2T dwt
per un potenziale a doppia buca con xA e xC minimi separati da un punto
di sella xB :
Per il calcolo della probabilita di transizione dalla buca A alla buca C consideriamo la soluzione stazionaria dell'equazione di Fokker-Planck:
2
@
@t
@ 0
@
= @x
U (x) + T 2 @x
con la condizione al contorno di avere una sorgente nel punto x a sinistra di
A e una barriera assorbente nel punto x+ a destra di C.
nell'ipotesi di avere una temperatura piccola (T << UB UA ) cerchiamo una
soluzione che si riduca alla soluzione:
e
U
T
nelle vicinanze del punto xA, che descrive una corrente J positiva (da A a
C ) e che si annulli in corrispondenza della barriera assorbente. Cerchiamo la
soluzione nella forma:
U
(x) = C (x)e T
@ T :
imponendo per la corrente J = U 0(x) + @x
U
U
U
U 0 (x)C (x)e T + C 0 (x)T e T U 0 (x)C (x)e T = J
da cui:
J UT
e
C 0 (x) =
T
si integra tenendo conto che C (x+) = 0:
C (x) =
Abbiamo quindi:
Z
J x+ UT(y)
e dy
T x
Z
J U (x) x+ UT(y)
(x) = e T
e dy
T
x
Consideriamo il comportamento per x ' xA . L'integrale:
Z x+
U (y)
e T
xA
dy
105
10.7. KRAMER RATE THEORY
e circa costante nell'intorno
di xA in quanto U 0(xA ) = 0 ed il comportamento
U (y)
dipende quindi da e T .
Calcoliamo le particella della buca A:
Z
Z xB
J UT(x) x+ UT(y)
e dy dx
nA =
e
x
1T
integriamo per parti:
Z
Z
Z
Z x+
U (z)
U (y)
U (x)
J xB UT(y) y
J x
e
e T dz
e T dx dy +
e T dyjxB1 =
T
T
1
J
T
1
Z xB
Z
U (y) y
e T
U (x)
T
1
J
dx dy +
T
Z xB
x
U (z)
T
=
e
e
dz
1
1
1
Scambiamo gli indici di integrazione del primo termine:
Z xB
ottenendo in ne:
1
nA =
J
T
dx e
Z xB
1
U (x)
T
Z xB
U (y)
e T
x
U (x)
dx e T
Z x+
U (y)
e T
xB
dy
dy
Z x+
U (y)
e T
x
dy
Possiamo approssimare sviluppando gli integrali nel punto di massimo:
U (y)
T
U (x)
T
e
e
' e( UT(y)
U
' e( TA
2
!B
2T (y xB )2 )
2
!A
2T (x x> )2 )
Valutiamo in ne:
Z
Z
!2
2 x+ !2TB2 (y xB )2
nA 1 UB T UA xB
=
e
dx e 2TA (x xA )
e
dy
J
T
1
x
Entrambi gli integrali si possono estendere da 1 a +1:
p
Z +1
!2
2
2T nA = 2 e UB T UA
dx e 2A (x xA ) =
!A J
!A !B
1
La probabilita di transizione si calcola:
U
J
kA!C =
' !A2!B e T A
nA
con UA profondita della buca A.
Nel caso generale si considera l'equazione di Fokker-Planck:
@
@
@
@2
=
[
v + (U 0 (x) + v) + T 2 @t
@x
@v
@v
sempre nell'ipotesi che le altezze delle barriere di potenziale siano >> T .
Otteniamo i punti critici
secondo Ast ! Binst ! Cst come sopra. Allora
stimiamo kA!C = nJA nell'ipotesi che in x < xA ci sia una sorgente ed in
x+ > xB ci sia una barriera assorbente.
Dalle ipotesi fatte in situazione stazionaria e possibile supporre che nell'intorno
del punto xA la distribuzione stazionaria sia approssimabile con la soluzione
dell'equazione di Fokker-Planck.