FISICA QUANTISTICA

Download Report

Transcript FISICA QUANTISTICA

Stefano Forte e Luca Rottoli
FISICA QUANTISTICA
Versione aggiornata al 2 dicembre 2016
2
Indice
I
Le basi della fisica quantistica
9
1 Introduzione
1.1 Fisica classica e fisica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 L’esperimento di Zeilinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 I principi della fisica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
11
15
2 Concetti fondamentali
2.1 Stato di un sistema . . . . . . . . . . . . . . . . .
2.2 Prodotto scalare . . . . . . . . . . . . . . . . . .
2.2.1 Proprietà . . . . . . . . . . . . . . . . . .
2.2.2 Vettori di base e misura . . . . . . . . . .
2.2.3 Misura generale e rigenerazione degli stati
2.2.4 La relazione di completezza . . . . . . . .
2.3 Operatori . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Operatori e matrici . . . . . . . . . . . . .
2.3.2 Operatori associati ad una osservabile . .
2.3.3 Operatori di proiezione . . . . . . . . . .
2.4 Postulati della meccanica quantistica . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
18
19
19
20
20
21
21
22
26
26
3 Proprietà quantistiche
3.1 Unitarietà . . . . . . . . . . . . . . . . . . . .
3.1.1 Cambiamenti di base . . . . . . . . . .
3.1.2 Operatori unitari . . . . . . . . . . . .
3.1.3 Trasformazioni unitarie di operatori .
3.2 Indeterminazione . . . . . . . . . . . . . . . .
3.2.1 Osservabili compatibili e incompatibili
3.2.2 Commutazione di operatori . . . . . .
3.2.3 Il principio di indeterminazione . . . .
3.3 Informazione quantistica . . . . . . . . . . . .
3.3.1 L’informazione in un qubit . . . . . .
3.3.2 La matrice densità . . . . . . . . . . .
3.3.3 La più generale misura . . . . . . . . .
3.3.4 No-Cloning Theorem . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
30
30
31
31
32
33
36
36
37
40
42
. . . . . . . .
. . . . . . . .
. . . . . . . .
dell’identità
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
45
46
48
49
49
50
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Quantizzazione canonica: la meccanica quantistica
4.1 La rappresentazione delle coordinate . . . . . . . . .
4.1.1 L’operatore posizione . . . . . . . . . . . . .
4.1.2 La distribuzione delta di Dirac . . . . . . . .
4.1.3 Relazione di ortonormalizzazione e risoluzione
4.1.4 Operatori . . . . . . . . . . . . . . . . . . . .
4.2 L’operatore impulso e le traslazioni . . . . . . . . . .
4.2.1 Il teorema di Noether . . . . . . . . . . . . .
4
Indice
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
52
53
54
55
55
56
58
5 Evoluzione temporale
5.1 Il generatore dell’evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Traslazioni temporali e leggi di conservazione quantistiche . . . . . . . .
5.1.2 Il teorema di Noether per trasformazioni dipendenti dal tempo . . . . .
5.1.3 Il generatore dell’evoluzione temporale quantistica . . . . . . . . . . . .
5.2 L’equazione di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Forme alternative dell’equazione di Schrödinger . . . . . . . . . . . . . .
5.2.2 Soluzione dell’equazione di Schrödinger: hamiltoniane commutanti . . .
5.2.3 Soluzione dell’equazione di Schrödinger: hamiltoniane non commutanti .
5.2.4 Stati stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg . . . . . . . . . . . . .
5.3.1 La rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . .
5.3.2 Leggi del moto alla Heisenberg . . . . . . . . . . . . . . . . . . . . . . .
5.3.3 Leggi di conservazione: il teorema di Noether in meccanica quantistica .
5.3.4 Teorema di Ehrenfest e transizione classico-quantistico . . . . . . . . . .
5.3.5 Leggi del moto, parentesi di Poisson e commutatori . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
61
62
64
64
64
66
66
68
69
69
70
72
72
73
4.3
II
4.2.2 Le traslazioni in meccanica quantistica
4.2.3 L’operatore impulso . . . . . . . . . .
4.2.4 Operatori e leggi di conservazione . .
4.2.5 Il commutatore canonico . . . . . . . .
Base delle coordinate e base degli impulsi . .
4.3.1 La base delle coordinate . . . . . . . .
4.3.2 Autostati dell’operatore impulso . . .
4.3.3 La base degli impulsi . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Meccanica quantistica in una dimensione
75
6 La particella unidimensionale libera
6.1 Autostati dell’hamiltoniana . . . . . . . . . . . . . .
6.1.1 Evoluzione temporale degli stati . . . . . . .
6.1.2 Equazioni del moto per posizione ed impulso
6.1.3 Dipendenza dal tempo dell’indeterminazione
6.2 Pacchetti d’onde . . . . . . . . . . . . . . . . . . . .
6.2.1 Stati di minima indeterminazione . . . . . . .
6.2.2 Indeterminazione del pacchetto d’onde . . . .
6.2.3 Indeterminazione posizione-impulso . . . . .
6.3 Moto di un pacchetto d’onde . . . . . . . . . . . . .
6.3.1 Velocità di fase e velocità di gruppo . . . . .
6.3.2 Allargamento di un pacchetto d’onde . . . . .
6.3.3 L’ordine di grandezza degli effetti quantistici
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
78
78
79
80
80
82
83
84
84
85
86
7 Problemi unidimensionali
7.1 La buca di potenziale infinita . . . . . . . . . . . . .
7.1.1 Determinazione dello spettro . . . . . . . . .
7.1.2 Proprietà delle autofunzioni . . . . . . . . . .
7.1.3 Degenerazione dello spettro e stati legati . . .
7.2 Il gradino di potenziale . . . . . . . . . . . . . . . . .
7.2.1 Funzione a gradino e condizioni di continuità
7.2.2 Autofunzioni di energia: stati di scattering .
7.2.3 Corrente di probabilità . . . . . . . . . . . . .
7.2.4 Soluzione regressiva . . . . . . . . . . . . . .
7.2.5 Autofunzioni di energia: stati di tunneling . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
89
89
92
93
94
94
95
96
98
99
Indice
7.3
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 99
. 99
. 101
. 102
. 103
8 L’oscillatore armonico
8.1 L’oscillatore armonico classico . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Lo spettro di energia dell’oscillatore armonico quantistico . . . . . . . . .
8.2.1 Caratteristiche qualitative dello spettro . . . . . . . . . . . . . . .
8.2.2 Operatori di creazione e distruzione . . . . . . . . . . . . . . . . .
8.2.3 Normalizzazione ed elementi di matrice . . . . . . . . . . . . . . .
8.3 Autofunzioni nella base delle coordinate . . . . . . . . . . . . . . . . . . .
8.3.1 Funzione d’onda per lo stato fondamentale . . . . . . . . . . . . .
8.3.2 Stati eccitati e polinomi di Hermite . . . . . . . . . . . . . . . . .
8.4 Evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Operatore di evoluzione temporale ed evoluzione degli stato . . . .
8.4.2 Evoluzione degli operatori posizione ed impulso e formule di BCH
8.4.3 Evoluzione temporale degli operatori di creazione e distruzione . .
8.5 Stati coerenti e “gatti di Schrödinger” . . . . . . . . . . . . . . . . . . . .
8.5.1 Gli stati coerenti . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.2 Gatti di Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7.4
III
La barriera di potenziale . . . . . . . . . . . . . . . .
7.3.1 Autofunzioni di energia ed effetto tunnel . . .
7.3.2 Soluzione generale di tunneling . . . . . . . .
7.3.3 Coefficienti di trasmissione e riflessione . . . .
Problemi di stato legato: una discussione qualitativa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Meccanica quantistica in più dimensioni
109
109
110
110
111
113
114
115
115
116
116
116
118
119
119
122
125
9 Sistemi quantistici in più di una dimensione
9.1 Spazi prodotto diretto . . . . . . . . . . . . . . . . . .
9.1.1 Sistemi di dimensione finita . . . . . . . . . . .
9.1.2 Più dimensioni e più particelle . . . . . . . . .
9.1.3 Sistemi d-dimensionali in coordinate cartesiane
9.2 Separabilità . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Potenziali separabili in coordinate cartesiane .
9.2.2 Hamiltoniane separabili . . . . . . . . . . . . .
9.2.3 Esempi tridimensionali . . . . . . . . . . . . . .
9.3 Problemi a due corpi e problemi centrali . . . . . . . .
9.3.1 Il problema dei due corpi . . . . . . . . . . . .
9.3.2 Cambiamenti lineari di coordinate . . . . . . .
9.3.3 Problemi centrali . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
127
127
128
128
129
130
130
131
132
134
134
136
138
10 Il momento angolare
10.1 Momento angolare e rotazioni . . . . . . . . . . . . .
10.1.1 Il caso classico: teorema di Noether . . . . .
10.1.2 Il caso quantistico: generatore delle rotazioni
10.2 Proprietà del momento angolare . . . . . . . . . . .
10.2.1 Ordinamento . . . . . . . . . . . . . . . . . .
10.2.2 Espressione esplicita in coordinate sferiche . .
10.2.3 Relazioni di commutazione . . . . . . . . . .
10.3 Lo spettro del momento angolare . . . . . . . . . . .
10.3.1 Costruzione dello spettro . . . . . . . . . . .
10.3.2 Autofunzioni nella base delle coordinate . . .
10.4 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1 Spin uno . . . . . . . . . . . . . . . . . . . .
10.4.2 Spin 21 . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
143
143
143
144
145
145
145
145
146
147
149
151
152
155
.
.
.
.
.
.
.
.
.
.
.
.
.
6
Indice
10.5 Composizione di momenti angolari . . . . . . . . . . .
10.5.1 Sistemi con momento angolare orbitale e spin .
10.5.2 Coefficienti di Clebsch-Gordan e cambi di base
10.5.3 Composizione di due spin 12 . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
157
157
157
159
11 Problemi tridimensionali
11.1 L’equazione di Schrödinger radiale . . . . . . . . . . . . .
11.1.1 Funzione d’onda radiale . . . . . . . . . . . . . . .
11.1.2 Condizioni al contorno ed andamenti asintotici . .
11.1.3 La particella libera . . . . . . . . . . . . . . . . . .
11.2 L’oscillatore armonico isotropo . . . . . . . . . . . . . . .
11.2.1 Stati con l = 0 . . . . . . . . . . . . . . . . . . . .
11.2.2 Costruzione degli stati con l generico . . . . . . . .
11.2.3 Spettro e degenerazione . . . . . . . . . . . . . . .
11.2.4 Il teorema di degenerazione . . . . . . . . . . . . .
11.2.5 Simmetria dell’oscillatore tridimensionale isotropo
11.3 Il potenziale coulombiano . . . . . . . . . . . . . . . . . .
11.3.1 Analisi dimensionale . . . . . . . . . . . . . . . . .
11.3.2 Il modello di Bohr . . . . . . . . . . . . . . . . . .
11.3.3 Il problema di Keplero e le sue simmetrie . . . . .
11.3.4 Leggi di conservazione nel caso quantistico . . . .
11.3.5 Costruzione dello spettro . . . . . . . . . . . . . .
11.3.6 Degenerazione e base fisica . . . . . . . . . . . . .
11.3.7 Autofunzioni nella base delle coordinate . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
163
163
164
165
166
167
167
168
171
172
172
174
174
175
177
178
180
182
183
IV
.
.
.
.
Metodi di approssimazione
187
12 Il limite classico della meccanica quantistica
12.1 L’azione in meccanica classica . . . . . . . . . . . . . . . . . . . . .
12.1.1 L’azione in meccanica classica . . . . . . . . . . . . . . . . .
12.1.2 La teoria di Hamilton-Jacobi . . . . . . . . . . . . . . . . .
12.2 L’azione in meccanica quantistica . . . . . . . . . . . . . . . . . . .
12.2.1 Il propagatore . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.2 Propagatore ed azione . . . . . . . . . . . . . . . . . . . . .
12.2.3 L’integrale di cammino . . . . . . . . . . . . . . . . . . . . .
12.2.4 L’equazione di Schrödinger dal path integral . . . . . . . . .
12.3 L’approssimazione WKB . . . . . . . . . . . . . . . . . . . . . . . .
12.3.1 Limite semiclassico dell’equazione di Schrödinger . . . . . .
12.3.2 Correzioni al primo ordine ed approssimazione semiclassica
12.3.3 Validità dell’approssimazione semiclassica . . . . . . . . . .
12.3.4 Trattazione semiclassica della buca di potenziale . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
189
189
189
191
193
193
194
196
198
199
200
200
202
202
13 La teoria delle perturbazioni
13.1 Perturbazioni indipendenti dal tempo . . . . . . . .
13.1.1 Spettro non degenere . . . . . . . . . . . . . .
13.1.2 Caso degenere . . . . . . . . . . . . . . . . .
13.2 Perturbazioni dipendenti dal tempo . . . . . . . . . .
13.2.1 La rappresentazione di interazione . . . . . .
13.2.2 Sviluppo perturbativo dipendente dal tempo
13.2.3 La regola aurea di Fermi . . . . . . . . . . . .
13.2.4 Concetti base della teoria dell’urto . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
207
207
208
210
210
211
212
214
215
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Indice
V
7
Molti corpi quantistici
14 Sistemi di molti corpi quantistici
14.1 Particelle identiche . . . . . . . . . . . . . . . . . . . . . .
14.1.1 L’operatore di scambio . . . . . . . . . . . . . . . .
14.1.2 Sistemi di n particelle e degenerazione di scambio .
14.1.3 Statistiche quantistiche . . . . . . . . . . . . . . .
14.1.4 Relazione spin-statistica . . . . . . . . . . . . . . .
14.2 Entanglement . . . . . . . . . . . . . . . . . . . . . . . . .
14.2.1 La matrice densità . . . . . . . . . . . . . . . . . .
14.2.2 Meccanica quantistica e realismo locale . . . . . .
14.2.3 Il problema della misura . . . . . . . . . . . . . . .
219
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
221
221
222
223
224
226
228
228
232
238
8
Indice
Parte I
Le basi della fisica quantistica
Capitolo 1
Introduzione
1.1
Fisica classica e fisica quantistica
A fine ’800 molti fisici erano convinti che la fisica fosse una disciplina ormai completa. Un’idea diffusa
era che qualunque teoria fisica potesse essere ridotta ad una più fondamentale spiegazione meccanica
soggiacente. La deduzione da parte di Boltzmann della termodinamica dalla meccanica statistica è un
esempio di successo di questo punto di vista. Analogamente, anche la formulazione di una teoria unificata
dell’elettromagnetismo da parte di Maxwell era basata sullo stesso presupposto.
Tuttavia, questo programma di riduzione della fisica alla meccanica all’inizio del novecento si è rivelato essere impossibile. È proprio l’idea che possa esistere una teoria più fondamentale alla quale le
altre possono essere ridotte che si è rivelata essere inconciliabile con le leggi della natura. Questa inconciliabiltà segue inevitabilmente dai principi della fisica quantistica (il concetto di “teoria di interazioni
fondamentali” in ambito quantistico resta, ma con un senso piuttosto diverso).
La fisica quantistica, tuttavia, fornisce un linguaggio universale che permette di formulare qualunque
teoria fisica. La fisica quantistica è una grammatica; non ha, di per sé, un contenuto. Il contenuto si
ottiene quando la si applica a singole teorie fisiche, come la meccanica. Non è attualmente nota alcuna
deviazione dai principi della fisica quantistica. Al più, la fisica classica se ne può ottenere come opportuno
limite. La fisica quantistica descrive sistemi con un numero sufficientemente piccolo (in un senso che sarà
chiarito più avanti) di gradi di libertà.
Negli ultimi anni, soprattutto grazie a progressi di tipo tecnologico, molti classici esperimenti ideali
della fisica quantistica sono stati effettivamente realizzati. Alcuni dei principi base della fisica quantistica,
e la loro fondamentale deviazione dai principi classici, appaiono in modo particolarmente chiaro da uno di
questi esperimenti recenti. Utilizzeremo quindi questo particolare esperimento per introdurre e motivare
i principi base della fisica quantistica.
1.2
L’esperimento di Zeilinger
L’esperimento che descriviamo1 è un esperimento di interferenza realizzato da A. Zeilinger, O Nairz e M.
Arndt.
Consideriamo una sorgente che emette un fascio di particelle. Ad una certa distanza è presente una
parete impermeabile con due fenditure. A valle di tale parete è presente uno schermo suddiviso in intervalli
dove possono essere rilevate le particelle passate per le fenditure. L’esperimento può essere effettuato con
entrambe le fenditure aperte oppure una sola fenditura aperta.
Chiediamoci che cosa ci aspetteremmo di vedere sullo schermo se le particelle fossero particelle classiche: ad esempio, granelli di sabbia, sparati uno per volta contro lo schermo. Supponiamo che la velocità
iniziale dei granelli non sia nota esattamente, ma sia nota solo una distribuzione di velocità. Con una
sola fenditura aperta si ottiene una certa distribuzione di risultati sullo schermo. Notare che i granelli
1 O.
Nairz, M. Arndt, and A. Zeilinger, Am. J. Phys. 71 (2003) 319.
12
Introduzione
di sabbia sono sparati uno per volta: la distribuzione di risultati sullo schermo riflette la distribuzione
iniziale di velocità e l’urto dei granelli con lo schermo, e nient’altro (si suppone che a parte lo schermo
l’esperimento avvenga nel vuoto). Se ora si aprono entrambe le fenditure, la distribuzione di risultati è
ovviamente la somma delle distribuzioni ottenute con ciascuna delle due fenditure aperte (vedi Figura
1.1).
Ck
B1
A
B2
C
B
Figura 1.1: Distribuzione delle probabilità nel caso di granelli di sabbia
In formule, se chiamiamo P (A → Ck ) la probabilità che una granello di sabbia arrivi in Ck sullo
schermo parendo dalla sorgente A, P (A → Bi ) la probabilità che arrivi alla fenditura Bi partendo dalla
sorgente, e P (Bi → Ck ) la probabilità che arrivi in Ck partendo dalla fenditura Bi , abbiamo
P (A → Ck ) = P (A → B1 )P (B1 → Ck ) + P (A → B2 )P (B2 → Ck ).
(1.1)
Questo è del tutto equivalente a dire che il numero totale di granelli di sabbia rivelati in un punto
qualunque dello schermo deve essere la somma di quelli che vi sono arrivati passando per la prima
fenditura, più quelli che invece sono passati per la seconda. Infatti
N (A → Ck ) = Ntot P (A → Ck ) = Ntot
2
X
P (A → Bi )P (Bi → Ck )
i=1
=
2
X
N (A → Bi )P (Bi → Ck ) =
i=1
2
X
N (Bi → Ck ) :
(1.2)
i=1
N (A → Ck ) è il numero totali di granelli arrivati in Ck , e N (Bi → Ck ) il numero di quelli che vi sono
arrivati passando per Bi .
Ma non è cosı̀ se invece che particelle classiche osserviamo il comportamento di oggetti quantistici.
Zeilinger ha usato molecole di fullerene (C60 ), il cui diametro è dell’ordine di 10 Å, cioé 1 nm, ovvero
10−9 m (altre molecole utilizzate sono state C60 F48 e TPP, molecole ancora più grandi).
Nell’esperimento compiuto da Zeilinger, Arndt e Nairz le molecole vengono emesse ad una velocità
di 200 m/s e colpiscono un reticolo di diffrazione. Entrambi gli schermi sono di nitruro di silicio (SiN) e
con fenditure di 55 nm distanziate tra loro di 100 nm. Lo schermo è spesso 200 nm. Parte delle difficoltà
sperimentali è il rilevamento della distribuzione delle molecole sullo schermo finale. Tale problema è stato
risolto grazie all’ausilio di un fascio laser con una apertura di 2 µm che colpisce lo schermo. Le molecole,
eccitate, si ionizzano e possono essere cosı̀ registrate. Il fascio laser viene quindi spostato di 8 µm. Le
molecole, durante l’esperimento, sono emesse singolarmente, proprio come i granelli di sabbia dell’esempio
precedente. La distribuzione di molecole sullo schermo al termine dell’esperimento non è la stessa che si
ottiene con granelli di sabbia. Si ottiene invece una figura di interferenza, come quella che si ottiene in
familiari fenomeni ondulatori (vedi Figura 1.2).
Il risultato che si osserva è lo stesso che si ottiene nel caso in cui le probabilità di arrivo fossero determinate dall’ampiezza di oscillazione di onde che si sommano secondo il principio di Fresnel. Ricordiamo
che date due onde, per semplicità con la stessa ampiezza A e frequenza ω, ma con due fasi diverse:
R1 = A cos(ωt + ϕ1 ),
R2 = A cos(ωt + ϕ2 )
(1.3)
1.2 L’esperimento di Zeilinger
13
A
C
B
Figura 1.2: Figura di interferenza realizzata nell’esperimento
che possiamo anche scrivere
R1 = Re Aei(ωt+ϕ1 )
R2 = Re Aei(ωt+ϕ2 ) ,
(1.4)
la loro sovrapposizione è un’onda
R = R1 + R2 = A [cos(ωt + ϕ1 ) + cos(ωt + ϕ2 )] = Re A ei(ωt+ϕ1 ) + ei(ωt+ϕ2 )
= Re Aeiωt eiϕ1 + eiϕ2
ϕ1 −ϕ2
ϕ1 −ϕ2
ϕ1 +ϕ2
= Re Aeiωt+i( 2 ) ei( 2 ) + e−i( 2 )
ϕ1 + ϕ2
ϕ1 − ϕ2
cos
+ ωt
= 2A cos
2
2
ϕ1 +ϕ2
ϕ1 − ϕ2
= Re 2A cos
ei( 2 +ωt) .
2
La sovrapposizione è quindi un’onda di ampiezza
ϕ1 − ϕ2
AR = 2A cos
.
2
(1.5)
(1.6)
Una figura di interferenza di questo genere appare supponendo che le due fenditure siano sorgenti di onde
che si sovrappongono. In tal caso, la differenza di fase delle due onde che colpiscono lo schermo in un
dato punto è data da
ϕ1 − ϕ2 =
2π
∆L,
λ
(1.7)
dove λ è la lunghezza d’onda, e ∆L è la differenza della lunghezza dei cammini tra le due fenditure ed il
punto dato dello schermo. Questa è a sua volta
∆L = d sin θ
(1.8)
dove d è la distanza tra le fenditure, θ l’angolo formato dai due cammini con la retta perpendicolare ai
due schermi, e nel limite in cui la distanza dei due schermi è molto più grande di d abbiamo supposto
che tale angolo sia lo stesso per entrambi i cammini (vedi Figura 1.3)
Nell’esperimento, però, non sono state emesse onde, ma solo singole molecole. E’ importante osservare
che non solo il rivelatore utilizzato rivela una molecola per volta, ma anche che la distanza tra le molecole è
tale da escludere qualunque interazione. Infatti, il flusso di molecole è di 3×109 cm−2 s−1 , che corrisponde
ad una distanza media tra le molecole di 200 µm, 105 volte il raggio della singola molecola, e oltre 1000
14
Introduzione
Figura 1.3: Differenza di fase tra i cammini
volte maggiore della massima portata delle forze tra molecole (forze di van der Waals) che è al massimo
di circa 100 nm. Quindi è esclusa qualunque interferenza tra diverse molecole: l’esperimento è a tutti gli
effetti eseguito osservando una molecola alla volta.
Nonostante ciò la distribuzione finale è quella caratteristica di un fenomeno ondulatorio. La domanda
è: che cosa è l’onda? Abbiamo infatti una sola molecola di C60 e osserviamo lo stesso effetto di un’onda.
In questo caso però non c’è un’onda fisica: infatti nell’esperimento viene emessa una molecola per volta.
Questo esclude che l’interferenza sia dovuta a diverse molecole che interferiscono fra loro.
Un’osservazione molto importante è che se si sommano le ampiezze, allora non si sommano le probabilità, infatti
A2R = |R1 + R2 |2 = |R1 |2 + |R2 |2 + 2Re(R1 R2∗ ) 6= |R1 |2 + |R2 |2 .
(1.9)
Questo ha una conseguenza paradossale. Visto che l’esperimento si fa con particelle singole, è naturale
supporre che la particella sia passata o da B1 o da B2 . Ma la probabilità che la particella vada in B1
od in B2 la conosciamo: la possiamo misurare mettendo un rivelatore sulle due fenditure, ed è data da
P (A → Bi ). Ma se mettiamo un rivelatore, e sappiamo che la particella è passata da Bi , allora per
definizione la probabilità che essa vada a finire in Ck sullo schermo è data da P (Bi → Ck ). Come è
possibile allora che non valga la Eq. (1.1)?
Vediamo come la natura risolve questa difficoltà. Introduciamo un rivelatore per determinare da che
fenditura passi la molecola. Osserviamo che, ponendo il rilevatore, la figura di interferenza scompare
(vedi Figura 1.4). In questo caso quindi si trovano gli stessi risultati che nel caso classico:
P (A → C) = P (A → B1 )P (B1 → C) + P (A → B2 )P (B2 → C).
(1.10)
R
A
C
B
Figura 1.4: Esperimento con rivelatore
Le probabilità quindi si compongono nel momento in cui viene effettuata una misura. Se, invece, la
misura non viene effettuata si ottiene
X
P (A → C) 6=
P (A → Bi )P (Bi → C).
(1.11)
i
1.3 I principi della fisica quantistica
15
Quindi, nel caso in cui si esegue la misura le probabilità si compongono come nel caso classico: non
può essere altrimenti, infatti abbiamo visto (si ricordi l’Eq. (1.2)) che comporre le probabilità in modo
classico è proprio equivalente a dire che la particella è passata da una fenditura oppure dall’altra. Quindi,
il fatto che le probabilità non si compongano quando non si esegue la misura si può solo spiegare dicendo
che, se non misuriamo da che fenditura è passata, non possiamo dire che la particella sia passata da una
fenditura o dall’altra. Siamo obbligati a concludere che l’affermazione (classica) che la particella è passata
o da una fenditura o dall’altra quantisticamente non è vera.
1.3
I principi della fisica quantistica
L’esperimento di Zeilinger ci permette di formulare alcuni principi base della fisica quantistica.
1. I sistemi quantistici hanno un comportamento intrinsecamente casuale. Non possiamo predire il risultato di una misura quantistica (nell’esperimento di Zeilinger, la posizione di arrivo della particella
sullo schermo), ma solo la sua probabilità.
2. Lo stato del sistema, cioè l’informazione che ci permette di calcolare queste probabilità, si comporta
come un’onda. In particolare, sistemi composti da sottosistemi (le due fenditure) si sovrappongono
secondo le leggi di composizione dei fenomeni ondulatori (principio di Fresnel).
3. Le misure rivelano eventi singoli.
4. Le probabilità di eventi singoli si compongono secondo le leggi della probabilità standard.
Un modo di riassumere questi principi è dato dalla “interpretazione di Copenhagen”: quando si esegue
una misura del sistema, il suo stato cambia, “collassando” in uno degli stato corrispondenti ai risultati
possibili della misura. Finchè il collasso non avviene, le diverse alternative (i diversi stati del sistema,
come passare dall’una o dall’altra fenditura in assenza di rivelatore) interferiscono. Ma dopo aver eseguito
la misura, l’interferenza scompare. Questa è la formulazione standard della meccanica quantistica. Va
presa come una formulazione idealizzata e semplificata, poiché presuppone una distinzione tra sistema
quantistico, ed il sistema classico che esegue la misura. Essa è del tutto adeguata nella maggior parte
delle situazioni concrete.
Il problema di dare una formulazione in cui anche la misura è descritta in termini quantistici (cioè
tale che non vi sia una distinzione tra dominio classico e dominio quantistico) verrà affrontato più avanti.
Possiamo però fare fin da subito alcune osservazioni che rendono più chiaro il significato di quello che
si sta dicendo. In primo luogo, si deve osservare che lo stato del sistema rappresenta l’informazione che
noi abbiamo su di esso. Che questa informazione cambi quando noi osserviamo il sistema è del tutto
ovvio. Visto che gli eventi fondamentali sono casuali, noi possiamo solo dire a posteriori quale di essi si
è realizzato. Il “collasso” della funzione d’onda esprime il fatto che noi osserviamo il verificarsi di uno
dei tanti eventi possibili. La seconda osservazione è che “osservare” vuole semplicemente dire interagire
con un macrosistema che permette di tenere traccia di ciò che è accaduto. In altre parole l’apparato di
misura è “classico” nel senso che è un sistema complesso (con molti gradi di libertà) che permette anche
solo in linea di principio di tenere traccia di quale degli eventi casuali si è di fatto verificato. Inizieremo
a vedere nella Sez. 8.5 come l’interazione di un sistema quantistico con un macrosistema sia responsabile
della scomparsa dell’interferenza.
16
Introduzione
Capitolo 2
Concetti fondamentali
2.1
Stato di un sistema
Per descrivere gli stati di un sistema quantistico, utilizziamo una notazione introdotta da Dirac. Uno stato
del sistema è associato ad un oggetto chiamato ket. Un ket viene rappresentato mediante la notazione
|xi. Gli stati che caratterizzano il sistema sono esclusivi ed esaustivi : ciascuno di essi corrisponde ad
un possibile risultato distinto di una misura (esclusivi), e il loro insieme corrisponde a tutti i risultati
possibili (esaustivi).
Nel seguito, per semplicità, consideriamo in particolare un sistema che può trovarsi solo in due stati
(questo sistema viene denominato qubit, perchè, come vedremo presto, è il sistema quantistico che contiene
la minima quantità di informazione). Tuttavia, tutti i risultati che discuteremo si generalizzano facilmente
a sistemi che si trovano in un numero qualunque di stati. Questo vuol dire che il sistema ha una sola
proprietà, e la sua misura può dare uno solo di due risultati possibili. Nell’esempio del capitolo precedente,
|+i e |−i potrebbero corrispondere rispettivamente a “la particella è passata per la fenditura B1 ” e “la
particella è passata per la fenditura B2 ”.
Per descrivere la situazione discussa nel capitolo precedente, supponiamo che il sistema si possa in
generale trovare in una qualunque sovrapposizione dei due stati (ad esempio, se non misuriamo da quale
delle due fenditure è passato). Il più generale stato è una combinazione dei due stati |±i:
|ψi = a+ |+i + a− |−i,
(2.1)
dove a+ e a− sono in generale dei numeri complessi, che interpretiamo nel modo seguente: quando
misuriamo il sistema la probabilità che la misura dia l’uno o l’altro dei due risultati possibili è
P± = |a± |2 .
(2.2)
Se normalizziamo le probabilità a 1 ne segue che a± devono soddisfare la condizione di normalizzazione
|a+ |2 + |a− |2 = 1.
(2.3)
Prima della misura lo stato ci dice qual è la probabilità dei possibili risultati della misura. Dopo la
misura sappiamo con certezza che risultato abbiamo ottenuto. Quindi dopo la misura il sistema si trova o
nello stato |+i, o nello stato |−i. Lo stato del sistema ci dice che informazioni abbiamo sui risultati delle
misure: questa informazione è in generale probabilistica. Ma dopo la misura, l’informazione è completa:
sappiamo in che stato si trova il sistema. Si trova nello stato nel quale la misura ci ha detto che esso è.
Quindi la misura cambia lo stato del sistema. Questo cambiamento viene in genere chiamato “collasso
dello stato”. Può apparire paradossale, ma non lo è se ricordiamo che lo stato ci dice che informazione
abbiamo sul sistema. È ovvio che l’informazione che abbiamo sul sistema cambia nel momento in cui lo
misuriamo. Ciò che non è ovvio è che in generale prima di eseguire la misura tale informazione non sia
completa, ma solo probabilistica.
18
Concetti fondamentali
Visto che vogliamo che gli stati si possano sovrapporre come onde, supponiamo che valga il principio
di sovrapposizione: dati due stati qualunque |ψ1 i e |ψ2 i, dati da
|ψ1 i = a1+ |+i + a1− |−i
|ψ2 i = a2+ |+i + a2− |−i
(2.4)
anche la loro sovrapposizione |ϕi
|ϕi = N c1 |ψ1 i + c2 |ψ2 i
(2.5)
è uno stato (e più in generale lo è qualunque loro combinazione lineare); N è una costante di normalizzazione, che introduciamo se vogliamo che anche per lo stato |ϕi valga una condizione di normalizzazione
della forma della (2.3). Lo stato sovrapposizione |ϕi è anch’esso possibile ed è dato da una combinazione
lineare degli stati. Qualunque sovrapposizione di stati genera un nuovo stato possibile.
Come esempio, consideriamo un sistema che si trova in una sovrapposizione, con uguale probabilità,
dei due stati |ψ1 i e |ψ2 i Eq. (2.4):
1
|ϕi = √ |ψ1 i + |ψ2 i
2
1 = √ a1+ + a2+ |+i + a1− + a2− |−i .
2
(2.6)
Quale è la probabilità di |+i e di |−i? Notiamo essa non si ottiene componendo le probabilità, perché
c’è un termine di interferenza:
1
|a1± + a2± |2
2
1
=
|a1± |2 + |a2± |2 + a1± a∗2± + a2± a∗1±
2
P± =
(2.7)
e quindi
P± 6=
1
(P1± + P2± ).
2
(2.8)
Possiamo vedere questo esempio come una realizzazione idealizzata del caso discusso nella situazione
precedente, in cui sullo schermo finale vi siano solo due posizioni C+ e C− . In tal caso i due stati |±i
corrispondono al fatto che la molecola venga rivelata nell’una o nell’altra di queste posizioni sullo schermo.
Gli stati |ψ1 i e |ψ2 i possono essere interpretati come gli stati che corrispondono a rivelare che il sistema
è passato da ciascuna delle due fenditure, mentre lo stato |ϕi Eq. (2.6) è lo stato in cui il sistema si
trova quando entrambe le fenditure sono aperte. Quindi le probabilità P± sono le probabilità di rivelare
la particella sullo schermo, e la Eq. (2.8) ci dice che è violata la legge di composizione classica delle
probabilità Eq. (1.10).
Notiamo che se invece si esegue una misura che determina da che fenditura la particella è passata essa
dopo la misura si trova nello stato |ψ1 i quando passa dalla fenditura superiore, e nello stato |ψ2 i se passa
da quella inferiore. Le probabilità dei risultati di questa misura sulla fenditura sono entrambe 21 , come si
vede dalla Eq. (2.6). In seguito, le probabilità dei risultati della misura sul secondo schermo si trovano
usando la Eq. (2.2), ma con il sistema posto o nello stato |ψ1 i o nello stato |ψ2 i. Quindi in tal caso vale
la legge di composizione classica delle probabilità Eq. (1.10). Se, grazie ad una misura precedente, è nota
la fenditura da cui la particella è passata, l’interferenza scompare.
2.2
Prodotto scalare
Per descrivere il principio fisico di sovrapposizione abbiamo supposto che lo spazio degli stati fisici sia
uno spazio vettoriale complesso, di cui i ket sono vettori; è naturale supporre che in questo spazio sia
definito il concetto di norma di un vettore, che assoceremo naturalmente alla probabilità di un evento.
2.2 Prodotto scalare
19
Uno spazio vettoriale normato (e completo) è detto spazio di Banach. Ma il fatto che i ket siano associati
a risultati indipendenti di misure porta naturalmente a veterli come vettori di base, e questo a sua volta
suggerisce di introdurre un prodotto scalare.
A questo fine, poniamo ogni ket in corrispondenza con un bra:
|ψi ↔ hψ|
e definiamo il prodotto scalare tra due stati |ψi e |ϕi come
hψ|ϕi.
2.2.1
(2.9)
Proprietà
Il prodotto bra-ket ha le seguenti proprietà:
• hψ|ϕi ∈ C;
• hψ|ϕi = hϕ|ψi∗ (hermitianità o hermiticità);
• hψ|ψi ≥ 0 (positività; notare che la proprietà di hermiticità implica che hψ|ψi è reale);
• se |ϕi = a|+i + b|−i allora hψ|ϕi = ahψ|+i + bhψ|−i (linearità).
Lo spazio dei bra è lo spazio vettoriale duale dello spazio dei ket: infatti se |ψi = a|+i + b|−i allora
hψ| = a∗ h+| + b∗ h−|. Infatti:
†
†
hψ|ϕi = hϕ|ψi = hϕ|+ia + hϕ|−ib = a∗ h+| + b∗ h−| |ϕi
Dal punto di vista matematico, lo spazio dei bra è lo spazio degli operatori lineari a valori complessi
che agiscono sullo spazio dei ket (ossia lo spazio duale a quello dei ket). Come si è visto negli esempi
precedenti, infatti, un elemento dello spazio dei bra agisce su un elemento dello spazio dei ket e restituisce
un numero complesso. Si può mostrare che se lo spazio dei ket è finito-dimensionale, lo spazio dei bra
è isomorfo ad esso; il caso infinito-dimensionale comporta delle complicazioni matematiche in cui non ci
addentriamo. Uno spazio vettoriale lineare con un prodotto scalare è detto spazio di Hilbert. Lo spazio
degli stati fisici della meccanica quantistica è uno spazio di Hilbert.
2.2.2
Vettori di base e misura
I due stati |±i in cui il sistema si può trovare possono essere visti come una base ortonormale rispetto al
prodotto scalare appena introdotto:
h+|+i = h−|−i = 1
(2.10)
h+|−i = h−|+i = 0.
(2.11)
La probabilità Eq. (2.2) del risultato di una misura può ora essere vista come la lunghezza della
proiezione dello stato |ψi in cui il sistema si trova lungo il vettore di base che corrisponde al risultato
della misura stessa. Infatti, se lo stato è dato dalla Eq. (2.1) la probabilità di trovare ciascuno dei due
possibili risultati della misura è
P± = |h±|ψi|2 = |a± |2 .
(2.12)
Notiamo infine che la normalizzazione dello stato, che possiamo fissare secondo la Eq. (2.3), è il
prodotto scalare dello stato con se stesso
hψ|ψi = h+|a∗+ + h−|a∗− (a+ |+i + a− |−i) = |a+ |2 + |a− |2 ,
(2.13)
20
Concetti fondamentali
dove per eseguire il calcolo abbiamo usato l’espressione esplicita Eq. (2.1) dello stato e le condizioni di
ortonormalizzazione Eq. (2.10). La Eq. (2.13) è detta appunto norma dello stato |ψi.
Naturalmente, vi è un’infinità di basi ortonormali possibili. Ad esempio, consideriamo i due stati
1
|ψ1 i = √ |+i + |−i
2
1
|ψ2 i = √ |+i − |−i .
2
(2.14)
Notiamo che
hψ1 |ψ2 i = hψ2 |ψ1 i = 0;
hψ1 |ψ1 i = hψ2 |ψ2 i = 1.
(2.15)
(2.16)
Quindi anche gli stati |ψ1 i e |ψ2 i formano una base ortonormale.
2.2.3
Misura generale e rigenerazione degli stati
Finora abbiamo supposto che lo stato del sistema sia scritto in una base di stati corrispondenti a tutti
i risultati di misure. Tuttavia, come abbiamo visto, vi sono infinite basi possibili. In effetti, dato un
qualunque stato |ϕi che corrisponde ad un risultato ben determinato per la misura di una osservabile
possiamo supporre che faccia parte di una base, se combinato con altri stati che corrispondono agli altri
risultati possibili: per esempio, uno dei due stati |ψi i Eq. (2.4) che corrispondono al passaggio della
particella da una delle due fenditure.
Possiamo quindi in generale interpretare il modulo del prodotto scalare
Pϕψ = |hϕ|ψi|2
(2.17)
come la probabilità che un sistema che si trova nello stato |ψi dia sotto misura il risultato associato a
|ϕi. Naturalmente, dopo la misura, il sistema si trova nello stato |ϕi .
Questo dà luogo ad una situazione interessante. Consideriamo gli stati |ψi i Eq. (2.14). Supponiamo
che il sistema si trovi inizialmente nello stato |ψ1 i. Esso quindi non si trova nello stato |ψ2 i, che è ad
esso ortogonale. Eseguiamo ora la misura per determinare se il sistema si trovi in |+i od in |−i. Nel
50% dei casi troveremo che esso si trova in |+i . Dopo la misura il sistema quindi è nello stato |+i. Ora
misuriamo di nuovo se il sistema si trovi nello stato |ψ2 i. È facile vedere che nel 50% dei casi troveremo
che esso si trova in |ψ2 i. Quindi la misura intermedia di |±i ha rigenerato la componente |ψ2 i dello stato
|ψ1 i, inizialmente assente.
2.2.4
La relazione di completezza
Alcune delle manipolazioni che abbiamo compiuto possono essere considerevolmente semplificate mediante
una osservazione semplice, ma di notevole portata.
Osserviamo che possiamo scrivere un ket di stato |ψi come
|ψi = h+|ψi|+i + h−|ψi|−i = |+ih+| + |−ih−| |ψi
Di conseguenza abbiamo che
|+ih+| + |−ih−| = I
(2.18)
lascia invariato lo stato ed è quindi una rappresentazione dell’operatore identità. La Eq. (2.18) è nota
come relazione di completezza o risoluzione d’identità.
Il risultato vale in generale nel caso in cui i risultati possibili per la misura siano n, per cui, data una
base
|ei i i = 1....n
(2.19)
2.3 Operatori
21
la condizione di ortonormalità è
hei |ej i = δij
(2.20)
dove δij è la delta di Kronecker definita come
(
δij =
0 se i 6= j
1 se i = j
.
(2.21)
In tal caso, la risoluzione dell’identità è
I=
X
|ei ihei |.
(2.22)
i
La risoluzione dell’identità semplifica diversi calcoli, tra cui:
• decomposizione di un vettore su una base: da
X
X
|ψi =
|ei ihei |ψi =
|ei icψ
i
i
(2.23)
i
si ha
cψ
i = hei |ψi;
(2.24)
• calcolo della norma di un vettore
hψ|ψi =
X
hψ|ei ihei |ψi =
X
i
2
|cψ
i | ;
(2.25)
∗ ψ
(cϕ
i ) ci ;
(2.26)
i
• prodotto scalare tra due vettori
hϕ|ψi =
X
hϕ|ei ihei |ϕi =
i
X
i
• principio di sovrapposizione (esempio)
|ψi = |+ih+|ψi + |−ih−|ψi
= |+i (h+|ψ1 ihψ1 |ψi + h+|ψ2 ihψ2 |ψi)
+ |−i (h−|ψ1 ihψ1 |ψi + h−|ψ2 ihψ2 |ψi) .
2.3
(2.27)
Operatori
L’operazione di misura come descritta finora presuppone la conoscenza di un insieme esclusivo ed esaustuvo di stati associati ai risultati della misura. Come si è visto, vi possono essere diversi insiemi di stati,
quindi diverse misure possibili, per lo stesso sistema. Per caratterizzare questa situazione, ed in particolare studiare e classificare tutte le possibili misure che possono essere eseguite su un sistema, conviene
introdurre il concetto di operatore.
2.3.1
Operatori e matrici
Un operatore è un oggetto che applicato ad un qualunque stato fisico dà un altro stato fisico
A|ψi = |ψ 0 i,
ossia, più formalmente, un’applicazione dello spazio degli stati fisici in se stesso.
(2.28)
22
Concetti fondamentali
Noi considereremo specificamente operatori lineari, cioè tali che
A a1 |ψ1 i + a2 |ψ2 i = a1 A|ψ1 i + a2 A|ψ2 i
(2.29)
L’azione di un operatore lineare è interamente determinata dalla sua azione su un insieme ket di base.
Infatti, decomponendo uno stato qualunque |ψi su una base di stati ei i, con coefficienti cψ
i = hei |ψi) (si
ricordi la Eq. (2.24)) si ha
X ψ
(2.30)
|ψ 0 i = A|ψi =
ci A|ei i.
i
Ma possiamo anche decomporre ciascuno degli stati ottenuti dall’azione di A sui ket di base:
|e0i i ≡ A|ei i = cA
ji |ej i
(2.31)
0
con cA
ji = hej |ei i. Quindi
|ψ 0 i =
X
A
cψ
i cji |ej i.
(2.32)
ij
Nella notazione di Dirac, la linearità è implicita nel formalismo, e questo risultato si può ritrovare
semplicemente utilizzando la risoluzione dell’identità:
X
X
X
A|ψi =
A|ei ihei |ψi =
|ej ihej |A|ei ihei |ψi =
|ej iAji cψ
(2.33)
i
i
ij
ij
L’equazione (2.33) può essere letta come l’affermazione che qualunque operatore lineare può essere
rappresentato come
X
A=
|ei iAij hej |
(2.34)
ij
dove abbiamo indicato con
Aij ≡ cA
ij = hei |A|ej i.
(2.35)
gli elementi di matrice dell’operatore. Associamo cosı̀ a qualunque operatore una matrice.
Notiamo che l’azione successiva di due operatori è data da
X
AB|ψi =
|ei ihei |A|ej ihej |ek ihek |B|el ihel |
ijkl
=
X
|ei iAij Bjl hel |,
(2.36)
ijl
dove nel passaggio intermedio abbiamo utilizzato l’ortonormalità Eq. (2.20). Si vede cosı̀ che l’azione
successiva di due operatori è pari a quella dell’operatore la cui matrice è il prodotto (righe per colonne)
delle matrici associate ai due operatori che agiscono successivamente. Si noti che, ovviamente, il risultato
in generale cambia a seconda dell’ordine con cui i due operatori agiscono.
2.3.2
Operatori associati ad una osservabile
È naturale associare un operatore a ciascuna osservabile fisica, come conseguenza del fatto che un’osservabile è caratterizzata dall’insieme di stati |ei i che corrispondono ai possibili risultati della sua misura,
oltre che, ovviamente, ai valori λi dell’osservabile misurata (come, ad esempio, la posizione sullo schermo,
o l’indice che numera le fenditure). Notare che gli stati |ei i sono sempre una base, se supponiamo che i
risultati delle misure dell’osservabile siano esclusivi ed esaustivi.
2.3 Operatori
23
Per capire l’origine della relazione tra osservabili ed operatori, supponiamo di voler calcolare il valor
medio di misure ripetute di una certa osservabile O, per un sistema che si trova in un certo stato |ψi.
Esso è solitamente indicato con hOi, ed è dato da
X
X
hOi =
λi Pi =
λi |hei |ψi|2 .
(2.37)
i
i
Possiamo interpretare questo risultato definendo l’operatore associato all’osservabile
X
O=
λi |ei ihei |.
(2.38)
i
Il valor medio è quindi l’elemento di matrice di tale operatore nello stato dato:
hOi = hψ|O|ψi,
(2.39)
infatti
hψ|O|ψi =
X
λi hψ|ei ihei |ψi =
X
i
λi |hei |ψi|2 .
i
Possiamo quindi associare ad ogni osservabile un operatore della forma Eq. (2.39). Notiamo che
O|ei i = λi |ei i.
(2.40)
Questo vuol dire che i possibili stati |ei i in cui il sistema si trova dopo la misura sono autostati dell’osservabile, ed i possibili risultati λi della misura sono gli autovalori associati a tali autostati. Visto che
l’osservabile è completamente caratterizzata dalla sua matrice, ma una matrice è a sua volta completamente caratterizzata dai suoi autovalori ed autovettori, la definizione Eq. (2.38) ci permette di associare
(bi)univocamente un operatore ad un’osservabile.
Notiamo tuttavia che la condizione che si tratti di un’osservabile si riflette nella richiesta che gli
autostati |ei i siano ortonormali (risultati della misura esclusivi ed esaustivi) e che gli autovalori λi siano
reali (nessuna di queste due proprietà dipende dalla scelta di base). Quindi gli operatori associati ad
osservabili sono quelli con autovettori ortonormali ed autovalori reali.
La matrice associata Oij , se espressa nella base fornita dagli stati |ei i, è diagonale: infatti
Oij = λi δij .
(2.41)
Quindi in questa base un’osservabile è descritta da una matrice diagonale con elementi reali. Ci chiediamo
quale sia la condizione in una base generica.
Aggiunto di un operatore e operatori hermitiani (autoaggiunti)
A questo fine, introduciamo il concetto di aggiunto di un operatore. Dato un qualunque operatore A tale
che
A|ψi = |ψ 0 i,
(2.42)
il suo aggiunto, che si denota con A† , è l’operatore tale che
hψ 0 | = hψ|A† .
(2.43)
Usando la definizione, possiamo facilmente determinare la relazione tra elementi di matrice di A e di
A† . Abbiamo che
hϕ|A|ψi = hϕ|ψ 0 i,
†
0
hψ|A |ϕi = hψ |ϕi,
(2.44)
(2.45)
24
Concetti fondamentali
ma
∗
hψ 0 |ϕi = (hϕ|ψ 0 i) ,
(2.46)
quindi
∗
hψ|A† |ϕi = (hϕ|A|ψi) .
(2.47)
In particolare, se |ϕi, |ψi sono vettori di base,
hei |A† |ej i = hej |A|ei i∗ ,
(2.48)
cioè
A†
ij
= A∗ji .
(2.49)
Quindi la matrice aggiunta si ottiene prendendo la trasposta, e poi il complesso coniugato di ogni elemento.
Definiamo autoaggiunto, o hermitiano, un operatore tale che
A† = A
(2.50)
A∗ij = Aji .
(2.51)
il che quindi implica immediatamente che
Useremo anche, più raramente, il concetto di operatore anti-hermitiano, cioè tale che
A† = −A;
A∗ij = −Aji .
(2.52)
Proprietà degli operatori associati ad osservabili
Si vede immediatamente che l’operatore associato ad un’osservabile O Eq. (2.38) è autoaggiunto, infatti
i suoi elementi di matrice Eq. (2.41) soddisfano
†
Oij
= λ∗i δji = λi δij = Oij .
(2.53)
Tale proprietà non dipende dalla scelta di base. Infatti in una base qualunque
X
Oij = he0i |O|e0j i =
he0i |ek iλk hek |e0j i
k
=
X
∗
λk (he0j |ek ihek |e0i i)∗ = (he0j |O|e0i i)∗ = Oji
k
Abbiamo quindi dimostrato che un operatore con autovalori reali ed autovettori ortogonali è hermitiano (condizione sufficiente). Dimostriamo la condizione necessaria, cioè che se un operatore è hermitiano,
allora esso ha autovalori reali ed autovettori ortogonali.
Dimostriamo prima che gli autovalori sono reali. Notiamo che l’equazione agli autovalori Eq. (2.40)
implica immediatamente
hei |O|ei i = λi hei |ei i,
(2.54)
ossia
λi =
hei |O|ei i
.
hei |ei i
(2.55)
Ma
hei |O† |ei i = (hei |O|ei i)∗ ,
(2.56)
2.3 Operatori
25
quindi per un operatore hermitiano
hei |O|ei i = (hei |O|ei i)∗ .
(2.57)
D’altra parte, ricordiamo che hei |ei i ≥ 0 (reale), e quindi λi è reale perché sia il numeratore che il
denominatore dell’espressione a membro destro della Eq. (2.55) sono reali.
∗
hei |O|ei i
hei |O|ei i
hei |O† |ei i
∗
λi =
=
= λi
∗ =
hei |ei i
hei |ei i
hei |ei i
gli autovalori sono perciò reali.
Mostriamo ora che gli autovettori |ei i sono ortogonali, cioè che hei |ej i = δij (la normalizzazione può
essere fissata a piacere). Abbiamo che
hei |O|ej i = λj hei |ej i
hei |O† |ej i = λi hei |ej i,
(2.58)
(λi − λj )hei |ej i = 0.
(2.59)
e quindi se O = O†
Possiamo quindi distinguere due casi diversi:
• Caso non degenere: λi tutti diversi
La Eq. (2.59) implica immediatamente che se i 6= j, allora hei |ej i = 0, come si voleva dimostrare.
• Caso degenere: λi non tutti diversi
La Eq. (2.59) implica immediatamente che, dato un gruppo di autostati
|e1i i, |e2i i, ...|eni i = |eai ia<N
tutti associati allo stesso λi , essi soddisfano tutti hej |eai i = 0 se |ej i è associato ad un autovalore
diverso (appartengono quindi ad un sottospazio ortogonale a |ej i). Non possiamo dire nulla su
heai |eaj i. Ma se
O|eai i = λi |eai i
(2.60)
allora anche qualunque loro combinazione lineare è ancora autostato
X
X
O
ca |eai i = λi
ca |eai i .
a
(2.61)
a
Possiamo quindi applicare l’ortogonalizzazione di Gramm-Schmidt nel sottospazio dato:
|eai i
01
|ei i = c1 |e1i i
2
|e02
i i = c2 |ei i
tale che
n
|e0n
i
=
c
n |ei i
i
−
→
−
..
.
|e0a
i i
01
1 = he01
i |ei i
01 2
|e01
i ihei |ei i
X
(2.62)
2
= |c1 |
he1i |e1i i
0j n
|e0j
ihe
|e
i
i
i
i
(2.63)
(2.64)
(2.65)
j
dove gli n vettori sono già ortonormalizzati. Verifichiamo che sono ortogonali:
02
01 2
01 01
01 2
01 2
01 2
he01
i |ei i = c2 hei |ei i − hei |ei ihei |ei i = c2 hei |ei i − hei |ei i = 0
(2.66)
26
Concetti fondamentali
2.3.3
Operatori di proiezione
Un ulteriore tipo di operatore, utile per formulare il concetto di misura, è l’operatore di proiezione,
definito come
def
Ps = |SihS|.
(2.67)
P 2 = |SihS|SihS| = |SihS| = P,
(2.68)
Esso ha la proprietà che
ossia che l’operatore è idempotente. Ovviamente, l’operatore Ps è hermitiano. In effetti, si può equivalentemente definire operatore di proiezione un operatore tale che
P2 = P;
P † = P.
(2.69)
Un terzo modo di definire l’operatore di proiezione è come un operatore tale per cui, dato qualunque
stato |ψi, definita la decomposizione
|ψi = P |ψi + (I − P )|ψi + |αi + |βi
|αi = P |ψi;
(2.70)
|βi(I − P )|ψi
(2.71)
P |βi = 0.
(2.72)
si ha che
P |αi = |αi;
È facile vedere come le tre definizioni Eq. (2.67), Eq. (2.68) ed Eq. (2.72) di operatore di proiezione siano
equivalenti.
La misura può essere descritta in termini di proiezione: dato un sistema quantistico che si trova nello
stato |ψi, se una misura su di esso produce il risultato associato allo stato |Si, dopo la misura il sistema
si trova nello stato
|Si = N Ps |ψi,
(2.73)
dove N è una costante di normalizzazione.
La formulazione in termini di proiettori permette di descrivere l’effetto di una misura nel caso più
generale di una misura che può determinare solo se il sistema si trova o meno in un certo stato. Questa,
per sistemi di dimensione superiore a due (più di un qubit), è una misura incompleta, che non determina
completamente lo stato del sistema. In tal caso, se la misura dà come risultato che il sistema non è nello
stato |Si, allora dopo la misura il sistema è nello stato
|ψS̄ i = N PS̄ |ψi,
(2.74)
dove PS̄ è il proiettore sullo stato non-S, definito da
PS̄ = I − |SihS|
2.4
(2.75)
Postulati della meccanica quantistica
Possiamo ora riassumere i postulati (o principi di base) della meccanica quantistica. Vi sono varie
formulazioni, e non ci porremo il problema di dimostrarne l’equivalenza in senso formale. Basti dire che
i principi enunciati qui sono sufficienti per una formulazione completa della fisica quantistica, con la sola
aggiunta di un postulato sull’evoluzione temporale che vedremo più avanti.
• Postulato 1 Lo stato di un sistema quantistico è associato ad un vettore (vettore di stato), in uno
spazio in cui vale il principio di sovrapposizione ed è definito un prodotto scalare con le proprietà
elencate nella Sezione 2.2.1 (spazio di Hilbert).
2.4 Postulati della meccanica quantistica
27
• Postulato 2 Risultati possibili di misure sul sistema sono associati a stati esclusivi ed esaustivi che
costituiscono una base ortonomale. Questo postulato viene a volte formulato (equivalentemente,
come abbiamo visto) dicendo che ad ogni osservabile è associato un operatore hermitiano.
• Postulato 3 La misura di un sistema che si trova in uno stato |ψi produce uno degli stati |ei i associati
all’osservabile, con probabilità data da Pi = |hei |ψi|2 (regola di Born). Dopo la misura il sistema si
trova nello stato |ψi.
La prima ipotesi ci dice quali sono gli stati fisici dei sistemi; la seconda classifica l’informazione che
è possibile acquisire sui sistemi fisici, cioè quali siano le possibili misure, e la terza ipotesi ci dice cosa
succede quando si effettua una misura sul sistema. É stato dimostrato nel 2008 che l’ortogonalità degli
stati (secondo postulato) in combinazione con la seconda parte del terzo (dopo la misura il sistema si
trova nello stato), è equivalente a postulare che una misura ripetuta dia sempre lo stesso risultato, o,
ancora equivalentemente, che la misura sia una proiezione, con misure diverse corrispondenti a proiezioni
su sottospazi ortogonali. Possiamo quindi sostituire il secondo ed il terzo postulato con
• Postulato 2’ La misura proietta lo stato del sistema in un sottospazio; misure che danno risultati
distinti proiettano il sistema in sottospazi ortogonali.
• Postulato 3’ La probabilità della misura è il modulo quadro dell’ampiezza.
28
Concetti fondamentali
Capitolo 3
Proprietà quantistiche
3.1
3.1.1
Unitarietà
Cambiamenti di base
Abbiamo visto che sia stati che operatori possono essere rappresentati rispetto a diverse basi. Consideriamo uno stato |ψi e le due basi |ei i e |e0i i: nella prima base |ψi ha la forma
X
X
|ψi =
|ei ihei |ψi =
|ei icψ
(3.1)
i ,
i
i
e nella seconda
|ψi =
X
|e0i ihe0i |ψi =
X
i
|e0i ic0ψ
i .
(3.2)
i
Possiamo definire una matrice di cambiamento di base notando che
X
X
0
c0ψ
he0i |ej ihej |ψi =
Uij cψ
i = hei |ψi =
j
j
(3.3)
j
dove abbiamo definito
Uij = he0i |ej i.
(3.4)
Notiamo che si usa omettere l’indice della sommatoria quando c’è un indice ripetuto, quindi la Eq. (3.3)
viene spesso scritta come
ψ
c0ψ
i = Uij cj .
(3.5)
Possiamo analogamente definire un operatore U di cambiamento di base tale che
he0i |ψi = hei |U |ψi,
(3.6)
cioè tale che, agendo sullo stato |ψi, esso dia lo stato |ψ 0 i ≡ U |ψi le cui componenti nella base vecchia
sono uguali alle componenti dello stato di partenza |ψi nella base nuova:
he0i |ψi = hei |ψ 0 i.
Si vede immediatamente dalla Eq. (3.6) che tale operatore è dato da
X
U=
|em ihe0m |,
m
(3.7)
(3.8)
30
Proprietà quantistiche
infatti,
hei |U |ψi =
X
hei |em ihe0m |ψi = he0i |ψi.
(3.9)
m
Notiamo che gli elementi di matrice dell’operatore U Eq. (3.6) sono dati dalla Eq. (3.4) sia nella base
vecchia che nella base nuova:
X
Uij = hei |U |ej i = hei |
|em ihe0m |ej i = he0i |ej i
(3.10)
m
he0i |U |e0j i
Uij =
=
he0i |
X
|em ihe0m |e0j i = he0i |ej i.
(3.11)
m
Infatti
U=
X
|ei iUij hej | =
X
ij
=
X
ij
|e0i iUij he0j | =
X
ij
3.1.2
|ei ihe0i |ej ihej | =
X
|ei ihe0i |
(3.12)
|ei ihe0i |.
(3.13)
i
|e0i ihe0i |ej ihe0j | =
ij
X
i
Operatori unitari
L’operatore U ha la proprietà che
U† =
X
|e0m ihem |
(3.14)
m
da cui segue che
UU† =
XX
m
U †U =
X
|em ihem | = I
(3.15)
|e0i ihe0i | = I,
(3.16)
m
i
XX
m
|em ihe0m |e0i ihei | =
|e0m ihem |ei ihe0i | =
X
m
i
Un operatore che ha la proprietà
U U † = U †U = I
(3.17)
è detto unitario. Ne concludiamo che un cambiamento di base viene realizzato dall’azione di un operatore
unitario.
Gli operatori unitari conservano il prodotto scalare, e quindi in particolare la norma. Infatti, dati due
stati |ϕi, |ψi, e definita l’azione di un operatore unitario qualunque U su di essi
|ϕ0 i ≡ U |ϕi;
|ψ 0 i = U |ψi,
(3.18)
hψ 0 |ϕ0 i = hψ|U † U |ϕi = hψ|ϕi
(3.19)
abbiamo che
3.1.3
Trasformazioni unitarie di operatori
Un cambiamento di base coinvolge sia gli stati che gli operatori. L’azione di un cambiamento di base su
un operatore qualunque A, i cui elementi nella base |ei i sono
Aij = hei |A|ej i,
(3.20)
A0ij = he0i |A|e0j i = hei |U AU † |ej i = hei |A0 |ej i.
(3.21)
è la seguente:
3.2 Indeterminazione
31
Per ottenere il risultato abbiamo utilizzato il fatto che
hei |U = he0i |,
(3.22)
infatti
hei |U = hei |
X
|en ihe0n | =
n
X
δin he0n | = he0i |
(3.23)
n
e quindi
U † |ei i = |e0i i.
(3.24)
Pertanto sotto cambiamento di base l’operatore si trasforma come
A0 = U AU † = U AU −1 .
(3.25)
Questa è detta azione aggiunta della trasformazione unitaria.
Due operatori collegati da tale trasformazione, cioè due operatori A, B tali che B = U AU † si dicono
unitariamente equivalenti. È facile vedere che due operatori unitariamente equivalenti hanno lo stesso
spettro di autovalori. Infatti, siano |ek i autostati dell’operatore A con autovalori µk :
A|ek i = µk |ek i.
(3.26)
Si consideri ora l’operatore B = U AU † unitariamente equivalente ad A. Si ha che
A|ek i = AU −1 U |ek i = µk |ek i,
(3.27)
B|e0k i = U AU † U |ek i = µk |e0k i
(3.28)
e quindi gli stati |e0k i = U |ek i,
sono autostati di B con gli stessi autovalori.
3.2
3.2.1
Indeterminazione
Osservabili compatibili e incompatibili
Il fatto che una misura proietti il sistema su un autostato dell’operatore associato all’osservabile misurata
implica che la misura di due osservabili distinte, associate ad operatori A e A0 , produce risultati molto
diversi a seconda che essi ammettano o no una base comune di autostati. Supponiamo che
A|ei i = λi |ei i
A
0
|e0i i
=
λ0i |e0i i.
(3.29)
(3.30)
Supponiamo dapprima che |ei i = |e0i i, ossia che i due operatori ammettano una base comune di
autostati (seppure, in generale, con diversi autovalori, λ0i 6= λi ). In tal caso, se una misura di A fornisce
il valore λi , dopo la misura il sistema si trova nell’autostato |ei i. Misure ripetute danno sempre lo stesso
valore λi . Se dopo aver fatto questa misura di A si misura A0 , poiché abbiamo supposto che |ei i sia
anche autostato di A0 , ma con autovalore λ0i , la misura di A0 darà anch’essa sempre lo stesso valore, cioè
appunto λ0i . Quindi possiamo dire che dopo la misura di A il sistema si trova in uno stato per cui sia
l’osservabile A che l’osservabile A0 hanno un valore ben definito, λi e λ0i , rispettivamente.
Supponiamo invece che |ei i =
6 |e0i i in generale, ossia che in generale gli autostati dei due operatori
siano diversi fra di loro. In tal caso, dopo una misura di A il sistema si trova in un suo autostato |ei i.
Ma questo non è un autostato di A0 , quindi deve essere una sovrapposizione dei suoi autostati:
X
|ei i =
|e0k ihe0k |ei i.
(3.31)
k
32
Proprietà quantistiche
Pertanto se anche in questo caso si misura A0 dopo aver fatto la misura di A , il sistema verrà rivelato
nello stato |e0k i con probabilità |he0k |ei i|2 . Perciò, in tal caso il sistema non può avere un valore ben
definito di A ed A0 simultaneamente: se si misura A, dopo la misura il sistema è in una sovrapposizione
di stati associati a diversi valori di A0 , e viceversa. In particolare, se anche il sistema era in |ei i, una
misura di A0 rigenera anche componenti |ej i con j 6= 1, come abbiamo visto nella Sezione 2.2.3.
Due operatori sono detti compatibili se ammettono una base comune di autostati, ed incompatibili se
non ne ammettono alcuna. Concludiamo quindi che si può dire che un sistema abbia simultaneamente
un valore ben determinato di due osservabili diverse sono se esse sono compatibili.
3.2.2
Commutazione di operatori
Ci chiediamo sotto quali ipotesi due operatori associati ad osservabili (quindi hermitiani) siano compatibili
o no. A tal fine, introduciamo il commutatore di due operatori A e B definito come l’operatore
[A, B] ≡ AB − BA
(3.32)
[A, BC] = B[A, C] + [A, B]C = BAC − BCA + ABC − BAC = ABC − BCA.
(3.33)
Notiamo che si ha:
Talvolta è anche utile definire anche l’anticommutatore
{A, B} = AB + BA
(3.34)
Dimostriamo ora che due operatori A e B sono compatibili, cioé diagonalizzabili simultaneamente, se
e solo se il loro commutatore è nullo.
Dimostriamo prima la condizione necessaria. Consideriamo dunque i due operatori A e B tali che
A|ei i = λi |ei i
(3.35)
B|ei i = µi |ei i
(3.36)
Calcoliamo l’elemento di matrice del commutatore:
(AB − BA)ij = hei |AB − BA|ej i = (λi µi − λj µj )hei |ej i = 0.
(3.37)
Concludiamo che il commutatore ha tutti gli elementi di matrice nulli, ossia gli operatori commutano.
Possiamo ora dimostrare la condizione sufficiente. In questo caso, dobbiamo distinguere il caso degenere da quello non degenere. Consideriamo prima il caso non degenere, cioé con λ1i , λ2i tutti diversi tra
loro. Siano |ek i autostati di A:
A|ek i = λk |ek i.
(3.38)
Notiamo che allora hek |A = hek |λ∗k = hek |λk . Si ha quindi
0 = hei |[A, B]|ek i = λi hei |B|ek i − λk hei |B|ek i = (λi − λk )hei |B|ek i,
(3.39)
e quindi
(λi − λk )hei |B|ek i =
0
0
se i = k
,
se i =
6 k ⇔ hei |B|ek i = 0
(3.40)
ovvero, equivalentemente,
hei |B|ek i = δik hei |B|ek i
(3.41)
ossia
B=
X
ij
|ei iBij hej | =
X
i
|ei ihei |µi ,
(3.42)
3.2 Indeterminazione
33
con
µi = hei |B|ei i.
Ma questo vuol dire proprio che gli |ek i sono anche autostati di B, infatti
X
B|ek i =
µi |ei ihei |ek i = µk |ek i,
(3.43)
(3.44)
i
come si voleva dimostrare.
Consideriamo ora il caso degenere. Sia A un operatore A|ei i = λi |ei i, con un sottospazio di ket |eai i
di dimensione p associati tutti allo stesso autovalore λi . Se B commuta con A si ha
0 = heai |[A, B]|ej i = (λi − λj )heai |B|ej i
(3.45)
Se λi e λj sono diversi fra loro l’argomento si riduce a quello di prima. Che cosa succede invece nel
sottospazio degenere, in cui λi = λj ? In tal caso
0 = heai |[A, B]|ebi i = (λi − λi )heai |B|ebi i,
(3.46)
e l’elemento di matrice di B è dunque arbitrario.
Gli autostati di A non sono necessariamente autostati di B. Possiamo però fabbricare degli autostati,
ricordando che se gli |eai i sono autostati riferiti allo stesso autovalore, anche una loro combinazione lineare
lo è, come già visto. Ma allora possiamo diagonalizzare B nel sottospazio, ottenendo cosı̀ autostati |e0c
i i
tali che
X
c 0c
B|e0c
|eai iheai |e0c
(3.47)
i i=B
i i = µi |ei i
adeg
che restano autostati di A
0c
A|e0c
i i = λi |ei i
(3.48)
Se gli autovalori µci trovati sono diversi tra loro, la degenerazione si dice risolta.
Un insieme di operatori si dice completo se riesce a caratterizzare completamente uno stato. Ciò
significa che se un operatore A non permette di assegnare univocamente un determinato autovalore ad
un solo autostato, esiste un operatore B che invece lo permette. Per esempio, dati gli autovalori distinti
λ1 , λ2 , λ01 , λ02 , consideriamo il seguente insieme di operatori:
A = λ1 |e1 ihe1 | + λ2 |e2 ihe2 | + |e3 ihe3 |
(3.49)
0
0
B = λ1 |e1 ihe1 | + |e2 ihe2 | + λ2 |e3 ihe3 |.
(3.50)
Tale insieme di operatori è un insieme completo, perché la coppia di valori (λi , λ0j ) caratterizza completamente lo stato del sistema.
3.2.3
Il principio di indeterminazione
Per quantificare la dispersione dei risultati della misura di un’osservabile quando il sistema non si trova in
un suo autostato, definiamo l’indeterminazione dell’operatore nello stato |ψi come la deviazione standard
dei risultati dalla misura, e cioé
2
∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi .
(3.51)
hx2 i − hxi2 = h(x − hxi)2 i
(3.52)
Poiché vale la relazione:
34
Proprietà quantistiche
possiamo scrivere
2
∆2 Aψ = hψ| A − hψ|A|ψi |ψi.
(3.53)
È facile vedere che l’indeterminazione è proprio la deviazione standard, sviluppando su una base di
autostati |ei i di A associati agli autovalori λi :
X
X
X
X
hψ|A|ψi = hψ|A† |ψi =
hψ|A|ei ihei |ψi =
λi hψ|ei ihei |ψi =
λi |hei |ψi|2 =
λi Pi ,
(3.54)
i
i
i
i
e quindi
!2
2
∆ Aψ =
X
λ2i Pi
−
X
i
λi Pi
.
(3.55)
i
L’indeterminazione di un operatore A è nulla se e solo se lo stato |ψi in cui il sistema si trova è un
autostato di A: vale a dire ∆2 Aψ = 0 ⇔ A|ψi = λ|ψi. Dimostriamo prima la condizione sufficiente. Si
ha:
A2 |ψi = λ2 |ψi
(3.56)
2
∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi = λ2 hψ|ψi − λ2 hψ|ψi2 = λ2 − λ2 = 0
(3.57)
quindi
(supponendo che la norma di |ψi sia 1).
Veniamo ora alla condizione necessaria. Supponiamo che ∆2 Aψ = 0. Possiamo sempre supporre che
lo stato |ψi sia un elemento di una base ortonomale |ei i — basta che sia correttamente normalizzato.
2
2
Ricordando che A = A† e che il valor medio di un operatore è un numero reale, hei |A|ej i = hej |A|ei i ,
abbiamo
2 X
2
0 = hei |A2 |ei i − hei |A|ei i =
hei |A|ej ihej |A|ei i − hei |A|ei i
j
X
X
hei |A|ej i2 − hei |A|ei i2 =
hei |A|ej i2
=
j
i6=j
Ma una somma di moduli si può annullare solo se ciascuno di essi è uguale a 0, e quindi necessariamente
Aij si annulla se i 6= j, che significa appunto che |ei i è autostato di A.
Abbiamo visto che se due operatori non commutano, essi non possono essere simultaneamente diagonalizzati. Quindi, il risultato che abbiamo appena dimostrato implica che se due operatori non commutano,
allora il sistema deve necessariamente trovarsi in uno stato in cui almeno uno dei due ha indeterminazione
diversa da zero. Possiamo in effetti dimostrare che l’indeterminazione di una coppia di operatori deve
sempre soddisfare una disuguaglianza: il principio di indeterminazione.
Prima di arrivare al principio di indeterminazione abbiamo bisogno di alcune disuguaglianze preliminari. Per prima cosa, dimostriamo la Disuguaglianza di Schwarz: Dati due operatori autoaggiunti A,
B,
hψ|AB|ψi2 ≤ hψ|A2 |ψihψ|B 2 |ψi,
(3.58)
che possiamo riscrivere definendo gli stati |αi e |βi
A|ψi = |αi e B|ψi = β,
in termini dei quali la Eq. (3.58) prende la forma
hα|βi2 ≤ hα|αihβ|βi.
(3.59)
(3.60)
3.2 Indeterminazione
35
In questa forma, la disuguaglianza è la consueta disuguaglianza triangolare, che afferma che il prodotto
scalare di due vettori è al più pari al prodotto delle loro lunghezze.
Decomponiamo ora il ket |αi separando la parte lungo |βi:
|αi = z|βi + |δi,
(3.61)
hβ|αi = zhβ|βi + hβ|δi = zhβ|βi,
(3.62)
dove |δi è tale che hβ|δi = 0. Ne segue che
e quindi
z=
hβ|αi
.
hβ|βi
(3.63)
Vediamo quindi facilmente che
2
hα|αi = |z| hβ|βi + hδ|δi =
hβ|αi2
hβ|βi
+ hδ|δi,
dove nel secondo passaggio abbiamo usato la Eq. (3.63). Pertanto,
2
2
hα|αihβ|βi = hβ|αi + hδ|δihβ|βi ≥ hβ|αi ,
(3.64)
(3.65)
ossia
hα|βi2 ≤ hα|αihβ|βi,
(3.66)
che è appunto la disuguaglianza di Schwarz.
Dimostriamo quindi una seconda disuguaglianza ausiliaria:
hψ|AB|ψi2 ≥ 1 hψ|[A, B]|ψi2
4
(3.67)
A tal fine, osserviamo innanzitutto che
AB =
1
1
1
1
(AB − BA) + (AB + BA) = [A, B] + {A, B}
2
2
2
2
Notiamo quindi che {A, B} è hermitiano mentre [A, B] è antihermitiano, cioé:
†
{A, B} = {A, B}
(3.68)
(3.69)
mentre
†
[A, B] = −[A, B].
(3.70)
Ma ora osserviamo che l’elemento di matrice di un operatore hermitiano è reale, mentre l’elemento di
matrice di un operatore antihermitiano è immaginario puro. Infatti se X = X †
hψ|X † |ψi = (hψ|X|ψi)∗ = hψ|X|ψi,
(3.71)
dove nel primo passaggio abbiamo usato la definizione di aggiunto e nel secondo l’hermiticità. Analogamente se Y = −Y †
hψ|Y † |ψi = (hψ|Y |ψi)∗ = −hψ|Y |ψi.
(3.72)
Di conseguenza, se z = hψ|AB|ψi,
1
hψ|{A, B}|ψi
2
1
iy ≡ iIm z = hψ|[A, B]|ψi,
2
x ≡ Re z =
(3.73)
(3.74)
36
Proprietà quantistiche
e, di conseguenza,
hψ|AB|ψi2 = |z|2 = x2 + y 2 ≥ y 2 = 1 hψ|[A, B]|ψi2 = 1 hψ|[A, B]|ψi2 .
2
4
(3.75)
Combinando le due disuguaglianze Eq. (3.66) ed Eq. (3.67) possiamo dimostrare ora il principio di
indeterminazione, che dice che per ogni coppia di operatori hermitiani C, D,
∆2 Cψ ∆2 Dψ ≥
2
1 hψ|[C, D]|ψi .
4
(3.76)
Combinando le Eq. (3.66), Eq. (3.67) abbiamo infatti
hψ|A2 |ψihψ|B 2 |ψi ≥
2
1 hψ|[A, B]|ψi
4
(3.77)
valida per ogni coppia A,B di operatori hermitiani. In particolare, definiti
A ≡ C − hCi,
B ≡ D − hDi,
(3.78)
hψ|B 2 |ψi = ∆2 Dψ ,
(3.79)
abbiamo
hψ|A2 |ψi = ∆2 Cψ ;
e
[A, B] = [C − hCi, D − hDi] = [C, D],
(3.80)
da cui
∆2 Cψ ∆2 Dψ ≥
2
1 hψ|[C, D]|ψi ,
4
(3.81)
come si voleva dimostrare.
3.3
3.3.1
Informazione quantistica
L’informazione in un qubit
Qual è la maggior quantità di informazione che è possibile estrarre da un sistema quantistico? Consideriamo il ket di stato per un sistema a due livelli
|ψi = a+ |+i + a− |−i.
(3.82)
Quanta informazione contiene, e come possiamo estrarla?
A priori, lo stato Eq. (3.82) è determinato dai due coefficienti complessi a± , quindi da quattro numeri
reali. Di questi però uno è determinato per normalizzazione. Inoltre, osserviamo che la fase globale di
|ψi non è misurabile. Infatti, la probabilità di qualunque misura è
Pi = |hei |ψi|2 ,
(3.83)
e quindi è invariante sotto la trasformazione |ψi → eiθ |ψi. La classe di equivalenza di stati che differiscono
per una fase è nota come raggio in uno spazio di Hilbert. Quindi più propriamente gli stati di un sistema
quantistico non sono vettori, bensı̀ raggi, cioè classi di equivalenza di vettori, in uno spazio di Hilbert.
Ne concludiamo quindi che l’informazione contenuta nello stato |ψi è parametrizzata da due numeri
reali, i due coefficienti complessi a meno della normalizzazione e della fase relativa, che possiamo quindi
scegliere ad esempio come
a+ = ρ
2
(3.84)
1
2
iθ
a− = (1 − ρ ) e ,
(3.85)
3.3 Informazione quantistica
37
Questi coefficienti ci danno solo la probabilità dei risultati di misure. Però supponendo di poter preparare
tanti sistemi tutti nello stesso stato (ad esempio, tante molecole nell’esperimento di Zeilinger ed Arndt,
tutte nello stesso stato iniziale), possiamo cercare di determinare questi coefficienti.
Se sappiamo di avere a che fare con un sistema che è appena stato preparato attraverso la misura di
una osservabile, ci basta eseguire una nuova misura della stessa osservabile per determinare in che stato
il sistema si trova. Infatti, sappiamo che si deve trovare in un autostato dell’osservabile, e una misura
ripetuta lo rivelerà nell’autostato nel quale la prima misura lo ha posto con probabilità 100%. Nel caso
di degenerazione, naturalmente, servirà un insieme completo di osservabili. Ma se non sappiamo in che
stato il sistema è stato preparato, oppure il sistema è cambiato nel tempo dopo la preparazione, vi sarà
una distribuzione di probabilità di risultati possiibil per la misura di qualunque osservabile.
Consideriamo inizialmente una osservabile A, e scegliamo gli autovettori di base |±i come i suoi
autovettori:
A = λ+ |+ih+| + λ− |−ih−|
(3.86)
Il valor medio di questa osservabile nello stato del sistema è
hψ|A|ψi = hAi = P+ λ+ + P− λ− ,
(3.87)
con
P+ = |a+ |2 ,
P− = |a− |2 .
(3.88)
Queste probabilità sono interamente determinate dal valor medio:
λ+ P+ + λ− P− = hAi
P+ + P− = 1.
(3.89)
(3.90)
Quindi, per un sistema bipartito, la misura del valor medio di un’osservabile determina interamente la
distribuzione di probabilità dei risultati della misura di quella osservabile. Non possiamo però apprendere
nulla sulla fase relativa, visto che qualunque misura di A non ne dipende.
Per avere ulteriori informazioni sul sistema siamo obbligati a effettuare misure di (almeno) un’altra
osservabile, incompatibile con A. Infatti, se consideriamo invece una nuova osservabile A0 compatibile
con A abbiamo
A0 = λ0+ |+ih+| + λ0− |−ih−|,
(3.91)
hA0 i = P+ λ0+ + P− λ0− ,
(3.92)
da cui
che nuovamente ci permette di determinare P+ e P− , ma non la fase relativa. Ci chiediamo quindi quali
misure determinano lo stato completamente.
3.3.2
La matrice densità
Le misure di valor medio che abbiamo visto finora possono essere caratterizzate in termini dell’operatore
densità o matrice densità del sistema. La matrice (od operatore) densità per un sistema che si trova in
uno stato |ψi è per definizione l’operatore
ρψ = |ψihψ|
(3.93)
che è ovviamente hermitiano.
La matrice densità permette di caratterizzare facilmente il valor medio delle misura di osservabili sul
sistema: abbiamo infatti che
hAi = Tr(Aρ),
(3.94)
38
Proprietà quantistiche
dove la traccia di un generico operatore O, che denotiamo Tr(O), è definita come
Tr(O) =
X
hei |O|ei i,
(3.95)
i
dove |ei i è una qualunque base ortonormale per il sistema.
Per vedere questo, supponiamo dapprima che |ei i siano autostati di A, A|ei i = λi |ei i. Allora
Tr(Aρ) =
X
X
X
X 2 X
hei |Aρ|ei i =
hei |A|ψihψ|ei i =
λi hei |ψihψ|ei i =
λi hei |ψi =
λi Pi = hAi.
i
i
i
i
i
(3.96)
Ma ora osserviamo che la traccia è indipendente dalla base. Per vederlo, notiamo prima che la traccia è
ciclica, cioé è invariante per permutazioni:
Tr(O1 O2 · · · On ) = Tr(Oσ(1) Oσ(2) . . . Oσ(n) )
dove (σ(1), σ(2), . . . σ(n)) è una permutazione ciclica di (1, 2, . . . n).
riferendoci per semplicità al al caso di n = 2 operatori abbiamo che
X
= hei |O1 O2 |ei i =
i
X
hei |O1 |ej ihej |O2 |ei i =
ij
X
(3.97)
Questo si dimostra facilmente:
hej |O2 |ei ihei |O1 |ej i =
ij
X
hej |O2 O1 |ej i.
(3.98)
j
Allora, notando che sotto cambiamenti di base O → U OU † , dove U è un operatore unitario, concludiamo
che
Tr(U OU † ) = Tr(U † U O) = Tr(O),
(3.99)
quindi la traccia non dipende dalla base.
Concludiamo quindi che la proprietà data dalla Eq. (3.96) è vera indipendentemente dalla scelta di
base, e quindi
Tr(Aρ) =
X
he0i | (A|ψihψ|) |e0i i = hψ|A|ψi.
(3.100)
Stati puri e stati misti
Il formalismo della matrice densità permette di descrivere anche la situazione in cui si ha informazione
incompleta sullo stato di un sistema quantistico, cioè la situazione in cui, anziché sapere che il sistema si
trova nello stato |ψi, possiamo solo dire che il sistema ha una certa probabilità Pi di trovarsi in ciascuno
degli stati |ψi i. Questo è l’analogo quantistico della situazione statistica classica, in cui il sistema è un
ensemble di sottosistemi (ad esempio, un insieme di particelle), e sono note solo le proprietà collettive di
questo ensemble.
Distinguiamo quindi due situazioni. Nella prima, il sistema si trova in uno stato puro |ψi, vale a dire
che sappiamo esattamente in che stato si trovi il sistema, nel qual caso la matrice densità è
ρ = |ψihψ|.
(3.101)
La possibilità alternativa è che il sistema si trovi in uno stato misto (o una miscela di stati), cioè in
ciascuno degli stati |ψi i con probabiltà Pi . In tal caso, la matrice densità è
ρ=
X
Pi |ψi ihψi | =
i
dove nell’ultimo passaggio abbiamo posto ρi = |ψi ihψi |.
X
i
Pi ρ i ,
(3.102)
3.3 Informazione quantistica
39
In questa situazione più generale, la matrice densità permette di calcolare il valore medio di qualunque misura, che è sempre dato dalla Eq. (3.94), purchè gli stati |ψi i siano correttamente normalizzati:
hψi |ψi i = 1. Notiamo che questo resta vero anche se gli stati |ψi i non sono ortogonali. Abbiamo infatti
X
X
X
hAi = Tr(Aρ) =
hej |Aρ|ej i =
hej |A|ψi ihψi |ej iPi =
hψi |ej ihej |A|ψi iPi
j
ij
ij
X
=
hψi |A|ψi iPi ,
i
che è la media pesata dalla probabilità Pi della media in ciascuno degli n stati |ψi i.
Questo è vero anche quando gli stati |ψi i non sono ortogonali perché la matrice densità per uno
stato misto corrisponde ad una miscela classica di stati, non ad una sovrapposizione quantistica. In una
sovrapposizione quantistica, il risultato di una misura è o l’uno, o l’altro, e quindi gli stati devono essere
ortogonali. In una sovrapposizione classica, si sta solo dicendo che c’è una certa probabilità che i risultati
siano caratterizzati da un dato valoro medio. In tal caso caso, basta che le corrispondenti probabilità
sommino ad uno, ma ovviamente i risultati delle misure,0 essendo a loro volta dei valori medi, non devono
necessariamente essere esclusivi.
Possiamo illustrare la differenza tra uno stato sovrapposizione ed una miscela statistica con un semplice
esempio. Un esempio di stato (puro) sovrapposizione è lo stato
1
|ψ1 i = √ |+i + |−i ,
2
ρψ1 = |ψ1 ihψ1 |
Questo stato è autostato dell’operatore la cui matrice nella base degli stati |±i è data da
0 1
A=
1 0
Pertanto una misura di A produce il risultato
Tr(Aρψ1 ) = hAiψ1 = hψ1 |A|ψ1 i = 1
Infatti facendo la misura troviamo sempre l’autovalore corrispondente e tale autovalore è uguale a 1.
Un esempio di stato misto è uno stato che ha il 50% di probabilità di essere in |+i e il 50% di essere
in |−i, per cui
1
1
ρm = |+ih+| + |−ih−|.
2
2
La misura di A in questo stato produce il risultato
Tr(Aρm ) =
1
1
h+|A|+i + h−|A|−i = 0.
2
2
Vediamo quindi che il valor medio della misura di A dà risultati diversi, mostrando cosı̀ la differenza tra
miscela statistica e sovrapposizione quantistica.
È da notare tuttavia che una misura dell’operatore
1 0
B=
,
0 −1
i cui autostati sono gli stati |±i dà invece lo stesso risultato sia per lo stato puro che per lo stato misto
in esame, infatti
Tr(Bρm ) = Tr(Bρψ1 ) = 0.
Infatti, in entrambi i casi una misura ha il 50% di rivelare il sistema nello stato |+i ed il 50% di rivelarlo
il sistema nello stato |−i. Quindi è possibile distinguere tra uno stato puro ed uno stato misto, ma non
è detto che una misura qualunque lo permetta.
Come possiamo ora caratterizzare la matrice densità? Non sempre è immediato determinare se una
particolare matrice densità corrisponda a stati puri oppure a stati misti. Possiamo però andare a vedere
40
Proprietà quantistiche
come è fatta ρ2 . È facile vedere che se il sistema è in uno stato puro, allora ρ2 = ρ. Infatti, per uno stato
puro
ρ2 = |ψihψ|ψihψ| = |ψihψ| = ρ.
(3.103)
La condizione è anche necessaria. Per capirlo, osserviamo che
Tr(ρ) = 1.
(3.104)
Infatti
Tr(ρ) =
X
X
X
hei |ψj ihψj |ei iPi =
Pi hψi |ψi i =
Pi = 1.
i,j
i
(3.105)
i
Ma


X
X
X
Tr(ρ2 ) = Tr 
|ψi ihψi |ψj ihψj | Pi Pj =
hek |ψi ihψi |ψj ihψj |ek iPi Pj =
|hψi |ψj i|2 Pi Pj . (3.106)
ij
ij
ijk
Se lo stato è misto, la sommatoria contiene più di un termine e quindi possiamo scrivere

!
X
X
X
X
X
X
X
Pj  = 1,
Pi 
Tr(ρ2 ) =
Pi2 +
Pi Pj |hψi |ψj i|2 <
Pi2 +
Pi Pj =
Pi Pj =
i
i6=j
i
i6=j
ij
i
j
(3.107)
dove abbiamo sfruttato il fatto che hψi |ψj i < 1 se i 6= j e i due ket sono entrambi normalizzati, in
conseguenza della disuguaglianza triangolare Eq. (3.60). L’unico modo di avere una uguaglianza, anziché
una disuguaglianza stretta è che il termine con i 6= j sia assente, cioé che la somma abbia un solo termine.
Se vi sono più termini, e quindi lo stato è misto, allora la Eq. (3.107) mostra che ρ2 ha traccia diversa
da ρ, e quindi non può essere uguale a ρ. Dunque per uno stato misto ρ2 6= ρ e la condizione ρ2 = ρ è
necessaria e sufficiente affinché lo stato sia puro.
Concludiamo pertanto che uno stato è puro se e solo se la matrice densità è un operatore di proiezione.
Naturalmente, possiamo in modo del tutto equivalente usare la condizione sulla traccia per caratterizzare
lo stato, in quanto l’argomento precedente implica che
= 1 stato puro
2
Tr(ρ )
(3.108)
< 1 stato misto
Nel caso particolare di un sistema bipartito vi è un altro criterio. Infatti, in questo caso in ogni base vi
sono solo due vettori. Quindi, un operatore di proiezione è caratterizzato dal fatto di avere un autovettore
pari ad uno (lo stato su cui si proietta) e un altro uguale a zero (lo stato ad esso ortogonale). Quindi,
una matrice densità (cioé una matrice hermitiana con traccia uguale ad uno) con un autovalore nullo é
automaticamente un’operatore di proiezione, e perciò corrisponde ad uno stato puro. Ne segue che per
un sistema bipartito uno stato è puro se e solo se
Y
det(ρ) =
Pi = 0.
(3.109)
i
Notiamo che per un sistema con N > 2 stati la condizione è necessaria ma non sufficiente: infatti il determinante potrebbe annullarsi per uno degli stati, ma il sistema potrebbe essere misto, e sovrapposizione
dei restanti N − 1 stati.
3.3.3
La più generale misura
In definitiva, una misura è interamente specificata noto l’operatore associato all’osservabile che viene
misurata, e la matrice densità associata allo stato (puro o misto) in cui il sistema si trova. Ma la più
generale osservabile è il più generale operatore hermitiano, e la più generale matrice densità è il più
generale operatore hermitiano con traccia uguale ad uno, e, per uno stato puro, tale che il suo quadrato
è uguale a se stesso. Per un sistema bipartito è facile caratterizzare questi oggetti nel caso più generale.
3.3 Informazione quantistica
41
Matrici di Pauli
Per un sistema bipartito, sia la matrice densità che un operatore generico possono essere rappresentati
come una matrice hermitiana due per due, in una qualunque base. Una generica matrice hermitiana due
per due Mij è caratterizzata da quattro parametri reali: infatti, i suoi due elementi diagonali sono reali,
Mii = Mii† = Mii∗ , con i = 1, 2, mentre i sue due elementi non-diagonali sono uno il complesso coniugato
†
∗
= M21
. Conviene quindi introdurre un insieme di quattro matrici hermitiane due
dell’altro M12 = M12
per due linearmente indipendenti (tali cioè che nessuna di esse possa essere ottenuta come combinazione
lineare delle altre.
Una scelta convenienmte è data dalla matrice identità e della tre matrici di Pauli definite come:
1 0
I=
(3.110)
0 1
0 1
σ1 =
(3.111)
1 0
0 −i
σ2 =
(3.112)
i 0
1 0
σ3 =
,
(3.113)
0 −1
che indichiamo collettivamente come σi , supponendo che i = 0, 1, 2, 3 e ponendo convenzionalmente
σ0 = I.
Queste quattro matrici hanno l’utile proprietà
0 i 6= j
Tr(σi σj ) =
,
(3.114)
2 i=j
che segue dal fatto che per i = 1, 2, 3 il prodotto di due qualunque di queste matrici diverse fra di loro è
proporionale ad un’altra di esse mentre
Trσi = 0,
(3.115)
σi2 = I.
(3.116)
e che per i = 0, 1, 2, 3
Possiamo interpretare la Eq. (3.114) come una relazione di ortonormalità, interpretando la traccia del
prodotto di due matrici come un prodotto scalare far di esse.
In termini di matrici di Pauli, una generica matrice hermitiana può essere scritta come
a + b3 b1 − ib2
M = aI + ~b · ~σ = aI + b1 σ1 + b2 σ2 + b3 σ3 =
.
(3.117)
b1 + ib2 a − b3
Questa è dunque la più generale osservabile.
La più generale matrice densità deve soddisfare l’ulteriore condizione che la sua traccia sia pari a 1.
Ma
Tr(M ) = 2a,
(3.118)
quindi la più generale matrice densità può essere scritta nella forma della Eq. (3.117), ma con a =
Possiamo utilmente riscrivere questo risultato nella forma
ρ=
dove quindi p~ = 2~b.
1
(I + p~ · ~σ ),
2
1
2.
(3.119)
42
Proprietà quantistiche
Infine, la matrice densità per uno stato puro nel caso bipartito deve soddisfare la condizione che il suo
determinante si annulli. Ma
det(ρ) =
1
1
(1 − p21 − p22 − p23 ) = 1 − |~
p|2
4
4
(3.120)
quindi uno stato puro ha una matrice densità della forma Eq. (3.119), ma con
|~
p| = 1.
(3.121)
Ne segue che generica matrice densità per uno stato puro è caratterizzata da due numeri reali, in
quanto trovati due elementi del vettore p~ il terzo è determinato dalla condizione Eq. (3.121), in accordo
con la nostra conclsuione che un generico stato quantistico (puro) è determinato da due numeri reali.
Determinazione dello stato
Possiamo ora rispondere alla domanda che ci siamo posti al termine della sezione 3.3.1, e cioè come si
può determinare completamente lo stato di un sistema supponendo di poter preparare molti sistemi nello
stesso stato, ed eseguire misure ripetute su di essi. Utilizzando la Eq. (3.114) vediamo immediatamente
che il valor medio della misura di una osservabile il cui operatore è una matrice di Pauli è
1
(I + p~ · ~σ )σi = pi .
(3.122)
Tr(ρσi ) = Tr
2
Quindi per determinare completamente uno stato è sufficiente essere in grado di effettuare misure ripetute
di una coppia di osservabili che siano linearmente indipendenti se sviluppate su una base di matrici di
Pauli.
Le considerazioni fatte fin qui per i sistemi di un qubit possono essere estese a sistemi più complicati
considerando sistemi di molti qubit, ossia sistemi il cui vettore di stato è il prodotto diretto di tanti ket
|ψii , ciascuno dei quali è uno stato che vive in uno spazio a due livelli:
|Ψi = |ψi1 ⊗ |φi2 ⊗ · · · ⊗ |χin ,
(3.123)
ed in generale gli stati nei vari sottospazi sono diversi fra loro.
3.3.4
No-Cloning Theorem
Abbiamo visto che è possibile determinare completamente lo stato di un sistema se si suppone di poter
preparare un numero arbitrariamente grande di sistemi in quello stato, ed effettuando misure ripetute
su di essi. Per esempio, nell’esperimento di Zeilinger possiamo misurare la distribuzione di probabilità
di arrivo delle molecole sullo schermo ripetendo la misura con tante molecole. Se le molecole sono tutte
preparate nello stesso stato, questa probabilità è determinata dal vettore di stato del sistema.
Ci si può chiedere se ciò sia possibile su un sistema unico, “clonando” lo stato. L’idea è la seguente.
Supponiamo che il sistema sia in uno stato di tanti qubit, della forma della Eq. (3.123), e che esso si trovi
in uno stato
|Ψi = |φi1 ⊗ |xi2 ⊗ · · · ⊗ |xin ,
(3.124)
dove gli stati |xii sono stati sconosciuti qualunque. Supponiamo che esista una macchina, ossia un’evoluzione unitaria, che prende tale stato, e lo fa evolvere nello stato
|Ξi = |φi1 ⊗ |φi2 ⊗ · · · ⊗ |φin .
(3.125)
Chiamiamo questa macchina un quantum cloning device, in quanto essa ha copiato lo stato |φi1 dal primo
sottosistema a tutti gli altri.
Se questa macchina esiste, è chiaro che possiamo eseguire una unica misura sullo stato |Ξi Eq. (3.125)
che determina completamente lo stato |φi, purchè il numero di sottosistemi sia sufficientemente grande,
misurando due osservabili ortogonali (due matrici di Pauli) ciascuno sulla metà dei sottosistemi.
3.3 Informazione quantistica
43
Ma ciò non è possibile1 , come si vede considerando il caso più semplice di due sottosistemi. In tal
caso, ci chiediamo se esista un operatore unitario tale che per qualunque stato
|αi = U (|ψi ⊗ |xi) = |ψi ⊗ |ψi.
(3.126)
Visto che ciò deve essere vero per qualunque stato, allora anche
|βi = U (|ϕi ⊗ |xi) = |ϕi ⊗ |ϕi.
(3.127)
Ma se l’operatore U che realizza la clonazione è unitario il prodotto scalare tra gli stati αi e βi prima e
dopo la “clonazione” deve restare invariato:
hβ|αi = hϕ|ψihx|xi = hψ|ϕihψ|ϕi,
(3.128)
dove il primo risultato è calcolato prima della clonazione, ed il secondo, dopo. Usando la condizione di
normalizzazione hx|xi = 1 si ottiene
2
hϕ|ψi = hϕ|ψi
(3.129)
il che comporta
hϕ|ψi = 1
oppure hϕ|ψi = 0.
(3.130)
Si possono quindi clonare gli stati di una base ortonormale. Ma questo non aggiunge nulla a quanto si
può fare con una misura: se sappiamo che lo stato che ci viene dato è uno o l’altro di una certa base
ortormale, allora possiamo determinare quale eseguendo una misura, e quindi “clonarlo” eseguendo la
stessa misura sugli altri stati e scartando gli stati per i quali la misura non dà il risultato desiderato. Ma
non può esistere un dispositivo che cloni uno stato generico.
Ne concludiamo che le misure quantistiche sono inevitabilmente distruttive. Il singolo stato non ha
una realtà fisica: non contiene nient’altro che informazione sui risultati delle misure ripetute, ciascuna
delle quali è intrinsecamente probabilistica.
1 W.K Wootters e W.H Zurek, A Single Quantum Cannot be Cloned, Nature 299 (1982), 802; D. Dieks, Communication
by EPR devices, Phys. Lett. A92 (1982) 271.
44
Proprietà quantistiche
Capitolo 4
Quantizzazione canonica: la
meccanica quantistica
Giunti a questo punto, possiamo cominciare a costruire la meccanica quantistica. Applichiamo cioè i
principi di base discussi fino ad ora alla meccanica. I sistemi di cui ci occupiamo a partire da questo
momento vivono in uno spazio delle configurazioni: l’osservabile di base è la posizione, da cui possiamo
tentare di derivare l’altra osservabile che caratterizza completamente lo spazio delle configurazioni classico,
ossia la velocità, o l’impulso. Questo comporta qualche complicazione formale perché lo spazio delle
configurazioni ha dimensione infinita, con la potenza del continuo.
Costruiamo dapprima le osservabili posizione ed impulso, secondo un procedimento che va sotto il
nome di quantizzazione canonica (ossia standard), che ci permette di costruire gli operatori quantistici
associati alle osservabili meccaniche. Questo porta naturalmente alla versione quantistica della formulazione Hamiltoniana della meccanica. Costruiamo quindi, con lo stesso procedimento, le leggi del moto
che forniscono la dipendenza temporale del sistema, e sono quindi l’analogo quantistico delle leggi del
moto classiche.
4.1
La rappresentazione delle coordinate
Consideriamo un sistema per il quale l’osservabile è la posizione. Per semplicità, consideriamo il caso
unidimensionale: la posizione del sistema può essere pensata come un punto su una retta, oppure una
posizione descritta da una coordinata lagrangiana generalizzata.
In qualunque situazione realistica, nessuna posizione può essere misurata con accuratezza infinita, né
può essere misurata in tutto lo spazio: quindi strettamente parlando l’insieme delle posizioni è sempre
finito, la posizione pùo solo essere assegnata su un segmento di lunghezza finita, diviso in intervalli di
larghezza pari alla risoluzione dell’apparato di miusro. Lavorare con un numero finito di stati comporterebbe un maggiore rigore matematico, ma una notevole complicazione pratica: per esempio, la velocità,
che è una derivata, diventa una differenza finita. Quindi in pratica risulta più comodo supporre che il
sistema vive nel continuo; il prezzo da pagare è una maggior complicazione (od un minor rigore) del
formalismo dal punto di vista matematico
4.1.1
L’operatore posizione
Consideriamo quindi un sistema che vive in uno spazio unidimensionale, per cui l’osservabile è la posizione,
dimodoché il ket di stato |ψi fornisce l’ampiezza di probabilità di misure di posizione. Definiamo quindi
un operatore posizione x̂, i cui autostati |xi corrispondono a stati di definita posizione, ed in cui autovalori
x ad essi relativi forniscono il valore della posizione stessa:
x̂|xi = x|xi.
(4.1)
46
Quantizzazione canonica: la meccanica quantistica
Il significato di questa scrittura è che noi stiamo supponendo che esista un sistema (quantistico) di cui
possiamo misurare la posizione, che chiamiamo x. I postulati della meccanica quantistica ci dicono che
dopo una misura di posizione questo sistema si trova in uno stato ben determinato: chiamiamo |xi lo stato
in cui si trova qujando la misura di posizione dà come risultato x. Definiamo inoltre x̂ come l’operatore
hermitiano i cui autovettori ed autovalori sono rispettivamente |xi ed x. Quindi, la Eq. (4.1) va presa
come la definizione dell’operatore posizione.
La componente di uno stato generico |ψi lungo il vettore |xi, autostato della posizione, è
hx|ψi = ψ(x).
Al solito, il modulo quadro di questa componente
ψ(x)2 = hx|ψi2 = p(x)
(4.2)
(4.3)
è la probabilità che il sistema si trovi nel punto x. Osserviamo tuttavia che, visto che x è una variabile
continua, p(x) è una densità di probabilità, anziché una probabilità vera e propria, che si ottiene da essa
per integrazione. Infatti, la probabilità che il sistema si trovi tra x e x + ∆ è data da
Z x+∆
2
(4.4)
P∆ [x, x + ∆] =
dx0 ψ(x0 ) .
x
La funzione ψ(x) Eq. (4.2) è detta funzione d’onda del sistema. Una descrizione matematicamente
rigorosa dello spazio degli stati fisici per un sistema siffatto richiede il concetto di “ spazio di Hilbert
equipaggiato”. Non approfondiremo questi aspetti matematici, e ci accontenteremo del formalismo introdotto negli anni ’30 da Dirac per descrivere questa situazione, che fu messo su basi matematiche solide
solo molto più tardi, negli anni ’50.
4.1.2
La distribuzione delta di Dirac
Ci chiediamo cosa diventino nel caso infinito-dimensionale la relazione di completezza e la condizione di
ortonormalizzazione degli stati.
Se gli autostati della posizione
fossero un insieme discreto, potremmo scrivere una relazione di
P
completezza della forma |ψi = i |ei ihei |ψi decomponendo |ψi come:
X
X
|ψi =
|xi ihxi |ψi =
ψ(xi )|xi i.
(4.5)
i
i
Nel limite continuo questa diventa
Z
|ψi =
Z
dx|xihx|ψi =
dx ψ(x)|xi :
(4.6)
Questa scrittura ci obbliga ad introdurre un oggetto peculiare, la delta di Dirac. Si tratta di un oggetto
matematico che prende il nome di distribuzione; la teoria fu costruita negli anni ’50, principalmente grazie
a Laurent Schwartz (1925-2002). Per capirne la necessità, scriviamo l’elemento di matrice di |ψi su un
autostato della posizione utilizzando la risoluzione dell’identità appena introdotta:
Z
Z
0
0
0
ψ(x) = hx|ψi = dx hx|x ihx |ψi = dx0 hx|x0 iψ(x0 ).
(4.7)
Ma la funzione d’onda ψ(x) è una qualunque funzione a valori complessi di una variabile reale. Deve
quindi esistere una quantità
hx0 |xi ≡ δ(x0 , x).
(4.8)
tale che
f (x0 ) =
Z
dx f (x)δ(x0 , x),
(4.9)
4.1 La rappresentazione delle coordinate
47
Properietà della delta
La definizione Eq. (4.9) implica diverse proprietà interessanti:
1. Normalizzazione:
Z
dx δ(x, x0 ) = 1.
(4.10)
Dimostrazione: segue dalla Eq. (4.9) quando f (x) = 1.
2. Invarianza per traslazioni:
δ(x0 , x) = δ(x0 + a, x + a)
Dimostrazione:
Z ∞
Z
0
0
0
dx δ(x + a, x + a)f (x ) =
−∞
∞
0
0
0
(4.11)
Z
∞
dx hx + a|x + aif (x ) =
−∞
dx00 hx + a|x00 if (x00 − a)
−∞
(4.12)
avendo posto x00 = x0 + a. Ma
Z ∞
Z
00
00
00
dx hx + a|x if (x − a) = dx00 δ(x + a, x00 )f (x00 − a) = f (x + a − a) = f (x).
(4.13)
−∞
Questa proprietà implica, equivalentemente, che la delta non dipende separatamente da x e da x0 ,
ma solo dalla loro differenza. D’ora in poi quindi scriveremo la delta come funzione di un unico
argomento: δ(x − x0 ).
3. Simmetria
δ(x0 − x) = δ(x − x0 ).
Dimostrazione: usando nuovamente la completezza
Z
Z
0
0
0
hψ|xi = dx hψ|x ihx |xi = dx0 ψ ∗ (x0 )δ(x0 , x) = ψ ∗ (x).
(4.14)
(4.15)
Ma la ψ(x) è una funzione qualunque quindi confrontando con la definizione Eq. (4.9) ne segue
l’asserto.
4.
xδ(x) = 0;
g(x)δ(x) = g(0)δ(x);
g(x)δ(x − x0 ) = g(x0 )δ(x − x0 ).
(4.16)
Dimostrazione: seguono immediatamente dalla definizione Eq. (4.9).
5.
δ(ax) =
1
δ(x),
|a|
con a una costante reale diversa da zero. Dimostrazione:
00 Z
Z
1
x
1
0
0
0
00
00
dx δ(ax )ψ(x ) =
dx δ(x )ψ
=
ψ(0),
|a|
a
|a|
(4.17)
(4.18)
dove il valore assoluto nel secondo passaggio è dovuto al fatto che se a < 0, il cambio di variabile di
integrazione da x0 a x00 = ax scambia i due estremi di integrazione.
Notiamo
che l’ultima proprietà equivale a dire che la δ si comporta come una misura di integrazione.
R
Infatti dx δ(x) = 1, quindi il riscalamento della x comporta che anche la δ debba riscalare come come
il reciproco del proprio argomento.
48
Quantizzazione canonica: la meccanica quantistica
Significato della delta
La delta di Dirac non può essere interpretata come una funzione ordinaria: infatti essa è diversa da zero
solo in un punto di misura nulla e ciononostante il suo integrale vale uno, Eq. (4.10). Noi prendiamo
Eq. (4.9) come definizione della delta. Questo vale a dire che definiamo la delta come un funzionale,
che agendo su una funzione dà un’altra funzione. Un altro modo di definire la delta è come limite. Per
esempio si può considerare una successione di gaussiane
Z
∞
(x−x0 )2
σ
e−
dx √
−∞
πσ
=1
(4.19)
che diventano sempre più piccate su x0 (vedi figura 4.1) Ne segue che in tale limite, la delta è dappertutto
xʹ
Figura 4.1: δ di Dirac come limite di gaussiane.
nulla, eccetto che nel punto in cui il suo argomento si annulla, dove diverge. Evidentemente non si tratta
di una funzione ordinaria.
4.1.3
Relazione di ortonormalizzazione e risoluzione dell’identità
La delta fornisce una generalizzazione al caso continuo della relazione di ortonormalità. Infatti, la relazione
hi|ji = δij
(4.20)
hx|x0 i = δ(x − x0 ).
(4.21)
nel continuo diventa
Si parla in questo caso di ortonormalizzazione impropria. Notiamo infatti che la “normalizzazione” non
è definita, in quanto se x = x0 la delta diverge.
Veniamo ora alla risoluzione dell’identità. Nel caso discreto tale relazione era:
X
|iihi| = I
(4.22)
i
da cui
X
n,m
hen |iihi|em i = Inm .
(4.23)
4.2 L’operatore impulso e le traslazioni
49
Nel caso continuo
Z
dx |xihx| = I,
(4.24)
e se vogliamo vedere i singoli termini di matrice
!
Z
Z
Z
0
hx |
dx |xihx| |x00 i = dx hx0 |xihx|x00 i = dx δ(x0 − x)δ(x − x00 ) = δ(x0 − x00 ) = hx0 |x00 i. (4.25)
Possiamo quindi vedere la delta di Dirac come come una matrice identità infinito-dimensionale continua.
Consideriamo infine il prodotto scalare. Si ha
Z
Z
hϕ|ψi = dx hϕ|xihx|ψi = dx ϕ∗ (x)ψ(x),
(4.26)
e quindi nel caso particolare |ψi = |ϕi
Z
hψ|ψi =
Z
dxhψ|xihx|ψi =
dx|ψ(x)|2 ,
(4.27)
cioè la condizione di normalizzazione della densità di probabilità Eq. (4.3).
4.1.4
Operatori
Qualunque osservabile funzione delle coordinate (ad esempio, il seno oppure il coseno della coordinata)
può essere espressa da un operatore diagonale nella base delle coordinate. Consideriamo Θ(x̂), espresso
come sviluppo in serie di potenze
Θ(x̂) =
∞
X
Θi (x̂)i = Θ0 + Θ1 x̂ + Θ2 x̂2 + ....
(4.28)
i=0
Gli elementi di matrice di Θ(x̂) sono
hx0 |Θ(x̂)|xi = hx0 |
∞
X
i=0
Θi (x̂)i |xi =
∞
X
Θi (x)i hx0 |xi = Θ(x)δ(x0 − x).
(4.29)
i=0
In particolare, se consideriamo l’operatore posizione stesso x̂, si ha:
hx0 |x̂|xi = xδ(x0 − x) = xδ(x0 − x).
4.2
(4.30)
L’operatore impulso e le traslazioni
Come è noto, la descrizione della dinamica di un sistema classico richiede che oltre alla sua posizione
conosciamo la sua velocità (in una formulazione lagrangiana) o, equivalentemente, il suo impulso (in una
formulazione hamiltoniana). Per ragioni che saranno chiare più avanti, è più semplice rendere compatibili
le leggi della meccanica con i principi della fisica quantistica usando il formalismo hamiltoniano. Studieremo quindi per prima la meccanica quantistica in formulazione hamiltoniana; la versione lagrangiana
verrà presentata nel capitolo 12.2.
Dobbiamo perciò capire prima di tutto come definire l’operatore impulso: avendo costruito lo spazio
degli stati fisici per un sistema di cui si possa misurare la posizione, vogliamo costruire l’operatore impulso
per questo sistema. Realizzeremo questo obiettivo richiedendo che la meccanica quantistica e la meccanica
classica abbiano la stessa struttura di simmetria: questa ci fornirà una procedura per la quantizzazione
dei sistemi meccanici che va sotto il nome di quantizzazione canonica.
50
Quantizzazione canonica: la meccanica quantistica
4.2.1
Il teorema di Noether
In meccanica classica i risultati di misure di un sistema sono strettamente legate alle sue simmetrie. La
possibilità di una misura presuppone infatti che una quantità resti invariata almeno per il tempo della
misura, e le invarianze, cioè le leggi di conservazione classiche, sono legate alle sue simmetrie. Questo
legame è dato dal teorema di Noether, che afferma che in un sistema meccanico classico c’è una quantità
conservata per ogni invarianza del sistema. È quindi possibile identificare ogni osservabile classica con la
corrispondente invarianza: ciò permette di caratterizzare le variabili indipendentemente dalla dinamica.
L’asserto del teorema di Noether afferma che se c’è una invarianza nel sistema, allora lungo le traiettorie
descritte dalle soluzioni delle equazioni del moto c’è una quantità che si conserva. Il risultato si dimostra
per un sistema che soddisfa le equazioni del moto di Eulero-Lagrange ottenute a partire da una lagrangiana
L = L(q, q̇)
∂L
d ∂L
=
;
dt ∂ q̇
∂q
(4.31)
q è una coordinata lagrangiana generalizzata, e le equazioni del moto determinano q(t) e q̇(t) in termini
di una condizione iniziale q(t0 ), q̇(t0 ). D’ora in poi, utilizzeremo indifferentemente q o x per indicare la
coordinata. Indichiamo inoltre con il punto la derivata rispetto al tempo, come si fa comunemente nel
d
q. Con invarianza, intendiamo che sotto la trasformazione
formalismo lagrangiano: q̇ ≡ dt
q → q0 ;
q̇ → q̇ 0
(4.32)
la lagrangiana è invariata:
L(q 0 , q̇ 0 ) = L(q, q̇).
(4.33)
Per dimostrare il teorema, consideriamo il caso di trasformazioni infinitesime, cioè
q → q 0 = q + δq;
q̇ → q̇ 0 = q̇ +
d
δq.
dt
(4.34)
La variazione della lagrangiana, e quindi la condizione di invarianza Eq. (4.33) diventa
δL =
∂L
∂L
δq +
δ q̇ = 0.
∂q
∂ q̇
(4.35)
Utilizzando l’equazione del moto Eq. (4.31) e la trasformazione infinitesima della velocità Eq. (4.34) la
condizione di invarianza della Lagrangiana si può riscrivere nella forma
d ∂L
∂L d
d ∂L
δq +
δq =
δq .
(4.36)
0=
dt ∂ q̇
∂ q̇ dt
dt ∂ q̇
Ne segue che la quantità
Q=
∂L
δq,
∂ q̇
(4.37)
detta carica di Noether, si conserva:
d
Q = 0.
dt
(4.38)
È facile vedere che quando la lagrangiana è invariante per traslazioni la carica di Noether conservata
coincide (a meno di una costante) con l’impulso. La trasformazione della coordinata sotto traslazioni è
infatti
q → q 0 = q + δ,
(4.39)
4.2 L’operatore impulso e le traslazioni
51
e quindi
δq = δ.
(4.40)
Perciò
Q=
∂L
δ = pδ.
∂ q̇
(4.41)
Ma δ è una costante arbitraria, quindi la Eq. (4.41) dice che l’impulso p si conserva.
4.2.2
Le traslazioni in meccanica quantistica
In meccanica classica, l’impulso è la quantità conservata quando vi è invarianza per traslazioni. Costruiamo quindi l’operatore impulso quantistico come l’operatore i cui autovalori si conservano quando
vi è invarianza per traslazioni. Sorprendentemente, vediamo che possiamo determinare completamente il
risultato anche senza conoscere ancora le leggi del moto che forniscono l’evoluzione temporale dei sistemi
quantistici, e limitandoci a supporre che valgano i principi della fisica quantistica che abbiamo studiato
finora.
La procedura che seguiremo può essere seguita in generale per costruire l’operatore quantistico i
cui autovalori si conservano in presenza di una data invarianza, ma per semplicità e concretezza noi la
descriveremo nel caso delle traslazioni.
Per realizzare questo programma, iniziamo quindi da uno studio di come si realizzano le traslazioni
per un sistema quantistico definito nello spazio delle coordinate. Possiamo vedere una traslazione come
un cambiamento della base di autostati dell’operatore posizione, realizzata da un operatore T̂ :
T̂ |qi = |q − δi.
(4.42)
Poiché sia gli stati di partenza che quelli trasformati formano una base, e abbiamo visto che un cambiamento di base è realizzato da una trasformazione unitaria, ne segue che l’operatore T̂ è unitario.
L’azione di T̂ su uno stato qualunque |ψi è
Z
Z
Z
T̂ |ψi = dq T̂ |qihq|ψi = dq |q − δiψ(q) = dq 0 |q 0 iψ(q 0 + δ),
(4.43)
dove nell’ultimo passaggio abbiamo cambiato variabile di integrazione da q a q 0 = q − δ. Pertanto
hq|T̂ |ψi = ψ(q + δ).
(4.44)
Si arriva alla stessa conclusione sfruttando l’unitarietà di T̂ :
T̂ −1 |qi = T̂ † |qi = |q + δi =⇒ hq|T̂ = hq + δ|
(4.45)
hq|T̂ |ψi = hq + δ|ψi = ψ(q + δ).
(4.46)
e di conseguenza
L’elemento di matrice dell’operatore traslazione Eq. (4.44) piò essere riscritto attraverso uno sviluppo
in serie di Taylor:
k !
∞
∞
X
X
d
δ k (k)
δk d
ψ (q) =
ψ(q) = eδ dq ψ(q),
(4.47)
ψ(q + δ) =
k!
k! dq
k=0
k=0
dove negli ultimi due passaggi abbiamo ottenuto la serie dall’azione ripetuta dell’operatore di derivazione
rispetto a q, a sua volta rappresentata come esponenziale.
52
Quantizzazione canonica: la meccanica quantistica
Osserviamo che un operatore unitario Û può sempre essere scritto come esponenziale di un operatore hermitiano Ĥ, infatti se poniamo Û = exp(iĤ) e supponiamo che H sia hermitiano ne segue
immediatamente che U è unitario, perché
†
†
U † = eiH = e−iH = e−iH = U −1 .
(4.48)
Poniamo quindi
T̂δ = eik̂δ .
(4.49)
Ma le Eq. (4.44,4.47) ci dicono che
d
hq|eik̂δ |ψi = ψ(q + δ) = eδ dq ψ(q).
(4.50)
Sviluppando al primo ordine in δ quest’ultima equazione possiamo determinare l’elemento di matrice
dell’operatore k̂:
hq|1 + ik̂δ|ψi + O(δ 2 ) = ψ(q) + δ
d
ψ(q) + O(δ 2 )
dq
(4.51)
e quindi
hq|k̂|ψi = −i
d
ψ(q).
dq
(4.52)
Vediamo cosı̀ che l’azione dell’operatore di traslazione T è interamente determinata dagli elementi di
matrice dell’operatore k̂. Questo è generalmente vero quando si sfrutta la rappresentazione di un operatore
di trasformazione unitario in termini di esponenziale di un operatore hermitiano. L’operatore hermitiano,
nel nostro caso k̂, è detto generatore della trasformazione. Nel nostro caso specifico, k̂ è il generatore
delle traslazioni.
4.2.3
L’operatore impulso
Possiamo ora costruire l’operatore impulso in meccanica quantistica come la quantità conservata quando
vi è invarianza per traslazioni. Con “invarianza per traslazioni” intendiamo quanto segue. Supponiamo
che esista un certo operatore unitario S che fornisce l’evoluzione temporale del sistema, cioè che agendo
agendo sullo stato del sistema |ψi dia lo stato evoluto ad un tempo t:
S(t, t0 )|ψ(t0 )i = |ψ(t)i.
(4.53)
Usando questo operatore, possiamo calcolare l’ampiezza di probabilità che un sistema, preparato nello
stato |ψ(t0 )i al tempo t0 , dia lo stato |ϕ(t)i se al tempo t viene eseguita una misura. L’ampiezza di
probabilità corrispondente è
hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i.
(4.54)
Diciamo che vi è invarianza per traslazioni se eseguendo una traslazione dell’intero sistema, cioé una
traslazione di tutti gli stati, e quindi anche dello stato |ψ(t0 )i e dello stato |ϕ(t)i, i risultati delle misure
restano invariati, e quindi l’ampiezza Eq. (4.54) non cambia. L’invarianza per traslazioni corrisponde
quindi alla richiesta che
hϕ(t)|ψ(t)i = hϕ(t)|T̂ † S(t, t0 )T̂ |ψ(t0 )i.
(4.55)
Nel caso particolare di una trasformazione infinitesima, T̂ε = 1 + iεk̂ ( e T̂ε† = 1 − iεk̂) il membro
destro della Eq. (4.55) si può riscrivere come
hϕ(t)|T̂ † S(t, t0 )T̂ |ψ(t0 )i = hϕ(t)|(1 − iεk̂)S(t, t0 )(1 + iεk̂)|ψ(t0 )i
= hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|k̂S(t, t0 ) − S(t, t0 )k̂|ψ(t0 )i + O(ε2 )
= hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i,
4.2 L’operatore impulso e le traslazioni
53
e quindi la condizione di invarianza diventa
hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i.
(4.56)
Si ha quindi invarianza per traslazioni se e solo se
[k̂, S(t, t0 )] = 0.
(4.57)
Consideriamo ora gli autostati ed autovalori dell’operatore (hermitiano) k̂:
k̂|ki = k|ki.
(4.58)
Utilizzando la relazione di completezza rispetto a questi stati nell’equazione Eq. (4.57) abbiamo
Z
0 = hϕ(t)|[k̂, S(t, t0 )]|ψ(t0 )i = dkdk 0 hϕ(t)|kihk|[k̂, S(t, t0 )]|k 0 ihk 0 |ψ(t0 )i
Z
= dkdk 0 hϕ(t)|kihk|k̂S(t, t0 ) − S(t, t0 )k̂|k 0 ihk 0 |ψ(t0 )i
Z
= dkdk 0 hϕ(t)|ki(k − k 0 )hk|S(t, t0 )|k 0 ihk 0 |ψ(t0 )i.
Ne segue che
hk|S(t, t0 )|k 0 i = 0 se k 6= k 0 .
(4.59)
Ma la Eq. (4.59) è proprio una legge di conservazione: dice che se il sistema è in un autostato di k al
tempo t0 , resta nello stesso autostato al tempo t1 : l’ampiezza che una misura lo trovi in qualunque altro
autostato è nulla. Quindi abbiamo dimostrato che se il sistema è invariante per traslazioni, qualunque
evoluzione temporale unitaria preserva l’autovalore del generatore delle traslazioni. Possiamo quindi
identificare, a meno di una costante di proporzionalità, l’operatore impulso con l’operatore hermitiano
che genera le traslazioni.
4.2.4
Operatori e leggi di conservazione
È facile vedere che l’argomento che abbiamo presentato nella Sezione 4.2.3 vale in forma del tutto generale:
se una trasformazione unitaria può essere scritta come esponenziale di un generatore hermitiano, allora
gli autovalori di questo operatore si conservano se e solo se esso commuta con l’operatore di evoluzione
temporale. Infatti, in tutto l’argomento dato, a partire dalla Eq. (4.55) fino al risultato finale Eq. (4.59)
non abbiamo mai usato il fatto che k̂ generi le traslazioni, piuttosto che qualunque altra trasformazione.
Osserviamo ora che, per ragioni dimensionali, tra l’operatore impulso ed il generatore delle traslazioni
deve esservi una una costante di proporzionalità. Infatti, le dimensioni di k̂ sono
[k̂] = [L]−1 ,
(4.60)
come si vede dalla Eq. (4.52). D’altra parte le dimensioni di p̂ sono
[p̂] = [E][T ][L]−1
come si vede dal fatto che p =
∂L
∂ q̇
(4.61)
(ricordando che la lagrangiana è la differenza di energia cinetica e
potenziale, e quindi ha le dimensioni di energia). Ne segue che la costante di proporzionalità tra p̂ e k̂,
che chiamiamo ~,
p̂ = ~k̂
(4.62)
[~] = [E][T ],
(4.63)
ha le dimensioni di
54
Quantizzazione canonica: la meccanica quantistica
ossial le dimensioni di una azione.
Facciamo quindi l’ipotesi che la costante ~ sia universale: cioè per ogni osservabile classica, facciamo
l’ipotesi che l’operatore quantistico associato si possa costruire seguendo la procedura che abbiamo seguito
nel caso dell’impulso. Si determina la trasformazione tale per cui l’osservabile classica è conservata quando
vi è invarianza. Si determina il generatore di questa trasformazione sugli stati quantistici. Si identifica
infine l’operatore quantistico associato all’osservabile data come questo generatore, moltiplicato per ~.
La costante ~ è nota come costante di Planck.
Naturalmente, la normalizzazione dell’osservabile classica è convenzionale (se si conserva p si conserva
anche 2p, e cosı̀ via), cosı̀ come è convenzionale la normalizzazione del generatore da cui si ottiene
l’osservabile quantistica (nulla ci vieta di definire la traslazione come la tasformazione q → q + 2δ).
Tuttavia, la normalizzazione relativa dell’osservabile classica e del generatore quantistico ha un significato
assoluto, come possiamo capire studiando l’azione dell’operatore impulso sull’operatore coordinata.
4.2.5
Il commutatore canonico
Consideriamo quindi l’azione dell’operatore di traslazione T̂ sull’operatore q̂. Giacché, come si è detto,
una traslazione può essere vista come un cambiamento di base nello spazio delle coordinate, ci basta
ricordare la forma forma generale della trasformazione di un operatore sotto cambiamento di base, ossia
l’azione aggiunta Eq. (3.25) della trasformazione:
T̂ −1 q̂ T̂ |qi = T̂ −1 q̂|q − δi = T̂ −1 (q − δ)|q − δi = (q − δ)T̂ −1 |q − δi = (q − δ)|qi.
(4.64)
T̂ −1 q̂ T̂ = q̂ − δ.
(4.65)
Ne segue che
Nel caso particolare di una trasformazione infinitesima T̂ε = 1 + iεk̂ = 1 + iε ~1 p̂ si ha
1
1
−1
T̂ε q̂ T̂ε = 1 − iε p̂ q̂ 1 + iε p̂ = q̂ − ε,
h̄
h̄
(4.66)
che implica
1
q̂ − iε (p̂q̂ − q̂ p̂) + O(ε2 ) = q̂ − ε
~
(4.67)
[p̂, q̂] = −i~.
(4.68)
e quindi
Notiamo che anche questo argomento è del tutto generale: per qualunque trasformazione T̂ generata
da un generatore hermitiano G, cioè tale che T̂δ = exp iδ Ĝ la variazione di un operatore  sotto l’effetto
della trasformazione è proporzionale al commutatore del generatore con l’operatore: infatti l’operatore
trasformato è
Â0 = T̂ −1 ÂT̂ = 1 − iεĜ Â 1 + iεĜ = A + i[G, A]
(4.69)
e quindi
δ Â = Â0 − A = i[G, A].
(4.70)
Il commutatore Eq. (4.68) è detto commutatore canonico: il ragionamento che abbiamo fatto qui per
dedurre la forma dell’operatore impulso può essere equivalentemente espresso dicendo che si postula che la
parentesi di Poisson classica tra le variabili p e q sia quantisticamente sostituita dal commutatore canonico.
Questo modo di formulare la quantizzazione dei sistemi meccanici (quantizzazione canonica, appunto) è
dovuto a Dirac: chiedere la sostituzione delle parentesi di Poisson con i commutatori è equivalente a
richiedere l’invarianza della struttura di simmetria perchè le parentesi di Poisson possono essere utilizzate
4.3 Base delle coordinate e base degli impulsi
55
per formulare le trasformazioni di coordinate nel caso classico (trasformazioni canoniche) e quindi le
invarianze sotto di esse. Capiamo quindi che la costante ~ fornisce il fattore di conversione tra parentesi
di Poisson classiche e commutatori quantistici, che, secondo la Eq. (4.70) danno la trasformazione delle
osservabili, cioè degli operatori, nel caso quantistico. Come sappiamo dalla meccanica classica, le parentesi
di Poisson possono essere usate per esprimere i cambi di variabile sullo spazio delle configurazioni classico
attraverso il formalismo delle trasformazioni canoniche. Capiamo quindi che la quantizzazione canonica
fornisce la corrispondenza tra la meccanica classica e la meccanica quantistica traducendo le trasformazioni
sullo spazio delle configurazioni classico (realizzate come trasformazioni canoniche) in trasformazioni sugli
stati quantistici.
Notiamo che il commutatore canonico implica immediatamente che p̂ e q̂ sono operatori incompatibili.
Non possono esser diagonalizzati simultaneamente, e le loro rispettive indeterminazioni devono soddisfare,
per la Eq. (3.76), la disuguaglianza
∆2 p∆2 q ≥
~2
.
4
(4.71)
La relazione di indeterminazione posizione-impulso Eq. (4.71) è nota come principio di indeterminazione
di Heisenberg.
4.3
Base delle coordinate e base degli impulsi
Poiché gli operatori posizione e impulso non commutano, essi non possono essere diagonalizzati simultaneamente. Possiamo quindi scegliere di esprimere la meccanica (quindi, ad esempio, rappresentare stati ed
operatori) nella base degli autostati dell’uno o dell’altro operatore, ma non di entrambi simultaneamente.
4.3.1
La base delle coordinate
Abbiamo costruito esplicitamente gli elementi di matrice degli operatori posizione ed impulso nella base
degli austostati Eq. (4.1) |qi dell’operatore posizione:
hq|q̂|ψi = qψ(q)
d
hq|p̂|ψi = −i~ ψ(q),
dq
(4.72)
(4.73)
dove la seconda equazione segue dall’identificazione Eq. (4.62) dell’operatore impulso con il generatore
delle traslazioni, e dall’espressione Eq. (4.52) dell’azione di quest’ultimo sugli stati. In particolare, gli
elementi di matrice degli operatori posizione ed impulso tra autostati della posizione sono dati da
hq|q̂|q 0 i = qδ(q − q 0 )
d
hq|p̂|q 0 i = −i~ δ(q − q 0 ).
dq
(4.74)
(4.75)
Verifichiamo ora che gli operatori posizione e impulso cosı̀ definiti sono hermitiani. Per l’operatore
posizione si ha
∗
hq 0 |q̂ † |qi = hq|q̂|q 0 i = q 0 δ(q 0 − q) = qδ(q 0 − q) = hq 0 |q̂|qi,
(4.76)
avendo sfruttato l’identità Eq. (4.16) soddisfatta dalla delta di Dirac. Quindi l’operatore q̂ è manifestamente hermitiano e, ovviamente, diagonale nella base delle coordinate.
Per l’operatore impulso si ha
∗
d
d
d
hq 0 |p̂† |qi = hq|p̂|q 0 i = i~ δ(q − q 0 ) = −i~ 0 δ(q − q 0 ) = −i~ 0 δ(q 0 − q) = hq 0 |p̂|qi,
dq
dq
dq
(4.77)
avendo sfruttato la simmetria della delta, e l’ovvio fatto che la derivata di una funzione simmetrica è
antisimmetrica.
56
Quantizzazione canonica: la meccanica quantistica
L’hermiticità dell’operatore impulso ha una interessante implicazione per il prodotto scalare: infatti
si ha da una parte
Z
Z
d
hϕ|p̂|ψi = dq hϕ|qihq|p̂|ψi = dq ϕ∗ (q)(−i~) ψ(q),
(4.78)
dq
mentre l’hermiticità dell’operatore implica che
Z
∗ Z
∗
d
d
dq ψ ∗ (q)(−i~) ϕ(q) = dq ψ(q)i~ ϕ∗ (q).
hϕ|p̂|ψi = hϕ|p̂† |ψi = hψ|p̂|ϕi =
dq
dq
(4.79)
Ricordando la formula dell’integrazione per parti,
Z
b
dx f (x)
a
b Z b
d
d
dx g(x) f (x),
g(x) = f (x)g(x) −
dx
dx
a
a
(4.80)
vediamo che l’hermiticità è soddisfatta e le due espressioni Eq. (4.78,4.79) sono uguali se e solo se si
possono integrare le funzioni d’onda per parti ed il termine di bordo si annulla. Se lo spazio si estende
da −∞ a +∞ questo è sempre vero per stati normalizzabili in senso proprio: infatti
Z ∞
2
1
x→∞
⇔
ψ(x) ∼
dx ψ(x) = 1
.
(4.81)
1
x 2 +ε
−∞
e la stessa considerazione vale per ϕ(x). Più in generale, l’hermiticità dell’operatore impulso è soddisfatta
sotto opportune ipotesi sullo spazio degli stati fisici, ed in particolare sotto l’ipotesi che sia possibile sempre
integrare per parti trascurando il termine di bordo. Fisicamente, questa è un’ipotesi di localizzazione degli
stati. Nel seguito supporremo sempre che questa ipotesi sia soddisfatta.
4.3.2
Autostati dell’operatore impulso
Poiché posizione ed impulso non commutano, l’operatore p̂ non è diagonale nella base delle posizioni.
Determiniamo quindi i suoi autostati, ossia gli stati |ki tali che
p̂|ki = ~k|ki.
(4.82)
Ovviamente, possiamo indifferentemente decidere di etichettare gli stati con l’autovalore di p̂ o del generatore delle traslazioni k̂, visto che i due operatori sono proporzionali. Nella base delle posizioni gli stati
|ki sono delle funzioni della posizione
ψk (q) ≡ hq|ki
(4.83)
hq|p̂|ki = ~khq|ki,
(4.84)
che soddisfano l’equazione
ossia l’equazione differenziale
−i~
d
ψk (q) = ~kψk (q).
dq
(4.85)
ψk (q) = Nk eikq .
(4.86)
La soluzione di tale equazione è
Le autofunzioni sono quindi onde piane.
Vorremmo determinare la costante di normalizzazione Nk . Osserviamo che lo spettro di valori di k è
continuo, e quindi gli stati |ki non possono soddisfare una condizione di normalizzazione in senso proprio.
4.3 Base delle coordinate e base degli impulsi
57
Richiedendo che valga una relazione di completezza, ossia la risoluzione dell’indentità per questi stati,
troviamo che essi devono soddisfare una condizione di normalizzazione impropria
hk 0 |ki = δ(k 0 − k),
(4.87)
dimodoché
Z
ψ(k) = hk|ψi =
dk 0 hk|k 0 ihk 0 |ψi =
Z
dk 0 hk|k 0 iψ(k 0 ).
(4.88)
La costante Nk è quindi determinata dalla condizione di normalizzazione Eq. (4.87). Utilizzando la
completezza della base delle autofunzioni |qi abbiamo
Z ∞
Z ∞
Z ∞
0
0
δ(k 0 − k) = hk 0 |ki =
dq e−ik q eikq = |Nk |2
dq ei(k−k )q ,
dq hk 0 |qihq|ki = |Nk |2
(4.89)
−∞
−∞
Nk∗0 Nk
−∞
2
dove abbiamo posto
= |Nk | sfruttando il fatto che il risultato deve essere proporzionale ad una
δ(k − k 0 ), e dunque f (k)δ(k − k 0 ) = f (k 0 )δ(k = k 0 ).
Quindi, sostituendo l’espressione esplicita Eq. (4.89) nella relazione di completezza Eq. (4.88) si trova
Z ∞
Z ∞Z ∞
0
dkdq ψ(k)ei(k−k )q |Nk |2
ψ(k 0 ) =
dk ψ(k)δ(k 0 − k) =
−∞ −∞
−∞
Z
∞
= lim
λ→∞
λ
−∞
∞
= lim
0
dq |Nk |2 ei(k−k )q ψ(k) = lim
dk
Z
λ→∞
Z
λ→∞
−λ
e
dk |Nk |2
i(k−k0 )λ
−∞
Z
0
∞
dk|Nk |2
−∞
ei(k−k )q λ
ψ(k)
i(k − k 0 ) −λ
−i(k−k0 )λ
−e
i(k − k 0 )
ψ(k).
(4.90)
±i(k−k0 )λ
Ciascuna delle due funzioni e i(k−k0 ) ψ(k) ha un polo semplice per k → k 0 . L’integrale ha quindi un
polo semplice in k = k 0 lungo il cammino di integrazione. Esso può essere definito nel senso del valor
principale di Cauchy, cioè come la media degli integrali in cui la singolarità viene aggirata da sopra e da
sotto:
"Z
#
Z ∞
Z
±i(k−k0 )λ
±i(k−k0 )λ
±i(k−k0 )λ
1
2e
2e
2e
dk |Nk |
dk |Nk |
dk |Nk |
=
+
,
(4.91)
i(k − k 0 )
2 C1
i(k − k 0 )
i(k − k 0 )
−∞
C2
dove i cammini C1 e C2 sono disegnati in Figura 4.2.
Figura 4.2: Cammini di integrazione
In definitiva quindi l’integrale può essere scritto come la somma di quattro integrali, cioè gli integrali
delle due funzioni singolari, ciascuna integrata passando sopra o sotto la singolarità. Ciascuno di essi
può essere semplicemente calcolato mediante il teorema dei residui, osservando che se (k − k 0 )λ > 0 (
(k − k 0 )λ < 0) è possibile chiudere il cammino nel semipiano Re > 0 (Re < 0). Si ha cosı̀
Z ∞
0
e±i(k−k )λ
0
0
2
|Nk |
dk
ψ(k) = πiRes(f± (k), k ) =
,
(4.92)
0)
±π|Nk |2 ψ(k 0 )
i(k
−
k
−∞
58
Quantizzazione canonica: la meccanica quantistica
a seconda che la singolarità sia fuori (esponente positivo cammino C1 o negativo, cammino C2 ) o dentro
il cammino (esponente negativo cammino C1 o positivo, cammino C2 ).
Abbiamo cosı̀ infine
Z ∞
0
i(k−k0 )λ
− e−i(k−k )λ
0
2e
ψ(k ) = lim
ψ(k) = 2π|Nk |2 ψ(k 0 ).
dk |Nk |
(4.93)
λ→∞ −∞
i(k − k 0 )
Ne deduciamo che la costante di normalizzazione cercata è
1
,
2π
(4.94)
1
Nk = √ .
2π
(4.95)
|Nk |2 =
e quindi ponendo arbitrariamente la fase uguale a uno
Possiamo interpretare quindi la Eq. (4.89) come una rappresentazione della δ di Dirac:
Z ∞
1
δ(x) =
dq eiqx .
2π −∞
(4.96)
Questo significa che la δ di Dirac è la trasformata di Fourier dell’identità.
Concludiamo che le autofunzioni ψk (q) sono1 :
1
ψk (q) = √ eiqk
2π
4.3.3
(4.97)
La base degli impulsi
Avendo a disposizione l’espressione degli autostati dell’impulso nella base delle posizioni possiamo costruire anche l’espressione degli autostati della posizione nella base degli autostati dell’impulso. Infatti si
ha
1
hq|ki = √ eikq
2π
1 −ikq
,
hk|qi = √ e
2π
(4.98)
(4.99)
e quindi possiamo usare le hq|ki come matrice di passaggio dalla base degli autostati della posizione alla
base degli autostati dell’impulso.
Per uno stato fisico generico |ψi abbiamo
Z
Z
1
ψ(k) = dq hk|qihq|ψi = dq √ e−ikq ψ(q)
(4.100)
2π
Z
Z
1
ψ(q) = dk hq|kihk|ψi = dk √ eikq ψ(k),
(4.101)
2π
ovvero ψ(q) e ψ(k) sono una la trasformata di Fourier dell’altra. Esse contengono quindi la stessa
informazione: le relazioni (4.100) permettono di ricavare ψ(q) da ψ(k) e viceversa. Questo vuol dire
che impulso e posizione non sono quindi indipendenti, e in effetti lo stesso vettore di stato determina la
distribuzione di probabilità dei risultati delle misure di entrambi.
Possiamo in conclusione scrivere gli autostati degli operatori posizione ed impulso sulla base degli
autostati dell’impulso. Ovviamente l’operatore impulso è diagonale nella base dei suoi autostati:
hk|p̂|ψi = ~kψ(k);
1A
hk|p̂|k 0 i = ~k 0 δ(k − k 0 ).
(4.102)
seconda che scegliamo k̂ o p̂, oppure |ki o |pi come autostati, otteniamo espressioni lievemente differenti in quanto
p̂ = ~k̂. Scegliendo autostati |pi si avrebbe hp|p̂|ψi = pψ(p) e hq|pi =
iqp
√1 e ~
2π~
.
4.3 Base delle coordinate e base degli impulsi
59
Invece hk|q̂|ψi non è diagonale:
Z
Z
Z
dq
1
d
d
√ e−ikq ψ(q)q = i
hk|q̂|ψi = dq hk|q̂|qihq|ψi =
dq √ e−ikq ψ(q) = i ψ(k).
dk
dk
2π
2π
(4.103)
Dalle Eq. (4.103) possiamo immediatamente leggere che nella base degli impulsi gli elementi di matrice
dell’operatore posizione hanno la forma
hk|q̂|ψi = i
d
ψ(k).
dk
In altri termini, l’operatore posizione è proporzionale al generatore delle traslazioni dell’impulso.
(4.104)
60
Quantizzazione canonica: la meccanica quantistica
Capitolo 5
Evoluzione temporale
5.1
Il generatore dell’evoluzione temporale
Abbiamo definito l’operatore di evoluzione temporale S(t, t0 ) Eq. (4.53) come l’operatore unitario che,
agendo sugli stati fisici ad un tempo “iniziale” t0 produce gli stati fisici ad un tempo “finale” t1 . Notiamo
che non è detto che t1 > t0 , ed il fatto che l’operatore sia unitario implica che l’evoluzione temporale è
reversibile. Ora vogliamo costruire questo operatore esplicitamente.
5.1.1
Traslazioni temporali e leggi di conservazione quantistiche
In un contesto non relativistico, il tempo non è un’osservabile, ma un parametro, dal quale dipendono le
configurazioni. Le configurazioni del sistema sono date dai vettori di stato |ψi, pertanto quando diciamo
che consideriamo le evoluzioni temporali i vettori di stato diventano delle famiglie ad un parametro |ψ(t)i
parametrizzate dal tempo1 . Un ket di stato dipendente dal tempo può sempre essere scritto come
|ψ(t + δ)i = eδ dt |ψ(t)i = eiδ(−i dt ) |ψ(t)i,
d
d
(5.1)
d
cioè come il risultato di una traslazione temporale generata dall’operatore −i dt
.
L’esistenza di un operatore unitario S calcolabile che realizza la traslazione temporale rende la meccanica quantistica predittiva. L’unitarietà dell’operatore S implica che esso possa essere scritto come
esponenziale di un opportuno operatore hermitiano OH :
S(t1 , t0 ) = eiOH (t1 ,t0 ) .
(5.2)
Per un’evoluzione temporale infinitesima si ha t1 − t0 = ε e
S(t1 , t0 ) = S(t0 + ε, t0 ) = I + iε
∂
OH (t1 , t0 )
,
∂t1
t1 =t0
(5.3)
ovvero, definendo
∂
0
O
(t
,
t)
0 ,
H
∂t0
t =t
(5.4)
S(t0 + ε, t0 ) = I + iεĤ(t).
(5.5)
Ĥ(t) ≡
Mostriamo ora che un argomento analogo a quello della Sezione 4.2.3 porta immediatamente a concludere che se la dinamica è invariante per traslazioni temporali, allora gli autovalori di Ĥ(t) si conservano.
Invarianza per traslazioni temporali significa che
hϕ|S(t1 , t0 )|ψi = hϕ|S(t1 + δ, t0 + δ)|ψi,
(5.6)
1 Una generalizzazione consistente al caso relativistico della meccanica quantistica richiede il passaggio alla descrizione
di sistemi con infiniti gradi di libertà, cioè alla teoria quantistica dei campi, di cui la meccanica quantistica relativistica può
essere costruita come limite.
62
Evoluzione temporale
e cioè, visto che |ψi, |ϕi sono stati generici,
S(t1 , t0 ) = S(t1 + δ, t0 + δ)
(5.7)
Nel caso infinitesimo, la Eq. (5.7) implica che
I + iεĤ(t) = I + iεĤ(t + δ)
(5.8)
dĤ
= 0.
dt
(5.9)
ovvero che Ĥ non dipende da t:
Ma da questo segue immediatamente che Ĥ commuta con S. Infatti,
S(t1 , t0 ) = S(t1 + δ, t0 + δ) = S(t1 + δ, t1 )S(t1 , t0 )S(t0 , t0 + δ)
= S(t1 + δ, t1 )S(t1 , t0 )S −1 (t0 + δ, t0 )
= S(t1 + δ, t1 )S(t1 , t0 )S † (t0 + δ, t0 ) = (I + iδ Ĥ)S(t1 , t0 )(I − iδ Ĥ)
= S(t1 , t0 ) + iδ[Ĥ, S(t1 , t0 )] + O(δ 2 )
(5.10)
[Ĥ, S(t1 , t0 )] = 0.
(5.11)
e quindi
D’altra parte, lo stesso argomento della Sezione 4.2.3 mostra che se Ĥ commuta con l’operatore di
evoluzione temporale, allora i suo autovalori sono conservati. Supponiamo che Ĥ abbia autostati ed
autovalori
Ĥ|Ei = E|Ei.
(5.12)
La proprietà di commutazione Eq. (5.11) implica che sfruttando quanto determinato sopra
Z
0 =hϕ|[Ĥ, S(t1 , t0 )]|ψi = hϕ|(ĤS(t1 , t0 ) − S(t1 , t0 )Ĥ|ψi = dEdE 0 hϕ|EihE|(ĤS − S Ĥ)|E 0 ihE 0 |ψi
Z
Z
0
0
0
0
0
= dEdE hϕ|Ei EhE|S|E i − E hE|S|E i hE |ψi = dEdE 0 E − E 0 hϕ|EihE|S|E 0 ihE 0 |ψi,
(5.13)
e quindi
hE|S|E 0 i = 0 se E 0 6= E,
(5.14)
che significa che l’evoluzione temporale S collega solo stati che hanno lo stesso valore di E.
5.1.2
Il teorema di Noether per trasformazioni dipendenti dal tempo
Classicamente la quantità che si conserva quando vi è invarianza per traslazioni temporali è l’Hamiltoniana H. Per dimostrarlo, dobbiamo considerare la generalizzazione del teorema di Noether al caso di
trasformazioni dipendenti dal tempo. In tal caso, la quantità la cui invarianza determina la legge di
conservazione è l’azione, ossia l’integrale della Lagrangiana rispetto al tempo. Il teorema afferma che
vi è una quantità conservata ogniqualvolta che per una qualunque trasformazione che agisce sia sulle
coordinate che sui tempi, cioè (nel caso infinitesimo)
q(t) → q 0 (t) = q(t) + δq,
0
t → t (t) = t + δt
(5.15)
(5.16)
5.1 Il generatore dell’evoluzione temporale
63
l’azione è invariante, cioè
L(q 0 (t0 ), q̇ 0 (t0 ), t0 )dt0 = L(q(t), q̇(t), t)dt.
(5.17)
La dimostrazione generalizza quella della sezione 4.2.1. Definita l’azione infinitesima A = L(q, q̇, t)dt,
la condizione di invarianza è
δA = L(q 0 (t0 ), q̇ 0 (t0 ), t0 )dt0 − L(q(t), q̇(t), t)dt.
D’altra parte la variazione dell’azione è esplicitamente data da
∂L
∂L
dL δq +
δ q̇ +
δt dt + Lδdt.
δA =
∂q
∂ q̇
dt
(5.18)
(5.19)
Usando come nella Eq. (4.36) l’equazione del moto Eq. (4.31), ed osservando che
δdt = dt0 − dt =
dt0
d d
dt0
dt − dt =
− 1 dt = (t0 − t)dt =
δt dt,
dt
dt
dt
dt
(5.20)
si ha:
0 = δA =
d ∂L
dL d ∂L d δq +
δq dt +
dt dt + L δt dt,
dt ∂ q̇
∂ q̇ dt
dt
dt
(5.21)
ossia
dQ
dt = 0,
dt
(5.22)
avendo posto
Q=
∂L
δq + Lδt,
∂ q̇
(5.23)
che è la carica di Noether conservata.
Specializziamo al caso di traslazione temporale:
t → t0 = t + δ.
(5.24)
Se la traslazione agisce solo sui tempi si ha che
q(t) = q 0 (t0 ),
(5.25)
q 0 (t + δ) = q 0 (t) + q̇ 0 (t)δ,
(5.26)
q 0 (t) = q(t) − q̇(t)δ
(5.27)
δq = q 0 (t) − q(t) = −q̇(t)δ.
(5.28)
e quindi, nel caso infinitesimo,
che implica
ossia
La carica di Noether Eq. (5.23) nel caso di invarianza sotto traslazioni temporali è quindi data da
∂L
∂L Q=−
q̇δ + Lδ = δ L −
q̇ = −δH,
(5.29)
∂ q̇
∂ q̇
e dunque la quantità conservata è proprio l’Hamiltoniana
H≡
∂L
q̇ − L.
∂ q̇
(5.30)
64
5.1.3
Evoluzione temporale
Il generatore dell’evoluzione temporale quantistica
Classicamente quando vi è invarianza per traslazioni temporali l’hamiltoniana si conserva, mentre quantisticamente l’operatore il cui spettro è conservato quando vi è invarianza per traslazioni temporali è il
generatore H Eq. (5.4) dell’evoluzione temporale. Questo suggerisce di identificare, a meno di una costante di proporzionalità, questo operatore con l’hamiltoniana. Questa viene costruita utilizzando il principio
di corrispondenza, cioè partendo dall’hamiltoniana classica vista come funzione di p e q e sostituendo
questi ultimi con i rispettivi operatori quantistici:
Ĥ = cĤ(p̂, q̂).
(5.31)
Ciò ancora una volta realizza il principio della quantizzazione canonica di Dirac, e cioè che le relazioni
di commutazione dell’hamiltoniana con gli operatori canonici (e quindi le funzioni di essi) riproducano la
struttura delle corrispondenti parentesi di Poisson classiche.
Per determinare la dimensionalità della costante di proporzionalità c notiamo che la Eq. (5.5) implica immediatamente che la combinazione εĤ deve essere adimensionale (tutti i termini a membro
destro dell’equazione devono avere la stessa dimensione), ossia Ĥ ha le dimensioni di [T −1 ]. Quindi,
visto che l’hamiltoniana ha le dimensioni di un’energia (ovviamente, visto che classicamente ha proprio
l’interpretazione di energia) le dimensioni della costante sono
[c] = [E −1 ][T −1 ],
(5.32)
ossia quelle del reciproco di ~. Poniamo cosı̀
1
Ĥ = − Ĥ,
~
(5.33)
dove, come vedremo, il segno meno è necessario per riprodurre il limite classico.
La scelta Eq. (5.4-5.33) dell’operatore di evoluzione temporale è di solito vista come l’ultimo degli
assiomi della meccanica quantistica, da aggiungere a quelli elencati nella sezione 2.4. Con la scelta di
costante di proporzionalità Eq. (5.33) la struttura di simmetria della meccanica classica è pienamente
riprodotta a livello quantistico: per esempio, l’evoluzione temporale classica può essere vista come una
trasformazione canonica, da cui l’evoluzione temporale quantistica si ottiene rimpiazzando parentesi di
Poisson con parentesi di commutazione. Di questo non daremo una dimostrazione formale, ma ci limiteremo a mostrare che le equazioni del moto classiche sono riprodotte dai valori medi delle osservabili
quantistiche.
5.2
L’equazione di Schrödinger
Eguagliando l’evoluzione temporale identicamente definita come una traslazione del tempo secondo la
Eq. (5.1), con quella dinamicamente ottenuta da S(t1 , t0 ) Eq. (5.2) con il generatore Eq. (5.4), espresso
in termini dell’hamiltoniana mediante la Eq. (5.33) troviamo che l’operatore di evoluzione temporale, e
quindi lo stato fisico, devono soddisfare un’equazione differenziale del primo ordine rispetto al tempo:
l’equazione di Schrödinger.
5.2.1
Forme alternative dell’equazione di Schrödinger
Per trasformazioni infinitesime abbiamo
i
d
I + (t − t0 )Ĥ(t) |ψ(t0 )i = I + (t − t0 )
|ψ(t)i
~
dt
t=t0
(5.34)
da cui
i~
d
|ψ(t)i = Ĥ(t)|ψ(t)i,
dt
(5.35)
5.2 L’equazione di Schrödinger
65
che è appunto l’equazione di Schrödinger. Nella forma data dalla Eq. (5.35) essa è vista come equazione
differenziale soddisfatta dai ket di stato.
È particolarmente interessante considerare una Hamiltoniana Ĥ scritta come somma di un termine
cinetico e di un termine potenziale dipendente solo dalla posizione, Ĥ = T̂ + V̂ , ossia
Ĥ =
p̂2
+ V (q̂).
2m
(5.36)
L’espressione dell’equazione di Schrödinger nella base delle coordinate si trova notando che
∂
d
hq|ψ(t)i = ψ(q, t),
dt
∂t
(5.37)
poichè la derivata agisce sulla dipendenza parametrica dal tempo dei coefficienti della decomposizione del
vettore di stato sui vettori di base (autostati della coordinata indipendenti dal tempo). Inoltre, usando
la Eq. (4.29) si ha immediatamente
hq|V (q̂)|ψ(t)i = V (q)ψ(q, t),
(5.38)
e
hq|p̂2 |ψ(t)i =
Z
dq 0 hq|p̂|q 0 ihq 0 |p̂|ψi =
Z
dq 0
− i~
∂ψ(q 0 )
∂2ψ
∂ δ(q − q 0 )(−i~)
= −~2 2 .
0
∂q
∂q
∂q
(5.39)
Si ottiene cosı̀ infine
i~
∂ψ(q, t)
~2 ∂ 2 ψ(q, t)
=−
+ V (q)ψ(q, t).
∂t
2m ∂q 2
(5.40)
Questa è la forma più comune dell’equazione di Schrödinger, ed anzi spesso il nome viene usato in
riferimento a questa specifica forma, che però è meno generale della Eq. (5.35) perchè valida solo per
hamiltoniane della forma Eq. (5.36).
Come già detto, l’equazione di Schrödinger può anche essere vista come un’equazione per l’operatore
di evoluzione temporale stesso, come si vede riscrivendo l’Eq. (5.35) come
i~
∂
S(t, t0 )|ψ(t0 )i = Ĥ(t)S(t, t0 )|ψ(t0 )i,
∂t
(5.41)
∂
S(t, t0 ) = Ĥ(t)S(t, t0 ).
∂t
(5.42)
da cui
i~
Possiamo quindi ottenere l’operatore di evoluzione temporale come soluzione formale della Eq. (5.42),
con la condizione inziale
S(t0 , t0 ) = I.
(5.43)
Risolviamo quindi la Eq. (5.42), considerando tre casi di complessità crescente:
1. L’Hamiltoniana è indipendente dal tempo:
dĤ
= 0;
dt
(5.44)
2. l’hamiltoniana dipende dal tempo, ma commuta a tempi diversi:
dĤ
6= 0
dt
ma
[Ĥ(t), Ĥ(t0 )] = 0 ∀ t, t0 ;
(5.45)
3. l’hamiltoniana dipende dal tempo e a tempi diversi non commuta:
dĤ
6= 0
dt
e in generale [Ĥ(t), Ĥ(t0 )] 6= 0.
(5.46)
66
5.2.2
Evoluzione temporale
Soluzione dell’equazione di Schrödinger: hamiltoniane commutanti
Risolviamo dapperima l’equazione differenziale (5.42) con la condizione iniziale (5.43) nel caso
La soluzione è l’esponenziale
S(t, t0 ) = exp
1
(t − t0 )Ĥ.
i~
∂ Ĥ
∂t
= 0.
(5.47)
Verifichiamo che sia una soluzione:
S(t, t0 ) = exp
1 2 1
1
1
(t − t0 )Ĥ = I + (t − t0 )Ĥ +
(t − t0 )2 Ĥ 2 + . . .
i~
i~
i~ 2
e quindi
i~
∂
1
S(t, t0 ) = Ĥ exp (t − t0 )Ĥ.
∂t
i~
Consideriamo ora il caso di hamiltoniane dipendenti dal tempo, ma commutanti. Risolviamo nuovamente l’equazione differenziale (5.42) con la condizione al contorno (5.43). Abbiamo
S(t, t0 ) = exp
1
i~
Z
t
dt0 Ĥ(t0 ),
(5.48)
t0
come possiamo verificare:
Z
Z
Z t
∂
∂
1 t 0
1 1 2 t 0
0
0
S(t, t0 ) =
I+
dt Ĥ(t ) +
dt Ĥ(t )
dt00 Ĥ(t00 ) + . . .
∂t
∂t
i~ t0
2 i~
t0
t0
Z
t
1
1 2
1
Ĥ(t)
= Ĥ(t) + 2
dt00 Ĥ(t00 ) + . . .
i~
2 i~
t0
1
= Ĥ(t)S(t, t0 ).
i~
5.2.3
(5.49)
(5.50)
(5.51)
Soluzione dell’equazione di Schrödinger: hamiltoniane non commutanti
Se le hamiltoniane a tempi diversi non commutano si ha:
Z t
Z
Z t
Z t
Z t
d t 0
0
00
00
00
00
0
0
dt Ĥ(t )
dt Ĥ(t ) = Ĥ(t)
dt Ĥ(t ) +
dt Ĥ(t ) Ĥ(t) 6= 2Ĥ(t)
dt0 Ĥ(t0 ),
dt t0
t0
t0
t0
t0
(5.52)
quindi il passaggio Eq. (5.49) non è più corretto, e la soluzione Eq. (5.48) non vale più. Per costruire una
soluzione in questo caso, definiamo il prodotto cronologico di due operatori:
O1 (t1 )O2 (t2 ) se t1 > t2
T [O1 (t1 ), O2 (t2 )] ≡
(5.53)
O2 (t2 )O1 (t1 ) se t2 > t1
La soluzione in tal caso è data da
1
S(t, t0 ) = T exp
i~
Z
t
dt0 Ĥ(t0 )
(5.54)
t0
Per dimostrarlo, calcoliamo esplicitamente fino al secondo ordine il prodotto cronologico dell’esponenziale. Troviamo
Z t
Z
Z
Z t
1 t 0
1 t 0
1 1
0
0
0
T exp
dt Ĥ(t ) = I +
dt Ĥ(t ) +
dt
dt00 T (Ĥ(t0 ), Ĥ(t00 )) + . . . ,
(5.55)
i~ t0
i~ t0
2 (i~)2 t0
t0
5.2 L’equazione di Schrödinger
67
Figura 5.1: Interpretazione geometrica dell’Eq (5.57). L’integranda T (Ĥ(t0 ), Ĥ(t00 )) è simmetrica rispetto
alla retta t0 = t00 .
ma
Z
t
0
Z
t
0
Z
00
t
dt T (Ĥ(t ), Ĥ(t )) =
dt
t0
00
t0
0
t0
t0
t0
t0
Z
dt00 Ĥ(t0 )Ĥ(t00 ) +
dt
t0
Ma ora notiamo che (vedi Figura 5.1)
Z t
Z t
Z t
Z
0
00
00
0
00
dt
dt Ĥ(t )Ĥ(t ) =
dt
t0
Z
t
Z
dt0
0
00
Z
0
t
0
dt Ĥ(t )Ĥ(t ) =
Z
(5.56)
t0
dt
t0
dt00 Ĥ(t00 )Ĥ(t0 ).
t0
t0
t00
t
t0
dt00 Ĥ(t0 )Ĥ(t00 )
(5.57)
t0
e quindi
Z
t
t0
dt0
Z
t
dt00 T (Ĥ(t0 ), Ĥ(t00 )) = 2
t0
Z
t
dt0
t0
t0
t0
t0
t0
dt00 Ĥ(t0 )Ĥ(t00 ).
(5.58)
t0
Iterando lo stesso argomento, si può dimostrare che
Z t
Z t
Z t
Z t
Z
T
dt1 Ĥ(t1 )
dt2 Ĥ(t2 ) · · ·
dtn Ĥ(tn ) = n!
dt1
t0
Z
t1
t0
Z
tn−1
dt2 · · ·
dtn Ĥ(t1 ) · · · Ĥ(tn ), (5.59)
t0
con
tn < tn−1 < · · · < t1 .
Ne segue quindi che S(t, t0 ) Eq. (5.54) può essere riscritta come
Z
Z t
Z t1
1 1
1 t
dt1 Ĥ(t1 ) +
2
dt
dt2 Ĥ(t0 )Ĥ(t1 ) + . . .
S(t, t0 ) =I +
1
i~ t0
2 (i~)2 t0
t0
Z t
Z tn−1
1 1
... +
n!
dt1 · · ·
dtn Ĥ(t1 ) · · · Ĥ(tn ),
n! (i~)n
t0
t0
(5.60)
(5.61)
che è nota come serie di Dyson.
Possiamo ora verificare esplicitamente che la serie di Dyson è una soluzione dell’equazione di Schrödinger:
Z
Z t
Z tn−1
∂
1 t
1
dt2 Ĥ(t2 ) + . . .
Ĥ(t)
dt
·
·
·
dtn Ĥ(t1 ) · · · Ĥ(tn ) (5.62)
i~ S(t, t0 ) = Ĥ(t) +
2
∂t
i~ t0
(i~)n−1
t0
t0
Z tk−1
Z
Z t
1
1 t
dt1 Ĥ(t1 ) + . . .
dt
·
·
·
dt
Ĥ(t
)
·
·
·
Ĥ(t
)
(5.63)
= Ĥ(t) I +
1
k
1
k
i~ t0
(i~)k t0
t0
= Ĥ(t)S(t, t0 ).
(5.64)
68
Evoluzione temporale
5.2.4
Stati stazionari
Le soluzioni formali dell’equazione di Schrödinger costruite nelle due sezioni 5.2.2-5.2.3 riducono il calcolo
dell’evoluzione temporale alla determinazione degli autostati dell’hamiltoniana. Questo è particolarmente utile nel caso di una Hamiltoniana che non dipende dal tempo, in cui la soluzione è espressa dalla
Eq. (5.47). Infatti, in tal caso, l’operatore di evoluzione temporale è funzione di un unico operatore, l’hamiltoniana indipendente dal tempo, ed è perciò diagonale nella base dei suoi autostati, pure indipendenti
dal tempo.
Per dimostrarlo, introduciamo autovettori |ni ed autovettori En dell’hamiltoniana
Ĥ|ni = En |ni.
(5.65)
Suppponiamo per semplicità che lo spettro di autovalori sia discreto; nel caso di spettro continuo l’argomento vale con minime modifiche (come la sostituzione della somma con un integrale). L’operatore di
evoluzione temporale Eq. (5.47), sviluppando sulla base degli autostati di energia, diventa
X
X
1
(t − t0 )En |nihn|.
(5.66)
S(t, t0 ) =
|mihm|S(t, t0 )|nihn| =
exp
i~
n,m
n
Ne segue che S(t, t0 ) è diagonale in questa base:
hi|S(t, t0 )|ji = exp
1
(t − t0 )Ei δij .
i~
(5.67)
Di conseguenza se il sistema si trova in un autostato di energia ci rimane. Sia infatti |ψ(t0 )i = |ki:
1
|ψ(t)i = S(t, t0 )|ki = exp
(t − t0 )Ek |ki
(5.68)
i~
che differisce dallo stato iniziale per una fase. Naturalmente, questa è la verifica esplicita della conservazione dell’energia quando vi è invarianza per traslazioni temporali, da cui siamo partiti per costruire
l’operatore di evoluzione temporale stesso.
Per uno stato qualsiasi si ha:
X
X
X
1
1
(t − t0 )En |nihn|ψ(t0 )i =
(t − t0 )En |ni =
|ψ(t)i =
exp
cn (t0 ) exp
cn (t)|ni (5.69)
i~
i~
n
n
n
e inoltre
Pn (t) = |cn (t)|2 = |cn (t0 )|2 ,
(5.70)
quindi la probabilità che una misura riveli il sistema in uno qualunque degli autostati di energia non
dipende dal tempo.
Questo implica immediatamente che il valor medio di qualunque operatore A in un autostato di energia
non dipende dal tempo; questa conclusione però vale solo nel caso di spettro discreto. Infatti il valor
medio di A è
X
X
hψ|A|ψi =
hψ|nihn|A|mihm|ψi =
c∗n (t)hn|A|micm (t).
(5.71)
n,m
n,m
Se |ψi è un autostato dell’energia,
1
1
hn|A|ni = hn(t0 )| exp − (t − t0 )En A exp
(t − t0 )En |n(t0 )i = hn(t0 )|A|n(t0 )i.
i~
i~
(5.72)
Per questa ragione gli autostati dell’energia sono detti stati stazionari. Nel caso di spettro continuo non
è possible però raggiungere questa conclusione: infatti in tal caso, come abbiamo visto nel paragrafo 4.3
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
69
gli elementi di matrice degli operatori in generale sono ben definiti solo fra stati diversi, nel senso della
distribuzioni. Quindi nel caso di spettro continuo possiamo solo affermare che
1
hn0 |A|ni = exp
(t − t0 )(En0 − En ) hn0 (t0 )|A|n(t0 )i,
(5.73)
i~
ma l’elemento di matrice è in generale mal definito se n0 = n e quindi nulla si può dire. Vedremo
un esempio di questa situazione nello studio della dipendenza dal tempo dell’operatore posizione negli
autostati dell’energia per una particella libera, nel paragrafo 6.
5.3
Evoluzione temporale alla Schrödinger e alla Heisenberg
Mentre in meccanica classica lo stato di un sistema è specificato dai valori di alcune delle osservabili che
lo caratterizzano (ad esempio la posizione e l’impulso, in un formalismo hamiltoniano), abbiamo visto
come in meccanica quantistica sia necessario distinguere lo stato di un sistema (dato dal suo ket di stato)
dai valori delle sue osservabili (che sono i risultati delle misure che possiamo eseguire su di esso, note solo
probabilisticamente). Questo significa che mentre in meccanica classica vi è un unico modo di descrivere
l’evoluzione temporale di un sistema, attraverso la dipendenza dal tempo dei valori delle osservabili
(posizione ed impulso), quantisticamente vi sono due possibilità. La prima è di supporre, come abbiamo
fatto finora, che lo stato dipenda dal tempo, e ci dica come cambiano nel tempo le probabiltà dei risultati
delle misure di osservabili. La seconda è di supporre che siano gli operatori associati ad osservabili a
dipendere dal tempo, e che gli stati restino fissi. La prima formulazione dell’evoluzione temporale, che
abbiamo considerato finora, è detta formulazione (o rappresentazione) di Schrödinger, mentre la seconda,
che ora introduciamo, è detta formulazione (o rappresentazione) di Heisenberg.
5.3.1
La rappresentazione di Heisenberg
La rappresentazione di Heisenberg è basata sull’idea di rendere dipendenti dal tempo gli operatori: quindi,
dato un operatore associato ad un’osservabile, la sua dipendenza dal tempo si può ottenere attraverso
l’azione dell’evoluzione temporale, vista come una trasformazione unitaria dell’operatore. Come abbiamo
visto nella sezione 3.1.3, sotto una trasformazione unitaria un operatore si trasforma per azione aggiunta
Eq. (3.25). Dato un certo operatore A al tempo t0 il suo evoluto temporale a qualunque altro tempo ha
quindi la forma
AH (t) = SH −1 (t, t0 )AH (t0 )SH (t, t0 ),
(5.74)
dove l’indice H su tutti gli operatori ci ricorda che stiamo cercando una nuova forma, diversa da quella
considerata finora sia degli operatori che della dipendenza temporale. È facile vedere che la dipendenza
temporale degli elementi di matrice di A è la stessa di quella alla Schrödinger studiata finora se facciamo
l’ipotesi che
AH (t0 ) = AS ;
|ϕH i = |ϕS (t0 )i SH (t, t0 ) = S(t, t0 ),
(5.75)
cioè:
• che l’operatore al tempo iniziale sia l’operatore alla Schrödinger, ossia l’operatore indipendente dal
tempo considerato finora;
• che gli stati alla Heisenberg in cui si calcolano gli elementi di matrice siano indipendenti dal tempo,
ed eguali agli stati alla Schrödinger considerati finora, ma presi al tempo iniziale t = t0 ;
• che l’operatore di evoluzione temporale sia identico a quello introdotto nella sezione precedente.
Abbiamo infatti che, usando il formalismo di Schrödinger della sezione 5.2,
hψ|A|ϕ(t)i = hψS (t)|A|ϕS (t)i = hψS (t0 )|S −1 (t, t0 )AS(t, t0 )|ϕS (t0 )i.
(5.76)
70
Evoluzione temporale
D’altra parte, la legge di evoluzione alla Heisenberg degli operatori Eq. (5.74) con le identificazioni
Eq. (5.75) implica che
hψ(t)|A|ϕ(t)i = hψ(t0 )|S −1 (t, t0 )AS(t, t0 )|ϕ(t0 )i,
(5.77)
che manifestamente coincide con la Eq. (5.76).
Più in generale, vediamo che la legge di evoluzione alla Heisenberg degli operatori Eq. (5.74), con le
identificazioni Eq. (5.75), fornisce le stesse predizioni delle leggi di evoluzione temporale alla Schrödinger
della sezione precedente per il risultato di qualunque misura. In rappresentazione di Schrödinger, l’ampiezza di probabilità, per un sistema che si trova nello stato |ψS (t0 )i al tempo t0 , di rivelare il sistema
nell’autostato |ni associato all’autovalore λn dell’operatore A,
A|ni = λn |ni
(5.78)
an (t) = hn|S(t, t0 )|ψ(t0 )i.
(5.79)
è
In rappresentazione di Heisenberg lo stato non dipende più dal tempo, ma se vale la Eq. (5.74), sono
gli autostati |nH (t)i di AH (t) a dipendere dal tempo. Notare che ciononostante gli autovalori non ne
dipendono, visto che gli operatori A(t) a tutti i tempi t sono tutti unitariamente equivalenti fra di loro
(si ricordino le Eq. (3.26-3.28)). Si ha
AH (t)|nH (t)i = λn |nH (t)i,
(5.80)
S −1 (t, t0 )AS(t, t0 )|nH (t)i = λn |nH (t)i,
(5.81)
A(t0 )S(t, t0 )|nH (t)i = λn S(t, t0 )|nH (t)i.
(5.82)
che, sfruttando la Eq. (5.74), implica
ovvero
Pertanto, gli stati S(t, t0 )|nH (t)i coincidono con gli autostati di A al tempo t0 , ossia, se A(t0 ) = A, con
gli stati |ni Eq. (5.78):
|ni = |nH (t0 )i = S(t, t0 )|nH (t)i,
(5.83)
|nH (t)i = S −1 (t, t0 )|ni.
(5.84)
ovvero
L’ampiezza di probabilità di una misura che rivela il sistema nello stato associato all’autovalore λn è
quindi
hnH (t)|ψi = hn|S(t, t0 )|ψi,
(5.85)
che manifestamente coincide con la Eq. (5.79). Visto che le ampiezze di probabilità dei risultati di misure
esprimono il contenuto predittivo della meccanica quantistica, ne concludiamo che le formulazioni alla
Schrödinger ed alla Heisenberg delle leggi di evoluzione temporale sono del tutto equivalenti.
5.3.2
Leggi del moto alla Heisenberg
Analogamente a quanto fatto in rappresentazione di Schrödinger, vogliamo ora scrivere le leggi del moto
alla Heisenberg sotto forma di equazioni differenziali. Visto che in rappresentazione di Heisenberg sono
gli operatori, e non gli stati, a dipendere dal tempo, l’equazione di Schrödinger Eq. (5.35) per gli stati è
rimpiazzata da un’equazione per gli operatori.
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
71
Utilizzando la legge Eq. (5.74), che esprime la dipendenza temporale degli operatori alla Heisenberg
attraverso l’operatore di evoluzione temporale, l’identificazione Eq. (5.75) tra operatori alla Schrödinger a
alla Heisenberg, e l’Equazione di Schrödinger Eq. (5.42) soddisfatta dall’operatore di evoluzione temporale,
troviamo che
d
d −1
AH (t) =
S (t, t0 )AS S(t, t0 ) =
dt
dt
∂S −1 (t, t0 )
∂AS
∂S(t, t0 )
AS (t, t0 )S(t, t0 ) + S −1 (t, t0 )
S(t, t0 ) + S −1 (t, t0 )AS
.
=
∂t
∂t
∂t
(5.86)
Notiamo che il primo e l’ultimo termine contengono la dipendenza dal tempo dell’operatore A dovuta alla
sua evoluzione temporale alla Heisenberg Eq. (5.74), mentre il secondo contiene una eventuale dipendenza
parametrica dal tempo già presente nell’operatore alla Schrödinger. Infatti, la legge di evoluzione alla
Heisenberg Eq. (5.74) per gli operatori vale per qualunque operatore: sia quelli che alla Schrödinger non
dipendono dal tempo (come per esempio l’impulso), sia per quelli che ne dipendono (come per esempio
una hamiltoniana alla Schrödinger con un potenziale che dipende dal tempo).
L’equazione di Schrödinger (5.42) fornisce un’espressione per ∂S
∂t , ed inoltre implica che
i~
∂S †
= (ĤS)† ,
∂t
(5.87)
da cui, sfruttando l’unitarietà di S e l’hermiticità di Ĥ,
−i~
∂S −1
= S −1 Ĥ.
∂t
(5.88)
Sostituendo quest’ultima espressione e la Eq. (5.42) nella legge del moto per gli operatori (5.86)
otteniamo
d
1
∂AS
Ĥ(t)
AH (t) = − S(t, t0 )−1 Ĥ(t)AS S(t, t0 ) + S −1 (t, t0 )
S(t, t0 ) + S −1 (t, t0 )AS
S(t, t0 ),
dt
i~
∂t
i~
(5.89)
e quindi, usando di nuovo la Eq. (5.74),
1
∂AS
Ĥ(t)
d
AH (t) = − S(t, t0 )−1 Ĥ(t)S(t, t0 )AH (t) + S −1 (t, t0 )
S(t, t0 ) + AH (t)S −1 (t, t0 )
S(t, t0 )
dt
i~
∂t
i~
(5.90)
che possiamo riscrivere come
d
1
∂AH (t)
AH (t) = [AH (t), ĤH (t)] +
,
dt
i~
∂t
(5.91)
dove abbiamo posto, in accordo con la Eq. (5.74) (l’hamiltoniana è un operatore come gli altri)
ĤH (t) = S(t, t0 )−1 ĤS (t)S(t, t0 ).
(5.92)
Notiamo che l’eventuale dipendenza temporale sia dell’hamiltoniana HS che dell’operatore AS alla
Schrödinger è una dipendenza parametrica: HS = HS (p̂S , q̂S ; t), con p̂S e q̂S indipendenti dal tempo, e
con un’eventuale dipendenza dal tempo contenuta dei parametri del sistema (per esempio, nei coefficienti
che caratterizzano il potenziale). In caso di dipendenza parametrica, AS = A(t) e le Eq. (5.74-5.75)
andrebbero più propriamente riscritte come
AH (p̂H (t), q̂H (t); t) = SH −1 (t, t0 )AH (t0 ; t)SH (t, t0 ),
AH (t0 ; t) = AS (t),
(5.93)
che nel caso particolare dell’hamiltoniana coincide con la Eq. (5.92). La derivata parziale nell’ultimo
termine a membro destro della Eq. (5.91) indica la derivata rispetto al tempo per fissi p̂ e q̂. Naturalmente,
se le hamiltoniane a tempi diversi commutano (e quindi in particolare se il sistema è invariante per
traslazioni temporali) ĤH (t) = ĤS (t).
72
Evoluzione temporale
Per i singoli elementi di matrice dell’operatore abbiamo invece:
d
d
Aϕψ (t) = hϕS (t)|AS |ψS (t)i
dt
dt
d
= hϕH |AH (t)|ψH i
dt
1
∂AH (t)
= hϕH | [AH (t), ĤH (t)]|ψH i + hϕH |
|ψH i
i~
∂t
1
∂AS
= hϕS (t)| [AS , Ĥ]|ψS (t)i + hϕS (t)|
|ψS (t)i.
i~
∂t
5.3.3
(5.94)
(5.95)
(5.96)
(5.97)
Leggi di conservazione: il teorema di Noether in meccanica quantistica
Le equazioni (5.94-5.97) mostrano esplicitamente che tutti gli elementi di matrice di un operatore che
commuta con l’hamiltoniana (e non dipende dal tempo esplicitamente) si conservano. D’altra parte, il
commutatore del generatore di una trasformazione con un operatore fornisce la trasformazione dell’operatore stesso: si ricordi la Eq. (4.70). Quindi un operatore commuta con l’hamiltoniana se e solo se la
trasformazione da esso generata lascia l’hamiltoniana invariata. In tal caso, lo spettro dell’operatore si
conserva. Concludiamo perciò che anche nel caso quantistico ad un’invarianza della dinamica — nel nostro caso un’invarianza dell’hamiltoniana — corrisponde una quantità conservata: condizione necessaria
e sufficiente affinchè l’evoluzione temporale preservi l’autovalore di un operatore è che esso commuti con
l’hamiltoniana.
Questo è il risultato la cui dimostrazione (si ricordi la Sezione 4.2.4) ha motivato la costruzione degli
operatori associati ad osservabili. Ora vediamo che esso è immediata conseguenza delle leggi del moto alla
Heisenberg. Ciò esprime, nella forma più generale e compatta, l’insieme delle leggi di conservazione che
abbiamo già visto, nel caso di trasformazioni indipendenti dal tempo nel paragrafo 4.2, e nel paragrafo 5.1
nel caso delle traslazioni temporali.
5.3.4
Teorema di Ehrenfest e transizione classico-quantistico
Le equazioni del moto per gli operatori in rappresentazione di Heisenberg sono strettamente legate alle
equazioni del moto classiche. Consideriamo in particolare le equazioni del moto per gli operatori posizione
ed impulso alla Heisenerg:
dq̂H
1
= [q̂H , ĤH ]
dt
i~
dp̂H
1
= [p̂H , ĤH ].
dt
i~
(5.98)
(5.99)
Il commutatore tra q̂ ed una funzione f (p̂), o tra p̂ ed una funzione f (q̂), si può calcolare ricordando
che una funzione di un operatore è definita dalla sua serie di Taylor (o di Laurent):
X
X
X
X
k
[q̂, f (p̂)] = q̂,
fk p̂ =
fk [q̂, p̂p̂k−1 ] =
fk p̂[q̂, p̂k−1 ] +
fk [q̂, p̂]p̂k−1
k
=
X
k
=
X
k
k
fk p̂[q̂, p̂k−1 ] + i~
k
X
fk p̂k−1 =
k
fk p̂2 [q̂, p̂k−2 ] + 2i~
X
X
fk p̂ p̂[q̂, p̂k−2 ] + [q̂, p̂]p̂k−2 + i~
fk p̂k−1
k
X
(5.100)
k
(5.101)
k
fk p̂k−1 = · · · = i~
k
X
fk k p̂k−1 .
(5.102)
k
Analogamente
[p̂, f (q̂)] = −i~
X
k
fk k q̂ k−1 .
(5.103)
5.3 Evoluzione temporale alla Schrödinger e alla Heisenberg
73
Ne segue che
∂f (p̂)
∂ p̂
∂f (q̂)
[p̂, f (q̂)] = −i~
∂ q̂
[q̂, f (p̂)] = i~
(5.104)
(5.105)
Possiamo sfruttare le Eq. (5.104-5.105) per determinare le equazioni del moto (5.98-5.99) per una
hamiltoniana della forma Eq. (5.36):
∂ Ĥ
p̂H
dq̂H
=
=
dt
∂ p̂
m
(5.106)
dp̂H
∂ Ĥ
∂ V̂ (q̂)
=−
=−
,
dt
∂q
∂ q̂
(5.107)
che coincidono con le equazioni classiche del moto nella forma di Hamilton, con la sostituzione delle
variabili canoniche classiche con i corrispondenti operatori quantistici.
Nel caso di potenziali che dipendono anche dalla velocità l’argomento in generale non vale: la funzione
V̂ (p̂, q̂) in generale dipende dall’ordinamento degli operatori p̂ e q̂. Tuttavia, se
V̂ (q̂, p̂) = p̂f (q̂) + f (q̂)p̂
(5.108)
le equazioni del moto continuano ad avere la stessa forma delle equazioni classiche, infatti
p̂
p̂
∂ V̂ (q̂, p̂)
dq̂
=
+ 2f (q̂) =
+
dt
m
m
∂ p̂
dp̂
∂f (q̂) ∂f (q̂)
= − p̂
+
p̂ .
dt
∂ q̂
∂ q̂
(5.109)
(5.110)
Le equazioni del moto Eq. (5.106-5.107) implicano le equazioni per i valori medi
d
hq̂i =
dt
d
hp̂i =
dt
∂ Ĥ
∂ p̂
(5.111)
−
∂ Ĥ
,
∂ q̂
(5.112)
che evidentemente valgono indipendentemente dalla scelta della rappresentazione, visto che i valori medi
degli operatori sono osservabili fisiche, la cui dipendenza temporale è univocamente predetta dalla teoria.
Le Eq. (5.111-5.112) sono note come teorema di Ehrenfest. Esso afferma che i valori medi degli
operatori quantistici soddisfano le leggi del moto classiche. La meccanica classica emerge quindi dalla
meccanica quantistica nel limite in cui l’indeterminazione, ossia la deviazione standard dei risultati di
una misura, è piccola rispetto al tipico valore della misura stessa. Stimeremo questa deviazione standard
nel prossimo capitolo.
5.3.5
Leggi del moto, parentesi di Poisson e commutatori
La legge di evoluzione temporale di una osservabile classica A(q, p) è data da
dA
∂A
∂A
∂A
=
q̇ +
ṗ +
dt
∂q
∂p
∂t
∂A ∂H
∂A ∂H
∂A
=
−
+
∂q ∂p
∂p ∂q
∂t
∂A
= {A, H} +
,
∂t
(5.113)
(5.114)
(5.115)
74
Evoluzione temporale
dove {A, H} è la parentesi di Poisson delle funzioni A e H. Vediamo cosı̀ come le leggi del moto quantistiche nella forma di Heisenberg Eq. (5.91) si possano ottenere da quelle classiche sostituendo le parentesi
di Poisson con un commutatore, a meno di un fattore i~. Questo dimostra esplicitamente quanto affermato al termine della sezione 5.1.3, e cioè che l’evoluzione temporale quantistica si ottiene da quella
classica, rimpiazzando la trasformazione canonica generata dalle parentesi di Poisson con una traslazione
temporale generata dalle parentesi di commutazione.
Parte II
Meccanica quantistica in una
dimensione
Capitolo 6
La particella unidimensionale libera
Studieremo ora gli stati fisici, ed in particolare lo spettro dell’hamiltoniana, per diversi sistemi unidimensionali nello spazio delle coordinate, con hamiltoniane della forma Ĥ = T̂ + V̂ Eq. (5.36). Finora abbiamo
indicato l’operatore posizione con q̂, sottintendendo che il suo autovalore q potesse corrispondere al valore di una coordinata Lagrangiana qualunque. In questo capitolo faremo esplicito rifermiento a sistemi
descritti da una coordinata cartesiana, che chiameremo x: l’operatore p̂ ne genererà le traslazioni, ed il
commutatore canonico sarà quindi
[p̂, x̂] = −i~.
(6.1)
Cominciamo dal caso più semplice, in cui il potenziale è nullo, V̂ = 0 dimodoché
Ĥ =
p̂2
:
2m
(6.2)
la particella libera.
6.1
Autostati dell’hamiltoniana
Gli autostati dell’hamiltoniana per una particella libera possono essere scelti come autostati dell’operatore
impulso, visto che [Ĥ, p̂]=0: se
p̂|ki = ~k|ki
(6.3)
Ĥ|ki = Ek |ki
(6.4)
si ha quindi
2 2
Ek =
~ k
.
2m
(6.5)
Notiamo che vi è una coppia di autostati dell’impulso, | ± ki, associati ad ogni autovalore Ek dell’energia:
si dice in tal caso che lo spettro è degenere (doppiamente degenere). Questo implica in particolare che
qualunque combinazione lineare
|ψE i = c1 |ki + c2 | − ki
(6.6)
di questi due stati è ancora un autostato associato allo stesso autovalore Ek . Poiché una delle due
costanti ci può essere fissata per normalizzazione (essendo al solito inosservabile la fase globale della
funzione d’onda), in questo caso di doppia degenerazione il più generale autostato di fissa energia dipende
da un parametro libero.
Nella base delle coordinate l’equazione agli autovalori
hq|Ĥ|ki = Ek hq|ki
(6.7)
78
La particella unidimensionale libera
ha la forma esplicita
~2 ∂ 2
ψk (x) = Ek ψk (x),
2m ∂x2
e le ψk (x) possono essere scelte come onde piane
−
1
ψk (x) = √ eikx ,
2π
(6.8)
(6.9)
che soddisfano la condizione di normalizzazione impropria
hk|k 0 i = δ(k − k 0 ).
6.1.1
(6.10)
Evoluzione temporale degli stati
La dipendenza dal tempo degli autostati dell’hamiltoniana si determina immediatamente usando la
Eq. (5.68) ed è data da
Ek
1
1
1
hx|k; ti = hx|e i~ Ĥt |k; t0 = 0i = e i~ Ek t hx|k; 0i = √ ei kx− ~ t
(6.11)
2π
che spesso viene riscritta come
1
hx|k; ti = √ ei
2π
kx−ωk t
,
(6.12)
dove si è definita la pulsazione
ωk =
Ek
,
~
(6.13)
e per un’onda piana
~k 2
.
(6.14)
2m
Gli autostati evolvono nel tempo come le onde piane libere dell’elettrodinamica. Contrariamente
alle onde elettromagnetiche, la relazione tra la frequenza di oscillazione nel tempo e la frequenza di
oscillazione nello spazio è di tipo quadratico, mentre nel caso dell’ottica la relazione è di proporzionalità
diretta. L’equazione (6.14) viene chiamata relazione di dispersione non relativistica, in quanto è basata
sulla relazione Eq. (6.5) tra energia cinetica ed impulso per la particella non relativistica libera.
ωk =
6.1.2
Equazioni del moto per posizione ed impulso
In rappresentazione di Heisenberg, lo stato di un sistema di particella libera è l’onda piana Eq. (6.9), a
tutti i tempi, mentre gli operatori dipendono dal tempo. Come abbiamo visto, la dipendenza dal tempo
degli operatori posizione ed impulso soddisfa equazioni del moto che coincidono con quelle classiche. Ne
segue che gli operatori p̂H (t), x̂H (t) dipendono dal tempo secondo le leggi del moto classiche:
p̂H (t) = p̂H (t0 ) = p̂S
(6.15)
p̂H
p̂S
x̂H (t) = x̂H (t0 ) + (t − t0 )
= x̂S + (t − t0 ) .
m
m
(6.16)
È istruttivo chiedersi come lo stesso risultato si possa ritrovare utilizzando la rappresentazione di
Schrödinger: come vedremo, si trova lo stesso risultato, ma in modo più laborioso. Per l’operatore
impulso abbiamo
Z
Z
dx
exp i[(k − k 0 )x − (ωk − ωk0 )t] (6.17)
hk 0 ; t|p̂|k; ti = ~khk 0 ; t|k; ti = ~k dx hk 0 ; t|xihx|k; ti = ~k
2π
Z
0
0
dx i(k−k0 )x
= ~ke−i(ωk −ωk )t
e
= ~ke−i(ωk −ωk )t δ(k − k 0 )
(6.18)
2π
= ~kδ(k − k 0 ),
(6.19)
6.1 Autostati dell’hamiltoniana
79
dove nell’ultimo passaggio abbiamo notato che se k = k 0 allora Ek = Ek0 . Quindi gli elementi di matrice
dell’operatore impulso non dipendono dal tempo
hk 0 ; t|p̂|k; ti = ~kδ(k − k 0 ).
Studiamo ora la dipendenza temporale degli elementi di matrice dell’operatore posizione x̂
Z
Z
hk 0 ; t|x̂|k; ti = dx hk 0 ; t|x̂|xihx|k; ti = dx xhk 0 ; t|xihx|k; ti
Z
dx
=
x exp i[(k − k 0 )x − (ωk − ωk0 )t].
2π
(6.20)
(6.21)
(6.22)
Ora osserviamo che
0
0
1 d i[(k−k0 )x−(ωk −ωk0 )t]
1
dωk i[(k−k0 )x−(ωk −ωk0 )t]
e
= xei[(k−k )x−(ωk −ωk )t] + (−it)
e
i dk
i
dk
0
0
~kt i[(k−k0 )x−(ωk −ωk0 )t]
= xei[(k−k )x−(ωk −ωk )t] −
e
,
m
(6.23)
(6.24)
e di conseguenza
0
0
xei[(k−k )x−(ωk −ωk )t] =
~kt i[(k−k0 )x−(ωk −ωk0 )t]
1 d
+
e
.
i dk
m
(6.25)
Possiamo quindi riscrivere la Eq. (6.22) come
Z
0
~kt i[(k−k0 )x−(ωk −ωk0 )t]
d
~kt
dx 1 d
0
+
e
= −i δ(k − k 0 )ei(ωk −ωk )t +
δ(k − k 0 ),
hk ; t|x̂|k; ti =
2π i dk
m
dk
m
(6.26)
cioè
hk 0 ; t|x̂|k; ti = −i
d
~kt
δ(k − k 0 ) +
δ(k − k 0 ).
dk
m
(6.27)
Pertanto gli elementi di matrice dell’operatore posizione soddisfano
hk 0 |x̂|ki = hk 0 |x̂S |ki +
t 0
hk |p̂S |ki,
m
(6.28)
che è lo stesso risultato che avevamo trovato in rappresentazione di Heisenberg. Notiamo che, come
avevamo osservato nella discussione degli stati stazionari nel paragrafo 5.2, quando, come in questo caso,
lo spettro di energia è continuoo, non possiamo concludere che l’elemento di matrice diagonale degli
operatori in uno stato stazionario è indipendente dal tempo, perché l’elemento di matrice diagonale non
è ben definito, e quindi possiamo solo concludere che l’elemento di matrice tra due autostati dell’energia
dipende daql tempo, come nel caso dell’Eq. (6.28)
6.1.3
Dipendenza dal tempo dell’indeterminazione
Una immediata conseguenza di queste leggi del moto è il fatto forse sorprendente che anche per una
particella libera, quindi non soggetta a forze, gli operatori posizione alla Heisenberg a tempi diversi non
commutano fra loro:
[x̂H (t), x̂H (t0 )] =
i~(t − t0 )
(t − t0 )
[x̂S , x̂S ] =
.
m
m
(6.29)
Quindi se il sistema è preparato in un autostato della posizione al tempo t0 , esso non è più in un autostato
della posizione a tempi successivi.
80
La particella unidimensionale libera
Infatti, il principio di indeterminazione, assieme al commutatore Eq. (6.29), implica
∆2ψ x(t)∆2ψ x(t0 ) ≥
~2 (t − t0 )2
.
4m2
(6.30)
Ciò significa che, per un sistema non soggetto a forze, se si effettua una misura di posizione con una
certa indeterminazione, la dispersione dei risultati di una seconda misura di posizione fatta ad un tempo
successivo è tanto più grande quanto più tempo è passato tra le due misure.
Questo si può capire fisicamente nel modo seguente: se al tempo t si effettua una misura di posizione
2
con indeterminazione ∆2ψ x(t), allora l’impulso ha indeterminazione ∆2ψ p(t) ≥ ~4 ∆2 1x(t) . Ma visto che per
ψ
il teorema di Ehrenfest Eq. (5.111-5.112) le leggi del moto classiche valgono in media, la dispersione di
valori dell’impulso implica una dispersione di valori di posizione che cresce nel tempo secondo la legge
del moto classica. Renderemo questo argomento più quantitativo nella Sez. 6.3.2.
6.2
Pacchetti d’onde
Le autofunzioni dell’impulso, e quindi le autofunzioni dell’hamiltoniana di particella libera, ossia le onde
piane Eq. (4.97), sono stati di definito impulso e quindi posizione completamente indeterminata, come si
vede notando che la densità di probabilità per una misura di posizione che se ne ottiene è una costante
indipendente dalla posizione. Tuttavia, in qualunque situazione realistica, l’impulso viene misurato con
risoluzione finita, su sistemi localizzati in una porzione finita di spazio. Una qualunque particella libera
realistica è cioè in uno stato sovrapposizione di autostati dell’impulso: un pacchetto d’onde.
Il più generale pacchetto d’onde si ottiene costruendo una sovrapposizione di autostati dell’impulso,
ciascuno dei quali evolve nel tempo come onda piana:
Z
Z
Z
1
ψ(x; t) = dk hx|kihk|ψ(t)i = dk hx|kihk|S(t, 0)|ψ(t = 0)i = dk √ ei(kx−ωk t) ψ(k; t = 0). (6.31)
2π
Sapendo come è fatto lo stato sulla base di autostati dell’impulso al tempo iniziale possiamo calcolare la
sua evoluzione per tempi successivi dato che è nota quella dei suoi autostati.
6.2.1
Stati di minima indeterminazione
Ci concentriamo ora su una particolare classe di pacchetti d’onda, cioé quelli di minima indeterminazione,
tali da soddisfare, al tempo iniziale t = 0 la condizione
∆2ψ x∆2ψ p =
~2
,
4
(6.32)
ossia il minimo valore del prodotto delle indeterminazioni posizione-impulso permesso dal principio di
indeterminazione di Heisenberg.
Per costruire uno stato di minima indeterminazione ricordiamo la dimostrazione del principio di indeterminazione presentata nella Sez. 3.2.3: dati due operatori A e B abbiamo ottenuto la relazione di
indeterminazione combinando le due disuguaglianze
2
hψ|A2 |ψihψ|B 2 |ψi ≥ hψ|AB|ψi
hψ|AB|ψi2 ≥ 1 hψ|[A, B]|ψi2 .
4
(6.33)
(6.34)
Pertanto, identifichiamo
A = ∆p̂ = p̂ − hp̂i;
B = ∆x̂ = x̂ − hx̂i,
(6.35)
e chiediamo che le due disuguaglianze Eq. (6.33-6.34) siano soddisfatte come uguaglianze. Attenzione
alla notazione: ∆p̂ e ∆q̂ sono operatori (definiti secondo la Eq. (6.35)). Invece le indeterminazioni ∆2ψ p
6.2 Pacchetti d’onde
81
e ∆2ψ q sono dei numeri — si tratta infatti di deviazioni standard di risultati di misure. Con le nostre
definizioni
2
2
∆2ψ p = hψ| (∆p̂) |ψi∆2ψ q
= hψ| (∆q̂) |ψi.
Cominciamo trovando le condizioni per l’uguaglianza nella disuguaglianza di Schwartz Eq. (6.33).
Come nella Sez. 3.2.3, poniamo
A|ψi = |αi e B|ψi = |βi
(6.36)
hα|βi2 ≤ hα|αihβ|βi
(6.37)
|βi = z|αi.
(6.38)
dimodoché la disuguaglianza
diventa un’uguaglianza se
Per quanto concerne la Eq. (6.34), ricordiamo che
1
1
hψ|{A, B}|ψi + hψ|[A, B]|ψi
2
2
= Re hψ|AB|ψi + iIm hψ|AB|ψi,
hψ|AB|ψi =
(6.39)
(6.40)
quindi, affinché la (6.34) sia soddisfatta come uguaglianza, è necessario che
hψ|{A, B}|ψi = Re hψ|AB|ψi = 0,
(6.41)
che, utilizzando la Eq. (6.38), implica
Re (zhψ|A2 |ψi) = 0,
(6.42)
z = iλ
(6.43)
e quindi
con λ reale, visto che hψ|A2 |ψi = hφ|φi, avendo definito |φi = A|ψi.
Usando la Eq. (6.35), e combinando le Eq. (6.38-6.42) si ha cosı̀ che la condizione necessaria affinché
lo stato |ψi sia di minima indeterminazione è
∆p̂|ψi = iλ∆q̂|ψi.
Nella base delle coordinate, la Eq. (6.44) diventa l’equazione differenziale
hx| p̂ − hp̂i |ψi = iλhx| x̂ − hx̂i |ψi.
(6.44)
(6.45)
Ponendo
x0 ≡ hx̂i;
p0 ≡ hp̂i
(6.46)
la Eq. (6.44) diventa
∂ψ(x)
ip0
λ
=
ψ(x) − (x − x0 )ψ(x),
∂x
~
~
(6.47)
la cui soluzione è
ip0 x
λ
2
ψ(x) = N exp
−
(x − x0 ) ,
~
2~
(6.48)
82
La particella unidimensionale libera
dove la condizione iniziale N è fissata per normalizzazione. Quest’ultima è fissata dalla condizione
r
Z ∞
Z ∞
π~
2 −λ
0
2 −λ
(x−x0 )2
x02
2
~
~
dx |N | e
1 = hψ|ψi =
dx |N | e
=
= |N |
,
(6.49)
λ
−∞
−∞
da cui
|N | =
λ
π~
14
.
(6.50)
Concludiamo che lo stato di minima indeterminazione è una gaussiana, centrata in x0 (che determina
cosı̀ il valor medio della posizione), di larghezza inversamente proporzionale a λ e modulata da un’onda
piana che determina il valore medio p0 dell’impulso.
6.2.2
Indeterminazione del pacchetto d’onde
Vogliamo ora calcolare l’indeterminazione di posizione ed impulso in questo stato. Calcoliamo quindi
∆2ψ x = h(x̂ − hx̂i)2 i e ∆2ψ p = h(p̂ − hp̂i)2 i. Innanzitutto verifichiamo che effettivamente x0 = hx̂i e
p0 = hp̂i:
Z ∞
Z ∞
Z ∞
2
λ 02
λ
dx0 e− ~ x (x0 + x0 ) = x0 ,
hx̂i = hψ|x̂|ψi =
dx |ψ(x)|2 x = |N |2
dx e− ~ (x−x0 ) x = |N |2
−∞
−∞
−∞
(6.51)
dove nell’ultimo passaggio il termine contenente x0 si annulla perché si tratta dell’integrale
R ∞ di unaλfunzione
02
dispari su dominio pari, ed abbiamo usato la condizione di normalizzazione |N |2 −∞ dx0 e− ~ x = 1.
Analogamente
Z ∞
Z ∞
ip0
∂ψ(x)
∗
∗
=
dx ψ (x) (−i~)
hp̂i = hψ|p̂|ψi =
dx ψ (x)(−i~)
ψ(x)
(6.52)
∂x
~
−∞
−∞
Z ∞
Z ∞
λ
2(x − x0 )ψ(x) =
+
dx |ψ(x)|2 p0 = p0 ,
(6.53)
dx ψ ∗ (x)(−i~) −
2~
−∞
−∞
dove nuovamente il secondo termine è nullo in quanto si tratta dell’integrale di una funzione dispari su
dominio pari.
Possiamo ora calcolare le indeterminazioni:
Z ∞
∂
∂
hψ|(p̂ − p0 )2 |ψi =
− p0
− p0 ψ(x)
dx ψ ∗ (x) − i~
− i~
(6.54)
∂x
∂x
−∞
Z ∞
λ
∂
− p0 (−i~) − (x − x0 ) ψ(x)
(6.55)
=
dx ψ ∗ (x) − i~
∂x
~
−∞
Z ∞
2
λ
= ~λ − λ2
dx |N |2 (x − x0 )2 e− ~ (x−x0 )
(6.56)
−∞
Z ∞
λ 02
~λ
= ~λ − λ2
dx0 |N |2 x02 e− ~ x =
.
(6.57)
2
−∞
L’ultimo integrale è stato calcolato a partire da quello gaussiano differenziando sotto il segno di integrale:
r
r
Z ∞
Z ∞
Z ∞
d
d
d
π
1
π
−∆x2
−∆x2
2 −∆x2
dx x e
=
dx −
e
=−
dx e
=−
=
(6.58)
d∆
d∆ −∞
d∆ ∆
2∆ ∆
−∞
−∞
Per la posizione abbiamo
2
Z
∞
2
2
Z
∞
dx|ψ(x)| (x − x0 ) =
hψ|(x̂ − x0 ) |ψi =
−∞
−∞
λ
02
dx0 |N |2 x02 e− ~ x =
~
,
2λ
(6.59)
6.2 Pacchetti d’onde
83
facendo nuovamente uso della Eq. (6.58).
Siamo quindi arrivati a stabilire che
~λ
2
~
2
:
∆ x=
2λ
∆2 p =
(6.60)
(6.61)
di conseguenza, abbiamo confermato che il pacchetto gaussiano che abbiamo trovato è effettivamente un
pacchetto di minima indeterminazione, per cui
∆2 p̂∆2 x̂ =
~2
.
4
(6.62)
Conviene esprimere λ in termini dell’indeterminazione in posizione usando la Eq. (6.60). Otteniamo cosı̀
p0 1 (x − x0 )2
hx|ψi = ψ(x) = N exp i x −
,
(6.63)
~
4 ∆2 x̂
che mostra esplicitamente come l’indeterminazione in posizione ∆2 x determini la larghezza della densità
di probabilità di posizione.
6.2.3
Indeterminazione posizione-impulso
Il fatto che la larghezza del pacchetto gaussiano dia l’indeterminazione in posizione è intuitivamente
chiaro. Che il suo reciproco determini l’indeterminazione in impulso è di nuovo chiaro ricordando che la
funzione d’onda nello spazio degli impulsi è la trasformata di Fourier della funzione d’onda nello spazio
delle posizioni, si ricordi la Eq. (4.100), e che la trasformata di Fourier di una gaussiana è anch’essa una
gaussiana, di larghezza reciproca:
Z ∞
Z ∞
dx
dx i( p0 −k)x− λ (x−x0 )2
2~
√ e−ikx ψ(x) = N
√
ψ(k) =
e ~
(6.64)
2π
2π
−∞
−∞
Z ∞
(k0 −k)2 ~
dx0 i(k0 −k)x0 − λ x02
2~
√
e
= N 0 e−ikx0 e 2λ
(6.65)
= N ei(k0 −k)x0
2π
−∞
dove
|N 0 | =
~
πλ
14
.
(6.66)
Alternativamente, possiamo ottenere ψ(k) ricordando che abbiamo ottenuto ψ(x) come soluzione dell’equazione differenziale ottenuta scrivendo l’Eq. (6.44) nella base delle posizioni. Ma se invece scriviamo
la stessa equazione nella base degli impulsi abbiamo
hk| p̂ − hp̂i |ψi = iλhk| x̂ − hx̂i |ψi,
(6.67)
ossia, ponendo di nuovo hx̂i = x0 e hp̂i = p0 ,
i~2
∂
+ ~x0 ψ(k) =
(k − k0 )ψ(k),
− i~
∂k
λ
(6.68)
che ha per soluzione
~
ψ(k) = N 0 exp − ikx0 −
(k − k0 )2 ,
2λ
in accordo con la Eq. (6.65) trovata prima.
(6.69)
84
La particella unidimensionale libera
Il fatto che la trasformata di Fourier di un pacchetto d’onde localizzato in un punto abbia larghezza
reciproca di quella del pacchetto originario è qualitativamente vero per qualunque pacchetto. Per capirlo,
consideriamo la trasformata di Fourier
Z ∞
Z ∞
ikx
ψ(k) =
dx e ψ(x) =
dx(cos kx + i sin kx)ψ(x)
(6.70)
−∞
−∞
di una funzione ψ(x) che supponiamo localizzata attorno ad un punto x = 0 (si veda la Fig. 6.1). L’onda
piana ha una parte reale ed una parte immaginaria, che oscillano in x con periodo 2π
k . Se la frequenza
delle oscillazioni è elevata rispetto alla scala della variazione della ψ(x), cioè se la ψ(x) è circa costante
lungo un periodo, allora l’integrale in x si annulla. Infatti, la media del seno o del coseno su un periodo è
zero. Se il seno od il coseno sono modulati da una funzione circa costante, l’integrale è circa zero. Visto
che il periodo di oscillazione è 2π
k , se la scala di variazione della ψ(x) è ∆x, ne concludiamo che ψ(k) ≈ 0
2π
se k ∆x
. Quindi, la ψ(k) è localizzata intorno a k = 0, con larghezza circa proporzionale al reciproco
della larghezza della ψ(x). Il coefficiente di proporzionalità esatto dipende dalla forma esplicita della
funzione.
Figura 6.1: Onda piana rapidamente oscillante rispetto alla scala della variazione della funzione d’onda
ψ(x).
L’argomento è facilmente generalizzabile al caso di funzioni d’onda ψ(x) e ψ(k) localizzate attorno a
x0 e k0 rispettivamente, sfruttando l’invarianza per traslazioni sia rispetto a x che rispetto a k.
6.3
Moto di un pacchetto d’onde
In un pacchetto d’onda generalizzato la dipendenza dal tempo è data da
Z
ψ(x; t) = dk ei(kx−ωk (k)(t−t0 )) ψ(k; t0 ),
(6.71)
ossia dalla dipendenza dal tempo dei fattori di fase che compaiono nello sviluppo in autostati di energia,
ciascuno dei quali oscilla nel tempo con pulsazione ωk .
6.3.1
Velocità di fase e velocità di gruppo
Ciascuno degli autostati di energia di cui il pacchetto è sovrapposizione si muove nel tempo con impulso
k e velocità di fase definita da:
k
vk = .
(6.72)
m
6.3 Moto di un pacchetto d’onde
85
Tuttavia, il pacchetto può essere considerato come un oggetto singolo, che si muove con un’unica velocità,
detta velocità di gruppo, che identifichiamo con la velocità con cui si sposta il valor medio (che possiamo
interpretare come il “centro”) del pacchetto:
vg =
d
hx̂i .
dt
(6.73)
La velocità di gruppo può essere determinata facilmente ricordando che, come visto nella Sez. 5.3, gli
operatori canonici alla Heisenberg x̂ e p̂ soddisfano le leggi del moto classiche, ovvero
p̂H (t) = p̂S ,
(6.74)
x̂H (t) = x̂S +
t
p̂S .
m
(6.75)
Ne segue che
hx̂(t)i = hψ|x̂H |ψi = hψ|x̂S |ψi + hψ|
t
~k0
p̂S |ψi = x0 +
t
m
m
hp̂(t)i = hψ|p̂H |ψi = ~k0 ,
(6.76)
(6.77)
e quindi
vg =
6.3.2
~k0
.
m
(6.78)
Allargamento di un pacchetto d’onde
Abbiamo visto nella Sez. 6.1.3 che gli operatori posizione alla Heisenberg a tempi diversi non commutano,
e che ciò implica che, oltre allo spostamento del centro del pacchetto, si assiste in generale anche ad un suo
allargamento. Vogliamo ora determinare esattamente il tasso di allargamento del pacchetto (anziché solo
una maggiorazione su di esso), sia in generale che per i pacchetti gaussiani. Data la forma esplicita della
funzione d’onda al tempo iniziale, la Eq. (6.71) permette di determinarne la forma a tutti i tempi, che
può essere utilizzata per calcolare l’indeterminazione. Risulta tuttavia più generale ed efficiente utilizzare
la rappresentazione di Heisenberg per calcolare
∆2 p(t) = hp̂2H (t)i − hp̂H (t)i2
2
∆ x(t) =
hx̂2H (t)i
2
− hx̂H (t)i .
(6.79)
(6.80)
Utilizzando le equazioni del moto (6.75-6.74) troviamo immediatamente che
∆2 p̂(t) = hp̂2S i − hp̂S i2 = ∆2 p̂(0)
(6.81)
cioè l’indeterminazione in impulso non dipende dal tempo. Questa è una conseguenza del fatto che
l’operatore impulso commuta con l’hamiltoniana, e quindi si conserva: il potenziale non dipende dalla
posizione, e quindi il sistema è invariante per traslazioni.
L’indeterminazione in posizione dipende dal tempo come
2
t
t
∆2 x(t) = h x̂S + p̂S i − hx̂S + p̂S i2
m
m
t2
t
= hx̂2S i − hx̂S i2 + 2 hp̂2S i − hp̂S i2 +
(hx̂S p̂S + p̂S x̂S i − 2hx̂S ihp̂S i)
(6.82)
m
m
t2
t
= ∆2 x(0) + 2 ∆2 p̂ +
(h∆x̂S ∆p̂S + ∆p̂S ∆x̂S i) ,
(6.83)
m
m
dove ∆2 x(0) e ∆2 p̂ sono le indeterminazioni in posizione ed impulso al tempo iniziale (quest’ultima pari
all’indeterminazione in impulso a qualunque tempo, secondo la Eq. (6.81)), e ∆x̂S e ∆p̂S sono gli operatori
definiti nella Eq. (6.35). Si vede quindi che, al crescere di t in modulo, l’indeterminazione in posizione
86
La particella unidimensionale libera
aumenta, e per grandi t cresce quadraticamente. Notiamo che mentre t → ∞ il termine quadratico domina
e quindi l’indeterminazione cresce sempre, per piccoli tempi potrebbe dominare il termine lineare in t, ed
in tal caso l’indeterminazione può anche diminuire, visto che possiamo sempre considerare intervalli di
tempo sia positivi che negativi.
Consideriamo ora il caso particolare di un pacchetto gaussiano Eq. (6.48). Osserviamo che la condizione Eq. (6.41), avendo identificato gli operatori A e B con ∆p̂ e ∆x̂ rispettivamente, secondo la Eq. (6.35),
implica
h∆p̂∆x̂ + ∆x̂∆p̂i = 0.
(6.84)
hx̂S p̂S + p̂S x̂S i = 2Re hx̂S p̂S i,
(6.85)
Possiamo verificarlo esplicitamente:
ma ricordiamo che il ket di stato per un pacchetto gaussiano soddisfa la condizione Eq. (6.44), che, con
le definizioni Eq. (6.46) e usando la Eq. (6.60) ha la forma
p̂|ψi = p̂0 |ψi + i
~
(x̂S − x̂0 )|ψi.
2∆2 x̂
(6.86)
Di conseguenza
2Re hψ|x̂S p̂S |ψi = 2Re
~
p0 hψ|x̂S |ψi + i 2 hψ|x̂S (x̂S − x0 )|ψi = 2x0 p0 .
2∆ x
(6.87)
Quindi il termine lineare in t nella Eq. (6.82) si annulla, e per un pacchetto gaussiano abbiamo
∆2 x(t) = ∆2 x(0) +
t2 2
∆ p.
m2
(6.88)
Quindi il pacchetto è di minima indeterminazione esclusivamente al tempo t = 0, mentre a tutti gli
altri tempi l’indeterminazione è maggiore. Il secondo termine a membro destro della Eq. (6.88) può essere
interpretato come un termine di diffusione: se al tempo t = 0 l’impulso è indeterminato di ∆p, allora la
velocità è indeterminata di ∆p
m , e quindi in assenza di forze (e quindi per moto uniforme) la posizione finale
∆p
è indeterminata di t m . L’incertezza quadratica sulla posizione è perciò data dalla somma in quadratura
di tale incertezza, e dell’incertezza sulla posizione iniziale.
Notiamo inoltre che, usando la condizione di minima indeterminazione al tempo iniziale, possiamo
riscrivere l’Eq. (6.88) come
∆2 x(t) = ∆2 x(0) +
~2 t2
4m2 ∆2 x(0)
(6.89)
Ma ricordando che il principio di indeterminazione applicato a misure di posizione a tempi diversi
Eq. (6.29) implica
∆2 x(t) ≥
~2 t2
4m2 ∆2 x(0)
(6.90)
vediamo che per t grande l’indeterminazione del pacchetto gaussiano cresce, ma con il minimo valore
compatibile con la Eq. (6.30).
6.3.3
L’ordine di grandezza degli effetti quantistici
Possiamo chiederci quanto questi effetti di indeterminazione ed allargamento siano rilevanti in situazioni
realistiche. La relazione tra indeterminazione in posizione ed impulso è fissato dal valore della costante
~.
In contesti in cui gli effetti quantistici sono rilevanti si usano solitamente unità di misura tipiche della
fisica atomica o nucleare. Le energie si misurano in elettronvolt (eV): 1 eV è l’energia cinetica acquisita
6.3 Moto di un pacchetto d’onde
87
da un elettrone sottoposto ad una differenza di potenziale di 1 Volt. Le distanze vengono misurate in
Fermi (Fm), che è dell’ordine di grandezza del raggio di un protone. In questo contesto è conveniente
utilizzare la stessa unità di misura per masse, energie, ed impulsi, utilizzando la velocità della luce
c = 3 · 1010 cm s−1
(6.91)
come fattore di conversione. La relazione tra queste unità di misura per energia e lunghezza e le consuete
unità macroscopiche è
1 eV = 1.6 · 10−19 J = 1.8 · 10−36 kg c2 ,
(6.92)
(infatti una massa per una velocità al quadrato ha le dimensioni di un’energia), mentre
1 Fm = 10−13 cm.
(6.93)
La conversione tra lunghezza e energie si effettua facilmente ricordando che
~c = 197 MeV Fm.
(6.94)
Supponiamo ora di misurare l’energia o l’impulso di una particella con un’accuratezza
∆p ∼ 100 eV.
(6.95)
Per riferimento, la massa di un elettrone è circa 0.5 MeV, mentre quella di un protone è circa 1 GeV: si
~
.
tratta quindi di una misura piuttosto accurata. In una condizione di minima indeterminazione ∆x ∼ 21 ∆p
Usando ~c come fattore di conversione, possiamo dire che vale
1 Fm '
1
200 MeV
(6.96)
e quindi
∆x ∼
1 ~
~
=
= 106 Fm = 10−7 cm = 10−3 µm
2 ∆p
200 eV
(6.97)
In Fig. 6.2 si mostrano le tracce lasciate da particelle cariche in un’emulsione nucleare. La tipica
energia ceduta dalla particella alle molecole dell’emulsione (energia di ionizzazione) è dell’ordine della
Eq. (6.95), quindi la minima indeterminazione con cui è possibile misurare la posizione della particella è
data dalla Eq. (6.97). Si vede che la traccia inizia a mostrare fluttuazione che sono dell’ordine di almeno
uno o forse due ordini di grandezza più grandi rispetto a questo limite.
Figura 6.2: Tracce di particelle (nuclei di O e C e protoni) in un’emulsione nucleare.
Veniamo ora all’indeterminazione a tempi successivi. Si è detto che l’allargamento è dovuto all’incertezza che si ha sull’impulso. Supponiamo di misurare la posizione di un oggetto a tempi diversi che ha
88
La particella unidimensionale libera
lasciato una traccia in un rivelatore. La posizione finale ha sia una indeterminazione che riflette quella
iniziale, sia una indeterminazione dovuta al fatto che l’impulso iniziale avesse una sua indeterminazione.
Dopo un tempo t, una particella di impulso costante si è spostata di una lunghezza
l=
p
t,
m
(6.98)
e l’indeterminazione extra dovuta all’allargamento del pacchetto è
∆t x =
∆p
t.
m
(6.99)
Quindi l’incertezza sulla posizione della particella, in percentuale della lunghezza della traccia, è
∆t x
∆p
=
.
l
p
(6.100)
In situazioni come quella discussa prima, in cui l’indeterminazione relativa in impulso è piccola l’effetto
di allargamento è trascurabile: nell’esempio precedente, l’indeterminazione relativa per un protone p ∼
−7
, quindi l’allargamento della traccia è di un fattore 10−7 più piccolo della sua lunghezza.
1 GeV è ∆p
p ∼ 10
Capitolo 7
Problemi unidimensionali
Affronteremo ora la determinazione dello spettro dell’hamiltoniana per alcuni semplici potenziali, che
possono essere usati per modellizzare schematicamente alcune situazioni realistiche. Ci limiteremo per il
momento alla trattazione di problemi unidimensionali, e considereremo in particolare potenziali costanti
a tratti, come buche rettangolari, gradini e barriere. Saremo in particolare interessati a descrivere due
classi di problemi: quelli in cui si possono formare degli stati legati in una buca di potenziale (mostrata
schematicamente in a sinistra in Fig. 7.1), e quelli in cui la presenza di un potenziale localizzato (per
esempio un gradino, mostrato schematicamente a destra in Fig. 7.1) influenza il moto di una particella
altrimenti libera. Essi costituiscono rispettivamente il prototipo di problemi di stato legato, e di problemi
d’urto (o diffusione).
Figura 7.1: Buca di potenziale e gradino di potenziale.
7.1
La buca di potenziale infinita
Il primo problema che affrontiamo è il più semplice dei problemi di stato legato: consideriamo una buca
rettangolare centrata nell’origine con un potenziale
(
0
se |x| < a
V (x) =
.
(7.1)
V0 se |x| > a con V0 → ∞
Dal punto di vista classico i moti consentiti sono quelli di particella libera all’interno della buca; ogni
volta che il sistema urta contro le pareti rimbalza elasticamente. I moti sono quindi moti liberi con velocità
v
, e possono assumere ogni valore di energia cinetica permesso.
v uniforme, periodici con periodo 4a
7.1.1
Determinazione dello spettro
Come nella maggior parte dei problemi che seguiranno, utilizziamo la rappresentazione delle coordinate.
L’equazione agli autovalori per l’Hamiltoniana Ĥ
Ĥ|ψE i = E|ψE i
diventa
(7.2)
90
Problemi unidimensionali
Figura 7.2: Buca di potenziale
1. regione |x| < a:
~2 ∂ 2 ψE (x)
= EψE (x)
2m ∂x2
(7.3)
~2 ∂ 2 ψE (x)
= (E − V0 )ψE (x)
2m ∂x2
(7.4)
−
2. regione |x| > a:
−
Le soluzioni si determinano facilmente in entrambe le regioni.
1. regione |x| > a
Le soluzioni dell’Eq. (7.4) sono
r
ψE (x) = NE exp ±x
!
2m
(V0 − E) .
~2
(7.5)
Poichè siamo interessati al limite V0 → ∞, l’argomento della radice è reale positivo per ogni valore
dell’energia E. Ne segue che solo una delle due soluzioni Eq. (7.5) è normalizzabile, mentre l’altra
diverge all’infinito. Abbiamo quindi che l’unica soluzione fisicamente accettabile è
r
2m
ψE (x) = NE exp −k|x|;
k=
(V0 − E).
(7.6)
~2
Nel limite V0 → ∞, ψE (x) = 0 identicamente in questa regione.
2. regione |x| < a
In questa regione l’hamiltoniana è quella di particella libera, quindi le soluzioni generale dell’equazione agli autovalori (7.3) per fissata energie E è (ricordando la sezione 6.1)
0 −ikE x
ψE (x) = A0E eikE x + BE
e
;
E=
2
~2 k E
,
2m
(7.7)
che possiamo equivalentemente riscrivere come
ψE (x) = AE sin kE x + BE cos kE x.
(7.8)
7.1 La buca di potenziale infinita
91
La soluzione generale dell’equazione agli autovalori (7.3) nel limite V0 → ∞ è quindi data dalla
Eq. (7.8), con la condizione al contorno
ψE (±a) = 0,
(7.9)
necessaria per raccordare le soluzioni nelle due regioni. Notiamo che nella regione |x| > a si annullano
la funzione d’onda e tutte le sue derivate, quindi il problema va considerato come un problema agli
autovalori formulato in una regione finita. L’equazione agli autovalori Eq. (7.4) fornisce una condizione
sulla derivata seconda della funzione (quindi in particolare la condizione al contorno Eq. (7.9) implica
che anche la derivata seconda si annulla). Non vi sono ulteriori condizioni in quanto nel punto x = a
il potenziale ha una discontinuità di ampiezza infinita. Ora, è facile vedere, integrando in un intorno
della discontinuità ,che se la derivata seconda ha una discontinuità di ampiezza finita, la derivata prima
è continua, ma se la discontinuità è infinita anche la derivata prima diventa discontinua.
Le uniche soluzioni Eq. (7.8) compatibili con la condizione Eq. (7.9) corrispondono al caso in cui il
coefficiente davanti al seno oppure al coseno si annulla: infatti, il seno ed il coseno non possono mai essere
entrambi nulli in x = a per fisso k. Abbiamo quindi due classi di soluzioni:
• BE = 0
In tal caso
I
ψE
(x) = AE sin kx
(7.10)
e imponendo sin(ka) = sin(−ka) = 0 otteniamo la condizione ka = πn, ossia
kn =
2nπ
;
2a
En =
~2 kn2
.
2m
(7.11)
• AE = 0
In tal caso
II
ψE
(x) = BE cos kx
(7.12)
e imponendo cos(ka) = cos(−ka) = 0 otteniamo la condizione ka =
kn =
(2n + 1)π
;
2a
En =
~2 kn2
.
2m
π
2
+ πn = (2n + 1) π2 , ossia
(7.13)
Lo spettro di autovalori di eneregia è quindi:
En =
~2 kn2
2m
(7.14)
con
kn =
nπ
con
2a
n pari
n dispari
soluzione I
soluzione II
(7.15)
Di conseguenza possiamo riscrivere
En =
~2 n2 π 2
~2 n 2 π 2
=
2
8a m
2L2 m
(7.16)
dove L è la larghezza della buca. Osserviamo che lo spettro è non-degenere, ovvero per ogni autovalore
di energia vi è una sola autofunzione.
Determiniamo infine la normalizzazione delle autofunzioni:
Z a
Z a
2nπ
(2n + 1)π
dx cos2
x=
dx sin2
x = a,
(7.17)
2a
2a
a
−a
quindi AE = BE =
√1 .
a
92
Problemi unidimensionali
7.1.2
Proprietà delle autofunzioni
Lunghezza d’onda
Le autofunzioni Eq. (7.10,7.12) oscillano con lunghezza d’onda
λn =
2π
2π2a
2L
=
=
kn
nπ
n
(7.18)
Ciò significa che la buca contiene un numero intero di semiperiodi: le funzioni d’onda si comportano come
una corda vibrante fissa alle estremintà. Vi è uno stato di energia minima, o stato fondamentale, che
corrisponde ad una soluzione di tipo II ed ha energia
k=
π
;
2a
E=
~2 π 2
.
8a2 m
(7.19)
Gli stati con n > 1, o stati eccitati, corrispondono alle armoniche della frequenza fondamentale del
sistema. Ne concludiamo che una particella quantistica libera vincolata su un segmento può assumere
valori discreti di impulso, corrispondenti, secondo la Eq. (7.18), alle lunghezze d’onda permesse per un
sistema oscillatorio classico della stessa lunghezza (si veda la Fig. 7.3). Vedremo più avanti che per
un’ampia classe di potenziale le autofunzioni normalizzabili dell’hamiltoniana danno sempre luogo ad
uno spettro discreto di autovalori di energia.
𝑎
-𝑎
Figura 7.3: Stato fondamentale e primi due stati eccitati per una buca di potenziale infinita
Parità
Le soluzioni che abbiamo trovato hanno tutte parità definita. Infatti, definendo l’operatore parità P
come
hx|P|ψi = h−x|ψi
(7.20)
che ha come autovalori 1 e -1 e le cui autofunzioni sono le funzioni pari (con autovalore 1) e le funzioni
dispari (con autovalore -1), si ha che:
P|ψE i = ±|ψE i =
+1 soluzione tipo II
.
−1 soluzione tipo I
(7.21)
7.1 La buca di potenziale infinita
93
Il fatto che le autofunzioni di energia siano anche autofunzioni della parità è conseguenza del fatto che
il potenziale è simmetrico attorno all’origine, e quindi l’hamiltoniana è invariante sotto una trasformazione
di parità:
P −1 ĤP = Ĥ,
(7.22)
[P, Ĥ] = 0.
(7.23)
il che implica immediatamente che
Poichè l’hamiltoniana e la parità commutano, i due operatori possono essere diagonalizzati simultaneamente. Ma poiché lo spettro è nondegenere le autofunzioni dell’energia devono essere automaticamente
autofunzioni della parità.
Energia di punto zero ed indeterminazione
Abbiamo visto che lo spettro ammette uno stato fondamentale di minima energia, pari a E0 Eq. (7.19).
La ragione per cui l’energia dello stato fondamentale non può essere nulla è legato al principio di indeterminazione. Infatti, poiché il sistema è localizzato nell’intervallo |x| < a, l’indeterminazione in posizione
non può crescere indefinitamente, ed ha un valore massimo dell’ordine di ∆2 x . a2 . Ma il principio di
indeterminazione implica quindi che l’indeterminazione in impulso è vincolata inferiormente:
~2
,
4a2
(7.24)
∆2 p
~2
∼
,
2m
8ma2
(7.25)
∆2 p &
e quindi
Emin ∼
in accordo qualitativo con la Eq. (7.19).
È importante notare che l’indeterminazione in impulso per ciascun autostato dell’hamiltoniana non è
mai nulla, in seguito al fatto che la condizione al contorno ci obbliga a scegliere le autofunzioni di energia
come sovrapposizioni di coppie di autostati dell’impulso con valore dell’impulso uguale e contrario, anzichè
come autostati dell’impulso, che darebbero luogo ad indeterminazione ∆p = 0.
7.1.3
Degenerazione dello spettro e stati legati
Lo spettro di energia della buca di potenziale infinita non è degenere. Questa in realtà è una proprietà
generale dello spettro per qualunque hamiltoniana della forma Eq. (5.36) in una dimensione quando le
autofunzioni sono normalizzabili. Possiamo dimostrare cioè che due autofunzioni normalizzabili di una
hamiltoniana unidimensionale del tipo Eq. (5.36) associate allo stesso autovalore differiscono al più per una
costante moltiplicativa (e quindi corrispondono allo stesso stato del sistema, visto che la normalizzazione
è convenzionale e la fase è inosservabile).
Supponiamo che siano date due autofunzioni ψI (x), ψII (x) di un’hamiltoniana della forma standard
Eq. (5.36) associate allo stesso autovalore di energia E:
2m
d2 ψI (x)
= 2 (V (x) − E)ψI (x)
dx2
~
2m
d2 ψII (x)
= 2 (V (x) − E)ψII (x).
dx2
~
(7.26)
(7.27)
Le Eq. (7.26-7.27) implicano immediatamente che
ψII (x)
d2 ψI (x)
d2 ψII (x)
− ψI (x)
= 0,
2
dx
dx2
(7.28)
94
Problemi unidimensionali
ossia
d
dx
dψI (x)
dψII (x)
ψII (x)
− ψI (x)
=0
dx
dx
(7.29)
che implica
ψII (x)
dψI (x)
dψII (x)
− ψI (x)
= k,
dx
dx
(7.30)
dove k è una costante arbitraria.
Ma affinché gli stati ψI e ψII siano normalizzabili,
lim ψI (x) = lim ψII (x) = 0,
(7.31)
ψI0 (x)
ψ 0 (x)
= II
,
ψI (x)
ψII (x)
(7.32)
d
d
ln ψI (x) =
ln ψII (x),
dx
dx
(7.33)
ln ψI (x) = ln ψII (x) + λ,
(7.34)
ψI (x) = eλ ψII (x),
(7.35)
x→±∞
x→±∞
e quindi k = 0. Pertanto
ossia
da cui
dove λ è una costante arbitraria, cioé
e quindi ψI (x) ψI (x) sono proporzionali, come si voleva dimostrare.
7.2
Il gradino di potenziale
Il potenziale a gradino è la schematizzazione più semplice di una situazione fisica reale in cui il potenziale
varia in modo spazialmente localizzato. Nel nostro modello il potenziale vale:
(
0
se x < 0
V (x) = V0 Θ(x) =
(7.36)
V0 se x > 0
dove Θ è la funzione detta theta di Heaviside (si veda la Figura 7.4).
7.2.1
Funzione a gradino e condizioni di continuità
Per affrontare questo problema, conviene fare alcune considerazioni preliminari sulla theta di Heaviside.
Può essere utile vedere la theta come una distribuzione, anziché come una funzione discontinua, ossia
interpretarla attraverso la sua azione su una funzione di prova sotto integrazione. In tal caso, possiamo
mostrare che la theta soddisfa l’equazione
dΘ(x)
= δ(x).
dx
Questo significa che sotto integrazione con una funzione di prova f (x)
Z ∞
Z ∞
dΘ(x)
dx
dx δ(x)f (x).
f (x) =
dx
−∞
−∞
(7.37)
(7.38)
7.2 Il gradino di potenziale
95
Figura 7.4: Potenziale a gradino
Per dimostrare la Eq. (7.38) osserviamo dapprima che
Z ∞
Z ∞
dx Θ(x)f 0 (x) =
dx f 0 (x) = f (∞) − f (0).
−∞
D’altra parte, integrando per parti,
Z ∞
Z
∞
0
dx Θ(x)f (x) = Θ(x)f (x)
−
−∞
(7.39)
0
∞
dΘ(x)
dx
f (x) = f (∞) −
dx
−∞
−∞
Z
∞
dx
−∞
dΘ(x)
f (x),
dx
(7.40)
Uguagliando i membri di destra delle Eq. (7.39-7.2.1) si ottiene immediatamente la Eq. (7.38).
La Eq. (7.37) implica immediatamente alcune interessanti conclusioni circa la forma delle autofunzioni
per potenziali del tipo di quello della Fig. 7.4, ossia in generale dei potenziali continui a tratti e con
discontinuità isolate. Osserviamo che l’equazione agli autovalori dell’hamiltoniana
∂ 2 ψE (x)
2m
= − 2 (E − V0 Θ(x))ψE (x)
∂x2
~
(7.41)
implica che nell’origine la derivata seconda della funzione d’onda è discontinua. Possiamo però concludere
che la funzione d’onda e la sua derivata sono funzioni continue nell’origine. Se infatti la funzione d’onda
avesse derivata discontinua, allora la derivata seconda dovrebbe essere proporzionale ad una δ, e se
ad essere discontinua fosse la funzione d’onda stessa, allora la sua derivata seconda dovrebbe essere
proporzionale alla derivata di una δ: ma nessuno di questi casi è compatibile con la Eq. (7.41). Dobbiamo
quindi risolvere il problema separatamente nelle regioni x < 0 ed x > 0, imponendo quindi le condizioni
di raccordo
lim ψ(x + ) = lim ψ(x − )
→0
→0
0
0
lim ψ (x + ) = lim ψ (x − ).
→0
→0
(7.42)
(7.43)
È chiaro che questo vale per qualunque potenziale che abbia una discontinuità localizzata, cioè un
contributo proporzionale ad una funzione a gradino: la corrispondente equazione agli autovalori per
l’hamiltoniana andrà risolta separatamente a sinistra ed a destra della discontinuità, e la continuità della
funzione e della derivata prima dovrà quindi essere imposta nel punto in cui il potenziale è discontinuo.
Ricordiamo che, come già osservato, nel caso della buca infinita discusso nella sezione precedente il
coefficiente della discontinuità, ossia il coefficiente della funzione a gradino, è infinito: perciò non vi è una
condizione di continuità della derivata prima nel punto di discontinuità.
7.2.2
Autofunzioni di energia: stati di scattering
Possiamo ora determinare le autofunzioni di energia che soddisfano la Eq. (7.41). Distinguiamo due
casi E > V0 e E < V0 , che chiamiamo rispettivamente caso di urto (scattering) e caso di penetrazione
(tunneling), per ragioni che saranno chiare fra breve.
96
Problemi unidimensionali
Discutiamo dapprima il caso E > V0 . In tal caso, le autofunzioni di energia Eq. (7.41) nelle due
regioni I (x < 0) e II (x > 0) (vedi Fig. 7.4) sono

q
ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m
2 E
E
q~
,
(7.44)
0
0
ψ II (x) = CE eikE x + DE e−ikE x , k 0 = 2m
E
E
~2 (E − V0 )
con le condizioni di raccordo
(
I
II
ψE
(0) = ψE
(0)
I
∂ψE
(0)
∂x
=
II
∂ψE
(0)
∂x
,
(7.45)
che implicano i vincoli
(
AE + BE = CE + DE
0
0
ikE AE − ikE BE = ikE
CE − ikE
DE
.
(7.46)
Le soluzioni sono cioè onde piane in entrambe le regioni, con diversi valori dell’impulso, determinati
in modo che l’energia rimanga la stessa, e normalizzazione relativa fissata dalle condizioni di raccordo.
Osserviamo che le condizioni di raccordo Eq. (7.46) forniscono due condizioni sui quattro coefficienti
(complessi) AE , BE , CE , DE da cui dipende la soluzione Eq. (7.44). Di questi quattro coefficienti
uno non è significativo, in quanto il suo modulo è fissato per normalizzazione, mentre al solito la fase
complessiva della funzione d’onda è inosservabile. Pertanto, la più generale soluzione per fissato valore
di energie dipende da un parametro libero. Questo significa che (come nel caso della particella libera
Eq. (6.6)) per fissata energia vi è una famiglia ad un parametro di soluzioni, ovvero vi sono due soluzioni
indipendenti, di cui la soluzione generale può essere scritta come combinazione lineare.
Determiniamo quindi una soluzione ponendo a zero una delle quattro costanti, e mostrando che con
questa scelta la soluzione esiste. Discuteremo in seguito come costruire un’altra soluzione linearmente
indipendente da essa. Poniamo quindi DE = 0, sicché la Eq. (7.46) diventa
(
AE + BE = CE
(7.47)
0
CE .
ikE AE − ikE BE = ikE
Abbiamo tre incognite e due equazioni, che usiamo per esprimere BE e CE in funzione di AE :
(
k −k0
BE = kEE +kE0 AE
E
CE =
2kE
0 AE .
kE +kE
(7.48)
Queste condizioni fissano completamente la soluzione Eq. (7.44) a meno della costante di normalizzazione AE :

ψ I (x) = A eikE x + kE −kE00 e−ikE x
E
E
kE +kE
(7.49)
0
II
ψE
(x) = AE 2kE 0 eikE x .
kE +kE
7.2.3
Corrente di probabilità
Per interpretare fisicamente la soluzione che abbiamo trovato introduciamo il concetto di corrente di
probabilità, definita come
∗
i~
∂ψ(x, t)
∂ψ (x, t)
j(x, t) ≡ −
ψ ∗ (x, t)
−
ψ(x, t) .
(7.50)
2m
∂x
∂x
La corrente j(x, t) soddisfa l’equazione di continuità
∂j(x, t) ∂ρ(x, t)
+
= 0,
∂x
∂t
(7.51)
7.2 Il gradino di potenziale
97
dove
2
2 ρ(x, t) = hx|ψ(t)i = ψ(x, t)
(7.52)
è la consueta densità di probabilità per il risultato di una misura di posizione. Abbiamo infatti che
∂j(x, t)
i~
∂ 2 ψ(x, t) ∂ 2 ψ ∗ (x, t)
∗
−
ψ(x, t) ,
(7.53)
=−
ψ (x, t)
∂x
2m
∂x2
∂x2
ma l’equazione di Schrödinger nella base delle coordinate
∂ 2 ψ(x, t)
2m
∂ψ(x, t)
=
−
i~
−
V
(x)ψ(x,
t)
∂x2
~2
∂t
(7.54)
implica appunto che
∂j(x, t)
∂ψ(x, t) ∂ψ ∗ (x, t)
∂ρ(x, t)
= − ψ ∗ (x, t)
+
ψ(x, t) = −
.
∂t
∂t
∂t
∂t
(7.55)
L’equazione (7.51) implica che j(x, t) è il flusso spaziale della densità di probabilità di posizione, nel
senso che
Z b
Z b
dx ∂t ρ(x, t) = −
dx ∂x j(x, t) = −(j(b, t) − j(a, t)),
(7.56)
a
a
ovvero j(a, t) − j(b, t) misura la “quantità di probabilità” integrata nell’intervallo [a, b] che fluisce entro
di esso dai suoi estremi. Osserviamo inoltre che valor medio della corrente di probabilità vale
Z
Z
1
1
dx hψ|xihx|p̂|ψi = hψ|p̂|ψi,
(7.57)
dx j(x, t) =
m
m
che vuol dire che il valor medio della corrente corrisponde al valor medio dell’impulso diviso per m,
consistentemente con l’interpretazione di j come flusso di probabilità.
Infine, notiamo che, in un autostato dell’impulso hx|ki,
j(x, t) =
~k
1
|hx|ki|2 ≡ jk |hx|ki|2 =
jk ,
m
2π
(7.58)
indipendente dal tempo e dalla posizione. Inoltre, in una sovrapposizione di onde piane con impulsi uguali
e opposti
ψ(x, t) = exp(iωt) [A exp(ikx) + B exp −(ikx)]
(7.59)
si ha
i~
j(x, t) = −
2m
=
"
#
∗ −ikx
A e
∗ ikx
+B e
ik Ae
ikx
− Be
−ikx
∗ −ikx
− ik −A e
~k
|A|2 − |B|2 = |A|2 jk + |B|2 j−k ,
m
∗ ikx
+B e
Ae
ikx
+ Be
−ikx
(7.60)
dove nell’ultimo passaggio usando la Eq. (7.58) abbiamo identificato i due contributi a membro destro della
Eq. (7.59) come correnti di probabilità associate alle due componenti della funzione d’onda (indipendenti
dal tempo e dalla posizione). In altri termini se il vettore di stato |ψi è la sovrapposizione di due autostati
dell’impulso associati ad autovalori eguali in modulo ed opposti in segno
|ψi = |kihk|ψi + | − kih−k|ψi,
(7.61)
98
Problemi unidimensionali
allora la corrente di probabilità è la somma di due termini, corrispondenti ciascuno al flusso di probabiltà
associato alle due componenti:
j(x, t) =
~k
|hk|ψi|2 − |h−k|ψi|2 ,
m
(7.62)
dove |hk|ψi|2 e |h−k|ψi|2 sono due coefficienti costanti.
Possiamo finalmente usare questi risultati per interpretare fisicamente la soluzione Eq. (7.44). Vediamo
che nella regione I (x < 0) vi è una sovrapposizione di due onde piane, e quindi la corrente di probabilità
ha la forma Eq. (7.60), mentre nella regione II la soluzione è una singola onda piana, e la corrente ha
la forma Eq. (7.58). Notiamo inoltre che nel nostro caso manifestamente la densità di probabilità non
dipende dal tempo (si tratta di uno stato stazionario), quindi la densità di corrente non dipende da x, e
l’equazione di continuità implica che
|A|2 jk + |B|2 j−k = |C|2 jk0 ,
(7.63)
ossia, usando l’espressione esplicita Eq. (7.58)
|A|2 jk = |B|2 jk + |C|2 jk0 ,
(7.64)
dove abbiamo notato che la Eq. (7.58) implica j−k = −jk . È facile verificare, utilizzando le condizioni di
raccordo Eq. (7.48), che quest’ultima condizione è soddisfatta.
Possiamo quindi interpretare la corrente
ji ≡ |A|2 jk
(7.65)
come corrente di probabilità incidente sul gradino da sinistra, e le correnti
jt ≡ |C|2 jk0 ;
jr ≡ |B|2 jk
(7.66)
rispettivamente come corrente trasmessa dalla regione I alla regione II e come corrente riflessa all’indietro
dal gradino nella regione I, con impulso opposto. La Eq. (7.64) esprime la conservazione della corrente di
probabilità, ossia il fatto che la corrente incidente è pari alla somma della corrente trasmessa e di quella
riflessa. Possiamo infine identificare i coefficienti
2
2
0
0
2kE kE
jr
kE − kE
jt
=
;
R
=
=
(7.67)
T ≡
0
0
ji
kE + kE
ji
kE + kE
rispettivamente come dei coefficienti di trasmissione e riflessione, che esprimono la percentuale di corrente
incidente che è stata trasmessa attraverso la barriera o riflessa all’indietro.
7.2.4
Soluzione regressiva
Abbiamo finora determinato solo una delle due soluzioni indipendenti che sono a priori permesse dal fatto
che uno dei parametri della soluzione generale Eq. (7.44) è libero. Una soluzione indipendente può essere
costruita ponendo A = 0 e usando le condizioni di raccordo Eq. (7.46) per determinare C e D in termini
di B. Seguendo la discussione della sezione 7.2.3, interpretiamo questa soluzione fisicamente come la
situazione in cui la particella che interagisce con il potenziale ora proviene da destra, essendone in parte
riflessa ed in parte trasmess.
Si vede immediatamente che questa situazione corrisponde a eseguire le sostituzioni x → −x e V0 (x) →
V0 (−x) nell’equazione di Schrödinger. Quindi, la soluzione si ottiene dalla forma esplicita della soluzione
0
Eq. (7.49) scambiando le regioni I e II e scambiando dappertutto x → −x e kE ↔ kE
. I nuovi coefficienti
0
di trasmissione e riflessione si ottengono scambiando kE ↔ kE nell’espressione Eq. (7.67), e sono quindi
invariati. Quindi i coefficient di trasmissione e riflessione sono gli stessi sia che l’onda arrivi da sinistra,
sia che arrivi da destra.
7.3 La barriera di potenziale
7.2.5
99
Autofunzioni di energia: stati di tunneling
Passiamo ora al caso E < V0 . La soluzione ora ha la forma

q
ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m
E
~2 E
q
0
ψ II (x) = CE e−βE x , βE = 2m
E
~2 (V0 − E)
:
(7.68)
nella regione I ovviamente non è cambiato nulla, mentre nella regione II la soluzione ora è esponenzialmente smorzata. Notare che abbiamo scartato la soluzione esponenzialmente crescente, che divergerebbe
all’infinito, come già fatto nel caso della buca Eq. (7.6). Le condizioni di raccordo Eq. (7.47) e la soluzione
Eq. (7.48) restano invariate con l’identificazione
0
kE
= iβE .
(7.69)
Ne segue che in questo caso vi è una soluzione sola per ogni valore di energia.
Si vede immediatamente che in questo caso la corrente nella regione II si annulla identicamente, infatti
jC (x, t) = −
i~ ∗ −βE x
C e
(−βE )Ce−βE x − C ∗ (−βE )e−βE x Ce−βE x = 0.
2m
(7.70)
Ne segue che l’equazione di continuità implica
jA = −jB ,
(7.71)
ed in effetti, usando le condizioni di raccordo Eq. (7.48) con l’identificazione Eq. (7.69) troviamo
2 k − iβE 2
B = 1.
R= =
A
k + iβE (7.72)
Osserviamo che la densità di probabilità a destra della barriera non è nulla: vi è penetrazione attraverso
la barriera, con una densità di probabilità esponenzialmente soppressa di rivelare il sistema al di là
della barriera stessa. Tuttavia, il flusso di probabilità a destra della barriera si annulla, e la corrente di
probabilità subisce una riflessione totale.
Ovviamente, quando il gradino è di altezza infinita V0 → ∞ questa è l’unica soluzione. In tal caso si
ha che βE → ∞, e
(
limβE →∞ BE = −AE
.
(7.73)
limβE →∞ CE = 0
Questo significa che la funzione d’onda e la densità di probabilità si annullano sotto la barriera, e l’onda
viene interamente riflessa. Notiamo che in questo limite le condizioni di raccordo sono analoghe a quelle
della buca infinita: ψ(0) = 0, ma la derivata nell’origine diventa discontinua.
7.3
La barriera di potenziale
Un problema d’urto leggermente più complesso è quello che si ha in presenza di un potenziale a barriera
(
0
se |x| > a
V (x) =
.
(7.74)
V0 se |x| < a
7.3.1
Autofunzioni di energia ed effetto tunnel
In questo caso, vi sono tre regioni (si veda la Fig. 7.5). La soluzione generale può assumere due forme
diverse, a seconda che nella regione II l’energia sia maggiore o minore del potenziale V0 :
100
Problemi unidimensionali
Figura 7.5: Barriera di potenziale
1. V0 < E Si ha

I
ikE x

+ BE e−ikE x
ψE (x) = AE e
0
0
II
ik
x
ψE (x) = ψE (x) = CE e E + DE e−ikE x

 III
ψE (x) = FE eikE x + GE e−ikE x
se x < −a
se − a < x < a ,
se x > a
(7.75)
con
r
2mE
kE =
~2
r
2m(E − V0 )
0
kE
=
;
~2
(7.76)
(7.77)
2. V0 > E Si ha

I
ikE x

+ BE e−ikE x
ψE (x) = AE e
II
ψE (x) = ψE
(x) = CE e−βE x + DE eβE x

 III
ψE (x) = FE eikE x + GE e−ikE x
se x < −a
se − a < x < a
se x > a
(7.78)
con
r
2mE
kE =
~2
r
2m(V0 − E)
βE =
.
~2
(7.79)
(7.80)
Le soluzioni con E > V0 sono una semplice generalizzazione del problema del gradino di potenziale
discusso nella sezione precedente. Gli andamenti che si trovano sono simili a quelli di onde luminose
che si propagano tra mezzi con diversi indici di rifrazione: in particolare, come nel caso della luce, per
opportuni valori dell’energia si possono avere fenomeni di riflessione totale.
Il caso V0 > E è particolarmente interessante: in questo caso si vede come una particella incidente,
ad esempio dalla regione I, su una barriera di altezza finita non ne venga completamente riflessa anche se
l’altezza della barriera è maggiore dell’energia cinetica della particella. In generale, vi è una componente
di onda che viene trasmessa al di là della barriera, e si propaga quindi nella regione III, dove continua a
propagarsi come una particella libera. Questa situazione (rappresentata schematicamente in Fig. 7.6) è
detta effetto tunnel.
7.3 La barriera di potenziale
101
V0
-­‐𝑎
𝑎
Figura 7.6: Effetto tunnel
7.3.2
Soluzione generale di tunneling
Consideriamo quindi in dettaglio la costruzione della soluzione nel caso E < V0 . Abbiamo quattro
condizioni di raccordo:
 I
II
(−a)
ψE (−a) = ψE



ψ 0 I (−a) = ψ 0 II (−a)
E
E
.
(7.81)
III
II

(a)
(a)
=
ψ
ψ

E
E

0
 0 II
ψE (a) = ψEIII (a)
In questo caso vi sono quindi quattro equazioni e sei costanti, quindi, con una costante fissata per
normalizzazione, abbiamo una famiglia ad un parametro di soluzioni, ossia due soluzioni linearmente
indipendenti, come nel caso del gradino di potenziale. Ad esempio, potremmo determinare la soluzione
ponendo GE = 0: questa scelta corrisponde ad un’onda incidente sulla barriera da sinistra.
Per risolvere il sistema di condizioni di raccordo Eq. (7.81) conviene far uso di una notazione matriciale:
le prime due condizioni implicano
−ik a
eβE a
e−βE a
e E
eikE a
AE
CE
=
.
(7.82)
βE βE a
βE −βE a
BE
DE
− ik
e
e−ikE a −eikE a
ikE e
E
Ora, osserviamo che se si moltiplica la matrice a primo membro per un fattore √12 si ottiene una
matrice unitaria, e quindi possiamo riscrivere il sistema Eq, (7.82) come
ik a
eβE a
e−βE a
1
AE
e E
e−ikE a
CE
CE
=
=
M
(a)
,
(7.83)
βE βE a
βE −βE a
BE
DE
DE
− ik
e
e−ikE a −eikE a
2
ikE e
E
dove la matrice M (a) è esplicitamente data da
 iβE
(βE +ikE )a
1
+
1
kE e
M (a) =  2
1 − iβE e(βE −ikE )a
kE
1−
1+
iβE
(−βE +ikE )a
kE e
iβE
e(−βE −ikE )a
kE
Osserviamo ora che la simmetria del problema implica che
FE
CE
= M (−a)
GE
DE

.
(7.84)
(7.85)
102
Problemi unidimensionali
da cui
AE
BE
= M (a)M −1 (−a)
FE
GE
=T
FE
GE
.
(7.86)
La soluzione generale viene cosı̀ espressa in termini di una cosiddetta matrice di trasferimento T , che
fornisce i coefficienti nella regione III in termini dei coefficienti nella regione I, raccordando le soluzioni
nelle due regioni in cui l’onda si propaga come una particella libera.
Utilizzando la forma esplicita Eq. (7.84 della matrice M (a) abbiamo che
 M −1 (−a) =
1−
1 2
1+
iβE
(βE +ikE )a
kE e
iβE
e(−βE +ikE )a
kE
1+
1−
iβE
(βE −ikE )a
kE e
iβE
e(−βE −ikE )a
kE

,
(7.87)
e quindi
1
T =
2
cosh 2βE a + i 2 sinh 2βE a e2ikE a
− iη
2 sinh 2βE a
iη
2
sinh 2βE a cosh 2βE a − i 2 sinh 2βE a e−2ikE a
,
(7.88)
dove abbiamo posto
kE
βE
−
kE
βE
βE
kE
η=
+
.
kE
βE
(7.89)
=
7.3.3
(7.90)
Coefficienti di trasmissione e riflessione
Costruiamo ora una soluzione particolare ponendo GE = 0. Come nel caso del gradino di potenziale,
possiamo definire densità e correnti di probabilità, e conseguentemente coefficienti di trasmissione e
riflessione
FE 2
jt
;
T ≡
=
ji
AE BE 2
jr
.
R≡
=
ji
AE (7.91)
Abbiamo
−1
i
FE
= cosh 2βa + sinh 2βE a
e−2ikE a
AE
2
BE FE
BE
η
BE
=
;
= −i sinh 2βE a.
AE
FE AE
FE
2
(7.92)
(7.93)
Troviamo cosı̀
T =
1+ 1+
ε2
4
1
;
sinh2 (2βE a)
R = 1 − T,
(7.94)
avendo usato la conservazione della corrente. Notiamo infine che nel limite in cui βE a 1 si ha
T ∼ e−4βE a .
(7.95)
Questo significa che la probabilità di attraversare la barriera resta finita, ma è esponenzialmente soppressa
al crescere della larghezza della barriera.
7.4 Problemi di stato legato: una discussione qualitativa
7.4
103
Problemi di stato legato: una discussione qualitativa
Ci chiediamo ora in generale quali siano le caratteristiche qualitative dello spettro per una
Ĥ =
p̂2
+ V̂ (x̂).
2m
(7.96)
Osserviamo che l’equazione di Schrödinger
∂ 2 ψ(x)
2m
= 2 (V (x) − E)ψ(x)
∂x2
~
(7.97)
lega in ogni punto la derivata seconda della funzione al valore della funzione stessa. Ne segue che
l’andamento qualitativo delle soluzioni è determinato dal segno di V (x) − E.
Questo ci permette innanzitutto di capire quando le autofunzioni di energia sono normalizzabili in
senso proprio. Infatti, osserviamo che se, per x → ±∞, V (x) > E, allora le soluzioni all’infinito hanno
un andamento di tipo esponenziale, mentre se V (x) < E esse hanno un andamento oscillante. Ne segue
che possiamo avere soluzioni normalizzabili, ossia stati legati, se e solo se V (x) > E sia quando x → ∞
che quando x → −∞. Questo, a sua volta, è possibile solo se il potenziale ha un minimo al finito. Quindi
solo un potenziale con un minimo ammette stati legati, che possono quindi esistere per valori dell’energia
E < limx→±∞ V (x).
Consideriamo quindi per semplicità il caso particolare di un potenziale simmetrico con un unico
minimo al finito un minimo, tale cioè che V (x) < 0, V (x) = V (−x), limx→±∞ = 0 (si veda la Fig. 7.7).
Questo è il caso più semplice di potenziale attrattivo. Il potenziale è definito a meno di una costante,
che scegliamo imponendo che il potenziale si annulli all’infinito. Nel caso più generale naturalmente il
potenziale non è simmetrico.
Figura 7.7: Generico potenziale attrattivo
L’andamento qualitativo delle soluzioni nelle varie regioni è determinato dalla Eq. (7.97). I casi
possibili sono i seguenti:
1. V (x) − E > 0 Questo è il caso in cui E < V (x) (Fig. 7.8). Ne segue che ψ 00 ha lo stesso segno di ψ,
cioè la funzione è concava.
Se ψ(x) > 0 allora anche ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.9:
per x > 0
• se ψ(x) decresce, continua a decrescere tendendo a 0 sempre più lentamente;
• se ψ(x) cresce, continua a crescere sempre più velocemente,
104
Problemi unidimensionali
Figura 7.8: Regione E < V (x)
Figura 7.9: Forma qualitativa delle soluzioni se V (x) > E e ψ > 0
7.4 Problemi di stato legato: una discussione qualitativa
105
Gli andamenti per x < 0 si determinano per simmetria.
Se ψ(x) < 0 allora anche ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in
Fig. 7.10: per x > 0
• se ψ(x) cresce, continua a crescere sempre più lentamente;
• se ψ(x) decresce, continua a decrescere sempre più velocemente.
Figura 7.10: Forma qualitativa delle soluzioni se V (x) > E e ψ < 0
2. V (x) − E < 0 Questo è il caso in cui V (x) < E. Ne segue che ψ 00 ha il segno opposto a ψ, cioè la
funzione è convessa.
Figura 7.11: Regione E > V (x)
Se ψ(x) > 0 allora ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.12:
per x > 0
• se ψ(x) decresce, continua a decrescere tendendo a 0 sempre più velocemente;
• se ψ(x) cresce, continua a crescere sempre più lentamente.
Se ψ(x) < 0 allora ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 7.13:
per x > 0
• se ψ(x) decresce, continua a decrescere sempre più lentamente;
• ψ(x) cresce, continua a crescere sempre di più velocemente.
Le soluzioni per l’equazione agli autovalori si determinano raccordando gli andamenti descritti sopra
nelle varie regioni. Definendo Vmin il valore del potenziale al minimo, possiamo considerare tre casi:
106
Problemi unidimensionali
Figura 7.12: Forma qualitativa delle soluzioni se V (x) < E e ψ > 0
Figura 7.13: Forma qualitativa delle soluzioni se V (x) < E e ψ < 0
1. V (x) − E > 0 ∀x
In questo caso non possono esistere soluzioni normalizzabili, in quanto la soluzione dovrebbe avere
la forma mostrata nelle Fig. (7.9-7.10) per ogni x. Si vede quindi che la soluzione o ha derivata
discontinua nell’origine, o non è normalizzabile. Questo corrisponde all’aspettativa fisica che non
possano esistere soluzioni aventi energia minore del minimo del potenziale.
2. Vmin < E < 0
In questo caso, esistono due punti (detti punti di inversione) x = ±x0 , in cui l’energia è uguale
al potenziale, V (±x0 ) = E, e quindi E > V (x) all’interno dell’intervallo |x| < x0 . La funzione
d’onda ha quindi l’andamento delle figure Fig. 7.12-7.13 all’interno dell’intervallo compreso tra
i punti di inversione, e l’andamento delle figure Fig. 7.9-7.10 all’esterno di questo intervallo. I
punti di inversione sono punti di flesso per la funzione d’onda (la derivata seconda si annulla).
All’aumentare dell’energia i punti di inversione si muovono verso l’esterno, mentre, avvicinandosi
all’origine, a seconda che la derivata della funzione sia negativa o positiva per x > 0 (rispettivamente
figura di sinistra o di destra nella Fig. 7.12) la curvatura rispettivamente cresce, o decresce.
Le soluzioni per x < 0 e x > 0 si possono raccordare solo se nell’origine sono continue sia ψ(x) che
ψ 0 (x). Questo può essere fatto in due modi, nei due casi appena visti: se la curvatura nell’origine
è massima, la derivata prima cambia segno e la funzione d’onda nell origine è diversa da zero.
In tal caso si raccordano due soluzioni della forma Fig. 7.12 oppure due soluzione della forma
Fig. 7.13: la derivata prima si annulla nell’origine. Questa è la soluzione di tipo pari mostrata in
Fig. 7.14. Se invece la curvatura nell’origine è minima questo vuol dire che la funzione d’onda si deve
annullare, mentre la derivata nell’origine è diversa da zero. In tal caso si raccorda una soluzione
della forma Fig. 7.12 con una della forma Fig. 7.13: la funzione d’onda, e la derivata seconda ad
essa proporzionale, si annullano. Questa è la soluzione di tipo dispari mostrata in Fig. 7.14.
È facile convincersi del fatto (che si può dimostrare rigorosamente) che almeno una soluzione pari
è sempre possibile. Infatti, per quanto sia poco profondo il potenziale, possiamo sempre scegliere un valore di |E| sufficientemente prossimo a zero per cui i punti di inversione si allontanino
arbitrariamente, finché la curvatura nell’origine si raccorda.
Al crescere dell’energia compaiono quindi soluzioni in cui la derivata cambia segno, ed il numero
di tali soluzioni dipende dalla profondità del potenziale. All’interno della regione compresa tra i
punti di inversione si hanno cosı̀ delle soluzioni di tipo oscillante. All’esterno della regione compresa
tra i punti di inversione si hanno soluzioni della forma Fig. 7.9-7.10, che quindi all’infinito hanno
7.4 Problemi di stato legato: una discussione qualitativa
107
Figura 7.14: Soluzioni di stato legato: caso pari (sinistra) e caso dispari (destra).
sempre andamenti di tipo esponenziale: sarà quindi sufficiente scegliere la soluzione esponenzialmente smorzata, raccordandola opportunamente alla soluzione oscillante all’interno dell’intervallo
tra i punti di inversione.
Si vede cosı̀ che si ottiene uno spettro discreto e di stati legati, cioè localizzati al finito e normalizzabili.
3. E > 0
In questo caso, le soluzioni non sono mai esponenzialmente smorzate, ed all’infinito si riducono a
stati di particella libera. Si ottiene cosı̀ uno spettro continuo di autostati di energia, normalizzabili
solo in senso improprio.
108
Problemi unidimensionali
Capitolo 8
L’oscillatore armonico
Figura 8.1: Il potenziale armonico
Il potenziale armonico è di grande importanza in quanto descrive la situazione generica di piccole
oscillazioni attorno ad un minimo stabile. Infatti, qualunque potenziale V (x) che abbia un minimo in
x = x0 , cioè tale che dVdx(x) x=x = 0, può essere sviluppato attorno al minimo
0
1
d2 V (x) V (x) = V (x0 ) + (x − x0 )2
+ O((x − x0 )2 ).
2
dx2 x=x0
(8.1)
Il potenziale Eq. (8.1) è detto potenziale armonico (Fig. 8).
8.1
L’oscillatore armonico classico
L’oscillatore armonico classico è descritto dall’Hamiltoniana
H=
p2
1
+ mω 2 x2 .
2m 2
(8.2)
110
L’oscillatore armonico
L’equazione del moto che governa il sistema è:
ẍ(t) = −ω 2 x(t),
(8.3)
x(t) = A sin ωt + B cos ωt
(8.4)
x(t) = C cos(ωt + ϑ).
(8.5)
p(t) = −mωC sin(ωt + ϑ).
(8.6)
la cui generica soluzione è:
che possiamo anche riscrivere come
Poiché p(t) = mẋ(t), si ottiene
Il potenziale è invariante per traslazioni temporali, ma non per traslazioni spaziali. Di conseguenza
si ha conservazione dell’energia totale, mentre l’energia cinetica e quella potenziale non si conservano
separatamente. Infatti
T +V =
1
1
mω 2 C 2 (cos2 (ωt + ϑ) + sin2 (ωt + ϑ)) = mω 2 C 2
2
2
(8.7)
è indipendente dal tempo, mentre manifestamente p(t) Eq. (8.6) dipende dal tempo, e quindi ne dipendono
l’energia cinetica e perciò anche quella potenziale.
8.2
Lo spettro di energia dell’oscillatore armonico quantistico
Quantisticamente, la dinamica dell’oscillatore armonico è descritta dall’hamiltoniana
Ĥ =
1
p̂2
+ mω 2 x̂2 .
2m 2
(8.8)
Determineremo dapprima lo spettro di autovalori di energia, quindi le autofunzioni, e studieremo infine
l’evoluzione temporale.
8.2.1
Caratteristiche qualitative dello spettro
Visto che il potenziale armonico ha la forma di una buca infinitamente profonda, la discussione qualitativa
della sezione precedente suggerisce che lo spettro è discreto e consiste di un numero infinito di stati legati.
Possiamo dimostrare facilmente che gli autovalori di energia sono tutti positivi, e che lo spettro è discreto,
manipolando l’equazione agli autovalori
Ĥ|ni = En |ni.
(8.9)
• Autovalori positivi
Gli autovalori di energia soddisfano
X hn|p̂|kihk|p̂|ni 1
2
En =
+ mω hn|x̂|kihk|x̂|ni
2m
2
k
X
X
1
1
=
|hn|p̂|ki|2 + mω 2
|hn|x̂|ki|2 ,
2m
2
k
(8.10)
(8.11)
k
sicché En ≥ 0. Osserviamo inoltre che En = 0 richiederebbe hn|p̂|ki = hn|x̂|ki = 0 per ogni k. Ma
questo è vietato dal principio di indeterminazione, in quanto
X
[hn|x̂|kihk|p̂|ni − hn|p̂|kihk|x̂|ni] = i~ > 0.
(8.12)
k
Pertanto En > 0.
8.2 Lo spettro di energia dell’oscillatore armonico quantistico
111
• Spettro discreto
Osserviamo che
[x̂, Ĥ] = i~
p̂
;
m
[p̂, Ĥ] = −i~ω 2 mx̂.
(8.13)
Ne segue che
p̂
|ki
m
hn|p̂|ki(Ek − En ) = −i~hn|mω 2 x̂|ki.
hn|x̂|ki(Ek − En ) = i~hn|
(8.14)
(8.15)
Sostituendo la prima equazione nella seconda abbiamo
(Ek − En )2 hn|x̂|ki = ~2 ω 2 hn|x̂|ki,
(8.16)
che implica che hn|x̂|ki = 0 a meno che En − Ek = ±~ω. Concludiamo che le matrici degli operatori
x̂ e p̂ hanno elementi nonnulli solo tra autostati di energia associati ad autovalori che differiscono di
±~ω. Poichè l’hamiltoniana è un polinomio in x̂ e p̂, questo implica immediatamente che lo spettro
deve essere discreto.
8.2.2
Operatori di creazione e distruzione
La struttura delle matrici degli operatori x̂ e p̂ suggerisce di definire gli operatori
r
mω
ip̂
x̂ +
a=
2~
mω
r
ip̂
mω
x̂ −
,
a† =
2~
mω
che sono l’uno l’aggiunto dell’altro.
L’hamiltoniana si scrive facilmente in termini di questi operatori notando che
p̂2
mω
i
x̂2 + 2 2 +
[x̂, p̂],
a† a =
2~
m ω
2~
(8.17)
(8.18)
(8.19)
e quindi
1
Ĥ = ~ω a a +
2
†
.
(8.20)
Conviene cosı̀ definire l’operatore
N = a† a
(8.21)
in termini del quale
1
Ĥ = ~ω N +
2
.
(8.22)
Ma lo spettro dell’operatore N , che a sua volta determina facilmente lo spettro dell’hamiltoniana, si
può ottenere notando che
[a, a† ] =
p̂
mω
2i[x̂,
] = 1,
2~
mω
(8.23)
che implica
[N, a] = −a;
[N, a† ] = a† .
Lo spettro di N è quindi determinato dalle due seguenti osservazioni:
(8.24)
112
L’oscillatore armonico
• Dato un autostato |zi di N con autovalore z
N |zi = λz |zi
(8.25)
anche a† |zi ed a|zi sono autostati di N , aventi rispettivamente autovalori più grandi o più piccoli
di una unità. Infatti, usando le relazioni di commutazione Eq. (8.24) , si vede immediatamente che
N a† |zi = (a† N + a† )|zi = (λz + 1)a† |zi
(8.26)
N a|zi = (aN − a)|zi = (λz − 1)a|zi.
(8.27)
• Deve esistere un autostato |0i di N tale che
a|0i = 0.
(8.28)
Infatti, gli autovalori λz sono non-negativi:
λz =
hz|N |zi
hz|a† a|zi
hz − 1|z − 1i
=
=
≥ 0,
hz|zi
hz|zi
hz|zi
(8.29)
dove abbiamo definito |z − 1i ≡ a|zi. Ma la Eq. (8.27) implica che
N ak |zi = (λz − k) |zi.
(8.30)
Questo comporta che per k sufficientemente grande lo stato ak |zi sia un autostato di N con autovalore negativo, e quindi una contraddizione con la Eq. (8.29), a meno che non esista un valore di
k0 < λz tale per cui lo stato
|0i = ak0 |zi
(8.31)
N |0i = 0.
(8.32)
soddisfi la Eq. (8.28) e
In altri termini, deve esistere uno stato |0i = 0, autostato di N associato all’autovalore nullo.
Osserviamo inoltre che la Eq. (8.28) (e la sua aggiunta h0|a† = 0) implicano immediatamente che
gli elementi di matrice diagonali degli operatori a ed a† si annullano tutti:
h0|ap |0i = h0|(a† )p |0i = 0
(8.33)
Concludiamo quindi che gli autostati di N sono
|ni = Kn (a† )n |0i
(8.34)
(dove Kn è una costante di normalizzazione) con autovalori
N |ni = n|ni.
(8.35)
Lo stato fondamentale |0i è comunemente detto “vuoto”, gli operatori a† ed a sono detti rispettivamente operatori di creazione e distruzione (o di innalzamento ed abbassamento), e l’operatore N è detto
operatore numero.
Noto lo spettro dell’operatore numero, la Eq. (8.22) determina immediatamente lo spettro dell’hamiltoniana:
1
En = ~ω n +
.
(8.36)
2
Lo stato fondamentale ha quindi energia
E0 =
~ω
.
2
(8.37)
8.2 Lo spettro di energia dell’oscillatore armonico quantistico
8.2.3
113
Normalizzazione ed elementi di matrice
La costante di normalizzazione degli stati Kn si determina usando ripetutamente le relazioni di commutazione
1 = hn|ni = |Kn |2 h0|(a)n (a† )n |0i = |Kn |2 h0|(a)n−1 (aa† )(a† )n−1 |0i
2
n−1
= |Kn | h0|(a)
2
† n−1
(a a + 1)(a )
n−1
= |Kn | nh0|(a)
†
† n−1
(a )
2
n−1
|0i = |Kn | h0|a
2
† n−1
(N + 1)(a )
n−2
|0i = |Kn | n(n − 1)h0|(a)
† n−2
(a )
(8.38)
|0i
|0i
2
= · · · = |Kn | n!h0|0i.
(8.39)
(8.40)
(8.41)
Notiamo che lo stesso argomento implica immediatamente che
hn|mi = 0,
se n 6= m,
(8.42)
in quanto, se n 6= m, nell’ultimo passaggio resta sempre l’elemento di matrice di una potenza di a o di a†
nel vuoto, che si annulla per la Eq. (8.33).
Supponendo che il vuoto sia normalizzato
h0|0i = 1
(8.43)
1
Kn = √ .
n!
(8.44)
si ha
Con questa normalizzazione la Eq. (8.42) implica che lo spettro di autostati è ortonormalizzato:
hn|mi = δnm .
(8.45)
La normalizzazione determina completamente l’azione degli operatori di creazione e distruzione sugli
autostati di energia:
√
Kn
|n + 1i = n + 1|n + 1i
Kn+1
√
a|ni = n|n − 1i,
a† |ni =
da cui si ottengono immediatamente gli elementi di matrice
√
hm|a† |ni = δm,n+1 n + 1
√
hm|a|ni = δm,n−1 n.
(8.46)
(8.47)
(8.48)
(8.49)
Invertendo l’espressione Eq. (8.17-8.18) degli operatori di creazione e distruzione in termini di posizione
ed impulso abbiamo
r
~
x̂ =
(a + a† )
(8.50)
2mω
r
mω~
p̂ = −i
(a − a† ),
(8.51)
2
e quindi anche gli elementi di matrice di posizione ed impulso negli autostati di energia sono completamente determinati:
r
√
√
~
hm|x̂|ni =
δm,n−1 n + δm,n+1 n + 1
(8.52)
2mω
r
√
√
m~ω
hm|p̂|ni = −i
δm,n−1 n − δm,n+1 n + 1 .
(8.53)
2
114
L’oscillatore armonico
Possiamo rappresentare la matrice dell’operatore x̂ come:
√

1 √
√0
 1 0
2

√

r
2
0
~ 
 .
hm|x̂|ni =
 .
2mω  .



0

...
0
√




.. 
. 




..
3
.
...
(8.54)
0
e analogamente per l’operatore p̂. Naturalmente, questa è la proprietà che avevamo dimostrato in precedenza (si ricordi la Eq. (8.16)), per cui gli elementi di matrice dell’operatore x̂ sono nonnulli solo tra
autostati di energia associati ad autovalori che differiscono di ~ω. Notiamo in particolare che
hn|x̂|ni = 0;
hn|p̂|ni = 0.
(8.55)
Calcoliamo infine i valori medi delle indeterminazioni di posizione ed impulso in un autostato di
energia. Osserviamo che
~ 2
~ 2
2
2
x̂2 =
a + a† + aa† + a† a =
a + a† + 2N + 1
(8.56)
2mω
mω
~mω 2
2
2
p̂2 =
−a − a† + aa† + a† a = ~mω −a2 − a† + 2N + 1 .
(8.57)
2
Pertanto
1
n+
2
1
2
hn|p̂ |ni = ~mω n +
.
2
~
hn|x̂ |ni =
mω
2
Ne segue che i valori medi di energia cinetica e potenziale sono eguali fra loro, e dati da
p2
~ω
1
hT i = h
i=
n+
,
2m
2
2
1
~ω
1
2 2
hV i = mω hx i =
n+
.
2
2
2
(8.58)
(8.59)
(8.60)
(8.61)
L’indeterminazione in posizione ed impulso si calcola utilizzando le equazioni Eq. (8.55,8.58,8.59):
1
~
n+
(8.62)
∆2n x =
mω
2
1
∆2n p = ~mω n +
(8.63)
2
da cui segue che
∆2n x̂∆2n p̂
=~
2
1
n+
2
2
.
(8.64)
Questo significa che lo stato fondamentale è uno stato di minima indeterminazione, mentre il prodotto
delle indeterminazioni cresce al crescere dell’energia.
8.3
Autofunzioni nella base delle coordinate
Vogliamo ora determinare le autofunzioni nella base delle coordinate.
8.3 Autofunzioni nella base delle coordinate
8.3.1
115
Funzione d’onda per lo stato fondamentale
Osserviamo innanzitutto che la condizione Eq. (8.28), ovvero che l’operatore di distruzione annichili
il vuoto, determina completamente la funzione d’onda dello stato fondamentale. Infatti, utilizzando
l’espressione Eq. (8.17) dell’operatore di distruzione in termini di operatori posizione ed impulso, e le
note espressioni di questi ultimi nella base delle coordinate, e definendo
hx|ψi = ψ0 (x)
(8.65)
mω
∂ψ0 (x)
= −xψ0 (x)
,
∂x
~
(8.66)
la Eq. (8.28) implica
la cui soluzione è
x2 mω
ψ0 (x) = N0 exp −
2~
cioè una gaussiana di larghezza ∆x =
~
mω .
,
(8.67)
La condizione di normalizzazione Eq. (8.43) fissa
N0 =
mω 14
2π~
.
(8.68)
Notiamo che il fatto che lo stato fondamentale sia una gaussiana è in accordo con la Eq. (8.64) che
dice che lo stato fondamentale è di minima indeterminazione.
8.3.2
Stati eccitati e polinomi di Hermite
Gli stati eccitati si ottengono utilizzando la Eq. (8.34), cioè agendo sul vuoto con l’operatore di creazione.
In particolare il primo stato eccitato è
r
r
mω
~ ∂
mωx2
mω
mωx2
ψ1 (x) = N0
x−
exp −
=
2xN0 exp −
.
(8.69)
2~
mω ∂x
2~
2~
2~
Agendo ripetutamente con l’operatore di creazione si trovano potenze crescenti di x e ulteriori derivate,
che agendo sull’esponenziale si riducono a potenze di x che moltiplicano l’esponenziale. Si vede cosı̀ che
la funzione d’onda per l’n-esimo stato eccitato ha la forma
ψn (x) = hx|ni = ψ0 (x)Hn (x)
(8.70)
dove Hn (x) è un polinomio di grado n (si veda la Fig. 8.2).
I polinomi Hn (x) sono noti come polinomi di Hermite. La condizione di ortonormalizzazione Eq. (8.45)
implica che essi devono soddisfare
Z
hn|mi = dx|ψ0 (x)|2 Hn∗ (x)Hm (x) = δnm .
(8.71)
Essi sono cioè ortonormali rispetto ad una misura di integrazione con un peso gaussiano. Si dimostra
inoltre che essi soddisfano la relazione di completezza
X
|nihn| = I,
(8.72)
n
che noi abbiamo finora supposto essere valida senza dimostrazione. È interessante osservare che la
relazione di completezza Eq. (8.72), scritta nella base delle coordinate, può essere vista come una
rappresentazione esplicita della delta di Dirac
X
hx|nihn|x0 i = δ(x − x0 ).
(8.73)
n
116
L’oscillatore armonico
8
6
4
2
4
2
2
4
Figura 8.2: Rappresentazione delle autofunzioni dell’oscillatore armonico unidimensionale.
8.4
8.4.1
Evoluzione temporale
Operatore di evoluzione temporale ed evoluzione degli stato
L’operatore di evoluzione temporale nella base delle coordinate ha la forma
S(t, 0) =
∞
X
hx|nihn|x0 ie−
iEn t
~
=
k=0
∞
X
ψn∗ (x)ψn (x0 )e−iω(n+ 2 )t ,
1
(8.74)
k=0
dove le autofunzioni ψn (x) sono date dalla Eq. (8.70). L’evoluzione temporale di un vettore di stato
qualunque in rappresentazione di Schrödinger è quindi data da
X
1
(8.75)
ψ(x, t) = hx|ψ(t)i =
Cnψ e−iω(n+ 2 )t |ni,
n
con
Cn = hn|ψ(0)i.
8.4.2
(8.76)
Evoluzione degli operatori posizione ed impulso e formule di BCH
È interessante studiare l’evoluzione temporale degli operatori posizione ed impulso in rappresentazione
di Heisenberg. Ricordiamo le equazioni del moto
dx̂H
p̂H
=
dt
m
dp̂H
= −mω 2 x̂H .
dt
(8.77)
(8.78)
La dipendenza temporale può ora essere determinata in vari modi, di cui il più diretto è la risoluzione di
questo sistema accoppiato di equazioni differenziali. Discutiamo però altri due metodi, ciascuno dei quali
presenta aspetti istruttivi.
Il primo metodo consiste nell’osservare che la soluzione formale delle equazioni di Hisenberg in termini
dell’operatore di evoluzione temporale, e cioè
1
1
x̂H (t) = e− i~ Ĥt x̂S e i~ Ĥt
p̂H (t) = e
1
− i~
Ĥt
p̂S e
1
i~ Ĥt
(8.79)
(8.80)
8.4 Evoluzione temporale
117
può essere resa esplicita se si è in grado di determinare espressioni del tipo
exp(−Â)B̂ exp(Â).
(8.81)
Questo si può fare usando le cosiddette formule di Baker-Campbell-Hausdorff. Abbiamo in primo
luogo che
e− B̂e =B̂ + [−Â, B̂] +
+
1
1
[−Â, [−Â, B̂]] + [−Â, [−Â, [−Â, B̂]]] + . . .
2!
3!
1
[−Â, [−Â, · · · [−Â, B̂]] · · · ]
n!
(8.82)
(prima formula di BCH). Per dimostrarlo, notiamo che, sviluppando in serie di Taylor, possiamo scrivere
#
"∞
X (λ)n d
−λÂ
λÂ
−λÂ
λ e
e
B̂e |λ=1 =
B̂e
n
n!
dλ
λ=0 n=0
λ=1
= B̂ + e
−λÂ
(−ÂB̂ + B̂ Â)e
= B̂ + [−Â, B̂] +
λÂ
+ ... + +
1
(−Â . . . B̂ + . . . B̂ Â)
n!
(8.83)
1
[−Â, . . . B̂].
n!
Utilizzando questo risultato, si può ulteriormente dimostrare la seconda formula di BCH,
1
e eB̂ = eÂ+B̂ e 2 [Â,B̂] e . . .
(8.84)
di cui omettiamo la dimostrazione.
Usando la formula di BCH Eq. (8.82) troviamo quindi
x̂H (t) = e
1
ĤS t
− i~
1
xS e
1
i~ ĤS t
1
p̂H (t) = e− i~ ĤS t p̂S e i~ ĤS t
h
i 1 it 2 h h
ii
it
= x̂S +
Ĥ, x̂S +
Ĥ, Ĥ, x̂S + . . .
~
2 ~
h
2
i
ii
it
1 it h h
= p̂S +
Ĥ, p̂S +
Ĥ, Ĥ, p̂S + . . . .
~
2 ~
(8.85)
(8.86)
I commutatori si calcolano facilmente:
i p̂
ih
S
Ĥ, x̂S =
~
m
2 h h
ii
i
p̂S
i
Ĥ,
Ĥ, Ĥ, x̂S =
= −ω 2 x̂S
~
~
m
2 h h h
iii
i
i h
p̂S
i
Ĥ, Ĥ, Ĥ, x̂S
= − ω 2 Ĥ, x̂S = −ω 2
~
~
m
(8.87)
(8.88)
(8.89)
e
i
ih
Ĥ, p̂S = −mω 2 x̂S
~
2 h h
ii
i
i
i mω 2 h
Ĥ Ĥ, p̂S =
Ĥ, x̂S = −ω 2 p̂S
~
~ i~
"
#
3 h h h
iii
h
i
i
i
iĤ
2
Ĥ, Ĥ, Ĥ, p̂S
=
, −ω p̂S = − (ω 2 ) Ĥ, p̂S = (ω 2 )2 mx̂S .
~
~
~
(8.90)
(8.91)
(8.92)
Vediamo quindi come commutando un numero pari di volte Ĥ con x̂S si trovi x̂S volte una potenza
di ω 2 , e commutando un numero dispari di volte Ĥ con x̂S si trovi p̂S volte una potenza di ω 2 , ed
118
L’oscillatore armonico
inversamente scambiando p̂S con x̂S . Troviamo cosı̀
p̂S
ω 3 t3
ω 5 t5
t2 2
t4 2 4
x̂H (t) =
t−
+
+ . . . + x̂S 1 − (ω ) + (ω ) + . . .
mω
3!
5!
2!
4!
p̂S
=x̂S cos(ωt) +
sin(ωt);
mω3 3
ω t
ω 5 t5
t2
t4
p̂H (t) = − mωxS t −
−
+ . . . + p̂S 1 − ω 2 + ω 4 + . . .
3!
5!
2!
4!
= − mωx̂S sin(ωt) + p̂S cos(ωt).
(8.93)
(8.94)
(8.95)
Naturalmente, queste coincidono con le equazioni classiche del moto.
8.4.3
Evoluzione temporale degli operatori di creazione e distruzione
Il secondo metodo di soluzione consiste nell’osservare che gli operatori di creazione e distruzione soddisfano
equazioni del moto disaccoppiate. Usando i commutatori Eq. (8.24) abbiamo infatti che
1
da
= [a, Ĥ] = −iωa
dt
i~
1
da†
= [a† , Ĥ] = iωa† .
dt
i~
(8.96)
(8.97)
La soluzione è perciò immediata:
aH (t) = exp(−iωt)aS
(8.98)
a†H (t)
(8.99)
=
exp(iωt)a†S .
L’evoluzione temporale degli operatori di creazione e distruzione è consistente con il fatto che essi
aggiungono o tolgono un quanto di energia. Infatti
√
hn + 1|a†H (t)|ni = eiωt hn + 1|a†S |ni = eiωt n + 1,
(8.100)
ma d’altra parte
hn + 1; t|a†S |n; ti = hn + 1|e− i~ a†S e i~ |n; ti = hn + 1|e− i~ ~ω(n+1+ 2 )t a†S e~ω(n+ 2 )t |ni
√
ωt
= e− i hn + 1|a†S |ni = eiωt n + 1.
Ht
Ht
1
1
1
(8.101)
Possiamo usare questo risultato per determinare l’evoluzione temporale degli operatori posizione ed
impulso: usando le loro espressioni Eq. (8.50) in termini degli operatori di creazione e distruzione abbiamo
r
r
~
~
†
x̂(t) =
(a(t) + a (t)) =
(e−iωt aS + eiωt a†S )
2mω
2mω
r
r
r
~
mω
ip̂S
mω
ip̂S
=
e−iωt
x̂S +
+ eiωt
x̂S −
(8.102)
2mω
2~
mω
2~
mω
p̂S
= x̂S cos(ωt) +
sin(ωt)
mω
r
r
mω~
mω~ −iωt
p̂(t) = −i
(a(t) − a† (t)) = −i
(e
aS − eiωt a†S )
2
2
r
r
r
mω~ −iωt mω
ip̂S
mω
ip̂S
iωt
= −i
e
x̂S +
−e
x̂S −
2
2~
mω
2~
mω
= −mωx̂S sin(ωt) + p̂S cos(ωt),
che naturalmente riproduce il risultato Eq. (8.93).
(8.103)
8.5 Stati coerenti e “gatti di Schrödinger”
8.5
119
Stati coerenti e “gatti di Schrödinger”
Possiamo ora descrivere un tipico esperimento di interferenza quantistica, come l’esperimento in Zeilinger
visto nella Sez. 1.2 utilizzando opportuni stati, realizzati come sovrapposizioni di stati di energia di
oscillatore armonico: gli stati coerenti.
8.5.1
Gli stati coerenti
In presenza di un potenziale armonico, è possibile costruire dei pacchetti d’onda di minima indeterminazione che non si allargano nel tempo, e tali per cui il centro del pacchetto oscilla con il periodo
dell’oscillatore armonico classico, sia nella base delle posizioni che nella base degli impulsi. Questi stati
sono detti stati coerenti, e possono essere cosrtuiti come autostati dell’operatore di distruzione, come ora
vediamo. Consideriamo un’Hamiltoniana di oscillatore armonico,
1
p̂2
+ mω 2 x̂2 .
2m 2
Ĥ =
Cerchiamo degli stati |zi in modo che si abbia:
a|zi = z|zi
(8.104)
con z ∈ C.
In particolare, dato |ni autostato dell’Hamiltoniana (ovvero dell’operatore numero):
|zi =
∞
X
|nihn|zi.
(8.105)
n=0
si ha:
a|zi =
∞
X
a|nihn|zi =
∞
X
√
n|n − 1ihn|zi =
n0 + 1|n0 ihn0 + 1|zi.
(8.106)
n0 =0
n=0
n=0
∞
X
√
Tuttavia abbiamo imposto che |zi sia un autostato di a. Quindi posssiamo scrivere:
a|zi = z
∞
X
|nihn|zi.
(8.107)
n=0
Le due espressioni devono essere uguali: quindi otteniamo che il coefficiente dell’n-esimo stato è:
√
(8.108)
zhn|zi = n + 1hn + 1|zi.
Ne segue che
z
z
z
zn
hn|zi = √ hn − 1|zi = √ √
hn − 2|zi = . . . = √ h0|zi.
n
n n−1
n!
(8.109)
Lo stato coerente |zi è quindi
|zi =
∞
∞
X
X
†
|niz n
(za† )n
√ h0|zi =
|0ih0|zi = eza |0ih0|zi.
n!
n!
n=0
n=0
(8.110)
La condizione di normalizzazione dello stato è
∞
X
2
z n (z ∗ )n
|z|n
√
hz|zi = |h0|zi|
hm|ni
=
|h0|zi|2 = e|z| |h0|zi|2 ,
n!
n!m!
n,m=0
n=0
2
∞
X
(8.111)
120
L’oscillatore armonico
da cui segue
1
2
h0|zi = e− 2 |z| .
(8.112)
L’espressione generale di uno stato coerente è dunque
1
2
†
|zi = e− 2 |z| eza |0i.
(8.113)
Calcoliamo i valori medi di x̂ e p̂ a tempo t = 0, servendoci degli operatori di creazione e distruzione
e ricordando la Eq. (8.50):
r
r
r
~
~
2~
†
∗
hz|x̂|zi =
hz|(a + a )|zi =
(z + z ) =
Re z
2mω
2mω
mω
r
r
√
m~ω
~
hz|p̂|zi = −i
hz|(a − a† )|zi = −i
(z − z ∗ ) = 2m~ω Im z.
2
2mω
(8.114)
(8.115)
Al tempo t invece si ha
|z; ti = e
− 12 |z|2
∞
∞
X
X
2
1
1
1
1
zn
(ze−iωt )n
√ e−iω(n+ 2 )t |ni = e− 2 |z| −i 2 ωt
√
|ni = e−i 2 ωt |ze−iωt i.
n!
n!
n=0
n=0
(8.116)
1
Quindi, a meno di un fattore di fase globale e−i 2 ωt
|z; ti = |ze−iωt i.
(8.117)
Vediamo quindi che l’evoluzione temporale di uno stato coerente può essere espressa in termini della
dipendenza dal tempo del parametro z che lo caratterizza: z(t) = ze−iωt si muove in senso orario sulla
circonferenza di raggio |z| nel piano complesso. Vediamo ora conme questo implichi che lo stato coerente
non si allarga durante l’evoluzione temporale.
A questo fine, calcoliamo l’indeterminazione:
∆2 x̂ = hz|(x − hxi)2 |zi =
~
hz|((a + a† ) − (hai + ha† i))2 |zi.
2mω
(8.118)
Tuttavia, essendo |zi autostato di a si ha che
hai = z;
ha† i = z ∗ .
(8.119)
Perciò
~
hz|(a + z ∗ − z − z ∗ )(z + a† − z − z ∗ )|zi
2mω
~
~
=
hz|(a − z)(a† − z ∗ )|zi =
hz|(a† − z ∗ )(a − z) + [(a − z), (a† − z ∗ ))]|zi
2mω
2mω
~
~
hz|[a, a† ]|zi =
.
=
2mω
2mω
∆2 x̂ =
(8.120)
(8.121)
(8.122)
Allo stesso modo si ha:
~mω
hz|((a − a† ) − (hai − ha† i))2 |zi
2
~mω
=−
hz|((a − a† ) − (hai − ha† i))((a − a† ) − (hai − ha† i))|zi
2
~mω
~mω
=
hz|[a, a† ]|zi =
.
2
2
∆2 p̂ = −
(8.123)
(8.124)
(8.125)
8.5 Stati coerenti e “gatti di Schrödinger”
121
Di conseguenza, riassumendo
~
2mω
~mω
2
∆ p̂ =
.
2
Vediamo quindi che gli stati coerenti sono effettivamente stati di minima indeterminazione:
∆2 x̂ =
(8.126)
(8.127)
~2
.
(8.128)
4
Inoltre, abbiamo visto che la dipendenza temporale dello stato può essere espressa come una dipendenza
dal tempo del parametro z. Ma le indeterminazioni Eq. (8.126) non dipendono da z, quindi ne concludiamo
che lo stato coerente non si allarga.
Possiamo quindi riscrivere in termini delle indeterminazioni, indipendenti dal tempo, le leggi del moto
per i valori medi di posizione ed impulso, Eq. (8.114), ricordando che
∆2 x̂∆2 p̂ =
hx̂i = 2∆x̂ Re z
hp̂i = 2∆p̂ Im z.
(8.129)
Si ha cosı̀
r
hx̂(t)i = 2∆x̂ Re z(t) =
2~
Re ze−iωt =
mω
r
2~
Re
mω
r
mω
2~
ip0
−iωt
x0 +
e
mω
p0
sin ωt
mω
r
√
√
ip0
mω
hp̂(t)i = 2∆p̂ Im z(t) = 2~mω Im ze−iωt = 2~mω Im
x0 +
e−iωt
2~
mω
= x0 cos ωt +
= p0 cos ωt − mωx0 sin ωt.
Vediamo quindi che il centro del pacchetto oscilla sia nello spazio delle posizioni che nello spazio degli
impulsi, mantenendo costante l’indeterminazione:
p0
hx̂(t)i = x0 cos ωt +
sin ωt
(8.131)
mω
hp̂(t)i = p0 cos ωt − mωx0 sin ωt.
(8.132)
Notiamo anche che le Eq. (8.129) ci dicono che l’interpretazione fisica del parametro z è di fornire il valor
medio di impulso e posizione (a seconda che se ne considerino la parte reale o la parte immaginaria) in
unità di indeterminazione. Questo vuol dire che uno stato coerente con le parti reale ed immaginaria di
z sufficientemente grandi può essere visto come uno stato ben localizzato sia in posizione che in impulso.
Consideriamo infine il prodotto scalare tra due stati coerenti |z1 i e |z2 i. Si ha
hz1 |z2 i =
∞
X
∗
2
2
1
1
(z1∗ z2 )n − 1 |z1 |2 − 1 |z2 |2
e 2
e 2
= ez1 z2 e− 2 |z1 | − 2 |z2 | .
n!
n=0
(8.133)
Quindi gli stati coerenti sono normalizzati, ma non sono ortogonali. Tuttavia, consideriamo per esempio
il caso in cui se |z1 i = |zi e |z2 i = | − zi,
2
1
2
hz| − zi = e−|z| e− 2 |z|
− 12 |z|2
= e−2(Re
2
+Im2 z)
.
(8.134)
Ricordando che
1 hx̂i
2 ∆x̂
1 hp̂i
Im z =
2 ∆p̂
vediamo che se gli stati coerenti sono localizzati in punti lontani in unità di indeterminazione, nello spazio
delle posizioni o degli impulsi, il loro prodotto scalare è sopresso esponenzialmente e quindi gli stati sono
quasi rtogonali.
Re z =
122
8.5.2
L’oscillatore armonico
Gatti di Schrödinger
Possiamo riprodurre molte delle idee dell’esperimento di Zeilinger considerando uno stato sovrapposizione
della forma
|ψcat i = eiα1 |z1 i + eiα2 |z2 i,
(8.135)
che chiamiamo “gatto di Schrödinger”. Nel caso dell’espemento di Zeilinger, i due stati |zi i corrispondono
ad aver fatto passare il sistema attraverso fenditure, in esperimenti di ottica quantistica essi possono
corrispondere a far passare il sistema attraverso un interferometro di Mach-Zender (si veda la Figura 8.3),
nel qual caso i due stati corrispondono al sistema che si è propagato attraverso ciascuno dei due bracci
dell’interferometro.
Figura 8.3: Interferometro di Mach-Zender
Per fabbricare un gatto a partire da uno stato coerente |zi lo si fa interagire con un potenziale opportuno per un tempo opportuno. Al termine dell’interazione si ottiene uno stato |ψcat i. Un esempio semplice
consiste nell’introdurre un potenziale di interazione dato dalla somma di un termine di interazione libero
(di oscillatore armonico) e del prodotto di un termine di accoppiamento per il quadrato dell’operatore
numero, cosa che si può realizzare mediante campi elettrici appositamente calibrati (effetto Kerr):
Ĥ = Ĥ0 + ~gN 2 .
(8.136)
L’evoluzione temporale dello stato coerente iniziale è
2
1
|ψ; ti = e i~ ~gN t |z(t)i,
(8.137)
dove l’effetto del termine H0 è già contenuta nell’evoluzione temporale che trasforma z in z(t). Si ha
quindi
1
2
|ψ; ti = e i~ ~gN t |zi =
∞
X
1
2
e i~ ~gN t |nihn|zi =
n=0
∞
X
1
2
e i~ ~gn t |nihn|zi.
(8.138)
n=0
Possiamo ora fabbricare uno stato di tipo gatto scegliendo t in modo che
|ψ; ti =
∞
X
n=0
π
e−i 2
n2
|nihn|zi.
(8.139)
8.5 Stati coerenti e “gatti di Schrödinger”
123
Si ha:
e
−i π
2
n2
= (−i)n
2
(
1 n pari
=
−i n dispari
,
(8.140)
e quindi
π
e−i 2
n2
π
π
1
= √ e−i 4 + ei 4 (−1)n .
2
(8.141)
Lo stato “gatto” Eq. (8.139) è quindi
1
|ψ; ti = √
2
e
−i π
4
iπ
4
|zi + e
∞
X
!
|nihn|zi(−1)
n
n=0
π
π
1
= √ e−i 4 |zi + ei 4 | − zi .
2
(8.142)
Vediamo ora come questo stato ci permetta di riprodurre la situazione che abbiamo visto negli esperimenti di misura quantistica, come l’esperimento di Zeilinger. Inizialmente, eseguiamo una misura di
posizione sullo stato. Supponiamo di partire con uno stato avente z = ip0 , co p0 reale, dimodoché
hx̂i = 2∆x̂ Re z = 0,
(8.143)
hp̂i = 2∆p̂ Im z = 2p0 ∆p̂.
(8.144)
Lo stato gatto in tal caso è la sovrapposizione di due stati aventi impulso medio eguale ed opposto.
Calcoliamo la probabilità di posizione |hx|ψcat i|2 . Le funzioni d’onda nello spazio delle posizioni sono
della forma
hx| ± zi = N e±
ip0 x
~
1
x2
e− 4 ∆2 x̂ ,
(8.145)
visto che si tratta di stati di minima indeterminazione. Si ha perciò:
2
2
ip0 x
ip0 x
1 x2
1 x2 π
π
1 −i π
1 π
e 4 hx|zi + ei 4 hx| − zi = e−i 4 N e ~ e− 4 ∆2 x̂ + ei 4 N e− ~ e− 4 ∆2 x̂ 2
2
2
p x π
2 2
π
i
i
1
0
−1 x
p
x
i
p
x
2 − 12 ∆x2 x̂ −i π
−
= |N | e
−
.
(8.146)
e 4 e ~ 0 + e 4 e ~ 0 = 2|N |2 e 2 ∆2 x̂ cos2
2
~
4
P (x) = |hx|ψcat i|2 =
Troviamo quindi la figura di interferenza tipica di esperimenti tipo Zeilinger, in cui lo stato del sistema è
una sovrapposizione di stati sfasati: specificamente, troviamo una probabilità gaussiana modulata da un
coseno. La lunghezza d’onda di oscillazione del coseno è
λ=
~
~
∆x
=
=
,
p0
2∆pIm z
Im z
(8.147)
mentre la larghezza della gaussiana è ∆x.
Pertanto, saranno visibili dell’ordine di Im z oscillazioni prima che la gaussiana smorzi l’interferenza,
che è quindi visibile purchè Im z sia abbastanza grande, cioè purché i due stati di cui stiamo considerando
la sovrapposizione siano abbastanza ben separati nello spazio degli impulsi. Lo stato “gatto” descrive
quindi la situazione in cui si ha uno stato che è sovrapposizione di due stati ben distinti, come gli stati
dell’esperimento di Zeilinger corrispondenti alla particella passata dalla prima o dalla seconda fenditura.
Vediamo ora come una misura fa sparire l’interferenza: in questo caso quindi l’interferenza scompare
se si esegue una misura di impulso che ci dice in quale dei due stati di cui il gatto è sovrapposizione esso
si trova. Nel caso dell’esperimento di Zeilinger, questo corrisponde ad avere un rivelatore che ci dice da
che fenditura sia passata la particella.) Un rivelatore, per definizione, è un ulteriore grado di libertà del
sistema, al quale perciò è associato un ket di stato. In presenza di rivelatore, quindi, il ket di stato del
sistema è
|ψcat idet = |ψcat i|ψdet i
(8.148)
124
L’oscillatore armonico
dove |ψdet i è lo stato in cui si trova il rivelatore.
Lo stato gatto in presenza di rivelatore è quindi
π
π
1
|ψcat idet = √ e−i 4 |zi|+det i + ei 4 | − zi|−det i ,
2
(8.149)
dove ±det i sono due stati in cui il rivelatore si trova, che supponiamo ben distinti,
h+det |−det i = 0,
(8.150)
per definizione di cioò che intendiamo con rivelatore
La probabilità di una misura di posizione è ora
1
2
|hx|ψcat idet |
2
π
π
1
=
|hx|zi|2 |h+det |+det i|2 + |hx| − zi|2 |h−det |−det i|2 + e−i 2 hz| − zih+det |−det i + ei 2 h−z|zih−det |+det i
2
(8.151)
2
2
2
2
= |hx|zi| |h+det |+det i| + |hx| − zi| |h−det |−det i| ,
P (x) =
dove nell’ultimo passaggio abbiamo usato la Eq. (8.150). L’interferenza è quindi scomparsa perchè i
termini di interferenza sono pesati dal prodotto h+det |−det i.
Possiamo ad esempio supporre che gli stati |±i siano anch’essi stati coerenti, cui gli stati di cui il
“gatto” è sovrapposizione cede una frazione del proprio impulso:
|±i = | ± µpi,
(8.152)
dove µ è una costante sufficientemente piccola che dopo la misura gli stati ±pi non siano eccessivamente
perturbati, ma sufficientemente grande perché valga la Eq. (8.150).
Vediamo cosı̀ che il “collasso della funzione d’onda”, ossia il fatto che dopo una misura la funzione
d’onda si riduca a quella dello stato in cui il sistema è stato rivelato è inevitabile conseguenza dell’aver
trattato anche il rivelatore in modo quantistico.
Parte III
Meccanica quantistica in più
dimensioni
Capitolo 9
Sistemi quantistici in più di una
dimensione
9.1
Spazi prodotto diretto
Introduciamo problemi quantistici in spazi rappresentabili come prodotto diretto. Consideriamo sinonimi
prodotto diretto o prodotto tensoriale: dati due spazi vettoriali lineari H, K, ne denotiamo il prodotto
diretto con H ⊗ K, e lo definiamo nel modo seguente. Prima di tutto, dati due insiemi di stati di base
|ei i ∈ H e |fi i ∈ K, definiamo gli stati prodotto diretto |ei i ⊗ |fj i. Il prodotto scalare tra due stati
prodotto diretto è definito come
(hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) ≡ hei0 |ei ihfi0 |fj i.
(9.1)
Si noti che il prodotto scalare cosı̀ definito eredita le consuete proprietà di linearità e hermiticità dai
prodotti scalari relativi agli spazi H e K. Se le basi sono ortonormali si ha cosı̀
(hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) = δii0 δjj 0 .
(9.2)
Lo spazio prodotto diretto H ⊗ K è definito come lo spazio lineare ricoperto dagli stati
|ψi =
X
cij |ei i ⊗ |fj i,
(9.3)
i,j
dove cij sono numeri complessi. Bisogna prestare attenzione al fatto che anche se gli stati di base sono
un prodotto diretto, gli stati generici sono una sovrapposizione di stati prodotto diretto, ma non sono in
generale scrivibili come prodotti: uno stato della forma
!
|φi =
X
i
ai |ei i


X
⊗
bj |fj i
(9.4)
j
può essere sempre sempre essere scritto nella forma Eq. (9.3) sviluppando il prodotto, ma naturalmente
non tutti gli stati Eq. (9.3) possono essere scritti nella forma fattorizzata Eq. (9.4). Vedremo molto più
avanti, nella sezione 14.2, come questo fatto sia alla base del fenomeno fisico dell’entanglement.
128
9.1.1
Sistemi quantistici in più di una dimensione
Sistemi di dimensione finita
Come primo semplice esempio, consideriamo un sistema formato da 2 qubit1 . In questo caso abbiamo i
4 stati complessivi possibili
|ψ1 i =|+i ⊗ |+i
|ψ2 i =|+i ⊗ |−i
|ψ3 i =|−i ⊗ |+i
(9.5)
|ψ4 i =|−i ⊗ |−i.
Possiamo usare questo insieme di stati per descrivere una situazione fisica in cui lo stato del sistema è
caratterizzato da due osservabili, ciascuna delle quali può assumere due valori possibili.
Per semplicità di notazione useremo nel seguito, qualora non ci siano ambiguità, una notazione in cui
il segno di prodotto tensoriale viene omesso, scrivendo i quattro stati come nella Eq. (9.6) ma senza il
segno di prodotto diretto, oppure anche come
|ψ1 i =| + +i
|ψ2 i =| + −i
|ψ3 i =| − +i
(9.6)
|ψ4 i =| − −i.
Osserviamo che un operatore che agisce sullo spazio degli stati fisici non è la somma di due matrici
2 × 2, ma un’unica matrice 4 × 4, i cui elementi sono
hmn|A|iji = Amn,ij .
(9.7)
Ponendo |mni = |ai e |iji = |bi possiamo scrivere
hmn|A|iji = Aa,b ,
(9.8)
chiamando i 4 stati, per esempio, 1, 2, 3, 4. Nel caso finito-dimensionale generale, il prodotto diretto di
due spazi di dimensione n è uno spazio di dimensione n × n. Gli operatori su tale spazio sono matrici il
cui rango è pari alla dimensione del nuovo spazio prodotto diretto.
9.1.2
Più dimensioni e più particelle
Il concetto di spazio prodotto diretto ci permette di estendere al caso d-dimensionale la trattazione dei
sistemi meccanici sviluppata nel Capitolo 4 della prima parte.
ˆ».
Definiamo la versione d-dimensionale dell’operatore di posizione x̂, ossia il vettore di operatori #x
Esso è una collezione di operatori:


x̂1
 x̂2 

#x
ˆ» = 
(9.9)
 .. 
 . 
x̂d
dove ogni coordinata è indipendente dalle altre. Come in geometria, si può preferire una rappresentazione
ˆ», una rappresentazione esplicita in cui si rappresentano
di tipo vettoriale, in cui si manipolano dei vettori #x
i vettori come colonne e si indicano le loro componenti od ancora una notazione per componenti in cui si
denota l’i-esima componente con x̂i .
Notiamo una potenziale ambiguità terminologica che potrebbe essere fonte di confusione. Abbiamo
spesso usato il termine “vettore” per indicare gli stati nello spazio di Hilbert (come nell’espressione
ˆ» è invece un vettore nel senso della Eq. (9.9), ossia una collezione di
“vettore di stato”). L’operatore #x
1 Ricordiamo
che un qubit è il sistema formato da una particella che può trovarsi in due stati |+i o |−i.
9.1 Spazi prodotto diretto
129
operatori etichettati da un indice, che corrisponde al fatto che ciascun x̂i è l’operatore posizione relativo ad
un diverso spazio unidimensionale — quello relativo alla i-esima coordinata. Non vi è in generale alcuna
relazione tra lo spazio vettoriale cui appartiene questo vettore di operatori — lo spazio delle coordinate
— e lo spazio vettoriale cui appartengono i vettori di stato — lo spazio degli stati fisici. Ad esempio,
lo spazio delle coordinate è uno spazio vettoriale reale, mentre lo spazio degli stati fisici è uno spazio di
Hilbert, cioè uno spazio vettoriale complesso.
Dato un vettore di operatori posizione, possiamo introdurre lo spazio degli stati fisici costruito a
partire dai risultati di misure di ciascuna delle componenti di questo operatore, in analogia con il caso
unidimensionale, dove gli autostati |xi i della posizione rispetto alla i-esima coordinata soddisfano
x̂i |xi i = xi |xi i.
(9.10)
In d dimensioni il vettore di operatori agisce su stati fisici costruiti a partire dagli autostati della posizione d-dimensionale. Effettuando una misura del vettore posizione riveliamo il sistema in un autostato
del vettore di operatori:
#x
ˆ»| #»
x i = #»
x | #»
x i.
(9.11)
La notazione compatta | #»
x i indica lo stato prodotto diretto
| #»
x i = |x1 i ⊗ |x2 i ⊗ · · · |xd i,
(9.12)
ossia lo stato in cui il sistema sia simultaneamente in un autostato della posizione lungo ciascuno dei d assi
ˆ», ossia l’operatore x̂i è l’operatore
coordinati. Notiamo qundi che la componente i−esima del vettore #x
che agisce come l’operatore posizione sul vettore di base |xi i che entra a costituire il prodotto diretto
Eq. (9.12), e come l’identità su tutti gli altri vettori |xi i
La densità di probabilità di rivelare in #»
x un sistema d-dimensionale che si trova in nello stato |ψi è
data da
2 #»
#»
dP #»
x = |h x |ψi| d x ,
(9.13)
h #»
x |ψi = ψ(x1 , x2 , . . . , xd ) = ψ( #»
x ).
(9.14)
dove ψ( #»
x ) è la funzione d’onda
La funzione d’onda è quindi una funzione a valori complessi di d variabili reali. Il fatto che, come
abbiamo già osservato, lo stato fisico generico non si possa scrivere nella forma fattorizzata Eq. (9.4)
equivale a dire che in generale non è detto che la funzione d’onda si possa fattorizzare in tante sottofunzioni d’onda: generalmente
ψ( #»
x ) 6= ψ1 (x1 )ψ2 (x2 ) · · · ψd (xd ),
(9.15)
anche se naturalmente questo può succedere in casi particolari.
Oltre che per descrivere sistemi in più di una dimensione, gli spazi prodotto tensoriale servono a
descrivere il caso di sistemi di più di una particella. Lo spazio degli stati fisici per un sistema di n
particelle è il prodotto diretto degli n spazi di stati ad una particella. Indichiamo con |mk i i vettori di
base della k-esima particella: ad esempio, autostati di energia associati all m-esimo autovalore Em . In
questo casi, possiamo costruire descrivere un sistema di n particelle come
X
|ψi =
cm1 ,...,mn |m1 i ⊗ |m2 i ⊗ · · · |mn i.
(9.16)
m1 ,...,mm
9.1.3
Sistemi d-dimensionali in coordinate cartesiane
Consideriamo ora il caso di un sistema di una particella soggetta ad un potenziale in d dimensioni, descritto da un vettore di stato che nello spazio delle posizioni ha la forma della funzione d’onda d-dimensionale
130
Sistemi quantistici in più di una dimensione
ψ( #»
x ) Eq. (9.14). Gli operatori canonici, posizione ed impulso, si possono costruire generalizzando direttamente al caso d dimensionale la costruzione unidimensionale vista nella prima parte: ad esempio, la
componente dell’impulso lungo l’i-esimo asse si costruisce a partire dal generatore delle traslazioni lungo
quell’asse:
 ∂ 
#» #»

ˆ»|ψi = −i~∇ψ(
h #»
x | #p
x ) = −i~ 
∂x1
..
.
∂
∂xd
 #»
 ψ( x ).
(9.17)
L’evoluzione temporale del sistema è generata da un’hamiltoniana che possiamo scrivere per sistemi
meccanici come somma di un termine cinetico d-dimensionale e di un potenziale, generalizzando in modo
ovvio il caso unidimensionale:
Ĥ =
#p
ˆ»2
ˆ»).
+ V̂ ( #x
2m
(9.18)
Esplicitamente, il termine cinetico è dato da
2
d #p
ˆ»2
1 #» #ˆ» #ˆ»
1 #»
1 X
∂
2
2
2
#»
ψ( #»
x)
|ψi =
h x | p · p |ψi =
h x |(p1 ) + (p2 ) + · · · + (p )d |ψi =
−i~
hx|
2m
2m
2m
2m j=1
∂xj
d
=−
~2 X ∂ 2
~2 #» #» #»
#»
ψ(
x
)
=
−
∇ · ∇ψ( x ).
2m j=1 ∂(xj )2
2m
(9.19)
In particolare se d = 3
#p
ˆ»2
~2
#»
|ψi = −
4ψ( #»
x ),
hx|
2m
2m
(9.20)
dove con 4 si intende il Laplaciano.
9.2
Separabilità
In molti casi, la trattazione di un problema in più di una dimensione può essere ridotta alla risoluzione
di un problema definito in uno spazio di dimensione meno elevata. Un caso particolarmente semplice è
quello di hamiltoniane separabili.
9.2.1
Potenziali separabili in coordinate cartesiane
Consideriamo una particella d-dimensionale soggetta ad un hamiltoniana della forma della Eq. (9.18), ma
con un potenziale della forma
ˆ») = V̂1 (x̂1 ) + V̂2 (x̂2 ) + . . . V̂d (x̂d ) =
V̂ ( #x
d
X
V̂i (x̂i ).
(9.21)
i=1
In tal caso, l’Hamiltoniana può essere scritta come somma di hamiltoniane unidimensionali. Infatti
n
#p
X
ˆ»2 X
+
V̂i (x̂i ) =
Ĥi ,
Ĥ =
2m
i
i=1
(9.22)
dove
Ĥi =
#p
ˆ»2
i
+ V̂i (x̂i ).
2m
(9.23)
9.2 Separabilità
131
La determinazione dello spettro dell’hamiltoniana si riduce cosı̀ alla determinazione dello spettro di
hamiltoniane unidimensionali:
h #»
x |Ĥ|ψi = h #»
x |Ĥ1 |ψi + h #»
x |Ĥ2 |ψi + . . .
2
2
~2 ∂ 2
~
∂
#»
+ V (x1 ) ψ( x ) + −
+ V (x2 ) ψ( #»
x) + ....
= −
2m (∂x1 )2
2m (∂x2 )2
(9.24)
Una hamiltoniana che può essere scritta come somma di hamiltoniane unidimensionali si dice separabile
in coordinate cartesiane.
Se conosciamo gli autostati |ψik i della i-esima hamiltoniana
Ĥi |ψik i = Eik |ψik i;
hxi |ψ k i = ψik (xi )
(9.25)
si verifica facilmente che lo stato prodotto
ψk1 k2 ···kd ( #»
x ) = ψk1 (x1 )ψk2 (x2 ) · · · ψkd (xd )
(9.26)
è autostato dell’hamiltoniana complessiva Eq. (9.22). Infatti
~2 ∂ 2 ψk1 (x1 )
ψk2 (x2 ) · · · ψkn (xd ) + V (x1 )ψk1 k2 ···ks ( #»
x)
2m ∂x1 2
~2
∂ 2 ψk2 (x2 )
−
ψk1 (x1 )
· · · ψkd (xd ) + V (x2 )ψk1 k2 ···kd ( #»
x) + ··· ,
2m
∂x2 2
h #»
x |Ĥ|ψk1 k2 ···kd i = −
(9.27)
ma le ψki sono autofunzioni di Ĥi :
−
~2 ∂ 2
ψk (xi ) + Vi (xi )ψki (xi ) = Eki ψki (xi ),
2m ∂x1 2 i
(9.28)
e quindi
h #»
x |Ĥ|ψk1 k2 ···kd i = Ek1 ψk1 k2 ···kd ( #»
x ) + Ek2 ψk1 k2 ···kd ( #»
x ) + · · · + Ekd ψk1 k2 ···kd ( #»
x)
#»
= (E + E + . . . E )ψ
( x ).
k1
9.2.2
k2
kd
k1 k2 ···kd
(9.29)
Hamiltoniane separabili
È facile vedere che le autofunzioni Eq. (9.26) sono le più generali, cioè che tutte e sole le autofunzioni
dell’hamiltoniana hanno questa forma. L’argomento ci fornisce inoltre un metodo generale per capire
quando una hamiltoniana è separabile, e che cosaq questo comporta.
Notiamo preliminarmente che la generalizzazione d-dimensionale del commutatore canonico
[p̂, x̂] = −i~
(9.30)
è
[p̂i , x̂j ] = −i~δ ij
[x̂i , x̂j ] = 0
[p̂i , p̂j ] = 0.
(9.31)
Infatti, la i-esima componente del vettore impulso genera le traslazioni lungo l’i-esimo asse lasciando tutte le altre coordinate invariate. Dal commutatore Eq. (9.31) segue che le singole hamiltoniane
unidimensionali commutano tra loro
[Ĥi (x̂i , p̂i ), Ĥj (x̂j , p̂j )] = 0
se i 6= j,
(9.32)
e di conseguenza, possono essere diagonalizzate simultaneamente (e simultaneamente alla Ĥ Eq. (9.22),
che ne è la somma).
132
Sistemi quantistici in più di una dimensione
Ne segue immediatamente che
Ek = Ek1 + Ek2 + . . . Ekd .
(9.33)
Inoltre, la dipendenza dell’autofunzione h #»
x |ψi = ψ( #»
x ) da ciascuna delle d variabili xi è fissata dal fatto
che la funzione è autofunzione dell’Hamiltoniana relativa a tale variabile.
Questo argomento si generalizza immediatamente a qualunque hamiltoniana che può essere scritta
come somma di hamiltoniane che commutano. Infatti, se
Ĥ = Ĥ1 + · · · + Ĥn
(9.34)
[Ĥi , Ĥj ] = 0
(9.35)
e
le hamiltoniane sono diagonalizzabili simultaneamente
Ĥi |ki i = Eik |ki i,
(9.36)
e una base di autofunzioni per l’hamiltoniana d-dimensionale H Eq. (9.34) è
|k1 . . . kd i = |k1 i ⊗ · · · ⊗ |kd i.
(9.37)
L’argomento precedente implica inoltre che gli autostati dell’hamiltoniana Eq. (9.34) sono gli stati fattorizzati Eq. (9.37), con autovalore dato da
Ek1 ...kd = Ek1 + · · · + Ekd .
(9.38)
Una hamiltoniana H che si può scrivere come somma di hamiltoniane che commutano è detta separabile, e vediamo cosı̀ che i suoi autovalori e le sue autofunzioni possono sempre essere scritti rispettivamente
usando la Eq. (9.33) e la Eq. (9.37) in termini delle autofunzioni e degli autovalori Eq. (9.36) delle
hamiltoniane Hi in termini delle quali è stata separata.
9.2.3
Esempi tridimensionali
Buca di potenziale cubica
Consideriamo l’Hamiltoniana
Ĥ =
#p
ˆ»2
ˆ»),
+ V̂ ( #x
2m
(9.39)
con
ˆ») =
V̂ ( #x
3
X
V̂i (x̂i ),
(9.40)
i=1
dove
(
0
Vi (x ) =
∞
i
se |xi | < ai
.
se |xi | > ai
(9.41)
Essa corrisponde ad una buca di potenziale parallelepipedale (sistema confinato all’interno di un parallelepipedo nello spazio tridimensionale).
Possiamo scomporre il problema in tre sottoproblemi come visto prima:
i2
p̂
i
+ V̂i (x̂ ) |ψni i = Eni |ψni i
(9.42)
2m
9.2 Separabilità
133
dove
~2 kn2 i
2m
Eni =
k ni =
ni π
2ai
(9.43)
con ni = 1, 2 . . . ∞. Ricordiamo che la forma esplicita delle autofunzioni è:
(
Ani cos kni xi ni = 2n + 1
i
.
hx |ψni i =
Bni sin kni xi ni = 2n
(9.44)
Lo spettro dell’Hamiltoniana totale è definito dall’equazione agli autovalori
Ĥ|ψn1 n2 n3 i = En1 n2 n3 |ψn1 n2 n3 i
(9.45)
con
En1 n2 n3 =
~2 π 2
8m
n2
n2
n21
+ 22 + 23
2
a1
a2
a3
.
(9.46)
n1 , n2 , n3 sono detti numeri quantici.
Se i valori di ai sono commensurabili, è possibile che lo spettro presenti delle degenerazioni. Consideriamo ad esempio il caso a1 = a2 = a3 = a (buca cubica). In questo caso si ha
En1 n2 n3 =
~2 π 2 2
(n + n22 + n23 ).
8ma2 1
(9.47)
Lo stato fondamentale è
E111 =
~2 π 2 3
ma2 8
(9.48)
e non presenta degenerazioni. Per il primo stato eccitato si ha invece
E211 = E121 = E112 =
~2 π 2 3
,
ma2 4
(9.49)
e lo stato è quindi 3 volte degenere. Al crescere dell’energia aumenta il numero di stati diversi associati
al medesimo autovalore. Calcolare il livello di degenerazione al crescere di E è un problema complesso
di algebra combinatoria, che si può risolvere per n1 + n2 + n3 tendente ad infinito: in questo limite il
numero di stati cresce come la superficie di una sfera.
Oscillatore armonico tridimensionale
Consideriamo ora l’hamiltoniana
#p
ˆ»2
ˆ»)
Ĥ =
+ V̂ ( #x
2m
(9.50)
con
ˆ») =
V̂ ( #x
3
X
V̂i (x̂i )
(9.51)
i=1
e dove
V̂i (x̂i ) =
1
mωi2 (x̂i )2 .
2
(9.52)
Lo spettro di energia ha la forma
Ĥ|ψn1 n2 n3 i = En1 n2 n3 |ψn1 n2 n3 i,
(9.53)
134
Sistemi quantistici in più di una dimensione
e la ψ( #»
x ) è il prodotto di tre autofunzioni dell’oscillatore armonico in x, y, z. Gli autovalori sono
1
En1 n2 n3 = ~ n2 ω1 + n2 ω2 + n3 ω3 + (ω1 + ω2 + ω3 ) .
(9.54)
2
Supponiamo ora che ω1 = ω2 = ω3 = ω (oscillatore isotropo). Il potenziale è quindi
3
X
1
ˆ») = 1 mω 2
ˆ»2 .
V̂ ( #x
(x̂i )2 = mω 2 #x
2
2
i=0
(9.55)
ˆ»). In tale
Si vede quindi che il potenziale ha simmetria sferica (dipende solo dalla norma del vettore #x
caso si ha
3
3
= ~ω N +
(9.56)
En1 n2 n3 = ~ω n1 + n2 + n3 +
2
2
con N = 0, 1, . . . ∞.
Lo spaziamento dei livelli è quindi identico a quello del caso unidimensionale, pur essendo cambiata
l’energia dello stato fondamentale. Inoltre, l’N -esimo livello energetico ora è degenere. La degenerazione
si calcola notando che possiamo scegliere n1 in N + 1 modi diversi (n1 = 0, 1, 2, . . . , N ). Una volta scelto
n1 possiamo scegliere n2 in N − n1 + 1 modi diversi (n2 = 0, 1, . . . , N − n1 ). Una volta scelti n1 ed n2 ,
n3 è fissato: n3 = N − n1 − n2 . La degenerazione è quindi
d=
N
X
(N − n1 + 1) = (N + 1)
n1 =0
9.3
9.3.1
N
X
n1 =0
1−
N
X
n1
1
1
n1 = (N + 1)2 − N (N + 1) = (N + 1)(N + 2). (9.57)
2
2
=0
Problemi a due corpi e problemi centrali
Il problema dei due corpi
Un sistema di due corpi che interagiscono attraverso un potenziale che dipende solo dalla loro separazione
fornisce un esempio classico di problema separabile attraverso un semplice cambio di coordinate. Il
sistema è descritto dall’Hamiltoniana:
#p
#p
ˆ»2
ˆ»2
1
ˆ»1 − #x
ˆ»2 ) :
Ĥ =
+ 2 + V̂ ( #x
2m1
2m2
(9.58)
il potenziale dipende solo dalla differenza delle coordinate. Le variabili canoniche per questo problema
soddisfano le regole di commutazione
[p̂ia , x̂jb ] = −i~δ ij δab
[p̂ia , p̂jb ]
=
[x̂ia , x̂jb ]
= 0,
(9.59)
(9.60)
dove a, b = 1, 2 etichettano le due particelle mentre i, j = 1, 2, 3 etichettano le tre coordinate spaziali.
Il problema si separa definendo le coordinate relative e quelle del baricentro
#ˆr» = #x
ˆ»1 − #x
ˆ»2
ˆ»1 + m2 #x
ˆ»2
#ˆ» m1 #x
.
R=
m1 + m2
(9.61)
(9.62)
A queste vanno associate i rispettivi impulsi coniugati
#ˆ»
#ˆ»
#p
ˆ» = m2 p 1 − m1 p 2
m1 + m2
#ˆ» #ˆ»
ˆ» .
P = p + #p
1
2
(9.63)
(9.64)
9.3 Problemi a due corpi e problemi centrali
135
Si verifica facilmente che le coordinate e gli impulsi Eq. (9.61-9.63) soddisfano relazioni di commutazione
canoniche;
[p̂i , r̂j ] = −i~δ ij
[P̂ i , R̂j ] = −i~δ ij
[p̂i , p̂j ] = [r̂i , r̂j ] = [P̂ i , P̂ j ] = [R̂i , R̂j ] = [r̂i , P̂ j ] = [p̂i , R̂j ] = 0.
(9.65)
(9.66)
Ad esempio,
1
m2 p̂i1 − m1 p̂i2 j
, x̂1 − x̂j2 =
(m1 (−i~)δ ij + m2 (−i~)δ ij ) = −i~δ ij ;
m1 + m2
m1 + m2
#
"
1
m2 p̂i1 − m1 p̂i2 m1 x̂j1 + m2 x̂j2
i
j
,
=
(m1 m2 δ ij − m1 m2 δ ij ) = 0,
[p̂ , R̂ ] =
m1 + m2
m1 + m2
m1 + m2
[p̂i , r̂j ] =
(9.67)
(9.68)
e cosı̀ via.
Si verifica facilmente con il calcolo esplicito che nelle nuove coordinate Eq. (9.61-9.63) il termine
cinetico nell’hamiltoniana Eq. (9.58) si separa
#ˆ»2
#p
ˆ»2
P
+
=
+
,
T =
2m1
2m2
2M
2µ
#p
ˆ»2
1
#p
ˆ»2
2
(9.69)
dove la massa totale M e la massa ridotta µ sono rispettivamente
M = m1 + m2
1
1
1
=
+
,
µ
m1
m2
(9.70)
(9.71)
sicché l’hamiltoniana diventa
#ˆ»2
#p
ˆ»2
P
+
+ V̂ ( #ˆr»),
Ĥ =
2M
2µ
(9.72)
Il problema dei due corpi è perciò separabile in due problemi ad un corpo,
#ˆ» #ˆ»
ˆ»)
Ĥ = ĤB ( R, P ) + Ĥr ( #ˆr», #p
(9.73)
con
#ˆ»2
P
ĤB =
2M
#p
ˆ»2
Ĥr =
+ V̂ ( #ˆr»)
2µ
(9.74)
(9.75)
e con
[ĤB , Ĥr ] = 0.
(9.76)
Lo spettro può quindi essere determinato come discusso nella Sez. 9.2.
È importante capire la logica con cui il cambiamento di coordinate viene costruito. Innanzitutto, è
ˆ»1 − #x
ˆ»2 affinché il potenziale dipenda da una coordinata sola. Inoltre, data
necessario scegliere voperr = #x
una scelta di cambiamento di coordinate posizione, il cambiamento delle coordinate impulso è interamente
fissato dalle relazioni di commutazione canoniche, come dimostreremo nella prossima sezione. Quindi per
#ˆ»
#ˆ» ˆ»
#ˆ»
ogni scelta di R sono completamente fissati P e #p
. D’altra parte, per ogni scelta di P , c’è una sola
#
»
ˆ che separa il termine cinetico nella somma di due termini secondo la Eq. (9.69): questo è
scelta di p
facile dimostrare con un argomento identico a quello classico, visto che tutti gli operatori che compaiono
nel termine cinetico commutano fra loro e quindi possono essere trattati come oggetti classici. Quindi la
#x
#ˆ»
ˆ»1 +m2 #x
ˆ»2
è fissata dalla richiesta che si separi il termine cinetico.
scelta R = m1 m
1 +m2
136
9.3.2
Sistemi quantistici in più di una dimensione
Cambiamenti lineari di coordinate
Il passaggio dalle coordinate dei due corpi alle coordinate relative e del baricentro discusso nella sezione
precedente è un caso particolare di un cambiamento lineare di coordinate della forma
!
#» #x
ˆ»0
ˆ1
x
1
=
M
(9.77)
0
#
ˆ»2 ,
#x
ˆ»
x
2
tale che la matrice M sia invertibile. il cambio di coordinate Eq. (9.61) ne è un caso particolare: usando
la notazione più compatta
#x
ˆ»0 ≡ #ˆr»
1
#ˆ»
#x
ˆ»0 ≡ R,
2
(9.78)
(9.79)
esso corrisponde alla scelta
M=
1
−1
m1
m1 +m2
m2
m1 +m2
.
(9.80)
Si dimostra facilmente che, per un cambiamento di coordinate della forma generale Eq. (9.77), la
trasformazione associata degli impulsi che preserva le relazioni di commutazione canoniche, ovvero tale
che
i
j
[p̂0 a0 , x̂0 b0 ] = −i~δ ij δa0 b0 .
(9.81)
ˆ»0 #p
ˆ»0 ) = ( #p
ˆ» #p
ˆ» )N
( #p
1
2
1
2
(9.82)
N = M −1 ,
(9.83)
#p
ˆ»0 0 = #p
ˆ» Naa0
a
a
(9.84)
è data da
con
ovvero, in componenti
dove sottintendiamo che gli indici ripetuti vanno sommati.
Infatti:
i
j
[p̂0 a0 , x̂0 b0 ] = [p̂ia , x̂jb ]Naa0 Mb0 b = −i~δ ij δ ab Naa0 Mb0 b = −i~δ ij (M N )b0 a0 .
(9.85)
Di conseguenza si ha:
i
j
[p̂0 a0 , x̂0 b0 ] = −i~δ ij (I)b0 a0 ⇔ N = M −1 .
(9.86)
Possiamo ricavare la trasformazione degli impulsi Eq. (9.82-9.83) da principi primi, costruendo gli
impulsi come generatori delle traslazioni. Questo può essere semplicemente fatto utilizando la rappresentazione delle coordinate, dove
#» #»
ˆ»|ψi = −i~∇ψ(
h #»
x | #p
x)
(9.87)
#»
0
0
ˆ»| #»
h #»
x | #p
x i = −i~∇ δ( #»
x − #»
x ).
(9.88)
x
Per semplificare la notazione, scriviamo
pi = −i~
∂
,
∂xi
(9.89)
9.3 Problemi a due corpi e problemi centrali
137
osservando tuttavia che questo è un abuso di notazione: gli elementi di matrice dell’operatore impulso
hanno la forma Eq. (9.87) nella base delle coordinate, ma non possiamo identificare l’operatore impulso
con l’operatore derivata (sono operatori che agiscono su spazi diversi: l’uno sullo spazio dei vettori di
stato, l’altro sulle funzioni). Possiamo però vedere la Eq. (9.89) come una notazione abbreviata per
l’operatore differenziale −i~∂i , che scegliamo di indicare, con abuso di notazione, con lo stesso simbolo
usato per l’operatore impulso.
Come esercizio, calcoliamo il commutatore canonico con questa notazione. Il calcolo standard è
h #»
x |[p̂i , x̂j ]|ψi = −i~ (∂i xj − xi ∂j ) ψ( #»
x ) = −i~δij ψ( #»
x ).
(9.90)
Con la notazione Eq. (9.89) scriviamo
[pi , xj ] = −i~ (∂i xj − xi ∂j ) = −i~δij .
(9.91)
Visto che nella notazione Eq. (9.89) gli operatori pi sono operatori differenziali, si sottintende che essi
agiscano (a destra) su una funzione d’onda. Questo spiega l’ultimo passaggio: nel termine ∂i xj la derivata
agisce sia su xj (producendo il risultato finale), sia sulla funzione d’onda (non scritta), e il termine in cui
si agisce sulla funzione d’onda si elide con −xi ∂j .
Quindi, con questa notazione compatta, tutti gli operatori posizione sono rimpiazzati dai loro autovalori, gli operatori impulso sono rimpiazzati da derivate, ed infine ogni derivata va fatta su tutti gli oggetti
che si trovano alla sua destra, sottintendendo sempre un’ultima derivata della funzione d’onda (anche
quando questa non viene scritta).
Avendo introdotto questa notazione semplificata, abbiamo che i generatori delle traslazioni nelle nuove
variabili sono
p0 a0 = −i~
∂
.
∂x0 ia0
∂
∂xa
i
(9.92)
Usando la regola della derivata composta
−i~
(i)
(i)
∂x0 a0
= −i~
(i)
∂x0 a0
∂
(i)
,
(9.93)
∂xa
dove la parentesi attorno all’indice i indica che esso, pur essendo ripetuto, non va sommato (la trasformazione di coordinate viene infatti eseguita separatamente per ciascuna coordinata i). Ma per il cambio
di coordinate Eq. (9.77)
(i)
∂x0 a0
(i)
∂xa
= Ma0 a ,
(9.94)
−1
= Maa
0.
(9.95)
e perciò
(i)
∂xa
(i)
∂x0 a0
Quindi
i
p0 a0 = −i~
∂
∂
−1
−1
i
0i
= −i~ i Maa
0 = pa Maa0 = p a0 ,
i
0
∂xa
∂x a0
(9.96)
in accordo con le Eq. (9.82-9.83).
Notiamo infine che il caso discusso qui, in cui il cambio di coordinate rimescola le coordinate delle
due particelle, ma non diverse componenti cartesiane della coordinate di ciascuna particella, ed inoltre il
cambio è lo stesso per tutte le coordinate, è un caso particolare di un più generale cambio di coordinate
in cui la matrice M è una matrice generale sei per sei. La generalizzazione a questo caso è ovvia ed
immediata.
138
9.3.3
Sistemi quantistici in più di una dimensione
Problemi centrali
Avendo separato il moto relativo da quello del baricentro ci concentriamo ora su una hamiltoniana ad
un corpo. Per non appesantire la notazione, indichiamo la massa con m anche se nel caso del problema
ottenuto riducendo un problema a due corpi si tratta della massa ridotta. Consideriamo inoltre il caso di
potenziali che dipendono solo dal modulo dell’operatore posizione, ossia
#p
ˆ»2
ˆ»||).
+ V̂ (|| #x
Ĥ =
2m
(9.97)
Potenziali di questo tipo sono detti centrali.
In analogia con il caso classico, vogliamo separare il moto angolare dal moto radiale. A questo scopo,
introduciamo coordinate sferiche:


x1 = r sin ϑ cos ϕ
(9.98)
x2 = r sin ϑ sin ϕ


x3 = r cos ϑ
In coordinate sferiche si ha V = V (r), quindi il problema si separa se siamo in grado di separare il
termine cinetico. In meccanica classica, il termine cinetico in coordinate sferiche si separa
#»
L2
#»
(9.99)
p 2 = p2r + 2
r
utilizzando l’identità vettoriale
#»
#»
#»
( #»
a · b )2 = || #»
a ||2 || b ||2 − || #»
a × b ||2 ,
(9.100)
da cui la Eq. (9.99) segue immediatamente ponendo
#»
a = #»
x;
#» #»
b = p;
#»
#»
L = #»
a× b
(9.101)
ˆ» e #p
ˆ» sono operatori non
e definendo pr = ||~x1|| ~x · p~. Quantisticamente dobbiamo tuttavia ricordare che #x
commutanti.
Ricordiamo dapprima la dimostrazione dell’identità Eq. (9.100). Introduciamo il tensore completamente antisimmetrico εijk , definito dalle relazioni
εijk = −εjik = εkij = −εikj
ε123 = 1.
(9.102)
La definizione implica che εijk si annulla quando due indici sono uguali, è pari a +1 per ogni permutazione
ciclica degli indici rispetto all’ordinamento 123, ed è pari a −1 per ogni permutazione anticiclica. Il
prodotto esterno di due vettori si può scrivere in termini del tensore completamente antisimmetrico come
#»
( #»
a × b )i = εijk aj bk .
(9.103)
Si verifica facilmente che
εijk εiab = (δ ja δ kb − δ jb δ ka ),
(9.104)
da cui la Eq. (9.100) segue immediatamente:
#»
a × b ||2 = εimn εijk am bn aj bk = (δ mj δ nk − δ mk δ nj )am bn aj bk = aj aj bk bk − aj bj ak bk
|| #»
#»
#»
= || #»
a ||2 || b ||2 − ( #»
a · b )2 .
(9.105)
Nel caso quantistico, identifichiamo innanzitutto la componente radiale dell’operatore impulso. In
coordinate cartesiane si ha
#»
#»
p = −i~∇
(9.106)
9.3 Problemi a due corpi e problemi centrali
139
(continuando ad usare la notazione introdotta in Eq. (9.89)). Proiettiamo tale impulso lungo la componente radiale. Chiamiamo quindi
#»
x #»
· p.
r
(9.107)
#»
∂
x #»
·∇=
,
r
∂r
(9.108)
∂
∂r
(9.109)
p̃r :=
È facile vedere che
per cui
p̃r = −i~
e
[p̃r , r] = −i~,
(9.110)
dimodoché p̃ˆr genera le traslazione della coordinata radiale. Vedremo tuttavia più avanti che esso non
può essere direttamente identificato con l’impulso radiale, in quanto non è hermitiano, e perciò non è
associabile ad una osservabile fisica.
Per dimostrare la Eq. (9.108), notiamo che
∂
∂
∂
.
(9.111)
+ ∂i ϑ
+ ∂i ϕ
∂i = ∂i r
∂r
∂ϑ
∂ϕ
Il secondo e il terzo termine sono dei termini trasversali a r: se li proiettiamo lungo la direzione radiale
troviamo 0.
∂ϕ i
∂ϑ i
x =
x = 0.
i
∂x
∂xi
(9.112)
Questo può essere dimostrato esplicitamente ma si può vedere senza eseguire alcun calcolo: se conside∂ϕ
∂ϑ
riamo ϑ( #»
x ) e ϕ( #»
x ) come funzioni a valori reali nell spazio tridimensionale, ∂x
i e ∂xi sono i gradienti di
tali funzioni, e quindi sono perpendicolari alle superfici di ϑ e ϕ costante. Ma ovviamente la direzione di
variazione della coordinata radiale, a ϑ e ϕ invariati, è parallela in ogni punto al vettore xi , che è quindi
ortogonale alla direzione di entrambi questi gradienti. Troviamo quindi
xi
xi ∂r ∂
xi ∂ p 1 2
xi
xi
∂
∂
∂
2 )2 + (x3 )2
p
∂i =
=
=
=
.
(x
)
+
(x
i
i
1
2
2
2
3
2
r
r ∂x ∂r
r ∂x
∂r
r (x ) + (x ) + (x ) ∂r
∂r
(9.113)
ˆ», #»
ˆ» dove #x
ˆ» e #p
ˆ» sono
Possiamo ora ripetere il calcolo Eq. (9.3.3) con l’identificazione #»
a = #x
b = #p
operatori quantistici che soddisfano relazioni di commutazione canoniche
[p̂i , x̂j ] = i~δij .
(9.114)
Si ha:
εijk εilm xj pk xl pm = (δ jl δ km − δ jm δ kl )xj pk xl pm = xj pk xj pk − xj pk xk pj
p 2 − i~xj pj − (xj pj pk xk + xj pk [xk , pj ])
= r2 #»
= r2 #»
p 2 − i~xj pj − (xj pj xk pk + xj pj [pk , xk ] + i~xj pj )
#
»
= r2 #»
p 2 − i~ #»
x · #»
p − (x · p)(x · p) − (x# · »
p(−i~)3 + i~x# · »
p)
= r2 #»
p 2 − i~ #»
x·
2 #»2
#»
= r p + i~ x ·
#»
p + 2i~ #»
x · #»
p − ( #»
x · #»
p )2
#»
p − ( #»
x · #»
p )2 .
(9.115)
140
Sistemi quantistici in più di una dimensione
Definiamo ora l’operatore
#ˆ»
ˆ» × #p
ˆ»,
L = #x
(9.116)
che, come vedremo più avanti, può essere legato al momento angolare quantistico, e nella base delle
coordinate prende la forma
Li = −i~εijk xj ∂k .
(9.117)
#»
Si vede immediatamente che L è ortogonale ad #»
x:
1
#»
#»
x · L = xi Li = εijk xi xj pk = εijk [xi , xj ]pk = 0.
2
(9.118)
Di conseguenza si tratta di un operatore differenziale che proiettato lungo la direzione radiale si annulla,
e quindi non può contenere derivate rispetto ad r:
#» #» ∂ ∂
L=L
, , ϑ, ϕ .
(9.119)
ϑ ϕ
Mantenendo l’ordinamento, possiamo quindi riscrivere la Eq. (9.115) come
1
#»2 #»
x · #»
p )2 − i~( #»
x · #»
p) + L .
p 2 = 2 ( #»
r
(9.120)
Abbiamo cosı̀ espresso #»
p 2 come la somma di un termine dipendente dalla componente radiale ed uno che
non contiene derivate rispetto ad essa. Possiamo usare la Eq. (9.120) per separare l’operatore cinetico,
in analogia alla separazione classica Eq. (9.99):
#»
1
∂
p2
#»2
2 ∂
2 ∂
=
r
+
(−i~)
r
+
L
(−i~)
r
2m
2mr2
∂r ∂r
∂r
!
2
#»
L
~2
∂2
2 ∂
+
,
+
=−
2
2m ∂r
r ∂r 2mr2
(9.121)
avendo fatto uso del fatto che ∂r r = r∂r + 1. Nell’ultimo passaggio abbiamo inoltre tenuto conto del fatto
#»
#»
che L non contiene derivate rispetto a r e quindi l’ordinamento di L e r è irrilevante.
Possiamo riscrivere la Eq. (9.121) in modo particolarmente elegante in termini di impulso radiale.
Come si è detto, p̃ˆr non è hermitiano. Infatti:
p̃ˆ†r =
#x
ˆ»
r̂
ˆ»
· #p
!†
=
#ˆ»†
#p
ˆ»† · x
r̂†
!
che non può essere identificato con p̃ˆr perché r̂ e p̃ˆr non commutano. Troviamo cosı̀
xi
xi
xi
3
1
2i~
p̃†r = −i~∂i = −i~ ∂i − i~ ∂i
= p̃r − i~
+ xi ∂ i
= p̃r −
.
r
r
r
r
r
r
(9.122)
(9.123)
A questo punto è possibile definire un impulso radiale autoaggiunto come
p̂r =
1 ˆ
i~
(p̃r + p̃ˆ†r ) = p̃ˆr − ,
2
r̂
(9.124)
ovvero
pr = −i~
∂
1
+
∂r
r
.
(9.125)
9.3 Problemi a due corpi e problemi centrali
141
Notiamo ora che
p2r
= −~
2
∂
1
+
∂r r
∂
1
+
∂r
r
2
= −~
2
#ˆ»2
2 ∂
L
2 ∂
∂2
∂ 1
1
∂
2
+
+
=
−~
+
+
,
+
.
∂r2
r ∂r
∂r r
r2
2mr2
∂r2
r ∂r
(9.126)
Confrontando con la Eq. (9.121) vediamo quindi che il termine cinetico può essere scritto come


#ˆ»2
#p
ˆ»2
1  2 L 
p̂r + 2
(9.127)
=
2m
2m
r̂
che quindi coincide con l’espressione classica.
142
Sistemi quantistici in più di una dimensione
Capitolo 10
Il momento angolare
Lo studio del momento angolare in meccanica quantistica è, anche storicamente, il prototipo per lo studio
delle simmetrie nella fisica teorica. La sua importanza va quindi al di là del suo pur significativo ruolo
nella descrizione dei sistemi quantistici tridimensionali.
10.1
Momento angolare e rotazioni
Viene spontaneo definire l’operatore momento angolare quantistico a partire da quello classico usando il
principio di corrispondenza, e cioè definendo, come in Eq. (9.116),
#ˆ»
ˆ» × #p
ˆ»,
L = #x
(10.1)
ˆ» e #p
ˆ» sono gli operatori posizione ed impulso. D’altra parte, abbiamo visto che in generale un’osdove #x
servabile quantistica viene costruita a partire dalla legge di conservazione classica corrispondente. Ricordiamo quindi che in meccanica classica il momento angolare è la quantità che si conserva quando la
dinamica è invariante per rotazioni. Verifichiamo quindi che l’espressione dell’operatore momento angolare in meccanica quantistica che si ottiene a partire dal generatore delle rotazioni, il cui spettro si
conserva quando c’e’ invarianza per rotazioni, coincide con l’espressione Eq. (10.1) che si ottiene usando
il principio di corrispondenza.
10.1.1
Il caso classico: teorema di Noether
Ricordiamo innanzitutto che il momento angolare classico è la carica di Noether conservata quando vi
#»
è invarianza per rotazioni: specificamente, la componente di L lungo un asse si conserva quando c’è
invarianza per rotazioni attorno a tale asse, ossia se il problema è invariante per rotazioni sul piano ad
esso ortogonale.
Per dimostrarlo, consideriamo per semplicità un vettore che si trova nel piano xy e che ruota attorno
all’asse z: il vettore è
r cos ϕ
#»
x =
.
(10.2)
r sin ϕ
e sotto una rotazione infinitesima di angolo diventa
r cos(ϕ + )
r(cos ϕ − sin ϕ)
#»
x → #»
x0 =
=
+ O(2 ).
r sin(ϕ + )
r(sin ϕ + cos ϕ)
(10.3)
Di conseguenza
δ #»
x 0 = #»
x 0 − #»
x =
−r sin ϕ
r cos ϕ
(10.4)
144
Il momento angolare
vale a dire
δx1 = −x2
2
(10.5)
1
δx = x .
(10.6)

−x2
δ 3 #»
x =  x1 
0
(10.7)
Passando ora al caso tridimensionale

che possiamo scrivere in componenti come
(3)
δ 3 xi = εi3j xj = εikj nk xj ,
dove #»
n (3) = (0, 0, 1) è il versore lungo il terzo asse, e nk
vettoriale
(3)
(10.8)
ne è la k-esima componente. In notazione
δ 3 #»
x = #»
n (3) × #»
x.
(10.9)
Naturalmente, non vi è nulla di speciale nella scelta del terzo asse, e la Eq. (10.9) per la rotazione
attorno ad un asse generico #»
n prende la forma
δ (n) #»
x = #»
n × #»
x,
(10.10)
δ (n) xi = εijl nj xl .
(10.11)
ossia, in componenti
Il versore diretto lungo il k-esimo asse è
(k)
nj
= δjk ,
(10.12)
perciò la variazione della i-esima coordinata per rotazioni attorno al k-esimo asse è
δ k xi = εijl δjk xl = εkli xl .
(10.13)
La carica di Noether conservata quando vi è invarianza rispetto a tale rotazione è quindi data da
Qk =
∂L k i
δ x = pi εikl xl = εkli xl pi = Lk
∂ ẋi
(10.14)
con
Lk = εkij xi pj ,
(10.15)
cioè il consueto momento angolare classico.
10.1.2
Il caso quantistico: generatore delle rotazioni
#ˆ»
Verifichiamo ora che che l’operatore L Eq. (9.116) è proprio il generatore delle rotazioni a meno di un
fattore ~. Questo significa verificare che l’operatore
#»
#ˆ»
R̂ = ei n ~· L = I +
i #»
n #ˆ»
· L + O(2 ),
~
(10.16)
i cui elementi di matrice nella base delle coordinate sono
h #»
x |R̂ |ψi = 1 + εijk ni xj ∂k ψ( #»
x ) + O(2 )
(10.17)
10.2 Proprietà del momento angolare
145
realizza una rotazione, ossia ha la proprietà che
h #»
x |R̂ |ψi = ψ( #»
x + δ(n) #»
x ),
(10.18)
dove #»
x + δ(n) #»
x è il vettore #»
x trasformato sotto una rotazione infinitesima di attorno all’asse #»
n , secondo
la Eq. (10.10-10.11).
Calcoliamo il membro di destra della Eq. (10.18):
#»
ψ( #»
x + δ(n) #»
x ) = ψ( #»
x ) + δ(n) #»
x · ∇ψ( #»
x ) + O(2 ).
(10.19)
Ricordando la forma Eq. (10.11) di δ(n) #»
x si ha
ψ( #»
x + δ(n) #»
x ) = εijl nj xl ∂i ψ( #»
x ) + O(2 )
(10.20)
che coincide appunto con la Eq. (10.17).
10.2
Proprietà del momento angolare
10.2.1
Ordinamento
La definizione dell’operatore momento angolare Eq. (9.116) non dipende dall’ordinamento: infatti
εijk x̂j p̂k = εijk p̂k x̂j + [x̂j , p̂k ] = εijk p̂k x̂j + i~δ kj = εijk p̂k x̂j .
(10.21)
Questo implica in particolare che il momento angolare è hermitiano, infatti
(L̂i )† = εijk p̂k x̂j = εijk x̂j p̂k .
10.2.2
(10.22)
Espressione esplicita in coordinate sferiche
Le espressioni esplicite delle tre componenti del momento angolare in coordinate sferiche si possono
determinare dalla definizione, con il risultato
cos ϑ
∂
∂
+
cos ϕ
(10.23)
L̂x = i~ sin ϕ
∂ϑ
sin ϑ
∂ϕ
∂
cos ϑ
∂
L̂y = i~ − cos ϕ
+
sin ϕ
(10.24)
∂ϑ
sin ϑ
∂ϕ
∂
L̂z = −i~ .
(10.25)
∂ϕ
Solo la terza componente, che genera rotazioni dell’angolo azimutale, ha un’espressione semplice. Diamo
per completezza anche l’espressione del quadrato del momento angolare
2
∂
cos ϑ ∂
1
∂2
#ˆ»2
2
L = −~
+
+
.
(10.26)
∂ϑ2
sin ϑ ∂ϑ sin2 ϑ ∂ϕ2
10.2.3
Relazioni di commutazione
Per un sistema invariante per rotazioni, il momento angolare commuta con l’hamiltoniana. Tuttavia, le
diverse componenti del momento angolare non commutano tra loro. Si ha infatti che
[L̂i , L̂j ] = [εiab x̂a p̂b , εjlm x̂l p̂m ] = εiab εjlm [x̂a p̂b , x̂l p̂m ] = εiab εjlm x̂l [x̂a , p̂m ]p̂b + x̂a [p̂b , x̂l ]p̂m
= εiab εjlm (i~δ am x̂l p̂b − i~δ bl x̂a p̂m ) = i~(εbia εjla x̂l p̂b − εiab εmjb x̂a p̂m )
ˆ» · #p
ˆ»δ ij − x̂j p̂i + #x
ˆ» · #p
ˆ»δ ij )
= i~[(δ bj δ il − δ bl δ ij )x̂l p̂b − (δ im δ aj − δ ij δ am )x̂a p̂m ] = i~(x̂i p̂j − #x
= i~(x̂i p̂j − x̂j p̂i ).
(10.27)
146
Il momento angolare
Dove abbiamo fatto uso dell’identità Eq. (9.104). Notiamo inoltre che
x̂i p̂j − x̂j p̂i = εijk L̂k ,
(10.28)
εijk L̂k = εijk εkab x̂a p̂b = εijk εabk x̂a p̂b = (δia δjb − δib δja )x̂a p̂b = x̂i p̂j − x̂j p̂i .
(10.29)
infatti
Di conseguenza
[L̂i , L̂j ] = i~εijk L̂k .
(10.30)
Notiamo, confrontando con la Eq. (10.11), che il membro destro del commutatore è pari alla variazione
di un vettore sotto una rotazione attorno all’i-esimo asse. D’altra parte, abbiamo visto che Li è il
generatore delle rotazioni, e sappiamo (si ricordi l’Eq. (4.70) che il commutatore di un generatore di
una trasformazione con un operatore fornisce la variazione dell’operatore sotto la trasformazione stessa.
Quindi, possiamo interpretare il commutatore Eq. (10.30) come la variazione dell’operatore Lj sotto una
trasformazione generata da Li . Il fatto che questa variazione sia eguale a quella di un vettore sotto una
rotazione ci dice che il momento angolare sotto rotazioni si trasforma come un vettore.
#ˆ»
Questo suggerisce immediatamente che invece il modulo di L sia invariante sotto rotazioni, e quindi
i
commuti con ciascuna delle componenti L̂ , come è facile verificare esplicitamente:
#ˆ»2
[ L , L̂i ] = L̂k [L̂k , L̂i ] + [L̂k , L̂i ]L̂k = i~L̂k εkij L̂j + i~εkij L̂j L̂k = i~εkij (L̂k L̂j + L̂j L̂k ) = 0.
10.3
(10.31)
Lo spettro del momento angolare
Poiché le componenti del momento angolare non commutano fra di loro, non possono essere diagonalizzate simultaneamente. Possiamo tuttavia diagonalizzare simultaneamente una delle componenti del
momento angolare ed il momento angolare totale. Convenzionalmente si sceglie di diagonalizzare la terza
componente del momento angolare L̂z , essenzialmente per la semplicitá della sua espressione in coordinate sferiche Eq. (10.23). Come in altri casi già studiati (ad esempio l’oscillatore armonico) è possibile
determinare lo spettro sia usando la rappresentazione esplicita degli operatori nella base delle coordinate,
sia sfruttando le relazioni di commutazione. Utilizziamo questo secondo metodo, non solo per la sua semplicità, ma anche perché, come vedremo, ci permetterà di studiare una classe più ampia di autofunzioni
del momento angolare di quelle che si ottengono dalla rappresentazione nella base delle coordinate.
Determiniamo quindi lo spettro di autofunzioni comuni ad L2 ed Lz (d’ora in poi ometteremo l’indicazione esplicita che si tratti di operatori, e che L2 è il modulo quadro di un vettore), ossia gli stati |l mi
tali che
Lz |l mi = ~m|l mi
(10.32)
L2 |l mi = λl |l mi,
(10.33)
dove il fattore ~ nella definizione dell’autovalore di Lz è stato introdotto per futura comodità, e l è un
indice che numera le autofunzioni di L2 . Supponiamo che gli stati siano normalizzati in senso proprio
come
hλl0 m0 |λl mi = δl0 l δm0 m .
(10.34)
Che una normalizzazione in senso proprio sia possibile si può dedurre dal fatto che gli operatori di momento
angolare, visti come operatori differenziali, agiscono su un dominio compatto: l’insieme di valori possibili
per le variabili angolari, o, equivalentemente, la superficie di una sfera di fisso raggio.
10.3 Lo spettro del momento angolare
10.3.1
147
Costruzione dello spettro
Introduciamo gli operatori
L± = Lx ± iLy ,
(10.35)
che commutano con il momento angolare totale:
[L2 , L± ] = 0.
(10.36)
[Lz , L± ] = [Lz , Lx ] ± i[Lz , Ly ] = ±~(Lx ± iLy ) = ±~L±
(10.37)
[L+ , L− ] = [Lx + iLy , Lx − iLy ] = 2~Lz .
(10.38)
Osserviamo che
e inoltre
La Eq. (10.37) implica immediatamente che L± sono operatori di innalzamento ed abbassamento per
lo spettro di Lz : ossia, dato uno stato |l mi, autostato simultaneo di L2 e Lz , gli stati L± |l mi sono
autostati di Lz con autovalore rispettivamente abbassato od aumentato di una unità. Infatti
Lz (L± |l mi) = L± Lz |l mi ± ~L± |l mi = ~(m ± 1)L± |l mi.
(10.39)
Inoltre, la Eq. (10.36) implica che gli stati L± |l mi continuano ad essere autostati di L2 associati allo
stesso autovalore l.
Osserviamo ora che la serie di stati che si ottengono per azione di questi operatori di innalzamento ed
abbassamento è necessariamente limitata. Infatti
L+ = (L− )†
(10.40)
hψ|L+ L− |ψi ≥ 0
(10.41)
hψ|L− L+ |ψi ≥ 0,
(10.42)
per cui
come si vede dal fatto che se si definisce |ϕi ≡ L+ |ψi, allora hϕ| = hψ|L− , e quindi le Eq. (10.41,10.42)
sono norme di vettori.
D’altra parte,
L+ L− = (Lx + iLy )(Lx − iLy ) = L2x + L2y − i[Lx , Ly ] = L2 − L2z + ~Lz
L− L+ = (Lx − iLy )(Lx + iLy ) = L2x + L2y + i[Lx , Ly ] = L2 − L2z − ~Lz .
Combinando queste due relazioni arriviamo al risultato che ci interessa:
L+ L− + L− L+
|l mi = (λl − ~2 m2 ),
hl m|(L2 − L2z )|l mi = hl m|
2
(10.43)
(10.44)
avendo supposto gli stati normalizzati ad uno, secondo la Eq. (10.34). Quindi le condizioni Eq. (10.4110.42) implicano
(λl − ~2 m2 ) ≥ 0.
(10.45)
Ne segue inevitabilmente che, per fisso λl , m non può aumentare o diminuire indefinitamente senza violare
la Eq. (10.45). Devono perciò esistere due stati |l mmax i e |l mmin i tali che
L+ |l mmax i = 0,
L− |l mmin i = 0.
(10.46)
148
Il momento angolare
Imponendo che la serie di stati termini sia superiormente che inferiormente, i valori ammessi di λl e
m sono determinati univocamente. Infatti, possiamo riscrivere la coppia di relazioni Eq. (10.46) come
L− L+ |l mmax i = 0,
L+ L− |l mmin i = 0,
(10.47)
che, utilizzando le Eq. (10.43) forniscono la coppia di condizioni
0 = (L2 − L2z − ~Lz )|l mmax i = (λl − ~2 m2max − ~2 mmax )|l mmax i
0 = (L2 − L2z + ~Lz )|l mmin i = (λl − ~2 m2min + ~2 mmin )|l mmin i.
(10.48)
Sostituendo una equazione nell’altra otteniamo
~2 mmax (mmax + 1) − ~2 mmin (mmin − 1) = 0
(10.49)
m2max + mmax − m2min + mmin = 0.
(10.50)
e quindi
La soluzione di questa equazione di secondo grado è
mmax =
−1 ± (2mmin − 1)
.
2
(10.51)
L’unica soluzione accettabile è
mmax = −mmin .
(10.52)
Ma ovviamente
mmax = mmin + N,
N ∈ N,
(10.53)
quindi
mmax =
N
.
2
(10.54)
Ne concludiamo che gli autovalori m sono interi o seminteri. Inoltre fissato mmax la Eq. (10.48)
implica
λl = ~2 mmax (mmax + 1),
(10.55)
e quindi definendo
l≡
N
2
λl = ~2 l(l + 1).
(10.56)
(10.57)
Abbiamo quindi determinato l’insieme degli autovalori possibili:
con l =
N
2,
L2 |l mi = ~2 l(l + 1)|l mi
(10.58)
Lz |l mi = ~m|l mi,
(10.59)
N ∈ N e −l ≤ m ≤ l. Gli stati sono ortonormalizzati come
hl0 m0 |lmi = δll0 δmm0 .
(10.60)
10.3 Lo spettro del momento angolare
149
Possiamo costruire tutti gli stati per azione degli operatori di innalzamento ed abbassamento, con la
normalizzazione fissata da
L+ L− |l mi = ~2 (l(l + 1) − m(m − 1))|l mi
L− L+ |l mi = ~2 (l(l + 1) − m(m + 1))|l mi,
(10.61)
dimodochè se hl m|l mi = 1 allora anche
1
L+ |l mi
|l m + 1i = p
~ l(l + 1) − m(m + 1)
(10.62)
è normalizzato come hl m + 1|l m + 1i. Analogamente
1
|l m − 1i = p
L/ |l mi
~ l(l + 1) − m(m − 1)
10.3.2
(10.63)
Autofunzioni nella base delle coordinate
Avendo costruito lo spettro partendo dalle relazioni di commutazione, possiamo determinare la forma
esplicita delle autofunzioni in una specifica rappresentazione. Per prima cosa, studiamo la base delle
coordinate. In tal caso, ricordiamo che gli operatori di momento angolare sono operatori differenziali, la
cui forma esplicita in coordinate sferiche è stata data nelle Eq. (10.23-10.25). In coordinate sferiche, le
autofunzioni sono quindi funzioni degli angoli ϑ e ϕ:
hϑ ϕ|l mi = Yl,m (ϑ, ϕ).
(10.64)
Usando la Eq. (10.25) l’equazione agli autovalori per la terza componente del momento angolare
hϑ ϕ|Lz |l mi = ~mhϑ ϕ|l mi
(10.65)
diventa l’equazione differenziale
∂
Yl,m (ϑ, ϕ) = ~mYl,m (ϑ, ϕ).
∂ϕ
(10.66)
Yl,m (ϑ, ϕ) = eimϕ Nl,m Pl,m (cos ϑ).
(10.67)
−i~
La soluzione è banale:
Le funzioni Yl,m (ϑ, ϕ) sono dette armoniche sferiche.
Possiamo costruire esplicitamente le armoniche sferiche senza risolvere l’equazione agli autovalori per
L2 (che è un’equazione a derivate parziali del second’ordine), ma utilizzando invece la condizione
hϑ ϕ|L− |l mmin i = 0
(Lx − iLy )Yl,−l (ϑ, ϕ) = 0,
(10.68)
che è del primo ordine, in analogia a quanto si è fatto quando si è costruito lo stato fondamentale
dell’oscillatore armonico nella base delle coordinate. Ricordando l’espressione Eq. (10.23-10.24) di Lx e
Ly in coordinate sferiche si ha
cos ϑ
∂
∂
cos ϑ ∂
∂
−iϕ
+
(i cos ϕ − sin ϕ)
= ~e
−
+i
.
(10.69)
L− = ~ (i sin ϕ − cos ϕ)
∂ϑ
sin ϑ
∂ϕ
∂ϑ
sin ϑ ∂ϕ
Ricordando la forma esplicita Eq. (10.67) si vede immediatamente che il prefattore e−iϕ nell’espressione
dell’operatore di abbassamento fa sı̀ che esso abbassi di un’unità l’autovalore m di Lz .
La condizione Eq. (10.68) corrisponde quindi all’equazione differenziale del primo ordine
∂
∂
−iϕ
~e
−
+ i cot ϑ
Yl,−l (ϑ, ϕ) = 0
(10.70)
∂ϑ
∂ϕ
150
Il momento angolare
ossia
∂
+ l cot ϑ e−iϕl Pl,−l (cos ϑ) = 0.
−
∂ϑ
(10.71)
Possiamo scrivere di conseguenza
∂
Pl,−l (cos ϑ) = cot ϑ lPl,−l (cos ϑ).
∂ϑ
(10.72)
∂ sin ϑ ∂
∂
∂
=
= cos ϑ
.
∂ϑ
∂ϑ ∂ sin ϑ
∂ sin ϑ
(10.73)
Notiamo poi che
Possiamo quindi riscrivere l’equazione differenziale come:
∂
l
Pl,−l (cos ϑ) =
Pl,−l (cos ϑ)
∂ sin ϑ
sin ϑ
(10.74)
d sin ϑ
dPl,−l (cos ϑ)
=l
Pl,−l (cos ϑ)
sin ϑ
(10.75)
Pl,−l = (sin ϑ)l .
(10.76)
Yl,−l (ϑ, ϕ) = e−ilϕ (sin ϑ)l Nl,−l .
(10.77)
vale a dire
da cui segue
Di conseguenza
Tutte le altre armoniche sferiche si possono ottenere per azione dell’operatore di innalzamento. Per
esempio
∂
Yl,−l+1 = KL+ Yl,−l = Keiϕ −
− cot ϑ l e−ilϕ (sin ϑ)l Nl,−l ,
(10.78)
∂ϑ
dove K è un’opportuna costante di normalizzazione, e cosı̀ via. Vediamo quindi che le armoniche sferiche
sono polinomi in sin ϑ e cos ϑ. In particolare
Pl,−l
Pl,−l+1
..
.
∼
(sin ϑ)l
∼ (sin ϑ)l−1 cos ϑ
Pl,0
..
.
∼
(cos ϑ)l .
Pl,l
∼
(sin ϑ)l .
(10.79)
Le armoniche sferiche Eq. (10.67) sono una base ortonormale completa per lo spazio delle funzioni
definite sulla sfera. Questo significa che per le armoniche sferiche valgono le relazioni di ortonormalità
Eq. (10.60) sotto integrazione sulla sfera
Z
Z
0 0
dΩ hl m |ϑϕihϑϕ|lmi = d cos θdφ Yl∗0 ,m0 (ϑ, ϕ)Yl,m (ϑ, ϕ) = δll0 δmm0 ,
(10.80)
e la relazione di completezza
X
lm
|l mihl m| = I
(10.81)
10.4 Lo spin
151
sulla sfera, cioè
X
X
∗
hϑ ϕ|l mihl m|ϑ0 ϕ0 i =
Yl,m
(ϑ0 , ϕ0 )Yl,m (ϑ, ϕ) = δ(cos ϑ − cos ϑ0 )δ(ϕ − ϕ0 ).
lm
(10.82)
lm
Quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono con Pl,0 (cos ϑ), a meno
della normalizzazione. Le Pl,0 (cos ϑ) a loro volta sono polinomi in cos θ. La condizione I polinomi
corrispondenti al caso m = 0, ossia le Pl,0 (ϑ) possono essere scritti come polinomi in cos ϑ, Pl,0 (cos ϑ).
Inoltre, la Eq. (10.67) implica che quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono
con Pl,0 (cos ϑ), a meno della normalizzazione. Ne segue che in tal caso le condizioni di ortonormalità
Eq. (10.80) e completezza Eq. (10.82) diventano rispettivamente
Z
Z
0
dΩ hl 0|ϑϕihϑϕ|l0i = 2π d cos θ|Nl,0 |2 Pl∗0 ,0 (cos ϑ)Pl,0 (cos ϑ) = δll0
(10.83)
e
X
hϑ|l 0ihl 0|ϑ0 i =
l
X
∗
|Nl,0 |2 Pl,0
(cos ϑ0 )Pl,0 (cos ϑ) = δ(cos ϑ − cos ϑ0 ).
(10.84)
l
I polinomi Pl,0 (cos ϑ) sono cioé una base ortonormale completa sul cerchio. Essi sono noti come polinomi
di Legendre, e possono essere equivalentemente visti come un sistema ortonormale completo sul segmento
cos ϑ ∈ (−1, 1).
Possiamo chiederci su che valori deve correre la somma su l, m affinché la Eq. (10.82) sia vera. Abbiamo
visto che dal punto di vista algebrico, tutti i valori interi o semi-interi di l sono ammissibili, mentre m
prende i 2l+1 valori −l ≤ m ≤ l: di conseguenza se l è semintero anche m è semintero. Ora, se imponiamo
che la funzione d’onda sia monodroma, essa deve soddisfare la condizione al contorno
Yl,m (ϑ, ϕ + 2π) = Yl,m (ϑ, ϕ).
(10.85)
Ma se l e quindi m sono semi-interi, quando si confronta il valore dell’autofunzione in π con quello in
φ + 2π il fattore di fase nella Eq. (10.67) vale
eim(ϕ+2π) = −1.
(10.86)
Pertanto, imponendo che sia soddisfatta la condizione al contorno Eq.(10.85) i valori semi-interi di m e
quindi di l sono proibiti. Che la Eq. (10.82) valga quando la somma corre su tutti i valori interi di l può
naturalmente essere dimostrato con il calcolo esplicito.
Il momento angolare realizzato su funzioni monodrome nella base delle coordinate è detto momento
angolare orbitale.
10.4
Lo spin
Ci si può quindi chiedere se gli stati con l semintero abbiano un significato fisico. A questo fine, ricordiamo
che abbiamo introdotto il momento angolare studiando la trasformazione del vettore di stato del sistema
sotto rotazioni. Quindi, il modo più generale per realizzare il momento angolare si ottiene chiedendosi
quale sia il modo più generale per realizzare le rotazioni.
Finora, abbiamo considerato la possibilità di avere funzioni d’onda h #»
x |ψi = ψ( #»
x ), e abbiamo identificato il momento angolare studiando le realizzazioni dell’operatore di rotazione su un autostato della
posizione | #»
x i. Abbiamo quindi realizzato il momento angolare su uno spazio infinito-dimensionale, in
cui le rotazioni agiscono ruotando le coordinate. Tuttavia, anche classicamente, possiamo considerare
un’altra classe di sistemi che si trasformano sotto rotazioni: si tratta di tutti i sistemi fisici il cui stato
contiene l’informazione su una direzione nello spazio, come ad esempio i sistemi rappresentati da variabili
vettoriali. Come semplice esempio possiamo pensare alla direzione del vento in un punto: la direzione in
cui punta la direzione del vento è un vettore sul quale le rotazioni possono agire. Se cambiamo il sistema
di coordinate la direzione del vento cambierà nel senso che le coordinate che corrispondono ad una certa
152
Il momento angolare
direzione del vento fissata cambieranno. Tale cambiamento è diverso dal cambiamento di posizione. Una
cosa sono le coordinate di un certo punto che a loro volta sono soggette a rotazioni, una cosa diversa è
#»
#»
la direzione del vento in quel punto. Un altro esempio è un campo elettrico classico E = E( #»
x ). Esso
#»
dipende dalla coordinata x e quindi le rotazioni possono agire sulla coordinata del punto in cui noi diamo
il campo elettrico. Tuttavia il campo elettrico è una campo vettoriale; se consideriamo come si trasforma
il campo sotto rotazioni dobbiamo ricordarci del fatto che si trasforma non solo perché si trasforma la
coordinata sotto rotazioni ma perché cambia anche la direzione del vettore. Se consideriamo poi la rota#»
zione del campo elettrico nel punto #»
x = 0 otteniamo una rotazione del vettore che però non cambia la
coordinata.
Nei sistemi classici e di conseguenza anche in sistemi quantistici possiamo pensare di realizzare le
rotazioni in due modi diversi: sullo spazio delle coordinate ma anche sullo spazio che corrisponde ad un
indice portato dalla quantità di cui stiamo parlando; se la quantità di cui stiamo parlando è un vettore,
possiamo studiare l’azione delle rotazioni su tale vettore. In quest’ultimo caso, stiamo considerando
l’azione delle rotazioni su sistemi che hanno dimensione finita, la cui base consiste in un numero finito di
stati
10.4.1
Spin uno
Per costruire un primo esempio di sistema in cui le rotazioni si realizzano sugli stati, consideriamo un
sistema tripartito, cioè su cui può essere effettuata una misura che ha tre risultati possibili, corrispondenti
agli stati |1i, |2i e |3i. Con un leggero abuso di notazione scriviamo questi stati di base come vettori:
 
 
 
0
0
1
(10.87)
|1i =  0  ; |2i =  1  ; |3i =  0  .
0
1
0
Strettamente parlando questo è un abiuso di notazione perché la notazione di Dirac non comporta una
scelta di base, mentre la rappresentazione vettoriale sı̀: essa value appunto avento scelto i tra stati dati
come vettori di base. Tuttavia in questa sezione useremo sempre questa particolare scelta di base. Lo
stato generico |vi si può scrivere in notazione vettoriale come


c1
|vi = c1 |1i + c2 |2i + c3 |3i =  c2  ,
(10.88)
c3
dove naturalmente ci sono numeri complessi, |c1 |2 + |c2 |2 + |c3 |2 è fissato per normalizzazione, e la fase
complessiva è inosservabile.
Possiamo definire un momento angolare su questo spazio di stati se supponiamo che i tre stati di base
possano agire le rotazioni. Questa naturalmente è un’ipotesi fisica: per esempio, i tre stati potrebbero
corrispondere a tre possibili direzioni in cui può puntare una variabile vettoriale. Le rotazioni in tal caso
corrispondono semplicemente ad un cambiamento del sistema di riferimento in cui esprimiamo queste
direzioni. In tal caso, gli stati si trasformano sotto rotazioni come vettori in uno spazio tridimensionale. Costruiamo quindi il generatore della trasformazione infinitesima, ed in termini di esso costruiamo
l’operatore momento angolare.
Consideriamo dapprima il caso particolare dello stato


cos ϕ
#»
(10.89)
v =  sin ϕ 
0
e studiamo l’effetto su di esso di una rotazione infinitesima attorno all’asse z. Si ha:
 


cos(ϕ + )
cos ϕ − sin ϕ
#»
#»
v 0 = R(z)
v =  sin(ϕ + )  =  sin ϕ + cos ϕ  + O(2 ).
0
0
(10.90)
10.4 Lo spin
153
Vogliamo vedere ciò come ottenuto dall’azione di un generatore:
i
0
2
#»
v = I − Lz + O( ) #»
v.
~
(10.91)
Notiamo che il segno nella Eq. (10.91) è coerente con quello della definizione del momento angolare
orbitale: infatti le Eq. (10.16-10.17) possono essere riscritte come
i
(10.92)
ψ( #»
x 0 ) = h #»
x 0 |ψi = h #»
x | I + Lz |ψi,
~
che implica che la quantità sottoposta a rotazioni è il bra h #»
x 0 |. Si ha perciò:
i
0
#»
#»
h x | = h x | I + Lz ,
~
(10.93)
ossia
| #»
x 0i =
†
i
i
#»
x i,
I + Lz | x i = I − Lz | #»
~
~
(10.94)
coerentemente con la Eq. (10.91).
Abbiamo quindi



− sin ϕ
0
δ #»
v = #»
v 0 − #»
v =  cos ϕ  = −  −1
0
0


1 0
cos ϕ
0 0   sin ϕ  .
0 0
0
(10.95)
Possiamo perciò identificare Lz come:

0
Lz = −i~  −1
0

1 0
0 0 .
0 0
(10.96)
Il generatore è una matrice 3 × 3 che possiamo scrivere come (Lz )ij = hi|Lz |ji.
Possiamo generalizzare l’argomento scrivendo l’azione di una rotazione sullo stato generico nella forma


cos − sin 0
v
|v 0 i = R(z)
|vi =  sin cos 0  #»
0
0
0





1 + O(2 ) − + O(2 ) 0
0 1 0
=  + O(2 ) 1 + O(2 ) 0  #»
v = I −  −1 0 0  #»
v.
(10.97)
0
0
0
0 0 0
Vediamo cosı̀ che il risultato non dipende dalla forma particolare dello stato |vi, e segue dall’ipotesi che
sotto rotazioni lo stato si trasformi secondo le consuete matrici di rotazione.
Analogamente, i generatori delle rotazioni attorno agli altri due assi sono le matrici:




0 0 0
0 0 −1
Lx = −i~  0 0 1  Ly = −i~  0 0 0  .
(10.98)
0 −1 0
1 0 0
Possiamo quindi in scrivere (Lz )ij come
(Lz )ij = −i~εzij ,
(10.99)
(Lk )ij = −i~εkij .
(10.100)
e, in generale,
154
Il momento angolare
Possiamo verificare esplicitamente che gli operatori Eq. (10.100) cosı̀ costruiti soddisfino le relazioni
di commutazione del momento angolare:
(Li )ab (Lj )bc − (Lj )ab (Li )bc = −~2 (εiab εcjb − εjab εcib ) = −~2 (δ ic δ aj − δ ij δ ac − δ jc δ ai + δ ji δ ac )
= −~2 (δ ic δ aj − δ jc δ ai ).
(10.101)
D’altra parte
i~εijk (Lk )ac = i~εijk (−i~)εkac = −~2 εijk εcak = −~2 (δ ic δ aj − δ jc δ ai ),
(10.102)
e quindi il commutatore Eq. (10.30) è riprodotto.
Determiniamo ora gli autovalori e autovettori degli operatori di momento angolare appena definiti.
Possiamo diagonalizzare simultaneamente L2 e Lz , poiché valgono le usuali relazioni di commutazione.
Per prima cosa determiniamo l’autovalore di L2 . Usando l’espressione esplicita degli operatori si trova






0 0
0
−1 0 0
−1 0 0
(10.103)
L2x = −~2  0 −1 0  L2y = −~2  0 0 0  L2z = −~2  0 −1 0 
0 0 −1
0 0 −1
0
0 0
e quindi

1
L2 = L2x + L2y + L2z = 2~2  0
0
0
1
0

0
0  = 2~2 I.
1
(10.104)
Gli autovettori di questa matrice sono tutti i vettori dello spazio: infatti la matrice identità applicata
ad ogni vettore dà il vettore stesso
L2 |vi = 2~2 |vi.
(10.105)
Poiché l’autovalore di L2 in generale è uguale a ~2 l(l + 1) si ottiene l(l + 1) = 2 e quindi l = 1.
Abbiamo quindi scoperto che la realizzazione del momento angolare che abbiamo costruito corrisponde
all’insieme di stati con momento angolare pari ad uno. Qualunque stato in questo spazio ha l = 1. Uno
stato di questo tipo viene chiamato stato di spin uno. La dimensione dello spazio è data dal numero dei
possibili valori di m, che deve variare in passi interi da -1 a 1. I valori di m permessi sono (−l ≤ m ≤ l)
1, 0 e -1. Ciò spiega perchè lo spazio sia tridimensionale: lo spazio degli stati fisici per un sistema di spin
uno ha dimensione tre, poiché il più generale stato è la sovrapposizione dei tre autostati con autovalori
1, 0 e -1 di una delle componenti del momento angolare.
Possiamo determinare esplicitamente la forma degli autovettori, ovvero dei vettori #»
v + , #»
v − e #»
v 0 tali
che
Lz #»
v ± = ±~
L #»
v = 0.
z
(10.106)
(10.107)
0
Si verifica facilmente che gli autovettori sono


1
1
#»
v ± = √  ±i  ;
2
0


0
#»
v0 =  0 .
1
(10.108)
Notiamo che i vettori #»
v ± corrispondono ai vettori di polarizzazione circolare noti dall’elettromagnetismo
classico.
Osserviamo in conclusione che le rotazioni , che abbiamo usato per definire il momento angolare,
possono essere viste come un cambiamento di base sullo stato degli stati fisici, ma non sono il più generale
cambiamento di base. Questo è dovuto al fatto che il generico vettore nello spazio degli stati fisici ha
componenti complesse, e quindi il più generale cambiamento di base è dato da una trasformazione untiaria,
mentre le rotazioni sono date da matrici a componenti reali, e quinei ortogonali, in quanto una matrice
10.4 Lo spin
155
unitaria reale è ortogonale. Per esempio, potremmo scegliere di utilizzare i tre vettori Eq. (10.108) come
vettori di base. La base da cui siamo partiti Eq. (10.87) è solitamente chiamata base cartesiana, mentre i
tre vettori di cui le Eq. (10.108) forniscono le componenti in base cartsiana costituiscono la base sferica.
Il passaggio dalla base cartesiana alla base sferica è manifestamente realizzato da una trasformazione
unitaria che non è una rotazione.
10.4.2
Spin
1
2
Possiamo ora costruire uno spazio con spin 21 . Per un sistema di 12 i possibili valori per la terza componente
sono 12 e − 12 : si tratta quindi di un sistema bipartito. Lo spazio degli stati fisici è lo spazio delle
sovrapposizioni degli stati | 12 12 i e | 21 − 12 i. La notazione per i due stati può essere semplificata ulteriormente
scrivendo semplicemente |+i e |−i.
Il più generale stato fisico può essere espresso come combinazione lineare dei due stati di base |±i:
|ψi = c+ |+i + c− |−i, e può essere equivalentemente rappresentato come un vettore colonna a due
componenti complesse, detto spinore, rappresentano i due stati di base come
1
0
u+ =
; u− =
,
(10.109)
0
1
sicché lo stato generico è
u=
h+|ψi
h−|ψi
c+
c−
=
.
(10.110)
Vogliamo ora vedere come si rappresentino gli operatori di momento angolare sulla base degli stati
Eq. (10.110). Partiamo dall’osservazione che la terza componente dello spin sz è diagonale sugli stati
dati, cioè
~
sz |±i = ± |±i,
2
(10.111)
e quindi
~
h±|sz |±i =
2
1
0
0
.
−1
(10.112)
Possiamo quindi costruire gli operatori sx e sy . Per fare ciò ci serviamo degli operatori di innalzamento
e abbassamento che nel caso specifico sono:
s± = sx ± isy .
(10.113)
Poiché la loro azione è di alzare ed abbassare l’autovalore sz si ha
|+i = N+ s+ |−i.
(10.114a)
|−i = N− s− |+i.
(10.114b)
La normalizzazione si calcola ricordando le Eq. (10.62-10.63), da cui
1
N+ = p
2
~ (l(l + 1) − m(m + 1))
1
N− = p
.
2
~ (l(l + 1) − m(m − 1))
In particolare nel caso spin
1
2
(10.115)
(10.116)
si ha
N+ = N− = ~,
(10.117)
156
Il momento angolare
e quindi
s+ |−i = ~|+i
(10.118)
s− |+i = ~|−i.
(10.119)
Otteniamo infine gli elementi di matrice degli operatori sx e sy esprimendoli in termini di operatori
di innalzamento e abbassamento
1
1
sx = (s+ + s− ), sy = (s+ − s− ).
(10.120)
2
2i
Visto che nella base degli stati |±i
0 1
0 0
h±|s+ |±i = ~
; h±|s− |±i = ~
(10.121)
0 0
1 0
si ha
sx =
Gli operatori di spin
1
2
~
2
0
1
1
0
;
sy =
~
2
0
i
−i
0
.
(10.122)
possono quindi essere scritti come
si =
~
σi ,
2
(10.123)
dove σi sono le matrici di Pauli.
Ricordando le relazioni tra le matrici di Pauli
σi σj = iεijk σk ,
σi σj = −σj σi ,
σk2 = I.
(10.124)
è immediato verificare le relazioni di commutazione
~2
~
(σi σj − σj σi ) = i~εijk σk = i~εijk sk .
4
2
L’operatore spin totale infine è uguale a
~2
3
1 1
s2 = s2x + s2y + s2z =
3I = ~2 I = ~2
+ 1 I,
4
4
2 2
[si , sj ] =
(10.125)
(10.126)
coerentemente con il fatto che lo spazio degli stati fisici è lo spazio degli autostati dello spin totale associato
a spin totale uguale a 21 , dimodoché tutti gli stati del sistema sono suoi autostati associati allo stesso
autovalore
3
(10.127)
s2 |ψi = ~2 |ψi.
4
Gli stati di spin semi-intero hanno un comportamento peculiare sotto rotazioni. Consideriamo infatti
uno stato |ψi = c+ |+i + c− |−i e compiamo una rotazione di 2π di tale stato attorno all’asse z:
Rz2π |ψi = e−iπσz c+ |+i + c− |−i ,
(10.128)
ma |±i sono autostati di σz , e quindi
Rz2π |ψi = c+ e−iπ |+i + c− eiπ |−i = −|ψi.
◦
(10.129)
Questo significa che ruotando il sistema di 360 uno stato di spin semi-intero ritorna in meno sé stesso.
Questo impedisce di rappresentare il vettore di stato di un sistema di spin semi-intero come una funzione
d’onda sullo spazio delle coordinate, ma non viola alcun principio fondamentale, ed anzi dà luogo ad
effetti sperimentalmente osservabili: per esempio, la funzione d’onda del sistema di partenza e di quello
ruotato possono essere fatte interferire fra di loro.
Notiamo in conclusione che in tutta questa discussione dei sistemi di spin 21 abbiamo scelto di rappresentare i vettori di stato come spinori Eq. (10.110), cioè in termini di autostati della terza componente
del momento angolare, ossia in una base che è l’analogo della base sferica Eq. (10.108) vista nel caso di
spin uno.
10.5 Composizione di momenti angolari
157
10.5
Composizione di momenti angolari
10.5.1
Sistemi con momento angolare orbitale e spin
Possiamo considerare sistemi fisici che portano sia momento angolare orbitale che spin: gli elettroni ed
i nuclei atomici sono esempi di sistemi di questo tipo. La funzione d’onda per un sistema siffatto può
essere scritta come
h #»
x |ψi =
s
X X
h #»
x |l m sz ihsz l m|ψi =
lm sz =−s
Nel caso particolare di spin
X
z
Yl,m (ϑ, ϕ)usz cslm
(r).
(10.130)
lmsz
1
2
possiamo scrivere la funzione d’onda di spin come uno spinore Eq. (10.109,10.110):
X
X
1
0
1
−1
2
(r) +
Yl,m (ϑ, ϕ)
h #»
x |ψi =
Yl,m (ϑ, ϕ)
clm2 (r)
clm
1
0
lm
lm
!
1
P
1
2
ψ 2 (r, ϑ, ϕ)
lm Yl,m (ϑ, ϕ))clm (r)
=
=
.
(10.131)
1
1
P
−
ψ − 2 (r, ϑ, ϕ)
Yl,m (ϑ, ϕ)c 2 (r)
lm
lm
Al solito, i vettori di base sono fattorizzati, visto che lo spazio è un prodotto diretto:
hθ φ|l m sz i = hθ φ| (|l mi ⊗ |sz i) = Yl,m (ϑ, ϕ)usz ,
(10.132)
ma lo stato generico non lo è:
u( #»
x) =
ψ + ( #»
x)
.
ψ − ( #»
x)
(10.133)
La densità di probabilità che una misura di posizione riveli il sistema in #»
x è il modulo quadro della
funzione d’onda sommata su tutti gli spin:
X
ρ( #»
x ) = | #»
u ( #»
x )|2 =
|usz ( #»
x )|2 ,
(10.134)
sz =−,+
mentre la probabilità che una misura di spin lungo l’asse z dia come risultato ± 21 è
Z
± 21
P
= d3 #»
x |ψ ± ( #»
x )|2 .
10.5.2
(10.135)
Coefficienti di Clebsch-Gordan e cambi di base
Se un sistema porta sia momento angolare orbitale che spin può essere utile descriverne la dinamica in
termini di momento angolare totale, anziché utilizzare separatamente il momento angolare e lo spin: la
situazione tipica è quella in cui il momento angolare e lo spin sono accoppiati fra loro. Si definisce quindi
un operatore momento angolare totale
#» #» #»
J = S + L,
(10.136)
e se ne studiano le proprietà. Con lo stesso formalismo è possibile descrivere anche un sistema di due
corpi, ciascuno con un suo momento angolare (orbitale o di spin), del quale si può quindi considerare
il momento angolare totale. Manterremo quindi per la semplicità la notazione Eq. (10.136), intendendo
#»
#»
che S ed L siano generalmente due operatori di momento angolare che vivono in spazi diversi (spin e
momento angolare di una stessa particella, spin oppure momenti angolari di due diverse particelle).
#» #»
Poiché vivono in spazi diversi, gli operatori L e S commutano tra loro:
[Li , Sj ] = 0
(10.137)
158
Il momento angolare
per ogni i, j. Le componenti dell’operatore momento angolare totale Eq. (10.136) soddisfano le regole di
commutazione del momento angolare
[Ji , Jj ] = i~εijk Jk ,
(10.138)
[Ji , Jj ] = [Si + Li , Sj + Lj ] = [Li , Lj ] + [Si , Sj ] = i~εijk (Lk + Sk ).
(10.139)
infatti
Ne segue quindi che
[J 2 , Ji ] = 0.
(10.140)
Pertanto possiamo diagonalizzare simultaneamente J 2 e Jz .
Ci chiediamo ora se sia possibile diagonalizzare simultaneamente il momento angolare totale ed i due
momenti angolari che lo compongono. Osserviamo che
[J 2 , L2 ] = [(L + S)2 , L2 ] = [L2 + S 2 + 2Li Si , L2 ] = 0,
(10.141)
visto che [L2 , Li ] = 0. Analogamente,
[J 2 , S 2 ] = 0.
(10.142)
Si ha inoltre
[Jz , L2 ] = [Lz + Sz , L2 ] = 0,
2
2
[Jz , S ] = [Lz + Sz , S ] = 0,
(10.143)
(10.144)
e quindi, simultaneamente a J 2 e Jz è possibile diagonalizzare anche S 2 e L2 .
Notiamo invece che
[J 2 , Lz ] = [L2 + 2Li Si + S 2 , Lz ] = 2[Li Si , Lz ] = 2[Li , Lz ]Si = 2i~εizk Lk Si 6= 0.
(10.145)
Un discorso analogo vale per il commutatore [S 2 , Sz ]. Pertanto non è possibile diagonalizzare simultaneamente anche questi due operatori. Concludendo, se scegliamo di diagonalizzare J 2 ed una delle sue
componenti possiamo anche diagonalizzare L2 ed S 2 ma non le loro singole componenti.
Possiamo quindi fare due diverse scelte di base per gli stati del sistema: gli stati |j jz l si, caratterizzati
dagli autovalori degli operatori J 2 , Jz , L2 e S 2 , oppure gli stati |l s lz sz i, caratterizzati dagli autovalori
degli operatori L2 , Lz , S 2 e Sz . Possiamo passare da una base all’altra attraverso una trasformazione
unitaria introducendo una risoluzione dell’identità:
X
|l s lz sz i =
|j jz l sihj jz l s|l s lz sz i
(10.146)
jjz
|j jz l si =
X
|l s lz sz ihl s lz sz |j jz l si.
(10.147)
lz sz
I coefficienti hj jz l s|l s lz sz i e hl s lz sz |j jz l si sono noti come coefficienti di Clebsch-Gordan.
Per determinare i coefficienti di Clebsch-Gordan, dobbiamo prima capire quali sono i valori possibili
di j e jz per tali l ed s. Naturalmente, per fissi l ed s, vi sono (2l + 1)(2s + 1) stati di base |l s lz sz i.
Dobbiamo quindi capire quali valori di j e jz ci forniscono un insieme di (2l + 1)(2s + 1) stati |l s lz sz i
che possiamo esprimere come combinazioni lineari di stati |l s lz sz i ottenendo cosı̀ una nuova base.
A tal fine, osserviamo innanzitutto che
hl s sz lz |j jz l si ∝ δjz ,lz +sz .
(10.148)
Infatti per costruzione Jz = Lz + Sz e quindi
0 = hl s sz lz |Jz − Lz − Sz |j jz l si = (jz − lz − sz )~hl s sz lz |j jz l si,
(10.149)
10.5 Composizione di momenti angolari
159
che implica appunto che o jz = lz + sz , oppure hl s sz lz |j jz l si = 0. Questo significa che per ogni dato
valore di jz lo stato |j jz l si è una combinazione lineare esclusivamente degli stati |l s sz lz i tali che
jz = lz + sz .
Ne segue in particolare che il massimo valore accessibile di jz è pari alla somma dei massimi valori
accessibili di lz ed sz
jzmax = lzmax + smax
,
z
(10.150)
ma lzmax = l, smax
= s e quindi da un lato, il massimo valore possibile di j è j = l + s, dall’altro, lo stato
z
|j = l + s jz = j l si può essere ottenuto in un modo solo
|j = l + s jz = j l si = |l s lz = l sz = si.
(10.151)
Notiamo però che il valore jz = l + s − 1 può essere ottenuto in due modi diversi nella base |l s sz lz i,
e quindi lo stato |j = l + s jz = l + s − 1lsi è una sovrapposizione degli stati |l s lz = l sz = s − 1i e
|l s lz = l − 1 sz = si. Possiamo a questo punto rispondere alla domanda di partenza: quali e quanti
valori di j e jz forniscono una base, attraverso un semplice conteggio degli stati. Dimostriamo infatti che
se
|l − s| ≤ j ≤ l + s
(10.152)
allora il numero di stati della base |j jz l si è pari a (2l + 1)(2s + 1), ossia al numero di stati nella base
|l s sz lz i. Si ha
l+s
X
(2j + 1) =
j=l−s
2s
X
(2(k + l − s) + 1)
k=0
= (1 + 2(l − s))
2s
X
+2
k=0
2s
X
k=0
1
k = (2s + 1)(2l − 2s + 1) + 2 2s(2s + 1) = (2l + 1)(2s + 1).
2
(10.153)
Visto che gli stati |j, jz , l, si sono tutti linearmente indipendenti ed ortonormali (infatti sono associati
a diversi autovalori di operatori commutanti), e possono essere scritti come combinazioni lineari degli stati
|l, lz , s, sz i, essi possono essere scelti come nuovi vettori di base. Concludiamo quindi che per fissi l, s gli
stati |j jz l si forniscono una base ortonormale completa purché j vari nell’intervallo Eq. (10.152), con
−j ≤ jz ≤ j. I coefficienti di Clebsch-Gordan possono essere a questo punto determinati per costruzione
esplicita, come vediamo in un esempio esplicito.
10.5.3
Composizione di due spin
1
2
Consideriamo ora in particolare l’esempio di un sistema composto da due sottosistemi di spin
esempio un sistema di due elettroni. Gli stati possibili sono quindi gli stati
1
2
1
|s1 =
2
1
|s1 =
2
1
|s1 =
2
|s1 =
1
2
1
s2 =
2
1
s2 =
2
1
s2 =
2
s2 =
1 z
1
s2 = i ≡ | + +i
2
2
1 z
1
z
s1 = s2 = − i ≡ | + −i
2
2
1 z
1
z
s1 = − s2 = i ≡ | − +i
2
2
1 z
1
z
s1 = − s2 = − i ≡ | − −i,
2
2
sz1 =
1
2:
ad
(10.154)
(10.155)
(10.156)
(10.157)
dove nell’ultimo passaggio si è introdotta per semplicità una notazione compatta.
Definiamo ora gli operatori di momento angolare totale
S i = S1i + S2i ,
(10.158)
160
Il momento angolare
e costruiamo gli stati che sono autostati simultanei di S 2 , Sz , S12 ed S22 . La condizione |s1 − s2 | ≤ S ≤
s1 + s2 implica immediatamente che i valori permessi dello spin totale sono S = 0, 1. I quattro stati,
nella base in cui è diagonale lo spin totale, sono quindi i tre stati di spin uno
|1 1i;
|1 0i
|1 − 1i,
(10.159)
(tripletto) e lo stato di spin zero
|0 0i
(10.160)
(singoletto).
Vogliamo ora determinare i coefficienti di Clebsch-Gordan. L’Eq. (10.151) implica immediatamente
che
|1 1i = | + +i
(10.161)
poiché entrambi gli stati sono normalizzati a 1, e ponendo arbitrariamente ad uno la fase relativa (questa
è una scelta del tutto convenzionale). Possiamo costruire lo stato |1 0i osservando che la Eq. (10.158)
implica
S ± = S1± + S2± ,
(10.162)
dove S ± , S1± e S2± sono rispettivamente gli operatori di innalzamento ed abbassamento per lo spin totale
e per ciascuno dei due spin. Ma combinando la Eq. (10.162) con la Eq. (10.161) si ha che
S − |1 1i = (S1− + S2− )| + +i.
Ricordando che per qualunque operatore di momento angolare
p
S − |S Sz i = ~ S(S + 1) − Sz (Sz − 1)|S Sz − 1i
(10.163)
(10.164)
troviamo subito che
√
~ 2|1 0i = ~(| − +i + | + −i)
(10.165)
1
|1 0i = √ (| − +i + | + −i).
2
(10.166)
ossia
Lo stato |1 − 1i potrebbe essere costruito agendo ancora con l’operatore di abbassamento, ma è più
semplice osservare che
|1 − 1i = | − −i.
(10.167)
Infine, lo stato |0 0i è, per la Eq. (10.148) necessariamente una combinazione di | + −i e | − +i, come lo
stato |1 0i.
|0 0i = a| + −i + b| − +i.
(10.168)
Inoltre deve essere ortogonale a tutti gli altri autostati. In particolare
h1 0|0 0i = 0.
(10.169)
1
|0 0i = √ (| − +i − | + −i),
2
(10.170)
Questo è sufficiente a determinare
10.5 Composizione di momenti angolari
161
a meno di una fase arbitraria. Questo metodo può essere utilizzato in generale per combinare momenti
angolari: si parte dallo stato più alto e poi si agisce con gli operatori di innalzamento e abbassamento.
Concludiamo con una osservazione. In questo esempio, siamo partiti da un sistema di due particelle
aventi spin 12 , che a priori sono completamente identiche, nel senso che lo spazio degli stati fisici per i due
sottosistemi è lo stesso. Gli stati |s1z s2z i distinguono le due particelle assegnando a ciascuna delle sue un
valore ben definito della terza componente dello spin. Quando però si passa agli autostati di spin totale
|s sz i si perde l’informazione circa la singola particella: lo stato del sistema complessivo è univocamente
determinato, ma non è più possibile distinguere le due particelle. Abbiamo cioè fabbricato un sistema
collettivo, i cui stati sono simmetrici o antisimmetrici sotto lo scambio delle particelle:
• |1 1i, |1 0i e |1 − 1i sono simmetriche
• |0 0i è antisimmetrica.
Come vedremo più avanti nel Capitolo 14, questo non è un fatto accidentale: il fatto che la funzione
d’onda di un sistema quantistico di oggetti identici sia simmetrica oppure antisimmetrica sotto scambio
è una proprietà generale.
162
Il momento angolare
Capitolo 11
Problemi tridimensionali
Abbiamo ora tutti gli strumenti per affrontare il problema della determinazione dello spettro di un’hamiltoniana tridimensionale invariante per rotazioni. Dopo una discussione generale della struttura dell’equazione di Schrödinger radiale e della forma delle sue soluzioni, affronteremo due problemi tridimensionali,
e cioé l’oscillatore armonico isotropo, e l’atomo di idrogeno.
11.1
L’equazione di Schrödinger radiale
Il nostro punto di partenza è una generica hamiltoniana tridimensionale invariante per rotazione, che
possiamo ad esempio pensare come il risultato di una separazione di variabili di un problema a due corpi
con potenziale centrale
H=
p2
L2
p2
+ V (r) = r +
+ V (r)
2m
2m 2mr2
(11.1)
dove nell’ultimo passaggio abbiamo separato il termine cinetico in parte angolare e parte radiale secondo
la Eq. (9.127), e con l’impulso radiale pr definito nella Eq. (9.125).
Il nostro obiettivo è di risolvere l’equazione agli autovalori
H|ψi = E|ψi
(11.2)
sfruttando l’invarianza per rotazioni ([Li , H] = 0, V = V (r)), che implica la possibilità di diagonalizzare
contemporaneamente gli operatori H, L2 , Lz . Poiché le autofunzioni del momento angolare sono un
insieme completo nello spazio delle funzioni sulla sfera (si ricordino le Eq. (10.81,10.82)) la richiesta che
la funzione d’onda sia un’autofunzione del momento angolare, cioè che abbia valori definiti di l, m, ne
fissa completamente la dipendenza angolare. In altri termini, possiamo sempre decomporre la funzione
d’onda secondo la Eq. (10.130) (di cui ora stiamo considerando il caso particolare in cui lo spin è nullo e
quindi non vi è somma sugli spin), e se l, m sono fissi solo un termine contribuisce alla sommatoria.
Una autofunzione simultanea di energia e momento angolare è quindi fattorizzabile
ψElm ( #»
x ) = Ylm (ϑ, ϕ)φElm (r).
L’equazione agli autovalori prende quindi la forma
2
pr
L2
+
+ V (r) Ylm (ϑ, ϕ)φ(r) = EYlm (ϑ, ϕ)φElm (r),
2m 2mr2
da cui discende immediatamente l’equazione di Schrödinger radiale
2
pr
~2 l(l + 1)
+
+ V (r) φEl (r) = EφEl (r),
2m
2mr2
(11.3)
(11.4)
(11.5)
164
Problemi tridimensionali
dove abbiamo rimosso la dipendenza da m dell’autofunzione in quanto manifestamente l’autovalore di
energia non dipende da m: vi sarà quindi degenerazione 2l + 1 rispetto a m per fissi E, l. Notiamo
che il problema non è però separabile in senso stretto, secondo la definizione data nella Sezione 9.2.2:
l’hamiltoniana non può essere scritta come somma di due hamiltoniane commutanti, in quanto il termine
angolare proporionale ad L2 dipende da r, che non commuta con pr . La conseguenza di questo fatto è che
benché le autofunzioni sono fattorizzabili secondo la Eq. (11.3), le autofunzioni radiali φEl (r) dipendono
dal valore del momento angolare l, cioè a differenza che nel caso di una hamiltoniana fattorizzabile in
senso stretto le autofunzioni non possono essere scritte come prodotto di autofunzioni di due hamiltoniane
indipendenti l’una dall’altra.
11.1.1
Funzione d’onda radiale
L’equazione di Schrödinger radiale Eq. (11.5) si semplifica notevolmente definendo
u(r)
r
φ(r) =
(11.6)
in seguito al fatto che
pr φ(r) = −i~
1
∂
+
∂r r
u(r)
1 ∂u
= −i~
,
r
r ∂r
(11.7)
da cui discende immediatamente che
pnr φ(r) = (−i~)n
1 ∂nu
.
r ∂rn
(11.8)
Quindi l’azione dell’operatore impulso radiale sulla funzione u è particolarmente semplice.
La ragione della semplificazione può essere capita osservando che il prodotto scalare tra due vettori di
stato corrispondenti ad autofunzioni del momento angolare φ( #»
x ) = Yl0 m0 (ϑ, ϕ)τ (r) e ψ = Ylm (ϑ, ϕ)χ(r)
ha la forma
Z ∞
Z
Z ∞
hφ|ψi =
dr r2 τ ∗ (r)χ(r) d cos ϑdϕ Yl∗0 m0 (ϑ, ϕ)Ylm (ϑ, ϕ) = δll0 δmm0
dr r2 τ ∗ (r)χ(r). (11.9)
0
0
Ponendo ora
χ(r) =
χ̄
;
r
τ (r) =
τ̄
r
(11.10)
si trova
Z
hφ|ψi = δll0 δmm0
∞
dr τ̄ ∗ (r)χ̄(r),
(11.11)
0
ossia la ridefinizione della funzione d’onda radiale assorbe il fattore dovuto alla misura di integrazione.
∂
Questo in particolare implica che l’operatore −i ∂r
sulle funzioni ridefinite è hermitiano, il che spiega
∂
perché sulle funzioni ridefinite l’impulso radiale agisca proprio come −i ∂r
, secondo la Eq. (11.7).
Possiamo ora risolvere l’equazione agli autovalori con la sostituzione appena introdotta, in modo tale
da trasformarla in una equazione unidimensionale. In termini della funzione d’onda radiale ridefinita u(r)
l’equazione di Schrödinger radiale diventa
~2 ∂ 2
~2 l(l + 1)
−
+
+ V (r) u(r) = Eu(r).
(11.12)
2m ∂r2
2mr2
Questa ha la forma di un’equazione di Schrödinger unidimensionale, con un potenziale efficace dato dalla
somma di un termine radiale e di un termine centrifugo repulsivo (barriera centrifuga di potenziale), il cui
effetto aumenta al crescere di l. Tuttavia, l’Eq. (11.12) differisce da un’equazione di Schrödinger unidimensionale standard perché la coordinata radiale é r ≥ 0, ed inoltre perché la soluzione deve soddisfare le
condizioni che corrispondono alla sua interpretazione come funzione d’onda radiale, e che ora discutiamo.
11.1 L’equazione di Schrödinger radiale
11.1.2
165
Condizioni al contorno ed andamenti asintotici
In primo luogo, ci chiediamo quali debbano essere i comportamenti asintotici u(r) per r → 0 e r → ∞.
La funzione d’onda deve poter essere normalizzabile, ossia l’integrale
Z ∞
Z ∞
2
2
dr |u(r)|2 = K
(11.13)
dr r |φ(r)| =
0
0
deve essere convergente: la |u(r)|2 deve avere nell’origine al più una singolarità integrabile. La condizione
affinché questo accada è
1
r→∞ 1
u(r) ∼ β ; β < .
(11.14)
r
2
Tuttavia, per potenziali non eccessivamente singolari nell’origine la u(r) soddisfa una condizione più
restrittiva. Infatti, si dimostra che ∆ 1r ∝ δ (3) (~x). Ne segue che, se φ(r) nell’origine diverge almeno come
1
r è possibile soddisfare l’equazione di Schrödinger solo se il potenziale diverge almeno come una delta di
Dirac. Per potenziali che si comportano come una funzione anziché come una distribuzione quindi φ(r)
deve divergere meno di 1r e quindi la u soddisfa la condizione al contorno
u(r) = 0.
(11.15)
Andamento nell’origine
Per r → 0 domina il termine centrifugo, a meno che il potenziale non cresca più rapidamente che r12 .
Un potenziale attrattivo che cresca come r12 o più è patologico: si dimostra infatti che esso dà luogo ad
uno spettro di energia che non è limitato inferiormente. Un potenziale repulsivo che cresca come r12 non
ha nulla di intrinsecamente patologico e può semplicemente essere visto come una correzione al termine
centrifugo, che ha lo stesso andamento. Un potenziale repulsivo che cresca più che r12 dà luogo a funzioni
d’onda che quando r → 0 decrescono in modo molto rapido, dipendente dalla forma del potenziale.
Consideriamo quindi il caso in cui domina il termine centrifugo l(l+1)
r 2 . L’equazione di Schrödinger
diventa in tal caso
~2 00
~2 l(l + 1)
−
u (r) = −
u(r)
(11.16)
2m
2mr2
la cui soluzione generale è
u(r) = Arl+1 + Br−l .
(11.17)
La richiesta che u(r) si annulli nell’origine, ma anche la più debole richiesta di integrabilità Eq. (11.14),
implicano quindi che le uniche soluzioni accettabili siano della forma
u(r) = Arl+1 .
(11.18)
Troviamo quindi che per qualunque valore di l vale la Eq. (11.15).
Andamento all’infinito
L’andamento all’infinito è sempre del tipo di quello di particella libera purché il potenziale all’infinito si
annulli. Se limr→∞ V (r) = 0 allora l’equazione di Schrödinger al limite diventa
~2 00
u (r) = Eu(r).
(11.19)
2m
Questo implica che qualunque stato legato (cioè avente autovalore di energia negativo) ha un andamento
−
u(r) = Ce−βr
(11.20)
con
r
2m|E|
.
(11.21)
~
Se il potenziale all’infinito non si annulla l’andamento all’infinito è determinato da quello del potenziale
e va stusiato caso per caso.
β=
166
Problemi tridimensionali
Stati legati
Ci si può infine chiedere quando siano da aspettarsi stati legati per un potenziale tridimensionale che si
annulli all’infinito. Si è visto che nel caso unidimensionale esiste sempre almeno uno stato legato. Lo stato
fondamentale è pari e gli stati eccitati erano una successione di stati a parità alternata. Il problema radiale
associato ad un problema tridimensionale può essere interpretato come un problema unidimensionale con
r ≥ 0. Tuttavia abbiamo visto che si deve avere u(r) → 0. Quindi solo le soluzioni dispari del problema
unidimensionale associato (che si annullano nell’origine) sono accettabili, e quindi in generale non è detto
che lo stato fondamentale esista. Osserviamo infine che, visto che il potenziale centrifuo è repulsivo, in
generale il numero di stati legati decresce al crescere di l.
11.1.3
La particella libera
L’equazione agli autovalori per l’Hamiltoniana per la particella libera assume la forma
−~2
∆
ψ( #»
x ) = Eψ( #»
x ).
2m
(11.22)
Le soluzioni si determinano facilmente in coordinate cartesiane, dove hanno la forma di onde piane
tridimensionali
#»
ψ #»
k (x) =
#» #»
1
(2π)
3
2
ei k · x ,
(11.23)
normalizzabili in senso improprio
Z
(3) #»
#»
( x − #»
x 0 ),
d3 k ψ ∗#»
( #»
x 0 )ψ #»
k (x) = δ
k
(11.24)
con autovalori
E=
#»
~2 k 2
.
2m
(11.25)
Il problema tuttavia, oltre ad un’invarianza per traslazioni, presenta una invarianza per rotazioni; è
possibile quindi ridurre il problema a un problema radiale ed a un problema angolare, esprimendo le
autofunzioni nella forma
uEl (r)
ψElm ( #»
x ) = Ylm (ϑ, ϕ)
,
r
(11.26)
dove uEl (r) soddisfa l’equazione
−
~2 ∂ 2 uEl (r) ~2 l(l + 1)
+
uEl (r) = EuEl (r),
2m ∂r2
2mr2
(11.27)
ossia
~2
l(l + 1)
−u00El (r) +
u
(r)
− uEl (r) = 0.
El
2mE
r2
q
~2 1
1
Ponendo ora r0 = kr, con k = 2mE
~2 , in modo che 2mE r 2 = r 0 2 , l’equazione diventa
d2 uEl (r0 ) l(l + 1)
−
uEl (r0 ) + uEl (r0 ) = 0.
dr0 2
r0 2
(11.28)
(11.29)
Questa è la cosiddetta equazione di Bessel. Date le condizioni al contorno, è possibile scrivere le soluzioni
di tale equazione come
φEl (r) =
uEl (r0 )
= jl (rk),
r
(11.30)
11.2 L’oscillatore armonico isotropo
167
dove nell’ultimo passaggio si è introdotta la funzione di Bessel jl , e la dipendenza dall’energia è contenuta
del fattore k nell’argomento di quest’ultima.
Le autofunzioni di particella libera possono pertanto essere scritte come
ψElm ( #»
x ) = Ylm (ϑ, ϕ)jl (kr).
(11.31)
È noto che l’andamento asintotico della funzione di Bessel è proprio
r→0
jj (r) ∼ rl .
11.2
(11.32)
L’oscillatore armonico isotropo
Il potenziale armonico isotropo
V (r) =
1
1
mω 2 (x2 + y 2 + x2 ) = mω 2 r2 .
2
2
(11.33)
è fattorizzabile in coordinate cartesiane, come abbiamo visto nella sezione 9.2.3. Tuttavia, esso può
essere anche pensato come un potenziale centrale, e quindi l’equazione agli autovalori è anche trattabile
separando il moto angolare e risolvendo l’equazione agli autovalori per l’hamiltoniana radiale.
Cerchiamo quindi autofunzioni di energia |E l mi fattorizzate, della forma Eq. (11.3). Per queste
autofunzioni, il problema agli autovalori prende la forma
H|n l mi = Hl |n l mi = Enl |n l mi,
(11.34)
dove n numera le autofunzioni e gli autovalori per fisso l, e l’hamiltoniana Hl è data da
Hl =
11.2.1
p2r
~2 l(l + 1) 1
+
+ mω 2 r2 .
2m
2mr2
2
(11.35)
Stati con l = 0
Notiamo che nel caso l = 0 l’hamiltoniana Eq. (11.35) diventa
H0 =
p2r
1
+ mω 2 r2 .
2m 2
(11.36)
ed è quindi identica a quella di un oscillatore armonico unidimensionale, anche se le funzioni d’onda
soddisfano diverse condizioni al contorno. Basandoci su questa osservazione, esploriamo la possibilità di
determinare lo spettro con metodi algebrici come nel caso unidimensionale.
Osserviamo innanzitutto che impulso e coordinata radiali soddisfano la relazione di commutazione
canonica
[pr , r] = −i~.
(11.37)
Definiamo perciò:
r
mω
2~
r
mω
d†0 =
2~
d0 =
pr mω
pr r−i
.
mω
r+i
(11.38)
dimodoché possiamo scrivere
H0 = ~ω
d†0 d0
1
+
2
,
(11.39)
168
Problemi tridimensionali
Visto che
[d0 , d†0 ] = 1
(11.40)
lo stesso argomento del caso unidimensionale porta a concludere che d0 e d†0 agiscono come operatori di
abbassamento ed innalzamento, ed a riprodurre lo spettro trovato nel caso unidimensionale.
Ricordiamo però che la funzione d’onda radiale deve soddisfare la condizione al contorno Eq. (11.15), ed
inoltre che l’equazione agli autovalori soddisfatta dalla u(r), Eq. (11.12) coincide con quella del corrispondente problema unidimensionale. Ma le autofunzioni di energia per l’oscillatore armonico unidimensionale
sono
2
ψk (x) = N e−cx Hk (x);
ψk (x) = (−1)k ψk (−x).
(11.41)
Pertanto, solo se k è dispari, k = 2n + 1, si ha ψ2n+1 (0) = 0. Dobbiamo perciò scartare tutti gli autostati
di energia con k pari del problema unidimensionale, e troviamo che lo spettro di autovalori Enl con l = 0
è dato da
1
.
(11.42)
En0 = ~ω 2n + 1 +
2
Osserviamo che il caso l = 0 è il caso maggiormente attrattivo, a causa dell’annullarsi del potenziale
centrifugo. Lo stato E00 è pertanto lo stato fondamentale, con energia
3
E00 = ~ω .
2
(11.43)
Il fatto che le condizioni al contorno selezionino un sottoinsieme degli autostati algebricamente permessi non ci sorprende. Si tratta di una situazione analoga a quella che abbiamo incontrato nel caso
di del momento angolare, dove l’analisi delle relazioni di commutazione ci ha portato a concludere che
sia i valori interi che quelli semi-interi del momento angolare sono permessi. Tuttavia, imponendo la
condizione al contorno Eq. (10.85) i valori interi del momento angolare semi-interi vengono esclusi.
11.2.2
Costruzione degli stati con l generico
Quando l 6= 0 nell’hamiltoniana compare anche un termine proporzionale a 1r , quindi ci serve anche il
commutatore di tale operatore con pr . Questo può essere determinato facilmente ricordando che per una
funzione generica f (r) si ha [pr , f (r)] = −i~ ∂f
∂r , da cui
i~
1
= 2.
pr ,
r
r
(11.44)
Vogliamo costruire degli operatori di creazione e distruzione che generalizzino gli operatori d0 e d†0
al caso di l generico, e ci permettano di scrivere una relazione analoga alla (11.39). A questo scopo,
definiamo gli operatori
r
~l
pr
mω
dl =
r+
+i
2~
mωr
mω
r
mω
~l
pr
†
dl =
r+
−i
,
(11.45)
2~
mωr
mω
che per l=0 si riducono agli operatori Eq. (11.38) definiti in precedenza.
Definiamo quindi una generalizzazione dell’operatore numero del caso unidimensionale, ossia
Dl ≡ d†l dl .
(11.46)
11.2 L’oscillatore armonico isotropo
169
La sua espressione esplicita è
d†l dl
)
p2r
i
~l
+ 2 2−
pr , r +
m ω
mω
mωr
2
2 2
mω 2
pr
2~l
~ l
i
~l i~
=
r + 2 2 2+ 2 2+
−
−i~ +
2~
m ω r
m ω
mω mω
mω r2
2
2
1
1
pr
1
~ l(l + 1)
=
+l− ,
+ mω 2 r2 +
2
~ω 2m 2
2mr
2
(11.47)
1
1
Hl + l − .
~ω
2
(11.48)
mω
=
2~
(
~l
r+
mωr
2
che implica
Dl =
Pertanto, gli operatori Dl ed Hl hanno i medesimi autostati, e, detti Enl gli autovalori di Dl
Dl |n li = Enl |n li
(11.49)
la Eq. (11.48) implica
1
1
Enl + l − .
(11.50)
~ω
2
Naturalmente, nel caso l = 0, Bl è il consueto operatore numero, ed il suo spettro si ottiene combinando
la Eq. (11.42) con la Eq. (11.50):
Enl =
En0 = 2n + 1,
(11.51)
che, come si è detto, contiene metà degli stati del problema unidimensionale associato in conseguenza
della condizione al contorno.
Per determinare lo spettro per l generico introduciamo ora anche l’operatore
Dl ≡ dl d†l .
Un calcolo analogo al precedente ci porta a concludere che
(
2
)
~l
p2r
i
~l
mω
r+
+ 2 2+
pr , r +
Dl =
2~
mωr
m ω
mω
mωr
2
1
pr
1
~2 l(l − 1)
1
=
+ mω 2 r2 +
+l+ ,
~ω 2m 2
2mr2
2
(11.52)
(11.53)
che implica ora
Dl =
1
1
Hl−1 + l + .
~ω
2
(11.54)
Usando questi risultati, possiamo mostrare che operatori d†l e dl agiscono come operatori di creazione
e distruzione. Osserviamo innanzitutto che Dl e Dl sono collegati, in quanto
1
3
Hl + l +
~ω
2
1
1
Dl =
Hl + l −
~ω
2
Dl+1 =
(11.55)
da cui
Dl+1 = Dl + 2,
(11.56)
170
Problemi tridimensionali
o, equivalentemente
Dl = Dl−1 + 2.
(11.57)
Notiamo poi che
dl d†l dl = dl Dl = Dl dl = (Dl−1 + 2) dl
d†l dl d†l = Dl d†l = d†l Dl = d†l (Dl−1 + 2) ,
(11.58)
dove nell’ultimo passaggio abbiamo usato le Eq. (11.56-11.57).
Le Eq. (11.58) sono sufficienti a mostrare che d†l e dl agiscono come operatori di creazione e distruzione.
Infatti, supponiamo di conoscere un autostato |n li di Dl . Si vede immediatamente che d†l+1 |n li è
anch’esso un autostato, ma di Dl+1 . Infatti
Dl+1 d†l+1 |n li = d†l+1 (Dl + 2) |n li = (Enl + 2)d†l+1 |n li,
quindi
d†l+1 |n
(11.59)
li è autostato di Dl+1 con autovalore E = Enl + 2. Analogamente
Dl−1 dl |n li = dl (Dl − 2) |n li = (Enl − 2)dl |n li,
(11.60)
quindi lo stato dl |n li è autostato di Dl−1 con autovalore Enl − 2.
Gli operatori che abbiamo costruito quindi collegano tra loro spettri di operatori diversi. Cominciamo
dal caso l = 0, per il quale già sappiamo che l’autovalore di energia associato allo stato |n 0i è dato dalla
Eq. (11.51). La Eq. (11.59) implica che
D1 d†1 |n 0i = (En0 + 2) d†1 |n 0i = (2n + 3)d†1 |n 0i
D2 d†2 d†1 |n 0i = (En0 + 4) d†2 d†1 |n 0i = (2n + 5)d†2 d†1 |n 0i
...
Dk+1 d†k+1 . . . d†1 |n 0i = (2n + 2k + 1)d†k+1 . . . d†1 |n 0i
(11.61)
e cosı̀ via. Quindi per ogni autostato di energia con l = 0 ed En0 = 2n + 1, ossia En0 = ~ω(2n + 3/2),
possiamo costruire una sequenza di autostati |n li della sequenza di operatori Dl aventi autovalori
En1 = 2n + 3
En2 = 2n + 5
..
..
.
.
Enl = 2n + 2l + 1.
(11.62)
Dato lo spettro degli autovalori E, possiamo determinare lo spettro degli autovalori di energia,
ricordando la Eq. (11.50), che implica
1
Enl = ~ω Enl − l +
,
(11.63)
2
dimodochè gli stati che abbiamo costruito sono anche autostati dell’l-esima hamiltoniana Hl Eq. (11.35),
associati ad autovalori (di energia)
3
3
Enl = ~ω 2n + l +
= ~ω N +
,
(11.64)
2
2
avendo posto
N = 2n + l.
(11.65)
Possiamo infine chiederci se gli stati costruiti siano tutti e soli i possibili autostati dell’l-esima hamiltoniana Hl . Supponiamo per assurdo che vi sia un altro autostato, associato ad un autovalore diverso
da quelli della sequenza sopra determinata Eq. (11.62). Agendo su questo stato ripetutamente con gli
operatori di distruzione dl è sempre possibile ottenere da esso uno stato con l = 0. Ma se questo stato non
fosse contenuto nella sequenza originaria, allora avremmo costruito un nuovo autovalore dell’hamiltoniana
H0 : ciò è assurdo perchè lo spettro di autovalore En0 Eq. (11.42) contiene tutti gli autovalori di H0 . Ne
concludiamo che lo spettro dell’l-esima Hl è proprio dato dalla Eq. (11.64).
11.2 L’oscillatore armonico isotropo
11.2.3
171
Spettro e degenerazione
Abbiamo concluso che l’insieme di autovalori di energia Eq. (11.64) contiene tutti e soli gli autovalori
dell’insieme di hamiltoniane Eq. (11.35) per l ≥ 0 intero, e quindi fornisce lo spettro dell’oscillatore
armonico isotropo. Possiamo rappresentare graficamente la struttura dello spettro nel modo seguente:
Enl
l=0
11
2 ~ω
|2 0i
l=1
l=2
|1 1i
|0 3i
|1 0i
|0 2i
5
2 ~ω
|0 1i
3
2 ~ω
d
..
.
|1 2i
9
2 ~ω
7
2 ~ω
l=3
10
6
3
|0 0i
1
Nell’ultima colonna abbiamo indicato la degenerazione di ogni livello, ottenuta ricordando che per
ogni valore fissato di n, l vi sono 2l + 1 valori possibili di m. Confrontiamo ora la degenerazione totale
trovata con il valore ottenuto nel caso delle coordinate cartesiane, Eq. (9.57), e cioè d = 21 (N + 1)(N + 2).
Possiamo verificare come questo valore possa essere riottenuto in coordinate sferiche. Distinguiamo il
caso di N pari o dispari:
(
2M
l = 0, 2 . . . 2M
N=
(11.66)
2M + 1 l = 1, 3 . . . 2M + 1
Nel primo caso possiamo porre l = 2l0 con 0 ≤ l0 ≤ M . La degenerazione totale è pari al numero di valori
possibili che assume l, facendo attenzione che per l fissato esiste però anche una ulteriore degenerazione
dovuta ad m, che può assumere 2l + 1 valori. Si ha quindi:
d=
2M
X
(2l + 1) =
M
X
(4l0 + 1).
(11.67)
l0 =0
l=0
Nel caso di N dispari in modo del tutto analogo si ha, ponendo l = 2l0 + 1 con 0 ≤ l0 ≤ M :
d=
2M
+1
X
M
X
l=0
l0 =0
(2l + 1) =
(4l0 + 3).
(11.68)
In generale
M
X
(4l0 + k) = 4
l0 =0
M
X
l0 =0
l0 + k
M
X
1 = (M + 1)(2M + k).
(11.69)
l0 =0
Se specializziamo il calcolo per i casi in cui N è pari o dispari si ottiene:
N
1
pari (M + 1)(2M + k) =
+ 1 (N + 1) = (N + 1)(N + 2)
2
2
N −1
1
dispari (M + 1)(2M + k) =
+ 1 (N − 1 + 3) = (N + 1)(N + 2).
2
2
(11.70)
(11.71)
Vediamo quindi come il numero di stati associati ad un medesimo valore di energia sia sempre lo stesso,
ma come essi possano essere realizzati o come autostati cartesiani, o come autostati sferici. Naturalmente,
è sempre possibile passare da una base di autostati all’altra attraverso una trasformazione unitaria, in
ciascun sottospazio di energia fissata.
172
11.2.4
Problemi tridimensionali
Il teorema di degenerazione
Il risultato che abbiamo trovato fornisce un esempio del teorema di degenerazione, che afferma che, data
una Hamiltoniana H e due operatori A, B, tali che
[H, A] = [H, B] = 0
(11.72)
[A, B] 6= 0
(11.73)
ma
allora lo spettro dell’hamiltoniana è necessariamente degenere.
La dimostrazione è immediata. Supponiamo per assurdo che lo spettro di H non sia degenere. In tal
caso, per ogni autovalore di energia En vi è un solo autostato |ni tale che
H|ni = En |ni.
Ma poichè A e H commutano, sono diagonalizzabili simultaneamente, e quindi necessariamente
A|ni = an |ni.
(11.74)
B|ni = bn |ni.
(11.75)
D’altra parte, lo stesso vale per B, quindi
Ne segue che gli autostati di A sono anche autostati di B: ma due operatori aventi una base comune di
autostati sono simultaneamente diagonalizzabili, e quindi commutano, [A, B] = 0, contro l’ipotesi.
Vediamo cosı̀ che è solo grazie all’esistenza di più autostati diversi associati ad uno stesso autovalore
di energia che è possibile costruire degli stati che siano autostati sia dell’hamiltoniana che dell’uno o
dell’altro degli operatori con cui questa commuta, ma non di entrambi: in ogni sottospazio degenere di
autostati dell’hamiltoniana diverse combinazioni lineari degli stati associati ad un medesimo autovalore
diagonalizzano l’uno o l’altro degli operatori. Ad esempio, qualunque hamiltoniana invariante per rotazioni commuta con ciascuno dei generatori del momento angolare, i quali però non commutano fra loro.
Quindi l’hamiltoniana può contenere un termine proporzionale ad L2 (che commuta con tutti gli Li ) ma
non un termine proporzionale ad uno degli Li , ad esempio Lz . Ne segue che se scegliamo di diagonalizzare
l’hamiltoniana simultaneamente ad L2 ed Lz , tutti gli stati associati allo stesso valore di l, ma a diversi
valori di m, sono degeneri.
Questo suggerisce inoltre un modo di legare il grado di degenerazione alla simmetria complessiva
dell’hamiltoniana. Nell’esempio del momento angolare, se l’hamiltoniana non ha nessun’altra simmetria,
ossia se non ci sono altri operatori oltre ai tre generatori del momento angolare che commutano con
l’hamiltoniana, la degenerazione complessiva è data dal numero di stati corrispondenti a diversi valori di
m, ma associati allo stesso valore di l; infatti una rotazione cambia il valore di m, ma lascia l invariato.
Nel caso più generale, determiniamo tutti gli operatori diagonalizzabili simultaneamente all’hamiltoniana. Poi determiniamo tutti gli insiemi di stati che si possono ottenere l’uno dall’altro attraverso
trasformazioni ottenute esponenziando questi operatori. La degenerazione è il numero di stati contenuti
in ciascun insieme di stati di questo tipo: tecnicamente, questa è la dimensione della rappresentazione
irriducibile del gruppo di trasformazioni ottenuto esponenziando i generatori.
Nell’esempio del momento angolare, il gruppo è il gruppo delle rotazioni SO(3) (se si ammettono solo
momenti angolari interi) o SU(2) (se si ammettono valori sia interi che semi-interi), le cui rappresentazioni
irriducibili sono classificate dal valore di l: ciò significa che per ogni l fissato gli stati con diversi m si
ottengono l’uno dall’altro per azione delle trasformazioni del gruppo, ma non c’è nessuna trasformazione
che può cambiare il valore di l. Il numero di stati per fisso l fornisce la degenerazione.
11.2.5
Simmetria dell’oscillatore tridimensionale isotropo
Nel caso dell’oscillatore armonico tridimensionale isotropo, abbiamo visto che il grado di degenerazione è
maggiore di quello dovuto all’invarianza per rotazioni: infatti, per ogni valore di N vi sono in generale più
11.2 L’oscillatore armonico isotropo
173
valori di l che corrispondono allo stesso valore di energia, si ricordino le Eq. (11.67-11.68). Quindi devono
esistere altri operatori, oltre agli operatori di momento angolare, che commutano con l’hamiltoniana, ma
non fra loro.
Per capire quali sono, torniamo alle coordinate cartesiane, e scriviamo
1
1
1
H = Hx + Hy + Hz = ~ω a†x ax +
+ ~ω a†y ay +
+ ~ω a†z az +
2
2
2
3
X †
1
= ~ω
ai ai +
2
i=1
(11.76)
con
r
ai =
mω
2~
xi + i
pi
mω
.
(11.77)
È facile vedere che tutti i nove operatori
Oij ≡ a†i aj
(11.78)
commutano con H. Infatti, ricordando che [a†i , aj ] = −δij , si ha
!
[Oij , H] =
~ω[a†i aj ,
X
a†k ak ]
= ~ω
k
[a†i ,
X
a†k ak ]aj
+
a†i [aj ,
X
k
a†k ak ]
= ~ω(−a†i aj − a†i aj ) = 0.
k
(11.79)
D’altra parte, gli Oij in generale non commutano tra di loro:
[Oij , Oab ] = [a†i aj , a†a ab ] = a†i [aj , a†a ab ] + [a†i , a†a ab ]aj = −δib Oaj + δja Oib .
(11.80)
L’hamiltoniana è una combinazione lineare di tre di questi operatori
3
X
1
H=
~ω Oii +
2
i=1
,
(11.81)
e quindi abbiamo otto operatori che commutano con l’hamiltoniana ma non tra di loro. Le relazione di
commutazione soddisfatte dagli operatori dati sono quelle dei generatori del gruppo SU (3).
È facile vedere che il momento angolare è un sottogruppo del gruppo appena trovato. I momenti
angolari sono infatti proporzionali a differenze tra gli operatori Oij : ad esempio
mω h
px py py px i
x−i
y+i
− y−i
x+i
2~
mω
mω
mω
mω
i
i
= (xpy − ypx ) = Lz ,
(11.82)
~
~
O12 − O21 = (a†1 a2 − a†2 a1 ) =
ed in generale
Li = −i~εijk Ojk .
(11.83)
Questi operatori generano il gruppo SU(2); si può verificare esplicitamente che la degenerazione che
abbiamo trovato è la dimensione delle rappresentazioni irriducibili del gruppo SU(3). Essa è più grande
di quella del gruppo delle rotazioni, che ne è un sottogruppo.
174
11.3
Problemi tridimensionali
Il potenziale coulombiano
La trattazione del potenziale coulombiano (o newtoniano) ha un ruolo molto importante sia in meccanica
classica che in meccanica quantistica. Nel caso classico, porta alla discussione delle orbite dei pianeti: il
problema di Keplero. Nel caso quantistico porta alla determinazione dello spettro di energia degli atomi
idrogenoidi, ed è quindi alla base della struttura della materia.
L’equazione di Scrödinger radiale (11.12) in presenza di potenziale coulombiano è
~2 l(l + 1) Ze2
~2 ∂ 2
+
−
u(r) = Eu(r),
(11.84)
−
2m ∂r2
2mr2
r
dove e è la carica dell’elettrone, e Z la carica del nucleo in unità di carica dell’elettrone, o più generalmente
−e e +Ze sono le due cariche che si attraggono attraverso un potenziale coulombiano.
11.3.1
Analisi dimensionale
La dipendenza dagli autovalori di energia E dai parametri del problema nella Eq. (11.84) è interamente
fissata da considerazioni di natura dimensionale. Per vederlo, riscriviamo il termine cinetico ed il termine
di potenziale sostituendo la variabile radiale r con una sua controparte adimensionale. A questo fine,
definiamo il parametro
a≡
~2
mZe2
(11.85)
detto raggio di Bohr (se e è la carica dell’elettrone). È facile vedere dall’equazione di Schrödinger che
il raggio di Bohr ha le dimensioni di una lunghezza: infatti dimensionalmente il termine cinetico ed il
2
termine di potenziale ci dicono rispettivamente che [ ~m ] = [E][L2 ], e [e2 ] = [E][L]. Definiamo quindi la
variabile adimensionale
r0 = r/a,
in termini della quale l’equazione agli autovalori (11.84) prende la forma
E
1 ∂2
l(l + 1)
1
−
−
+
u(r0 ) = 0
−
2 ∂r0 2
r0
W0
2r0 2
(11.86)
(11.87)
dove
m(Ze2 )2
(11.88)
~2
ha manifestamente le dimensioni di energia, visto che ogni termine nella Eq. (11.87) è adimensionale.
Questo è sufficiente a concludere che gli autovalori di energia hanno la forma
W0 ≡
En = W0 cn
(11.89)
dove cn è un numero puro, e quindi la dipendenza dai parametri del problema è interamente specificata
dalla costante W0 Eq. (11.88).
La determinazione esplicita dei valori di cn si può ottenere mediante la risoluzione dell’equazione
differenziale, ma anche attraverso uno studio delle simmetrie del problema. Quest’ultima è la strada che
seguiremo noi. Diamo tuttavia un breve cenno alla soluzione dell’equazione. A tal fine conviene porre
E
1
= k2
W0
2
(11.90)
∂2
l(l + 1) 2
2
−
+ − k u(r) = 0.
∂r2
r2
r
(11.91)
−
riscrivendo cosı̀ la (11.87) come
11.3 Il potenziale coulombiano
175
Tale scrittura risulta essere particolarmente conveniente ricordando la discussione dei comportamenti
asintotici. Quando r → ∞ l’equazione si riduce infatti a
u00 (r) = k 2 u(r).
(11.92)
r→∞
Di conseguenza u(r) ∼ e−kr , mentre per r → 0 il comportamento della autofunzione deve essere del
tipo rl+1 , ricordando la Eq. (11.18).
Si scrive quindi la soluzione nella forma
u(r) = e−kr rl+1 f (r)
(11.93)
con
f (r) =
∞
X
an rn
(11.94)
n=0
e si determinano i coefficienti an per ricorrenza, sostituendo l’Ansatz Eq. (11.93-11.94) nell’equazione
differenziale (11.91). Si trova che affinché la soluzione sia normalizzabile è necessario che la serie di
potenze ad un certo punto si arresti (cioè che tutti i coefficienti an con n > n0 si annullino), e che questo
a sua volta avviene solo se
k=
1
,
n̄ + l
(11.95)
dove n̄ > 0 è intero. Ne segue che
E=−
1 (Ze2 )2 m 1
,
2
~2
n2
(11.96)
dove si è posto
n = n̄ + l.
(11.97)
Questo spettro è rappresentato graficamente nella Fig. 11.1.
11.3.2
Il modello di Bohr
Prima di affrontare la determinazione dello spettro di energia nel caso quantistico sfruttando le simmetrie
del problema, ricordiamo brevemente come Niels Bohr spiegò i dati sperimentali sullo spettro dell’atomo
di idrogeno attraverso una trattazione intuitiva basata su un’ipotesi di quantizzazione ad hoc.
Specificamente, Bohr suppose che l’elettrone dell’atomo di idrogeno, la cui Lagrangiana dipende da
un potenziale coulombiano, potesse compiere delle orbite semiclassiche circolari e che inoltre il momento
angolare fosse quantizzato in multipli interi di ~. Dal punto di vista della meccanica quantistica non ha
significato parlare di orbite, cosı̀ come non è esatto affermare che il momento angolare sia cosı̀ quantizzato,
poiché sappiamo che la dipendenza del modulo quadro del momento angolare non dipende dal quadrato
di un numero intero, bensı̀ da l(l +1). Tuttavia, questo semplice modello riproduce esattamente lo spettro
di energia per questo problema.
Seguiamo il ragionamento fatto da Bohr facendo l’ipotesi che la dinamica sia descritta dalla Lagrangiana
L=
Ze2
1
m(ṙ2 + (rϑ̇)2 ) +
.
2
r
(11.98)
Le equazioni di Lagrange sono quindi
d ∂L
∂L
=
dt ∂ ṙ
∂r
d ∂L
∂L
=
.
dt ∂ ϑ̇
∂ϑ
(11.99)
(11.100)
176
Problemi tridimensionali
Figura 11.1: Livelli energetici per l’atomo di idrogeno
Il nostro obuettivo è di esprimere l’energia in termini del momento angolare, eliminando la dipendenza
esplicita dal raggio.
Questo può essere fatto in due passi. In primo luogo, osserviamo che se l’orbita è circolare, ṙ = 0, e
quindi la prima equazione del moto si riduce a
∂L
= 0.
∂r
(11.101)
Dalla Eq. (11.101) possiamo immediatamente dedurre che E = −T . Essa infatti implica che
mrϑ̇2 =
Ze2
,
r2
(11.102)
ma se ṙ = 0 l’energia cinetica si riduce al puro termine radiale T = 21 mr2 θ̇2 e quindi 2T = −V , da cui
E = T + V = −T.
(11.103)
Avendo espresso l’energia totale in termini di energia cinetica, è facile esprimere quest’ultima in termini
del momento angolare sfruttando la seconda equazione del moto, che implica che il momento angolare
l=
∂L
= mr2 θ̇
∂ ϑ̇
(11.104)
è costante. Sostituendo questo risultato nella prima equazione del moto Eq. (11.102)
l2
Ze2
= 2 ,
3
mr
r
(11.105)
esprimiamo il raggio in termini di momento angolare
r=
l2
,
mZe2
(11.106)
11.3 Il potenziale coulombiano
177
da cui troviamo l’espressione per l’energia cinetica indipendente dal raggio
1
1 m(Ze2 )2
1 l2
E = −T = − mr2 ϑ̇2 = −
=−
.
2
2
2 mr
2
l2
(11.107)
Imponendo la condizione di quantizzazione
l = n~
(11.108)
1 m(Ze2 )2 1
,
2
~2
n2
(11.109)
si ottiene cosı̀
E=−
che coincide con lo spettro Eq. (11.96).
11.3.3
Il problema di Keplero e le sue simmetrie
Prima di affrontare il problema quantistico, studiamo le simmetrie del problema classico, usando il
formalismo hamiltoniano, che useremo poi anche nel caso quantistico. L’Hamiltoniana è
H=
#»
p2
Ze2
−
.
2m
r
(11.110)
Abbiamo tuttavia visto che tutta la dipendenza dalle costanti del problema può essere predetta usando
l’analisi dimensionale. Studiamo quindi l’hamiltoniana
H=
#»
p2
1
− ,
2
r
(11.111)
da cui si ricavano le equazioni del moto
#»
x˙ = #»
p
#»
x
#»
p˙ = − 3 .
r
(11.112)
(11.113)
Studiamo ora le simmetrie del problema, attraverso le leggi di conservazione ad esse associate. Sappiamo già che, poiché il potenziale è invariante per rotazioni, il momento angolare si conserva. Si ha
infatti
d #»
d
L = ( #»
x × #»
p ) = 0,
dt
dt
(11.114)
d #» #»
x × #»
p˙ + #»
x˙ × #»
p = 0,
( x × p ) = #»
dt
(11.115)
in quanto
per le Eq. (11.113-11.112).
Inoltre, è possibile esibire un altro vettore le cui componenti si conservano: si tratta del vettore di
Laplace-Runge-Lenz. Per determinarne l’espressione, osserviamo che
#»
d #» #»
x
1
1
#»
#»
#»
˙
( p × L) = ( p × L)i = − 3 × L = − 3 εijk xj Lk = − 3 εijk xj εkab xa pb
dt
r
r
r
i
i
1 ia jb
1
= − 3 (δ δ − δ ib δ ja )xj xa ẋb = − 3 (xi #»
x · #»
x˙ − ẋi r2 )
(11.116)
r
r
ẋi
xi #»
x · #»
x˙
d xi
=
−
=
.
3
r
r
dt r
178
Problemi tridimensionali
Ne segue che il vettore di Laplace-Runge-Lenz
#»
x
#»
#»
M = ( #»
p × L) − ,
r
(11.117)
#»
dM
= 0.
dt
(11.118)
è una costante del moto
Vi sono di conseguenza sette quantità conservate: il momento angolare, il vettore di Lenz, e l’energia.
Tuttavia, un’orbita classica è completamente determinata da sei quantità, e quindi vi possono essere al
massimo sei costanti del moto indipendenti. Infatti, l’orbita può essere interamente ricostruita note tre
velocità e tre posizioni al tempo iniziale. Inoltre, se il sistema è invariante per traslazioni temporali la
scelta del tempo iniziale è irrilevante, e quindi ci si riduce a cinque quantità conservate. Ne segue che delle
sette quantità elencate (le tre componenti del vettore di Lenz, le tre componenti del momento angolare,
e l’energia) solo cinque sono indipendenti.
In effetti, osserviamo che il vettore di Lenz per costruzione giace nel piano dell’orbita, il quale a sua
volta è ortogonale al momento angolare: infatti,
# » #»
M · L = 0,
(11.119)
e pertanto una delle sue componenti non è indipendente. Inoltre, il modulo del vettore di Lenz è
#»
#»
L2
x
#»
#»
#»
#»
p × L) = #»
p 2 L2 + 1 − 2
(11.120)
||M ||2 = || #»
p × L||2 + 1 − 2 · ( #»
r
r
in quanto
#»
#» #»
#»
x · ( #»
p × L) = εijk xi pj Lk = ( #»
x × #»
p ) · L = L 2.
(11.121)
Si ha quindi
#»
#»
||M ||2 = 1 + 2 L 2 H,
(11.122)
e quindi anche il modulo del vettore di Lenz non è indipendente.
Si dimostra che per un’orbita ellittica il vettore di Lenz è diretto lungo l’asse maggiore dell’ellisse.
#»
Si dimostra inoltre che ||M ||2 = 2 , dove è l’eccentricità dell’orbita, che è < 1 per orbite chiuse. Si
vede perciò dalla Eq. (11.122) che l’orbita è chiusa quando l’energia (cioé l’hamitoniana valutata sulla
traiettoria) è H < 0.
11.3.4
Leggi di conservazione nel caso quantistico
Anche in meccanica quantistica, ovviamente, per una hamiltoniana idrogenoide Eq. (11.111) si conservano
il momento angolare e l’energia. Mostriamo ora che anche in questo caso si conserva pure il vettore di
Lenz. Notiamo innanzitutto che poiché pi e Lj non commutano, εijk Lk pj 6= εijk pj Lk . Dati due operatori
che non commutano, il loro anticommutatore è hermitiano. Definiamo quindi l’operatore vettore di Lenz
come
1
xi
pj Lk + Lk pj
xi
pj Lk − Lj pk
xi
= εijk
−
= εijk
− ,
(11.123)
Mi = εijk {pj , Lk } −
2
r̂
2
r̂
2
r̂
ovvero, in notazione vettoriale
#»
#»
#»
p × L) − ( L × #»
p)
x
# » ( #»
M=
− .
2
r
(11.124)
Vogliamo ora dimostrare che il vettore di operatori Eq. (11.124) commuta con l’hamiltoniana. Ricordiamo innanzitutto che
[Li , pj ] = [εiab xa pb , pj ] = εiab [xa , pj ]pb = i~εijb pb
i
j
[L , x ] = i~ε
ijb
xb .
(11.125)
(11.126)
11.3 Il potenziale coulombiano
179
I moduli dei vettori commutano con L e con le sue componenti:
[Li , r] = [Li , || #»
p ||] = 0.
(11.127)
Possiamo ora calcolare il commutatore di ciascuno dei termini che compongono il vettore di Lenz con
l’hamiltoniana. Calcoliamo per primo il commutatore
1
1 ijk
1
ε {pj , Lk }, H = εijk [pj , H]Lk + Lk [pj , H] = εijk [pj , H], Lk .
(11.128)
2
2
2
Abbiamo
j
εijk
1
εijk
x
εijk
,
L
{pj , Lk }, H =
pj , − , Lk =
(−i~)
k
2
2
r
2
|| #»
x ||3
j
i~
x
xj
xa p b + p b xa 3
= − εijk εkab
#»
3
2
|| x ||
r
j
j
i~
x a b
b ax
= − (δ ia δ jb − δ ib δ ja )
x
x
+
p
x
2
r3
r3
i
i~ x #» #» 1 i #» #» xi
i1
=−
x · p − p + p · x 3 −p
.
2 r3
r
r
r
(11.129)
Calcoliamo quindi il commutatore con l’hamiltoniana del secondo termine che compone il vettore di
Lenz:
i
i
i
x j j
x j j
1
j x
j
,p p =
p
,p +
,p p
r
2
r
r
1
xi
xj j
j
=
p i~∂j + i~∂j p
2
r
r
ij
ij
i j
i~
δ
x
x
δ
xi xj
j
=
p
− 3
− 3
+
pj
2
r
r
r
r
i
x
1
xi
i~
1
− 3 #»
x · #»
p + pi − #»
p · #»
x 3 + pi
.
(11.130)
=
2
r
r
r
r
Confrontando le Eq. (11.129) e (11.130) con la definizione del vettore di Lenz Eq. (11.124) concludiamo
che il vettore di Lenz commuta con l’hamiltoniana:
[M, H] = 0.
(11.131)
Vi sono quindi sei operatori che commutano con l’hamiltoniana: le tre componenti del momento
angolare e le tre componenti del vettore di Lenz. Anche nel caso quantistico abbiamo quindi sei costanti
del modo, in aggiunta alla hamiltoniana. Si può inoltre verificare che anche nel caso quantistico vi sono
due relazioni che legano all’hamiltoniana ed al momento angolare le sei componenti del vettore di Lenz.
In primo luogo, si era osservato che classicamente
# » #» #» # »
M · L = L · M = 0.
(11.132)
Mostriamo che anche quantisticamente vale lo stesso risultato. A questo fine, conviene riscrivere il vettore
di Lenz sfruttando l’identità Lk pj = pj Lk + [Lk , pj ] = pj Lk + εkja i~pa :
M i = εijk pj Lk +
xi
εijk εkja
i~pa − ,
2
r
(11.133)
e poiché
εijk εkja = −εijk εajk = −2δ ia
(11.134)
180
Problemi tridimensionali
si ha
M i = εijk pj Lk − i~pi −
xi
.
r
(11.135)
Ne segue quindi che
#»
# » #»
#» 1
x·L
M · L =M i Li = εijk pj Lk Li − i~ #»
p · L − #»
r
=i~εijk εkia pj La = 0,
(11.136)
#»
dove abbiamo sfruttato il fatto che L è ortogonale come operatore sia a #»
x che a #»
p , e abbiamo espresso
il primo termine a membro destro come commutatore di due momenti angolari e nel secondo passaggio
#» # »
abbiamo usato di nuovo l’identità Eq. (11.134) . Le stesse considerazioni valgono per L · M .
Classicamente il modulo del vettore di Lenz è esprimibile in termini di hamiltoniana e momento
angolare. Quantisticamente si ha
xi o
1
εijk n
1
{pj , Lk },
.
M i M i = εijk {pj , Lk }εiab {pa , Lb } + 1 −
2
2
2
r
(11.137)
Un calcolo tedioso che omettiamo porta al risultato
M 2 = 2H(L2 + ~2 ) + I.
(11.138)
Possiamo quindi determinare le relazioni di commutazione tra tutti gli operatori che commutano
con l’hamiltoniana, e chiederci quali di essi possno essere diagonalizzati simultaneamente. Le relazioni
di commutazione degli operatori di momento angolare sono note. Il commutatore tra componenti del
momento angolare e del vettore di Lenz segue dal fatto che il vettore di Lenz si trasforma come un
vettore sotto rotazioni, essendo la somma di un vettore, e di un prodotto esterno fra vettori (che è
anch’esso un vettore):
[Li , M j ] = i~εijk M k .
(11.139)
Resta infine da calcolare il commutatore tra le diverse componenti di M . Anche in questo caso, ci
limitiamo a dare il risultato del calcolo:
[M i , M j ] = −2Hi~εijk Lk .
(11.140)
Le equazioni Eq. (11.139-11.140), assieme alle consuete relazioni di commutazione Eq. (10.30) tra
componenti del momento angolare ci danno l’insieme completo di relazioni di commutazione tra i sei
operatori che commutano con l’hamiltoniana (di cui cinque sono indipendenti fra loro). Queste relazioni
ci permettono di determinare lo spettro nonché un insieme di costanti del moto.
11.3.5
Costruzione dello spettro
Possiamo ora determinare lo spettro utilizzando i risultati ottenuti. Il punto di partenza è l’osservazione che la Eq. (11.138) lega lo spettro dell’hamiltoniana a quelli degli operatori M 2 e L2 . Pertanto, il
problema della determinazione dello spettro dell’hamiltoniana si riduce al problema della determinazione
dello spettro di L2 ed M 2 . Notiamo che la relazione di commutazione Eq. (11.140) mescola gli operatori momento angolare e vettore di Lenz, e quindi non è a priori ovvio che sia possibile diagonalizzare
simultaneamente H, L2 ed M 2 .
Per ottenere questo risultato, innanzitutto semplifichiamo queste relazioni di commutazione studiandone gli elementi di matrice in un autostato di energia
H|Ei = E|Ei,
(11.141)
che non abbiamo ancora determinato ma di cui supponiamo l’esistenza. Agendo su questo stato
[M i , M j ] = −2Ei~εijk Lk .
(11.142)
11.3 Il potenziale coulombiano
181
Ricordando che E < 0 per stati legati, ciò suggerisce di introdurre dei nuovi operatori definiti come
Mi
Ni = √
.
−2E
(11.143)
Le relazioni di commutazione di questi operatori ridefiniti con gli operatori di momento angolare hanno
la semplice forma
[Li , N j ] = i~εijk Nk
i
j
ijk
[N , N ] = i~ε
Lk ,
(11.144)
(11.145)
che, assieme alle relazioni di commutazione fra generatori del momento angolare tra loro, ricordano quelle
dei generatori del gruppo di Lorentz, con gli operatori Ni identificati con i generatori dei boost. In termini
#»
del vettore N la relazione Eq. (11.138) che lega l’energia a momento angolare totale e quadrato del vettore
di Lenz diventa
−2EN 2 = 2E(L2 + ~2 ) + 1,
(11.146)
−1 = 2E(N 2 + L2 + ~2 ).
(11.147)
ossia
Ma ora notiamo che le relazioni di commutazione Eq. (11.144-11.145), insieme a quelle degli operatori
di momento angolare, possono essere poste in una forma ben nota definendo gli operatori
F±i =
1 i
(L ± N i ).
2
(11.148)
Ovviamente, possiamo considerare come costanti del moto equivalentemente i sei operatori Li ed N i ,
oppure i sei operatori F±i . Ma gli operatori F±i soddisfano le stesse relazioni di commutazione di due
operatori di momento angolare indipendenti! Si ha infatti
1 i
εijk k
[L ± N i , Lj ± N j ] = i~
(L + Lk ± N k ± N k ) = i~εijk F±k
4
4
1
εijk k
[F±i , F∓j ] = [Li ± N i , Lj ∓ N j ] = i~
(L − Lk ± N k ∓ N k ) = 0.
4
4
[F±i , F±j ] =
(11.149)
(11.150)
Capiamo quindi in definitiva che l’insieme di leggi di conservazione corrisponde ad avere due insiemi
di operatori, le cui regole di commutazione sono come quelle di momenti angolari che commutano con
l’hamiltoniana: gli operatori F±i . Un insieme completo di operatori diagonalizzabili simultaneamente
all’hamiltoniana è quindi dato dai quattro operatori F+2 , F−2 , F+z , F−z . Nel linguaggio della Sezione 11.2.4,
diciamo che la simmetria dell’hamiltoniana è data dal gruppo O(3)×O(3). Si dimostra che questo gruppo
coincide con il gruppo O(4) - questa è la ragione dell’analogia delle relazioni di commutazione Eq. (11.144)
con quelle del gruppo di Lorentz. Il gruppo O(4) è infatti il gruppo di trasformazioni che conservano la
norma di un vettore in uno spazio quadridimensionale, ossia r2 = x21 + x22 + x23 + x24 ; il gruppo di Lorentz
è il gruppo di trasformazioni che conservano la norma di un vettore quadridimensionale, ma con un segno
cambiato, ossia d2 = x21 + x22 + x23 − x20 .
Ricordiamo ora che solo cinque delle sei costanti del moto sono indipendenti dalla hamiltoniana, per
via della relazione sulle componenti del vettore di Lenz Eq. (11.136). Questa implica che gli autovalori
di F+ e F− non sono indipendenti. Infatti
1 2
(L + N 2 ) = F−2
(11.151)
4
#» #» #» #»
#» # » # » #»
dato che L · N = N · L = 0, essendo L · M = M · L = 0. Pertanto gli autostati di F+2 sono anche autostati
di F−2 con lo stesso autovalore.
F+2 =
182
Problemi tridimensionali
Possiamo ora riscrivere in termini degli operatori F±2 l’espressione Eq. (11.147) per l’autovalore di
energia:
−1 = 2E(N 2 + L2 + ~2 ) = 2E(4F+2 + ~2 ).
(11.152)
Il problema della determinazione dello spettro di energia è cosı̀ ridotto al problema della determinazione
dello spettro di due operatori di momento angolare, con il vincolo che il loro autovalore sia il medesimo.
z z
Gli autostati ed autovalori sono quindi gli stati |f f+
f− i tali che
z z
z z
z z
F+2 |f f+
f− i = F−2 |f f+
f− i = ~2 f (f + 1)|f f+
f− i
z z
F±z |f f+
f− i
=
z
~f±
|f fz+ fz− i,
(11.153)
(11.154)
con
z
−f ≤ f±
≤ f.
(11.155)
Le Eq. (11.137-11.146) implicano che gli stati |f fz+ fz− i sono anche autostati dell’hamiltoniana, con
autovalore dato da
Ef = −
1
1
1
=− 2
.
2(~2 + 4~2 f (f + 1))
2~ (1 + 2f )2
(11.156)
Quindi lo spettro dell’hamiltoniana è
En = −
1 1
2~2 n2
(11.157)
con
n = 2f + 1,
(11.158)
intero ≥ 1; n è detto numero quantico principale. Gli autostati sono completamente determinati dagli
z z
autovalori di H, F+z e F−z e possono quindi essere scritti equivalentemente come |nf+
f− i, tali che
z z
z z
H|nf+
f− i = En |nf+
f− i,
(11.159)
con En dato dalla Eq. (11.157).
Possiamo infine ripristinare i fattori finora eliminati per comodità, sfruttando le Eq. (11.88,11.96):
troviamo cosı̀
En = −
11.3.6
m(Ze2 )2 1
.
2~2 n2
(11.160)
Degenerazione e base fisica
z z
Avendo stabilito che gli autostati di energia del sistema sono gli stati |nf+
f− i, possiamo facilmente
z
determinarne la degenerazione, osservando che tutti gli stati aventi diversi valori di f±
sono associati allo
stesso autovalore di energia; ma fisso n corrisponde a fisso f secondo la Eq. (11.158), e per dato f i valori
z
ammessi di f±
sono dati dalla Eq. (11.155) e sono quindi pari a
d = (2f + 1)(2f + 1) = (2f + 1)2 = n2 ,
(11.161)
È naturalmente preferibile esprimere gli autostati di energia in una base in cui sono diagonali degli
operatori aventi un’interpretazione fisica immediata. Ora, osserviamo che
F+ + F− = L.
(11.162)
Quindi, gli autostati di F+2 = F−2 , F+z , F−z possono essere scritti come autostati di F+2 = F−2 , L2 , Lz
mediante l’uso di coefficienti di Clebsch-Gordan:
X
z z
z z
|n f+
f− i =
|nlmihnlm|n f+
f− i,
(11.163)
lm
11.3 Il potenziale coulombiano
183
dove
F+2 |nlmi = F−2 |nlmi = ~2 f (f + 1)|nlmi
L2 |nlmi = ~2 l(l + 1)|nlmi
(11.164)
Lz |nlmi = ~m|nlmi.
I valori possibili di l si ricavano dalle regole di composizioni dei momenti angolari: ricordando la
Eq. (10.152) sono
0 ≤ l ≤ 2f = n − 1.
(11.165)
Ne segue che per fisso n, tutti e soli i valori del momento angolare 0 ≤ l ≤ n−1 sono permessi. Naturalente,
questo vuol dire che per fisso l tutti e soli i valori del numero quantico principale n ≥ l + 1 sono permessi,
come si era affermato nella Eq. (11.97). La degenerazione totale del livello n-esimo è ovviamente sempre
la stessa, come possiamo verificare esplicitamente. Fissato f , abbiamo 2f + 1 = n possibili valori per l,
e, fissato quest’ultimo, 2l + 1 possibili valori per m. Si ha quindi
d=
n−1
X
l=0
11.3.7
1
(2l + 1) = 2 (n − 1)n + n = n2 .
2
(11.166)
Autofunzioni nella base delle coordinate
Il metodo algebrico ci ha permesso di determinare completamente lo spettro senza risolvere l’equazione
differenziale Eq. (11.84), tuttavia non ci ha dato nessuna informazione sulla forma delle autofunzioni
hr ϑ ϕ|n l mi = Ylm (ϑ, ϕ)φnl (r).
(11.167)
Queste possono però essere costruite come autofunzioni degli operatori F + e F − , che a loro volta hanno
la forma di operatori di momento angolare. Le loro autofunzioni possono quindi essere determinate con
una procedura analoga a quella che ha portato alla costruzione delle armoniche sferiche, utilizzando la
forma esplicita degli operatori F + e F − nella base delle coordinate.
La costruzione dello stato fondamentale |1 0 0i è particolarmente semplice: infatti esso ha f = 0, e
corrisponde quindi ad un autofunzione di autovalore nullo di (F + )2 = (F − )2 . Ha quindi autovalore nullo
della componente di F + e F − lungo qualunque asse:
N |1 0 0i = (F + − F − )|1 0 0i = 0.
(11.168)
L|1 0 0i = (F + + F − )|1 0 0i = 0.
(11.169)
Inoltre, esso ha l = 0 e quindi
Le Eq. (11.168,11.169) determinano completamente la forma dell’autofunzione Eq. (11.167).
Ricordando (Eq. (11.143)) che N è proporzionale al vettore di Lenz, e la definizione di quest’ultimo
in termini di operatori canonici Eq. (11.124), ed in particolare la sua forma Eq. (11.135), si ha
xi
|1 0 0i = 0,
(11.170)
εijk pj Lk − i~pi −
r
ossia, usando la Eq. (11.169),
xi
i
i~p +
|1 0 0i = 0,
r
(11.171)
#»
x #»
i~ · p + 1 |1 0 0i = 0,
r
(11.172)
da cui
184
Problemi tridimensionali
#»
∂
cioè, ricordando che nella base delle coordinate, Eq. (9.108), xr · #»
p = −i~ ∂r
, si riduce a
∂
~2
+ 1 φ10 (r) = 0.
∂r
(11.173)
La soluzione è immediata:
φ10 (r) = N exp −
r
.
~2
La costante di normalizzazione si determina dalla condizione
Z ∞
Z ∞
2r
2
2
2
dr r2 exp − 2 = 1,
dr r |φ10 (r)| = |N1 |
~
0
0
(11.174)
(11.175)
da cui, ricordando che
∞
Z
dx xn e−σx =
0
n!
,
σ n+1
(11.176)
si ha
φ10 (r) =
2
r
exp − 2 .
~3
~
(11.177)
L’autofunzione completa Eq. (11.167) si trova immediatamente osservando che l’armonica sferica
Y00 (ϑ, ϕ) è costante, ed è quindi completamente determinata dalla normalizzazione
1
Y00 (ϑ, ϕ) = √ ,
4π
(11.178)
1 1
r
hr ϑ ϕ|100i = ψ100 (ϑ, ϕ, r) = Y00 (ϑ, ϕ)φ10 (r) = √ 3 exp − 2 .
~
π~
(11.179)
da cui infine
Possiamo infine ripristinare le costanti dimensionali: ricordando le Eq. (11.85,11.86), ma notando
che la dipendenza da ~ è stata mantenuta nei calcoli precedenti, abbiamo che la dipendenza da esse si
ripristina sostituendo nella Eq. (11.179) il raggio adimensionale con la sua espressione in termini di raggio
di Bohr, ossia r → r/a0 = r(Ze2 m). Troviamo cosı̀
3
1 (Ze2 m) 2
Ze2 mr
ψ100 (ϑ, ϕ, r) = √
exp −
.
3
~
~2
π
(11.180)
Per costruire gli stati eccitati si può procedere in vari modi equivalenti. Una possibilità è di costruirli
come autostati di (F ± )2 e fz± , e poi determinare da essi gli autostati di L2 e Lz utilizzando i coefficienti
di Clebsch-Gordan. Una possibilità alternativa è di usare un metodo analogo a quello seguito nel caso
dell’oscillatore armonico isotropo tridimensionale, ossia di definire opportuni operatori di creazione e
distruzione generalizzati
dl = ipr +
l~
1
− .
r
~l
(11.181)
Con argomenti analoghi a quelli usati per l’oscillatore armonico, si dimostra che essi hanno la proprietà
che
d†l+1 |n l mi = K+ |n l + 1 mi,
(11.182)
dl |n l mi = K+ |n l − 1 mi.
(11.183)
Per ogni n, lo stato con il massimo valore di l = n − 1 è annichilato dall’operatore di innalzamento
d†n |nn − 1mi = 0,
(11.184)
11.3 Il potenziale coulombiano
185
da cui, nella base delle coordinate,
∂
1
~n
1
−~
+
+
−
φn,n−1 (r) = 0,
∂r r
r
~n
(11.185)
ossia
dφn,n−1
dr
dr
= (n − 1) − 2 ,
φ
r
n~
(11.186)
la cui soluzione è
φn,n−1 (r) = N rn−1 exp −
r
r
= Ln,n−1 (r) exp − 2
n~2
n~
(11.187)
dove N è una costante di normalizzazione e nell’ultimo passaggio abbiamo estratto il fattore polinomiale
in un’opportuna funzione Ln,n−1 (r).
Figura 11.2: Andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno
Gli stati successivi si costruiscono agendo con dl sullo stato con l = lmax :
|n n − 2i = dn1 |n n − 1i.
(11.188)
Manifestamente, l’azione dell’operatore dn−1 sull’autofunzione (11.187) produce termini proporzionali a
rn−1 e rn−2 volte l’esponenziale, quindi non cambia il grado del polinomio, che resta determinato dal
valore di n. L’autofunzione generica per l’n-esimo livello è quindi un polinomio Ln,l (r) di grado n − 1
volte un esponenziale della forma Eq. (11.187). L’ortonormalità degli stati
Z
2r
hn0|n0 0i = dr r2 exp − 2
Ln,0 (r)Ln0 ,0 (r) = δnn0
(11.189)
~ n
implica che i polinomi Ln,0 (r) associati a l = 0 formano una base ortonormale completa sotto integrazione nell’intervallo [0, ∞] con un peso esponenziale. Essi sono legati ad una nota famiglia di polinomi
ortogonali, i polinomi di Laguerre.
L’andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno è mostrato in Fig. 11.2,
mentre in Fig. 11.3 sono mostrate le autofunzioni corrispondenti allo stato fondamentale e ad alcuni dei
primi livelli eccitati.
186
Problemi tridimensionali
Figura 11.3: Alcune autofunzioni radiali dell’atomo di idrogeno
Parte IV
Metodi di approssimazione
Capitolo 12
Il limite classico della meccanica
quantistica
L’approssimazione semiclassica della meccanica quantistica, al di là del suo interesse per talune applicazioni, è di grande rilevanza concettuale in quanto permette di capire il legame tra la formulazione classica
e quella quantistica della meccanica.
12.1
L’azione in meccanica classica
Finora, la meccanica quantistica è stata formulata da un punto di vista hamiltoniano. Nel caso classico,
un sistema hamiltoniano è descritto da un punto nello spazio delle fasi (p, q) per una singola particella
unidimensionale, con ovvia generalizzazione al caso di molte particelle in molte dimensioni. I suoi moti
sono traiettorie nello spazio delle fasi, ottenute risolvendo le equazioni di Hamilton, del primo ordine nelle
derivate temporali di p e q. Nel caso quantistico p e q sono operatori non commutanti, quindi il vettore di
stato del sistema può essere espresso in termini di una base di autofunzioni dell’uno o dell’altro operatore,
e fornisce la probabilità di risultati delle misure dell’una o dell’altra osservabile.
Da un punto di vista classico è molto naturale la formulazione lagrangiana, in cui le leggi del moto
vengono date specificando una traiettoria q(t), e scrivendo una equazione differenziale del secondo ordine
che determina tale traiettoria, date condizioni iniziali per le posizioni e le velocità: questo punto di
vista differisce da quello hamiltoniano perché si determina una traiettoria q(t) risolvendo un’equazione
differenziale del secondo ordine, mentre nel caso hamiltoniano di risolvono due equazioni differenziali del
primo ordine accoppiate che determinano le traiettorie p(t) e q(t).
Il punto di vista hamiltoniano sembra prestarsi male ad una estensione al caso quantistico, in quanto
il principio di indeterminazione ci impedisce di dare quantisticamente un senso al concetto di traiettoria,
e quindi condizioni iniziali per la posizione e la velocità non possono simultaneamente essere assegnate. Questa difficoltà può essere superata utilizzando un approccio in cui le traiettorie classiche sono
determinate assegnando il punto iniziale ed il punto finale di una traiettoria.
12.1.1
L’azione in meccanica classica
Un moto classico che congiunge due punti nello spazio delle configurazioni a tempi dati, q0 (t0 ) e q1 (t1 ), è
completamente determinato dal principio di minima azione. Come è noto, l’azione classica è una funzione
del punto iniziale, del punto finale, del tempo iniziale e del tempo finale, ed è pari all’integrale in dt della
Lagrangiana del sistema:
Z
t1
S(q1 , t1 , q0 , t0 ) =
dt L(q, q̇, t)
t0
(12.1)
190
Il limite classico della meccanica quantistica
con le condizioni al contorno q(t0 ) = q0 e q(t1 ) = q1 . L’azione cosı̀ definita è un funzionale, ossia una
quantità che associa ad una funzione, la traiettoria classica nello spazio delle configurazioni, un numero,
il valore dell’azione stessa.
Possiamo calcolare la variazione della azione sotto una variazione della traiettoria, variando cioè la
posizione q(t) e la velocità q̇(t) ad ogni tempo t:
t1
Z
dt
δS =
∂L
∂q
t0
Poiché δ q̇ =
d
dt δq,
∂L δ q̇ .
∂ q̇
(12.2)
∂L d δq
∂ q̇ dt
(12.3)
δq +
si ha
t1
Z
dt
δS =
∂L
t0
∂q
δq +
ed integrando per parti
Z t1 Z t1 h
d ∂L i
∂L t1
d ∂L ∂L
d ∂L ∂L
δq +
δq +
−
δq =
dt
−
δq .
δS =
dt
∂q
dt ∂ q̇
dt ∂ q̇
∂q
dt ∂ q̇
∂ q̇
t0
t0
t0
(12.4)
Se imponiamo che il punto iniziale e finale della traiettoria siano fissi, δq(t0 ) = δq(t1 ) = 0, la variazione
è
Z
t1
δS =
dt
∂L
t0
∂q
−
d ∂L δq.
dt ∂ q̇
(12.5)
Si vede cosı̀ che le traiettorie classiche corrispondono alle curve lungo le quali l’azione è stazionaria, ossia
δS = 0: infatti la Eq. (12.5) mostra che tale condizione è soddisfatta se la traiettoria classica soddisfa le
equazioni del moto di Lagrange
d ∂L
∂L
−
= 0.
∂q
dt ∂ q̇
(12.6)
L’azione classica fornisce quindi uno strumento per calcolare la traiettoria classica per date posizioni inziali
e finali: essa corrisponde al cammino che congiunge fisse e date posizioni iniziali e finali minimizzando
l’azione stessa.
Inoltre, l’azione se valutata lungo la traiettoria classica stessa ha un’interpretazione suggestiva, che ci
fonisce una formulazione “ondulatoria” della meccanica classica. Per capirlo, osserviamo che l’Eq. (12.5)
determina anche la variazione dell’azione lungo una traiettoria classica al variare del tempo t1 . Infatti
lungo una traiettoria classica il termine in parentesi nell’ultimo passaggio della Eq. (12.4) si annulla e, se
q(t0 ) è fisso ma q(t1 ) varia, si ha
δS(t1 ) =
∂L
δq(t1 ).
∂ q̇
(12.7)
Stiamo quindi vedendo l’azione da un punto di vista differente. Quando abbiamo ricavato le equazioni
del moto, abbiamo considerato l’azione come un funzionale sullo spazio di tutte le possibili traiettorie
classiche, con fissate condizioni al contorno: le traiettorie classiche sono quelle che minimizzano l’azione.
Invece nella Eq. (12.7) vediamo l’azione come funzione della traiettoria classica, S = S(q(t), t) avente
una certa condizione iniziale fissata e valutata non più sullo spazio di tutte le traiettorie, ma solo sulla
traiettoria che minimizza l’azione stessa. Allo scorrere del tempo, la traiettoria viene percorsa, e l’azione
assume valori numerici differenti (si veda la Fig. 12.1), dipendendo dal tempo sia direttamente, sia
attraverso q(t). Essa è una funzione della posizione q e del tempo t, perché essa è l’integrale definito
della lagrangiana rispetto al tempo fino a t (da cui quindi l’azione dipende perché è il limite superiore
d’integrazione), eseguito lungo la traiettoria classica, e soggetto alla condizione al contorno che al tempo t
la particella si trovi in q, da cui quindi l’azione dipende perché questa condizione al contorno individua la
particolare traiettora classica lungo la quale si integra. Naturalmente, l’azione dipende anche dal tempo
12.1 L’azione in meccanica classica
191
Figura 12.1: Variazione dell’azione lungo la traiettoria classica: q0 è fissato, mentre q(t1 ) varia lungo la
traiettoria classica.
inziale t0 e dalla posizione q0 , infatti la traiettoria classica è determinata noti la posizione iniziale e quella
finale ai tempi iniziale e finale, ma noi ne consideriamo la variazione per fissi t0 e q0 .
Avendo capito il significato della variazione dell’azione lungo la traiettoria osserviamo ora che ∂L
∂ q̇ = p,
e quindi la Eq. (12.7) dice che
p(t1 ) =
∂S
(q1 , t1 ),
∂q1
(12.8)
in altri termini, l’impulso può essere visto come la derivata parziale dell’azione, vista come funzione del
tempo e della coordinata lungo una traiettoria classica, per fissa condizione iniziale. Tutto l’argomento
si generalizza in modo immediato al caso in cui le coordinate lagrangiane siano più d’una, e quindi in
particolare al caso multidimensionale, per cui troviamo che
pi (t1 ) =
∂S
(q1 , t1 ),
∂q1i
(12.9)
vale a dire che l’impulso è il gradiente dell’azione classica lungo la traiettoria.
La Equazione (12.9) esprime l’impulso classico come gradiente dell’azione e ricordare quindi l’azione
dell’operatore impulso quantistico sulle funzioni d’onda nella base delle coordinate. Fa quindi pensare
all’azione come una sorta di “onda” che determina la traiettoria classica. L’analogia può resa ancora più
precisa riformulando la meccanica classica in modo opportuno.
12.1.2
La teoria di Hamilton-Jacobi
La formulazione di Hamilton-Jacobi della meccanica classica permette di spingere un po’ oltre l’interpretazione che abbiamo appena suggerito, dell’azione come una sorta di onda che determina i moti classici.
In questa formulazione, si sfrutta la Eq. (12.8) per ricavare una equazione alle derivate parziali che determina completamente l’azione lungo le traiettorie classiche come funzione di q e del tempo t. Nota l’azione
gli impulsi e quindi le traiettorie classiche possono essere derivati da essa per differenziazione usando la
Eq. (12.8) stessa.
Considerando dapprima per semplicità un caso unidimensionale, la variazione dell’azione nel tempo
lungo una traiettoria classica è
dS
∂S
∂S
∂S
=
+
q̇ =
+ pq̇.
dt
∂t
∂q
∂t
(12.10)
dS
= L(q, q̇, t)
dt
(12.11)
Ma
e poiché L = pq̇ − H
∂S
+ pq̇,
∂t
(12.12)
∂S
+ H(q, p, t) = 0.
∂t
(12.13)
pq̇ − H =
vale a dire
192
Il limite classico della meccanica quantistica
Data la relazione Eq. (12.8) tra l’Hamiltoniana e gli impulsi possiamo scrivere l’equazione (12.13)
come
∂S
∂S
+ H q,
, t = 0,
(12.14)
∂t
∂q
nota come equazione di Hamilton-Jacobi). La funzione S(q, t) determinata risolvendo tale equazione,
ovvero l’azione classica valutata in funzione del tempo lungo una traiettoria classica, è nota come funzione
principale di Hamilton.
Facciamo un esempio esplicito per capire il senso di queste manipolazioni. Consideriamo l’Hamiltoniana dell’oscillatore armonico
H=
1
p2
+ mω 2 q 2 .
2m 2
In tal caso, l’equazione di Hamilton-Jacobi (12.14) diventa
2
∂S
1
1
∂S
+ mω 2 q 2 = 0.
+
∂t
2m ∂q
2
(12.15)
(12.16)
Poiché l’hamiltoniana non dipende dal tempo, l’energia (che coincide con la hamiltoniana valutata su
una traiettoria classica) è conservata, e quindi la Eq. (12.14) immediatamente implica che anche ∂S
∂t non
dipende dal tempo:
∂S
= −E.
∂t
(12.17)
È quindi possibile risolvere l’equazione differenziale per separazione di variabili: la soluzione generale
della Eq. (12.17) è manifestamente
S(q(t), t) = −Et + W (q(t))
dove W è detta funzione caratteristica di Hamilton. Sostituendo nella Eq. (12.14) si ha perciò
2
1
dW
1
+ mω 2 q 2 = E,
2m dq
2
(12.18)
(12.19)
da cui otteniamo
√
Z
r
q
W (q) = ± 2mE
dq
0
1−
q0
1
mω 2 q 0 2 .
2E
(12.20)
Possiamo quindi determinare la funzione caratteristica di Hamilton calcolando l’integrale Eq. (12.20).
Nota quest’ultima come funzione di q ne ricaviamo immediatamente l’impulso al tempo t mediante la
Eq. (12.8), e da questo risaliamo immediatamente alla traiettoria classica ponendo p = mq̇ ed integrando
l’equazione del primo ordine.
Le Eq. (12.16,12.20) si generalizzano facilmente al caso di un generico potenziale indipendente dal
tempo: ponendo
H=
p2
+ V (q)
2m
(12.21)
otteniamo
p=
dW
dq
=±
p
2m[E − V (q)].
(12.22)
Infine, possiamo generalizzare al caso tridimensionale, dove
H=
#»
p2
+ V ( #»
q ).
2m
(12.23)
12.2 L’azione in meccanica quantistica
193
In tal caso si ha
#»
(∇W )2 = 2m(E − V ( #»
q ))
(12.24)
#»
#»
p = ∇W ( #»
q ).
(12.25)
e
Quindi è possibile determinare il gradiente di W prendendo la radice quadrata di tale espressione e
integrando l’espressione ottenuta lungo un arco.
Vi sono tecniche più efficienti per risolvere le equazioni del moto usando il metodo di Hamilton-Jacobi,
ma quello che preme osservare qui è che il metodo consiste nel determinare una funzione, la funzione
principale di Hamilton, ossia la azione valutata lungo le traiettorie classiche, a partire dalla quale gli
impulsi si possono ottenere per differenziazione. In questo senso la funzione principale di Hamilton
S(q; t), e, nel caso di sistemi invarianti per traslazioni temporali, la funzione caratteristica W (q) che la
determina completamente, possono essere viste come “funzioni d’onda” classiche. Notiamo infatti che le
Eq. (12.25-12.24) ci dicono rispettivamente che il vettore tangente alla traiettoria classica è diretto lungo
il gradiente di W ( #»
q ), e che la sua lunghezza (cioè il modulo della velocità classica) è pari alla lunghezza
del gradiente, cioè sostanzialmente alla pendenza. La situazione è quindi analoga a quella di un oggetto
sospinto da un onda.
La velocità dell’oggetto sospinto dall’onda può essere quindi interpretata come una “velocità di gruppo”, distinta dalla velocità di fase con cui si muovono i fronti d’onda. Quest’ultima si trova notando
facilmente per un sistema invariante per traslazioni temporali, per il quale vale la Eq. (12.18). Infatti,
una superficie q0 (t) su cui S costante si muove a velocità fissata dalla condizione dS
dt |q0 (t) = 0 da cui
dW
q̇0 − E = 0,
dq
(12.26)
e quindi usando la Eq. (12.19)
q̇0 =
E
p
= vf ,
± 2m[E − V (q0 (t))]
(12.27)
che è quindi la velocità di fase. La velocità della singola traiettoria si trova invece usando la Eq. (12.22),
ed è data da
r
2[E − V (q)]
q̇ = ±
.
(12.28)
m
12.2
L’azione in meccanica quantistica
Passiamo al caso quantistico studiando i “moti” in meccanica quantistica. Nel caso quantistico, non è
possibile definire una traiettoria, però è possibile calcolare la probabilità che un sistema che al tempo t0
si trova in q0 al tempo t venga rivelato in q. L’insieme di tali probabilità al variare del tempo t fornisce
l’analogo quantistico della traiettoria classica. Vedremo che anche queste probabilità, e le ampiezze che
le determinano, possono essere calcolate in termini della azione del sistema.
12.2.1
Il propagatore
Sappiamo già che l’evoluzione temporale di uno stato quantistico è deterministica, ed è data dall’azione
di un operatore di evoluzione temporale S(t, t0 ) che, agendo sullo stato al tempo t0 , |ψ(t0 )i, fornisce lo
stato al tempo t:
|ψ(t)i = S(t, t0 )|ψ(t0 )i.
(12.29)
La funzione d’onda al tempo finale si ottiene proiettando |ψ(t)i sugli autostati della posizione:
ψ(q; t) = hq|ψ(t)i = hq|S(t, t0 )|ψ(t0 )i,
(12.30)
194
Il limite classico della meccanica quantistica
che possiamo riscrivere come
Z
Z
0
0
0
ψ(q; t) = dq hq|S(t, t0 )|q ihq |ψ(t0 )i = dq 0 hq|S(t, t0 )|q 0 iψ(q 0 ; t0 ).
(12.31)
Vediamo cosı̀ che la funzione d’onda al tempo t si può ottenere facendo agire per convoluzione sulla
funzione d’onda iniziale l’elemento di matrice dell’operatore di evoluzione temporale tra autostati della
posizione:
K(qf , tf ; qi , ti ) ≡ hqf |S(tf , ti )|qi i.
(12.32)
La K(qf , tf ; qi , ti ) è detta propagatore, ed ha un ruolo analogo alla funzione di Green dell’elettrodinamica
classica, che permette di determinare il campo (elettrico o magnetico) generato da una distribuzione di
carica o corrente: il propagatore permette di determinare la funzione d’onda “finale” determinata da una
funzione d’onda “iniziale”. Notare che non necessariamente tf > ti , cioé il tempo finale può anche essere
antecedente a quello iniziale, perché l’evoluzione temporale quantistica è deterministica, unitaria e quindi
reversibile.
Possiamo interpretare fisicamente il propagatore calcolando la Eq. (12.30) nel caso in cui al tempo t0
il sistema si trova in un autostato della posizione, ossia
hq 0 |ψ(t0 )i = δ(q0 − q 0 ).
(12.33)
In tal caso si ha
Z
ψ(q; t) =
dq 0 K(q, t; q 0 , t0 )δ(q0 − q 0 ) = K(q, t; q0 , t0 ).
(12.34)
Il propagatore è quindi la funzione d’onda nello spazio delle posizioni q al tempo t, per un sistema che
al tempo iniziale t0 si trova in un autostato della posizione q0 . Da questo punto di vista è definito
analogamente alla funzione principale di Hamilton, che è stata anch’essa costruita come una quantità (la
azione) definita per un sistema (classico) che al tempo t si trova in q, mentre al tempo iniziale t0 si trova
in q0 .
Una importante proprietà del propagatore, che esprime la causalità dell’evoluzione temporale, è la sua
associatività. Si ha infatti che, applicando ripetutamente l’operatore di evoluzione temporale,
|ψ(t)i = S(t, t1 )|ψ(t1 )i = S(t, t1 )S(t1 , t0 )|ψ(t0 )i = S(t, t0 ))|ψ(t0 )i,
(12.35)
S(t, t0 ) = S(t, t1 )S(t1 , t0 )
(12.36)
da cui
e quindi, introducendo una risoluzione dell’identità,
Z
K(q, t; q0 , t0 ) = hq|S(t, t0 )|q0 i = dq1 hq|S(t, t1 )|q1 ihq1 |S(t1 , t0 )|q0 i
Z
= dq1 K(q, t; q1 , t1 )K(q1 , t1 ; q0 , t0 ),
(12.37)
che mostra come il propagatore sia associativo sotto convoluzione.
12.2.2
Propagatore ed azione
Vogliamo ora calcolare il propagatore esplicitamente. Ovviamente, ne conosciamo già l’espressione in
forma hamiltoniana: per hamiltoniane indipendenti dal tempo,
1
S(t, t0 ) = e i~ H(t−t0 ) .
(12.38)
Ora ne vogliamo determinare un’espressione in forma lagrangiana. Affrontiamo il problema dapprima per
un’evoluzione temporale infinitesima, da t0 a t = t0 +ε. Consideriamo per semplicità un’hamiltoniana della
12.2 L’azione in meccanica quantistica
195
2
p̂
forma Ĥ = 2m
+ V̂ (q̂) (la generalizzazione ad hamiltoniane dipendenti dal tempo e potenziali dipendenti
dalle velocità è possibile, ma richiede un po’ di lavoro in più). Utilizzando la definizione Eq. (12.32)
del propagatore, con la forma Eq. (12.38) dell’operatore di evoluzione temporale, e sviluppando al primo
ordine in ε, si ha
2
p̂
ε
+ V (q̂) |qi
K(q , t + ε; q, t) = hq | exp
i~ 2m
2
Z
p̂
ε
0
0 0
0
= dpdp hq |p ihp | 1 +
+ V (q̂) |pihp|qi
i~ 2m
Z
i
ε
d
dp0 dp i q0 p0
ε p2
e~
δ(p − p0 ) + V i~ 0 δ(p0 − p) e− ~ qp , (12.39)
=
δ(p0 − p) +
2π~
i~ 2m
i~
dp
0
0
dove abbiamo sfruttato il fatto che le autofunzioni dell’impulso, correttamente normalizzate come hp|p0 i =
1
exp( ~i pq), e, nell’ultimo passaggio, del fatto che nella base degli impulsi
δ(p − p0 ), sono hq|pi = √2π~
∂
δ(p − p0 ),
∂p0
∂
0
hp |V̂ (q̂)|pi = V i~ 0 δ(p − p0 ).
∂p
hp0 |q̂|pi = i~
(12.40)
(12.41)
Ma ora, osservando che
i 0
∂ − i p0 q
e ~
= qe− ~ p q ,
∂p0
n
i 0
i 0
∂
i~ 0
e− ~ p q = q n e− ~ p q ,
∂p
i 0
i 0
∂
V i~ 0 e− ~ p q = V (q)e− ~ p q ,
∂p
i~
(12.42)
(12.43)
(12.44)
troviamo immediatamente
2
i
ε
dp0 dp i q0 p0
p
∂
e~
1+
+ V i~ 0
δ(p0 − p)e− ~ qp
2π~
i~ 2m
∂p
2
Z
dp i (q0 −q)p
p
ε
=
e~
1+
+ V (q)
.
2π~
i~ 2m
K(q 0 , t + ε; q, t) =
Z
(12.45)
Notiamo ora che, per una evoluzione temporale infinitesima, possiamo porre
q 0 = εq̇ + q :
(12.46)
infatti, la velocità è per definizione
q̇ = lim
∆t→0
∆q
.
∆t
(12.47)
Si ha perciò
2
dp i pq̇ε
p
ε
e~
1+
+ V (q)
2π~
i~ 2m
Z
p2
dp iε
pq̇− 2m −V (q)
=
e~
,
2π~
K(q 0 , t + ε; q, t) =
Z
(12.48)
dove nel secondo passaggio abbiamo esponenziato il termine in ε, a meno di infinitesimi di ordine superiore.
196
Il limite classico della meccanica quantistica
Ma l’integrale in p può ora essere eseguito come integrale gaussiano:
r
Z
Z
√ 2
p
2
1
iε 2 m
1 − i εV (q)
1 iε
2~m
√
− iε
−q̇ m
mq̇ 2 −V (q))
q̇ 2
(
~
2
2m
~
2
~
~
K(q , ε, q) =
=
e
dp e
e
e
dλ e−λ
2π~
2π~
iε
r
2
1
m iε
(12.49)
e ~ ( 2 mq̇ −V (q)) .
=
2πiε~
0
Ricordando che dt = t − t0 = ε, riconosciamo il fattore di fase ad esponente come l’elemento di azione
infinitesima lungo l’evoluzione temporale data, infatti
1 2
ε
mq̇ − V (q) = dtL(q, q̇) = idS,
(12.50)
2
da cui troviamo immediatamente che per un’evoluzione temporale infinitesima
r
m idS(t)
e ~ .
K(q 0 , ε, q) =
2πiε~
(12.51)
L’elemento di matrice del propagatore tra due autostati della posizione è quindi dato da una fase, pari
alla azione misurata in unità di ~. Notiamo che il fattore di normalizzazione è fissato dalla richiesta che
lim K(q 0 , ε, q) = hq 0 , t|q, ti = δ(q 0 − q) :
ε→0
(12.52)
infatti il membro destro della Eq. (12.51) fornisce una rappresentazione della delta di Dirac nel limite
ε → 0 in quanto
r
(∆q)2 2
i
m
0
lim K(q , ε, q) = lim
e 2m~ ε q̇ ,
(12.53)
ε→0
ε→0
2πiε~
che nel limite è una gaussiana di larghezza decrescente, ma con fissa normalizzazione
Z r
(∆q)2 2
i
m
e 2m~ ε q̇ = 1.
2πiε~
12.2.3
(12.54)
L’integrale di cammino
Possiamo ora determinare il propagatore per un’evoluzione temporale finita combinando una sequenza di
0
evoluzioni temporali infinitesime mediante la proprietà associativa Eq. (12.37). Poniamo ora ∆t = t n−t
con limn→∞ ∆t = ε. L’associatività implica che
n termini
}|
{
z
hqf |S(t0 , t)|qi i = hqf | S(tf , tn−1 )S(tn−1 , tn−2 ) · · · S(t1 , t) |qi i,
(12.55)
Z
K(qf , tf ; qi , ti ) =
Z
=
dq1 dq2 · · · dqn−1 hqf |S(tf , tn−1 )|qn−1 i . . . hq2 |S(tn2 , t1 )|q1 ihq1 |S(t1 , t)|qi i
r
r
r
m idS(tn−1 )
m idS(t1 )
m idS(t)
~
~
dq1 dq2 · · · dqn−1
e
...
e
...
e ~
2πiε~
2πiε~
2πiε~
(12.56)
Questa equazione esprime in modo compatto il principio fondamentale della meccanica quantistica
secondo cui le ampiezze di transizione (il cui modulo quadro dà la probabilità) si compongono secondo
il principio di sovrapposizione. L’ampiezza di probabilità che un certo stato iniziale termini in un certo
stato finale si calcola considerando tutti i possibili stati intermedi a tutti gli istanti intermedi e sommando
su tutte le traiettorie.
Possiamo capire il significato di questo risultato ricordando l’esperimento di Zeilinger, cioè considerando una particella che al tempo t1 passa attraverso uno schermo S1 attraverso il quale sono praticate
k fenditure, al tempo t2 attraverso uno schermo S2 , e cosı̀ via (si veda la Figura ??). In questo caso, a
12.2 L’azione in meccanica quantistica
197
ciascun tempo ti il sistema può trvarsi in un numero finito k di posizioni, che corrispondono a ciascuna
delle fenditure. In tal caso, gli n integrali dqi sono sostituiti da n sommatorie sui k diversi stati. Tutte
le possibili storie del sistema corrispondono quindi a tutte le possibili k n diverse traiettorie che passano
attraverso una qualunque delle fenditure: la Eq. (??) ci dice che l’ampiezza di trovare un sistema in un
qualunque punto a valle delle fenditure si trova sommando su tutte le traiettorie possibili, ciascuna pesata
dall’esponenziale immaginario dell’azione valutata per quel cammino, espressa in unità di ~. L’espressione
Eq. (??) corrisponde al limite in cui le k fenditure diventano una variabile continua di posizione, e la
sommatoria diventa quindi un integrale.
Figura 12.2: Traiettorie seguite da un sistema quantistico con due schermi ciascuno con quattro fenditure.
Il propagatore è ulteriormente definito come il limite in cui n tende a infinito dell’espressione Eq. (12.56),
cioè anche il tempo diventa una variabile continua. In questo caso l’integrale multiplo dell’Eq. (12.56)
diventa un nuovo oggetto, chiamato integrale di cammino (path integral) o anche integrale di Feynman.
Dal punto di vista matematico, esso è un integrale funzionale, o integrale di Kac.
Si tratta di un integrale in cui la funzione integranda è un funzionale ossia una funzione che associa un
numero ad una funzione: nel nostro caso, essa associa ad una traiettoria l’esponenziale di i volte l’azione
valutata su tale traiettoria, in unità di ~. L’integrale viene fatto su uno spazio di funzioni, nel nostro caso
tutte le traiettorie che uniscono il punto iniziale a quello finale, tenuti fissati. La misura di integrazione
è pertanto il differenziale di una funzione, indicato con Dq(t), e l’integrale funzionale viene scritto come
Z
K(qf , tf ; qi , ti ) =
q(ti ) = qi Dq(t)e
q(tf ) = qf
i
~ S[q(t)]
,
(12.57)
p m
dove la misura di integrazione va definita prendendo il limite ε → 0, ed include perciò i i fattori 2πiε~
in modo che resti vera la condizione di normalizzazione Eq. (12.54).
Possiamo ora porci nuovamente il problema del limite semiclassico. In meccanica quantistica, l’ampiezza di transizione si trova integrando su tutte le traiettorie secondo l’integrale di Feynman: tutti i
cammini che portano dal punto iniziale a quello finale contribuiscono. Notare che vengono quindi inclusi
cammini discontinui, non differenziabili, e cosı̀ via: infatti nella Eq. (12.56) le risoluzioni dell’identità ai
tempi intermedi prevedono che si integri in ogni caso su tutte le possibili posizioni. L’ampiezza è quindi
una media pesata su tutti i cammini, con un peso che è dato dall’esponenziale dell’azione espressa in
unità di ~. Notare che l’azione è qui vista proprio nel senso della funzione principale di Hamilton, cioè
come un’integrale della lagrangiana per fissi tempo e posizione iniziali, valutata in funzione ti tempo e
posizione finali.
In meccanica classica, invece, contribuisce solo la traiettoria di minima azione. Possiamo capirne il
senso supponendo di definire l’integrale di cammino Eq. (12.57) per continuazione analitica a partire da
198
Il limite classico della meccanica quantistica
quello calcolato per tempo immaginario, cioè ponendo t → it nella Eq. (12.57) dimodoché
Z
1
K(qf , itf ; qi , iti ) = Dq(t) N (q(t))e− ~ S[q(t)] .
(12.58)
L’integrale di cammino pesa quindi ciascun cammino con l’esponenziale di −S in unità di ~. Nel limite
classico il cammino che dà maggior contributo è proprio il cammino classico, che ha il peso statistico
maggiore. Tutti i cammini in cui l’azione è maggiore (ad esempio, i cammini discontinui) sono esponenzialmente soppressi. Nel limite in cui ~ → 0 l’unico cammino a sopravvivere è quello classico. Definendo
il path integral per continuazione analitica, ciò resta vero anche per tempi reali.
Figura 12.3: Cammini che congiungono due punti: la traiettoria di minima azione è indicata in neretto,
mentre le frecce indicano direzioni in cui l’azione è crescente.
Che il cammino di minima azione dia il contributo dominante può essere anche capito direttamente,
senza ricorrere alla continuazione analitica. L’integrale funzionale viene eseguito sui cammini: possiamo
pensare di integrare in un intorno del cammino di minima azione, includendo via via il contributo di
cammini di azione sempre più grande (si veda la Figura ??). Ma l’integranda, ossia il contributo di
ogni cammino, è dato da una fase, che diventa sempre più grande man mano che ci allontaniamo dal
cammino di minima azione. Stiamo quindi integrando una funzione che oscilla sempre più rapidamente.
Ma l’integrale di un seno o un coseno su un periodo è nullo. Quindi, se l’azione è grande in unità di
~, anche piccole deformazioni del cammino intorno a quello classico fornisco contributi all’integrale di
cammino che si cancellano, e solo il cammino classico e quelli vicinissimi ad esso contribuiscono. Se
invece il valore dell’azione classica è paragonabile ad ~, molti cammini contrbuiscono dando cosı̀ luogo
agli effetti di interferenza quantistica.
Siamo cosı̀ infine in grado di dare un preciso significato quantitativo all’affermazione che abbiamo più
volte fatto, per cui la fisica quantistica descrive sistemi con un numero sufficientemente piccolo di gradi di
libertà: gli effetti quantistici si manifestano quando il valore numerico dell’azione, che possiamo pensare
come il volume di spazio delle fasi occupato dal sistema, e quindi come un conteggio di gradi di libertà,
è piccolo in unità di ~.
12.2.4
L’equazione di Schrödinger dal path integral
Combinando la relazione Eq. (12.34) tra propagatore e funzione d’onda per un autostato della posizione
evoluto nel tempo, e l’espressione Eq. (12.57) del propagatore in termini di integrale di cammino, vediamo
che la funzione d’onda può essere espressa come
Z
i
~ S[q(t)] .
ψ(q; t) = K(qf , tf ; qi , ti ) =
(12.59)
q(t ) = q Dq(t)e
i
i
q(tf ) = qf
12.2 L’azione in meccanica quantistica
199
Naturalmente, se lo stato iniziale non è un autostato della posizione, la funzione d’onda al tempo t è data
da un path integral in cui si sovrappongono tutte le condizioni iniziali corrispondenti a diverse posizioni
q al tempo iniziale, ciascuna pesata con la funzione d’onda iniziale:
Z
Z
i
~ S[q(t)] ψ(q ).
(12.60)
ψ(q; t) = K(qf , tf ; qi , ti ) = dqi
i
q(t ) = q Dq(t)e
i
i
q(tf ) = qf
L’espressione Eq. (12.60 della funzione d’onda in termini di path integral è, nella formulazione di
Feynman, l’ipotesi fondamentale da cui tutta la meccanica quantistica viene ricavata, semplicemente
postulando che la funzione d’onda fornisca l’ampiezza di probabilità degli eventi. Questa ipotesi equivale
all’insieme dei principi enunciati nella Sezione 2.4, poich`’ avendo espresso in termini di path integral
la “regola di Born” per il calcolo delle probabilità, gli altri postulati esprimono delle proprietà della
funzione d’onda che sono automaticamente soddisfatte dal path integral: in particolare, il principio di
sovrapposizione, e l’ortonormalità degli stati fisici.
Anche l’ultimo postulato della meccanica quantistica, formulato nella Sezione 5.1.3, e cioé la legge di
evoluzione temporale, può essere ricavato dal path integral. Possiamo cioè dimostrare direttamente che la
funzione d’onda la funzione d’onda Eq. (12.60) soddisfa l’equazione di Schrödinger. A tal fine, osserviamo
che possiamo vedere la funzione d’onda come il risultato di una evoluzione temporale infinitesima della
funzione d’onda ad un tempo immediatamente precedente:
Z
ψ(q, ; t) = dq 0 hq t|q 0 t0 ihq 0 t0 |ψi
"
#
2
Z
r
∆q
m
i
1
0
0
exp (t − t ) m
− V (qf ) ψ(q 0 ; t0 ),
(12.61)
= dq
2πi(t − t0 )~
~
2
t − t0
dove abbiamo posto ∆q = q − q 0 . Consideriamo il limite in cui ∆t = t − t0 = ε → 0. In questo limite
anche ∆q → 0, perchè
lim hq t|q 0 t0 i = hq|q 0 i = δ(q − q 0 ).
∆t→0
(12.62)
Al tendere a zero di ε, possiamo quindi sviluppare il risultato simultaneamente in potenze di ∆t e in
potenze di ∆q, considerando entrambe come quantità di ordine ε.
Sviluppiamo quindi la funzione d’onda ψ(q 0 , t0 ) in serie di Taylor attorno a q:
ψ(q 0 ; t0 ) = ψ(q; t0 ) − ∆q
∂
1
∂2
ψ(q; t0 ) + (∆q)2 2 ψ(q; t0 ) + O((∆q 3 )).
∂q
2
∂q
(12.63)
A meno di termini di ordine superiore, cambiando la variabile di integrazione da q 0 a ∆q, si ha
r
Z
2
(∆q)2
i 1
m
∂
1
0
− ~i ∆tV (qf )
m ∆t
0
0
2 ∂
~
2
ψ(q; t ) .
ψ(q; t) = e
d∆q
e
ψ(q; t ) − ∆q ψ(q; t ) + (∆q)
2πi∆t~
∂q
2
∂q 2
(12.64)
Restano quindi da calcolare tre integrali:
r
Z
d∆q
(∆q)2
i 1
m
e ~ 2 m ∆t = 1
2πi∆t~
che è la condizione di normalizzazione Eq. (12.54);
r
Z
(∆q)2
i 1
m
d∆q
e ~ 2 m ∆t ∆q = 0
2πi∆t~
poiché è l’integrale di una funzione dispari su un dominio pari; ed infine
r
r
Z
Z
(∆q)2
2
i 1
1
m
1 ∂
m
i ~∆t
m ∆t
2
~
2
d∆q
e
(∆q) =
d∆q
eα(∆q) =
,
2
2πi∆t~
2 ∂α
2πi∆t~
2 m
(12.65)
(12.66)
(12.67)
200
Il limite classico della meccanica quantistica
im
dove nel secondo passaggio abbiamo posto α = 2~∆t
.
La Eq. (12.64) diventa cosı̀
i
i ~∆t ∂ 2
0
ψ(q; t) = ψ(q, t0 ) +
ψ(q,
t
)
e− ~ ∆tV (q) .
2 m ∂q 2
(12.68)
Ma
ψ(q; t0 ) = ψ(q; t) − ∆t
∂
ψ(q; t) + O((∆t)2 )
∂t
(12.69)
e
i
e− ~ ∆tV (q) = 1 −
i
∆tV (q) + O((∆t)2 ),
~
(12.70)
quindi tenendo solo termini al primo ordine la (12.68) diventa
ψ(q; t) = ψ(q; t) − ∆t
i
i ~∆t ∂ 2
∂
ψ(q, t) − ∆tV (q)ψ(q; t),
ψ(q; t) +
∂t
2 m ∂q 2
~
(12.71)
e cioé
i~
∂ψ(q; t)
~2 ∂ 2 ψ(q; t)
=−
+ V (q)ψ(q; t),
∂t
2m ∂q 2
(12.72)
che è proprio l’equazione di Schrödinger per la funzione d’onda ψ(q; t). Ne segue che la formulazione
alla Schrödinger dell’evoluzione temporale nella base delle coordinate è segue dall’espressione dell’azione
dell’operatore di evoluzione temporale per un tempo infinitesimo.
12.3
L’approssimazione WKB
L’espressione Eq. (12.59) della funzione d’onda in termini di path integral suggerisce come si possa costruire
il limite semiclassico dell’equazione di Schrödinger: in tale limite, solo un cammino contribuisce, e la
funzione d’onda è una pura fase, eguale all’azione valutata lungo tale camino: ψ ∼ exp ~i S. Questo
suggerisce che il limite classico dell’equazione di Schrödinger si può ottenere scrivendo la funzione d’onda
in forma esponenziale come
i
ψ( #»
x ; t) = exp Θ( #»
x , t),
(12.73)
~
studiando l’equazione soddisfatta dalla funzione Θ( #»
x , t), e trattando ~ come parametro di uno sviluppo
perturbativo. Questo porta alla cosiddetta approssimazione WKB (Wentzel, Kramers, Brillouin), che fu
in effetti sviluppata negli anni ’20 del novecento, ben prima della formulazione di Feynman, a partire da
manipolazioni formali dell’equazione di Schrödinger.
12.3.1
Limite semiclassico dell’equazione di Schrödinger
Sostituendo la funzione d’onda scritta nella forma Eq. (12.73) nell’equazione di Schrödinger (supponendo
#ˆ»2
al solito una hamiltoniana della forma Ĥ = p + V̂ ( #ˆq»)) si trova immediatamente che la funzione Θ( #»
x , t)
2m
deve soddisfare l’equazione
∂Θ( #»
x , t)
1 #» #»
i~
#»
=
∇Θ( x , t) · ∇Θ( #»
x , t) + V ( #»
4Θ( #»
x , t).
x) −
∂t
2m
2m
Possiamo ora costruire l’approssimazione semiclassica sviluppando Θ( #»
x , t) in serie di ~
2
~
~
#»
#»
#»
Θ( x , t) = S( x , t) + S1 ( x , t) +
S2 ( #»
x , t) + . . . ,
i
i
−
(12.74)
(12.75)
12.3 L’approssimazione WKB
201
dove i fattori di i sono stati introdotti per convenienza dei successivi calcoli, ed abbiamo chiamato S il
termine di ordine zero dello sviluppo ricordando il limite classico del path integral. Sostituendo questo
sviluppo nell’equazione di Schrödinger Eq. (12.74) soddisfatta dalla Θ( #»
x , t), e identificando i coefficienti
delle successive potenze di ~ troviamo cosı̀ una sequenza di equazioni che determinano i termini successivi
dello sviluppo Eq. (12.75).
All’ordine zero in ~ troviamo
−
1 #» 2
∂S
=
(∇S) + V ( #»
x)
∂t
2m
(12.76)
che è l’equazione di Hamilton-Jacobi per la funzione S. Si vede cosı̀ che nel limite ~ → 0 la funzione
d’onda quantistica è l’esponenziale della funzione principale di Hamilton. In questo limite la funzione
d’onda è una pura fase perchè S è reale.
Risolvendo la Eq. (12.76) ritroviamo la funzione di Hamilton della meccanica classica: come abbiamo
visto nella sezione 12.1.2 (si ricordi la Eq. (12.18) se l’hamiltoniana non dipende dal tempo, possiamo
porre
Θ( #»
x , t) = −Et + σ0 ( #»
x ),
(12.77)
dove σ0 ( #»
x ), indipendente dal tempo, è la funzione caratteristica di Hamilton, che soddisfa l’equazione
E=
1 #» 2
(∇σ0 ) + V
2m
(12.78)
da cui
p
#»
∇σ0 ( #»
x ) = ± 2m(E − V ( #»
x )),
(12.79)
che nel caso unidimensionale si riduce ulteriormente a
p
dσ0
= ± 2m(E − V ( #»
x )),
dx
(12.80)
e quindi
Z
x
σ0 (x) = ±
dx0
p
2m(E − V ( #»
x )).
(12.81)
x0
Vediamo cosı̀ come la traiettoria classica emerga nel limite in cui ~ → 0.
12.3.2
Correzioni al primo ordine ed approssimazione semiclassica
Per capire la relazione tra traiettoria classica e funzione d’onda quantistica consideriamo ora la correzione del primo ordine in ~. Osserviamo innanzitutto che per una hamiltoniana indipendente dal tempo
possiamo scrivere le soluzioni dell’equazione di Schrödinger nella forma di stati stazionari, ossia
i
ψ( #»
x ; t) = e− ~ Et ψ( #»
x ),
(12.82)
dove ψ( #»
x ) è un autostato della hamiltoniana. Ne segue immediatamente che, per uno stato stazionario,
a tutti gli ordini in ~ possiamo porre
~
x) +
Θ( #»
x , t) = −Et + σ0 ( #»
x ) + σ1 ( #»
i
2
~
σ2 ( #»
x) + ...,
i
(12.83)
ossia tutti i contributi ad S Eq. (12.75) al di là del primo ordine sono indipendenti dal tempo.
Al primo ordine in ~ troviamo cosı̀
#» #»
0 = 2∇σ0 ∇σ1 + 4σ0 ,
(12.84)
202
Il limite classico della meccanica quantistica
al secondo ordine
#»
#»
#»
0 = 2∇σ0 · ∇σ2 + (∇σ1 )2 + 4σ1 ,
(12.85)
e cosı̀ via.
Possiamo ora determinare la correzione al primo ordine nel caso unidimensionale. Ponendo
d
σ0 (x)
dx
(12.86)
1 dp/dx
dσ1
=−
dx
2 p
(12.87)
1
σ1 (x) = − ln |p(x)| + K.
2
(12.88)
p(x) ≡
l’equazione (12.84) diventa
che ha per soluzione
La soluzione semiclassica al primo ordine in ~ è quindi
Z x
~
1
i
0
0
−Et ±
dx p(x ) +
−
ln |p(x)| + K
ψ(x; t) = exp
~
i
2
x0
Z x
N
1
i
=p
exp Et exp ±
dx0 p(x0 ),
i~
~ x0
|p(x)|
(12.89)
dove N è una costante di normalizzazione.
Vi sono quindi due soluzioni linearmente indipendenti, corrispondenti a due stati di definito impulso
semiclassico ±p(x) Eq. (12.86), e la soluzione generale ne è la sovrapposizione
Z
Z
1
1
i x 0
i x 0
0
0
ψ(x; t) = p
dx p(x ) + B exp −
dx p(x ) ,
(12.90)
exp Et A exp
i~
~ x0
~ x0
|p(x)|
infatti se, ad esempio, B = 0, l’azione dell’operatore impulso su di essa è
−i~
d
ψ(x, t) = p(x)ψ(x, t) + O(~).
dx
(12.91)
Ma come abbiamo visto nella sezione 12.1.2, Eq. (12.22), questo è proprio l’impulso della traiettoria classica. La soluzione Eq. (12.90) dell’equazione di Schrödinger al primo ordine non-banale dell’approssimazione
semiclassica è di solito chiamata approssimazione WKB tout court.
Nel caso E > V p è reale; se consideriamo una soluzione di definito impulso (tale cioè che A = 0
dx
oppure B = 0) la probabilità di trovare la particella tra x e x + dx è proporzionale a p(x)
, ossia, ponendo
dx
p = mv, a v(x) = dt. Questo significa che la probabilità di trovarsi in un intervallo dx è proporzionale
al tempo impiegato a percorrerlo, proprio come nel caso classico. La soluzione generale, quando A = 0 e
B = 0, può anche essere scritta come
Z x
1
1
1
0
0
ψ(x; t) = p
exp Et C sin
dx p(x ) + δ .
(12.92)
i~
~ x0
p(x)
Se invece E < V p = iβ con β = ±
p
2m(V − E) e la soluzione generale è
Z
Z
1
1
1 x 0
1 x 0
ψ(x; t) = p
exp Et A exp
dx β(x0 ) + B exp −
dx β(x0 ) .
i~
~ x0
~ x0
β(x)
(12.93)
12.3 L’approssimazione WKB
12.3.3
203
Validità dell’approssimazione semiclassica
Discutiamo ora le condizioni di validità dell’approssimazione semiclassica. È chiaro dall’Eq. (12.74) che
le correzioni quantistiche all’equazione del moto classica sono dovute al fatto che il termine cinetico
nell’equazione di Schrödinger oltre al primo termine a membro destro della Eq. (12.74), contiene l’ultimo
termine, propozionale a ~. L’approssimazione semiclassica richiede quindi che il secondo termine sia
piccolo rispetto al primo, ossia che
#»
|~4Θ| |∇Θ2 |.
Considerando per sempicità il caso unidimensionale la condizione diventa
dp ~ |p2 |.
dx (12.94)
(12.95)
In termini della lunghezza d’onda (di de Broglie), definita come
λ≡
~
.
p
(12.96)
la condizione Eq. (12.95) ha la forma particolarmente semplice
dλ 1.
dx (12.97)
Quindi l’approssimazione vale quando la scala di variazione della lunghezza d’onda delle oscillazioni della
funzioni d’onda è piccola rispetto alla lunghezza d’onda stessa.
Possiamo riscrivere
p la condizione Eq. (12.95) in termini di energia cinetica e potenziale ricordando la
forma esplicita p = 2m(E − V ) come
~
p
2m[E − V (x)]
2|E − V (x)|
.
dV /dx
(12.98)
L’approssimazione è buona quando l’energia è molto maggiore o molto minore del valore del potenziale
nel punto.
12.3.4
Trattazione semiclassica della buca di potenziale
Una classica applicazione dell’approssimazione semiclassica è la determinazione dello spettro di una buca
di potenziale di forma generica (si veda la Fig. 12.2). Come si è visto, il metodo WKB è accurato se
|E −V (x)| 0, ossia lontano dai punti di inversione E = V (x). Possiamo pertanto risolvere il problema in
approssimazione semiclassica in queste regioni (indicate come regioni I, II e III in figura), ma le condizioni
di raccordo tra queste soluzioni devono essere determinate in altro modo.
Occorre cioè determinare una soluzione nell’intorno dei punti di inversione (si veda la Fig. 12.3),
e quindi raccordare l’andamento di questa soluzione nella regione I di Fig. 12.3 con l’andamento della
soluzione semiclassica nella regione II di Fig. 12.2, ed il suo andamento nella regione II di Fig. 12.3
con l’andamento della soluzione semiclassica nella regione III di Fig. 12.2. Al termine di questa doppia
operazione di raccordo, si ottengono delle condizioni che legano la soluzione semiclassica nella regione
II a quella della regione III di Fig. 12.2. Un’analoga operazione permette di raccordare le soluzioni
semiclassiche nelle regioni I e II della medesima figura.
La soluzione nell’intorno del punto di inversione può essere determinata sviluppando il potenziale in
serie di Taylor:
V (x) = V (a) + V 0 (a)(x − a) + O((x − a)2 ),
(12.99)
e quindi risolvendo esattamente l’equazione di Schrödinger con il potenziale lineare che se ne ottiene.
Non entriamo nei dettagli di questa trattazione, ci limitiamo a ricordare che la soluzione dell’equazione di
204
Il limite classico della meccanica quantistica
Figura 12.4: Buca di potenziale generica. Sono indicate le regioni in cui vale l’approssimazione semiclassica
per data energia E.
Schrödinger con potenziale lineare può essere determinata esattamente in termini di funzioni note come
funzioni di Airy.
Diamo quindi direttamente le condizioni di raccordo tra soluzioni semiclassiche che se ne ottengono.
La soluzione nella regione II di Fig. 12.3 è della forma tipo oscillante Eq. (12.92), ed è parametrizzata
dalla normalizzazione C e dalla fase δ, mentre la soluzione nella regione I è della forma esponenziale
Eq. (12.93) ed è parametrizzata dalla normalizzazione A. Le condizioni di raccordo sono al solito due
(continuità della funzione e della derivata) e fissano quindi C in termini di A e la fase δ. Nel caso di un
potenziale che cresce da sinistra a destra con un punto di inversione in a (Figura 12.3), si ha
R

0
)
π
 √2N sin xa dx0 p(x
+
~
4
p(x)
ψ(x) =
R
 √N exp − x dx0 β(x)
~
a
β(x)
xa
xa
(12.100)
La condizione per un potenziale decrescente da sinistra a destra si ottiene da questa con ovvi cambiamenti
di segno.
Figura 12.5: Potenziale nell’intorno del punto di inversione.
12.3 L’approssimazione WKB
205
La coppia di condizioni che legano la soluzione nella regione II a quella delle regioni I e III determinano
completamente lo spettro di una buca di potenziale (Figura 12.2) in approssimazione WKB. Notiamo
infatti che nella regione II la soluzione può essere scritta in due modi diversi, o raccordandola alla I
Z a
β(x)
N
exp −
dx0
ψI (x) = p
(12.101)
~
β(x)
x
Z x
0
2N
π
0 p(x )
dx
sin
ψII (x) = p
+
,
(12.102)
~
4
p(x)
a
o raccordandola alla III
!
p(x0 ) π
dx
+
~
4
x
Z x
0
N
β(x)
ψIII (x) = p
exp −
dx0
.
~
β(x)
b
0
ψII
(x)
2N 0
sin
=p
p(x)
Z
b
0
(12.103)
(12.104)
0
Ma ψII (x) e ψII
(x) devono essere uguali. È facile vedere che non è possibile soddisfare la condizione
0
(x) siano uguali per ogni x. Possiamo tuttavia soddisfare
che gli argomenti del seno nella ψII (x) e ψII
la condizione che essi siano l’uno eguale a meno l’altro, imponendo inoltre che le condizioni di normalizzazione siano anch’esse l’una pari a meno l’altra. Questa condizione può ulteriormente essere rilassata
imponendo che i due argomenti differiscano di n semiperiodi, ossia di nπ, il che porta ad un ulteriore
fattore di (−1)n nella relazione tra le due normalizzazioni. Otteniamo quindi che, nel caso più generale,
0
(x) coincidono imponendo simultaneamente che
le soluzioni ψII (x) e ψII
N 0 = (−1)n+1 N ;
Z x
0
π
0 p(x )
dx
+
+
~
4
a
(12.105)
Z
b
x
dx0
p(x0 ) π
+
~
4
!
= nπ.
(12.106)
Manifestamente, la Eq. (12.106) è una condizione di quantizzazione sull’integrale
Z
a
b
dx0
p(x0 )
π
= nπ −
~
2
(12.107)
dove a, b sono i punti di inversione classici. Poiché
p
p(x) = 2m(E − V (x)),
(12.108)
l’integrale è determinato dalla forma del potenziale, e si ottiene la condizione di quantizzazione
Z
b
dx
a
p
1
2m(E − V (x)) = ~ n +
2
π,
(12.109)
con n intero.
Questa condizione era stata già postulata da Bohr e Sommerfeld sulla base di considerazioni analoghe a quelle viste nella sezione 11.3.2 nella discussione del modello di Bohr dell’atomo di idrogeno,
ed in particolare facendo l’ipotesi che che ogni sistema hamiltoniano dovesse soddisfare la condizione di
quantizzazione (nota appunto come condizione di Bohr-Sommerfeld):
I
pdq = 2~πn
(12.110)
che per n sufficientemente grande coincide la condizione da noi trovata applicando il metodo WKB. In
questo caso l’integrale è valutato su un intero periodo del moto classico, da a a b e ritorno (questo spiega
il fattore 2 aggiuntivo).
206
Il limite classico della meccanica quantistica
Osserviamo infine che l’andamento delle soluzioni semiclassiche trovate è in accordo con le conclusioni
della discussione qualitativa dello spettro di una buca di potenziale generica che abbiamo già visto.
Infatti, nella regione II ha un andamento sinusoidale ψ(x) ∼ sin(f (x) + δ), con le condizioni f (a) + δ = π4
e f (b) + δ = π4 + nπ. Ne segue che nell’intervallo tra i punti di inversione l’argomento del seno compie
un semiperiodo di oscillazione quando il sistema è nello stato fondamentale, un periodo nel primo stato
eccitato, un periodo e mezzo nel secondo e cosı̀ via: il numero di nodi della funzione d’onda cresce al
crescere dell’energia, come si era trovato nella discussione qualitativa.
Capitolo 13
La teoria delle perturbazioni
I metodi perturbativi sono usati in pratica per risolvere la maggior parte dei problemi di interesse fisico,
visto che i problemi risolubili esattamente sono molto pochi.
Discuteremo in particolare la teoria delle perturbazioni indipendenti dal tempo, particolarmente utili
nel risolvere problemi di stato legato, e la teoria delle perturbazioni dipendenti dal tempo, che trova la
sua applicazione principale nella descrizione dei fenomeni d’urto.
13.1
Perturbazioni indipendenti dal tempo
I metodi perturbativi indipendenti dal tempo vengono usati in tutti i casi in cui si studia un sistema di
cui non si è in grado di dare una descrizione esatta, ma tale per cui si è in grado di trattarne esattamente
una versione opportunamente semplificata.
Consideriamo quindi in particolare un sistema la cui hamiltoniana può essere scritta come la somma
di una hamiltoniana Ĥ0 di cui lo spettro è esattamente noto
Ĥ0 |n0 i = En(0) |n0 i,
(13.1)
hm0 |n0 i = δnm ,
(13.2)
e ortonormalizzato
ed una hamiltoniana Ĥ 0 , in presenza della quale lo spettro non si riesce più a determinare esattamente.
L’idea del metodo perturbativo è di pesare il contributo dell’hamiltoniana Ĥ 0 con un parametro ε, e
di determinare autofunzioni ed autovalori dell’hamiltoniana completa
Ĥ|ni = En |ni
(13.3)
come uno sviluppo in serie di ε, scrivendo l’hamiltoniana come
Ĥ = Ĥ0 + εĤ 0 ,
(13.4)
e sviluppando autostati ed autovalori Eq. (13.3) dell’hamiltoniana completa Eq. (13.4) in serie di ε:
En = En(0) + εEn(1) + ε2 En(2) + . . .
2
|ni = |n0 i + ε|n1 i + ε |n2 i + . . . .
(13.5)
(13.6)
È importante osservare che, in generale, nulla garantisce che la serie perturbativa per l’autovalore o
l’autostato converga.
208
13.1.1
La teoria delle perturbazioni
Spettro non degenere
Consideriamo innanzitutto il caso in cui lo spettro dell’hamiltoniana imperturbata Eq. (13.1) sia non(0)
(0)
degenere, ovvero En 6= Ek quando n 6= k. Sostituendo gli sviluppi Eq. (13.5-13.6) nell’equazione agli
autovalori (13.3) si ottiene
(Ĥ0 + εĤ 0 ) |n0 i + ε|n1 i + ε2 |n2 i + . . . = En(0) + εEn(1) + ε2 En(2) + . . . |n0 i + ε|n1 i + ε2 |n2 i + . . . .
(13.7)
Identificando termini dello stesso ordine in ε si ottiene una sequenza di equazioni
ε0 (Ĥ0 − En(0) )|n0 i = 0
1
ε (Ĥ0 −
2
ε (Ĥ0 −
..
.
En(0) )|n1 i
En(0) )|n2 i
=
=
(13.8)
(En(1)
(En(1)
0
− Ĥ )|n0 i
0
− Ĥ )|n1 i +
..
.
(13.9)
En(2) |n0 i
εk (Ĥ0 − En(0) )|nk i = (En(1) − Ĥ 0 )|nk−1 i + En(2) |nk−2 i + . . . En(k) |n0 i.
(13.10)
(13.11)
Le equazioni (13.8-13.11) possono essere risolte proiettando ciascuna equazione sugli autostati |n0 i
dell’hamiltoniana imperturbata. A questo fine, osserviamo che tutti i termini successivi al primo nello
sviluppo perturbativo dello stato Eq. (13.6) possono essere scelti ortogonali al primo, ovvero tali che
hn0 |ni i = 0.
(13.12)
Questo segue dall’osservazione che se |ni i è soluzione della i-esima equazione (13.8-13.11) allora lo è anche
|ñi i = |ni i + λ|n0 i. Infatti
(Ĥ0 − E (0) )|ñ1 i = λ(Ĥ0 − En(0) )|n0 i + (Ĥ0 − En(0) )|n1 i = (Ĥ0 − En(0) )|n1 i,
(13.13)
e quindi il membro sinistro dell’i-esima equazione valutato per la |ni i e la |ñi i coincidono. Pertanto, data
una soluzione |ñi i dell’i-esima equazione tale che
hñi |n0 i =
6 0
(13.14)
ne possiamo costruire una nuova, |ni i, pure soluzione dell’i-esima equazione, tale che sia soddisfatta la
condizione (13.12), ponendo |ni i = |ñi i + λi |n0 i e scegliendo
λi = −hn0 |ñi i.
(13.15)
Proiettando come si è detto su |n0 i le equazioni (13.8-13.11), tutti i membri di sinistra si annullano,
(k)
cosı̀ come tutti i contributi a membro destro proporzionali a En . Supponendo gli stati |n0 i normalizzati,
Eq. (13.2), troviamo immediatamente che
En(1) = hn0 |Ĥ 0 |n0 i
En(2)
0
(13.16)
= hn0 |Ĥ |n1 i
..
.
(13.17)
En(k) = hn0 |Ĥ 0 |nk−1 i.
(13.18)
Quindi, la correzione all’ordine k − 1 dello stato determina immediatamente la correzione all’ordine k
(1)
per l’autovalore. In particolare, la correzione al primo ordine all’autovalore En è immediatamente data
dalla Eq. (13.16).
(1)
Nota la En , la correzione al primo ordine all’autostato si trova usando la Eq. (13.9), che si risolve
(0)
moltiplicando entrambi i membri per l’inverso dell’operatore Ĥ0 −En . Notiamo tuttavia che nello spazio
(0)
degli stati fisici questo operatore non è invertibile, in quanto manifestamente Ĥ0 − En |n0 i = 0, e quindi
13.1 Perturbazioni indipendenti dal tempo
209
tale operatore ha un autovalore nullo. Tuttavia, la Eq. (13.12) implica che tutte le |nk i, e quindi in
particolare anche |nk i, appartengono al sottospazio ortogonale ad |n0 i.
Pertanto è possibile scrivere |n1 i come:
X
X
|n1 i =
|k0 ihk0 |n1 i =
|k0 ihk0 |n1 i.
(13.19)
k
k6=n
Alla risoluzione dell’identità contribuiscono tutti gli stati tranne |n0 i. È vero quindi che
1
(0)
Ĥ0 −En
non
esiste nello spazio degli autostati di Ĥ0 , ma esiste nello spazio ortogonale a |n0 i. In tale sottospazio si
ha:
X
1
1
=
|k ihk0 |.
(13.20)
(0)
(0) 0
Ĥ0 − En
k6=n Ĥ0 − En
Poiché in generale
(0) f (Ĥ0 )|k0 i = f Ek
|k0 i
(13.21)
si ha
1
Ĥ0 −
(0)
En
|k0 i =
1
(0)
Ek
|k0 i
(13.22)
|k0 ihk0 |.
(13.23)
(0)
− En
e quindi
1
Ĥ0 −
(0)
En
=
X
1
(0)
k6=n Ek
− En
(0)
Possiamo cosı̀ determinare la prima correzione all’autostato:
h
i
X
X
1
1
(1)
(1)
0
0
|n1 i =
|k
ihk
|
E
−
Ĥ
|n
i
=
|k
i
δ
E
−
hk
|
Ĥ
|n
i
0
0
0
0
kn
0
0
n
n
(0)
(0)
(0)
(0)
k6=n Ek − En
k6=n Ek − En
=
X hk0 |Ĥ 0 |n0 i
(0)
(0)
k6=n
En − Ek
|k0 i.
(13.24)
Notiamo che la perturbazione modifica lo stato di partenza, aggiungendo ad esso componenti lungo tutte
le altre direzioni (tutti gli altri autostati imperturbati) nello spazio di Hilbert. La componente lungo una
direzione è tanto più piccola quanto l’autovalore di energia è diverso.
La correzione a qualunque ordine perturbativo può essere determinata iterando questa procedura. Per
completezza, determiniamo le correzioni ad autovalore ed autostato fino al secondo ordine. Sostituendo
l’espressione esplicita Eq. (13.24) nella Eq. (13.17) troviamo
En(2) = hn0 |Ĥ 0
=
X hm0 |Ĥ 0 |n0 i
(0)
m6=n En
−
X |hm0 |Ĥ 0 |n0 i|2
(0)
m6=n
(0)
En − Em
(0)
Em
.
|m0 i =
X hn0 |Ĥ 0 |m0 ihm0 |Ĥ 0 |n0 i
(0)
m6=n
(0)
En − Em
(13.25)
Notiamo che la correzione al secondo ordine all’energia dello stato fondamentale (ossia di minima energia)
è sempre negativa, poiché in tale caso il denominatore è sempre negativo.
La correzione al secondo ordine all’autostato è
X
(1)
1
0
(2)
|n2 i =
|k
ihk
|
(E
−
Ĥ
)|n
i
+
E
|n
i
0
0
1
0
n
n
(0)
k6=n Ĥ0 − En


0
X
X
1
hm0 |Ĥ |n0 i
=
|k ihk0 |  hn0 |Ĥ 0 |n0 i − Ĥ 0
|m0 i .
(13.26)
(0)
(0) 0
(0)
(0)
k6=n Ek − En
m6=n En − Em
210
13.1.2
La teoria delle perturbazioni
Caso degenere
Il caso di spettro degenere è più complesso in seguito al fatto che la base di autostati di partenza e
quella dopo aver applicato la perturbazione in generale non coincidono. Ricordiamo ad esempio il caso
dell’oscillatore armonico isotropo. Abbiamo visto che gli autostati di energia possono essere scritti in due
basi differenti:
3
N = n1 + n2 + n3
(13.27)
|n1 n2 n3 i
En = ~ω N +
2
3
|n l mi
En = ~ω N +
N = 2n + l.
(13.28)
2
Queste sono solo due dell’infinità di basi possibili per il sistema. La perturbazione tuttavia potrebbe
selezionare una di queste due basi: per esempio, una perturbazione lungo l’asse x seleziona la prima base
come privilegiata, mentre una perturbazione che dipende dal momento angolare seleziona la seconda base,
o magari la perturbazione potrebbe selezionare una terza base.
Possiamo formalizzare la situazione come segue. Supponiamo che allo stesso autovalore di energia
(0)
(0)
En dell’hamiltoniana imperturbata H0 corrispondano d autostati |nk i, k = 1, 2, . . . , d. Per effetto
della perturbazione, le energie di questi stati in generale possono diventare diverse fra di loro riducendo
od eliminando la degenerazione (od anche, eventualmente, lasciandola invariata). Pertanto, gli stati
perturbati
(0)
(1)
|nk i = |nk i + ε|nk i + . . .
(13.29)
avranno in generale energia diversa fra loro. Ne segue quindi che, mentre qualunque combinazione lineare
(0)
(0)
degli stati |nk i è ancora autostato di H0 , solo certe particolari scelte di stati |nk i corrisponderanno al
primo ordine del risultato perturbato Eq. (13.29).
(0)
Per capire quali, osserviamo che la Eq. (13.9), moltiplicando a sinistra per il bra hnj | si riduce a
(0)
(0)
(1)
hnj |Ĥ 0 |nk i = En,k δjk .
(13.30)
(0)
Questo vuol dire che gli stati |nk i devono essere autostati dell’hamiltoniana perturbante; le correzioni
al primo ordine all’energia forniscono i rispettivi autovalori. Per determinare la perturbazione al primo
ordine all’energia dell’n-esimo autostato k volte degenere bisogna quindi diagonalizzare la matrice k × k
della perturbazione nel sottospazio degenere.
In seguito alla presenza della perturbazione, la degenerazione può essere rimossa del tutto od in parte,
(1)
a seconda che gli autovalori En,k nella Eq. (13.30) siano tutti diversi fra si loro (degenerazione rimossa
completamente) o alcuni siano uguali fra loro. Se è rimossa del tutto, ci riduce al calcolo delle correzioni
successive del caso non degenere. Può accadere invece che la degenerazione non sia rimossa o sia rimossa
solo parzialmente. In tal caso, ad ogni nuovo ordine dello sviluppo è quindi necessario ridiagonalizzare
l’Hamiltoniana nel sottospazio che è rimasto degenere dopo aver introdotto la perturbazione all’ordine
precedente.
13.2
Perturbazioni dipendenti dal tempo
La teoria delle perturbazioni dipendenti dal tempo permette di affrontare in particolare i fenomeni d’urto
(o diffusione), in cui il problema consiste nel valutare la probabilità che un sistema subisca una transizione
tra un certo stato iniziale ed un certo stato finale per effetto di un potenziale, come quando una particella
incide sul potenziale stesso, e ne viene deflessa. In questa situazione, conviene usare la teoria perturbativa
dipendente dal tempo anche quando il potenziale è indipendente dal tempo stesso. Si suppone infatti
che lo stato iniziale sia preparato, e lo stato finale sia rivelato, in regioni lontane dal potenziale, in cui
l’effetto del potenziale stesso è trascurabile. Si può quindi supporre, con buona approssimazione, che il
potenziale sia attivo per un tempo intermedio, e solo alla fine, come vedremo, prendere il limite in cui
questo tempo diventa infinito. Di conseguenza, la teoria delle perturbazioni dipendenti dal tempo è di
fatto il metodo universale usato per trattare problemi d’urto, con qualunque tipo di potenziale.
13.2 Perturbazioni dipendenti dal tempo
13.2.1
211
La rappresentazione di interazione
Per descrivere le perturbazioni dipendenti dal tempo conviene introdurre una nuova rappresentazione
dell’evoluzione temporale, per cosı̀ dire intermedia tra la rappresentazione di Heisenberg e quella di
Schrödinger. Scriviamo l’Hamiltoniana del sistema come la somma di un termine imperturbato non
dipendente dal tempo H0 e di un termine di perturbazione, in generale dipendente dal tempo, V (t):
H = H0 + V (t).
(13.31)
In rappresentazione di interazione, il contributo dei due termini all’evoluzione temporale viene trattato in
modo diverso: in sostanza, H0 viene trattato in rappresentazione di Heisenberg, e V (t) in rappresentazione
di Schrödinger.
Esplicitamente, definiamo la rappresentazione di interazione nel modo seguente. Supponiamo che
|ψ; tiS siano gli stati in rappresentazione di Schrödinger la cui evoluzione temporale è data dall’hamiltoniana Eq. (13.31). Gli stati in rappresentazione di interazione sono definiti come
|ψ; tiI ≡ exp −
1
H0 t|ψ; tiS = S0−1 (t, 0)|ψ; tiS ,
i~
(13.32)
(avendo scelto per semplicità t0 = 0 come tempo iniziale) mentre gli operatori in rappresentazione di
interazione sono collegati a quelli in in rappresentazione di Schrödinger da
AI = S0−1 (t, 0)AS S0 (t, 0).
(13.33)
Segue immediatamente dalla definizione che la dipendenza dal tempo degli stati in rappresentazione
di interazione è data solo da V (t). Infatti si ha:
1
1
∂
i~ |ψ; tiI = − exp − H0 t H0 |ψ; tiS + exp − H0 t (H0 + V (t))|ψ; tiS
∂t
i~
i~
1
= exp − H0 t V (t)|ψ; tiS = S0−1 (t, 0)V (t)S0 (t, 0)|ψ; tiI
i~
= VI (t)|ψ; tiI ,
(13.34)
dove VI (t) è il potenziale in rappresentazione di interazione, ottenuto da quello in rappresentazione di
Schrödinger mediante la Eq. (13.33) La soluzione dell’equazione di evoluzione temporale per gli stati in
rappresentazione di interazione Eq. (13.34) è cosı̀
Z
1 t 0
0
|ψ; tiI = SI (t, t0 )|ψ; 0i = T exp
dt VI (t ) |ψ; 0i,
(13.35)
i~ t0
dove T è il prodotto cronologico, introdotto studiando l’evoluzione temporale per hamiltoniane dipendenti
dal tempo. Notare che il tempo t0 al quale si prende lo stato iniziale è generalmente diverso dal tempo
t = 0 al quale abbiamo definito la rappresentazione di interazione secondo la Eq. (13.32).
Possiamo verificare esplicitamente (come già avevamo fatto nel caso delle rappresentazioni di Schrödinger e Heisenberg) che la dipendenza temporale determinata usando la rappresentazione di Schrödinger
coincida con quella che si trova in rappresentazione di interazione: in particolare che sia la stessa la
probabilità dei risultati di misure, che fornisce il contenuto predittivo della meccanica quantistica.
Ricordiamo l’argomento nel caso delle rappresentazioni di Schrödinger e di Heisenberg. Supponiamo
che al tempo iniziale il sistema si trovi in uno stato |ψ; 0i. Al tempo t viene effettuata una misura
dell’operatore hermitiano A; la misura dà come risultato λn , ossia il sistema viene rivelato in un certo
stato |ni, autostato dell’operatore A associato all’autovalore λn :
A|ni = λn |ni.
(13.36)
|ψ; ti = S(t, 0)|ψ; ti.
(13.37)
In rappresentazione di Schrödinger
212
La teoria delle perturbazioni
e quindi l’ampiezza di probabiltà che la misura dia proprio λn è
hn|ψ; ti = hn|S(t, 0)|ψ; 0i.
(13.38)
In rappresentazione di Heisenberg se il sistema è in |ψ; 0i a t = 0, esso resta nello stesso stato a tutti
i tempi, ma l’operatore A dipende dal tempo, ed in particolare
AH (t) = S −1 (t, 0)A(0)S(t, 0)
(13.39)
dove l’operatore al tempo t = 0 coincide con l’operatore alla Schrödinger A(0) = AS . Ne segue che gli
operatori A(t) a tempi diversi hanno tutti gli stessi autovalori ma autostati diversi: si possono infatti ottenere l’uno dall’altro attraverso una trasformazione unitaria, l’evoluzione temporale Eq. (13.39), appunto,
e quindi sono operatori unitariamente equivalenti. Gli autostati di AH (t) soddisfano
AH (t)|n(t)i = λn |n(t)i,
(13.40)
ossia, moltiplicando entrambi i membri a sinistra per S e usando la Eq. (13.39),
S(t, 0)S −1 (t, 0)AS S(t, 0)|n(t)i = AS S(t, 0)|n(t)i = λn |n(t)i.
(13.41)
Confrontando con la Eq. (13.36) se ne deduce che
|n(t)i = S −1 (t, 0)|ni.
(13.42)
Pertanto, se al tempo t la misura di A dà come risultato λn questo vuol dire che il sistema è rivelato nello
stato |n(t)i. La corrispondente ampiezza di probabilità è
hn(t)|ψiH = hn|S(t, 0)|ψ; 0i.
(13.43)
che coincide con quella calcolata alla Schrödinger, Eq. (13.38).
In rappresentazione di interazione gli autostati di AI (t) soddisfano
AI (t)|n(t)iI = λn |n(t)iI
(13.44)
con AI (t) dato dalla Eq. (13.33). Un procedimento identico a quello che porta alla Eq. (13.42) troviamo
che
|n(t)iI = S0−1 (t, 0)|ni.
(13.45)
D’altra parte, lo stato in rappresentazione di interazione soddisfa la Eq. (13.32), e quindi l’ampiezza di
probabilità che la misura dia come risultato λn è
I hn(t)|ψiI
= hn|S0 (t, 0)|ψ; tiI = hn|S0 (t, 0)S0−1 (t, 0)|ψ; tiS = hn|S(t, 0)|ψ; 0i,
(13.46)
che ancora una volta coincide con quella calcolata alla Schrödinger, Eq. (13.38).
13.2.2
Sviluppo perturbativo dipendente dal tempo
Discutiamo ora il prototipo di problema che si tratta usando la teoria delle perturbazioni dal tempo:
quello di un sistema che al tempo iniziale si trova in un autostato |ni dell’Hamiltoniana H0
H0 |ni = E|ni
(13.47)
(in generale degenere) e, interagendo con un potenziale V (t), compie una transizione ad un altro autostato
|mi dell’hamiltoniana, che potrebbe essere associato ad una diversa energia, od anche, se l’hamiltoniana è
degenere, essere un altro stato associato alla stessa energia. Questa è la situazione tipica di un problema
di urto.
13.2 Perturbazioni dipendenti dal tempo
213
L’ampiezza di probabilità per la transizione è
Ānm (t) = hm|S(t, t0 )|ni,
(13.48)
dove supponiamo per semplicità t0 fisso e quindi vediamo l’ampiezza come funzione del tempo t al quale
si esegue la misura finale. In rappresentazione di interazione, possiamo riscrivere l’ampiezza come
Ānm (t) = I hm|SI (t, t0 )|niI = hm|S0 (t, 0)SI (t, t0 )S0−1 (t0 , 0)|ni
1
1
= e− i~ (En t0 −Em t) hm|SI (t, t0 )|ni = e− i~ (En t0 −Em t) Amn ,
(13.49)
dove abbiamo indicato con |niI e |ni gli autostati di energia rispettivamente in rappresentazione di interazione e in rappresentazione di Schrödinger, nel secondo passaggio abbiamo usato la relazione Eq. (13.45)
tra gli autostati nelle due rappresentazioni, abbiamo quindi sfruttato il fatto che gli stati |mi, |ni sono
autostati di H0 , ed infine abbiamo posto
Amn (t) = hm|SI (t, t0 )|ni.
(13.50)
Notare, di nuovo, che il tempo t0 al quale si prepara lo stato iniziale è diverso dal tempo t = 0 al quale
abbiamo scelto di definire la rappresentazione di interazione, e questo spiega i diversi argomenti degli
operatori di evoluzione temporale.
Ai fini della determinazione della probabilità di transizione il fattore di fase nella Eq. (13.49) è
irrilevante: infatti
Pnm = |Āmn |2 = |Amn |2 ,
(13.51)
Calcoliamo quindi Amn (t). Si ha
Amn (t) = hm|I +
1
i~
Z
t
t0
dt0 VI (t0 ) +
1
T
2(i~)2
Z
t
dt0 dt00 VI (t0 )VI (t00 ) + . . . |ni
t0
Z
1 t 0
= δnm +
dt hm|S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)|ni+
i~ t0
Z t
Z t0
1
0
hm|
dt
dt00 S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)S0−1 (t00 , 0)VS (t00 )S0 (t00 , 0)|ni + . . .
(i~)2 t0
t0
(13.52)
(13.53)
Possiamo interpretare la Eq. (13.52) come uno sviluppo perturbativo per l’ampiezza Amn (t):
Amn (t) =
∞
X
A(i)
mn (t),
(13.54)
i=0
con
A(0)
mn (t) = δmn
Z
0
1
1 t 0
(1)
Amn (t) =
dt hm|VS (t0 )|nie ih (En −Em )t
i~ t0
Z t
Z t0
X
0
00
1
1
1
0
A(2)
(t)
=
dt
dt00
hm|VS (t0 )|kie ih (Ek −Em )t hk|VS (t00 )|nie ih (En −Ek )t ,
mn
2
(i~) t0
t0
(13.55)
k
..
.
(13.56)
avendo introdotto una risoluzione dell’indentità rispetto agli autostati dell’hamiltoniana imperturbata.
La serie di contributi Eq. (13.55) è nota come serie di Dyson per l’ampiezza di transizione, ed è il risultato
della teoria perturbativa dipendente dal tempo nella sua forma più generale.
214
La teoria delle perturbazioni
13.2.3
La regola aurea di Fermi
Consideriamo il caso particolare in cui la perturbazione è attiva solo a partire dal tempo t = 0, ma è per
il resto indipendente dal tempo:
V (t) = V Θ(t),
(13.57)
dove abbiamo scelto t = 0 come tempo cui accendere la perturbazione per semplicità. Come già discusso,
questo ci permette di trattare la situazione generica in cui il sistema viene preparato in uno stato iniziale
in una regione in cui il potenziale è trascurabile, lasciato interagire con quest’ultimo, ed infine di nuovo
rivelato in una regione in cui il potenziale è trascurabile. Si tratta della situazione tipica degli esperimenti
in cui si usa un fascio di particelle per studiare la struttura della materia, oppure la struttura delle
interazioni fondamentali.
In questo caso, determiniamo l’ampiezza di transizione tra due stati diversi al primo ordine: se m 6= n,
(0)
(1)
Amn (t) = 0, per cui il primo ordine nonnullo è Amn (t). Abbiamo cosı̀
A(1)
mn
1
=
i~
Z
t
1
0
dt0 e i~ (En −Em )t hm|V |ni
(13.58)
0
dove abbiamo definito l’elemento di matrice
Vmn = hm|V |ni
(13.59)
indipendente dal tempo, in quanto tutta la dipendenza temporale è nella funzione Θ(t). Riscriviamo la
Eq. (13.58) come
Z t
1
1
(1)
0 it0 (ωm −ωn )
eit(ωm −ωn ) − 1 Vmn ,
(13.60)
Amn =
dt e
Vmn = −
i~
(ω
−
ω
)~
m
n
0
dove abbiamo posto En = ~ωn .
La probabilità di transizione per unità di tempo, calcolata al primo ordine, è quindi data da
it(ω −ω )
1
|Vmn |2
1
e m n − 12 .
Pnm =
2
t
t [(ωn − ωm )~]
(13.61)
Ma notiamo che
|e
it(ωm −ωn )
it (ωm −ωn ) it (ωm −ωn )
(ω −ω ) 2 (ωm − ωn )t
−it m 2 n 2
2
2
− 1| = e
= 4 sin
e
−e
,
2
2
(13.62)
quindi
1
|Vmn |2
4
2 (ωm − ωn )t
Pnm =
sin
.
t
[(ωm − ωn )~]2 t
2
(13.63)
Consideriamo ora il limite di grande t: il caso cioè in cui, appunto, la particella incidente arriva da
una regione lontana, e quindi la perturbazione agisce per un tempo molto lungo rispetto alla scala di
2
tempi tipici del potenziale stesso. Osserviamo che la funzione sinx(xt)
è una funzione che nel limite di
2
grande t diventa sempre più piccata nell’origine, mantenendo costante il suo integrale
Z ∞
sin2 (xt)
dx
= tπ
(13.64)
x2
−∞
(si veda la Fig. 13.1). Ne segue che
1 sin2 xt
= δ(x),
t→∞ πt
x2
lim
(13.65)
13.2 Perturbazioni dipendenti dal tempo
215
y
5
4
3
2
1
x
-3
-2
-1
Figura 13.1: La funzione
1
1 sin2 xt
πt x2
2
3
per t pari a 3, 5, 10, 15.
e quindi
n
sin2 ωm −ω
4
ωm − ωn
2
=δ
.
lim
t→∞ [(ωn − ωm )]2 πt
2
Possiamo quindi riscrivere l’equazione (13.63) come:
1
ωm − ωn π
δ(ωm − ωn )
2π
2
Pnm = |Vmn | δ
= |Vmn |2 2π
= |Vmn |2 δ(Em − En ).
2
2
t
2
~
~
~
(13.66)
(13.67)
L’equazione (13.67) è nota come regola aurea di Fermi: essa fornisce la la probabilità di transizione per
unità di tempo, ed esprime la conservazione dell’energia nei fenomeni d’urto. È particolarmente utile nel
caso di spettro continuo di energia, come vediamo immediatamente.
13.2.4
Concetti base della teoria dell’urto
La teoria dell’urto (o della diffusione) è un capitolo molto ampio della meccanica quantistica, ricco di
applicazioni che vanno dalla fisica atomica alla fisica nucleare ed alla fisica delle particelle. Ci limitiamo
qui ad introdurre alcuni concetti fondamentali.
Sezione d’urto
L’osservabile fondamentale in teoria dell’urto è la sezione d’urto σ. È definita, per problemi in cui vi è
un flusso costante di particelle che incidono su un bersaglio, come il numero di particelle diffuse (vale a
dire il numero di particelle che hanno interagito con il bersaglio) per unità di flusso entrante e per unità
di tempo.
La sezione d’urto generalizza la sezione geometrica di un bersaglio completamente assorbente (“disco
nero”). Infatti, se un flusso costante di particelle j = dn
dt incide su un bersaglio, il numero totale di
particelle che incide sul bersaglio per unità di area in un certo tempo ∆T è ∆n = j∆T . Il numero totale
216
La teoria delle perturbazioni
di particelle che interagisce col bersaglio è quindi semplicemente dato dal numero totale di particelle che
incidono su di esso, per unità di area, moltiplicato per l’area S del bersaglio stesso, ossia N = ∆nS.
N
N
Pertanto S = ∆n
= j∆T
: il numero di particelle che interagiscono per unità di flusso per unità di tempo
è l’area S del bersaglio. Questo vuol dire che la probabilità che una particella interagisca è pari alla
superficie intercettata dalla particella stessa.
In un esperimento realistico il numero di particelle diffuse dipende da tre fattori: il numero di particelle
proiettile per unità di superficie, la velocità delle particelle e la forma del bersaglio. Lo scopo della sezione
d’urto è rendere indipendente il numero di particelle diffuse dalle caratteristiche del fascio e descrivere
solamente le proprietà del bersaglio. Per questo motivo il risultato ha le unità di misura di una superficie.
o
È utile definire una sezione d’urto differenziale per unità di spazio delle fasi dello stato finale, ddσ#»
k
#»
dσ
dσ
dΩ o in generale d #»
a , dove a è un vettore di numeri quantici che caratterizza la cinematica dello stato
finale. In meccanica quantistica, per descrivere un fenomeno d’urto si suppone che vi siano molte copie
di un sistema quantistico, tutte descritte dalla stessa hamiltoniana, e tutte nello stesso vettore di stato,
su cui vengono effettuate misure ripetute. La sezione d’urto è quindi definita come
dσ = lim
1
t→∞ ja ∆t
|hb|S(t, −t)|ai|2 db
(13.68)
dove j è il flusso di particelle incidenti, aventi tutte vettore di stato |ai, |bi è lo stato finale (il risultato della
misura) e S(t, −t) è l’operatore di evoluzione temporale dal tempo −t in cui il sistema è preparato nello
stato |ai al tempo t in cui esso viene rivelato nello stato |bi — dove “rivelare nello stato” significa “eseguire
una misura il cui risultato rivela il sistema in questo stato”, e ∆t = 2t è la lunghezza dell’intervallo di
tempo tra la preparazione iniziale e la misura finale. L’elemento di matrice dell’evoluzione temporale nel
limite di grandi tempi
Sab ≡ lim hb|S(t, −t)|ai
t→∞
(13.69)
è detto elemento di matrice S (da “scattering”, una terminologia dovuta a Heisenberg.).
Spazio delle fasi e fattore di flusso
Vogliamo ora ottenere un’espressione esplicita per la sezione d’urto, nella situazione tipica in cui sia lo
stato iniziale che lo stato finale sono stati di definito impulso
#»
#»
h #»
x | k i = ψ #»
k (x) =
#» #»
1
(2π)
3
2
ei k · x .
(13.70)
Essi soddisfano la condizione di normalizzazione
#» #»
#» #»
h k | k 0 i = δ (3) ( k − k 0 ).
(13.71)
Per le applicazioni risulta di norma più conveniente parametrizzare l’impulso in coordinate sferiche,
cioé in termini del suo modulo k e di un elemento angolare Ωk = (cos θk , φk ), dove θk e φk sono gli angoli
#»
che parametrizzano la direzione di k in coordinate sferiche. Inoltre, visto che la regola aurea di Fermi
dà la probabilità di transizione tra autostati dell’energia, conviene ulteriormente esprimere il modulo di
impulso in termini dell’energia, che per una particella libera è
#»
~2 k 2
.
E=
2m
(13.72)
che determina il suo modulo.
Vogliamo quindi scrivere la sezione d’urto in termini di stati |EΩk i, che differiscono dagli stati |~ki
esclusivamente per una costante di normalizzazione. Per determinarla, osserviamo che
2
~
m
2
02
0
δ(E − E ) = δ
(k − k ) = 2 δ(k − k 0 ).
(13.73)
2m
~ k
13.2 Perturbazioni dipendenti dal tempo
217
Abbiamo quindi che
hEΩk |E 0 Ωk0 i = δ(E − E 0 )δ (2) (Ωk − Ωk0 ) =
m
δ(k − k 0 )δ (2) (Ωk − Ωk0 ).
~2 k
(13.74)
D’altra parte,
1
#» #»
h k | k 0 i = 2 δ(k − k 0 )δ (2) (Ωk − Ωk0 ).
k
(13.75)
Ne segue che gli stati |EΩk i, che soddisfano la condizione di normalizzazione Eq. (13.74), sono legati
#»
agli autostati dell’impulso | k i Eq. (13.70) che soddisfano la condizione di normalizzazione Eq. (13.71),
da
r
mk #»
|EΩk i =
| k i,
(13.76)
~2
e quindi nella rappresentazione delle posizioni si ha
r
r
#»
mk #» #»
mk 1
i k · #»
x
#»
h x |EΩk i =
hx|k i =
.
3 e
2
2
~
~ (2π) 2
(13.77)
#»
Possiamo ora calcolare esplicitamente il flusso j = | j |, pari al modulo del vettore flusso delle particelle entranti, nell’ipotesi che le particelle entranti siano tutte particelle libere nello stesso autostato
dell’impulso. Ricordiamo che il vettore flusso è definito come
i~ ∗ #»
#»
#»
[ψ ∇ψ − ∇ψ ∗ ψ].
j =−
2m
(13.78)
Sostituendo la funzione d’onda Eq. (13.77) in questa espressione troviamo immediatamente che
#»
#» ~ k mk 1
j =
m ~2 (2π)3
(13.79)
e quindi
#»
|j | =
k2
.
~(2π)3
(13.80)
Utilizzando questa espressione per il flusso, e supponendo che gli stati |ai e |bi siano stati di particella
libera di definito impulso scritti nella forma della Eq. (13.76), la sezione d’urto Eq. (13.68) diventa cosı̀
2
(2π)3 ~ 1 0
hE Ωk0 |S(t, −t)|EΩk i dE 0 dΩk0 .
2
t→∞
k
∆t
dσ = lim
(13.81)
L’approssimazione di Born
Possiamo ora calcolare la sezione d’urto al primo ordine in teoria delle perturbazioni utilizzando la regola
aurea di Fermi. Infatti, il limite per grande ∆t del modulo quadro dell’elemento di matrice S diviso per
∆t che compare nell’espressione Eq. (13.81) per la sezione d’urto è proprio la probabilità di transizione
per unità di tempo Eq. (13.67). Sostituendo l’espressione di quest’ultima troviamo cosı̀
dσ =
2
(2π)4 0
hE Ωk0 |S(t, −t)|EΩk i δ(E 0 − E)dE 0 dΩk0 .
2
k
(13.82)
Capiamo ora l’utilità della regola aurea di Fermi: nell’Eq. (13.81) compare il modulo quadro dell’ampiezza
di transizione. Quest’ultima, per interazioni invarianti per traslazioni temporali, conserva necessariamente
l’energia, e quindi si potrebbe pensare che l’ampiezza fosse proporzionale ad una delta di Dirac che esprime
la conservazione dell’energia. Ma se cosı̀ fosse, la probabilità di transizione risulterebbe proporzionale al
218
La teoria delle perturbazioni
quadrato di una delta, che non ha senso. La soluzione del problema consiste nell’osservare che gli stati
sono preparati e quindi rivelati come autostati dell’hamiltoniana libera; essi non sono quindi autostati
dell’hamiltoniana totale, ed il potenziale può indurre transizioni tra di essi. Il calcolo eseguito nella
Sez. 13.2.3 mostra che ciononostante, se il tempo durante il quale il potenziale agisce è molto lungo
(dimodoché la dipendenza temporale dovuta al fatto che il potenziale viene “acceso” e poi “spento”
diventa trascurabile), allora l’energia, ma la delta compare a livello di probabilità, non di ampiezze.
Possiamo quindi integrare la sezione d’urto su tutte le energie dello stato finale, trovando cosı̀ infine
dσ =
2
(2π)4 0
hE Ωk0 |S(t, −t)|EΩk i dΩk0 .
2
k
(13.83)
La Eq. (13.83), ossia l’espressione della sezione d’urto al primo ordine perturbativo, è nota come approssimazione di Born per la sezione d’urto.
Utilizzando l’espressione esplicita Eq. (13.76-13.77) degli stati |EΩk i, l’elemento di matrice che compare nella Eq. (13.83) diventa
Z
#» #»
mk
d3 x ei q · x V ( #»
hEΩk0 |V |EΩk i = 2
x ),
(13.84)
~ (2π)3
dove
#» #»
#»
q = k − k0
(13.85)
#»
#»
è l’impulso trasferito, e | k | = | k 0 | = k visto che E 0 = E.
Si ha cosı̀
dσ =
(2π)4 m2
|f ( #»
q )|2 dΩ
~4
(13.86)
dove
f ( #»
q) ≡
1
(2π)3
Z
#» #»
d3 #»
x V ( #»
x )ei q · x .
(13.87)
è detto fattore di forma del bersaglio, ed abbiamo sottinteso che l’elemento angolare dΩ si riferisca
#»
all’impulso dello stato finale k 0 . Per potenziali centrali possiamo ulteriormente scrivere
Z ∞ Z 1
Z ∞
1
sin qr
1
2
iqr cos θ
f ( #»
q) =
dr
dr r
V (r).
(13.88)
d
cos
θ
r
V
(r)e
=
2
4π 2 0
2π
q
0
−1
Sostituendo nella Eq. (13.86) troviamo infine
Z
2
dσ
4m2 ∞
= 2 4
dr r sin qrV (r) .
dΩ
q ~
0
(13.89)
Parte V
Molti corpi quantistici
Capitolo 14
Sistemi di molti corpi quantistici
Nella discussione dei sistemi quantistici il cui spazio degli stati si ottiene prendendo un prodotto diretto
di spazi di stati di dimensione inferiore ci siamo finora concentrati su problemi separabili. Abbiamo
cioé sempre tentato di ridurre problemi multidimensionali a più problemi unidimensionali, il problema
dei due corpi a due problemi ad un corpo, e cosı̀ via. In questi casi il vettore di stato si fattorizza
completamente, anche se sappiamo che in generale non sempre questo è possibile. Diversi dei più peculiari
effetti quantistici tuttavia emergono proprio nella situazione in cui questa fattorizzazione non è possibile.
In questo capitolo discuteremo molto succintamente alcuni di questi effetti, che sono in particolare alla
base della meccanica statistica quantistica, e della teoria quantistica dell’informazione. In entrambi i
casi, le differenze principali che emergono tra la meccanica quantistica e la meccanica classica sono legate
al fatto che la funzione d’onda è un oggetto non-locale: essa è una funzione su tutto lo spazio delle
configurazioni. Questo ha conseguenze inattese quando la funzione d’onda non è fattorizzabile.
14.1
Particelle identiche
La meccanica statistica, sia nel caso classico che nel caso quantistico, è basata sul conteggio degli stati di
un sistema meccanico. Anche quando non si può completamente osservare lo stato di un sistema, se ne
possono descrivere molte proprietà in termini di medie, e per questo è ovviamente necessario contare gli
stati che hanno una certa proprietà (per esempio, tutti gli stati che hanno energia in un certo intervallo).
Il conteggio degli stati in meccanica quantistica differisce profondamente dalla sua controparte classica
perché quantisticamente è diverso il concetto di identità di stati fisici.
In meccanica classica, infatti, due oggetti non sono mai completamente indistinguibili: classicamente,
è sempre possibile (in linea di principio, se non in pratica) eseguire qualche misura che permetta di
distinguerli. Anche due palle da biliardo perfettamente identiche possono essere distinte semplicemente
definendo come prima, o seconda, quella che ad un certo tempo occupa una certa posizione. Ma in
meccanica quantistica il principio di indeterminazione fa sı̀ che il concetto di traiettoria di un oggetto
perda di significato: quindi, assegnarne la posizione non permette di identificarlo a tutti i tempi successivi
senza ambiguità.
È quindi possibile che in meccanica quantistica esistano oggetti completamente indistinguibili, nel
senso che non esiste alcuna misura che permette di dire qual è il primo e qual è il secondo. Per definire pù
precisamente questa situazione, e capirne le implicazioni, consideriamo un sistema che vive in uno spazio
prodotto diretto: ad esempio un sistema di due particelle. Il vettore di stato ha quindi la forma
|ψi =
X
cnm |ni ⊗ |mi,
(14.1)
nm
dove |ni, |mi sono basi per gli spazi degli stati delle due particelle. Ad esempio, |ni, |mi potrebbero
essere i valori della terza componente dello spin per due particelle, oppure valori dell’energia e del modulo
dell’impulso per ciascuna particella. Quantisticamente, diciamo che due particelle sono identiche quando:
222
Sistemi di molti corpi quantistici
1. gli spazi degli stati |ni, |mi sono copie dello stesso spazio degli stati (ossi se i due spazi sono
isomorfi): ad esempio, se si tratta di stati di terza componente dello spin, per particelle che hanno
lo stesso spin;
2. lo scambio dei numeri quantici relativi alla prima ed alla seconda particella lascia invariati i risultati
di qualunque misura che può essere eseguita sul sistema.
14.1.1
L’operatore di scambio
Per studiare le proprietà delle particelle identiche, introduciamo un operatore di scambio P12 , tale che
P12 |nmi = |mni
(14.2)
dove abbiamo usato la consueta notazione compatta |nmi ≡ |ni ⊗ mi per indicare uno stato prodotto
diretto. Agendo su uno stato della forma Eq. (14.1) l’operatore di scambio produce il nuovo stato
X
|ψ 0 i = P12 |ψi =
cmn |ni ⊗ |mi.
(14.3)
nm
Ricordando che la fase di uno stato quantistico è inosservabile, diciamo quindi che due particelle sono
identiche se per ogni stato del sistema
|ψ 0 i = P12 |ψi = eiα |ψi.
(14.4)
2
P12
=I
(14.5)
2
|ψi = P12
|ψi = (eiα )2 |ψi
(14.6)
eiα = ±1.
(14.7)
Poiché, ovviamente
ne segue che
quindi
In altri termini, due particelle sono identiche se tutti i loro stati sono autostati dell’operatore di scambio,
ed i possibili valori dell’autovalore sono ±1.
È facile dimostrare che l’operatore di scambio è l’inverso di se stesso:
2
I = P12
= P12 P12
(14.8)
−1
P12 = P12
.
(14.9)
e quindi
†
Inoltre la definizione Eq. (14.2) implica immediatamente che P12
= P12 , ossia che l’operatore di scambio
è autoaggiunto. Infatti si tratta di un operatore i cui elementi di matrice sono 1 tra stati in cui le due
particelle hanno numeri quantici scambiati, e 0 in tutti gli altri casi, e quindi tale per cui la matrice
dell’operatore è manifestamente eguale alla complessa coniugata della trasposta. Assieme alla Eq. (14.9),
ciò implica immediatamente che esso è anche unitario.
Poiché dopo la misura di un’osservabile qualunque il sistema si trova in un autostato dell’osservabile,
la Eq. (14.4) implica immediatamente che un sistema di particelle indentiche è un sistema tale per cui
qualunque operatore Ô associato ad un’osservabile soddisfa la condizione
P12 ÔP12 = Ô.
(14.10)
14.1 Particelle identiche
223
Infatti, misurando Ô possiamo porre il sistema in un qualunque autostato di |nO i di Ô, che soddisfa
Ô|nO i = λO |nO i.
(14.11)
Pertanto lo stato |nO i deve soddisfare la Eq. (14.4) e quindi
P12 ÔP12 |nO i = eiα P12 Ô|nO i = P12 eiα λO |nO i = λO |nO i = Ô|nO i.
(14.12)
Questo significa che qualunque osservabile relativa al sistema deve essere invariante sotto lo scambio
degli spazi su cui agiscono gli operatori relativi alle due particelle. Per esempio, per un sistema di due
particelle meccaniche avente hamiltoniana
Ĥ =
#p
#p
ˆ»2
ˆ»2
1
ˆ»1 , #x
ˆ»2 ) + W (1) ( #x
ˆ»1 ) + W (2) ( #x
ˆ»2 )
+ 2 + V̂ ( #x
2m1
2m2
(14.13)
si ha
−1
P12 HP12
#p
#p
ˆ»2
ˆ»2
2
ˆ»2 , #x
ˆ»1 ) + W (1) ( #x
ˆ»2 ) + W (2) ( #x
ˆ»1 ),
+ 1 + V ( #x
=
2m1
2m2
(14.14)
quindi la condizione Eq. (14.10) è soddisfatta solo se m1 = m2 , W (1) (x) = W (2) (x) e V (x, y) = V (y, x).
L’ Eq. (14.10) può essere equivalentemente riscritta come
[P12 , Ô] = 0,
(14.15)
pertanto l’operatore di scambio è diagonalizzabile simultaneamente a qualunque osservabile del sistema,
ed in particolare all’hamiltoniana.
Naturalmente, la Eq. (14.15) vale per qualunque operatore, tutti gli stati accessibili al sistema soddisfano la condizione di indistinguibilità Eq. (14.4), quindi possiamo equivalentemente dire che due particelle
sono identiche se per qualunque osservabile Ô vale la Eq. (14.15).
14.1.2
Sistemi di n particelle e degenerazione di scambio
Quando le particelle identiche diventano più di due la situazione si complica in modo interessante. Per
un sistema di k particelle, il vettore di stato ha la forma
X
|ψi =
cn1 ...nk |n1 i ⊗ |n2 i · · · ⊗ |nk i.
(14.16)
n1 ...nk
Si possono quindi definire 1−2
k (k − 1) operatori di scambio Pij che scambiano i numeri quantici della
i-esima e della j-esima particella,
X
Pij |ψi =
cn1 ...nj ...ni ...nk |n1 i ⊗ . . . |ni i · · · ⊗ |nj i . . . |nk i.
(14.17)
n1 ...nk
Saremmo quindi portati a dire che k particelle sono tutte identiche fra loro se gli stati fisici sono
autostati di tutti gli operatori di scambio:
Pij |ψi = eiαij |ψi.
(14.18)
Osserviamo tuttavia che gli operatori di scambio non commutano fra di loro. Possiamo capire questo con
un semplice esempio. Consideriamo uno stato a tre particelle, completamente fattorizzato, della forma
|k1 k2 k3 i. È facile verificare che
P12 P13 |k1 k2 k3 i = P12 |k3 k2 k1 i = |k2 k3 k1 i,
(14.19)
P13 P12 |k1 k2 k3 i = P13 |k2 k1 k3 i = |k3 k1 k2 i =
6 P12 P13 |k1 k2 k3 i.
(14.20)
mentre
224
Sistemi di molti corpi quantistici
Quindi gli operatori di scambio non commutano nello spazio prodotto diretto. Ne segue che per più
di due particelle le due condizioni Eq. (14.15) ed Eq. (14.4) non sono in generale equivalenti: possiamo
sempre soddisfare la prima, chiedendo che qualunque osservabile commuti con lo scambio di qualunque
coppia di particelle, ma non possiamo in generale soddisfare la seconda, chiedendo che gli stati siano
simultaneamente autostati di tutti i 1−2
k (k − 1) operatori di scambio, in quanto questi non commutano
fra loro.
Nello spazio prodotto diretto possiamo quindi solo chiedere che valga la Eq. (14.4): questo vorrebbe
dire che vi sono 1−2
k (k − 1) operatori di scambio che non commutano fra di loro ma che commutano
con l’hamiltoniana, e con qualunque altra osservabile. Poiché vi sono sono k! permutazioni dello stato
fattorizzato |k1 k2 k3 i questo vuol dire che nello spazio prodotto diretto vi sono k! autostati degeneri per
qualunque osservabile fisica. Questa degenerazione è detta degenerazione di scambio. Per esempio, se
consideriamo una hamiltoniana per un sistema di tre particelle in una buca di potenziale unidimensionale,
lo spettro di autovalori di energia è lo stesso di quello della buca di potenziale cubica, dato dagli En1 n2 n3 ,
Eq. (9.47). Ma è ovvio che tutti i sei (3!) stati |n1 n2 n3 i che differiscono per una permutazione dei tre
indici sono associati allo stesso autovalore.
14.1.3
Statistiche quantistiche
Vi è tuttavia una possibilità alternativa: e cioè che lo spazio degli stati fisici non sia l’intero spazio prodotto
diretto, bensı̀ un suo sottospazio. È infatti facile vedere che vi sono due sottospazi dello spazio prodotto
diretto nei quali gli operatori di scambio commutano. Se facciamo quindi l’ipotesi che gli unici stati
fisicamente realizzati appartengano a questi sottospazi, allora è possibile diagonalizzare simultaneamente
tutti gli operatori di scambio e tutte le osservabili fisiche.
Bosoni e fermioni
Il primo sottospazio di stati fisici per cui gli operatori di scambio è quello degli stati completamente
simmetrici, cioé tali che per ogni i, j
Pij |ψi = |ψi.
(14.21)
[Pij , Pi0 j 0 ]|ψi = 0.
(14.22)
Infatti, in tal caso ovviamente
per ogni scelta di i, j, i0 , j 0 .
Il secondo meno banale sottospazio è quello degli stati completamente antisimmetrici: quelli cioè per
cui per ogni i, j
Pij |ψi = −|ψi.
(14.23)
Che lo spazio degli stati completamente antisimmetrici sia un sottospazio dello spazio di partenza segue
dall’osservazione seguente. Una qualunque permutazione di n oggetti può essere ottenuta attraverso un
numero finito di scambi di due oggetti. In generale, vi sono più sequenze di scambi che portano alla
stessa permutazione. Tuttavia, se una permutazione può essere ottenuta attraverso una sequenza di un
numero pari di scambi, si dimostra che qualunque altra sequenza che porti alla stessa permutazione deve
contenere un numero pari di scambi, e analogamente se può essere ottenuta attraverso un numero dispari
di scambi qualunque altra sequenza che porta alla stessa permutazione è fatta di un numero dispari di
scambi. Quindi la parità (o segnatura) di una qualunque permutazione è univocamente definita, o come
pari, o come dispari. Questo vuol dire che è sempre possibile costruire l’insieme degli stati completamente
antisimmetrici: basta aggiungere ad ogni stato |n1 . . . nk i tutti gli stati che differiscono da esso per una
permutazione, pesati con un fattore (−1)s , dove s è la segnatura della permutazione. È inoltre facile vedere
che una combinazione lineare di stati antisimmetrici è anch’essa antisimmetrica. Gli stati antisimmetrici
sono quindi un sottospazio dello spazio di partenza.
14.1 Particelle identiche
225
Ma sul sottospazio di stati antisimmetrici gli operatori di scambio commutano ovviamente: infatti
l’azione di due qualunque operatori di scambio produce sempre una permutazione pari, e quindi
Pij Pi0 j 0 |ψi = |ψi = Pi0 j 0 Pij |ψi.
(14.24)
È facile verificare che questi sono gli unici due sottospazi per cui gli operatori di scambio commutano,
cioè che in qualunque sottospazio a simmetria mista gli operatori di scambio non commutano: se vi sono
almeno due autovalori diversi per due operatori di scambio diversi, allora si vede facilmente che l’ipotesi
che gli stati siano autostati di entrambi porta ad una contraddizione. Possiamo dare il controesempio
nel caso di tre particelle visto prima, Eq. (14.19-14.20). Supponiamo che l’autovalore di P12 sia +1 e
l’autovalore di P13 sia −1, e consideriamo uno stato della forma |k1 k2 k3 i. Abbiamo che
|k1 k2 k3 i = |k2 k1 k3 i = −|k3 k1 k2 i = −|k1 k3 k2 i = |k2 k3 k1 i = |k3 k2 k1 i = −|k1 k2 k3 i,
(14.25)
che è una contraddizione.
Pertanto, la richiesta che gli stati di n particelle identiche siano autostati simultanei degli operatori di
scambio ci porta a concludere che essi sono o completamente simmetrici, o completamente antisimmetrici.
Entrambe le possibilità sono realizzate in natura. La proprietà di trasformazione sotto scambio del vettore
di stato per un sistema di n particelle identiche è nota come statistica delle particelle. Le particelle
simmetriche sotto scambio sono dette bosoni, o, equivalentemente si dice che esse soddisfano la statistica
di Bose-Einstein. Le particelle antisimmetriche sotto scambio sono dette fermioni, o equivalentemente si
dice che esse soddisfano la statistica di Fermi-Dirac.
Il principio di esclusione
L’obbligo di simmetrizzare od antisimmetrizzare la funzione d’onda per un sistema di n particelle identiche
ha immediate conseguenze sullo spettro di energia per un sistema di n particelle, e può essere visto come
un’interazione efficace non separabile tra le particelle anche in assenza di forze. Infatti, la funzione
d’onda per un sistema di due particelle identiche soggette ad un medesimo potenziale V , cioè descritte
dall’hamiltoniana completamente separabile
H = H1 + H2 ,
Hi =
p2i
+ V (xi )
2m
(14.26)
(come, ad esempio, due particelle in una buca di potenziale) non è mai fattorizzabile nel caso di fermioni,
e non è in generale fattorizzabile nel caso di bosoni.
Supponiamo infatti noto lo spettro di Hi :
Hi |ni = E|ni;
hxi |ni = ψn (xi ).
(14.27)
Supponiamo inoltre che n sia intero, con n = 0 stato fondamentale. Nel caso di bosoni, lo stato
fondamentale per il sistema di due particelle è quindi
ψgB (x1 , x2 ) = ψ0 (x1 )ψ0 (x2 )
(14.28)
ma per un sistema di due fermioni esso è
1
ψgF (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) − ψ0 (x2 )ψ1 (x1 )) .
2
(14.29)
Infatti, se si antisimmetrizza la funzione d’onda di stato fondamentale essa si annulla. Questo è il principio
di esclusione (di Pauli): per un sistema di n fermioni identici in un potenziale, non è possibile avere due
fermioni nello stesso stato. Inoltre, anche nel caso di bosoni, il primo stato eccitato è dato da
1
ψ1B (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) + ψ0 (x2 )ψ1 (x1 )) ,
2
(14.30)
che pure non è fattorizzabile. Quindi anche in assenza di interazioni la funzione d’onda non è fattorizzabile,
come se vi fosse un potenziale non separabile.
226
14.1.4
Sistemi di molti corpi quantistici
Relazione spin-statistica
In natura, tutte le particelle di spin intero sono bosoni e quelle di spin semi-intero sono fermioni. Ciò
va sotto il nome di relazione spin-statistica. Non è immediato mostrare che la relazione spin-statistica
sia un teorema e non un postulato. La relazione spin-statistica fu inizialmente postulata agli albori della
meccanica quantistica, e fu poi dimostrata in vari modi negli anni ’40-’50-’60 del ’900 usando dei principi
di teoria quantistica dei campi, ovvero delle considerazioni che vanno molto al di là della meccanica
quantistica non relativistica.
La prima dimostrazione che convinse la comunità dei fisici che ci fosse un argomento solido per
richiedere la necessità di questa relazione fu formulata negli anni ’50 da Streater e Wightman, due fisici
matematici interessati a dare una formulazione rigorosa alla teoria quantistica dei campi. Streater e
Wightman dimostrarono che la relazione spin-statistica è necessaria perché una teoria quantistica di
campo abbia uno stato fondamentale stabile, e simultaneamente soddisfi una serie di assiomi ritenuti
irrinunciabili, in particolare la causalità (unitarietà) e la località.
Esistono tuttavia anche argomenti più semplici che portano alla relazione spin-statistica, alcuni dei
quali si possono riformulare nell’ambito della meccanica quantistica non relativistica. Esiste in particolare un’ampia letteratura sulla relazione spin-statistica in spazi bidimensionali. Il caso bidimensionale
è particolarmente interessante perché in due dimensioni sono possibili altre statistiche oltre a quelle di
Bose e Fermi, che sono di interesse per fenomeni di fisica della materia condensata, come l’effetto Hall
frazionario.
Discutiamo quindi la relazione spin-statistica in due dimensioni. Ricordiamo innanzitutto che si è
costruito lo spin studiando le rappresentazioni delle rotazioni. In tre dimensioni ci sono tre generatori di
rotazioni, le rotazioni attorno ai tre assi; in due dimensioni c’è un solo generatore delle rotazioni, l’asse
perpendicolare allo spazio bidimensionale. Il gruppo delle rotazioni è pertanto il gruppo abeliano SO(2)
delle rotazioni dei vettori bidimensionali. Esso è isomorfo al gruppo delle trasformazioni di fase: possiamo
sempre ad associare ad una rotazione di angolo θ la fase eiθ .
Pertanto, la più generale funzione d’onda bidimensionale è
h #»
x |ψi = ψ(r, ϑ),
(14.31)
e una rotazione di angolo α di tale funzione d’onda è
h #»
x |Rα |ψi = ψ(r, ϑ + α) = eα ∂ϑ ψ(r, ϑ)
∂
(14.32)
che possiamo anche esprimere in termini dell’operatore di momento angolare L
i
h #»
x |Rα |ψi = h #»
x |e ~ αL̂ |ψi,
(14.33)
dato da
∂
h #»
x |L̂| #»
x 0 i = −i~ δ (2) ( #»
x − #»
x 0 ).
∂ϑ
(14.34)
Ovviamente, le autofunzioni di L sono le funzioni
hθ|ni = einθ
(14.35)
L|ni = ~n|ni
(14.36)
tali che
e la richiesta che la funzione d’onda sia ad un valore implica che n è intero.
Cosı̀ come nel caso tridimensionale si può definire uno spin. Lo spin è un momento angolare intrinseco
che in questo caso è generato dall’unico generatore s. Su una funzione d’onda |si, che vive in uno spazio
i
astratto, può agire un operatore e− ~ αŝ tale che
i
e− ~ αŝ |si = e−iαs |si,
(14.37)
14.1 Particelle identiche
227
dove |si sono autofunzioni
ŝ|si = ~s|si.
(14.38)
Notiamo che in questo caso s potrebbe prendere qualunque valore (non c’è condizione di quantizzazione). Tuttavia, visto che desideriamo in seguito immergere il piano in uno spazio tridimensionale,
concentriamoci sui casi di s intero e semi-intero che ammettono la generalizzazione a tre dimensioni.
La funzione d’onda totale di un sistema avente sia momenti angolare orbitale che spin è quindi
|ψsi = |ψi ⊗ |si.
(14.39)
Sotto una rotazione di angolo θ essa si trasforma come
eiθ(L+ŝ) |ψsi = eiθs eiθL |ψsi
(14.40)
h #»
x |ψsi = ψs ( #»
x ),
(14.41)
e quindi
dove la ψs differisce dalla funzione d’onda spaziale ψ( #»
x ) per una pura fase.
Figura 14.1: Scambio di due particelle identiche A e B in due dimensioni tramite una rotazione attorno
al loro baricentro.
Consideriamo ora la funzione d’onda per un sistema di due particelle in due dimensioni, con spin. La
funzione d’onda |ψsi è data da
h #»
x 1 #»
x 2 |ψsi = ψs ( #»
x 1 , #»
x 2 ),
(14.42)
dove ora sotto una rotazione di angolo α si ha
h #»
x 1 #»
x 2 |Rα |ψsi = e2iαs Rα ψs ( #»
x 1 , #»
x 2 ),
(14.43)
dove Rα realizza la rotazione spaziale, ed abbiamo supposto che lo spin sia s per entrambe le particelle.
Osserviamo ora che la funzione d’onda spaziale per un sistema di due particelle si può scrivere in
termini di coordinata del baricentro e coordinata relativa come
#»
x 1 + #»
x2
#»
h #»
x 1 #»
x 2 |ψi = ψ( #»
x 1 , #»
x 2 ) = ψ #»
x 1 − #»
x 2,
= ψ( #»
r , R) = ψ(r, ϑ, ϕ)
(14.44)
2
dove nell’ultimo passaggio abbiamo ulteriormente parametrizzato coordinata del baricentro e coordinata
relativa in coordinate polari:
r cos ϑ
#»
r (ϑ) =
(14.45)
r sin ϑ
228
Sistemi di molti corpi quantistici
#»
R(ϕ) =
R cos ϕ
R sin ϕ
.
(14.46)
Osserviamo ora che ne segue che l’operatore di scambio può essere semplicemente realizzato da una
rotazione intorno al baricentro del sistema, o più in generale da una rotazione seguita da una traslazione
(si veda la Fig. 14.1): infatti una rotazione di π manda la coordinata relativa #»
r in − #»
r , ma ovviamente
#»
ψ( #»
x 2 , #»
x 1 ) = ψ(− #»
r , R) = ψ(r, ϑ + π, ϕ).
(14.47)
P12 |ψi = Rπ |ψi.
(14.48)
Pertanto
Ora calcoliamo l’azione di una rotazione di π su un sistema di particelle identiche, supponendo che
siano in uno stato di momento angolare orbitale relativo nullo. Usando la Eq. (14.43) abbiamo che
h #»
x 1 #»
x 2 |Rπ |ψsi = e2iπs Rα ψ( #»
x 1 , #»
x 2 ) = e2iπs ψ( #»
x 1 , #»
x 2 ),
(14.49)
dove l’ultimo passaggio segue dall’ipotesi di momento angolare orbitale relativo nullo. Ma se le particelle
sono identiche abbiamo anche che
h #»
x 1 #»
x 2 |Rπ |ψsi = h #»
x 1 #»
x 2 |P12 |ψsi = e2iπs h #»
x 1 #»
x 2 |ψsi,
(14.50)
dove nell’ultimo passaggio abbiamo usato la Eq. (14.49). Ma questo ci dice immediatamente che la ψs è
un autostato dell’operatore di scambio con autovalore ±1 a seconda che s sia intero o semi-intero.
D’altra parte, abbiamo visto che la simmetria della funzione d’onda deve essere una proprietà universale per un sistema di particelle identiche, e quindi essa non può dipendere dal valore del momento angolare
orbitale. Ne deduciamo che la funzione d’onda deve essere necessariamente simmetrica (antisimmetrica)
se lo spin è intero (semi-intero), cioè il teorema spin-statistica.
Questo stabilisce il teorema spin statistica in due dimensioni nel caso non relativistico. In più dimensioni la dimostrazione comporta qualche complicazione tecnica, legata al fatto che in più di due dimensioni
vi sono diversi modi di scambiare due particelle mediante una rotazione. Ma la motivazione profonda
della relazione spin-statistica resta una conseguenza del fatto che scambiare tra loro due particelle è simile
ad effettuare una rotazione di π, e quindi per spin seminteri lo scambio di due particelle si porta dietro
una fase di -1. Questo è l’argomento che sta alla base del teorema anche in teoria quanto-relativistica dei
campi, dove vengono introdotti operatori di creazione e distruzione che dipendono dalla coordinata (ce
ne sono per ogni punto dello spazio). Tali operatori per i fermioni devono anticommutare, e si vede che
ciò dà luogo appunto ad una fase di -1.
14.2
Entanglement
La natura non-locale della funzione d’onda emerge in modo particolare quando la funzione d’onda per un
sistema di molte particelle non può essere scritta come prodotto diretto. Gli stati che non si possono scrivere come prodotto diretto sono detti stati entangled. Come vedremo in questo capitolo, l’entanglement è
al cuore della meccanica quantistica. Da un lato, è in presenza di entanglement che si manifesta la differenza tra descrizione classica e descrizione quantistica dei fenomeni fisici. D’altra parte, è il comportamento
dei sistemi entangled quando vengono eseguite delle misure che ci permette di capire la transizione tra la
descrizione quantistica e quella classica dei fenomeni fisici, ed in particolare come la descrizione classica
emerga quando la perdita di informazione sullo stato del sistema fa sı̀ che l’interferenza quantistica non
sia più rilevabile.
14.2.1
La matrice densità
Come abbiamo già visto, vi è un formalismo naturale per studiare in ambito quantistico la situazione
nella quale vi è informazione incompleta circa lo stato di un sistema. In fisica quantistica, a differenza che
14.2 Entanglement
229
nel caso classico, è possibile prevedere gli eventi solo in modo statistico (cioé se ne può solo calcolare la
probabilità) anche quando si è in possesso di informazione completa sullo stato del sistema. Il formalismo
della matrice densità permette di distinguere tra informazione probabilistica classica e quantistica.
Ricordiamo che per un sistema che si trova in uno stato quantistico |ψi ben definito, ossia in uno stato
puro, la matrice densità è definita come il proiettore su tale stato:
ρ = |ψihψ|.
(14.51)
Se tuttavia si conosce solo l’insieme delle probabilità Pi che il sistema si trovi in uno degli stati |ψi i si
dice che il sistema si trova in uno stato misto anziché in uno stato puro, e la matrice densità è
X
X
ρ=
Pi |ψi ihψi |;
Pi = 1.
(14.52)
i
i
Notare che Pi sono probabilità, quindi numeri reali tali che 0 ≤ Pi ≤ 1.
Il formalismo della matrice densità rende chiara la profonda differenza tra sovrapposizione quantistica
e la sovrapposizione statistica. Nella sovrapposizione quantistica, lo stato puro |ψi è generalmente scritto
come sovrapposizione di altri stati. La matrice densità contiene quindi tutti i termini di interferenza tra
gli stati: se |ψi = c1 |φ1 i + c2 |φ2 i chiaramente ρ Eq. (14.51) è la somma di quattro termini, sia quelli
contenenti le combinazioni |φ1 ihφ1 e |φ2 ihφ2 , sia i termini di interferenza |φ1 ihφ2 | e |φ2 ihφ1 |. Invece la
sovrapposizione statistica classica Eq. (14.52) contiene solo termini diagonali, senza interferenze. Questa
è la ragione per la quale la meccanica quantistica è diversa dalla meccanica statistica classica: in entrambi
i casi le le predizioni sono predizioni probabilistiche, però nel caso quantistico, a differenza che nel caso
classico, ciò che si sovrappone non sono probabilità, bensı̀ ampiezze. Le probabilità sono il modulo quadro
delle ampiezze e di conseguenza compaiono dei termini di interferenza.
Ricordiamo alcune proprietà della matrice densità. Dato un operatore Â, il suo valor medio è
hÂi = TrÂρ.
(14.53)
Inoltre la matrice densità è un operatore autoaggiunto,
ρ† = ρ
(14.54)
Trρ = 1.
(14.55)
e
Infine, una matrice densità descrive uno stato puro se e solo se
ρ2 = ρ.
(14.56)
Matrice densità dei sottosistemi
L’esame della matrice densità di un sistema quantistico complesso ci permetterà di studiare la transizione
classico-quantistico. Consideriamo a questo fine la matrice densità di un sistema che vive in uno spazio
di prodotto diretto, dove quindi si ha
X
|ψi =
cmn |m1 i ⊗ |n2 i;
(14.57)
mn
|m1 i sono vettori di base del sistema 1, mentre |n2 i sono vettori di base del sistema 2.
La matrice densità ha la forma:
X
ρ = |ψihψ| =
c∗m0 n0 cmn |m1 i|n2 ihm01 |hn02 |.
(14.58)
mnm0 n0
Ci chiediamo ora cosa succede quando viene effettuata una misura in uno solo dei due sottospazi, ossia
una misura di un’osservabile che dipende soltanto dai gradi di libertà di uno dei due sottospazi. Questa
230
Sistemi di molti corpi quantistici
è naturalmente una situazione fisica tipica: si misurano le proprietà di un sistema, che fa parte di un
ambiente più complesso, che resta inosservato.
Data una osservabile Â2 che agisce solo nel secondo sottospazio, il suo valor medio è dato da:
X
hÂ2 i = TrA2 ρ =
c∗m0 n0 cmn hm01 |hn02 |Â2 |m1 i|n2 i
mnm0 n0
=
X
c∗m0 n0 cmn hn02 |Â2 |n2 ihm01 |m1 i
mnm0 n0
=
X
c∗mn0 cmn hn02 |Â2 |n2 i.
(14.59)
mnn0
Il risultato può essere espresso come
TrÂ2 ρ2
(14.60)
dove ρ2 è una matrice densità che agisce solo nel sottospazio ridotto:
X
X
dnn0 |n2 ihn02 |
c∗mn0 cmn |n2 ihn02 | =
ρ2 = Tr1 ρ =
2
mnn0
nn0
(14.61)
2
dove nel primo passaggio Tr1 indica la traccia eseguita solo nel primo sottospazio, e
X
dnn0 =
cmn c∗mn0 .
(14.62)
m
La matrice densità ρ2 è dunque la matrice densità ottenuta prendendo la matrice di partenza e tracciando
solo rispetto al sottospazio 1, dove non misuriamo.
Consideriamo per esempio un sistema di due particelle di spin 21 , che si trova in uno stato di spin
totale uguale ad 1, e terza componente uguale a 0:
1
|ψi = √ |+i|−i + |−i|+i .
2
(14.63)
Supponiamo che le due particelle non siano identiche (ad esempio, consideriamo un protone ed un elettrone) e supponiamo di misurare lo spin dell’elettrone. Vogliamo misurare, ad esempio, lo spin lungo l’asse
#»
n per l’elettrone. Consideriamo quindi l’operatore
σn = #»
n · #»
σ (2)
(14.64)
dove #»
σ (2) rappresenta il vettore delle matrici di Pauli che agiscono nel secondo sottospazio.
L’operatore σn agisce solo nel secondo sottospazio. Si ha
1
h+1 |h−2 | + h−1 |h+2 | σn |+1 i|−2 i + |−1 i|+2 i
2
1
= h+1 |+1 ih−2 |σn |−2 i + h−1 |+1 ih+2 |σn |−2 i + h+1 |−1 ih−2 |σn |+2 i + h−1 |−1 ih+2 |σn |+2 i
2
1
= h−2 |σn |−2 i + h+2 |σn |+2 i .
(14.65)
2
2
Tr σn ρ =
Abbiamo quindi
ρ2 = Tr1 ρ = Tr1
1
(|+1 i|−2 i + |−1 i|+2 i) (h+1 |h−2 | + h−1 |h+2 |) .
2
(14.66)
Notiamo che ρ2 è la matrice densità per uno stato misto completamente non polarizzato. Quindi, in
questo caso, benché il sistema si trovi in uno stato puro, l’impossibilitá di misurarne completamente le
caratteristiche fa sı̀ che esso appaia come uno stato misto. In altri termini, si può passare da uno stato
sovrapposizione quantistica ad uno stato sovrapposizione classica facendo delle medie dei gradi di libertà
che non si misurano.
14.2 Entanglement
231
Entanglement e media sui sottosistemi
Dimostriamo ora che condizione necessaria e sufficiente affinché la matrice densità di uno stato puro resti
puro quando si misura solo un sottosistema è che lo stato si possa scrivere come prodotto diretto. Questo
vuol dire che data ρ2 = Tr1 ρ, se e solo se
|ψi = |ψ1 i|ψ2 i
(14.67)
ρ22 = ρ2
(14.68)
|ψi =
6 |ψ1 i|ψ2 i
(14.69)
ρ22 6= ρ2 .
(14.70)
allora
mentre se
allora
Verifichiamo esplicitamente che la condizione è sufficiente, omettendo la dimostrazione della condizione
necessaria. Il quadrato della matrice densità è:
X
X
X
ρ22 =
cmn c∗mn0 |nihn0 |
cij c∗ij 0 |jihj 0 | =
cmn c∗mn0 cij c∗ij 0 |nihn0 |jihj 0 |
mnn0
ijj 0
mnn0 ijj 0
!
=
X
cmn c∗mj cij c∗ij 0 |nihj 0 | =
mnijj 0
=
XX
nj 0
XX X
nj 0
cmn c∗mj
m
j
X
cij c∗ij 0
|nihj 0 |
i
0
(fnj fjj 0 ) |nihj |.
(14.71)
j
Ci chiediamo quando valga
ρ22 =
X
fnj 0 |nihj 0 |.
(14.72)
nj 0
Ipotizziamo che lo stato di partenza sia fattorizzato:
X
|ψi =
cmn |m1 i|n2 i.
(14.73)
mn
Esso è non entangled se cmn = bm dn . In questo caso, infatti,
X
|ψi =
bm |m1 i dn |n2 i = |ϕ1 i|ϕ2 i,
(14.74)
mn
avendo definito
|ϕ1 i =
X
bm |m1 i;
(14.75)
dn |n2 i.
(14.76)
m
|ϕ2 i =
X
n
Il fatto che
hϕ1 |ϕ1 i = hϕ2 |ϕ2 i = 1
(14.77)
implica che
X
m
|bm |2 =
X
n
|dn |2 = 1.
(14.78)
232
Sistemi di molti corpi quantistici
Mostriamo ora che, grazie a tali premesse, vale la condizione sufficiente. Infatti si ha
!
!
XX X
X
2
∗ ∗
∗ ∗
ρ2 =
bm d n bm d j
bi dj bi dj 0 |nihj 0 |
nj 0
m
j
=
XX
=
X
nj 0
i
dn d∗j dj d∗j 0 |nihj 0 |
j
dn d∗j 0 |nihj 0 |
(14.79)
nj 0
ma dn d∗j 0 è proprio uguale a fnj 0 =
∗
m cmn cmj 0 ,
P
fnj 0 =
X
in quanto:
bm dn d∗j 0 b∗m = dn d∗j 0
(14.80)
m
e quindi effettivamente il quadrato della matrice densità è una nuova matrice densità i cui coefficienti
sono proprio i coefficienti della matrice densità dalla quale eravamo partiti.
Questo vuol dire che per un sistema entangled, la matrice densità perde la propria natura quantistica
quando viene eseguita la traccia su un sottosistema: la matrice densità diventa quella di uno stato misto,
ovvero quella di una sovrapposizione statistica.
14.2.2
Meccanica quantistica e realismo locale
La descrizione quantistica della realtà per sistemi entangled porta a conclusioni che appaiono essere in
conflitto con il principio del cosiddetto realismo locale. Questo conflitto è stato espresso da Einstein
attraverso la descrizione di un esperimento inizialmente ideale, e poi in seguito realizzato, seppure con
qualche modifica.
Il paradosso Einstein-Podolsky-Rosen
Nel suo lavoro1 Einstein considera un caso particolare di un sistema entangled formato da due sottosistemi.
Usando una formulazione più moderna dovuta a Bell2 , l’esperimento si può formulare nel modo seguente.
Consideriamo due particelle di spin 12 che si trovano in uno stato di spin totale uguale a 0. La funzione
d’onda del sistema è quindi
1
|ψi = √ |+i|−i − |−i|+i .
2
(14.81)
Le due particelle vengono quindi allontanate senza che l’evoluzione temporale ne modifichi la funzione
d’onda di spin, e, quando le due particelle sono sufficientemente lontane, su di esse vengono eseguite
misure causalmente disconnesse, cioé tali che nessun segnale che viaggia alla velocità della luce possa
trasmettere l’informazione relativa alla misura di una particella quando viene eseguita la misura sull’altra
particella. L’ipotesi di realismo locale è che, essendo le particelle causalmente disconnesse, non c’è nulla
che può succedere alla prima particella in conseguenza di quello che facciamo sulla seconda particella, e
viceversa. Nelle parole di Einstein
...since at the time of measurement the two system no longer interact, no real change can take
place in the second system in consequence of anything that may be done in the first system.
Secondo la meccanica quantistica, se eseguiamo la misura di spin di una delle due particelle per un
sistema che si trova nello stato Eq. (14.81), dopo la misura il sistema viene proiettato su un autostato
che corrisponde al risultati della misura che abbiamo fatto. Se quindi la misura della prima particella la
1 Einstein A., Podolsky B., Rosen N., “Can Quantum-Mechanical Description of Physical Reality Be Considered
Complete?”, Phys. Rev. 47, 777-780 (May 15, 1935).
2 Bell J. S. “On the Einstein-Podolsky-Rosen paradox”, Physics 1, 195-200 (1964).
14.2 Entanglement
233
rivela in uno stato con spin su, dopo la misura la funzione d’onda del sistema totale è proiettata sullo
stato
|ψ 0 i = |+i|−i
(14.82)
Lo spin della seconda particella è quindi obbligatoriamente giù.
Ciò sembra paradossale in quanto sembra ci sia trasferimento di informazione ad una velocità maggiore
di quella della luce. In realtà sembrerebbe esserci una via d’uscita, come messo in luce da Bell attraverso
il esempio delle “calze di Bertlsmann”3 . Questo corrisponde alla situazione di due gemelli con due paia di
calze, l’una rossa e l’altra blu. Alla mattina non è noto chi si metta le calze rosse e chi si metta quelle blu,
ma c’è il 50% di chance che siano dell’uno o dell’altro colore. Osservando il colore delle calze dell’uno,
poniamo rosse, si deduce immediatamente che l’altro ha le calze blu. In ciò non c’è nulla di paradossale,
in quanto la scoperta di ciò che avviene al sistema avviene a posteriori della scelta operata dai gemelli.
Il problema tuttavia nasce quando si osserva che il sistema in uno stato di spin totale uguale a 0 può
essere equivalentemente visto come sovrapposizione di spin opposti lungo un asse qualunque. In altri
termini, lo stato può anche essere scritto come
1
|ψi = √ |+ix |−ix − |−ix |+ix
2
(14.83)
1
|±ix = √ |+i ± |−i ,
2
(14.84)
dove
e cosı̀ via, usando autostati dello spin in una direzione qualunque. In effetti, ricordando che il proiettore
su uno stato di spin ± 12 lungo l’asse #»
n , | #»
n | = 1 è
P± =
1
(I ± #»
n · #»
σ),
2
(14.85)
si dimostra facilmente che la matrice densità per questo sistema ha la forma
ρ=
1
(I − #»
σ 1 #»
σ 2)
4
(14.86)
dove #»
σ 1 #»
σ 2 sono operatori di spin scritti sotto forma di matrici di Pauli che agiscono sullo spazio della
particella 1 e sulla particella 2. La forma Eq. (14.86) della matrice densità mostra chiaramente che non
vi è alcuna direzione privilegiata.
Quindi, se misuriamo lo spin della prima particella lungo l’asse z allora l’altra particella ha spin
opposto lungo l’asse z. Ma se misuriamo lo spin lungo l’asse x allora la seconda particella ha spin
opposto lungo l’asse x, e cosı̀ via. Ma gli operatori di spin lungo diverse direzioni non commutano.
Quindi la seconda non può trovarsi, prima della misura, in uno stato ben determinato di spin sia rispetto
all’asse x che rispetto all’asse z. Dobbiamo quindi concludere che è solo dopo la misura dello spin della
prima particella, ed in conseguenza di essa, che la seconda particella acquisisce un valore ben definito
dello spin lungo un asse. Questo dunque contraddice l’ipotesi di realismo locale, ovvero che non possa
esserci influenza della misura della prima particella sullo stato della seconda particella quando le due
particelle sono causalmente disconnesse.
Variabili nascoste
Una possibile via d’uscita è di supporre che la meccanica quantistica sia una teoria incompleta, e che il
realismo locale sia una caratteristica di una teoria più completa. L’apparente violazione del realismo locale
in questa interpretazione è dovuta all’ignoranza di alcuni dei gradi di libertà della teoria soggiacente. Per
capire come questo possa funzionare, consideriamo un sistema di spin 12 che si trova in uno stato puro
3 Bell
J. S., “Bertlmann’s socks and the nature of reality”, CERN-TH-2926 (1980).
234
Sistemi di molti corpi quantistici
|ψi. Sappiamo che la più generale matrice densità per un sistema che su trovi in uno stato puro si può
scrivere come
ρ = |ψihψ| =
1
(I + #»
σ · #»
n );
2
(14.87)
dove | #»
n | = 1. Quindi tutta l’informazione sullo stato del sistema è determinata dalla conoscenza del
vettore #»
n.
Consideriamo ora una generica osservabile  per questo sistema. Essa si può generalmente scrivere
come
 = a0 I + #»
a · #»
σ.
(14.88)
La meccanica quantistica ci dice che una misura dell’osservabile  produce come risultati gli autovalori
λ± di  e che dopo la misura il sistema si trova nell’autostato associato. Gli autovalori sono
λ± = a0 ± | #»
a |,
(14.89)
#»
a · #»
σ |ψ± i = ±| #»
a ||ψ± i.
(14.90)
e gli autostati soddisfano
La probabilità P± che la misura dia come risultato λ+ o λ− è data dalla traccia della matrice densità per
il proiettore P̂± sullo stato
#»
1
a
1
2
#»
#»
#»
I ± σ · #»
P± = |h±|ψ± i| = h±|ψihψ|±i = TrρP̂± = Tr (I + σ · n )
2
2
|a|
#»
1
a · #»
n
1
=
1 ± #»
= (1 ± cos ϑna ),
(14.91)
2
|a|
2
dove nel penultimo passaggio abbiamo sfruttato il fatto che TrI = 2, Trσi = 0, Trσi σj = 2δij .
Possiamo dare una descrizione di questa operazione di misura compatibile con il realismo locale supponendo che lo stato completo del sistema sia descritto non solo dal vettore #»
n , ma anche da un ulteriore
#» a noi sconosciuto, ossia una variabile nascosta. Se si conoscesse la variabile nascosta allora per
vettore m
ogni suo valore si sarebbe in grado di predire con certezza il risultato della misura di qualunque operatore
(e quindi anche di operatori non commutanti).
A questo fine, supponiamo quindi che esista una funzione v dell’osservabile, dello stato del sistema (e
#» tale per cui, se si
quindi del vettore #»
n che ne caratterizza lo stato), ma anche della variabile nascosta m
conoscesse m, allora la funzione v varrebbe o λ+ o λ− . È facile vedere che possiamo riprodurre i risultati
della meccanica quantistica supponendo che
(
#» · #»
λ+ sem
a < #»
n · #»
a
#»
#»
v(Â; n , m) =
(14.92)
#»
#»
#»
#»
λ− sem · a > n · a
#» il risultato della misura saraà indeterminato, ma il suo valor
Infatti, se cono conosciamo il valore di m,
#» Basta allora supporre che la distribuzione di
medio sarà dato mediando su tutti i possibili valori di m.
#»
probabilità di m sia uniforme per ritrovare la meccanica quantistica. Infatti, in tal caso si trova il valore
#» e #»
λ+ quando l’angolo θma tra m
a soddisfa −1 < cos θma < cos θna e λ− se cos θna < cos θma < 1 (si
ϑ
veda la Fig. 14.2): ne segue che la probabilità di trovare λ± è 1∓cos
, come nel caso della meccanica
2
quantistica.
#» fosse noto, potremmo predire il risultato della misura di qualunSe il valore della variabile nascosta m
que operatore, ed in particolare di operatori non commutanti. Naturalmente, sappiamo che se la misura
viene eseguita, allora la meccanica quantistica ci dice che lo stato del sistema deve cambiare: ma questo
#» In questa interpretazione,
lo possiamo descrivere dicendo che la misura cambia il valore della variabile m.
prima di eseguire la misura il sistema ha valori ben definiti anche per osservabili non commutanti, che
potremmo conoscere se in aggiunta allo stato del sistema (dato da #»
n ) conoscessimo anche la variabile
#» È la misura a distruggere questa informazione, in seguito al fatto che non sappiamo come la
nascosta m.
#»
misura influisca su m.
14.2 Entanglement
235
Figura 14.2: Esempio di variabile nascosta
La disuguaglianza di Bell
Possiamo chiederci se una costruzione basata sulle variabili nascoste sia sempre possibile. In effetti, per
sistemi più complessi di quelli di spin 12 emergono delle difficoltà. In particolare, si può dimostrare che
per sistemi tripartiti (ad esempio sistemi di spin 1) non è in generale possibile assegnare simultaneamente
valori a tutte le osservabili possibili, anche in presenza di variabili nascoste (teorema di Bell-KochenSpecker). Questo però si dimostra solo sotto opportune ipotesi teoriche: ad esempio, che lo spazio degli
stati fisici sia uno spazio di Hilbert. È molto difficile escludere che ciò si possa fare rilassando alcune
ipotesi, e non contraddicendo i dati sperimentali. Si dimostra tuttavia che se l’interpretazione realistica
locale vale, allora debbono essere soddisfatte delle disuguaglianze, a prescindere da come l’eventuale
teoria realistica locale sia di fatto realizzata. Se il realismo locale valga o no diventa cosı̀ decidibile
sperimentalmente.
Per capirlo, supponiamo di avere un sistema che si trova in uno stato EPR, cioè nello stato di singoletto
di spin
1
|ψi = √ (| + −i − | − +i),
2
(14.93)
quindi con matrice densità
ρ=
1
(I − #»
σ 1 #»
σ 2 ).
4
(14.94)
Chiediamoci quale sia la probabilità congiunta di una misura di spin l’asse #»
n 1 per la particella 1, e lungo
ad un certo altro asse #»
n 2 per la particella 2.
La meccanica quantistica ci permette di calcolarla: la probabilità è data da
N+− ( #»
n 1 , #»
n 2 ) = |h #»
n 1↑ |h #»
n 2↓ |ψi|2 = TrρP̂ n#»1↑ n#»2↓
(14.95)
dove il proiettore P̂ n#»1↑ n#»2↓ è:
P̂ n#»1↑ n#»2↓ =
(I + #»
n 1 · #»
σ 1 ) (I − #»
n 2 · #»
σ 2)
.
2
2
(14.96)
Quindi
1
(I + #»
n 1 · #»
σ 1 ) (I − #»
n 2 · #»
σ 2)
1
N+− ( #»
n 1 , #»
n 2 ) = Tr (I − #»
σ 1 #»
σ 2)
= (1 + #»
n 1 · #»
n 2 ),
4
2
2
4
(14.97)
dove stiamo nuovamente usando la proprietà che Trσi σj = 2δij e che la traccia della matrice identità è
uguale a 2, e ricordando che la traccia rispetto alla particella 1 si effettua sulle matrici #»
σ 1 , mentre la
traccia rispetto alla particella 2 si effettua sulle matrici #»
σ 2.
236
Sistemi di molti corpi quantistici
Da questo risultato possiamo calcolare una famiglia di risultati collegati. N++ ( #»
n 1 , #»
n 2 ), in particolare,
è uguale a quanto appena trovato a meno di un segno in quanto cambia il segno di uno dei due proiettori,
quindi
1
N++ ( #»
n 1 , #»
n 2 ) = (1 − #»
n 1 · #»
n 2 ).
4
(14.98)
1
N−− ( #»
n 1 , #»
n 2 ) = N++ ( #»
n 1 , #»
n 2 ) = (1 − #»
n 1 · #»
n 2)
4
(14.99)
1
N−+ ( #»
n 1 , #»
n 2 ) = N+− ( #»
n 1 , #»
n 2 ) = (1 + #»
n 1 · #»
n 2 ).
4
(14.100)
Inoltre, ovviamente,
Cerchiamo ora di interpretare questa situazione da un punto di vista di realismo locale. Secondo tale
punto di vista, se si conoscesse la teoria completa, si potrebbe predire il risultato di una misura di spin
delle particelle lungo qualunque asse. Se si accetta ciò, per ogni configurazione delle variabili nascoste
ciascuna delle due particelle ha spin ben definito rispetto a qualunque asse. Possiamo quindi chiederci,
per esempio, qual è la probabilità che la particella 1 abbia simultaneamente spin su rispetto all’asse #»
n1
e rispetto all’asse #»
n 2 , o spin su rispetto all’asse #»
n 1 e spin giù rispetto all’asse #»
n 2 , e cosı̀ via. Notare
che dal punto di vista della meccanica quantistica questo non ha senso, perché lo spin rispetto a due
assi corrisponde a variabili incompatibili, e quindi non ha senso chiedersi quale sia la probabilità di una
misura simultanea: o misuriamo lo spin di una particella rispetto ad un asse, o rispetto ad un altro asse.
Ma in una teoria realistica locale sı̀: se conoscessimo le variabili nascoste sapremmo qual è lo spin della
particella 1 rispetto a qualunque asse, ed è solo la misura che rovina questa informazione perché non
sappiamo come la misura influisce sulle variabili nascoste.
Quindi, supponiamo che valga il realismo locale, e definiamo
M++ ( #»
n 1 , #»
n 2 ),
(14.101)
la probabilità che la particella 1 abbia spin su rispetto ad entrambi i due assi, ed analogamente per gli
altri valori, su o giù, dello spin. Ma noi sappiamo che nello stato dato, lo spin della particella 1 rispetto
a qualunque asse è sempre opposto allo spin della particella 2 rispetto allo stesso asse. Quindi, in tale
stato
M++ ( #»
n 1 , #»
n 2 ) = N+− ( #»
n 1 , #»
n 2 ),
#»
#»
#»
#»
M ( n , n ) = N ( n , n ).
+−
1
2
++
1
2
(14.102)
Notiamo ora che da un punto di vista realistico locale è definito il valore dello spin della particella 1
rispetto a qualunque asse. Possiamo quindi introdurre un ulteriore asse #»
n 3 , ed osservare che
M+− ( #»
n 1 , #»
n 2 ) = M+−+ ( #»
n 1 , #»
n 2 , #»
n 3 ) + M+−− ( #»
n 1 , #»
n 2 , #»
n 3 ),
(14.103)
dove M+−+ ( #»
n 1 , #»
n 2 , #»
n 3 ) è la probabilità che lo spin sia su rispetto al primo asse, giù rispetto al secondo,
e su rispetto al terzo, e cosı̀ via.
Ma ora osserviamo che ovviamente
M+− ( #»
n 1 , #»
n 2 ) ≥ M+−+ ( #»
n 1 , #»
n 2 , #»
n 3)
(14.104)
M+− ( #»
n 1 , #»
n 2 ) ≥ M+−− ( #»
n 1 , #»
n 2 , #»
n 3 ).
(14.105)
M+−+ ( #»
n 1 , #»
n 2 , #»
n 3 ) ≤ M−+ ( #»
n 2 , #»
n 3)
(14.106)
Inoltre, permutando gli assi,
14.2 Entanglement
237
M+−− ( #»
n 1 , #»
n 2 , #»
n 3 ) ≤ M+− ( #»
n 1 , #»
n 3 ).
(14.107)
M+− ( #»
n 1 , #»
n 2 ) ≤ M−+ ( #»
n 2 , #»
n 3 ) + M+− ( #»
n 1 , #»
n 3)
(14.108)
Si ha pertanto
e poiché
M−+ ( #»
n 2 , #»
n 3 ) = M+− ( #»
n 3 , #»
n 2)
si ha infine
M+− ( #»
n 1 , #»
n 2 ) ≤ M+− ( #»
n 3 , #»
n 2 ) + M+− ( #»
n 1 , #»
n 3) :
(14.109)
che ha una struttura analoga ad una disuguaglianza triangolare.
Ma possiamo ora usare la Eq. (14.102) per convertire quest’ultima relazione in una disuguaglianza
soddisfatta dalle probabilità congiunte N , ossia
N++ ( #»
n 1 , #»
n 2 ) ≤ N++ ( #»
n 3 , #»
n 2 ) + N++ ( #»
n 1 , #»
n 3 ),
(14.110)
che è la diseguaglianza di Bell (in una delle sue forme). Altre forme si possono ottenere scrivendo
disuguaglianze in cui invece delle probabilità compaiono i valori medi delle misure.
Possiamo ora confrontare la disuguaglianza con il risultato della meccanica quantistica con il calcolo
prima effettuato, dato dalla Eq. (14.98):
1
1
ϑ2 − ϑ 1
1
(14.111)
N++ ( #»
n 1 , #»
n 2 ) = (1 − cos ϑ12 ) = (1 − cos(ϑ2 − ϑ1 )) = sin2
4
4
2
2
con ϑ12 angolo polare nel piano che i due versori #»
n 1 e #»
n 2 definiscono. Questa forma si presta facilmente
alla verifica della disuguaglianza di Bell. Ci mettiamo ad esempio nella situazione in cui #»
n 3 è nel piano
definito da #»
n e #»
n ed è la bisettrice dell’angolo ϑ (si veda la Fig. 14.3).
1
2
12
Figura 14.3: Violazione della disuguaglianza di Bell.
La disuguaglianza di Bell è:
sin2
ϑ 2 − ϑ1
ϑ 2 − ϑ3
ϑ 3 − ϑ1
≤ sin2
+ sin2
.
2
2
2
(14.112)
Poniamo
ϑ2 − ϑ1
= 2ϕ
2
(14.113)
238
Sistemi di molti corpi quantistici
e quindi, nella configurazione della figura.
ϑ3 − ϑ1
ϑ2 − ϑ3
=
=ϕ
2
2
(14.114)
sin2 2ϕ ≤ 2 sin2 ϕ
(14.115)
4 sin2 ϕ cos2 ϕ ≤ 2 sin2 ϕ.
(14.116)
e la disuguaglianza di Bell diventa
ovvero
Si arriva alla condizione
?
cos2 ϕ ≤
1
.
2
(14.117)
Ma ovviamente, nulla ci vieta di scegliere ϕ < π4 , ed in tal caso la disuguaglianza di Bell è violata. Di
conseguenza la disuguaglianza di Bell in meccanica quantistica può essere violata, e pertanto ne dobbiamo
concludere che non esiste una interpretazione realistica locale della meccanica quantistica consistente con
le predizioni della meccanica quantistica per l’esperimento EPR.
Esperimenti di verifica delle disuguaglianze di Bell sono stati fatti nel corso degli anni in modo via
via più raffinato. Sono degli esperimenti molto difficili, in quanto bisogna essere certi di misurare una
singola particella di una coppia e non, invece, delle proprietà medie di un insieme di particelle che
possono dipendere dall’ambiente. Inoltre bisogna essere certi del fatto che non ci sia trasmissione di
informazione. Esperimenti di questo tipo furono fatti dal gruppo di A. Aspect4 ad una distanza tale da
non permettere che i due eventi di misura fossero causalmente connessi, rendendo inoltre completamente
casuale la scelta dell’asse da misurare. Attualmente non sembra esserci dubbio che la disuguaglianza di
Bell è sperimentalmente violata, nel modo predetto dalla meccanica quantistica.
14.2.3
Il problema della misura
La verifica sperimentale della violazione delle disuguaglianze di Bell fornisce forte evidenza della correttezza di alcuni degli aspetti più contro-intuitivi della meccanica quantistica. In particolare, suggerisce
che la meccanica quantistica non sia incompleta come Einstein riteneva. Tuttavia, c’è un aspetto della
meccanica quantistica che pone problemi circa la sua completezza, e cioè il problema della misura.
Il problema è il seguente. In meccanica quantistica il vettore di stato evolve in maniera deterministica:
|ψ(t)i = S(t, t0 )|ψ(t0 )i.
(14.118)
Non ci può essere violazione di causalità perché l’evoluzione quantistica è unitaria e causale. Tuttavia,
quando il sistema viene misurato esso cambia in un modo che non è più descritto dall’evoluzione temporale.
Dato un operatore  con autovalore λA , tale per cui
Â|ψA i = λA |ψA i
(14.119)
se il risultato della misura è λA , allora la funzione d’onda dopo la misura è nello stato in |ψA i. L’operazione
di misura non è più una evoluzione temporale unitaria. Il cambiamento della funzione d’onda durante
l’operazione di misura è spesso chiamato “collasso della funzione d’onda”: esso è manifestamente non
unitario ed irreversibile.
Il problema della misura è il seguente: questo “collasso” della funzione d’onda può essere descritto
dalla meccanica quantistica o no? Se no, allora la meccanica quantistica sembrerebbe incompleta, se sı̀,
come è possibile ottenere un comportamento non unitario da un’evoluzione unitaria?
4 Aspect A., Grangier P., Roger G., “Experimental tests of realistic local theories via Bell’s theorem”, Phys. Rev. Lett., 47
p.460 (1981); Aspect A., Grangier P., Roger G., “Experimental realization of Einstein-Podolsky-Rosen gedankenexperiment;
a new violation of Bell’s inequalities”, Phys. Rev. Lett., 49 p.91 (1982); Aspect A., Dalibard J., Roger G., “Experimental
test of bell’s inequalities using time-varying analyzers”, Phys. Rev. Lett., 49 p.1804 (1982).
14.2 Entanglement
239
Chiediamoci quindi più approfonditamente in che cosa consista una misura. Per esempio, che cosa
significa misurare che lo spin di una particella è in su o in giù? Un tipico modo di eseguire la misura
è di accoppiare le particelle ad un campo magnetico, che deflette le particelle in due direzioni diverse a
seconda del loro spin. Se la funzione d’onda di spin della particella è
|ψi = c+ |+i + c− |−i,
(14.120)
per misurare lo spin si assoggetta il sistema ad un’evoluzione temporale
S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i + c− |−i|x− (t)i,
(14.121)
dove |x± (t)i sono autostati di posizione che si propagano in direzioni diverse, e corrispondono al fatto
che la particella viene individuata in posizioni diverse, e che sono macroscopicamente distinti, cioè
hx± |x± i = 1,
hx± |x∓ i = 0.
(14.122)
±
Dopo la misura, il sistema viene rivelato in uno degli stati |x i e la sua funzione d’onda diventa cosı̀
|ψi = |+i|x+ i
(14.123)
|ψi = |−i|x− i.
(14.124)
2
con probabilità |c+ | oppure
2
con probabilità |c− | . Questo dà luogo al paradosso del “gatto di Schrödinger”. L’apparato di misura è
macroscopico: per esempio un rivelatore in cui compare una traccia su di uno schermo. Nella versione
originaria del paradosso, la particella se viene rivelata in |x+ i innesca un meccanismo che uccide un gatto.
Quindi il rivelatore diventa il gatto: se è morto lo spin è su, se è vivo è giù. Prima della misura il sistema
è nello stato entangled Eq. (14.121). Il paradosso quindi è che subito prima della misura il sistema è in
una sovrapposizione di stati macroscopici (una sovrapposizione di “gatto vivo” e “gatto morto”).
Decoerenza
La risoluzione del paradosso del gatto è che la descrizione dello stato del sistema in termini della funzione
d’onda entangled Eq. (14.121) non può essere corretta. Infatti, se si accoppia il sistema ad un rivelatore
esterno, questo è necessariamente accoppiato all’ambiente esterno (ad esempio, il gatto se è vivo, respira).
Del resto, se non fosse accoppiato all’ambiente esterno sarebbe impossibile vedere il risultato della misura.
Perciò più propriamente la funzione d’onda del sistema prima della misura è
S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i|A+ i + c− |−i|x− (t)i|A− i
(14.125)
±
dove |A i descrive lo stato dell’ambiente, ossia del resto dell’universo con cui il sistema è accoppiato
attraverso il rivelatore.
Ma, ovviamente, lo stato dell’ambiente non è osservabile. Quindi, nel momento in cui il sistema viene
accoppiato ad un apparato di misura, la matrice densità del nostro sistema cambia. Se all’inizio la matrice
densità era data da
ρ = |ψihψ| = (c+ |+i + c− |−i)(c∗+ h+| + c∗− h−|)
(14.126)
dopo l’interazione con il rivelatore, essa diventa
ρ(t) = TrA (S(t)|ψihψ|S † (t)),
(14.127)
dove TrA indica la traccia sulle variabile di ambiente, inosservate. Ma inevitabilmente
hA|Ai = 1,
hA|A0 i = 0 :
(14.128)
stati di ambiente diversi sono macroscopicamente diversi, e quindi ortogonali. Ne seguie quindi che
ρ(t) = |c+ |2 |+i|x+ (t)ih+|hx+ (t)| + |c− |2 |−i|x− (t)ih−|hx− (t)|,
(14.129)
che è la matrice densità per uno stato misto.
L’accoppiamento del sistema all’ambiente trasforma la sovrapposizione quantistica in una miscela
statistica. Questo fenomeno che avviene quando si accoppia l’ambiente ad un sistema quantistico viene
chiamato decoerenza. Una teoria completa della decoerenza ancora non esiste. Esserne in possesso
significherebbe che sono stati compresi perfettamente i processi di misura quantistici.
240
Sistemi di molti corpi quantistici
Misura ed informazione
Questo tuttavia suggerisce fortemente che quello che noi chiamiamo misura in meccanica quantistica altro
non sia che la decoerenza. Il modo in cui abbiamo descritto la misura è una approssimazione di questo
fenomeno molto più complicato in cui le matrici densità di sistemi quantistici diventano matrici densità di
sistemi statistici. Da questo punto di vista, non c’è “collasso” della funzione d’onda. Il sistema accoppiato
all’ambiente è una miscela statistica, e la perdita di unitarietà, schematizzata dalla misura quantistica, e la
perdita di informazione sulle correlazioni quantistiche dovuta all’accoppiamento con l’ambiente spiegano
la perdita di unitarietà nell’evoluzione.
Se il sistema è in una sovrapposizione statistica, la matrice densità descrive la nostra informazione
incompleta su di esso. Dopo aver effettuato la misura (dopo aver letto il rivelatore) la nostra informazione
sullo stato del sistema è cambiata: il sistema si trova in uno stato puro. L’apparentemente paradossale
“collasso” della funzione d’onda descrive il fatto che prima dell’operazione di misura abbiamo una certa
quantità di informazione, mentre dopo la misura abbiamo delle informazioni diverse. Nel momento della
misura l’informazione che abbiamo cambia in modo discontinuo. Il vettore di stato non è una proprietà
dei sistemi, bensı̀ di quello che noi sappiamo dei sistemi fisici.
Ci si può naturalmente porre la domanda se sia possibile scrivere un vettore di stato dell’universo, che
quindi descrive tutta la realtà, anziché la nostra informazione su un sottosistema. Se questo sia possibile,
e se sı̀ come, è controverso: vi sono diverse proposte, ma non vi è un consenso generalizzato. Questo è
il problema dei fondamenti della meccanica quantistica: allo stato attuale delle cose, tuttavia, non vi è
alcun modo di decidere sperimentalmente questo problema. L’atteggiamento per cui solo l’informazione
che abbiamo sul sistema è descritta dalla meccanica quantistica appare essere, allo stato attuale delle
cose, tutto quanto possiamo verificare sperimentalmente.