ENTROPIE & INFORMATION Le point de vue du physicien Jean V. Bellissard

Download Report

Transcript ENTROPIE & INFORMATION Le point de vue du physicien Jean V. Bellissard

ENTROPIE &
INFORMATION
Le point de vue du physicien
Jean V. Bellissard
Georgia Institute of Technology
&
Institut Universitaire de France
ENTROPIE:
Un peu d’histoire
Principe de Carnot:
• Sadi CARNOT
• 1825:
• Reflexions sur la Puissance
Motrice du Feu
Principe de Carnot:
• Sadi CARNOT
• 1825:
• Reflexions sur la Puissance
Motrice du Feu
Une machine thermique a
besoin de 2 sources de
chaleur:
- chaude: température Th
- froide: température Tc
Th > Tc
Principe de Carnot:
• Sadi CARNOT
• 1825:
• Reflexions sur la Puissance
Motrice du Feu
• La proportion d’énergie
thermique qui peut être
transformée en énergie
mécanique (rendement) ne
dépend
que des températures des
deux sources
Moteurs Thermiques
• Tout moteur thermique
a une source chaude
(brûleur)
• et une source froide
(l’atmosphère).
partout des moteurs thermiques
- centrales électriques, usines,
- voitures, avion, bateaux,
- réfrigérateurs, air conditionné,…
Entropie: définition
• Rudolf CLAUSIUS
• 1865:
Définition de l’entropie:
d S = d Q/T
• 2ème Principe de la
Thermodynamique:
L’entropie ne peut que
croître au cours du
temps
Les gaz sont faits de molécules
Qu i ck Ti me ™a nd a GIF d ec omp res so ra re ne ed ed to s ee th i s pi c tu re.
• Clausius montra que
les gaz sont constitués
de molécules,
expliquant la lenteur
de la diffusion des
particules et l’origine
de la viscosité
Thermodynamique Statistique :
• Ludwig BOLTZMAN
• 1872:
- Théorie cinétique
• 1880:
Interprétation statistique
de l’entropie:
mesure du désordre dans
l’espace des énergies
Thermodynamique Statistique :
• Josiah Willard GIBBS
• 1880’s:
l’équilibre
thermodynamique
correspond au maximum
de l’entropie
• 1902 : livre
« Statistical Mechanics »
Théorie de l’Information
• Claude E. SHANNON
• 1948:
« A Mathematical Theory
of Communication »
-théorie de l’information
-l’entropie mesure la
perte d’information
par un système
2ème Principe de la
Thermodynamique
• Au cours du temps, l’information contenue
dans un système isolé ne peut qu’être
détruite
• ou encore: l’entropie ne peut que
croître
2ème Principe de la
Thermodynamique
• En conséquence, l’équilibre n’est atteint
que lorsque toute information est
détruite
• ou encore: que lorsque l’entropie est
maximum
MORPHOGENESE:
ou comment la nature produit-elle de
l’information ?
Lois de conservation
• Dans un système isolé, l’énergie, l’impulsion, le
moment cinétique, la charge électrique,…. sont
conservés au cours du temps.
Lois de conservation
moment cinétique
Lois de conservation
• A l’équilibre, la seule information accessible sur un
système est la valeur des quantités conservées!
• Exemple: une particle élémentaire est caractérisée par sa
masse (énergie au repos), son spin (moment cinétique), sa
charge électrique…
• Electron : m = 9.109x10-31 kg, s = 1/2, e = —1.602 x10-19 C,
Hors d’équilibre
temps
E
flux
E’
• Les variations temporelles
ou spatiales forcent le
transfert des quantités
conservées
• Les transferts d’énergie
(chaleur), de masse, de
moment cinétique, de
charges, créent des flux de
courant.
Hors d’équilibre
• Les transferts
d’énergie (chaleur),
créent des courant de
chaleur comme dans
les flammes et les feux.
Hors d’équilibre
• Les transferts de masse,
créent des courants
fluides comme dans les
rivières.
Hors d’équilibre
• Les transferts de charges,
créent les courants
électriques.
Hors d’équilibre
• Les transferts de
moment cinétiques
créent les tourbillons
comme cet ouragan
vu d’un satellite.
Hors d’équilibre
• Morphogénèse
Un liquide horizontal
peu profond chauffé
par dessous est sujet à
des instabilités qui
induisent des rouleaux
et des formes,
conséquences des
équations des fluides
Hors d’équilibre
Des explosions
produisent les gaz
Interstellaires
Des effondrements
produisent les étoiles
Le Soleil, la Lune,
les planètes et les
étoiles ont été utilisés
comme sources
d’information pour
la mesure du temps
ou de la position sur
Terre
Résister au 2ème Principe
• Sans variations temporelles ou spatiales la seule
information contenue dans un système isolé
provient des lois de conservation
• Le mouvement et les hétérogénéités permettent à la
nature de produire de larges quantités
d’information.
• Toutes les équations macroscopiques (fluides,
flammes,…) décrivant ces mouvements
proviennent des lois de conservation
CODER L’INFORMATION
l’art des symboles
Signes
• Les signes peuvent être
visuels: couleur, forme,
dessin
Signes
• les signes peuvent être
sonores: sonnette, bruit,
applaudissements,
musique, discours
Signes
• Les signes peuvent être
olfactifs
Signes
• Les signes peuvent être
olfactifs
Signes
• Les signes peuvent être olfactifs
les plantes peuvent avertir leurs
voisines en émettant des phénols
Signes
• Les signes peuvent être olfactifs
les femelles insectes attirent les
mâles grâce aux phéromones
Ecrire
Ecrire
• Le Chinois utilise plus
de 80,000 caractères
pour coder son langage
Ecrire
• les Egyptiens utilisaient
les hiéroglyphes pour
coder les sons et les mots
Ecrire
• Le Japanais utilise les 96
caractères Hiragana
pour coder les syllabes
Ecrire
• les Phéniciens et les Grecs
ont découvert qu’un
alphabet de 23 caractères
peuvent coder les sons
élémentaires
bgdezhq
iklmnopr
st uf cyw
Ecrire
• Les nombres modernes
sont codés à l’aide de
10 chiffres créés par
les Indiens et transmis
aux Européens par les
Arabes
Ecrire
• George BOOLE
(1815-1864)
utilisait seulement deux
caractères pour coder
les opérations logiques
0 1
Ecrire
• John von NEUMANN
(1903-1957)
développa le concept de
programmation utilisant
aussi un système binaire
pour coder toute
information
0 1
Ecrire
• La nature utilise 4
molécules
Ecrire
• La nature utilise 4
molécules pour coder
Ecrire
• La nature utilise 4
molécules pour coder
l’hérédité génétique
Ecrire
• Les protéines utilisent
20 acides aminés pour
coder leurs fonctions
dans les cellules
molécule de
Tryptophane, un des 20
acides aminés
Unité d’information
• selon Shannon (1948) l’unité est le
bit
un système contient N-bits d’information
s’il peut contenir 2N caractères
TRANSMETTRE
L’INFORMATION
redondance
Transmettre
0
codage
1
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
Transmettre
0
000
codage
1
111
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
Transmettre
0
000
codage
1
111
Transmission
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
Transmettre
0
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
000
Transmission
010
111
erreurs
(2ème principe)
110
codage
1
Transmettre
0
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
000
Transmission
010
111
erreurs
(2ème principe)
110
codage
1
Reconstruction
Transmettre
0
000
Transmission
111
erreurs
(2ème principe)
• La théorie du codage
utilise la redondance
pour transmettre les
bits d’information
010
Reconstruction
000
110
à réception
(correction)
111
codage
1
Transmettre
• Les Hommes utilisent
aussi la redondance
pour confirmer
l’information reçue
Transmettre
• Les Hommes utilisent
aussi la redondance
pour confirmer
l’information reçue
Transmettre
redis le !
• Les Hommes utilisent
aussi la redondance
pour confirmer
l’information reçue
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
Transmettre
• Avant la division cellulaire
les brins des molécules
d’ADN sont séparés
Transmettre
• Avant la division cellulaire
les brins des molécules
d’ADN sont séparés par
une autre protéine
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
QuickTime™ and a GIF decompress or are needed to s ee this picture.
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Transmettre
• une cellule est une
usine à dupliquer
l’information contenue
dans l’ADN
mitose
Résister au 2ème Principe
• La cellule se divise avant que l’information
qu’elle contient dans l’ADN ne disparaisse
• Ainsi, la division cellulaire et la duplication
de l’ADN à taux rapide, conservent
l’information génétique durant des millions
d’années.
REVOIR LE PRINCIPE DE
MAXIMUM D’ENTROPIE
L’art dangereux de l’extrapolation
Equilibre
• Un système physique
atteint son équilibre
quand toute information
autre que celle qui doit
être conservée a disparu
Equilibre
• Un système physique
atteint son équilibre
quand toute information
autre que celle qui doit
être conservée a disparu
Dans un gaz, le
mouvement chaotique
produit par les collisions
est responsable des pertes
d’information
Equilibre
• Par analogie d’autres
systèmes contenant un
grand nombre d’individus
semblables peuvent être
traités statistiquement en
terme d’information
Equilibre
• Par analogie d’autres
systèmes contenant un
grand nombre d’individus
semblables peuvent être
traités statistiquement en
terme d’information
Comme la bureaucratie
Equilibre
• Par analogie d’autres
systèmes contenant un
grand nombre d’individus
semblables peuvent être
traités statistiquement en
terme d’information
Comme la bureaucratie
1837 J. S. MILL in Westm. Rev.
XXVIII. 71 That vast network of
administrative tyranny…that system
of bureaucracy, which leaves no free
agent in all France, except the man
at Paris who pulls the wires.
(Oxford English Dictionary)
Bureaucratie
• Chine (3ème s. av J.-C.)
les Hans, idées de Confucius
• France (18ème s.)
• URSS (1917-1990)
• La Communité
Européenne (1952)
L’ENA:
L’Ecole Nationale
d’Administration
Bureaucratie
Bureaucratie
• Règles
quantités
conservées
Bureaucratie
• Règles
quantités
conservées
• Individus
particules
indiscernables
Bureaucratie
• Règles
quantités
conservées
• Individus
particules
indiscernables
• Remplacer
chocs
un individu
perte d’information
Bureaucratie
• Règles
quantités
conservées
• Individus
particules
indiscernables
• Remplacer
chocs
un individu
perte d’information
entropie maximum
pas d’évolution
Bureaucratie
• Un système bureaucratique
est stable (son entropie est
maximum).
• Exemple: l’empire Chinois a
résisté durant 2000 ans.
• Il ne peut être modifié sans
une source majeure
d’instabilité.
• Exemple: la guerre de l’opium
(1820-1840 –––> 1912)
ORDINATEURS:
machines et cerveaux
Ordinateurs
• Alan TURING
(1912-1954)
• 1936:
• Description d’une
machine calculant
• Les ordinateurs
éxecutent des opérations
logiques
• Ils produisent des
informations, les
mémorisent, les traitent
Ordinateurs
• Une machine de Turing
est séquentielle: les
opérations sont ordonnées
dans le temps
règles
états
gauche-droite
Bande
d’enregistrement
Ordinateurs
CPU
données
MEMOIRE
données &
instructions
• L’ordinateur de von
NEUMANN répète les cycles
suivants
1. rechercher une instruction dans
la mémoire.
2. rechercher, dans la mémoire, les
données requises par les
instructions.
3. éxecuter les instructions
4. stocker les résultats en mémoire.
5. retourner à l’étape 1.
Ordinateurs
• 14 février 1946
ENIAC
le premier ordinateur
Los Alamos NM
Ordinateurs
a
a
b
b
b
a
a
a
a
b
b
• Les automates
cellulaires produisent
des dessins comme sur
les coquillages
b
simulation numérique
a
a
règles changeant le dessin
d’une couche à l’autre
Ordinateurs
• La nature a aussi produit
les cerveaux
• Le cerveau ne semble
pas suivre les
procédures de von
Neumann ou de Turing
Ordinateurs
• Dans le cerveau les
signaux ne sont pas
binaires mais activés à
partir de seuils
• Les opérations ne sont
pas éxécutées
séquentiellement
Ordinateurs
• Le cerveau peut apprendre
• Il s’adapte: plasticité
• La mémoire du cerveau est
associative: il reconnaît les
formes par comparaison à
des modèles pré-stockés
ORDINATEURS QUANTIQUES
ou comment minimiser les pertes d’information
Le Monde Quantique
• Echelle atomique ou plus petite
• L’information dans un système quantique
est de nature ondulatoire et probabiliste
electron shows up
Le point où se révèle l’électron ne peut être prédit. Mais la distribution
des images d’un grand nombre d’entre eux peut-être calculée.
Le Monde Quantique
• Tant que le système reste isolé, son information ne
disparaît pas ! (limite du 2ème principe)
• Toute tentative d’extraire cette information,
(mesure, interaction,…) conduit à une perte
partielle d’information (principe d’incertitude)
Le Monde Quantique
• Le codage de l’information quantique utilise les
espaces de Hilbert
(objets bien compliqués)
• L’unité d’information quantique est le qubit
(le plus simple des objets bien compliqués)
Qui ckTime™ and a GIF decompressor are needed to see thi s pi ctur e.
Le Monde Quantique
• Le principe de superposition conduit aux états
intriqués qui n’ont pas d’équivalents classiques
(Anglais: entanglement)
Le rêve de Feynman
(Richard P. Feynman, David Deutsch, 1985)
Calculer en intriquant les qubits !!
L’idée de Feynman
Il suggéra en 1982 qu’un ordinateur quantique pourrait être fondamentalement plus puissant
que les ordinateurs conventionels. Il est en effet si difficile de calculer les résultats des
processus quantiques sur un ordinateur conventionel, alors que la Nature, par contraste,
effectue ce calcul si facilement.Cette suggestion fut suivie de tentatives par à-coups puis a
conduit à la conclusion que, si la Mécanique Quantique n’est pas fausse, il devrait être
possible de factoriser un entier en produit de nombres premiers si facilement que les
fondements de la cryptographie actuelle seraient remis en cause
Richard P. Feynman.
Quantum mechanical computers.
Optics News,
11(2):11-20, 1985.
L’ordinateur de Deutsch
David Deutsch.
Quantum theory, the Church-Turing
Principle and universal quantum
computer.
Proc. R. Soc. London A,
400, 11-20, (1985).
David Deutsch. Conditional
quantum dynamics and logic gates.
Phys. Rev. Letters,
74, 4083-6, (1995).
L’algorithme de Shor
cet algorithme montre qu’un ordinateur quantique peut
factoriser un entier en un temps polynomial
Peter W. Shor.
Algorithm for quantum computation:
discrete logarithms and factoring
Proc. 35th Annual Symposium
on Foundation of Computer
Science,
IEEE Press, Los Alamitos CA,
(1994).
Codes correcteurs d’erreur
A. R. Calderbank &
B. P. W. Shor.
Good quantum error-correcting
codes exist
Phys. Rev. A, 54, 1086, (1996).
A. M. Steane
Error-correcting codes in quantum
theory
Phys. R. Letters, 77, 793, (1996).
Codes correcteurs topologiques
Alex Yu. Kitaev.
Fault-tolerant quantum
computation by anyons
arXiv : quant-phys/9707021,
(1997).
Réalisations
Méthodes pour produire des qubits:
1.
2.
3.
4.
5.
6.
7.
Tout oscillateur harmonique quantique
Photons optiques
Cavités optiques couplées avec atomes à deux niveaux
Trappes ioniques
Résonance magnétique nucléaire: un calcul avec 7-qubits a
permis de tester l’algorithme de Shor 15=3x5 !!
Jonctions Josephson: le quantronium
Deux points quantiques couplés
Réalisation 7-qubit, RMN (IBM)
Résonance Magnétique Nucléaire :
15=3x5 !! (algorithme de Shor)
Réalisation
the CNOT gate
|x>
|x>
|y>
|xy>
Réalisation
Nature 425, 941 - 944 (30 October 2003); doi:10.1038/nature02015
Demonstration of conditional gate operation using superconducting
charge qubits
T. YAMAMOTO1,2, YU. A. PASHKIN2,*, O. ASTAFIEV2, Y. NAKAMURA1,2 & J. S. TSAI1,2
1 NEC Fundamental Research Laboratories, Tsukuba, Ibaraki 305-8501, Japan
2 The Institute of Physical and Chemical Research (RIKEN), Wako, Saitama 351-0198, Japan
* Permanent address: Lebedev Physical Institute, Moscow 117924, Russia
Correspondence and requests for materials should be addressed to T.Y. ([email protected]).
Following the demonstration of coherent control of the quantum state of a superconducting charge qubit1, a variety of qubits
based on Josephson junctions have been implemented2-5. Although such solid-state devices are not currently as advanced as
microscopic qubits based on nuclear magnetic resonance6 and ion trap7 technologies, the potential scalability of the former
systems—together with progress in their coherence times and read-out schemes—makes them strong candidates for the building
block of a quantum computer8. Recently, coherent oscillations9 and microwave spectroscopy10 of capacitively coupled
superconducting qubits have been reported; the next challenging step towards quantum computation is the realization of l
ogic gates11, 12. Here we demonstrate conditional gate operation using a pair of coupled superconducting charge qubits. Using
a pulse technique, we prepare different input states and show that their amplitude can be transformed by controlled-NOT
(C-NOT) gate operation, although the phase evolution during the gate operation remains to be clarified.
Réalisation: a CNOT-gate (oct.2003)
POUR CONCLURE
Entropie & Information
• Le 2ème Principe de la Thermodynamique
conduit à la perte globale d’information
• Le 2ème Principe de la Thermodynamique
conduit à la perte globale d’information
• Les lois de conservations fournissent
l’information minimum à l’équilibre
• Le 2ème Principe de la Thermodynamique
conduit à la perte globale d’information
• Les lois de conservations fournissent
l’information minimum à l’équilibre
• Seuls les systèmes hors d’équilibre
produisent de l’information… au détriment
de l’environnement!
• Le 2ème Principe de la Thermodynamique
conduit à la perte globale d’information
• Les lois de conservations fournissent
l’information minimum à l’équilibre
• Seuls les systèmes hors d’équilibre
produisent de l’information… au détriment
de l’environnement!
• L’information peut être codée, transmise,
mémorisée, cryptée, traitée.
• Vivre c’est produire de l’information: code
génétique, protéines, signaux chimiques,
formation de motifs, neurones, cerveau.
• Vivre c’est produire de l’information: code
génétique, protéines, signaux chimiques,
formation de motifs, neurones, cerveau.
• Les machines peuvent reproduire certaines
de ces fonctions
• Vivre c’est produire de l’information: code
génétique, protéines, signaux chimiques,
formation de motifs, neurones, cerveau.
• Les machines peuvent reproduire certaines
de ces fonctions
• Les machines quantiques offrent des
perspectives nouvelles pour optimiser
l’usage de ces informations.
• Sujets non couverts dans cet exposé
(et pourtant explicables au travers de la théorie de
l’information)
• psychologie, émotions, pensée…
• sociologie, économie, politique…
• le fait religieux,..
le physicien est ici hors du domaine de ses
compétences
la Nature ne serait-elle
qu’un énorme ordinateur
?
FINIES LES INFOS !!
La paix enfin !