Il est symptomatique qu'une théorie qui marche aussi bien soit autant discutée. L'origine de cet état de fait se trouve sans doute dans la grande fracture qui oppose la physique classique à la physique quantique.
Après un bref aperçu de la genèse quantique, je tenterai, à travers les postulats quantiques, de préciser les caractéristiques de cette théorie physique à part, pour en venir au problème des diverses interprétations de la mécanique quantique, débat qui culminera avec le délicat sujet de la localité.
Il est facile, aujourd'hui, de s'amuser de la naïveté de Lord Kelvin lorsque l'on sait que ces deux petits nuages, vont devenir respectivement Relativité et Mécanique quantique. Max Planck propose, en 1900, de supposer une discontinuité dans le rayonnement des corps noirs: le rayonnement ne peut se faire qu'à certaines valeurs d'énergie, multiples entières d'une constante fondamentale. Sans proposer de réelles interprétations à son idée, ni même de justification théorique, Planck constate que cette hypothèse permet de réconcilier théorie et expérience. La première discontinuité fondamentale est introduite, et avec elle la mécanique quantique pointe le bout de son nez. Einstein pose la deuxième pierre, en émettant l'hypothèse que la lumière est composée de grains (photons). Là encore, la contradiction avec la conception classique d'une lumière ondulatoire est gênante pour les physiciens. De Broglie, dans sa thèse de doctorat, va "soulever un coin du voile", comme le dira Einstein, en postulant que toute particule peut être vue comme une onde, et vice versa. La dualité onde-corpuscule, première atteinte de la physique à la loi du tiers exclu, va au delà de l'opposition classique, et permet d'expliquer des phénomènes incompris jusqu'alors.
C'est cette vision de De Broglie, que Korzybski nomme la première mécanique quantique, et que les physiciens appellent parfois mécanique ondulatoire. A partir de cette théorie de De Broglie, Schrödinger va construire la première mécanique quantique, fondée sur les fonctions d'onde et sur le Principe de Correspondance (voir plus loin).
Heisenberg, Dirac, Born et Jordan, construisent, indépendamment, en 1925, un édifice d'une complexité mathématique plus importante, mais qui s'avère plus fécond, à l'aide de la théorie des matrices (qui sont des tableaux de nombres pouvant représenter des fonctions). C'est cette "mécanique des matrices" que Korzybski appelle "newer quantum mechanics".
Enfin von Neumann et Landau en proposent une reformulation originale, offrant une plus grande souplesse et permettant de traiter de systèmes plus grands, par le biais de la physique statistique.
Je vais maintenant essayer, brièvement, d'exposer quelques principes de cette théorie si déconcertante.
Mais la lumière s'est avérée récalcitrante: Newton y voyait une succession de petites particules, alors que Hertz crut avoir démontré son caractère ondulatoire. Le rejet de ces deux notions pour un nouveau concept, la fonction d'onde, marque le début de la physique quantique.
Le principe suivant constitue l'essentiel de cette nouvelle physique:
Principe I
|
Le principe d'incertitude de Heisenberg, qui énonce que le produit des incertitudes sur deux grandeurs (qui sont liées entre elles d'une manière spécifique, voir plus loin) est forcément supérieur à la constante que Planck avait introduite, divisé par 4pi, relève de la même problématique. Quelle interprétation donner à cette incertitude ?
L'équation de Schrödinger fait apparaître, à sa résolution, dans de nombreux cas, des nombres quantiques. Ce sont des nombres entiers qui caractérisent les diverses solutions possibles de l'équation i.e. les divers états possibles pour le système. Le 'problème' est que ces états sont discontinus: certaines valeurs, notamment l'énergie, varient de façon discontinue entre ces diverses solutions. Et pourtant, lorsque le système passe d'une 'solution' à l'autre, sous l'effet d'une perturbation ces variables varient sans jamais passer par les valeurs intermédiaires. Ce qui n'est pas trop troublant lorsque l'on parle de grandeurs physiques assez floues, telles que l'énergie, devient plus déconcertant lorsqu'il s'agit d'emplacement dans l'espace. On retrouve les discontinuités introduites par Planck dans son travail de 1900. Les systèmes, représentés par des fonctions, peuvent être vus comme diffus dans l'espace, par le biais de la fonction d'onde, et la simple localisation spatiale devient un terme caduc.
La mécanique est avant tout une théorie des phénomènes microscopiques. Mais la physique est macroscopique: les microscopes, accélérateurs de particules, télescopes, etc. sont des objets macroscopiques, et il était indispensable que les résultats simples de la mécanique classique puissent se retrouver en mécanique ondulatoire. D'autre part certaines notions propres à la mécanique quantique n'étant pas opérationnelles (on aime bien savoir OU est l'électron, même si la notion de localité perd son sens en mécanique quantique), il est important de se munir d'une théorie de la mesure. Les principes suivants fournissent les passerelles entre le monde quantique —microscopique— et le monde macroscopique et l'observation scientifique.
Principe II
A chaque grandeur physique A, on peut associer une
observable  qui est un opérateur
linéaire hermitien agissant dans l'espace des fonctions
d'onde, tel que la valeur moyenne <a> des résultats
d'une mesure de la grandeur A, pour une particule dont l'état
est décrit par une fonction d'onde
y(r,t) vaut |
Ce principe sera étendu dans le formalisme de Heisenberg, Dirac et Jordan. Ce qu'il faut retenir c'est que le lien entre ce que l'on peut observer du système—une grandeur physique—et le système se fait à travers le lien entre deux fonctions: la fonction d'onde et l'observable. Toute description du système sera donnée en termes d'observables, et en fonction des caractéristiques de ces observables. C'est d'ailleurs ce point essentiel qui conduit à la "nouvelle mécanique quantique", puisque celle-ci décrira un système par l'ensemble des observables sur ce système (en un sens précis, voir plus loin).
Le principe de correspondance suivant fournit l'expression
des principales observables de la mécanique classique (énergie
cinétique, position, vitesse, etc.)
Position x, y, z, r | Multiplication par x, y, z, r |
Impulsion p | |
Energie cinétique | |
Energie potentielle | Multiplication par V[r] |
Energie totale | |
Moment cinétique |
Un dernier principe, peut s'exprimer approximativement comme:
Principe III
Après avoir fait une mesure sur un système, en général on a modifié l'état de ce système. |
La théorie de la mesure repose alors sur quelques points essentiels: si l'on fait une mesure sur un seul système, on obtient une information sur l'état de ce système après la mesure, alors que si l'on effectue cette mesure sur N systèmes préparés indépendamment mais dans le même état, on obtient une information sur cet état avant la mesure. L'acte d'observer le système provoque ce que l'on appelle la réduction du paquet d'ondes, qui contraint le système à se trouver dans un état plus simple, en général 'déterministe'. Là encore, l'interprétation est délicate: l'observation a-t-elle effectivement bouleversé le système au point que d'une superposition d'états on passe à un seul état, ou est ce simplement que l'observation nous a permis de savoir lequel des états était celui du système initialement ?
Il repose sur trois postulats, que je donne ici, avant d'en discuter
les caractéristiques essentielles.
Postulat I
L'état d'un système est entièrement défini, à chaque instant, par un élément d'un espace de Hilbert Un espace de Hilbert est un ensemble de fonctions, qui vérifie certaines propriétés mathématiques qu'il est inutile de décrire ici. Il faut toutefois noter une caractéristique essentielle de ces espaces: toute combinaison linéaire (addition et multiplication par un nombre) d'un élément de cet ensemble, appartient encore à cet ensemble. |
Postulat II, sur la mesure
|
L'apport fondamental de Heisenberg et al. est la notion d'observables qui commutent. En effet les opérateurs que l'on considère sont des objets mathématiques étranges qui ne vérifient pas a ´ b = b ´ a (on dit alors que a et b ne commutent pas). La non-commutation des opérateurs liés aux observables par le principe de correspondance, est essentielle en mécanique quantique, c'est elle qui fournit des résultats tels que le principe d'incertitude d'Heisenberg. Ainsi lorsque deux observables commutent l'observation de l'une ne modifie pas la valeur de l'autre. A l'aide d'observateurs qui commutent, i.e. de grandeurs qui sont telles que leurs opérateurs associés commutent, on peut construire une caractérisation complète du système. Autrement dit, ces grandeurs permettent de déterminer entièrement l'état du système (si on les a mesurées). De ces résultats théoriques et mathématiques découle l'interprétation suivante: un système physique n'a pas de 'réalité physique' en dehors de ce qu'on peut en observer, ou du moins si une telle réalité existe, elle n'a aucun intérêt pratique et relève de la métaphysique.
Citons le cas d'une expérience de physique classique, détournée au profit de la mécanique quantique, avant de s'interroger sur les paradoxes qui en découlent.
Supposons que l'on dispose d'une source de lumière, d'une énergie donnée. A cette énergie correspond une longueur d'onde, que l'on peut voir comme une longueur caractéristique de la lumière. Si l'on fait passer cette lumière par un trou de dimension proche de la longueur d'onde (ce qui est très facile à faire), on observe alors ce qu'on appelle un phénomène de diffraction : la lumière ressort du trou en allant dans toutes les directions possibles. Si l'on fait passer une même source lumineuse par deux trous, alors il se produit deux diffractions et ainsi deux lumières sont ré-émises dans toutes les directions. Lorsqu'une onde comme la lumière entre en interférence avec elle-même, on peut observer sur un écran des franges alternativement sombres et claires qu'on appelle franges d'interférences.
Une interprétation 'déterministe' conduirait à
dire que ce phénomène, typiquement ondulatoire,
ne peut se produire avec un unique photon. Or, depuis qu'il est
possible de produire des photons un par un, cette expérience
a été menée avec un unique photon. Le résultat,
stupéfiant, est l'observation de franges d'interférences.
Autrement dit, le photon a interféré avec lui-même.
On ne peut comprendre ce résultat que si l'on accepte le
fait, qu'avant la mesure sur l'écran, le photon était
dans une superposition d'états physiques, et que c'est
chacun de ces états qui a interféré avec
les autres. Ce schéma illustre l'expérience des
trous de Young:
L'énoncé actuel de cette expérience est le
suivant:
Un chat est enfermé dans une enceinte en acier. Dans un
compteur Geiger (qui mesure les désintégrations
radioactives) on trouve un peu de substance radioactive, si peu
qu'en une heure un seul atome se désintègre avec
une probabilité (quantique) ½. S'il y a désintégration,
le compteur relâche un petit marteau qui brise une fiole
contenant de l'acide cyanhydrique, qui empoisonne le chat. On
laisse évoluer le tout pendant une heure. La fonction d'onde
de tout le système, qui est devenu quantique, est une superposition
linéaire à poids égaux de l'état chat
vivant et de l'état chat mort. Outre la difficulté
de se forger une représentation intuitive de cet état
quantique du chat, la question se pose de la cause de la mort
du chat. C'est en observant le chat que l'on constate si celui-ci
est vivant ou mort. Autrement dit, on réduit le paquet
d'ondes, transformant le chat de [(Vivant)+(Mort)]/ en (chat mort) ou (chat vivant). On conçoit
aisément que cette expérience de pensée ait choqué
physiciens et philosophes. En fait, ce paradoxe a été
'résolu', de manière plus ou moins satisfaisante
selon les physiciens, par l'introduction d'outils mathématiques
empêchant de rendre le système macroscopique quantique.
Mais il est facile de voir que ce type de réponse ne suffit
pas: quelle est la limite entre le macroscopique et le quantique,
et si limite il y a, est elle arbitraire ou découle-t-elle
d'un principe physique, connu ou inconnu ? Ce débat, encore
d'actualité, fait partie des zones d'ombre de la mécanique
quantique, et je ne m'aventurerai pas plus avant en terrain délicat...
Pour l'école de Copenhague, les 'orthodoxes', la recherche du 'réel' est dénuée de sens. L'attitude la plus saine, consiste à considérer la mécanique quantique comme un ensemble de règles de calcul, permettent de prédire les résultats de l'expérience. Tout ce qui n'est pas mesurable relève de la métaphysique. Einstein, lui, propose une conception de la mécanique quantique, et de la physique en général, qui se base sur trois prémisses:
Etre d'accord avec Einstein ou avec Bohr, était, jusqu'en 1964, un problème individuel, philosophique, ou métaphysique. Certes l'argument EPR avait rallié certains à ses opinions, mais aucune expérience ne permettait de trancher entre les deux points de vue. Comment savoir si une observation fixe effectivement la valeur d'une observable ? De plus les théories dites à variables cachées avaient été construites pour redonner les mêmes résultats expérimentaux que la mécanique quantique. L'inconvénient épistémologique d'une telle démarche (une théorie devrait prédire des faits nouveaux pour être vraiment intéressante), était largement compensé par la satisfaction de pouvoir conserver des intuitions physiques aussi évidentes que la séparabilité, ou l'induction. La non séparabilité signifie l'impossibilité de décomposer un système physique en sous-systèmes, et, poussée à son extrême, rend la théorie physique infiniment complexe, pour ne pas dire affreusement contraire à l'intuition (Il faut noter qu'E. Mach, physicien allemand du 19ème est le premier à avoir entrevu la possibilité que l''univers', ou la 'réalité', ne soit pas séparable).
John Bell, en 1964, a montré que ces deux points de vue
ne sont pas équivalents, en termes physico-mathématiques,
mais surtout en termes expérimentaux. Il a, le premier,
imaginé une expérience qui permette de trancher
entre les deux théories. On appelle théorie réaliste
locale les théories qui obéissent aux trois prémisses
d'Einstein. Bell a montré une inégalité,
désormais célèbre, dans le cadre des théories
réaliste locales, inégalité violée
par la mécanique quantique. L'argument est le suivant:
le spin est un nombre quantique caractéristique du moment
cinétique d'une particule. Pour un proton, celui-ci a trois
composantes (A, B et C) et ne peut prendre que les valeurs + et
- sur chacune de ces composantes. Si on s'intéresse à
des paires de protons corrélées (par exemple découlant
d'une même désintégration), et que l'on mesure
leur spins, alors selon toute théorie réaliste locale
les mesures effectuées sur chaque composante de spins doivent
obéir à une inégalité:
Des tentatives eurent lieu dans les années 70 (Clauser 1976 et surtout Fry et Thompson 1976), mais aucune ne parvint à trancher radicalement entre les deux adversaires.
C'est à Aspect, en 1983, dans sa thèse de doctorat, que revient le mérite de réaliser la première expérience significative (au sens statistique du terme) dans ce domaine. La conclusion est ferme et sans appel (du moins pour certains): les théories réalistes locales sont fausses. On doit abandonner l'hypothèse de séparabilité.
Bien sûr, l'expérience d'Aspect n'a pas convaincu tous les adeptes d'Einstein. Certains ont tenté de trouver un vice logique dans la construction de Bell, ou une imperfection dans les expériences du type d'Aspect, ou encore ont construit des théories à variables cachées qui abandonnaient l'hypothèse de localité. L'objectivité me force à dire que cela ressemble plutôt au chant du cygne d'une philosophie qui ne veut pas mourir, qu'à de réels arguments scientifiques. Il est toujours possible de construire une théorie qui prévoit toutes les expériences connues de la physique, et qui obéisse à des principes choisis a priori. Mais ces théories ont-elles la même puissance prédictive que la mécanique quantique? On peut en douter.