La Mécanique Quantique: une théorie physique et ses interprétations


Jérôme Legras

Copyright © 1997 Jérôme Legras. L'auteur donne ici permission d'utiliser cet article sous forme électronique seulement, en partie ou en totalité, à toute personne ou institution pour des motifs éducatifs, tant qu'aucun paiement n'est perçu en retour.

La théorie quantique marche, de nombreux physiciens l'utilisent tous les jours avec bonheur. Et pourtant cet édifice si complexe entraîne de nombreux débats. Si certains se situent sur le plan philosophique, et n'intéressent donc pas les physiciens dans leur pratique quotidienne, il n'en demeure pas moins que le débat scientifique a lui aussi été très important sur l'interprétation à donner à cette théorie.

Il est symptomatique qu'une théorie qui marche aussi bien soit autant discutée. L'origine de cet état de fait se trouve sans doute dans la grande fracture qui oppose la physique classique à la physique quantique.

Après un bref aperçu de la genèse quantique, je tenterai, à travers les postulats quantiques, de préciser les caractéristiques de cette théorie physique à part, pour en venir au problème des diverses interprétations de la mécanique quantique, débat qui culminera avec le délicat sujet de la localité.


Un bref historique de la révolution quantique

La révolution quantique a commencé à l'aube de ce siècle, en 1900, avec les travaux d'un physicien allemand: Max Planck. A la fin du XIXème siècle, Lord Kelvin annonçait "La science physique forme aujourd'hui, pour l'essentiel, un ensemble parfaitement harmonieux, un ensemble pratiquement achevé !". Les grandes découvertes du XIXème expliquent cette opinion enthousiaste, partagée par beaucoup. Et pourtant, comme le dit Lord Kelvin lui-même, il reste deux petits nuages sombres: Michelson et Morley montrent que la vitesse de la lumière est constante (indépendante du sens de rotation de la terre), et la loi de Rayleigh Jeans, qui prévoit le rayonnement d'un corps noir en fonction de sa température, est en désaccord profond avec l'expérience.

Il est facile, aujourd'hui, de s'amuser de la naïveté de Lord Kelvin lorsque l'on sait que ces deux petits nuages, vont devenir respectivement Relativité et Mécanique quantique. Max Planck propose, en 1900, de supposer une discontinuité dans le rayonnement des corps noirs: le rayonnement ne peut se faire qu'à certaines valeurs d'énergie, multiples entières d'une constante fondamentale. Sans proposer de réelles interprétations à son idée, ni même de justification théorique, Planck constate que cette hypothèse permet de réconcilier théorie et expérience. La première discontinuité fondamentale est introduite, et avec elle la mécanique quantique pointe le bout de son nez. Einstein pose la deuxième pierre, en émettant l'hypothèse que la lumière est composée de grains (photons). Là encore, la contradiction avec la conception classique d'une lumière ondulatoire est gênante pour les physiciens. De Broglie, dans sa thèse de doctorat, va "soulever un coin du voile", comme le dira Einstein, en postulant que toute particule peut être vue comme une onde, et vice versa. La dualité onde-corpuscule, première atteinte de la physique à la loi du tiers exclu, va au delà de l'opposition classique, et permet d'expliquer des phénomènes incompris jusqu'alors.

C'est cette vision de De Broglie, que Korzybski nomme la première mécanique quantique, et que les physiciens appellent parfois mécanique ondulatoire. A partir de cette théorie de De Broglie, Schrödinger va construire la première mécanique quantique, fondée sur les fonctions d'onde et sur le Principe de Correspondance (voir plus loin).

Heisenberg, Dirac, Born et Jordan, construisent, indépendamment, en 1925, un édifice d'une complexité mathématique plus importante, mais qui s'avère plus fécond, à l'aide de la théorie des matrices (qui sont des tableaux de nombres pouvant représenter des fonctions). C'est cette "mécanique des matrices" que Korzybski appelle "newer quantum mechanics".

Enfin von Neumann et Landau en proposent une reformulation originale, offrant une plus grande souplesse et permettant de traiter de systèmes plus grands, par le biais de la physique statistique.

Je vais maintenant essayer, brièvement, d'exposer quelques principes de cette théorie si déconcertante.


Le formalisme quantique: de multiples écritures

La mécanique quantique est avant tout un ensemble de méthodes scientifiques, fondées sur des calculs mathématiques. Elle a un extraordinaire pouvoir prédictif, mais sa capacité d'explication est moins importante. Il est très délicat de parler de mécanique quantique, il est beaucoup plus aisé d'en faire. Nombreux sont les physiciens qui l'utilisent tous les jours, sans, de leur propre aveu, "y comprendre grand-chose". On conçoit alors qu'il est encore plus délicat de tenter d'en résumer les grands principes. Niels Bohr pensait que le plus grand obstacle à la compréhension de la mécanique quantique était notre langage, totalement inadapté aux observations microscopiques (si tant est qu'il le soit au monde macroscopique). Les mots ne sont pas les équations qu'ils tentent d'expliquer ;-)

La mécanique ondulatoire de De Broglie et Schrödinger

Cette formalisation de la mécanique quantique trouve son origine dans la dualité onde-corpuscule imaginée par De Broglie. Ces deux concepts appartiennent à l'univers quotidien: une pierre qui tombe dans l'eau forme une onde, facilement observable (les ronds dans l'eau), et un petit caillou rentre tout à fait dans la catégorie corpuscule. La physique classique, en décrétant ces deux descriptions mutuellement incompatibles, avait tenté de classer chaque phénomène dans l'une de ces deux catégories.

Mais la lumière s'est avérée récalcitrante: Newton y voyait une succession de petites particules, alors que Hertz crut avoir démontré son caractère ondulatoire. Le rejet de ces deux notions pour un nouveau concept, la fonction d'onde, marque le début de la physique quantique.

Le principe suivant constitue l'essentiel de cette nouvelle physique:
Principe I
  • La description de l'état d'un système physique de masse m, à l'instant t se fait au moyen d'une fonction d'onde complexe (i.e. à valeur dans l'ensemble des nombres complexes) y(r,t), dont l'interprétation physique est que la probabilité de trouver le système à l'instant t dans un petit volume élémentaire d3r entourant le point r est

    c'est-à-dire proportionnel au carré du module de la fonction d'onde (Un nombre complexe peut être visualisé comme un point du plan, donné par un angle, et une distance à l'origine, qu'on appelle module)
  • Toute superposition linéaire de fonctions d'ondes est une fonction d'onde possible
  • Si le système est dans le vide, et ne subit aucune force, la fonction d'onde suit l'équation suivante:
    (Equation de Schrödinger)

Au delà de la complexité de l'équation régissant l'évolution du système, il faut noter quelques points essentiels, propres à la mécanique quantique. Les systèmes physiques ponctuels ne sont plus représentés par des valeurs (telles que 3 coordonnées de position, trois coordonnées de vitesse et une masse), mais par une fonction, objet mathématique plus riche et plus complexe. L'apparition d'une probabilité est également nouvelle, et illustre ce qui sera le coeur du débat sur l'interprétation de la mécanique quantique: cette probabilité vient-elle de notre connaissance insuffisante des lois physiques, ou est-elle inhérente à tout système physique (d'ou il découlerait une certaine faillite du déterminisme)? Enfin si on accepte cette probabilité comme intrinsèque, quelle interprétation lui accorder ? Illustre-t-elle l'impossibilité de savoir où est le système, ou bien le système est-il dans une superposition d'états, pondérés par cette probabilité ? Ces questions sont au coeur de la mécanique quantique.

Le principe d'incertitude de Heisenberg, qui énonce que le produit des incertitudes sur deux grandeurs (qui sont liées entre elles d'une manière spécifique, voir plus loin) est forcément supérieur à la constante que Planck avait introduite, divisé par 4pi, relève de la même problématique. Quelle interprétation donner à cette incertitude ?

L'équation de Schrödinger fait apparaître, à sa résolution, dans de nombreux cas, des nombres quantiques. Ce sont des nombres entiers qui caractérisent les diverses solutions possibles de l'équation i.e. les divers états possibles pour le système. Le 'problème' est que ces états sont discontinus: certaines valeurs, notamment l'énergie, varient de façon discontinue entre ces diverses solutions. Et pourtant, lorsque le système passe d'une 'solution' à l'autre, sous l'effet d'une perturbation ces variables varient sans jamais passer par les valeurs intermédiaires. Ce qui n'est pas trop troublant lorsque l'on parle de grandeurs physiques assez floues, telles que l'énergie, devient plus déconcertant lorsqu'il s'agit d'emplacement dans l'espace. On retrouve les discontinuités introduites par Planck dans son travail de 1900. Les systèmes, représentés par des fonctions, peuvent être vus comme diffus dans l'espace, par le biais de la fonction d'onde, et la simple localisation spatiale devient un terme caduc.

La mécanique est avant tout une théorie des phénomènes microscopiques. Mais la physique est macroscopique: les microscopes, accélérateurs de particules, télescopes, etc. sont des objets macroscopiques, et il était indispensable que les résultats simples de la mécanique classique puissent se retrouver en mécanique ondulatoire. D'autre part certaines notions propres à la mécanique quantique n'étant pas opérationnelles (on aime bien savoir OU est l'électron, même si la notion de localité perd son sens en mécanique quantique), il est important de se munir d'une théorie de la mesure. Les principes suivants fournissent les passerelles entre le monde quantique —microscopique— et le monde macroscopique et l'observation scientifique.
Principe II

A chaque grandeur physique A, on peut associer une observable  qui est un opérateur linéaire hermitien agissant dans l'espace des fonctions d'onde, tel que la valeur moyenne <a> des résultats d'une mesure de la grandeur A, pour une particule dont l'état est décrit par une fonction d'onde y(r,t) vaut

Ce principe sera étendu dans le formalisme de Heisenberg, Dirac et Jordan. Ce qu'il faut retenir c'est que le lien entre ce que l'on peut observer du système—une grandeur physique—et le système se fait à travers le lien entre deux fonctions: la fonction d'onde et l'observable. Toute description du système sera donnée en termes d'observables, et en fonction des caractéristiques de ces observables. C'est d'ailleurs ce point essentiel qui conduit à la "nouvelle mécanique quantique", puisque celle-ci décrira un système par l'ensemble des observables sur ce système (en un sens précis, voir plus loin).

Le principe de correspondance suivant fournit l'expression des principales observables de la mécanique classique (énergie cinétique, position, vitesse, etc.)
Grandeur Physique A
Observable A
Position x, y, z, r Multiplication par x, y, z, r
Impulsion p
Energie cinétique

Energie potentielleMultiplication par V[r]
Energie totale
Moment cinétique

Un dernier principe, peut s'exprimer approximativement comme:
Principe III

Après avoir fait une mesure sur un système, en général on a modifié l'état de ce système.

La théorie de la mesure repose alors sur quelques points essentiels: si l'on fait une mesure sur un seul système, on obtient une information sur l'état de ce système après la mesure, alors que si l'on effectue cette mesure sur N systèmes préparés indépendamment mais dans le même état, on obtient une information sur cet état avant la mesure. L'acte d'observer le système provoque ce que l'on appelle la réduction du paquet d'ondes, qui contraint le système à se trouver dans un état plus simple, en général 'déterministe'. Là encore, l'interprétation est délicate: l'observation a-t-elle effectivement bouleversé le système au point que d'une superposition d'états on passe à un seul état, ou est ce simplement que l'observation nous a permis de savoir lequel des états était celui du système initialement ?


Le formalisme matriciel de Heisenberg, Dirac et Jordan

Ce formalisme, équivalent à celui de Schrödinger, sonne l'avènement de la mécanique quantique. Il est plus fécond, mais rend l'interprétation plus physique encore plus malaisée.

Il repose sur trois postulats, que je donne ici, avant d'en discuter les caractéristiques essentielles.
Postulat I

L'état d'un système est entièrement défini, à chaque instant, par un élément d'un espace de Hilbert

Un espace de Hilbert est un ensemble de fonctions, qui vérifie certaines propriétés mathématiques qu'il est inutile de décrire ici. Il faut toutefois noter une caractéristique essentielle de ces espaces: toute combinaison linéaire (addition et multiplication par un nombre) d'un élément de cet ensemble, appartient encore à cet ensemble.

Postulat II, sur la mesure
  • A toute grandeur physique A est associé un opérateur linéaire auto-adjoint  agissant dans , qui représente A.
  • Soit l'état du système après la mesure de la grandeur A. Alors quel que soit , les seuls résultats possibles de la mesure sont les valeurs propres de Â
  • Si est l'état du système, la probabilité de trouver la valeur aaau cours d'une mesure de A est
  • Après une mesure ayant donné la valeur aa est
Il n'est nul besoin de comprendre cet énoncé complexe, pour voir la similitude avec l'écriture de Schrödinger.. La notion de discontinuité se retrouve dans le fait que l'état d'un système après mesure ne peut qu'appartenir à un ensemble discontinu, et on retrouve le concept de probabilité, avec tous les problèmes d'interprétation qu'il soulève. Un dernier postulat fournit une équation d'évolution du système, similaire à l'équation de Schrödinger.

L'apport fondamental de Heisenberg et al. est la notion d'observables qui commutent. En effet les opérateurs que l'on considère sont des objets mathématiques étranges qui ne vérifient pas a ´ b = b ´ a (on dit alors que a et b ne commutent pas). La non-commutation des opérateurs liés aux observables par le principe de correspondance, est essentielle en mécanique quantique, c'est elle qui fournit des résultats tels que le principe d'incertitude d'Heisenberg. Ainsi lorsque deux observables commutent l'observation de l'une ne modifie pas la valeur de l'autre. A l'aide d'observateurs qui commutent, i.e. de grandeurs qui sont telles que leurs opérateurs associés commutent, on peut construire une caractérisation complète du système. Autrement dit, ces grandeurs permettent de déterminer entièrement l'état du système (si on les a mesurées). De ces résultats théoriques et mathématiques découle l'interprétation suivante: un système physique n'a pas de 'réalité physique' en dehors de ce qu'on peut en observer, ou du moins si une telle réalité existe, elle n'a aucun intérêt pratique et relève de la métaphysique.


Des expériences pour comprendre, des paradoxes pour ne plus comprendre...

On a vu que l'interprétation malaisée de la mécanique quantique provenait essentiellement du sens à donner aux probabilités. Une particule décrite mathématiquement par la superposition de plusieurs états fondamentaux doit-elle être considérée comme étant effectivement dans chacun de ces états, ou bien n'est-ce qu'une imperfection de la théorie qui nous empêche de savoir quelle est la valeur des observables avant la mesure. Des expériences ont permis de trancher en faveur de la première optique (qu'on pourrait appeler interprétation de Copenhague, suite aux prises de position d'une série de physiciens au Congrès de Solvay notamment).

Citons le cas d'une expérience de physique classique, détournée au profit de la mécanique quantique, avant de s'interroger sur les paradoxes qui en découlent.


Les trous de Young

Il s'agit une expérience célèbre, utilisée par les physiciens (au Lycée !) pour illustrer l'aspect ondulatoire de la lumière.

Supposons que l'on dispose d'une source de lumière, d'une énergie donnée. A cette énergie correspond une longueur d'onde, que l'on peut voir comme une longueur caractéristique de la lumière. Si l'on fait passer cette lumière par un trou de dimension proche de la longueur d'onde (ce qui est très facile à faire), on observe alors ce qu'on appelle un phénomène de diffraction : la lumière ressort du trou en allant dans toutes les directions possibles. Si l'on fait passer une même source lumineuse par deux trous, alors il se produit deux diffractions et ainsi deux lumières sont ré-émises dans toutes les directions. Lorsqu'une onde comme la lumière entre en interférence avec elle-même, on peut observer sur un écran des franges alternativement sombres et claires qu'on appelle franges d'interférences.

Une interprétation 'déterministe' conduirait à dire que ce phénomène, typiquement ondulatoire, ne peut se produire avec un unique photon. Or, depuis qu'il est possible de produire des photons un par un, cette expérience a été menée avec un unique photon. Le résultat, stupéfiant, est l'observation de franges d'interférences. Autrement dit, le photon a interféré avec lui-même. On ne peut comprendre ce résultat que si l'on accepte le fait, qu'avant la mesure sur l'écran, le photon était dans une superposition d'états physiques, et que c'est chacun de ces états qui a interféré avec les autres. Ce schéma illustre l'expérience des trous de Young:


Le chat de Schrödinger

L'expérience des trous de Young est essentiellement quantique, lorsqu'elle est effectuée avec un seul photon. Mais les conséquences qui en découlent sont troublantes., et ce d'autant plus qu'on s'approche du vivant. En effet Schrödinger invente une expérience de pensée, a priori impossible à réaliser (encore que...), et dont les résultats prédits par la mécanique quantique paraissent inacceptables.

L'énoncé actuel de cette expérience est le suivant:
Un chat est enfermé dans une enceinte en acier. Dans un compteur Geiger (qui mesure les désintégrations radioactives) on trouve un peu de substance radioactive, si peu qu'en une heure un seul atome se désintègre avec une probabilité (quantique) ½. S'il y a désintégration, le compteur relâche un petit marteau qui brise une fiole contenant de l'acide cyanhydrique, qui empoisonne le chat. On laisse évoluer le tout pendant une heure. La fonction d'onde de tout le système, qui est devenu quantique, est une superposition linéaire à poids égaux de l'état chat vivant et de l'état chat mort. Outre la difficulté de se forger une représentation intuitive de cet état quantique du chat, la question se pose de la cause de la mort du chat. C'est en observant le chat que l'on constate si celui-ci est vivant ou mort. Autrement dit, on réduit le paquet d'ondes, transformant le chat de [(Vivant)+(Mort)]/ en (chat mort) ou (chat vivant). On conçoit aisément que cette expérience de pensée ait choqué physiciens et philosophes. En fait, ce paradoxe a été 'résolu', de manière plus ou moins satisfaisante selon les physiciens, par l'introduction d'outils mathématiques empêchant de rendre le système macroscopique quantique. Mais il est facile de voir que ce type de réponse ne suffit pas: quelle est la limite entre le macroscopique et le quantique, et si limite il y a, est elle arbitraire ou découle-t-elle d'un principe physique, connu ou inconnu ? Ce débat, encore d'actualité, fait partie des zones d'ombre de la mécanique quantique, et je ne m'aventurerai pas plus avant en terrain délicat...


La naissance d'un débat: l'argument EPR

Au delà des problèmes de réduction du paquet d'ondes (type chat de Schrödinger), le débat quantique a été très vif dès l'apparition de cette nouvelle physique. Le congrès de Solvay, qui vit la première opposition entre Einstein et les disciples de Bohr, est très parlant à cet égard. Ainsi Lorentz, qui présidait les débats, était-il choqué par les discours de Bohr, Heisenberg, etc., et alla parfois jusqu'à suspendre les débats pour ne plus entendre "de telles sornettes". Retraçons l'histoire de ce débat, pour tenter de comprendre en quoi les expériences récentes peuvent être caractérisées de cruciales dans l'histoire de la physique (Je reprends en partie l'exposé de Anita Castiel, in Le monde quantique, éditions Seuil).

Pour l'école de Copenhague, les 'orthodoxes', la recherche du 'réel' est dénuée de sens. L'attitude la plus saine, consiste à considérer la mécanique quantique comme un ensemble de règles de calcul, permettent de prédire les résultats de l'expérience. Tout ce qui n'est pas mesurable relève de la métaphysique. Einstein, lui, propose une conception de la mécanique quantique, et de la physique en général, qui se base sur trois prémisses:

Pour justifier les conclusions de la mécanique qu'ils ne pouvaient accepter, telles que le résultat de l'expérience des trous de Young, Einstein, et d'autres après lui, en vinrent à supposer que la fonction d'onde ne décrit pas tout le système, mais qu'il existe des variables cachées, permettant de retrouver les prédictions expérimentales de la mécanique quantique, tout en conservant ses trois principes fondateurs. En 1935, Einstein Podolsky et Rosen publient ce qu'ils espéraient l'argument montrant l'inévitable erreur de la mécanique quantique, et qui devint un instrument puissant au service de la mécanique quantique: le paradoxe EPR. Ce paradoxe illustre le fait que la mécanique quantique viole au moins une des trois prémisses ci-dessus. On peut l'énoncer comme suit (même si il a été simplifié par Böhm plus tard): soit deux particules (photons) émises lors d'un phénomène physique, tel qu'une désintégration. Les lois de la physique quantique nous disent que, la conservation de l'impulsion restant valable, la somme des deux impulsions est fixe, disons 0 par exemple (vectoriellement, évidemment). Si la mécanique quantique est vraie, en observant un des deux photons, on réduit son paquet d'ondes et on détermine son impulsion (à une certaine précision près). Mais alors l'impulsion de l'autre photon est également connue à cet instant, alors qu'il se trouve à une distance telle qu'aucune information n'a pu y parvenir (puisqu'il se déplace à la vitesse de la lumière). On a donc réduit le paquet d'ondes, i.e. fixé la valeur d'impulsion du photon, 'à distance'. On voit bien qu'il y a là une contradiction entre la mécanique quantique et les trois prémisses einsteiniennes, mais aussi que c'est l'interprétation orthodoxe de la mécanique quantique qui est en cause: si l'on refuse l'idée que l'observation a effectivement fixé la valeur de l'impulsion d'un photon, pour simplement dire qu'elle a permis de préciser une grandeur qu'auparavant on ne connaissait qu'en termes probabilistes, alors le paradoxe disparaît.

Les inégalités de Bell: de la philosophie à la physique

Etre d'accord avec Einstein ou avec Bohr, était, jusqu'en 1964, un problème individuel, philosophique, ou métaphysique. Certes l'argument EPR avait rallié certains à ses opinions, mais aucune expérience ne permettait de trancher entre les deux points de vue. Comment savoir si une observation fixe effectivement la valeur d'une observable ? De plus les théories dites à variables cachées avaient été construites pour redonner les mêmes résultats expérimentaux que la mécanique quantique. L'inconvénient épistémologique d'une telle démarche (une théorie devrait prédire des faits nouveaux pour être vraiment intéressante), était largement compensé par la satisfaction de pouvoir conserver des intuitions physiques aussi évidentes que la séparabilité, ou l'induction. La non séparabilité signifie l'impossibilité de décomposer un système physique en sous-systèmes, et, poussée à son extrême, rend la théorie physique infiniment complexe, pour ne pas dire affreusement contraire à l'intuition (Il faut noter qu'E. Mach, physicien allemand du 19ème est le premier à avoir entrevu la possibilité que l''univers', ou la 'réalité', ne soit pas séparable).

John Bell, en 1964, a montré que ces deux points de vue ne sont pas équivalents, en termes physico-mathématiques, mais surtout en termes expérimentaux. Il a, le premier, imaginé une expérience qui permette de trancher entre les deux théories. On appelle théorie réaliste locale les théories qui obéissent aux trois prémisses d'Einstein. Bell a montré une inégalité, désormais célèbre, dans le cadre des théories réaliste locales, inégalité violée par la mécanique quantique. L'argument est le suivant:
le spin est un nombre quantique caractéristique du moment cinétique d'une particule. Pour un proton, celui-ci a trois composantes (A, B et C) et ne peut prendre que les valeurs + et - sur chacune de ces composantes. Si on s'intéresse à des paires de protons corrélées (par exemple découlant d'une même désintégration), et que l'on mesure leur spins, alors selon toute théorie réaliste locale les mesures effectuées sur chaque composante de spins doivent obéir à une inégalité:

n(A+B-) =< n(A+C-) + n(B-C+)

et de même pour toute permutation circulaire sur les indices, où n(A+B-) désigne le nombre de paires de protons telles que la composante de spin mesurée sur A soit + et sur B soit -. Ce résultat découle d'un raisonnement assez simple de théorie des ensembles, et bien évidemment, des théories réalistes locales. Son importance découle du fait que ce résultat peut être mis en évidence expérimentalement. Même si les difficultés liées à la mise en oeuvre d'une telle expérience de physique fondamentale sont énormes (il faut en effet s'assurer qu'aucune impureté ne puisse troubler l'expérience, et expliquer autrement que par le rejet ou non des théories réalistes locales), pour la première fois des physiciens pouvaient réfléchir à une expérience pratique.

Des tentatives eurent lieu dans les années 70 (Clauser 1976 et surtout Fry et Thompson 1976), mais aucune ne parvint à trancher radicalement entre les deux adversaires.

C'est à Aspect, en 1983, dans sa thèse de doctorat, que revient le mérite de réaliser la première expérience significative (au sens statistique du terme) dans ce domaine. La conclusion est ferme et sans appel (du moins pour certains): les théories réalistes locales sont fausses. On doit abandonner l'hypothèse de séparabilité.

Bien sûr, l'expérience d'Aspect n'a pas convaincu tous les adeptes d'Einstein. Certains ont tenté de trouver un vice logique dans la construction de Bell, ou une imperfection dans les expériences du type d'Aspect, ou encore ont construit des théories à variables cachées qui abandonnaient l'hypothèse de localité. L'objectivité me force à dire que cela ressemble plutôt au chant du cygne d'une philosophie qui ne veut pas mourir, qu'à de réels arguments scientifiques. Il est toujours possible de construire une théorie qui prévoit toutes les expériences connues de la physique, et qui obéisse à des principes choisis a priori. Mais ces théories ont-elles la même puissance prédictive que la mécanique quantique? On peut en douter.


Vers une physique non séparable ?

Que penser de résultats si surprenants ? L'abandon du concept de sous système est-elle inévitable ? En fait, il paraît plus sage de constater que ces expériences n'ont fait que conforter la mécanique quantique, en tranchant un débat vieux de 50 ans, sans bouleverser la pratique physique des physiciens qui utilisent la mécanique quantique tous les jours. En effet la non séparabilité, même en mécanique quantique, ne s'observe que dans certains cas très rares, dits sensibles, et n'est absolument pas une règle générale à adopter dans toute expérience. On peut imaginer, avec Alain Aspect, que cette non séparabilité n'est qu'une propriété "asymptotique", et qu'en pratique, excepté dans des cas "sensibles" que l'on peut identifier, le grand nombre d'interactions en jeu détruit la non séparabilité. La récente confirmation des résultats d'Aspect clôt en grande partie le débat de la séparabilité. Il reste à comprendre le délicat problème de la frontière entre le quantique et le non quantique. Identifier le principe à l'origine de l'absence évidente de phénomènes du type paquets d'ondes à l'échelle macroscopique est une des gageures de la théorie physique moderne. Pourquoi Einstein a-t-il tort à l'échelle quantique et raison à notre échelle ? Ce n'est sans doute que lorsque ce mystère sera élucidé, que la mécanique quantique pourra être intégrée, et que ses prédictions contraires à l'intuition (et conformes à l'expérience) pourront être acceptées par ses détracteurs.