Vous êtes ici webriviere.free.fr > sciences > dossiers > histoire_de_la_mesure > index3

 

 

 

 

 

 

 

Section Sciences

 

 

 

 

 

Accueil

Sciences

Rando

Détente

A propos de...

Rechercher

Contact

 

 

 

 

Liens

Formulaire de contact

Rechercher sur le site

 

 

 

 

 

Histoire de la mesure 3/4

 

La constante quête de l'Humanité est la recherche de la 'mesure juste' souvent appelée la 'juste mesure'. Son développement est un perpétuel problème pour nous les scientifiques. En allant vers l'infiniement petit, l'homme a besoin d'outils de mesure de plus en plus performants. Partons à la découverte de ce monde passionnant...

 

 

 

[ Retour aux autres dossiers ]

 

 

 

 

 

>> Partie 3

 

 

 

 >> Suite du dossier :
         
1. Une nouvelle métrologie pour le XXème siècle - Les mesures de la radioactivité
         2. La quête des énergies très faibles - La température au voisinage du zéro absolu
         3. Mesures classiques et quantiques - La physique quantique
         4. Bibliographie

 

>> Mesures classiques et quantiques

 

 

| Précédent | Suite

 

  La physique quantique

 

La théorie quantique, développée au début du XXe siècle par les plus grands noms de la science physique, en particulier Niels Bohr a fait le lien entre deux concepts: celui de la mesure qui informe la théorie et celui de la mesure qui constitue un objet de la théorie.

 

Le thème de la mesure en physique est indissociable de celui de l'observation et de la numérisation. Quantifier par des nombres, condition préalable à toute formalisation mathématique de la physique, c'est identifier, dans la masse des faits expérimentaux, dans un premier temps ceux qui sont sujets à une "régularité", présentant une certaine "stabilité", et ainsi susceptibles d'une mesure. Il faut comprendre par là la comparaison d'un état de fait (situation statique), soit d'un processus avec des cas types de même espèce, comparaison qui peut être observée, soit enregistrée pendant un temps suffisarnrnent long. Ainsi, la position simultanée des extrémités d'un segment pourra donner lieu à une mesure de longueur par juxtaposition avec un segment -étalon. Une succession d'événements clairement définis sera mesurée dans sa durée par observation simultanée d'une séquence standard, comme celle définie par les battements d'une horloge.

 

Les conditions de possibilité de telles opérations, leur valeur épistémologique aussi, ont fait l'objet d'analyses détaillées, Il a fallu attendre les apports de la relativité et de l'empirisme logique pour saisir pleinement le rôle joué par les conventions et autres définitions de coordination dans la réflexion critique sur la mesure. De même, comme nous allons le voir, l'avènement de la théorie quantique suscita une enquête sans précédent sur les actes physiques de l'observation et de la mesure.

 

Ces considérations semblent concerner les mesures ayant une traduction expérimentale immédiate. Une mesure de longueur, ou de durée, correspond à des déterminations intuitivement "simples": celles-ci n'exigent en apparence aucune élaboration supplémentaire. La mesure d'autres quantités, disons dérivées, implique en plus une déduction à partir des résultats de mesure. Ainsi l'énergie d'un système ne peut se mesurer que par un procédé indirect. Certes, on pourrait aisément concevoir pour chaque situation un appareil qui effectuerait une mesure directe de l'énergie du système considéré. Son fonctionnement serait alors réglé par plusieurs processus de mesure simples dont les résultats, traités dans une étape finale, donneraient la valeur affichée par le cadran, seule partie "visible" de l'appareil. Imaginons un appareil qui permette de mesurer l'énergie d'un volume de gaz dans une enceinte donnée: un tel appareil mesurerait par exemple la température du gaz et, connaissant son poids et sa composition chimique, permettrait de calculer son énergie sur la base de la théorie cinétique des gaz. Pourrait-on considérer cet appareil comme effectuant alors une mesure de l'énergie aussi "simple" que celle d'une longueur par une règle graduée? Il est clair que la réponse ne doit pas dépendre de l'apparente simplicité de lecture du résultat (contrastant avec la complexité de l'appareil). On finit par reconnaître que la notion de mesure simple devient relative, et ne peut s'apprécier qu'en fonction du choix du système des unités choisi, et de l'ensemble des théories physiques retenues pour interpréter le fonctionnement des appareils et obtenir des résultats. Dès lors, les mesures simples elles-mêmes apparaissent conditionnées par l'appareil théorique, et leur simplicité due à une familiarité d'usage. Il en va ainsi par exemple des mesures de longueur, où le recours implicite aux lois de l'optique finit par être oublié.

 

 

Collisions de particules

Photographie de traces suite à des collisions de particules dans les chambres à bulle - CERN

Que peut-on observer ? Uniquement des déflexions...

 

 

Si l'on esquisse ici quelques idées qui ne soulèveront pas d'objection majeure tant elles sont ancrées - depuis peu - dans la compréhension habituelle de la marche de la physique, c'est pour mettre en évidence la différence qui existe entre un discours sur la mesure en tant que thème méthodologique, illustré par les propos ci-dessus, et en tant que thème d'investigation physique. Il ne faut pas oublier que la mesure est avant tout réalisée par un processus physique. En tant que telle, elle est soumise aux mêmes lois de la théorie. Ainsi, la mesure, en tant qu'acte épistémologique, informe la théorie, et en tant que processus concret, elle en constitue un objet. Le propre de la théorie quantique est d'avoir reconnu et mis en avant le lien profond entre ces deux thèmes. Lorsqu'on réfléchit sur la mesure et l'observation des micro-systèmes, on constate la "raréfaction" des grandeurs à disposition. Le survol de l'histoire du développement de la physique corpusculaire fait ainsi ressortir le rôle croissant des expériences de collision et de leur description théorique. Une des raisons est l'essentielle simplicité structurelle des micro-systèmes. Ainsi les particules, de par leur taille, de par leur caractère "élémentaire", ne peuvent faire l'objet d'une étude que par leurs interactions. En découpant la matière en des parties de plus en plus petites, nous privons de signification un nombre croissant des grandeurs et concepts. Un cristal peut être étudié du point de vue de ses propriétés géométriques, comme l'arrangement de son réseau moléculaire, du point de vue mécanique, par son élasticité, du point de vue thermodynamique, par la considération de ses chaleurs spécifiques et autres points de fusion. On peut également étudier ses propriétés optiques par les indices de réfraction, et électriques via la conductibilité, la piézo-électricité, etc... Sur une molécule, les sujets d'investigation sont plus restreints. Seules les caractéristiques géométriques des arrangements atomiques et liaisons chimiques, ainsi que les propriétés mécaniques, ont encore un sens. La gamme des approches possibles offertes par un atome est encore plus restreinte. En tant qu'objet non-composite, nous pouvons encore parler de sa masse, éventuellement de sa charge, de sa position et de sa vitesse. Les autres caractéristiques physiques se sont "dissoutes". Nous pouvons encore étudier son spectre d'émission électromagnétique, ce que fit précisément la jeune physique quantique. Mais cela présuppose une structure inteme et, en effet, c'est bien cela qui est en jeu ici. Ce n'est que dans la mesure où un objet possède une structure inteme qu'il offre des prises empiriques nombreuses. Un cristal en a une riche, un atome de prime abord une bien plus restreinte. A l'échelle sub-atomique, seules subsistent les grandeurs mécaniques, la charge électrique et ses divers avatars que sont les charges conservées associées aux autres interactions fondamentales. Que pouvons-nous observer? Que les déflexions et la conservation des charges lors des processus de collision. En dehors de ces quantités, une particule élémentaire est empiriquement "inerte", voire "inexistante". Est-ce à dire que la théorie de la mesure des propriétés de tels objets devient -à l'image de ce dépouillement- essentiellement triviale?

 

Il n'en est rien. Bien au contraire, la physique quantique trouva sa première interprétation épistémologiquement aboutie sur les bases d'une réflexion sur les conditions de possibilité d'une observation des propriétés des micro-systèmes. Loin d'être trivial, le thème de la mesure y acquit une profondeur nouvelle. Examinons les conditions de ce renouveau.

 

 

Niels Bohr

Niels Bohr (1885 - 1962)

Physicien danois, professeur de physique à l'université de Copenhague, il reçut le prix Nobel de physique en 1922.

 

 

La théorie quantique reçut son expression formelle dans la deuxième moitié des années vingt du XXe siècle. Alors que l'effort théorique est dû à plusieurs illustres chercheurs, l'oeuvre épistémologique d'interprétation et de justification de la théorie est, dans les années fondatrices, à mettre essentiellement à l'actif d'un seul homme, Niels Bohr. De nos jours encore, les conceptions nouvelles se définissent par rapport à cette pensée, ou du moins restent tributaires de son vocabulaire. C'est à Bohr que nous devons la version philosophiquement la plus ambitieuse (et peut-être la plus aboutie) d'une théorie de l'observation et de la mesure.

 

Durant les années précédant l'émergence de la complémentarité en 1927, un des axes de la réflexion de Bohr fut le rôle et la signification des modèles "non-standards" dans l'étude du rayonnement et de la matière. Depuis les quanta de Planck (1900) et l'hypothèse du photon d'Einstein (1905), on s'accordait sur l'importance d'une description corpusculaire des aspects quantiques du rayonnement. L'hypothèse de la nature ondulatoire de la matière de De Broglie (1923) vint briser le monopole de l'interprétation corpusculaire de la matière. Ces modèles "non-standards", le rayonnement conçu comme gaz des particules photoniques, la matière comme une ondulation, contribuèrent à l'étonnement face à la nouvelle physique quantique, jusqu'à en devenir des caractéristiques emblématiques. Bohr était cependant réticent à attribuer un contenu de réalité à la dualité de ces modèles classiques. Il croyait à la nature fondamentalement ondulatoire de la radiation, et était convaincu que cette apparente dualité avait sa raison d'être véritable dans l'inadéquation de descriptions spatio-temporelles. Ainsi, dans le cas du rayonnement, celui-ci n'est pas tout à la fois phénomène ondulatoire et corpusculaire: c'est plutôt qu'aucun de ces modes descriptifs (dans l'espace-temps) et en termes d'ondes ou particules, ne voit remplies les conditions de sa pleine validité. Ce qui est en cause, c'est l'existence du quantum d'action (le contenu du postulat quantique selon la terminologie de Bohr), qui se manifeste par une essentielle discontinuité. Sans la possibilité d'une continuité dans l'analyse du phénomène, les modèles impliquant une description spatio-temporelle ne peuvent être totalement viables: ils laissent alors le champ libre aux modèles "non-standards".

 

Bonn arrivera ainsi à l'opinion que, lorsque la continuité n'est plus assurée, l'usage des modèles non-standards s'impose de lui-même. Il insiste sur le lien entre l'adéquation d'une description et la manière dont la discontinuité est prise en compte. C'est un des traits dominants de sa complémentarité.

 

L'avènement de la mécanique matricielle de Heisenberg (1925) offrit à Bohr le moyen de mieux spécifier la frontière au-delà de laquelle la faillite des descriptions spatio-temporelles, donc la faillite des modèles standards, devient effective. Les relations de commutation de Heisenberg permirent d'exprimer formellement le nouvel état de fait entre observables spatio-temporelles et l'expression du quantum d'action. Ainsi, pour les grandeurs P, impulsion, et Q, position, on a : PQ-QP=ih/2.pi.

 

 

Albert Einstein

Albert Einstein (1879 - 1955)

Physicien et mathématicien d'origine allemande, figure symbolique de la science contemporaine. Ses études sur la relativité sont à la base de la mécanique quantique et statistique. Il fut prix Nobel en 1921.

 

| Voir ses citations |

 

 

La non-commutativité (ou "non-classicité") des grandeurs P et Q, en mécanique quantique, se mesure sur l'échelle phénoménologique établie par la constante de Planck h. Le principe de correspondance, une autre pièce maîtresse de l'attirail conceptuel de Bohr, reçoit dans la foulée une expression formelle. La limite de h tendant vers 0, où la commutativité est restaurée, permet de donner un contenu rigoureux aux intuitions physiques qui ont tant servi dans les glorieux jours de la "vieille théorie quantique" d'avant 1925.

 

Bohr accorde désormais un droit de cité aux modèles non-standards et il les soumet à sa dialectique de la complémentarité. Quand la continuité est assurée, les modèles standards sont adéquats. Quand elle fait défaut (et nous avons maintenant la possibilité d'une estimation quantitative d'une telle circonstance grâce au formalisme de la mécanique quantique), le recours aux modèles non-standards s'impose. Ces derniers ne sont plus de simples expédients: la dualité est profondément enracinée dans la réalité.

 

La dualité onde-particule est en place. Ce n'est pourtant pas la seule dualité (ou complémentarité) de la panoplie interprétative de Bohr. Nous allons maintenant examiner la dualité des coordinations spatio-temporelles et des déterminations causales. Cette dernière est liée aux relations d'indétermination de Heisenberg et joue un rôle conceptuel de premier plan.

 

Stimulé par l'analyse du microscope à rayons gamma de Heisenberg, mais en désaccord avec l'interprétation qu'en offrit ce dernier, Bohr élabora rapidement ses propres exemples de prédilection, taillés sur mesure pour une analyse pointue des concepts et des enjeux épistémologiques. Il put ainsi analyser comment, dans l'observation d'un processus quantique, les déterminations des coordonnées spatiales et temporelles étaient dans un rapport conflictuel irréductible avec l'étude simultanée des échanges d'énergie et d'impulsion. Comme ces derniers sont, en vertu des lois de leur conservation, porteurs du flux causal, Bohr parla ainsi de la notion de complémentafité des déterminations spatio-temporelles et causales.

 

 

Louis de Broglie

Louis de Broglie (1892 - 1987)

Il futt le créateur, en 1923, de la mécanique ondulatoire. Il s'est attaché, à partir de 1952, à donner une nouvelle interprétation à la mécanique quantique. Il obtient le prix Nobel en 1929.

 

 

Examinons l'exemple du couple position-impulsion. Pour bien comprendre l'analyse de Bohr, il faut prendre acte de la nécessité de disposer, pour pouvoir procéder à la détermination de la coordonnée spatiale d'un objet, d'un cadre matérialisant le repère. La mesure de la coordonnée spatiale peut être conçue comme le passage de l'objet par une fente dans un écran rigidement fixé par rapport au cadre. Le couplage physique avec l'écran, nécessaire lors de la mesure, permet un possible échange d'impulsion. Dès lors, une mesure de l'impulsion de l'objet lors du processus "mesure de la position", nécessite la détermination de la partie de l'impulsion absorbée par l'écran (ce transfert d'impulsion se conçoit classiquement comme produit par le "choc" entre "le bord de la fente" et l'objet). Ceci est impossible si l'écran est fixé rigidement au cadre-repère (le choc ne peut être perçu); il faut donc assurer la possibilité d'une certaine déformation dont le degré sera alors fonction de l'impulsion absorbée. Nous introduisons par là une source d'erreur sur la mesure de la position, la non-rigidité influant sur la position de la fente, erreur dont il faut pouvoir tenir compte. La réduire revient à rigidifer la liaison écran-cadre, donc réciproquement à augmenter l'erreur sur la mesure de l'impulsion. Pour effectuer une mesure simultanée de la position et de l'impulsion, il faut donc pouvoir contrôler les deux erreurs et pouvoir effectuer les corrections aux résultats obtenus. C'est ici qu'intervient la thèse centrale de Bohr: un tel contrôle absolu est impossible, l'acte de la mesure, réalisé par le couplage à un appareillage comporte un élément fondamentalement incontrôlable que Bohr attribue à la présence, dans tout processus quantique, de ce qu'il appelle l'élément de discontinuité fondamental.

 

Dans l'exemple du microscope à rayons gamma de Heisenberg, la position de l'électron est mesurée en l'éclairant avec de la lumière analysée en termes d'un faisceau des photons. Cette position sera déterminée avec d'autant plus de précision que la longueur d'onde de la radiation est petite, donc l'impulsion du photon grande. En conséquence, lors de la diffusion (classiquement le "choc") du photon sur l'électron, ce dernier sera d'autant mieux localisé qu'il subira une variation grande de son impulsion. Pour Heisenberg, cette discontinuité de l'impulsion lors d'une mesure de la position épuisait le contenu épistémologique de ses relations d'indétermination. Pour Bohr, c'était rester en deçà de leur véritable signification: tout comme pour l'exemple de la fente, l'élément capital n'est pas tant la présence d'une variation discontinue de l'impulsion que la reconnaissance qu'une détermination exacte de l'impulsion échangée entre l'électron et le photon ne peut être obtenue. Le dispositif expérimental optique qui servirait à détecter le photon (à le voir, et donc à voir l'électron), force une description ondulatoire de ce dernier, et introduit l'indétermination.

 

 

Werner Heisenberg

Werner Heisenberg (1901 - 1976)

Physicien allemand, ici lors de la signature d'un accord créant l'Euratom en 1953, il fut prix Nobel en 1932.

 

Ainsi l'accroissement de la précision sur la valeur de la position est accompagné irrémédiablement d'une diminution de la précision sur l'impulsion et réciproquement. Ce rapport de réciprocité, fondé sur l'impossibilité d'un contrôle de l'interaction entre l'appareil de mesure et le système mesuré, constitue précisément le contenu des relations d'indétermination de Heisenberg. Le terme d'indétermination traduit ici mieux que celui d'incertitude la teneur épistémologique de la thèse d'incontrôlabilité de Bohr. A l'inverse de Heisenberg qui, dans sa première interprétation de ses relations, avait insisté sur la limite à la connaisance qu'elles traduisaient, Bohr perçoit ces relations comme associées à la fondamentale dualité onde-particule qui est à l'origine de la thèse d'incontrôlabilité.

 

Si on appelle la relation exemple par le couple "rigidité de l'écran" et "son aptitude à enregistrer un impact" une relation d'exclusion mécanique", nous pouvons caractériser l'analyse de Bohr comme idenfiliant la raison d'être de la complémentarité des déterminations spatiales et causales (d'impulsion ici) comme l'effet de la conjonction de la relation d'exclusion mécanique et de la thèse d'incontrôlabilité, elle même fondée sur la dualité onde-particule.

 

La relation entre les deux notions de dualité, ondes-pa1icules d'une par, et spatio-temporel et causal de l'autre, est complexe. Elles sont toutes les deux étroitement liées dans l'assise conceptuelle de la complémentarité. Considérer néanmoins leurs contenus épistémologiques comme équivalents conduit en général à des inconsistances.

 

Ainsi, on pourrait, au vu des relations de Planck, Einstein et de Broglie, E=hf; P=hk, où E est l'énergie, P le vecteur impulsion, f la fréquence et k le vecteur d'onde, tenter l'association de l'énergie et de l'impulsion avec les aspects ondulatoires. D'autres ont soutenu le contraire: énergie et impulsion sont à associer au modèle corpusculaire, la position et le temps avec le modèle ondulatoire. La première identification est vite écartée. On peut facilement concevoir des situations où l'énergie ou l'impulsion peuvent être déterminées, mais où la description qui s'impose du point de vue empirique est corpusculaire. C'est le cas de l'écran semi-rigide de tout à l'heure, dont le recul permet une mesure de l'impulsion, mais dont la non-rigidité d'attache empêche justement une éventuelle apparition des effets ondulatoires (interférences dans le cas d'une double fente dans un écran placé derrière le premier). Réciproquement, quand l'écran est fixé rigidement, la position peut être déterminée (excluant donc une détermination de l'impulsion), mais l'apparition des franges d'interférence appelle alors le modèle ondulatoire.

 

 

Max Planck

Max Planck (1858 - 1947)

Physicien allemand, il révolutionna la physique moderne en élaborant sa théorie des quanta. Prix Nobel en 1918.

 

0n conçoit que de tels parallèles restent superficiels. En fait, il convient de reprendre le problème à partir de la caractérisation, par Bohr, de la théorie quantique, non comme une généralisation des concepts à l'oeuvre dans la mécanique, mais plutôt comme une généralisation de leur organisation dans l'économie de la théorie. Cette généralisation est accompagnée d'une refonte des conditions de leur signification. Dans la description des phénomènes quantiques, il est essentiel d'utiliser les concepts classiques (ceci est un autre thème récurrent de Bohr), mais il faut respecter l'élément de discontinuité fondamental qui limite leur domaine d'application. La structure conceptuelle de la théorie classique doit ainsi être élargie, non par l'ajout de concepts nouveaux, mais par une redéfinition de relations entre ces concepts et les conditions expérimentales qui circonscrivent leur légitimité.

 

La philosophie de la physique quantique de Bohr forme un système cohérent et autonome à condition d'identifier correctement l'objet de la théorie quantique. L'insistance de Bohr sur la prise en compte du montage expérimental dans toute appréciation et description formelle par la mécanique quantique laisse présager que cette dernière ne se voit pas accorder un statut tout à fait semblable aux autres théories. On peut caractériser la théorie quantique, dans la perspective de Bohr, comme une théorie de situations d'observation, plutôt que comme une théorie des (micro)-systèmes. Une théorie de situations, car une application sans ambiguité du formalisme exige au préalable une analyse épistémologique où la séparation entre appareillage de mesure, classique, et l'objet (de la mesure), est clairement marquée. C'est la condition pour que l'issue de la situation puisse faire l'objet, de manière correcte et complète, du traitement formel. La mécanique quantique ne doit pas être pensée comme décrivant des objets quantiques dans leur devenir indépendamment de leur interaction avec les agents de mesure. Pour Bohr, le statut véritable des "objets" impliqués dans les phénomènes quantiques n'est pas une question pertinente. Seuls les phénomènes eux-mêmes forment l'objet de la description par la théorie quantique.

 

C'est ainsi qu'il n'est pas contradictoire de considérer un système tantôt décrit par la mécanique quantique, tantôt par la mécanique classique, selon la fonction qu'il remplit dans l'économie de l'expérience. En tant qu'appareil de mesure, il est décrit nécessairement en termes classiques en vertu de l'exigence de Bohr de la formulation en langage classique des comptes-rendus observationnels. S'il devient à son tour objet de l'expérience (par exemple s'il devient observé à son tour, comme l'écran semi-rigide dans son débattement accompagnant le passage de l'objet par la fente) un traitement quantique s'impose. Plus que dans tout autre domaine de la physique, la mesure en mécanique quantique met en avant la nécessaire interaction avec le système observé. La modalité physique de cette interaction définit l'interface à travers laquelle s'exerce l'échange de l'élément inanalysable, source de discontinuité, mais qui est le prix à payer pour la possibilité d'une application dénuée d'ambiguité des concepts spécifiques à l'expérience et à l'observation.

 

C'est au prix de cet inanalysable que chaque montage expérimental, ainsi que les protocoles fixant son utilisation, déterminent parrni tous les concepts possibles ceux qui peuvent fonder un discours doué d'une signification. Une infraction à cette règle de "bonne manipulatiton" de la théorie conduit à des paradoxes et autres difficultés d'interprétation qui sont responsables de la confusion baignant l'interprétation de la théorie.

 

Dans la décision de traiter un objet selon la description quantique ou classsique, qui dépend du rôle qu'il remplit dans la mise en évidence de la discontinuité, le choix n'est pas déterminé par un pur examen de la nature physique de l'objet. Ses dimensions, sa masse, ses propriétés physiques ne sont donc pas seules en cause, et l'on voit à quel point ceci tranche avec le point de vue habituel qui identifie la séparation entre domaines classiques et quantiques avec celle entre micro et macro-systèmes.

 

La prise en compte de ce rôle dans le choix de la description théorique est un trait caractéristique de la philosophie de Bohr. Elle s'inscrit en rupture avec la position habituelle de la physique classique dans la mesure où elle semble faire intervenir l'intention du manipulateur, voire de l'utilisateur de la théorie. C'est cet élément qui conduisit certains jusqu'à inclure l'observateur dans l'appréhension et la marche des processus quantiques, et qui motiva d'autres à condamner la théorie pour cause de subjectivité.

 

 

Conseil de Solvay

Conseil de Solvay

Le 30 octobre 1911, le Conseil de Solvay réunit les plus grands noms de la Science.

 

 

Examinons quelles sont les alternatives quand on rejette l'interprétation de Bohr. Prenons la théorie "telle quelle" et refusons de l'assister par une quelconque béquille philosophique. De par sa nature, la théorie quantique traite des constituants élémentaires de la matière. Elle doit donc pouvoir rendre compte des systèmes composés, remontant jusqu'aux objets caractéristiques de notre environnement quotidien, domaine du sens commun et d'une physique classique. Elle est une théorie universelle. Tous les objets dans le champ d'investigation doivent pouvoir être décrits par la théorie quantique, et le comportement classique que certains objets présentent doit être obtenu comme une conséquence de cette théorie et non être simplement constaté et mis en rapport avec une exigence de l'utilisation du langage classique, comme chez Bohr. C'est ici que suffit le problème dit "de la mesure".

 

La nature linéaire de l'équation d'évolution (équation de Schrödinger) en mécanique quantique, et la manière dont cette théorie formalise les systèmes composites, ne permettent pas de rendre compte du comportement classique des macro-objets. L'élément à prendre en compte est la structure linéaire de l'espace des solutions de l'équation de Schrödinger, qui implique qu'une superposition de ses solutions, elle-même solution admissible, décrit un état possible du système. L'existence de ces états a comme contrepartie empirique la nécessaire dispersion statistique des résultats lors des mesures répétées d'une même grandeur sur l'un d'eux. La thèse de la non-existence des variables cachées, aujourd'hui largement partagée, fait de ces états une caractéristique de la nature et non un artifice descriptif lié à l'insuffisance de nos théories actuelles.

 

Dans l'analyse par la théorie quantique d'un acte de mesure, le couplage nécessaire entre l'appareil de mesure et l'objet observé, réalisé par une interaction physique, conduit à un état final du système composé par l'appareil et l'objet, qui est une superposition des états dérivés des états superposés initiaux de l'objet, couplés aux réponses respectives de l'appareil. Ainsi, une superposition des états de l'objet entraine celle de l'appareil de mesure. En quelque sorte, la superposition des états du système se "propage", voire "contamine" l'appareil. Or, nous ne voyons rien expérimentalement; un de piliers de notre bon sens classique repose sur la constatation que les mesures donnent toujours lieu à des faits: les appareils présentent des réponses univoques et, d'une manière générale, les objets quotidiens apparaissent résolument classiques. Les états superposés, la norme au niveau quantique, semblent éradiqués du monde classique. On peut reformuler le problème en des termes plus généraux: il s'agit de comprendre, dans l'hypothèse de la validité universelle de la théorie quantique, l'émergence du classique d'un substrat éminemment quantique.

 

Il faut se souvenir que chez Bohr, le lieu de la séparation entre l'objet (décrit quantiquement) et l'appareil de mesure (décrit classiquement) est également celui de l'interaction physique qui réalise le processus de mesure. Les conditions de possibilité de la mesure exigent précisément un partage de rôle clair entre l'agent de la mesure et ce qui lui est soumis. L'interaction finie entre l'objet et l'appareil (lieu de la manifestation de l'élément de discontinuité) ne peut alors faire simultanément l'objet d'une estimation quantitative: le faire implique de pouvoir enregistrer des transferts de quantité de mouvement ou d'énergie vers l'appareil de mesure, ce qui revient à en faire un nouveau sujet de la mesure par un appareil tiers. L'étude de tels transferts nécessite alors une description quantique dont l'appareil de mesure devient à son tour le sujet.

 

Il est peu naturel d'exprimer au sein d'une telle philosophie l'idée d'une transition vers le classique ou, inversement celle d'une survie à large échelle d'effets quantiques. Dans le cadre de l'interprétation de Bohr, ce n'est pas le fait d'une dynamique descriptible via le formalisme. Au contraire, ce dernier rend précisément (et exclusivement) compte des situations où la distinction classique-quantique a été assurée au préalable, ou du moins mise en scène via un montage expérimental, sur la base d'une distribution des rôles entre système observé et appareil de mesure. Traité quantiquement, l'appareil de mesure tombe nécessairement sous le coup d'une autre instance d'observation (mesure) dont il est l'objet, ce qui présuppose un nouvel appareillage de mesure, à son tour décrit (et fonctionnant) classiquement. Le spectre d'une régression à l'infini menace. On conçoit combien des démarches qui tentent d'établir le classique non pas comme relevant d'une décision épistémologique, mais comme un réel fait dynamique, sont étrangères au cadre interprétatif de Bohr.

 

Le problème de la mesure fut la première brèche ouverte dans le "corpus interprétatif" de Bohr et les premièies tentatives visèrent tout d'abord à remédier à ce qui était alors perçu comme une lacune dans un édifice par ailleurs sans faille. Tel fut ainsi la réaction de John von Neumann qui pensa résoudre le problème par l'adjonction explicite d'un postulat nouveau: le postulat de la projection ou du collapsus de la fonction d'onde. Dans la théorie de von Neumann, le processus de la mesure est associé à un nouveau type d'évolution, non descriptible par l'équation de Schrödinger, et qui est fondamentalement irréversible. Cette évolution est responsable du mécanisme qui, de la superposition, fait aboutir à un de ses termes, c'est-à-dire fait émerger un fait d'observation. La théorie de von Neumann donna lieu à des multiples développements et des nombreuses critiques. C'est dans ses prolongements spéculatifs que l'on trouve exprimé le plus clairement le recours à la conscience de l'observateur dans le processus irréversible qui mène de la superposition au "fait".

 

 

Photographie proposée par le CERN.

 

 

 

De nos jours, le problème de la mesure est considéré comme un signal qui appelle non seulement à un dépassement de la doctrine de Bohr mais pour certains à une attitude radicalement différente face au formalisme quantique. Une des tendances des développements récents de la physique fondamentale consiste justement à souligner l'universalité de la mécanique quantique et sa capacité de rendre compte de tous les phénomènes, en particulier pour explorer l'interface entre les régimes classiques et quantiques.

 

Cette interface, lieu des phénomènes exotiques, a été rendue accessible grâce aux progrès spectaculaires de la technologie expérimentale que l'on ne pouvait concevoir à l'époque fondatrice. Un grand nombre des phénomènes et comportements situés à la lisière des régimes quantiques et classiques sont désormais sujets à des études expérimentales, ainsi que le sont les situations mises en scène dans les expériences de pensée des pères fondateurs.

 

Une des premières solutions au problème de la mesure caractéristique de cette tendance fut la théorie des mondes multiples de Hugh Everett III, popularisée par Bryce de Witt. Elle est particulièrement radicale. Puisque la théorie nous prédit une superposition des réponses possibles de l'appareil, et que celles-ci demeurent expérimentalement inobservables, c'est que chacune de ces réponses, bel et bien réalisée, ne survient pas dans le même univers. Ainsi, lors de la mesure, l'univers contenant les agents physiques de la mesure, ainsi que l'observateur lui-même, se "multiplie" avec son contenu en autant de copies que d'alternatives dans la superposition. Dans chaque univers, une copie de l'observateur constate une réponse de l'appareil, donc un fait clairement défini. De plus, aucun des observateurs ne peut prendre conscience des autres univers. En reprenant notre image de la contamination, on pourrait dire que celle-ci a été résorbée par une multiplication des univers.

 

Les études consacrées aux mondes multiples ont montré que, du point de vue de la stricte consistance mathématique, ils constituent une solution viable au problème de la mesure. Il n'en va pas de même du point de vue philosophique où cette multiplication peut paraître démesurée. D'autres approches alternaives ont été depuis proposées.

 

Au début des années 80, l'étude du problème de la mesure a connu un développement important avec la découverte de la décohérence. L'étude de la décohérence propose de résoudre le problème de la mesure, et plus généralement celui de l'émergence des propriétés classiques à partir d'un substrat intrinsèquement quantique, par la prise en compte de la complexité inhérente aux situations réelles de mesure, qui mettent en jeu un grand nombre des composants et un nombre encore plus grand d'interactions. Cette complexité a comme résultat l'apparition des mécanismes supresseurs des phases responsables des corrélations quantiques. Ces mécanismes supresseurs sont les effets combinés d'un grand nombre de micro-interférences destructives au niveau de l'environnement du processus. On comprend donc ici un comportement classique, au sens d'une absence d'effets de superposition, comme un phénomène émergeant qui apparaît nécessairement dès lors qu'un couplage est établi entre le système quantique et un milieu complexe, analogue à un bain thermique, et qui serait associé typiquement à un contexte de mesure. L'établissement d'un régime classique survient par un mécanisme de décohérence qui détruit les phases essentielles à la survie du comportement quantique. La règle méthodologique concemant l'usage alterné des descriptions classiques et quantiques de Bohr se voit ainsi expliquée de l'intérieur du formalisme, en parfait accord avec le rejet de tout apport philosophique extérieur.

 

 

| Précédent | Suite

 

  >> haut de page

 

 

Pour en savoir plus...

N'hésitez pas à donner votre avis sur ce dossier à partir de la section "contact".

 

[ Retour liste des autres dossiers ]

[ Retour accueil général du site ]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Tous droits réservés - Riviere Nicolas © 2024 - 20120115