Dans une certaine mesure, le problème de mesure (MP) est en effet philosophique, en fin de compte, il dépend toujours de l'interprétation que vous préférez. Cependant, il y a aussi bien sûr certains résultats physiques, qui entrent en jeu ici. Celles-ci sont également très pertinentes pour les différentes interprétations, que je vais essayer de mettre dans un contexte approprié. Le mot clé pour comprendre les solutions modernes du problème de mesure est decoherence.
Formellement parlant, le problème de mesure est la contradiction évidente entre deux des axiomes du manuel
- L'évolution temporelle des systèmes isolés est décrite par l'équation de Schrödinger $ i \ partial_t | \ psi \ rangle = H | \ psi \ rangle $. La chose importante à noter est que l'opérateur d'évolution temporelle $ t_0 \ rightarrow t_1 $ est unitaire.
- Après avoir mesuré le système dans son état propre correspondant au résultat de la mesure.
Formellement, l'opérateur qui décrit le passage «avant mesure» à «après mesure» est une projection stricte (au cas où le système ne serait pas déjà dans un état propre, ce qui est générique), et donc évidemment pas unitaire, même s'il devrait être une évolution du temps dans un certain sens.
Certaines premières versions de l'Interprétation de Copenhague (CI), les vues de Bohr en particulier, proposent un ensemble différent et classique de règles physiques dès que les objets macroscopiques interagissent avec les objets quantiques, car les notions classiques sont inaliénables pour décrire notre world (" Unverzichtbarkeit klassischer Begriffe "), l'interaction irréversible entre le système quantique et l'appareil de mesure fait partie intégrante de notre description. Ce point de vue se retrouve dans de nombreux essais de Bohr, par exemple " Einheit des Wissens (1954) ou sa réponse à l'EPR 1935" Kann man die quantenmechanische Beschreibung der Wirklichkeit als vollständig erachten? ". Je dois souligner à ce stade que l’interprétation de Copenhague n’est pas un ensemble de règles claires sur la manière de traiter certaines situations et de les interpréter physiquement, mais plutôt comme une approche qui fonctionne bien dans la pratique et qui est étayée avec divers concepts philosophiques, qui diffèrent entre les différentes personnalités. Ce que j'ai brièvement esquissé est principalement le point de vue de Bohr, von Neumann par exemple a une approche plutôt formelle, tandis que Heisenberg a toujours mis l'accent sur ses relations d'incertitude. Cependant, le dénominateur commun de ce que nous appelons "Copenhague Interprétation (s)" aujourd'hui est un comportement quelque peu non unitaire à une certaine limite quantique classique. Pour plus de détails, voir le livre de Jammer " La philosophie de la mécanique quantique ".
Philosophiquement, CI, et en particulier les vues de Bohr imitent les concepts de Kant à certains égards, cependant, ce n'est sûrement pas agréable du point de vue des physiciens (du moins pas pour moi), car dans ce sens, la QM n'est pas "plus fondamentale" que le classique les théories car nous avons besoin de ces dernières pour formuler des choses comme des observables, car il n'y a par exemple pas de notion de mécanique quantique de «position». On pourrait dire que ce point de vue anti-réductionniste est une autre formulation différente du problème de mesure.
Considérant une "solution" du MP, comme je l'ai déjà mentionné, la percée majeure de la "deuxième génération" de QM- "Philosophes" a été le développement de la décohérence quantique.
La première étape dans ce "développement moderne" était Everett '57 - "La théorie de la fonction d'onde universelle" ou la première version abrégée (après avoir obtenu un flak massif de Bohr) "" Relative-State "-Formulation of Quantum Mechanics ". Le contenu de ces célèbres publications est aujourd'hui connu sous le nom de "Many-Worlds-Interprétation" (MWI). Alors que le contenu ontologique de ce travail est très certainement discutable, la partie formelle de ce travail est ce qui est le plus souvent négligé, bien que je pense personnellement qu'Everett a formulé l'idée clé pour les approches modernes du MP. En bref, il a reformulé le QM connu à partir d'un plus petit ensemble d'axiomes, en particulier en laissant de côté l'axiome de «l'effondrement» et la règle de Born, accordant la validité universelle de l'équation de Schrödinger, il a ensuite redérivé la règle de Born et quelque chose de similaire à l'effondrement du ensemble réduit d'axiomes. Sa description du processus de mesure était essentiellement "System Observer + Experiment, où l'état de l'observateur change avec l'état de l'expérience, c'est-à-dire qu'il peut déterminer l'état du système à partir de son propre état.
Le concept clé d'états relatifs qu'il a utilisé (ou plutôt son point de vue sur ceux-ci) était probablement crucial pour le développement ultérieur de la décohérence. L'observation mathématique est assez simple: prenez un système composé de deux systèmes corrélés $ S = S_1 \ otimes S_2 $ et mettez-le dans un état, puis pour un état fixe du premier système $ S_1 $, vous pouvez mettre un état relatif par expansion dans une certaine base du deuxième système. En ce sens, vous ne pouvez pas corriger indépendamment les états pour $ S_1 $ ou $ S_2 $ (d'autant plus que cela fonctionne dans n'importe quelle base) - si vous vivez dans $ S_1 $, il est logique de parler de $ S_2 $ par rapport à votre propre état . Bien sûr, cela a été l'une des caractéristiques clés bien connues de la mécanique quantique, l'intrication - pourtant, l'observation clé d'Everetts était, en gros, que nous pouvons reproduire la QM en emmêlant l'observateur au système dans notre description formelle. Remarquez que cela ne résout toujours pas le problème clé "D'où viennent les états classiques?" - La base sur laquelle nous étendons le système relatif est encore arbitraire, alors pourquoi devrions-nous élargir certaines «bases classiques» de notre point de vue? C'est en substance ce que la littérature appelle le «problème de base préféré». En fin de compte, c'est encore une fois le problème de la mesure, exprimé en des termes légèrement différents. Cependant, ces termes se sont avérés beaucoup plus accessibles que la discussion philosophique autour d'Einstein&Bohr.
Lorsque le travail d'Everett a été publié pour la première fois, la plupart des gens ne l'ont pas remarqué ou s'en moquaient. Le travail d'Everett a été revitalisé dans les années 70 par Graham et DeWitt, et ce n'était pas une grande surprise, que la théorie de la décohérence a émergé peu de temps après et a connu un apogée dans les années 80 et au début des années 90. Les personnages notables étaient Zeh, Joos et d'autres. La décohérence est essentiellement le processus, où un système quantique interagit avec un environnement thermodynamique et perd sa «quanticité», c'est-à-dire sa capacité à être dans des états de superposition. Mathématiquement parlant, les décalages des matrices de densité correspondantes sont «tracés» par l'environnement. En ce sens, l'irréversibilité quantique survient de la même manière que l'irréversibilité en thermodynamique des théories classiques - l'information se perd dans la chaleur de l'environnement. Un aperçu clé considérant le "problème de base préféré" a été fait par Zurek, je pense que la première publication à ce sujet était " Règles de sursélection induites par l'environnement " en 1982 (Phys. Rev . D 26): Le couplage à l'environnement induit une certaine sélection d'états quantiques qui n'apparaîtront pas en superposition, ce processus est appelé "superselection induite par l'environnement" ou court "Einselection", la base "choisie" par ce processus est aussi appelé "base de pointeur". En particulier, il vous donne une base privilégiée dans laquelle il interagit avec l'environnement, en fonction de la structure de l'hamiltionien. Des détails à ce sujet peuvent être trouvés dans les publications de Zurek, en particulier
Maintenant, cela semble plutôt bien, est-ce que cela résout notre problème de mesure, ou du moins le problème de base préféré? Dans une certaine mesure, oui. Il explique pourquoi l'observateur a une base préférée, mais il ne peut pas expliquer exactement d'où vient cette base, ni à quoi un observateur doit exactement ressembler pour produire une base classique. Par exemple, einselection ne peut pas expliquer pourquoi les choses ici ont tendance à être localisées. Un argument souvent évoqué dans ce contexte est le soi-disant «darwinisme quantique»: les états observables sont des états qui sont décemment stables - si un état ou respectivement une base était hautement instable, il serait immédiatement retracé lors de l'interaction avec l'environnement et donc pas être observable dans un contexte macroscopique. En ce sens, les observables que nous percevons comme classiques ne sont que les états les plus «convenables». Autant que je sache, cela fait toujours l'objet de recherches actuelles. Cependant, je sais que certaines personnes affirment que MWI / Histoires cohérentes + décohérence + einselection + darwinisme résolvent le problème de la mesure. L'argument principal à cela découle du principe anthropique (AP): s'il était différent, nous ne serions pas là pour l'observer. Ce n'est pas une réponse très satisfaisante si vous me le demandez.
Donc, pour résumer mon énorme mur de texte:
-
La plupart des gens conviennent que le problème de mesure est partiellement (!) résolu en invoquant une formulation d'état relatif pour Observer + System + Environment et en la combinant avec une interprétation appropriée, principalement de nombreux mondes ou des histoires cohérentes. L'observateur mesure le système dans sa base einsélectionnée, et l'irréversibilité vient de la perte d'information dans l'environnement.
-
La plupart des gens conviennent également que la transition du quantique au classique ("Effondrement de la fonction d'onde") est un processus de mécanique quantique qui peut être interprété dans un sens statistique. En particulier, ce n'est pas un effondrement instantané qui se produit à une limite quantique-classique comme par exemple Bohr l'a imaginé.
-
Parfois, les gens affirment que le problème de mesure est résolu par décohérence sans autre interprétation. C'est clairement faux, car la décohérence ne fonctionne que dans un formalisme interprété . De plus, la décohérence n'est pas un ajout magique à la théorie quantique, elle découle naturellement de la mécanique quantique "normale".
-
Peu de gens affirment que le darwinisme quantique avec l'AP résout le problème de la mesure. Ceci est très controversé.
-
La plupart des gens s'accordent à dire que le problème de mesure n'est pas entièrement résolu par le programme de décohérence. Certains pensent qu'en principe, il peut être résolu, j'imagine en dérivant la base préférée de certaines propriétés fondamentales de notre univers, comme la forme de certains hamiltoniens fondamentaux et les relations entre les constantes fondamentales.
-
En conclusion, cela dépend encore plus ou moins de l'interprétation que vous préférez. Cependant, j'ai l'impression que la plupart des gens qui travaillent dans ce domaine ont tendance à adopter des interprétations Everett-ish (plusieurs mondes, histoires cohérentes, interprétation existentielle), en particulier parce que l'équation de Schrödinger est valable partout.
La plupart / certains / peu est bien sûr mon impression personnelle, je n'ai pas de statistiques pour le confirmer. Cependant, j'espère pouvoir donner un aperçu décent de l'évolution historique de cette question et de son état actuel. Pour une discussion plus détaillée sur l'état actuel, je peux également recommander l'article de synthèse de Schlosshauer Décohérence, problème de mesure et interprétations de la mécanique quantique. Il y a aussi beaucoup d'autres articles de différentes personnes avec des opinions différentes, si vous êtes intéressé, vous pouvez en fait trouver beaucoup de choses là-bas. Il y a par exemple quelques articles très clairement écrits par l'un des pères du programme de décohérence, H.D. Zeh, beaucoup d'entre eux sont cependant en allemand, et il est très partisan de Many Worlds.