Question:
Le rasoir d'Occam a-t-il jamais eu tort?
Wrzlprmft
2014-10-29 03:56:10 UTC
view on stackexchange narkive permalink

En bref, je cherche un exemple où le rasoir d'Occam a favorisé une théorie A par rapport à une autre théorie B, mais la théorie B s'est avérée être une meilleure description de la réalité plus tard. Mais permettez-moi de formuler quelques critères de ce que j'entends par là:

  • Tout d'abord, car notre perspective moderne peut être biaisée - par exemple, en raison des progrès didactiques de la théorie dominante ou de un aperçu des expériences historiques -, considérez mes critères sur les qualités des théories comme faisant référence à des opinions et des déclarations scientifiques historiques, à condition qu'elles puissent être considérées comme fondées sur la raison (au lieu, par exemple, d'être fortement influencées par un préjugé religieux).

  • À un moment donné, deux théories (A et B) étaient relativement bonnes pour décrire le même aspect de la réalité tel qu'il était observable à ce moment-là. Il n'était pas nécessaire qu'il s'agisse de descriptions parfaites des observations disponibles, mais elles n'auraient pas dû être si lointaines qu'elles ne s'appliquaient qu'à des cas particuliers ou pas du tout.

  • Le rasoir d'Occam a été raisonnablement invoquée dans un différend scientifique en faveur de la théorie A. Cette invocation ne doit pas nécessairement avoir eu lieu par son nom ni dans une publication évaluée par des pairs (si telle existait à ce moment-là). Je suis également intéressé, mais je ne préfère pas, les cas dans lesquels les adhérents des deux théories ont invoqué le rasoir d'Occam (ou similaire) pour argumenter contre l'autre théorie respective.

  • Plus tard temps, la théorie B ou une modification raisonnablement petite de celle-ci s'est avérée être une meilleure description de la réalité que la théorie A. Alternativement, la théorie B est encore utilisée aujourd'hui pour certains aspects, alors que la théorie A ne l'est pas. La théorie B n'a pas besoin d'être la théorie dominante aujourd'hui.

Je demande par curiosité. Je sais très bien que l’existence d’un tel exemple n’invalide pas le rasoir d’Occam.

La théorie mathématique depuis les années 1870 a reconnu qu'il existe plus d'une variété de quantité infinie; par exemple, que le nombre infini qui compte les entiers est essentiellement différent du nombre infini qui compte les points sur une ligne; en fait, la famille des différentes quantités infinies est elle-même infinie. Pour un mathématicien du 18e siècle ou avant, cela aurait semblé être une prolifération bizarre et inutile d'entités, mais c'est maintenant universellement reconnu comme correct.
Non, car il traite des probabilités afin que vous puissiez regarder dans l'ensemble, mais pas un cas isolé en particulier.
Je trouve souvent qu'après avoir inspecté les résultats d'une expérience et les contrôles disponibles, la théorie plus simple X semble plus probable que la théorie plus compliquée Y (où les deux semblent être des explications possibles). Mais après avoir mené des expériences de contrôle supplémentaires qui sondent plus de variables, il s'avère que Y est en fait vrai et X ne l'est pas. Cela compte-t-il?
Je ne suis pas sûr de comprendre. Vous demandez-vous s'il y a jamais eu une théorie plus parcimonieuse qu'une théorie opposée mais empiriquement falsifiée, après une période où les deux théories étaient également plausibles empiriquement, tandis que le concurrent a survécu à la falsification? Je pense que cela décrirait de nombreux débats entre une théorie originale et parcimonieuse et une modification moins parcimonieuse mais «réaliste» de la théorie originale.
@henning: * Je pense que cela décrirait de nombreux débats entre une théorie originale et parcimonieuse et une modification moins parcimonieuse mais "réaliste" de la théorie originale. * - Je serais surpris si quelqu'un se disputait avec le rasoir d'Occam dans ce cas. Quelqu'un pourrait faire valoir que la modification est factuellement erronée ou non pertinente, mais vous ne diriez pas que la modification est peu susceptible d'être correcte simplement parce que l'original est plus simple - ce qui reviendrait essentiellement à dire que la modification est incorrecte parce qu'il s'agit d'une modification.
Cinq réponses:
#1
+30
Michael Weiss
2014-11-02 22:44:12 UTC
view on stackexchange narkive permalink

Pour vous éclaircir la gorge, qu'est-ce que le rasoir d'Occam? John Baez a un essai utile donnant l'histoire et quelques exemples. La formulation originale de William of Ockham était

Les entités ne devraient pas être multipliées inutilement.

En d'autres termes, ne supposez pas l'existence de quelque chose à moins qu'il y ait du bien preuve pour cela. Citant à nouveau Baez, "En physique, nous utilisons le rasoir pour raser les concepts métaphysiques." L'exemple canonique est de rejeter l'éther. Le temps et l'espace absolus de Newton, les explications mécaniques de la gravité et les trajectoires classiques des particules ont tous ressenti le bord du rasoir.

Mais Baez mentionne également un échec célèbre de cette version du rasoir d'Occam:

Mach et ses disciples ont affirmé que les molécules étaient métaphysiques parce qu'elles étaient trop petites pour être détectées directement.

Le point de Mach est que l'hypothèse moléculaire est juste une décoration inutile superposée à régularités empiriques (lois de Dalton et Gay-Lussac en chimie, loi de Boyle) qui fonctionnent très bien sans les ornements supplémentaires. Nous avons (ou alors Mach dirait) une analogie:

éther: relativity = molécules: (chimie + physique)

Le rasoir d'Occam est souvent renforcé pour la règle de simplicité : dans une formulation (tirée de l'essai de Baez),

L'explication la plus simple d'un phénomène a plus de chances d'être précise que des explications plus compliquées.

Les gens disent souvent le rasoir d'Occam alors qu'ils parlent vraiment de la règle de la simplicité. Le problème évident de la règle de la simplicité est sa subjectivité. L'hypothèse héliocentrique en est un excellent exemple.

Pour les Copernicains du XVIe siècle (Galilée, Kepler, quelques autres), l'héliocentrisme était clairement plus simple. Dans cette période, le concours était entre la véritable héliocentricité et les hybrides dits géohéliocentriques: les planètes tournent autour du soleil qui tourne autour de la terre. (Le système géohéliocentrique de Tycho était le plus célèbre, mais pas le seul.)

Pour les yeux modernes, l'héliocentrisme semble évidemment plus simple. Mais les partisans de la géohéliocentrisme ont déployé deux arguments puissants issus de la simplicité.

  • L'héliocentrisme était incompatible avec la physique telle qu'elle était alors comprise. Kepler a répondu en inventant sa propre physique céleste, avec trois forces différentes guidant chaque planète, plus la force de gravité, qui n'avait rien à voir avec l'orbite de la planète.
  • Le manque de la parallaxe stellaire détectable impliquait des distances beaucoup plus grandes aux étoiles fixes qu'avec une théorie géohéliocentrique. La taille apparente des disques stellaires (un artefact d'optique, non compris à l'époque) implique alors que toutes les autres étoiles sont bien plus grandes que le soleil. Tycho a d'abord avancé cet argument, assez convaincant pour nombre de ses contemporains. (Voir cet article de Chris Graney pour plus de détails.)

La simplicité n’est pas simple.

De plus, Popper a fait valoir que ce qui rend une hypothèse "simple" est la facilité avec laquelle elle est falsifiée, par ex. il faut plus de points pour réfuter une ellipse qu'un cercle, d'où le terme "hacheur de Popper". Les gens affinent donc le rasoir pour l'adapter à leurs nouvelles idées.
Curieusement, du point de vue de la précision prédictive, les orbites elliptiques de Kepler étaient beaucoup moins importantes que certaines de ses autres innovations, parmi lesquelles des aspects techniques jamais mentionnés dans de brefs comptes rendus. Comme le remarque Curtis Wilson dans un article de l'Encyclopédie de l'histoire de l'astronomie, pendant un certain temps, toute observation pouvait vous dire que les orbites étaient ovales.
#2
+11
Bjørn Kjos-Hanssen
2014-10-31 13:11:38 UTC
view on stackexchange narkive permalink

Dans les années 1960, la structure mathématique des diplômes de Turing a été supposée être plutôt simple et homogène. Cela correspondait à ce qui était connu à l'époque. Il s'est avéré plus tard que le contraire est vrai en un sens: les degrés de Turing sont aussi compliqués que possible.

Détails dans Ambos-Spies et Fejer, Histoire de la théorie des degrés .

J'ai quelques exemples supplémentaires, mais je me suis demandé si la formulation de la question excluait les mathématiques. (Y a-t-il eu une * théorie * construite et favorisée par la communauté sur l'hypothèse de l'homogénéité des diplômes? Plus je pense à une étude intensive de grands axiomes cardinaux qui s'avèrent incohérents. - Reinhardt cardinals in ZFC ne sont pas admissibles.)
Je ne peux pas évaluer complètement votre exemple pour le moment, mais je ne cherche pas quelque chose qui ne se révèle pas plus compliqué qu'on ne le pensait. Le rasoir d'Occam ne favorise pas clairement la solution la plus simple, mais la plus simple des deux solutions qui sont également douées pour décrire la réalité. Pouvez-vous expliquer un peu plus la façon dont votre réponse s'inscrit dans cela, même si elle ne correspond pas parfaitement. (BTW: Désolé pour la réponse tardive, j'ai en quelque sorte totalement oublié cela.)
@AndresCaicedo: Je serais très surpris d'une réponse venant des mathématiques, car même si les mathématiques expérimentales existent, je ne suis pas conscient qu'elle produit des hypothèses ou des théories suffisamment générales. Les ensembles d'axiomes incohérents peuvent cependant être une chose intéressante à examiner (après tout, on pourrait soutenir que ce que les mathématiques ont le plus proche d'une théorie scientifique est que certains axiomes sont remplis par la vie réelle): A-t-on déjà fait valoir qu'un ensemble d'axiomes est préférable parce que c'est plus simple et que cet ensemble s'est avéré incohérent par la suite?
#3
+4
Wrzlprmft
2018-11-18 22:11:10 UTC
view on stackexchange narkive permalink

C'est trop près de manquer mes critères pour ne pas le mentionner par souci d'exhaustivité.

Dans les premières années de la génétique moléculaire, on savait seulement que le Le code génétique utilisait un alphabet de quatre bases différentes et codait vingt acides aminés, ce qui a engendré plusieurs hypothèses sur la conception du code, qui étaient toutes capables d'expliquer ce qui était expérimentalement connu à cette époque. le nombre correct d'acides aminés sans plus tarder, c'est-à-dire qu'ils ne nécessitaient pas ce nombre comme paramètre et étaient donc légèrement favorables selon le rasoir d'Occam.

Par exemple, Crick et al. ont considéré des codes sans virgule qui présentaient une immunité contre les erreurs de décalage de cadre. Ils ont montré que, étant donné une longueur de codon de trois, il existe des codes pouvant coder vingt acides aminés et qu'il était impossible d'avoir un code codant plus d'acides aminés. / p>

Les conceptions de code qui produisaient automatiquement le nombre correct d'acides aminés ont rencontré un intérêt particulier à l'époque, lorsque le vrai code génétique a été découvert, il s'est avéré être d'un type différent: vous pouviez encoder jusqu'à 63 acides aminés avec cette conception générale.

Maintenant, je ne trouve aucune invocation contemporaine du rasoir d'Occam. Crick a même mis en garde contre cela (car la sélection naturelle n'est pas tenue de produire le mécanisme le plus efficace):

Bien que le rasoir d'Ockham soit un outil utile dans les sciences physiques, il peut être un outil très dangereux en biologie. Il est donc très imprudent d'utiliser la simplicité et l'élégance comme guide dans la recherche biologique.

Pourtant, le rasoir a été mentionné rétrospectivement, par exemple, par Woese:

Les détails des théories de codage de Gamow (il y en avait plus d'une) ne sont plus intéressants, car dans leurs spécificités ses modèles étaient erronés, mais son approche du rasoir d'Occam et l'impact de sa pensée sur ses contemporains ont joué un rôle majeur dans la manière dont l'expression des gènes était perçue.

[…]

Mais sans aucun doute, la théorie la plus mémorable et la plus influente à émerger de ce nouveau chapitre de l'histoire du code (en ce qu'elle a conservé un semblant biologique et un panache théorique) était le célèbre «code sans virgule» de Crick - l'un de ces merveilleux, mais des triomphes éphémères de l'intellect sur la réalité (à laquelle les théoriciens sont prédisposés) .Le code sans virgule est resté basé sur la présomption d'espoir que le code pourrait être déduit de certains principes premiers.

#4
+2
Mikhail Katz
2016-04-17 14:55:50 UTC
view on stackexchange narkive permalink

Pour répondre à l'exemple demandé où le rasoir d'Occam a favorisé une théorie A par rapport à une autre théorie B, mais la théorie B s'est avérée être une meilleure description de la réalité plus tard Je mentionnerais l'histoire de l'analyse réelle qui est basée depuis les années 1870 sur la théorie A (pour Archimédien), qui implique le champ ordonné complet d'Archimède. Une approche plus ancienne / plus récente implique une théorie B (pour Bernoullian), travaillant avec des infinitésimaux comme l'a fait Johann Bernoulli. Il s'avère que si le continuum d'arrière-plan est plus facile à décrire dans la piste A, les procédures sont plus faciles à utiliser dans la piste B. Par exemple, au lieu de définir la continuité d'une fonction en exigeant que pour chaque epsilon supérieur à zéro il y ait un delta supérieur à zéro tel que les élèves s'endorment déjà ou prennent des pilules calmantes, vous pouvez simplement suivre Cauchy (1821) en exigeant que chaque changement infinitésimal $ \ alpha $ en entrée doit produire un changement infinitésimal en sortie: $ f (x + \ alpha) -f (x) $ est infinitésimal.

#5
  0
benrg
2020-08-13 23:12:17 UTC
view on stackexchange narkive permalink

Le meilleur exemple auquel je puisse penser est la cosmologie en régime permanent par rapport à la cosmologie du big bang.

Dans les modèles en régime permanent, l'univers est homogène dans l'espace et dans le temps. Dans les modèles big bang, il est homogène dans l'espace mais pas dans le temps. Les modèles Big Bang ont beaucoup plus de paramètres que les modèles en régime permanent, car il y a tellement de choses qui auraient pu vraisemblablement être différentes aux époques précédentes.

Les modèles des deux types ont été pris au sérieux jusqu'au début des années 1990, lorsque COBE a trouvé des anisotropies dans le fond cosmique des micro-ondes. ΛCDM, un modèle big-bang, a suffisamment de paramètres pour s'adapter au spectre de puissance CMB (qui, il faut le noter, a vaguement la forme d'un éléphant). Les modèles à l'état d'équilibre ne peuvent pas le reproduire, ils sont donc erronés.

Le rasoir d'Occam a-t-il déjà été invoqué comme argument pour les modèles à l'état stationnaire (contre le big bang)? De plus, n’y a-t-il pas beaucoup plus d’arguments en faveur du big bang que le ΛCDM, qui n’est qu’une théorie spécifique qui le présente? Enfin, lorsque votre seul argument en faveur d'une théorie est qu'elle a suffisamment de paramètres pour s'adapter à tout, cela me semble être un gros drapeau rouge.


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...