Traduit par Jean-Pierre Depétris
Revu par P. N. Van Minh, mars 2002.
texte original en Anglais
Résumé
Cet essai traite de la façon la plus actuelle de comprendre la relation entre les mathématiques et la connaissance empirique. Il se concentre sur deux questions : a) Les mathématiques auraient-elles une sorte de relation métaphysique privilégiée avec le réel, et b) sinon, comment se fait-il que labstraction mathématique semble souvent avoir une telle puissance prédictive dans le monde réel ?
Je lai écrit le 14 mai 1993 pour la liste de discussion des Extropians, et je lai republié avec des changements mineurs en 2001 à la demande dun correspondant qui lavait découvert dans une liste darchives.
Pour les premiers Grecs, la géométrie était considérée comme la forme la plus haute du savoir, une puissante clé pour les mystères métaphysiques de lunivers. Elle était plutôt une croyance mystique, et le lien entre le mysticisme et la religion était rendu explicite dans des cultes comme ceux des Pythagoriciens. Aucune culture na depuis déifié un homme pour avoir découvert un théorème géométrique! Plus tard, les mathématiques furent considérées comme le modèle dune connaissance a priori dans la tradition aristotélicienne du rationalisme.
Létonnement des Grecs pour les mathématiques ne nous a pas quitté, on le retrouve sous la traditionnelle métaphore des mathématiques comme « Reine des Science ». Il sest renforcé avec les succès spectaculaires des modèles mathématiques dans la science, succès que les Grecs (ignorant même la simple algèbre) navaient pas prévus. Depuis la découverte par Isaac Newton du calcul intégral et de la loi du carré inverse de la gravité, à la fin des années 1600, les sciences phénoménales et les plus hautes mathématiques étaient restées en étroite symbiose au point quun formalisme mathématique prédictif était devenu le signe distinctif dune « science dure ».
Après Newton, pendant les deux siècles qui suivirent, la science aspira à ce genre de rigueur et de pureté qui sembraient inhérentes aux mathématiques. La question métaphysique semblait simple ; les mathématiques possédaient une connaissance a priori parfaite, et parmi les sciences, celles qui étaient capables de se mathématiser le plus parfaitement étaient les plus efficaces pour la prédiction des phénomènes . La connaissance parfaire consistait donc dans un formalisme mathématique qui, une fois atteint par la science et embrassant tous les aspects de la réalité, pouvait fonder une connaissance empirique a postériori sur une logique rationnelle a priori. Ce fut dans cet esprit que Condorcet entreprit dimaginer la description de lunivers entier comme un ensemble déquation différentielles partielles se résolvant les unes par les autres.
La première faille dans cette image inspiratrice apparut dans la seconde moitié du 19ème siècle, quand Riemann et Lobachevsky prouvèrent séparément que laxiome des parallèles dEuclides pouvait être remplacé par dautres qui produisaient des géométries consistantes. La géométrie de Riemann prenait modèle sur une sphère, celle de Lobachevsky, sur la rotation dun hyperboloïde.
Limpact de cette découverte a été obscurci plus tard par de grands chamboulements, mais sur le moment, il fut un coup de tonnerre dans le monde intellectuel. Lexistence de systèmes axiomatiques mutuellement inconsistants, et dont chacun pouvait servir de modèle à lunivers phénoménal, remettait entièrement en question la relation entre les mathématiques et la théorie physique.
Quand on ne connaissait quEuclide, il ny avait quune géométrie possible. On pouvait croire que les axiomes dEuclide constituaient un genre de connaissance parfaite a priori sur la géométrie dans le monde phénoménal. Mais soudain, nous avons eu trois géométries, embarrassantes pour les subtilités métaphysique.
Pourquoi aurions-nous à choisir entre les axiomes de la géométrie plane, sphérique et hyperbolique comme descriptions de la géométrie du « réel » ? Parce que toutes les trois sont consistantes, nous ne pouvons en choisir aucune comme fondement a priori le choix doit devenir empirique, basé sur leur pouvoir prédictif dans une situation donnée.
Bien sûr, Les théoriciens de la physique ont longtemps été habitués à choisir des formalismes pour poser un problème scientifique. Mais il était admis largement, si ce nest inconsciemment, que la nécessité de procéder ainsi ad hoc était fonction de lignorance humaine, et, quavec de la logique ou des mathématiques assez bonnes, on pouvait déduire le bon choix à partir de premiers principes, et produire des descriptions a priori de la réalité, qui devaient être confirmées après coup par une vérification empirique.
Cependant, la géométrie euclidienne, considérée pendant deux cents ans comme le modèle de la perfection axiomatique des mathématiques, avait été détrônée. Si lon ne pouvait connaître a priori quelque chose daussi fondamental que la géométrie dans lespace, quel espoir restait-il pour une pure théorie « rationnelle » qui embrasserait la totalité de la nature ? Psychologiquement, Riemann et lobachevsky avaient frappé au cur de lentreprise mathématique telle quelle avait été conçue jusqualors.
De plus, Riemann et Lobachevsky remettaient la nature de lintuition mathématique en question. Il avait été facile de croire implicitement que lintuition mathématique était une forme de perception une façon dentrevoir le noumène platonicien derrière la réalité. Mais avec deux autres géométries qui bousculaient celle dEuclide, personne ne pouvait plus être sûr de savoir à quoi le noumène ressemblait.
Les mathématiciens répondirent à ce double problème avec un excès de rigueur, en essayant dappliquer la méthode axiomatique à toute les mathématiques. Il fut progressivement découvert que la croyance en lintuition mathématique comme à une sorte de perception dun monde nouménal avait encouragé la négligence ; dans la période pré-axiomatique, les preuves reposaient souvent sur des intuitions communément admises de la « réalité » mathématique, qui ne pouvaient plus être considérées automatiquement comme valides.
La nouvelle façon de penser les mathématiques conduisait à une série de succès spectaculaires, parmi lesquelles la théorie des ensembles de Cantor, laxiomatisation des nombres de Frege, et éventuellement, la monumentale synthèse des Principia Mathematica de Russell et Whitehead.
Pourtant cela avait aussi un prix. La méthode axiomatique rendait la connexion entre les mathématiques et la réalité phénoménale toujours plus étroite. En même temps, des découvertes comme le paradoxe de Balzano suggéraient que les axiomes mathématiques qui semblaient être consistants avec lexpérience phénoménale pouvait entraîner de vertigineuses contradictions avec cette expérience.
La majorité des mathématiciens devinrent rapidement des « formalistes », soutenant que les mathématiques pures ne pouvaient quêtre considérées philosophiquement comme une sorte de jeu élaboré qui se jouait avec des signes sur le papier (cest la théorie qui sous-tend la prophétique qualification des mathématiques de « système à contenu nul » par Robert Heinlein). La croyance « platonicienne » en la réalité nouménale des objets mathématiques, à lancienne manière, semblait bonne pour la poubelle, malgré le fait que les mathématiciens continuaient à se sentir comme les platoniciens durant le processus de découverte des mathématiques.
Philosophiquement, donc, la méthode axiomatique conduisait la plupart des mathématiciens à abandonner les croyances antérieures en la spécificité métaphysique des mathématiques. Elle produisit aussi la rupture contemporaine entre les mathématiques pures et appliquées.
La plupart des grands mathématiciens du début de la période moderne Newton, Leibniz, Fourier, Gauss et les autres soccupaient aussi de science phénoménale (cest à dire de « philosophie naturelle »). La méthode axiomatique avait couvé lidée moderne du mathématicien pur comme un super esthète, insoucieux de la physique. Ironiquement, le formalisme donnait aux purs mathématiciens un mauvais penchant à lattitude platonicienne. Les chercheurs en mathématiques appliquées cessèrent de côtoyer les physiciens et apprirent à se mettre à leur traîne.
Ceci nous emmène au début du vingtième siècle. Pour la minorité assiégée des platoniciens, le pire était encore à venir.
Cantor, Frege, Russell et Whitehead montrèrent que toutes les mathématiques pures pouvaient être construites sur le simple fondement axiomatique de la théorie des ensembles. Cela convenait parfaitement aux formalistes ; les mathématiques se réunifiaient, du moins en principe, à partir dun faisceau de petits jeux détachés dun grand. Les platoniciens aussi étaient satisfaisaits ; sil en survenait une grande structure, clé de voûte consistante pour toutes les mathématiques, la spécificité métaphysique des mathématiques pouvait encore être sauvée.
Malheureusement, il savère quil existe plus dune façon daxiomatiser la théorie des ensembles. En particulier, il y a au moins quatre façons différentes de combiner les propositions sur les ensembles infinis, qui conduisent à des théories des ensembles qui sexcluent (laxiome de choix ou sa négation, lhypothèse de continuité ou sa négation.)
Cétait encore et toujours Riemann/Lobachevsy, mais à un niveau beaucoup plus fondamental. Les géométries riemanniennes et lobachevskiennes pouvaient fonctionner avec des modèles finis, dans le monde ; vous pouviez décider empiriquement, à la limite, laquelle convenait. Normalement, vous pouviez considérer les trois comme des cas particuliers de la géométrie des géodésiques sur les variétés, ce faisant les intégrer à la superstructure érigée sur la théorie des ensembles.
Mais les axiomes indépendants dans la théorie des ensembles ne paraissent pas conduire à des résultats qui puissent être modélisés dans le monde fini. Et il ny a aucun moyen daffirmer à la fois lhypothèse de continuité et sa négation dans une théorie des ensembles unique. Comment un pauvre Platonicien choisit-il quel système décrit les mathématiques « réelles » ? La victoire de la position formaliste semblait complète.
Dune façon négative, pourtant, un platonicien eut le dernier mot. Kurt Godel mit son grain de sable dans le programme formaliste daxiomatisation quand il démontra que tout système daxiomes assez puissant pour inclure les entiers devait être soit inconsistant (contenir des contradictions) soit incomplet (trop faible pour décider de la justesse ou de la fausseté de certaines affirmations du système).
Et cest plus ou moins où en sont les choses aujourdhui. Les Mathématiciens savent que de nombreuses tentatives pour faire avancer les mathématiques comme une connaissance a priori de lunivers doivent se heurter à de nombreux paradoxes et à limpossibilité de décider quel système axiomatique décrit les mathématiques « réelles ». Ils ont été réduits à espérer que les axiomatisations standard ne soient pas inconsistantes mais incomplètes, et à se demander anxieusement quelles contradictions ou quels théorèmes indémontrables attendent dêtre découverts ailleurs, cachés comme des champs de mines dans la noosphère.
Cependant, sur le front de lempirisme, les mathématiques étaient toujours un succès spectaculaire en tant quoutil de construction théorique. Les grands succès de la physique du 20ème siècle (la relativité générale et la mécanique quantique) poussaient si loin hors du royaume de lintuition physique, quils ne pouvaient être compris quen méditant profondément sur leurs formalismes mathématiques, et en prolongeant leurs conclusions logiques, même lorsque ces conclusions semblaient sauvagement bizarres.
Quelle ironie. Au moment même où la « perception » mathématique en venait à paraître toujours moins fiable dans les mathématiques pures, elle devenait toujours plus indispensable dans les sciences phénoménales.
À lopposé de cet arrière-plan, la fameuse citation dEinstein sur lapplicabilité des mathématiques à la science phénoménale pose un problème plus épineux quil napparaît dabord.
Le rapport entre les modèles mathématiques et la prédiction des phénomènes est complexe, pas seulement dans la pratique mais dans le principe. Dautant plus complexe que, comme nous le savons maintenant, il y a des façons daxiomatiser les mathématiques qui sexcluent! On peut le figurer par le diagramme suivant :
Les relations clés pour notre propos sont C et D les relations entre un modèle prédictif et un formalisme mathématique. Ce qui trompa Einstein est combien D conduit souvent à des conceptions nouvelles.
Nous commençons à avoir quelques prises sur le problème si nous le formulons plus précisément, cest à dire, « Pourquoi un bon choix de C donne si souvent de nouvelles connaissances via D.
La réponse la plus simple consiste à inverser la question et la traiter comme une définition. Le « bon choix de C » est celui qui conduit à une nouvelle prédiction. Le choix de C nest pas tel quil puisse être fait a priori ; on doit choisir, empiriquement, comment dresser une carte de la réalité avec les objets mathématiques, puis lévaluer en voyant si cette cartographie prédit bien.
Par exemple, les entiers positifs sont un bon formalisme pour compter des billes. Nous pouvons prédire avec confiance que si nous mettons deux billes dans une jarre, et puis trois billes dans une jarre, et puis si nous associons empiriquement lensemble de deux billes avec lentité mathématique 2, et de même si nous associons lensemble de trois billes avec lentité mathématique 3, et puis si nous supposons que lagrégation physique est modélisée par +, alors le nombre de billes dans la jarre correspondra avec lentité mathématique 5.
Ce qui précède peut sembler être une remarquable accumulation de pédanterie pour emballer une association évidente, telle que nous pouvons en faire sans devoir les penser. Mais souvenez-vous que les petits enfants doivent apprendre à compter
et considérez comment vous échoueriez plus haut si nous avions mis dans la jarre, plutôt que des billes, des mottes de vase ou des volumes de gaz.
On pourrait arguer quil ny a de sens à sémerveiller sur lutilité des mathématiques que si lon suppose que C, pour tout système phénoménal, est une donnée a priori. Mais nous avons vu que ce nest pas le cas. Un physicien qui sémerveille de lapplicabilité des mathématiques a oublié ou ignore la complexité de C ; il reste en réalité perplexe devant laptitude humaine à choisir empiriquement les modèles mathématiques appropriés.
Mais en formulant la question ainsi nous avons à moitié terrassé le dragon. Les être humains sont des singes ingénieux et obstinés qui aiment jouer avec les idées. Si un formalisme mathématique adapté à un système phénoménal peut être trouvé, des humains finiront par le découvrir. Et la découverte paraîtra finalement « inéluctable », car ceux qui essayeront et échoueront seront généralement oubliés.
Mais il y a une question plus profonde derrière celle-ci : pourquoi existe-t-il seulement de bons choix de modèle mathématique ? Cest à dire, pourquoi y a-t-il un formalisme mathématique, par exemple pour la mécanique quantique, si productif quil prédit réellement la découverte de nouvelles particules observables ?
Pour « répondre » à cette question on observera quelle peut, aussi bien, fonctionner comme une sorte de définition. Pour beaucoup de système phénoménaux, de tels formalismes prédictifs exacts nont pas été trouvés, et aucun ne semble plausible. Les poètes aiment marmonner sur le cur des hommes, mais on peut trouver des exemples plus ordinaires : le climat, où le comportement dune économie supérieure à celle dun village, par exemple systèmes si chaotiquement interdépendants que la prédiction exacte est effectivement impossible (pas seulement dans les faits mais en principe).
Il y a beaucoup de choses pour lesquelles la modélisation mathématique conduit au mieux à des résultats statistiques confus et contingents et, pour le moins, ne prédit jamais avec succès de « nouvelles entités ». Ainsi la réponse correcte à cette question « Pourquoi les mathématiques sont-elles si merveilleusement applicables à ma science ? » est-elle simplement « Parce que cest la sorte de science que vous avez choisi détudier! »
A TRAVERS CHAMPS 12 Printemps-Été 2002
|