la couverture du Culture En Jeu N°60

Le numéro 60 vient de paraître !

Au sommaire :

  • Édito : Descendre dans l'arène (Chantal Tauxe)
  • Dossier : 12 pages sur les Artistes engagés
  • Théâtre, le retour des troupes
  • La guerre des plateformes
  • À Villars-sur-Glâne en attendant Noël
  • Pratique du droit d’auteur
s’abonner

Disponibles en ligne

Afficher plus de numéros

Science & utopie

imprimer imprimer

Deux mots chargés de sens et d’interprétations. Utopie, le non-lieu, le nulle part, le rêve, le mythe, le virtuel. La science, fondamentale ou appliquée, souvent réduite aux technologies qui lui sont liées. De cela, je ne retiendrai que deux éléments. D’une part, quelques utopies technologiques concernant des sujets d’actualité. D’autre part, les utopies ou mythes associés, à juste titre ou non, à la quête scientifique du savoir, illustrés par certains domaines de la recherche actuelle. J’en resterai à la Physique. Je ne pourrai ni éviter quelques termes techniques ni les expliquer en détail. Pour les mots en italique, le lecteur curieux pourra tirer profit d’un recours à Wikipédia.

L’eutopie manquée

La conquête de l’espace

Obama vient d’annuler un retour US sur la Lune. Ira-t-on jamais sur Mars ? On ne peut nier l’émotion qu’un tel exploit susciterait, ni son intérêt scientifique. Mais on peut douter de ses aspects pratiques, exploitation ou colonisation.

Quant au voyage interstellaire, on rejoint vite la science-fiction. Avec les fusées actuelles, il faudrait des dizaines de milliers d’années pour atteindre l’étoile la plus proche du soleil. On peut imaginer un voyage « rapide » à des vitesses de l’ordre de celle de la lumière. La Relativité semble faciliter les choses. Avec une accélération constante de 1g (la valeur de la pesanteur) jusqu’à mi-chemin, puis la même décélération vers l’objectif, le cosmonaute atteint le centre galactique en 20 ans. Sur Terre, il s’en est écoulé 25 000. Mieux vaut renoncer à revenir au pays. De plus, manque un détail : l’énergie nécessaire à cette expédition est d’au moins quinze ordres de grandeur (soit un million de milliards de fois) supérieure aux possibilités actuelles.

Science & énergie

Revenons sur Terre. Bien avant le réchauffe­ment climatique, on peut craindre des problèmes plus imminents, liés à la finitude des ressources de la Planète, à leur répartition inégale et aux conflits qui peuvent en découler. L’accès à l’énergie est l’un des plus urgents.

La fusion nucléaire représente un des derniers grands rêves entretenus. Son principe est bien établi et exploité par les étoiles. L’enjeu est de « mettre le soleil en boîte ». Mais dans quelle boîte ?

Sont menés de front confinement inertiel, par laser, et confinement magnétique, en tokamak. Du premier, après plusieurs échecs, conduisant à adopter des lasers de plus en plus puissants, on attend la démonstration de la « mise à feu », sans doute par la National Ignition Facility US. Si cela réussit, il faudra ensuite montrer qu’on peut obtenir un gain d’énergie élevé, puis concevoir la phase industrielle et la valider. Vaste programme, sachant que, par exemple, le rythme du laser, de un coup par jour à présent, doit passer à plusieurs par seconde. De même pour la fusion par confinement magnétique. Le « démonstrateur » ITER doit être complété par d’autres, IFMIF, testant la métallurgie requise, et DEMO, abordant d’autres aspects cruciaux.

Si cela aboutit jamais, ce ne peut être qu’à très long terme. On parle d’un demi siècle au moins. C’était déjà ce qu’on prévoyait il y a un demi siècle.

Quant à la fission nucléaire, le problème, pris à l’échelon mondial, se résume simplement. 437 réacteurs, la plupart en fin de course, correspondent à 2% de l’énergie utile. Il en faudrait quarante fois plus, à quelques milliards d’euros pièce, pour avoir un impact majeur, soit 40 % de la consommation mondiale quand elle aura doublé. Actuellement, 56 réacteurs sont en projet. On est loin du compte. L’uranium étant une denrée rare, un recours massif au nucléaire exigerait aussi que l’on passe vite à des réacteurs meilleurs brûleurs de l’uranium, dits de 4e génération, ce que fut le réacteur SuperPhénix, fermé en 1997.

Autre thème à la mode : l’hydrogène. C’est un vecteur d’énergie, potentiellement intéressant, s’il est couplé aux piles à combustible et si de nombreux problèmes sont résolus. Mais l’hydrogène n’est pas une source d’énergie. Le produire et le stocker en exige beaucoup, et cela nous ramène au problème précédent.

L’eutopie manquée

Bref, l’utopie, ou plus prosaïquement l’erreur, fut de croire illimitées les ressources fossiles de la planète. La seule vision qui aurait mérité le nom d’eutopie était celle d’un monde apprenant peu à peu à maîtriser sa consommation énergétique pour la réduire et en augmenter l’efficacité, tout en mettant davantage l’accent sur le solaire sous toutes ses formes. Dès les années 70, cette analyse était faite et des solutions proposées (R. Dumont, L’Utopie ou la mort, A. Lovins, etc.).

Faute de vision, par l’inertie du politique, à cause de ses échelles de temps incompatibles avec celles des mutations profondes, du culte universel de la croissance, d’un mélange science-marché, de « mythes entretenus », utiles « pour ceux qui ont à vendre quelque chose », il n’en fut rien. On achève de brûler le pétrole. Et après lui ? A-t-on à l’horizon une chimie qui ne soit pas du pétrole ?

Connaissance et mythe

La recherche fondamentale, motivée par la curiosité et vue parfois comme un luxe inutile, est en fait un puissant moteur d’innovation, comme il est facile de le prouver.

Mais, ici, demandons-nous plutôt si l’objectif de vouloir scientifiquement comprendre le monde physique et se le raconter est utopie ou non, ou du moins à quel stade cela le devient.

Du quantique au modèle standard

En physique, chaque échelle d’énergie ou de taille révèle un contenu fondamentalement nouveau. Et, à chaque fois, violence est faite à notre intuition. Ainsi, la Relativité nous a-t-elle forcés à admettre que temps et espace absolus n’existent pas, qu’ils sont mélangés en un espace-temps.

Incontournable à l’échelle atomique ou subatomique, l’« objet quantique » est particulièrement déroutant : « Une particule n’a pas de trajectoire, c’est comme si elle les avait toutes à la fois ». Quoi de plus étranger à notre intuition ? Dans certaines conditions, il est interdit de considérer comme séparés deux objets quantiques, même s’ils sont fort loin l’un de l’autre. On connaît la résistance opposée par Einstein lui-même à cette idée. Depuis John Bell (1964) et les expériences qu’il a suscitées, l’affaire est réglée. La non-séparabilité est non seulement démontrée, mais devenue un outil de mesure en physique des particules, et même le sujet d’applications pratiques en cryptographie quantique. L’utopie était ici de vouloir substituer des solutions « réalistes » à la Mécanique Quantique (MQ).

Et grâce à la MQ, et aux théories dérivées, que de trésors de connaissance accumulés en tous domaines, menant en particulier au succès éclatant du Modèle Standard (MS) de la Physique des Particules Élémentaires (PPE) sur lequel nous nous attarderons.

Le MS énumère les constituants élémentaires de la matière, leptons et quarks, et explique trois des forces s’exerçant entre eux. Ce modèle rend compte de tous les faits connus, au pour mille ou mieux. Et pourtant il est assurément incomplet, par ses insuffisances (il ignore la force de gravité) et les « réglages fins » de paramètres qu’il nécessite et que le physicien déteste à juste titre. De plus, manque un ingrédient essentiel, l’origine de la masse des particules élémentaires. À cet effet, on invoque le rôle d’une particule hypothétique appelée boson de Higgs. En fait, ce vocable résume un éventail de possibilités. S’agit-il d’une particule, de plusieurs, ou seulement d’un mécanisme ? La réponse viendra du grand collisionneur LHC au CERN.

La PPE participe évidemment de la science expérimentale telle qu’on l’a pratiquée jusqu’ici, sur le mode classique hypothético-déductif, en contact permanent avec les faits.

L’univers comme laboratoire

Tournons nous maintenant vers l’Univers, à la compréhension duquel cette physique participe, et examinons ce qu’on peut en dire, en identifiant bien la frontière entre le comment et le pourquoi, le certain et le possible. On peut bien sûr s’en tenir au certain, ne pas prendre le risque de spéculer au-delà et de côtoyer l’utopique. Mais ce serait se priver de la motivation la plus profonde de cette recherche : le besoin de se raconter l’histoire du monde ou au moins d’essayer.

Le modèle actuel de la Cosmologie, dit de Concordance (MC), est une somme de faits expérimentaux, obtenus par l’observation du Cosmos et interprétés dans le cadre théorique de la Relativité Générale (RG). En bref, un Univers en expansion (c’est-à-dire qu’il gonfle et que tous ses points s’éloignent les uns des autres), dans lequel, en 13,7 milliards d’années, se sont formées étoiles et galaxies à partir de gaz et de poussières sous l’influence de la gravitation. Il n’y a pas de raison de remettre en question la RG, et le MC a passé avec succès un grand nombre de tests.

Pourtant des problèmes subsistent. D’abord celui de la Matière Noire ou Masse Cachée, ne se manifestant que par ses effets gravitationnels et, pour l’instant, non détectée autrement. De plus, l’expansion de l’Univers semble même s’accélérer sous un effet incompris que, faute de mieux, on nomme Énergie Noire. Bref, ignorant la nature de ces deux entités, on ne sait pas de quoi est fait l’essentiel de l’Univers visible.

À cause de la valeur finie de la vitesse de la lumière, regarder l’Univers plus loin, c’est le voir plus vieux, jusqu’à 13 milliards d’années d’âge. Mais, selon le MC, c’est aussi le voir plus chaud. Jusqu’où peut-on l’observer ainsi ?

En dessous de 3000 degrés Kelvin, domaine de la physique atomique, l’Univers est transparent aux photons. À plus haute température, les atomes sont brisés et l’Univers est opaque. On bute sur le mur du « visible », le « fond de l’Univers ». Les photons émis à 3000 degrés nous parviennent encore. Mais l’expansion de l’Univers a dilaté leur longueur d’onde, donc baissé leur énergie, et nous les détectons à 2,725 degrés du zéro absolu, dans le domaine des micro-ondes. C’est le fameux rayonnement fossile (Nobel 1978).

L’échantillonage microscopique

Pour franchir le mur du visible, il faut changer de méthode et re-créer sur Terre, en microscopique, au moyen d’accélérateurs, des conditions de température de plus en plus élevée. On apprend ainsi quelles particules et quelles forces dictaient alors la physique. Face aux chiffres, ne retenons que les puissances de dix, chacune étant comme une marche d’un escalier qu’on remonte.

À quelques milliards de degrés, huit marches plus haut que la température ambiante, domaine de la physique nucléaire, dont les lois sont bien connues, se sont formés les noyaux d’atomes légers, de l’hydrogène au lithium. Leur abondance dans l’Univers est également bien connue. La compréhension de cette nucléosynthèse primordiale est excellente.

Trois marches plus haut (1013 degrés), la densité d’énergie est typique de l’interaction forte (ou force nucléaire, celle qui tient ensemble les noyaux d’atomes). Quarks et gluons, libres à plus haute température, se sont alors confinés en protons et neutrons. Les conditions requises pour le processus inverse de déconfinement ont été recréées par collision de noyaux lourds au CERN et aux USA. La transition semble établie.

Deux marches plus haut (1015 degrés), les particules élémentaires ont acquis leur masse. Le LEP a entamé et le LHC terminera l’exploration de ce domaine.

C’est donc par les progrès en symbiose de cette physique en laboratoire et des observations de la cosmologie que se poursuit l’« archéologie de l’Univers ». Rien à voir, contrairement à des formules malheureuses, avec un remake de quelque Big Bang. Dans le MC, à l’énergie du confinement, l’Univers actuellement visible était déjà plus grand que le système solaire. Jusque là, rien d’utopique dans cette remontée.

Pour diverses raisons, on n’ira guère plus haut en énergie que le LHC. On peut extrapoler les données existantes, mais cela doit se faire dans le cadre de modèles donnés. On passe donc du certain au possible. SUSY par exemple prédit une convergence quasi parfaite des couplages des trois forces à très haute énergie, au moins treize marches plus haut, suggérant la possibilité de leur Grande Unification (GU). Le LHC nous dira si cette version de SUSY est mythe ou réalité. La GU offre l’éventualité d’une désintégration du proton. Rassurez-vous, il vit au moins 1035 années. Mais elle est l’objet de recherches actives dans des détecteurs souterrains géants.

Pourquoi quelque chose…

…plutôt que rien ? Vieille interrogation, sous laquelle se creuse pourtant une question purement scientifique. Si, comme on l’observe dans nos expériences, matière et antimatière ont été créées dans l’Univers en quantités égales, puis se sont annihilées, ne devrait avoir subsisté du monde qu’une banalité de photons. Pourtant, l’Univers et nous-mêmes existons, faits de matière. Autant qu’on sache, pas trace d’accumulation d’antimatière. Où donc est-elle passée ? Existe-t-il quelque asymétrie entre matière et antimatière ?

C’est bien le cas. En 1964 (Nobel 1980) fut prouvé que les lois de la nature font une toute petite différence entre elles. Le Modèle Standard contient cette possibilité. En 1967, Sakharov (oui, celui de la Bombe et du Goulag) a formulé les conditions nécessaires pour que cette asymétrie entre matière et antimatière puisse se manifester à l’échelle cosmique et conduire à ce reliquat de matière dont est fait l’Univers.

L’asymétrie est faible. La question ouverte est de savoir à quelle température de l’Univers la matière a pris le pas sur l’antimatière. Ce pourrait être à l’échelle d’énergie du LHC si SUSY est au rendez-vous. Mais on invoque aussi des énergies bien plus hautes, comme celle de la GU. Des expériences en laboratoire et des observations cosmologiques nouvelles vont préciser les données.

Jusqu’ici, cette question de quelque chose plutôt que rien est abordée de façon scientifique, mais il se peut que la réponse soit hors d’atteinte, et qu’il faille se contenter de conjectures.

Franchir la ligne rouge ?

Revenons au rayonnement fossile. Le « fond de l’univers » offre d’abord une stupéfiante homogénéité de température. Ce fait n’a pu être expliqué, jusqu’ici, qu’en postulant une phase antérieure de dilatation exponentielle de l’espace-temps, appelée inflation cosmique et que l’on situe à la GU. L’in­flation prédit également les caractéristiques des légères inhomogénéités de température observées, semences de la formation ultérieure des galaxies, et d’autres propriétés observables. Jusqu’ici, l’idée a bien passé les tests. D’autres, plus sévères, sont en cours. Néanmoins, l’inflation relève du possible, non du certain. On a pu suggérer le terme de « mythe falsifiable ».

Quatre marches de plus (1032 K°) et on tombe sur un conflit entre RG, théorie classique, et MQ, qui s’impose à cette échelle. La théorie des Supercordes (SC) est la réponse la plus ambitieuse et élaborée au problème. Il s’agit d’une entreprise de refondation de notre vision du monde, non plus basée sur le point, une abstraction qui se révèle fâcheuse, mais sur des objets de taille extrêmement petite mais finie. Sa cohérence mathématique exige que l’espace ait plus que trois dimensions spatiales. Cette dernière éventualité n’est pas une idée nouvelle. Tout est possible à condition que ces dimensions supplémentaires soient non pas étendues comme nos trois dimensions familières, mais enroulées sur elles-mêmes à toute petite échelle, ou sélectives quant aux particules qui y ont accès, de telle sorte qu’elles aient jusqu’ici échappé à notre investigation. On les a cherchés au LEP, on continuera au LHC.

Au-delà de la ligne rouge ?

Doit-on s’en tenir à l’inflation et aux expériences de mesure fine du rayonnement fossile susceptibles de la falsifier, ou va-t-on se risquer à franchir la ligne rouge au delà de laquelle science et mythe pourraient se fondre ?

Si on prend ce risque, les SC suggèrent alors un dramatique changement de perspective. Au lieu de la solution unique d’abord espérée d’elles, elles offrent au contraire un nombre colossal de solutions possibles dont chacune représenterait un univers de paramètres différents. Si toutes ces solutions sont essayées, comme le propose l’idée d’une inflation permanente, on ne peut plus s’étonner de rien. Quelle que soit sa faible probabilité, il est obligatoire que nous soyons dans un univers « réussi », dont les paramètres lui ont permis une expansion adéquate, avec galaxies, étoiles, planètes, conditions nécessaires à notre existence.

Ce raisonnement anthropique (RA) scientifique a remporté au moins un grand succès, la prédiction de la valeur de l’Énergie Noire, avant même que les observations cosmologiques ne révèlent sa présence. Par contre, l’hypothèse de l’existence d’une multiplicité d’univers déconnectés du nôtre, le Multiverse, est non vérifiable et nous sort du schéma habituel de la science.

Le RA est loin de faire l’unanimité. Rien n’est joué. Si par exemple le LHC découvre SUSY, réglant ainsi le problème du réglage fin (et probablement de la Matière Noire), un pas de plus sera fait dans l’explication des phénomènes selon le mode scientifique classique, et cela évitera, ou du moins retardera, le recours au RA.

Si par contre il finit par s’imposer, ce sera incontestablement battre en retraite et admettre que la quête de « la solution » de l’univers aura été une utopie. Par contre, ce « darwinisme cosmologique » ne fait appel à aucun Grand Dessein. Et, en pratique, cela ne change rien à l’activité scientifique, qui est de comprendre la cohérence physique de l’Univers dans lequel nous sommes.

Épilogue

Nous avons jusqu’ici remonté l’Univers en température, et peu évoqué la remontée dans le temps correspondante que le MC implique et qu’explicite le schéma. Elle situe par exemple la physique du LHC à la picoseconde, la GU à quelque 10-35s. Mais après quoi ? Après le Big Bang, dit-on.

Il n’y a pas de mot plus trompeur que celui de Big Bang, d’ailleurs inventé par dérision. Pour certains, il évoque une « formidable explosion » ! Mais explosion de quoi et dans quoi ?

Il est bien plus légitime de concevoir un Univers d’énergie nulle, l’énergie de la gravitation, comptée négativement, annulant l’énergie positive de ses composants, qui serait né à partir de rien, ou presque, d’une fluctuation quantique du vide, donc un simple petit « pschitt ». Là non plus, notre imagination ne nous est pas d’un grand secours.

Si l’inflation a eu lieu, elle a effacé les traces d’un éventuel « avant » et donné naissance aux particules. C’est donc la véritable origine du monde. Ne serait-il pas sage d’en rester à elle et aux observations, présentes et à venir, du rayonnement fossile ?

Si l’on tient à parler de Big Bang, doit-on l’assimiler à la naissance du temps et l’espace, et donc, comme Saint Augustin et beaucoup d’autres depuis, juger dépourvu de sens de demander ce qu’il y avait avant. Ou peut-on, en référence aux SC, imaginer qu’il n’y a pas d’instant zéro et que se préparaient indéfiniment les conditions de l’inflation ?

À ce stade, la science ne nous libérera sans doute pas du mythe. Mais elle aura au moins poussé aussi loin que possible le filtre expérimental et rationnel des possibilités, offrant à notre esprit, outre une impressionnante somme d’explications, un ensemble d’idées, défendables sinon démontrables, comme celle d’un univers à partir de rien, ou presque, ou celle d’un darwinisme cosmologique, nous permettant d’éviter le recours à quelque Grand Dessein.

Mais, si l’on fait retour sur la première partie, on peut malheureusement craindre que, à plus ou moins court terme, le Monde n’ait d’autres problèmes à résoudre que celui de ses origines.

© Daniel Treille. Reproduction des textes autorisée uniquement avec l’accord de l’éditeur et avec la citation de la source. Les illustrations sont la propriété de leurs auteurs respectifs.


Nos partenaires