Astronomie

Énigme impliquant la distance à l'objet, l'expansion universelle, l'âge de l'univers, etc.

Énigme impliquant la distance à l'objet, l'expansion universelle, l'âge de l'univers, etc.

Je lisais récemment sur une galaxie ou un quasar (je ne sais pas lequel, alors disons simplement quasar) où la distance estimée à cette chose était une fraction très importante de l'âge de l'univers. Ce que je veux dire, c'est ceci : je ne me souviens pas des détails exacts, mais en supposant pour l'argumentation que l'âge de l'univers a 13,8 milliards d'années, cette chose était à environ 13 milliards d'années-lumière. (Encore une fois, certains détails ici pourraient être légèrement erronés ; la chose aurait pu être estimée à 12 milliards d'années-lumière - alors concentrez-vous sur le principe général que je présente ici, pas sur des détails).

Ce que je ne comprends pas, c'est ça. Si la chose est à 13 milliards d'années-lumière, alors la lumière atteignant mes yeux lorsque je la regarde a maintenant mis 13 milliards d'années pour m'atteindre. Pourtant, l'âge de l'univers a 13,8 milliards d'années (encore une fois, si je me trompe légèrement sur certains de ces chiffres, acceptez-les pour l'instant à titre d'argument). Cela signifie que la lumière a dû quitter cet objet lorsque l'univers était beaucoup plus "petit" ou plus compact, et que les choses étaient beaucoup plus proches les unes des autres. Ce qui signifie que la lumière aurait dû dépasser ma position il y a longtemps si je me suis "déplacé" ou "en expansion" (ou une combinaison) loin de l'objet à n'importe quoi sauf un pourcentage assez important de la vitesse de la lumière.

Pour essayer de résumer cela, ou de le reformuler en termes plus simples : 1) soit il semble que je m'éloigne/s'étends/s'éloigne du rouge de cet objet à une fraction significative de la vitesse de la lumière (je n'ai pas fait les nombres, mais peut-être 80% ou 90% environ) et cela depuis un certain temps, ou 2) quelque chose ne va pas (l'âge de l'univers, ou la distance de cet objet).

ou 3) il y a quelque chose que je ne comprends pas. C'est pourquoi je suis venu ici.

Je n'ai jamais vu qu'il est dit que nous sommes en train de "s'étendre" ou de "passer vers le rouge" ou [insérer le terme que vous voulez] à une fraction significative de la vitesse de la lumière ; Je n'ai jamais vu qu'il était indiqué que pendant une brève période après le big bang, l'univers aurait pu (ou s'est étendu) plus rapidement que la lumière, mais encore une fois, cela a duré moins d'une seconde si ma mémoire est bonne.

De toute façon, quelqu'un veut-il expliquer?

Merci.


La distance de 13 milliards d'années-lumière du quasar signifie une distance de voyage-lumière de 13 milliards d'années-lumière. En d'autres termes, la lumière a mis 13 milliards d'années pour nous atteindre, indépendamment de la distance à laquelle le quasar est maintenant éloigné de nous.

La distance appropriée actuelle (une chaîne de règles mesurerait) est appelée distance de déplacement ; elle est beaucoup plus grande que la distance parcourue par la lumière pour les grands décalages vers le rouge.

Le quasar s'éloigne de nous de façon accélérée, et s'éloigne maintenant plus vite que la lumière. Cela signifie que la lumière émise maintenant (au sens du temps cosmique) par la galaxie, dans laquelle le quasar a peut-être évolué entre-temps, ne nous atteindra jamais. La lumière, le quasar émis il y a 13 milliards d'années, a quitté le quasar juste à temps pour quitter les régions de l'univers qui plus tard se sont éloignées de nous plus vite que la lumière, pour finalement nous atteindre.

Comme expérience de pensée, imaginez marcher à 5 km/h (notre vitesse de la lumière sur le terrain de jeu) sur un élastique qui s'étend à une vitesse constante de 1 km/h par mètre de longueur réelle de l'élastique. (Cela conduit à une accélération exponentielle de la distance entre les deux marques sur la bande). Si vous commencez à moins de 5 mètres de votre objectif, par ex. à partir d'une marque de départ (notre quasar) distante de 4,50 m, vous atteindrez enfin la marque de but. La marque de départ sera bientôt plus éloignée de la marque de but que de 5 mètres, s'éloignant donc à plus de 5 km/h de la cible peu de temps après avoir quitté la marque de départ. Au moment où vous arrivez à la marque de but, la marque de départ sera beaucoup plus éloignée (distance de déplacement) que la distance à parcourir à pied (distance de déplacement léger). Et vous avez parcouru une distance plus longue que la distance (correcte) entre les marques au moment où vous avez commencé à marcher.

Btw.: L'accélération n'est ressentie que comme une force, lorsque la vitesse vers l'élastique local (espace-temps mataphorique) est modifiée.

Exemple calculs avec une protogalaxie de redshift $z=11.9$ : Sur la base du Cosmology Calculator sur ce site, les paramètres cosmologiques $H_0 = 67.11$ km/s/Mpc, $Omega_{Lambda} = 0.6825$ fournis par le projet Planck , et le facteur d'échelle $d(t) = d_0 / (1+z)$, en fixant $Omega_M = 1- Omega_{Lambda} = 0.3175$, l'âge de l'univers est 13.820$ Gyr, et le comoving la distance de la protogalaxie est $d_0 = 32.644$ Gly.

L'âge de l'univers, nous voyons la protogalaxie (à un décalage vers le rouge de 11,9), était de 0,370 Gyr, la distance parcourue par la lumière était de 13,450 Gly, la distance appropriée était de 2,531 Gly.

Après que la protogalaxie ait émis une lumière de 0,370 Gyr après le big bang, la lumière a voyagé vers nous à travers l'espace de décalage vers le rouge en commençant par 11,9 en se rétrécissant à 0 ; la lumière nous est arrivée 13.820 Gyr après le big bang. La distance mobile (à nous) de l'espace traversé par la lumière a commencé avec 32,644 Gly rétrécissant à 0. La distance restante, la lumière nécessaire pour voyager, a commencé avec 13,450 Gly rétrécissant à 0. La distance appropriée entre la protogalaxie et nous a commencé avec 2,531 Gly passant à 32,644 Gly en raison de l'expansion de l'espace-temps.

Voici quelques états intermédiaires décrits par un couple de tuples, consistant en

  • décalage vers le rouge $z$,
  • selon l'âge $t$ de l'univers (Gyr),
  • distance radiale comobile (à l'âge $t$) de la lumière émise, nous pouvons maintenant détecter à partir de la protogalaxie (Gly),
  • distance de déplacement de lumière restante de cette lumière émise (Gly),
  • distance propre de la protogalaxie à l'âge $t$, d'après $d(t) = d_0 / (1+z)$ :

$$(11.9, 0.370, 32.644, 13.450, 2.531),$$ $$(11.0, 0.413, 32.115, 13.407, 2.720),$$ $$(10.0, 0.470, 31.453, 13.349, 2.968),$$ $$( 9.0, 0.543, 30.693, 13.277, 3.264),$$ $$( 8.0, 0.636, 29.811, 13.184, 3.627),$$ $$( 7.0, 0.759, 28.769, 13.061, 4.081),$$ $$( 6.0, 0.927, 27.511, 12.892, 4.663),$$ $$( 5.0, 1.168, 25.952, 12.651, 5.441),$$ $$( 4.0, 1.534, 23.952, 12.285, 6.529),$$ $$( 3.0, 2.139, 21.257, 11.680, 8.161),$$ $$( 2.0, 3.271, 17.362, 10.549, 10.881),$$ $$( 1.0, 5.845, 11.124, 7.974, 16.322),$$ $$( 0.0, 13.820, 0.0 , 0.0 , 32.644).$$

Le paramètre de Hubble, c'est-à-dire le taux d'expansion de l'espace par distance appropriée fixe, diminue avec le temps. Cela a permis à la protogalaxie de reculer presque avec la vitesse de la lumière, bien qu'elle se trouve à environ 2,5 Gly de nous (distance appropriée) à l'époque où elle a émis la lumière que nous détectons maintenant. Néanmoins les objets éloignés dans cet espace accélèrent loin de nous, puisque leur distance croissante est multipliée avec le taux d'expansion de l'espace.


Je ne peux pas commenter car je n'ai pas encore le bon représentant, mais concernant @ user3355020 et la réponse fournie par @Gerald, (et moi étant beaucoup moins instruit que je n'aurais pu l'imaginer avant de lire ceci), je l'interprète comme ceci : (et je ne serais pas surpris si c'est faux) la vitesse de la lumière est constante, mais le taux d'expansion de l'univers ne l'est pas. L'effet trop simplifié observé est similaire au sentiment d'avoir un rêve où vous êtes dans un couloir et vous fuyez quelque chose aussi vite que possible, concentré sur le bout du couloir, mais le couloir semble s'étire de plus en plus au fur et à mesure que le temps passe. De la même manière, la lumière est la personne qui court et « l'espace » est le couloir et la terre est l'ouverture à la fin. Un peu de lumière a pu aller assez loin au début pour que l'étirement ne l'ait pas tellement impacté qu'il soit impossible d'atteindre la terre (cela va juste prendre plus de 13 milliards d'années), et un peu de lumière (et d'après ma compréhension de la réponse donnée par @Gerald toute lumière après un certain "temps") n'atteindra jamais la terre.


Demandez à Ethan : qu'est-ce qui pourrait résoudre la controverse cosmique sur l'univers en expansion ?

Les bougies standard (L) et les règles standard (R) sont deux techniques différentes que les astronomes utilisent pour mesurer . [+] l'expansion de l'espace à divers moments/distances dans le passé. Sur la base de la façon dont des quantités telles que la luminosité ou la taille angulaire changent avec la distance, nous pouvons déduire l'histoire de l'expansion de l'Univers. L'utilisation de la méthode de la bougie fait partie de l'échelle de distance, donnant 73 km/s/Mpc. L'utilisation de la règle fait partie de la méthode du signal précoce, avec un rendement de 67 km/s/Mpc.

Si vous ne saviez rien de l'Univers au-delà de notre propre galaxie, il existe deux voies différentes que vous pourriez emprunter pour comprendre comment il changeait. Vous pouvez mesurer la lumière d'objets bien compris à une grande variété de distances et en déduire comment la structure de notre univers change à mesure que la lumière voyage dans l'espace avant d'arriver à nos yeux. Alternativement, vous pouvez identifier un ancien signal des premiers stades de l'Univers et mesurer ses propriétés pour en savoir plus sur l'évolution de l'espace-temps au fil du temps. Ces deux méthodes sont robustes, précises et en conflit l'une avec l'autre. Luc Bourhis veut savoir quelle pourrait être la résolution en demandant :

Comme vous l'avez souligné dans plusieurs de vos colonnes, l'échelle cosmique [de distance] et l'étude du CMBR donnent des valeurs incompatibles pour la constante de Hubble. Quelles sont les meilleures explications des cosmologistes pour les réconcilier ?

Commençons par explorer le problème, puis voyons comment nous pourrions le résoudre.

Noté pour la première fois par Vesto Slipher en 1917, certains des objets que nous observons montrent le spectre . [+] signatures d'absorption ou d'émission d'atomes, d'ions ou de molécules particuliers, mais avec un décalage systématique vers l'extrémité rouge ou bleue du spectre lumineux. Combinées aux mesures de distance de Hubble, ces données ont donné naissance à l'idée initiale de l'Univers en expansion.

Vesto Slipher, (1917) : Proc. Amer. Phil. Soc., 56, 403

L'histoire de l'Univers en expansion remonte à près de 100 ans, lorsque Edwin Hubble a découvert pour la première fois des étoiles individuelles d'un type spécifique - les étoiles variables céphéides - dans les nébuleuses en spirale vues dans le ciel nocturne. Tout à coup, cela a démontré que ces nébuleuses étaient des galaxies individuelles, nous a permis de calculer la distance qui les séparait et, en ajoutant une preuve supplémentaire, a révélé que l'Univers était en expansion.

Cette preuve supplémentaire a été découverte une décennie auparavant par Vesto Slipher, qui a remarqué que les raies spectrales de ces mêmes nébuleuses en spirale étaient fortement décalées vers le rouge en moyenne. Soit ils s'éloignaient tous de nous, soit l'espace entre nous et eux s'étendait, tout comme la théorie de l'espace-temps d'Einstein l'avait prédit. À mesure que de plus en plus de données de meilleure qualité arrivaient, la conclusion est devenue accablante : l'Univers était en expansion.

La construction de l'échelle de distance cosmique consiste à passer de notre système solaire aux étoiles jusqu'à . [+] galaxies proches aux lointaines. Chaque « étape » comporte ses propres incertitudes. Alors que le taux d'expansion inféré pourrait être biaisé vers des valeurs supérieures ou inférieures si nous vivions dans une région sous-dense ou surdense, la quantité nécessaire pour expliquer cette énigme est exclue par observation. Il existe suffisamment de méthodes indépendantes utilisées pour construire l'échelle des distances cosmiques pour que nous ne puissions plus raisonnablement reprocher à un « échelon » de l'échelle d'être la cause de notre inadéquation entre les différentes méthodes.

NASA, ESA, A. FEILD (STSCI) ET A. RIESS (STSCI/JHU)

Une fois que nous avons accepté que l'Univers était en expansion, il est devenu évident que l'Univers était plus petit, plus chaud et plus dense dans le passé. La lumière, d'où qu'elle soit émise, doit traverser l'Univers en expansion pour arriver à nos yeux. Lorsque nous mesurons la lumière que nous recevons d'un objet bien compris, en déterminant une distance par rapport aux objets que nous observons, nous pouvons également mesurer de combien cette lumière s'est décalée vers le rouge.

Cette relation distance-décalage vers le rouge nous permet de construire l'histoire de l'expansion de l'Univers, ainsi que de mesurer son taux d'expansion actuel. La méthode des échelles de distance est ainsi née. À l'heure actuelle, il existe peut-être une douzaine d'objets différents que nous comprenons assez bien pour les utiliser comme indicateurs de distance - ou bougies standard - pour nous apprendre comment l'Univers s'est développé au cours de son histoire. Les différentes méthodes concordent toutes et donnent une valeur de 73 km/s/Mpc, avec une incertitude de seulement 2 à 3 %.

La configuration des pics acoustiques observés dans le CMB du satellite Planck exclut effectivement un . [+] Univers qui ne contient pas de matière noire, et qui contraint aussi étroitement de nombreux autres paramètres cosmologiques. Nous arrivons à un univers composé à 68 % d'énergie noire, à 27 % de matière noire et à seulement 5 % de matière normale d'après ces données et d'autres éléments de preuve, avec un taux d'expansion optimal de 67 km/s/Mpc.

PAR. Ade et al. et la Collaboration Planck (2015)

D'un autre côté, si nous remontons aux premiers stades du Big Bang, nous savons que l'Univers contenait non seulement de la matière et des radiations normales, mais également une quantité substantielle de matière noire. Alors que la matière normale et le rayonnement interagissent très fréquemment par le biais de collisions et d'interactions de diffusion, la matière noire se comporte différemment, car sa section efficace est effectivement nulle.

Cela conduit à une conséquence fascinante : la matière normale essaie de s'effondrer gravitationnellement, mais les photons la repoussent, alors que la matière noire n'a pas la capacité d'être poussée par cette pression de rayonnement. Le résultat est une série de pics et de vallées dans la structure à grande échelle qui survient à des échelles cosmiques à partir de ces oscillations – connues sous le nom d'oscillations acoustiques baryoniques (BAO) – mais la matière noire est répartie en douceur dessus.

La structure à grande échelle de l'Univers change avec le temps, à mesure que de minuscules imperfections se développent pour former le . [+] d'abord les étoiles et les galaxies, puis fusionnent pour former les grandes galaxies modernes que nous voyons aujourd'hui. Regarder à de grandes distances révèle un Univers plus jeune, semblable à ce qu'était notre région locale dans le passé. Les fluctuations de température dans le CMB, ainsi que les propriétés de regroupement des galaxies à travers le temps, fournissent une méthode unique pour mesurer l'histoire de l'expansion de l'Univers.

Chris Blake et Sam Moorfield

Ces fluctuations apparaissent à diverses échelles angulaires dans le fond diffus cosmologique (CMB), et laissent également une empreinte dans le regroupement des galaxies qui se produit plus tard. Ces signaux reliques, provenant des temps les plus reculés, nous permettent de reconstituer la vitesse à laquelle l'Univers s'étend, entre autres propriétés. Du CMB et du BAO, nous obtenons une valeur très différente : 67 km/s/Mpc, avec une incertitude de seulement 1%.

En raison du fait qu'il existe de nombreux paramètres que nous ne connaissons pas intrinsèquement à propos de l'Univers - tels que l'âge de l'Univers, la densité de matière normale, la densité de matière noire ou la densité d'énergie noire - nous devons tous leur permettre de varient ensemble lors de la construction de nos modèles les mieux adaptés de l'Univers. Lorsque nous le faisons, un certain nombre d'images possibles se présentent, mais une chose reste incontestablement vraie : l'échelle de distance et les premières méthodes des reliques sont mutuellement incompatibles.

Tensions de mesure modernes de l'échelle de distance (rouge) avec les données de signal précoce du CMB et . [+] BAO (bleu) affiché pour le contraste. Il est plausible que la méthode du signal précoce soit correcte et qu'il y ait un défaut fondamental avec l'échelle de distance, il est plausible qu'il y ait une erreur à petite échelle biaisant la méthode du signal précoce et que l'échelle de distance soit correcte, ou que les deux groupes aient raison et une certaine forme de la nouvelle physique (exemples montrés en haut) est le coupable. Mais pour l'instant, on ne peut pas en être sûr.

Adam Riess (communication privée)

  1. Le groupe des « premières reliques » se trompe. Il y a une erreur fondamentale dans leur approche de ce problème, et cela biaise leurs résultats vers des valeurs irréalistes.
  2. Le groupe "échelle de distance" se trompe. Il y a une sorte d'erreur systématique dans leur approche, biaisant leurs résultats vers des valeurs incorrectes et élevées.
  3. Les deux groupes ont raison, et il y a une sorte de nouvelle physique en jeu responsable de l'obtention de résultats différents par les deux groupes.

Il existe de nombreuses très bonnes raisons indiquant que les résultats des deux groupes doivent être crus. Si tel est le cas, il doit y avoir une sorte de nouvelle physique impliquée pour expliquer ce que nous voyons. Tout ne peut pas le faire : vivre dans un vide cosmique local est défavorisé, tout comme l'ajout de quelques points de pourcentage de courbure spatiale. Au lieu de cela, voici les cinq meilleures explications que les cosmologues envisagent actuellement.

Mesurer le temps et la distance (à gauche de « aujourd'hui ») peut indiquer comment l'Univers évoluera . [+] et accélérer/décélérer loin dans le futur. Nous pouvons apprendre que l'accélération s'est déclenchée il y a environ 7,8 milliards d'années avec les données actuelles, mais aussi que les modèles de l'Univers sans énergie noire ont des constantes de Hubble trop faibles ou des âges trop jeunes pour correspondre aux observations. Si l'énergie noire évolue avec le temps, en se renforçant ou en s'affaiblissant, nous devrons réviser notre image actuelle.

Saul Perlmutter de Berkeley

1.) L'énergie noire devient plus puissamment négative au fil du temps. Aux limites de nos meilleures observations, l'énergie noire semble être cohérente avec une constante cosmologique : une forme d'énergie inhérente à l'espace lui-même. Au fur et à mesure que l'Univers s'étend, plus d'espace est créé, et puisque la densité d'énergie noire reste constante, la quantité totale d'énergie noire contenue dans notre Univers augmente avec le volume de l'Univers.

Mais ce n'est pas obligatoire. L'énergie noire pourrait se renforcer ou s'affaiblir avec le temps. S'il s'agit bien d'une constante cosmologique, il existe une relation absolue entre sa densité d'énergie (ρ) et la pression négative (p) qu'elle exerce sur l'Univers : p = -ρ. Mais il y a une marge de manœuvre, d'un point de vue observationnel : la pression pourrait aller de -0,92ρ à environ -1,18ρ. Si la pression devient plus négative au fil du temps, cela pourrait donner une valeur plus petite avec la méthode des premières reliques et une valeur plus grande avec la méthode de l'échelle de distance. WFIRST devrait mesurer cette relation entre ρ et p jusqu'à environ 1%, ce qui devrait restreindre, exclure ou découvrir la vérité de cette possibilité.

L'Univers primitif était plein de matière et de rayonnement, et était si chaud et dense qu'il empêchait tout. [+] particules composites de se former de manière stable pendant la première fraction de seconde. Au fur et à mesure que l'Univers se refroidit, l'antimatière s'annihile et les particules composites ont une chance de se former et de survivre. On s'attend généralement à ce que les neutrinos cessent d'interagir au moment où l'Univers est

1 seconde, mais s'il y a plus d'interactions que nous ne le pensons, cela pourrait avoir d'énormes implications pour le taux d'expansion de l'Univers.

Collaboration RHIC, Brookhaven

2.) Garder les neutrinos fortement couplés à la matière et au rayonnement plus longtemps que prévu. Classiquement, les neutrinos n'interagissent avec les autres formes de matière et de rayonnement dans l'Univers que jusqu'à ce que l'Univers se refroidisse à une température d'environ 10 milliards de K. À des températures plus froides que cela, leur section efficace d'interaction est trop faible pour être importante. Cela devrait se produire juste une seconde après le début du Big Bang.

Mais si les neutrinos restent fortement couplés à la matière et au rayonnement plus longtemps - pendant des milliers d'années dans l'Univers primitif au lieu de simplement

1 seconde - cela pourrait accueillir un univers avec un taux d'expansion plus rapide que ce que les premières équipes de reliques considèrent normalement.Cela pourrait se produire s'il y a une auto-interaction supplémentaire entre les neutrinos d'après ce que nous pensons actuellement, ce qui est convaincant étant donné que le modèle standard ne peut à lui seul expliquer la suite complète des observations de neutrinos. D'autres études sur les neutrinos à des énergies relativement basses et intermédiaires pourraient sonder ce scénario.

Une illustration des modèles de regroupement dus aux oscillations acoustiques baryoniques, où la probabilité de . [+] trouver une galaxie à une certaine distance de toute autre galaxie est régi par la relation entre la matière noire et la matière normale. Au fur et à mesure que l'Univers s'étend, cette distance caractéristique s'étend également, ce qui nous permet de mesurer la constante de Hubble, la densité de matière noire et même l'indice spectral scalaire. Les résultats sont en accord avec les données du CMB et un Univers composé de 27 % de matière noire, contre 5 % de matière normale. La modification de la distance de l'horizon sonore pourrait modifier le taux d'expansion que ces données impliquent.

3.) La taille de l'horizon sonore cosmique est différente de ce que l'équipe des premières reliques a conclu. Lorsque nous parlons de photons, de matière normale et de matière noire, il existe une échelle de distance caractéristique définie par leurs interactions, la taille/l'âge de l'Univers et la vitesse à laquelle les signaux peuvent voyager à travers l'Univers primitif. Ces pics et vallées acoustiques que nous voyons dans le CMB et dans les données BAO, par exemple, sont des manifestations de cet horizon sonore.

Mais que se passe-t-il si nous avons mal calculé ou mal déterminé la taille de cet horizon ? Si vous étalonnez l'horizon sonore avec des méthodes d'échelle de distance, telles que les supernovae de type Ia, vous obtenez un horizon sonore nettement plus grand que celui que vous obtenez si vous étalonnez l'horizon sonore de manière traditionnelle : avec les données CMB. Si l'horizon sonore évolue réellement du tout début de l'Univers à nos jours, cela pourrait expliquer pleinement l'écart. Heureusement, les levés CMB de nouvelle génération, comme le SPT-3G proposé, devraient être en mesure de tester si de tels changements se sont produits dans le passé de notre Univers.

S'il n'y avait pas d'oscillations dues à l'interaction de la matière avec le rayonnement dans l'Univers, il y aurait . [+] qu'aucun mouvement dépendant de l'échelle ne soit observé dans le regroupement des galaxies. Les ondulations elles-mêmes, montrées avec la partie non ondulante soustraite (en bas), dépendent de l'impact des neutrinos cosmiques théorisés comme étant présents par le Big Bang. La cosmologie standard du Big Bang correspond à β=1. Notez que s'il y a une interaction matière noire/neutrino présente, le taux d'expansion perçu pourrait être modifié.

D. Baumann et al. (2019), Physique de la nature

4.) La matière noire et les neutrinos pourraient interagir les uns avec les autres. La matière noire, selon toutes les indications dont nous disposons, n'interagit que de manière gravitationnelle : elle n'entre pas en collision, ne s'annihile pas et ne subit pas de forces exercées par aucune autre forme de matière ou de rayonnement. Mais en vérité, nous n'avons que des limites sur les interactions possibles que nous ne les avons pas totalement exclues.

Et si la matière noire et les neutrinos interagissaient et se dispersaient les uns les autres ? Si la matière noire est très massive, une interaction entre une chose très lourde (comme une particule de matière noire) et une particule très légère (comme un neutrino) pourrait faire accélérer les particules légères, gagnant de l'énergie cinétique. Cela fonctionnerait comme un type d'injection d'énergie dans l'Univers. Selon le moment et la manière dont cela se produit, cela pourrait entraîner un écart entre les mesures précoces et tardives du taux d'expansion, peut-être même suffisamment pour tenir pleinement compte des différentes mesures dépendantes de la technique.

Une chronologie illustrée de l'histoire de l'Univers. Si la valeur de l'énergie noire est suffisamment petite pour . [+] admettent la formation des premières étoiles, alors un Univers contenant les bons ingrédients pour la vie est à peu près inévitable. Cependant, si l'énergie noire va et vient par vagues, avec une première quantité d'énergie noire en décomposition avant l'émission du CMB, cela pourrait résoudre cette énigme en expansion de l'Univers.

Observatoire européen austral (ESO)

5.) Une quantité importante d'énergie noire existait non seulement à la fin des temps (modernes), mais aussi au début. Si l'énergie noire apparaît dans l'Univers primitif (au niveau de quelques pour cent) mais se désintègre ensuite avant les mesures du CMB, cela pourrait expliquer pleinement la tension entre les deux méthodes de mesure du taux d'expansion de l'Univers. Encore une fois, de futures mesures améliorées à la fois du CMB et de la structure à grande échelle de l'Univers pourraient aider à fournir des indications si ce scénario décrit notre Univers.

Bien sûr, ce n'est pas une liste exhaustive, on pourrait toujours choisir n'importe quel nombre de classes de nouvelle physique, des ajouts inflationnistes à la modification de la théorie de la relativité générale d'Einstein, pour potentiellement expliquer cette controverse. Mais en l'absence de preuves d'observation convaincantes pour un scénario particulier, nous devons examiner les idées qui pourraient être testées dans un avenir proche.

La zone de visualisation de Hubble (en haut à gauche) par rapport à la zone que WFIRST pourra visualiser, à . [+] la même profondeur, dans le même laps de temps. La vue à grand champ de WFIRST nous permettra de capturer un plus grand nombre de supernovae distantes que jamais auparavant, et nous permettra d'effectuer des relevés larges et profonds de galaxies à des échelles cosmiques jamais sondées auparavant. Il apportera une révolution dans la science, indépendamment de ce qu'il trouvera, et fournira les meilleures contraintes sur la façon dont l'énergie noire évolue au cours du temps cosmique. Si l'énergie noire varie de plus de 1% de la valeur qu'elle devrait avoir, WFIRST la trouvera.

Le problème immédiat avec la plupart des solutions que vous pouvez concocter à ce casse-tête est que les données de chacune des deux techniques principales - la technique de l'échelle de distance et la technique des premières reliques - les excluent déjà presque toutes. Si les cinq scénarios pour la nouvelle physique que vous venez de lire semblent être un exemple de théorisation désespérée, il y a une bonne raison à cela : à moins que l'une des deux techniques n'ait un défaut fondamental jusqu'ici non découvert, un certain type de nouvelle physique doit être en jeu.

Sur la base des observations améliorées qui arrivent, ainsi que des nouveaux instruments scientifiques qui sont actuellement en cours de conception et de construction, nous pouvons pleinement nous attendre à ce que la tension dans ces deux mesures atteigne le niveau de signification "gold standard" de 5 sigma d'ici une décennie. Nous continuerons tous à chercher des erreurs et des incertitudes, mais il est temps de considérer sérieusement le fantastique : c'est peut-être vraiment un présage qu'il y a plus dans l'Univers que nous ne le pensons actuellement.


Contenu

Une décennie avant que Hubble ne fasse ses observations, un certain nombre de physiciens et de mathématiciens avaient établi une théorie cohérente d'un univers en expansion en utilisant les équations de champ d'Einstein de la relativité générale. L'application des principes les plus généraux à la nature de l'univers a donné une solution dynamique qui était en conflit avec la notion alors répandue d'un univers statique.

Les observations de Slipher Modifier

En 1912, Vesto Slipher mesura le premier décalage Doppler d'une « nébuleuse spirale » (le terme obsolète désignant les galaxies spirales) et découvrit bientôt que presque toutes ces nébuleuses s'éloignaient de la Terre. Il n'a pas saisi les implications cosmologiques de ce fait, et en effet, à l'époque, il était très controversé de savoir si ces nébuleuses étaient ou non des « univers insulaires » en dehors de notre Voie lactée. [19] [20]

Équations FLRW Modifier

En 1922, Alexander Friedmann a dérivé ses équations de Friedmann des équations de champ d'Einstein, montrant que l'univers pourrait s'étendre à un taux calculable par les équations. [21] Le paramètre utilisé par Friedmann est connu aujourd'hui sous le nom de facteur d'échelle et peut être considéré comme une forme invariante d'échelle de la constante de proportionnalité de la loi de Hubble. Georges Lemaître a trouvé indépendamment une solution similaire dans son article de 1927 discuté dans la section suivante. Les équations de Friedmann sont dérivées en insérant la métrique d'un univers homogène et isotrope dans les équations de champ d'Einstein pour un fluide avec une densité et une pression données. Cette idée d'un espace-temps en expansion conduirait finalement aux théories de la cosmologie Big Bang et Steady State.

L'équation de Lemaître Modifier

En 1927, deux ans avant que Hubble ne publie son propre article, le prêtre et astronome belge Georges Lemaître a été le premier à publier des recherches dérivant de ce qui est maintenant connu sous le nom de loi de Hubble. Selon l'astronome canadien Sidney van den Bergh, « la découverte de 1927 de l'expansion de l'univers par Lemaître a été publiée en français dans une revue à faible impact. Dans la traduction anglaise à fort impact de 1931 de cet article, une équation critique a été modifiée. en omettant la référence à ce qui est maintenant connu sous le nom de constante de Hubble." [22] On sait maintenant que les modifications apportées à l'article traduit ont été effectuées par Lemaître lui-même. [10] [23]

Forme de l'univers Modifier

Avant l'avènement de la cosmologie moderne, on parlait beaucoup de la taille et de la forme de l'univers. En 1920, le débat Shapley-Curtis a eu lieu entre Harlow Shapley et Heber D. Curtis sur cette question. Shapley a plaidé pour un petit univers de la taille de la galaxie de la Voie lactée, et Curtis a soutenu que l'univers était beaucoup plus grand. Le problème a été résolu au cours de la décennie à venir grâce aux observations améliorées de Hubble.

Étoiles variables céphéides en dehors de la Voie lactée Modifier

Edwin Hubble a fait la plupart de son travail d'observation astronomique professionnel à l'Observatoire du Mont Wilson, [24] qui abrite le télescope le plus puissant du monde à l'époque. Ses observations d'étoiles variables céphéides dans des « nébuleuses spirales » lui ont permis de calculer les distances à ces objets. Étonnamment, ces objets ont été découverts à des distances qui les placent bien en dehors de la Voie lactée. Ils ont continué à s'appeler nébuleuses, et ce n'est que progressivement que le terme galaxies l'a remplacé.

Combinaison de redshifts avec des mesures de distance Modifier

Les paramètres qui apparaissent dans la loi de Hubble, vitesses et distances, ne sont pas directement mesurés. En réalité, nous déterminons, disons, une luminosité de supernova, qui fournit des informations sur sa distance, et le décalage vers le rouge z = ∆λ/λ de son spectre de rayonnement. Luminosité et paramètre corrélés par Hubble z.

En combinant ses mesures des distances des galaxies avec les mesures de Vesto Slipher et Milton Humason des décalages vers le rouge associés aux galaxies, Hubble a découvert une proportionnalité approximative entre le décalage vers le rouge d'un objet et sa distance. Bien qu'il y ait eu une dispersion considérable (maintenant connue pour être causée par des vitesses particulières - le "flux de Hubble" est utilisé pour désigner la région de l'espace suffisamment loin pour que la vitesse de récession soit plus grande que les vitesses particulières locales), Hubble a pu tracer un ligne de tendance des 46 galaxies qu'il a étudiées et obtenir une valeur pour la constante de Hubble de 500 km/s/Mpc (beaucoup plus élevée que la valeur actuellement acceptée en raison d'erreurs dans ses étalonnages de distance, voir échelle de distance cosmique pour plus de détails).

Au moment de la découverte et du développement de la loi de Hubble, il était acceptable d'expliquer le phénomène de décalage vers le rouge comme un décalage Doppler dans le contexte de la relativité restreinte, et d'utiliser la formule Doppler pour associer le décalage vers le rouge z avec vitesse. Aujourd'hui, dans le contexte de la relativité générale, la vitesse entre objets distants dépend du choix des coordonnées utilisées, et par conséquent, le décalage vers le rouge peut être également décrit comme un décalage Doppler ou un décalage cosmologique (ou gravitationnel) dû à l'expansion de l'espace, ou quelque combinaison des deux. [28]

Diagramme de Hubble Modifier

La loi de Hubble peut être facilement représentée dans un "diagramme de Hubble" dans lequel la vitesse (supposée approximativement proportionnelle au décalage vers le rouge) d'un objet est tracée par rapport à sa distance par rapport à l'observateur. [29] Une ligne droite de pente positive sur ce diagramme est la représentation visuelle de la loi de Hubble.

Constante cosmologique abandonnée Modifier

Après la publication de la découverte de Hubble, Albert Einstein a abandonné son travail sur la constante cosmologique, qu'il avait conçu pour modifier ses équations de la relativité générale afin de leur permettre de produire une solution statique, qu'il pensait être l'état correct de l'univers. Les équations d'Einstein dans leur modèle de forme la plus simple ont généré un univers en expansion ou en contraction. La constante cosmologique d'Einstein a donc été créée artificiellement pour contrer l'expansion ou la contraction afin d'obtenir un univers statique et plat parfait. [30] Après la découverte de Hubble que l'univers était, en fait, en expansion, Einstein a appelé sa supposition erronée que l'univers est statique sa « plus grande erreur ». [30] À elle seule, la relativité générale pourrait prédire l'expansion de l'univers, qui (à travers des observations telles que la courbure de la lumière par de grandes masses, ou la précession de l'orbite de Mercure) pourrait être observée expérimentalement et comparée à ses calculs théoriques en utilisant des solutions particulières des équations qu'il avait formulées à l'origine.

En 1931, Einstein s'est rendu à l'observatoire du mont Wilson pour remercier Hubble d'avoir fourni la base d'observation de la cosmologie moderne. [31]

La constante cosmologique a regagné l'attention au cours des dernières décennies en tant qu'hypothèse de l'énergie noire. [32]

La découverte de la relation linéaire entre le décalage vers le rouge et la distance, associée à une relation linéaire supposée entre la vitesse de récession et le décalage vers le rouge, donne une expression mathématique simple pour la loi de Hubble comme suit :

  • v est la vitesse de récession, généralement exprimée en km/s.
  • H0 est la constante de Hubble et correspond à la valeur de H (souvent appelé le Paramètre Hubble qui est une valeur qui dépend du temps et qui peut être exprimée en termes de facteur d'échelle) dans les équations de Friedmann prises au moment de l'observation désigné par l'indice 0. Cette valeur est la même dans tout l'univers pour un temps comoving donné.
  • D est la distance appropriée (qui peut changer avec le temps, contrairement à la distance comoving, qui est constante) de la galaxie à l'observateur, mesurée en mégaparsecs (Mpc), dans l'espace 3-défini par le temps cosmologique donné . (La vitesse de récession est juste v = dD/dt).

La loi de Hubble est considérée comme une relation fondamentale entre la vitesse de récession et la distance. Cependant, la relation entre vitesse de récession et redshift dépend du modèle cosmologique adopté et n'est établie que pour de petits redshifts.

Pour les distances plus grand que le rayon de la sphère de Hubble rSH , les objets reculent à un rythme plus rapide que la vitesse de la lumière (Voir Utilisations de la distance appropriée pour une discussion sur la signification de ceci):

Étant donné que la "constante" de Hubble n'est une constante que dans l'espace, pas dans le temps, le rayon de la sphère de Hubble peut augmenter ou diminuer sur divers intervalles de temps. L'indice '0' indique la valeur de la constante de Hubble aujourd'hui. [25] Les preuves actuelles suggèrent que l'expansion de l'univers s'accélère (voir Accélération de l'univers), ce qui signifie que pour une galaxie donnée, la vitesse de récession dD/dt augmente avec le temps à mesure que la galaxie se déplace vers des distances de plus en plus grandes. regarde quelques fixé distance D et regarder une série de galaxies différentes passer cette distance, les galaxies ultérieures passeraient cette distance à une vitesse plus faible que les précédentes. [34]

Vitesse de redshift et vitesse de récession Modifier

Le décalage vers le rouge peut être mesuré en déterminant la longueur d'onde d'une transition connue, telle que les raies de l'hydrogène pour les quasars distants, et en trouvant le décalage fractionnaire par rapport à une référence stationnaire. Ainsi, le décalage vers le rouge est une quantité non ambiguë pour l'observation expérimentale. La relation entre le redshift et la vitesse de récession est une autre affaire. Pour une discussion approfondie, voir Harrison. [35]

Vitesse de redshift Modifier

Le décalage vers le rouge z est souvent décrit comme un vitesse de décalage vers le rouge, qui est la vitesse de récession qui produirait le même redshift si il a été causé par un effet Doppler linéaire (ce qui n'est cependant pas le cas, car le décalage est causé en partie par une expansion cosmologique de l'espace, et parce que les vitesses impliquées sont trop grandes pour utiliser une formule non relativiste pour le décalage Doppler ). Cette vitesse de redshift peut facilement dépasser la vitesse de la lumière. [36] En d'autres termes, pour déterminer la vitesse de redshift vrs, la relation:

est utilisé. [37] [38] C'est-à-dire qu'il y a pas de différence fondamentale entre la vitesse de redshift et le redshift : ils sont rigidement proportionnels, et ne sont liés par aucun raisonnement théorique. La motivation derrière la terminologie de « vitesse de redshift » est que la vitesse de redshift est en accord avec la vitesse d'une simplification à faible vitesse de la formule dite de Fizeau-Doppler. [39]

Ici, λo, λe sont respectivement les longueurs d'onde observées et émises. La "vitesse de décalage vers le rouge" vrs n'est pas si simplement liée à la vitesse réelle à des vitesses plus élevées, cependant, et cette terminologie prête à confusion si elle est interprétée comme une vitesse réelle. Ensuite, la connexion entre la vitesse de redshift ou de redshift et la vitesse de récession est discutée. Cette discussion est basée sur Sartori. [40]

Vitesse de récession Modifier

Supposer R(t) est appelé le facteur d'échelle de l'univers, et augmente à mesure que l'univers s'étend d'une manière qui dépend du modèle cosmologique choisi. Sa signification est que toutes les distances correctes mesurées D(t) entre les points de co-mouvement augmente proportionnellement à R. (Les points co-mobiles ne se déplacent pas les uns par rapport aux autres, sauf en raison de l'expansion de l'espace.) En d'autres termes :

t0 est un temps de référence. Si la lumière est émise d'une galaxie à un moment donné te et reçu par nous à t0, il est décalé vers le rouge en raison de l'expansion de l'espace, et ce décalage vers le rouge z est simplement:

Supposons qu'une galaxie soit à distance , et cette distance change avec le temps à une vitesse t. Nous appelons ce taux de récession la "vitesse de récession" vr:

Nous définissons maintenant la constante de Hubble comme

et découvrez la loi de Hubble :

De ce point de vue, la loi de Hubble est une relation fondamentale entre (i) la vitesse de récession apportée par l'expansion de l'espace et (ii) la distance à un objet la connexion entre redshift et distance est une béquille utilisée pour relier la loi de Hubble aux observations. Cette loi peut être liée au redshift z approximativement en faisant un développement en série de Taylor :

Si la distance n'est pas trop grande, toutes les autres complications du modèle deviennent de petites corrections, et l'intervalle de temps est simplement la distance divisée par la vitesse de la lumière :

Selon cette approche, la relation cz = vr est une approximation valable aux faibles redshifts, à remplacer par une relation aux grands redshifts qui dépend du modèle. Voir la figure vitesse-décalage vers le rouge.

Observabilité des paramètres Modifier

A proprement parler, ni v ni dans la formule sont directement observables, car ce sont des propriétés à présent d'une galaxie, alors que nos observations se réfèrent à la galaxie du passé, au moment où la lumière que nous voyons actuellement l'a quittée.

Pour les galaxies relativement proches (décalage vers le rouge z beaucoup moins que l'unité), v et n'aura pas beaucoup changé, et v peut être estimé à l'aide de la formule v = z c c est la vitesse de la lumière. Cela donne la relation empirique trouvée par Hubble.

Pour les galaxies lointaines, v (ou alors ) ne peut pas être calculé à partir de z sans spécifier de modèle détaillé pour savoir comment H change avec le temps. Le décalage vers le rouge n'est même pas directement lié à la vitesse de récession au moment où la lumière s'est allumée, mais il a une interprétation simple : (1+z) est le facteur par lequel l'univers s'est agrandi pendant que le photon voyageait vers l'observateur.

Vitesse d'expansion vs vitesse relative Modifier

En utilisant la loi de Hubble pour déterminer les distances, seule la vitesse due à l'expansion de l'univers peut être utilisée. Puisque les galaxies en interaction gravitationnelle se déplacent les unes par rapport aux autres indépendamment de l'expansion de l'univers, [42] ces vitesses relatives, appelées vitesses particulières, doivent être prises en compte dans l'application de la loi de Hubble.

L'effet Doigt de Dieu est l'un des résultats de ce phénomène. Dans les systèmes liés gravitationnellement, comme les galaxies ou notre système planétaire, l'expansion de l'espace est un effet beaucoup plus faible que la force d'attraction de la gravité.

Dépendance temporelle du paramètre Hubble Modifier

Sur la définition du paramètre de décélération sans dimension

De là, on voit que le paramètre de Hubble diminue avec le temps, à moins que q < − 1 ce dernier ne puisse se produire que si l'univers contient de l'énergie fantôme, considérée comme théoriquement quelque peu improbable.

La loi de Hubble idéalisée Modifier

La dérivation mathématique d'une loi de Hubble idéalisée pour un univers en expansion uniforme est un théorème de géométrie assez élémentaire dans l'espace de coordonnées cartésien/newtonien à 3 dimensions, qui, considéré comme un espace métrique, est entièrement homogène et isotrope (les propriétés ne varient pas avec l'emplacement ou direction). En termes simples, le théorème est le suivant :

Deux points quelconques qui s'éloignent de l'origine, chacun le long de lignes droites et avec une vitesse proportionnelle à la distance de l'origine, s'éloigneront l'un de l'autre avec une vitesse proportionnelle à leur distance.

En fait, cela s'applique aux espaces non cartésiens tant qu'ils sont localement homogènes et isotropes, en particulier aux espaces à courbes négatives et positives fréquemment considérés comme des modèles cosmologiques (voir forme de l'univers).

Une observation découlant de ce théorème est que voir des objets s'éloigner de nous sur Terre n'est pas une indication que la Terre est proche d'un centre à partir duquel l'expansion se produit, mais plutôt que tous l'observateur dans un univers en expansion verra des objets s'éloigner d'eux.

Destin ultime et âge de l'univers Modifier

La valeur du paramètre Hubble change avec le temps, augmentant ou diminuant en fonction de la valeur du paramètre dit de décélération q , qui est défini par

Dans un univers avec un paramètre de décélération égal à zéro, il s'ensuit que H = 1/t, où t c'est le temps depuis le Big Bang. Une valeur non nulle et dépendante du temps de q nécessite simplement l'intégration des équations de Friedmann en arrière depuis le moment présent jusqu'au moment où la taille de l'horizon mobile était de zéro.

On a longtemps pensé que q était positif, indiquant que l'expansion ralentit en raison de l'attraction gravitationnelle. Cela impliquerait un âge de l'univers inférieur à 1/H (qui est d'environ 14 milliards d'années). Par exemple, une valeur pour q de 1/2 (une fois favorisée par la plupart des théoriciens) donnerait l'âge de l'univers à 2/(3H). La découverte en 1998 que q est apparemment négatif signifie que l'univers pourrait en fait être plus ancien que 1/H. Cependant, les estimations de l'âge de l'univers sont très proches de 1/H.

Paradoxe d'Olbers Modifier

L'expansion de l'espace résumée par l'interprétation du Big Bang de la loi de Hubble est pertinente pour la vieille énigme connue sous le nom de paradoxe d'Olbers : si l'univers était de taille infinie, statique et rempli d'une distribution uniforme d'étoiles, alors chaque ligne de vue dans le ciel se terminerait sur une étoile, et le ciel serait aussi brillant que la surface d'une étoile. Cependant, le ciel nocturne est en grande partie sombre. [43] [44]

Depuis le 17ème siècle, les astronomes et autres penseurs ont proposé de nombreuses manières possibles de résoudre ce paradoxe, mais la résolution actuellement acceptée dépend en partie de la théorie du Big Bang, et en partie de l'expansion de Hubble : dans un univers qui existe pour une quantité finie du temps, seule la lumière d'un nombre fini d'étoiles a eu le temps de nous atteindre, et le paradoxe est résolu. De plus, dans un univers en expansion, les objets distants s'éloignent de nous, ce qui fait que la lumière qui en émane est décalée vers le rouge et diminue en luminosité au moment où nous la voyons. [43] [44]

Constante de Hubble sans dimension Modifier

Au lieu de travailler avec la constante de Hubble, une pratique courante consiste à introduire la constante de Hubble sans dimension, généralement désigné par h, et d'écrire la constante de Hubble H0 comme h × 100 km s −1 Mpc −1 , toute l'incertitude relative de la vraie valeur de H0 étant ensuite relégué à h. [45] La constante de Hubble sans dimension est souvent utilisée pour donner des distances calculées à partir du redshift z en utilisant la formule c / H0 × z . Depuis H0 n'est pas connue avec précision, la distance est exprimée par :

Autrement dit, on calcule 2998×z et on donne les unités comme Mpc h − 1 >h^<-1>> ou h − 1 Mpc . < ext< Mpc>>.>

Occasionnellement, une valeur de référence autre que 100 peut être choisie, auquel cas un indice est présenté après h pour éviter toute confusion, par ex. h70 désigne H 0 = 70 h 70 =70,h_<70>> km s −1 Mpc −1 , ce qui implique h 70 = h / 0,7 =h/0,7 > .

Cela ne doit pas être confondu avec la valeur sans dimension de la constante de Hubble, généralement exprimée en termes d'unités de Planck, obtenue en multipliant H0 par 1,75 × 10 −63 (à partir des définitions de parsec et tP), par exemple pour H0=70, une version unitaire de Planck de 1,2 × 10 −61 est obtenue.

La valeur de la constante de Hubble est estimée en mesurant le décalage vers le rouge des galaxies lointaines, puis en déterminant leurs distances par une autre méthode que la loi de Hubble. Cette approche fait partie de l'échelle de distance cosmique pour mesurer les distances aux objets extragalactiques. Les incertitudes dans les hypothèses physiques utilisées pour déterminer ces distances ont causé des estimations variables de la constante de Hubble. [2]

Les observations de l'astronome Walter Baade l'ont amené à définir des "populations" distinctes pour les étoiles (Population I et Population II). Les mêmes observations l'ont amené à découvrir qu'il existe deux types d'étoiles variables céphéides. En utilisant cette découverte, il a recalculé la taille de l'univers connu, doublant le calcul précédent effectué par Hubble en 1929. [47] [48] [49] Il a annoncé cette découverte avec un étonnement considérable lors de la réunion de 1952 de l'Union astronomique internationale à Rome.

En octobre 2018, les scientifiques ont présenté une nouvelle troisième voie (deux méthodes antérieures, l'une basée sur les décalages vers le rouge et l'autre sur l'échelle des distances cosmiques, ont donné des résultats qui ne concordent pas), en utilisant des informations provenant d'événements d'ondes gravitationnelles (notamment celles impliquant la fusion , comme GW170817), de déterminer la constante de Hubble. [50] [51]

En juillet 2019, les astronomes ont signalé qu'une nouvelle méthode pour déterminer la constante de Hubble et résoudre l'écart des méthodes antérieures avait été proposée sur la base des fusions de paires d'étoiles à neutrons, suite à la détection de la fusion d'étoiles à neutrons de GW170817, un événement connue sous le nom de sirène noire. [52] [53] Leur mesure de la constante de Hubble est 73,3 + 5,3
-5,0 (km/s)/Mpc. [54]

Toujours en juillet 2019, les astronomes ont signalé une autre nouvelle méthode, utilisant les données du télescope spatial Hubble et basées sur les distances par rapport aux étoiles géantes rouges calculées à l'aide de la pointe de l'indicateur de distance de la branche de la géante rouge (TRGB). Leur mesure de la constante de Hubble est 69,8 +1,9
-1,9 (km/s)/Mpc. [55] [56] [57]

Approches de mesure et de discussion antérieures Modifier

Pendant la majeure partie de la seconde moitié du 20e siècle, la valeur de H 0 > était estimée entre 50 et 90 (km/s)/Mpc .

La valeur de la constante de Hubble a fait l'objet d'une longue et amère controverse entre Gérard de Vaucouleurs, qui affirmait que la valeur était d'environ 100, et Allan Sandage, qui affirmait que la valeur était proche de 50. [58][58] En 1996, un débat modéré par John Bahcall entre Sidney van den Bergh et Gustav Tammann a eu lieu de la même manière que le débat antérieur Shapley-Curtis sur ces deux valeurs concurrentes.

Cette large variance des estimations a été partiellement résolue avec l'introduction du modèle ΛCDM de l'univers à la fin des années 1990. Avec les observations du modèle ΛCDM d'amas à décalage vers le rouge élevé aux longueurs d'onde des rayons X et des micro-ondes en utilisant l'effet Sunyaev-Zel'dovich, les mesures des anisotropies dans le rayonnement de fond cosmique micro-ondes et les relevés optiques ont tous donné une valeur d'environ 70 pour la constante. [ citation requise ]

Des mesures plus récentes de la mission Planck publiées en 2018 indiquent une valeur inférieure de 67,66 ± 0,42 , bien que, encore plus récemment, en mars 2019, une valeur plus élevée de 74,03 ± 1,42 ait été déterminée à l'aide d'une procédure améliorée impliquant le télescope spatial Hubble. [59] Les deux mesures sont en désaccord au niveau de 4,4σ, au-delà d'un niveau de chance plausible. [60] La résolution de ce désaccord est un domaine de recherche en cours. [61]

Voir le tableau des mesures ci-dessous pour de nombreuses mesures récentes et plus anciennes.

Accélération de l'expansion Modifier

Une valeur de q mesurée à partir d'observations de bougies standard de supernovae de type Ia, qui a été déterminée en 1998 comme étant négative, a surpris de nombreux astronomes avec l'implication que l'expansion de l'univers est actuellement "en accélération" [62] (bien que le facteur de Hubble diminue toujours avec le temps, comme mentionné ci-dessus dans la section Interprétation voir les articles sur l'énergie noire et le modèle ΛCDM).

Univers dominé par la matière (avec une constante cosmologique) Modifier

Univers dominé par la matière et l'énergie noire Modifier

Si l'univers est à la fois dominé par la matière et dominé par l'énergie noire, alors l'équation ci-dessus pour le paramètre de Hubble sera également fonction de l'équation d'état de l'énergie noire. Alors maintenant:

Si w est constant, alors

Si l'énergie noire n'a pas d'équation d'état constante w, alors

D'autres ingrédients ont été formulés récemment. [64] [65] [66]

Heure de Hubble Modifier

Ceci est légèrement différent de l'âge de l'univers qui est d'environ 13,8 milliards d'années. Le temps de Hubble est l'âge qu'il aurait eu si l'expansion avait été linéaire, et il est différent de l'âge réel de l'univers car l'expansion n'est pas linéaire, ils sont liés par un facteur sans dimension qui dépend du contenu masse-énergie de l'univers, qui est d'environ 0,96 dans le modèle ΛCDM standard.

Nous semblons actuellement approcher d'une période où l'expansion de l'univers est exponentielle en raison de la dominance croissante de l'énergie du vide. Dans ce régime, le paramètre de Hubble est constant et l'univers croît d'un facteur e à chaque fois Hubble :

De même, la valeur généralement acceptée de 2,27 Es -1 signifie que (au rythme actuel) l'univers augmenterait d'un facteur e 2,27 > en une exaseconde.

Sur de longues périodes de temps, la dynamique est compliquée par la relativité générale, l'énergie noire, l'inflation, etc., comme expliqué ci-dessus.

Longueur de Hubble Modifier

Volume de Hubble Modifier

Plusieurs méthodes ont été utilisées pour déterminer la constante de Hubble. Les mesures de "l'univers tardif" utilisant des techniques d'échelle de distance calibrées ont convergé vers une valeur d'environ 73 km/s/Mpc . Depuis 2000, des techniques du "premier univers" basées sur des mesures du fond diffus cosmologique sont devenues disponibles, et celles-ci s'accordent sur une valeur proche de 67,7 km/s/Mpc . (Ceci explique le changement du taux d'expansion depuis le début de l'univers, il est donc comparable au premier nombre.) Au fur et à mesure que les techniques se sont améliorées, les incertitudes de mesure estimées ont diminué, mais pas la plage des valeurs mesurées, au point que le désaccord est maintenant statistiquement significatif. Cet écart est appelé le Tension de Hubble. [68] [69] [70]

À partir de 2020 [mise à jour] , la cause de l'écart n'est pas comprise. En avril 2019, les astronomes ont signalé d'autres écarts substantiels entre les différentes méthodes de mesure dans les valeurs constantes de Hubble, suggérant peut-être l'existence d'un nouveau domaine de la physique qui n'est actuellement pas bien compris. [60] [71] [72] [73] [74] En novembre 2019, cette tension avait tellement augmenté que certains physiciens comme Joseph Silk en étaient venus à la qualifier de "crise possible pour la cosmologie", car les propriétés observées de l'univers semblent être mutuellement incompatibles. [75] En février 2020, le Megamaser Cosmology Project a publié des résultats indépendants qui ont confirmé les résultats de l'échelle de distance et différaient des résultats de l'univers primitif à un niveau de signification statistique de 95%. [76] En juillet 2020, les mesures du rayonnement de fond cosmique par le télescope cosmologique d'Atacama prédisent que l'Univers devrait s'étendre plus lentement qu'on ne l'observe actuellement. [77]


Titre de la boîte de recherche

En utilisant la puissance et la synergie de deux télescopes spatiaux, les astronomes ont effectué la mesure la plus précise à ce jour du taux d'expansion de l'univers.

Les résultats alimentent davantage le décalage entre les mesures du taux d'expansion de l'univers proche et celles de l'univers primitif lointain – avant même que les étoiles et les galaxies n'existent.

Cette soi-disant « tension » implique qu'il pourrait y avoir une nouvelle physique sous-jacente aux fondations de l'univers. Les possibilités incluent la force d'interaction de la matière noire, l'énergie noire étant encore plus exotique qu'on ne le pensait auparavant, ou une nouvelle particule inconnue dans la tapisserie de l'espace.

En combinant les observations du télescope spatial Hubble de la NASA et de l'observatoire spatial Gaia de l'Agence spatiale européenne (ESA), les astronomes ont encore affiné la valeur précédente de la constante de Hubble, la vitesse à laquelle l'univers s'étend depuis le big bang il y a 13,8 milliards d'années.

Mais à mesure que les mesures sont devenues plus précises, la détermination de la constante de Hubble par l'équipe est devenue de plus en plus en contradiction avec les mesures d'un autre observatoire spatial, la mission Planck de l'ESA, qui propose une valeur prédite différente pour la constante de Hubble.

Planck a cartographié l'univers primitif tel qu'il est apparu seulement 360 000 ans après le big bang. Le ciel entier est imprimé de la signature du big bang codée en micro-ondes. Planck a mesuré la taille des ondulations de ce fond cosmique micro-ondes (CMB) qui ont été produites par de légères irrégularités dans la boule de feu du big bang. Les détails fins de ces ondulations codent la quantité de matière noire et de matière normale, la trajectoire de l'univers à cette époque et d'autres paramètres cosmologiques.

Ces mesures, toujours en cours d'évaluation, permettent aux scientifiques de prédire comment l'univers primitif aurait probablement évolué vers le taux d'expansion que nous pouvons mesurer aujourd'hui. Cependant, ces prédictions ne semblent pas correspondre aux nouvelles mesures de notre univers contemporain proche.

"Avec l'ajout de ces nouvelles données des télescopes spatiaux Gaia et Hubble, nous avons maintenant une sérieuse tension avec les données du fond diffus cosmologique", a déclaré George Efstathiou, membre de l'équipe Planck et analyste principal du Kavli Institute for Cosmology à Cambridge, en Angleterre, qui était pas impliqué dans le nouveau travail.

"La tension semble s'être transformée en une incompatibilité totale entre nos visions de l'univers ancien et avancé", a déclaré le chef d'équipe et lauréat du prix Nobel Adam Riess du Space Telescope Science Institute et de l'Université Johns Hopkins à Baltimore, Maryland. « À ce stade, il ne s'agit clairement pas d'une simple erreur grossière dans une mesure. C'est comme si vous aviez prédit la taille d'un enfant à partir d'une courbe de croissance et que vous trouviez ensuite que l'adulte qu'il deviendrait dépassait largement la prédiction. Nous sommes très perplexes.

En 2005, Riess et les membres des SHOES (Supernova H0 for the Equation of State) a entrepris de mesurer le taux d'expansion de l'univers avec une précision sans précédent. Au cours des années suivantes, en affinant leurs techniques, cette équipe a réduit l'incertitude de la mesure du taux à des niveaux sans précédent. Maintenant, avec la puissance de Hubble et de Gaia combinées, ils ont réduit cette incertitude à seulement 2,2 %.

Parce que la constante de Hubble est nécessaire pour estimer l'âge de l'univers, la réponse longtemps recherchée est l'un des nombres les plus importants de la cosmologie. Il porte le nom de l'astronome Edwin Hubble, qui a découvert il y a près d'un siècle que l'univers s'étendait uniformément dans toutes les directions, une découverte qui a donné naissance à la cosmologie moderne.

Les galaxies semblent s'éloigner de la Terre proportionnellement à leurs distances, ce qui signifie que plus elles sont éloignées, plus elles semblent s'éloigner rapidement. C'est une conséquence de l'expansion de l'espace, et non une valeur de la vitesse spatiale réelle. En mesurant la valeur de la constante de Hubble au fil du temps, les astronomes peuvent construire une image de notre évolution cosmique, déduire la composition de l'univers et découvrir des indices concernant son destin ultime.

Les deux principales méthodes de mesure de ce nombre donnent des résultats incompatibles. Une méthode est directe, en construisant une « échelle de distance » cosmique à partir de mesures d'étoiles dans notre univers local. L'autre méthode utilise le CMB pour mesurer la trajectoire de l'univers peu de temps après le Big Bang, puis utilise la physique pour décrire l'univers et extrapoler au taux d'expansion actuel. Ensemble, les mesures devraient fournir un test de bout en bout de notre compréhension de base du soi-disant «modèle standard» de l'univers. Cependant, les pièces ne collent pas.

En utilisant Hubble et les données récemment publiées de Gaia, l'équipe de Riess a mesuré le taux d'expansion actuel à 73,5 kilomètres (45,6 miles) par seconde par mégaparsec. Cela signifie que pour chaque 3,3 millions d'années-lumière de plus qu'une galaxie se trouve de nous, elle semble se déplacer 73,5 kilomètres par seconde plus rapidement. Cependant, les résultats de Planck prédisent que l'univers devrait s'étendre aujourd'hui à seulement 67,0 kilomètres (41,6 miles) par seconde par mégaparsec. Au fur et à mesure que les mesures des équipes sont devenues de plus en plus précises, le gouffre entre elles n'a cessé de se creuser et représente maintenant environ 4 fois la taille de leur incertitude combinée.

Au fil des ans, l'équipe de Riess a affiné la valeur constante de Hubble en rationalisant et en renforçant «l'échelle de distance cosmique», utilisée pour mesurer des distances précises par rapport aux galaxies proches et lointaines.Ils ont comparé ces distances avec l'expansion de l'espace, mesurée par l'étirement de la lumière des galaxies voisines. En utilisant la vitesse apparente vers l'extérieur à chaque distance, ils ont ensuite calculé la constante de Hubble.

Pour évaluer les distances entre les galaxies proches, son équipe a utilisé un type spécial d'étoiles comme étalons cosmiques ou marqueurs jalons. Ces étoiles pulsantes, appelées variables céphéides, s'éclaircissent et s'assombrissent à des taux qui correspondent à leur luminosité intrinsèque. En comparant leur luminosité intrinsèque à leur luminosité apparente vue de la Terre, les scientifiques peuvent calculer leurs distances.

Gaia a encore affiné cette mesure en mesurant géométriquement la distance à 50 variables céphéides dans la Voie lactée. Ces mesures ont été combinées avec des mesures précises de leurs luminosités de Hubble. Cela a permis aux astronomes de calibrer plus précisément les Céphéides, puis d'utiliser celles observées en dehors de la Voie lactée comme marqueurs jalons.

"Lorsque vous utilisez des Céphéides, vous avez besoin à la fois de distance et de luminosité", a expliqué Riess. Hubble a fourni les informations sur la luminosité et Gaia a fourni les informations de parallaxe nécessaires pour déterminer avec précision les distances. La parallaxe est le changement apparent de la position d'un objet en raison d'un changement du point de vue de l'observateur. Les Grecs de l'Antiquité ont d'abord utilisé cette technique pour mesurer la distance de la Terre à la Lune.

« Hubble est vraiment incroyable en tant qu'observatoire à usage général, mais Gaia est le nouvel étalon-or pour l'étalonnage de la distance. Il est spécialement conçu pour mesurer la parallaxe - c'est pour cela qu'il a été conçu », a ajouté Stefano Casertano du Space Telescope Science Institute et membre de l'équipe SHOES. "Gaia apporte une nouvelle capacité à recalibrer toutes les mesures de distance passées, et cela semble confirmer notre travail précédent. Nous obtenons la même réponse pour la constante de Hubble si nous remplaçons tous les étalonnages précédents de l'échelle de distance par les seules parallaxes de Gaia. C’est un recoupement entre deux observatoires très puissants et précis.

L'objectif de l'équipe de Riess est de travailler avec Gaia pour franchir le seuil d'affinement de la constante de Hubble à une valeur de seulement 1% d'ici le début des années 2020. Pendant ce temps, les astrophysiciens continueront probablement de s'efforcer de revoir leurs idées sur la physique de l'univers primitif.

Les derniers résultats de l'équipe Riess sont publiés dans le numéro du 12 juillet de l'Astrophysical Journal.

Le télescope spatial Hubble est un projet de coopération internationale entre la NASA et l'ESA (Agence spatiale européenne). Le Goddard Space Flight Center de la NASA à Greenbelt, dans le Maryland, gère le télescope. Le Space Telescope Science Institute (STScI) à Baltimore, Maryland, mène des opérations scientifiques Hubble. STScI est exploité pour la NASA par l'Association of Universities for Research in Astronomy, à Washington, D.C.

Crédits:Illustration : NASA, ESA et A. Feild (STScI) Science : NASA, ESA et A. Riess (STScI/JHU)


Discussion : Problème de l'âge cosmique

Ce sont des mots de fouine à voix passive. Ils n'ont pas de citation. Presque n'importe quelle idée est "maintenant crue". Mais qui y croit ? Et comment savez-vous que ces croyants ont raison dans leurs croyances ? Quelqu'un peut-il prouver quelle population de personnes croyant à une croyance doit être crue dans ses croyances ? Quelqu'un a-t-il fait un sondage pour déterminer le pourcentage de la population qui y croit ? Est-ce que demander à 1000 personnes au hasard l'âge de l'univers donnerait des résultats cohérents ? Pour justifier cette affirmation, ce serait clouer de la jello au mur. Je supprime les mots. (EnochBethany (discussion) 05:51, 25 décembre 2014 (UTC))

Je ne pense pas vraiment que vous ayez une longueur d'avance sur vos modifications embarrassantes de l'article. J'ai du mal à vous créditer d'un motif de bonne foi. — Commentaire précédent non signé ajouté par 95.149.92.152 (discussion) 01:13, 3 avril 2015 (UTC)

On dirait que nous, lecteurs, devons choisir entre les personnes qui utilisent des mots de fouine et celles qui font des modifications embarrassantes. Cela devient trop avancé pour moi. --199.90.157.4 (conversation) 12:56, 30 avril 2019 (UTC)

L'âge est un concept comparatif, à quoi comparons-nous exactement toute l'existence ? Il n'est pas mentionné ici. On ne peut certainement pas s'attendre à ce que les lecteurs croient qu'une construction intemporelle a « de l'âge » ? Il est suggéré de reclasser ce problème comme pseudoscience car il échoue au raisonnement de base. Wavyinfinity (discussion) 16:58, 15 avril 2015 (UTC)

Peut-être un bon point. Si vous pouvez trouver une citation dans une source fiable qui en parle, nous pourrions l'inclure dans l'article. Avez-vous lu quelque chose à ce sujet quelque part ? Richard-de-Terre (discussion) 09:23, 16 avril 2015 (UTC) Je pense que vous comprenez mal le problème présenté dans l'article. Il y avait deux mesures : l'âge de l'univers et l'âge de certains objets. Maintenant, parce que ces objets ne peuvent être que plus jeunes que l'univers lui-même (tels qu'ils y ont été formés), on pourrait s'attendre à ce que l'âge mesuré de tous les objets soit inférieur (ou peut-être égal à) celui de l'univers. Cet article concerne le conflit (apparent) où certains objets ont été mesurés comme étant plus anciens que l'univers, ce qui ne devrait pas être possible. Le problème lui-même *pourrait* être résolu en faisant valoir que l'univers est intemporel, comme vous le proposez. Donc le problème posé n'est pas du tout de la pseudo-science, c'est une énigme proprement scientifique. (Notez que je ne dis pas que la solution au problème que vous proposez est scientifique.) De plus, je n'ai pas la moindre idée de ce que vous entendez par "l'âge est un concept comparatif". --DanielPharos (discussion) 17:16, 18 juin 2015 (UTC) J'ai supposé qu'il faisait référence à la dilatation du temps car différentes parties de l'univers physique ont connu différentes quantités de temps. Je n'appellerais pas cela de la pseudoscience, mais c'est une question plus complexe qu'il n'y paraît à première vue. Mais c'est WP:OR sans citation. Richard-de-Terre (discussion) 19h15, 18 juin 2015 (UTC) Bon point. Ajoutez à cela l'expansion qui fait que l'univers observable est plus grand que prévu naïvement (ce n'est pas 13,8 milliards d'années-lumière, mais bien plus grand), et la confusion est totale. :) Mais je pense que nous pouvons tous les deux (tous ?) convenir que ce n'est au moins pas de la pseudo-science en soi. C'est une question/un problème valable qui s'est posé, mais qui a été (complètement ?) résolu comme l'indique l'article. --DanielPharos (discussion) 19:24, 18 juin 2015 (UTC) L'autre chose à laquelle Wavyinfinity pourrait faire référence est l'idée que l'univers est plus grand que le continuum espace-temps dans lequel nous existons et que "l'Univers" pourrait être intemporel ou simplement beaucoup plus vieux que toute la matière physique qui nous entoure. Peut-être y avait-il quelque chose qui existait avant le Big Bang. Il pourrait penser que le temps est circulaire ou beaucoup d'autres choses sur le cosmos. Si tout cela est vrai, la question est invalide ou doit être reformulée. En supposant que la question soit répondue, nous supposons que nous connaissons la nature sous-jacente de l'Univers et ce ne serait qu'une hypothèse, car je ne pense pas que nous puissions en être sûrs. Peu importe, l'étude de la question est une quête scientifique. Même s'il est découvert que la question ne peut pas être résolue ou doit être reformulée, ce serait une contribution au corps humain de la connaissance. Richard-de-Terre (discussion) 05:36, 19 juin 2015 (UTC) Dans ce cas, nous aurions simplement besoin de remplacer "l'âge de l'univers" par "l'âge du Big Bang". Mais avant de mettre des mots dans la bouche de Wavyinfinity, donnons-lui une chance de répondre et d'expliquer sa position plus en détail. --DanielPharos (conférence) 10h00, 20 juin 2015 (UTC)

Au moment où j'ai lu ceci, il y avait un extrait à la fin du dit

Des mesures plus récentes de WMAP et du vaisseau spatial Planck ont ​​établi un très exact âge de l'univers de 13,80 milliards d'années[15] avec seulement 0,3 pour cent

Je soupçonne que le mot exact devrait être changé en précis. Je ne sais pas comment nous pouvons déterminer l'exactitude, car presque toutes les méthodes sont très indirectes et chargées de théorie. Par exemple, bien que des hypothèses telles que l'inflation, l'énergie noire et la matière noire puissent être acceptées (au lieu d'alternatives supérieures), elles sont extrêmement mal comprises et, à l'heure actuelle, sonnent comme une histoire juste pour un étranger. Dpleibovitz (conférence) 01:00, 5 avril 2017 (UTC)


Hubble et Gaia s'associent pour alimenter l'énigme cosmique

En utilisant la puissance et la synergie de deux télescopes spatiaux, les astronomes ont effectué la mesure la plus précise à ce jour du taux d'expansion de l'univers.

Les résultats alimentent davantage le décalage entre les mesures du taux d'expansion de l'univers proche et celles de l'univers lointain et primitif – avant même que les étoiles et les galaxies n'existent.

Cette soi-disant "tension" implique qu'il pourrait y avoir une nouvelle physique sous-jacente aux fondations de l'univers. Les possibilités incluent la force d'interaction de la matière noire, l'énergie noire étant encore plus exotique qu'on ne le pensait auparavant, ou une nouvelle particule inconnue dans la tapisserie de l'espace.

En combinant les observations du télescope spatial Hubble de la NASA et de l'observatoire spatial Gaia de l'Agence spatiale européenne (ESA), les astronomes ont encore affiné la valeur précédente de la constante de Hubble, la vitesse à laquelle l'univers s'étend depuis le big bang il y a 13,8 milliards d'années.

Mais à mesure que les mesures sont devenues plus précises, la détermination de la constante de Hubble par l'équipe est devenue de plus en plus en contradiction avec les mesures d'un autre observatoire spatial, la mission Planck de l'ESA, qui propose une valeur prédite différente pour la constante de Hubble.

Planck a cartographié l'univers primitif tel qu'il est apparu seulement 360 000 ans après le big bang. Le ciel entier est imprimé de la signature du big bang codée en micro-ondes. Planck a mesuré la taille des ondulations de ce fond cosmique micro-ondes (CMB) qui ont été produites par de légères irrégularités dans la boule de feu du big bang. Les détails fins de ces ondulations codent la quantité de matière noire et de matière normale, la trajectoire de l'univers à cette époque et d'autres paramètres cosmologiques.

Ces mesures, toujours en cours d'évaluation, permettent aux scientifiques de prédire comment l'univers primitif aurait probablement évolué vers le taux d'expansion que nous pouvons mesurer aujourd'hui. Cependant, ces prédictions ne semblent pas correspondre aux nouvelles mesures de notre univers contemporain proche.

"Avec l'ajout de ces nouvelles données des télescopes spatiaux Gaia et Hubble, nous avons maintenant une sérieuse tension avec les données du fond diffus cosmologique", a déclaré George Efstathiou, membre de l'équipe Planck et analyste principal du Kavli Institute for Cosmology à Cambridge, en Angleterre, qui était pas impliqué dans le nouveau travail.

"La tension semble s'être transformée en une incompatibilité totale entre nos visions de l'univers ancien et avancé", a déclaré le chef d'équipe et lauréat du prix Nobel Adam Riess du Space Telescope Science Institute et de l'Université Johns Hopkins à Baltimore, Maryland. "À ce stade, il est clair qu'il ne s'agit pas simplement d'une erreur grossière dans une mesure. C'est comme si vous aviez prédit la taille d'un enfant à partir d'une courbe de croissance et que vous découvriez ensuite que l'adulte qu'il est devenu a largement dépassé la prédiction. Nous sommes très perplexes ."

En 2005, Riess et les membres de l'équipe SHOES (Supernova H0 pour l'équation d'État) ont entrepris de mesurer le taux d'expansion de l'univers avec une précision sans précédent. Au cours des années suivantes, en affinant leurs techniques, cette équipe a réduit l'incertitude de la mesure des taux à des niveaux sans précédent. Maintenant, avec la puissance de Hubble et de Gaia combinées, ils ont réduit cette incertitude à seulement 2,2 %.

Parce que la constante de Hubble est nécessaire pour estimer l'âge de l'univers, la réponse longtemps recherchée est l'un des nombres les plus importants de la cosmologie. Il porte le nom de l'astronome Edwin Hubble, qui a découvert il y a près d'un siècle que l'univers s'étendait uniformément dans toutes les directions – une découverte qui a donné naissance à la cosmologie moderne.

Les galaxies semblent s'éloigner de la Terre proportionnellement à leurs distances, ce qui signifie que plus elles sont éloignées, plus elles semblent s'éloigner rapidement. C'est une conséquence de l'expansion de l'espace, et non une valeur de la vitesse spatiale réelle. En mesurant la valeur de la constante de Hubble au fil du temps, les astronomes peuvent construire une image de notre évolution cosmique, déduire la composition de l'univers et découvrir des indices concernant son destin ultime.

Les deux principales méthodes de mesure de ce nombre donnent des résultats incompatibles. Une méthode est directe, en construisant une « échelle de distance » cosmique à partir de mesures d'étoiles dans notre univers local. L'autre méthode utilise le CMB pour mesurer la trajectoire de l'univers peu de temps après le big bang, puis utilise la physique pour décrire l'univers et extrapoler au taux d'expansion actuel. Ensemble, les mesures devraient fournir un test de bout en bout de notre compréhension de base du soi-disant "modèle standard" de l'univers. Cependant, les pièces ne collent pas.

En utilisant Hubble et les données récemment publiées de Gaia, l'équipe de Riess a mesuré le taux d'expansion actuel à 73,5 kilomètres (45,6 miles) par seconde par mégaparsec. Cela signifie que pour chaque 3,3 millions d'années-lumière de plus qu'une galaxie se trouve de nous, elle semble se déplacer 73,5 kilomètres par seconde plus rapidement. Cependant, les résultats de Planck prédisent que l'univers devrait s'étendre aujourd'hui à seulement 67,0 kilomètres (41,6 miles) par seconde par mégaparsec. Au fur et à mesure que les mesures des équipes sont devenues de plus en plus précises, le gouffre entre elles n'a cessé de se creuser et représente maintenant environ quatre fois la taille de leur incertitude combinée.

Au fil des ans, l'équipe de Riess a affiné la valeur constante de Hubble en rationalisant et en renforçant "l'échelle de distance cosmique", utilisée pour mesurer des distances précises par rapport aux galaxies proches et lointaines. Ils ont comparé ces distances avec l'expansion de l'espace, mesurée par l'étirement de la lumière des galaxies voisines. En utilisant la vitesse apparente vers l'extérieur à chaque distance, ils ont ensuite calculé la constante de Hubble.

Pour évaluer les distances entre les galaxies proches, son équipe a utilisé un type spécial d'étoiles comme étalons cosmiques ou marqueurs jalons. Ces étoiles pulsantes, appelées variables Cephied, s'éclaircissent et s'assombrissent à des taux qui correspondent à leur luminosité intrinsèque. En comparant leur luminosité intrinsèque à leur luminosité apparente vue de la Terre, les scientifiques peuvent calculer leurs distances.

Gaia a encore affiné cette mesure en mesurant géométriquement la distance à 50 variables céphéides dans la Voie lactée. Ces mesures ont été combinées avec des mesures précises de leurs luminosités de Hubble. Cela a permis aux astronomes de calibrer plus précisément les Céphéides, puis d'utiliser celles observées en dehors de la Voie lactée comme marqueurs jalons.

"Lorsque vous utilisez des Céphéides, vous avez besoin à la fois de distance et de luminosité", a expliqué Riess. Hubble a fourni les informations sur la luminosité et Gaia a fourni les informations de parallaxe nécessaires pour déterminer avec précision les distances. La parallaxe est le changement apparent de la position d'un objet dû à un changement du point de vue de l'observateur. Les Grecs de l'Antiquité ont d'abord utilisé cette technique pour mesurer la distance de la Terre à la Lune.

"Hubble est vraiment incroyable en tant qu'observatoire polyvalent, mais Gaia est le nouvel étalon-or pour l'étalonnage de la distance. Il est spécialement conçu pour mesurer la parallaxe - c'est pour cela qu'il a été conçu", Stefano Casertano du Space Telescope Science Institut et un membre de l'équipe SHOES ajoutés. "Gaia apporte une nouvelle capacité à recalibrer toutes les mesures de distance passées, et cela semble confirmer notre travail précédent. Nous obtenons la même réponse pour la constante de Hubble si nous remplaçons tous les étalonnages précédents de l'échelle de distance par uniquement les parallaxes Gaia. C'est une vérification croisée entre deux observatoires très puissants et précis."

L'objectif de l'équipe de Riess est de travailler avec Gaia pour franchir le seuil d'affinement de la constante de Hubble à une valeur de seulement un pour cent d'ici le début des années 2020. Pendant ce temps, les astrophysiciens continueront probablement de s'efforcer de revoir leurs idées sur la physique de l'univers primitif.

Les derniers résultats de l'équipe Riess sont publiés dans le numéro du 12 juillet du Journal d'astrophysique.


Création Ex nihilo: Théologie et Science

La doctrine biblique de la création temporelle Ex nihilo a reçu une solide confirmation scientifique de la physique post-relativiste. Deux éléments de preuve indiquent un commencement absolu de l'univers : l'expansion de l'univers et la thermodynamique de l'univers. Dans chaque cas, les tentatives pour maintenir un univers éternel passé sont devenues de plus en plus difficiles à défendre.

Étant donné le début de l'univers, la question se pose de savoir comment l'univers a pu naître. Les tentatives de certains physiciens pour soutenir que la physique peut expliquer l'origine de l'univers à partir de rien soit commercent sur une utilisation équivoque du terme « rien » ou bien sont coupables de faux pas. Création surnaturelle Ex nihilo est la meilleure explication.

&ldquoAu commencement, Dieu créa les cieux et la terre» (Gen. 1.1). Avec une simplicité majestueuse, l'auteur du chapitre d'ouverture de la Genèse différenciait ainsi son point de vue, non seulement des anciens mythes de la création des voisins d'Israël, mais aussi efficacement du panthéisme, tel qu'on le trouve dans des religions comme l'hindouisme vedanta et le taoïsme, du panenthéisme, qu'il s'agisse de néo-platonicienne classique vintage ou théologie du processus du vingtième siècle, et du polythéisme, allant du paganisme antique au mormonisme contemporain. Les auteurs bibliques nous laissent entendre que l'univers avait une origine temporelle et impliquent donc création ex nihilo dans le sens temporel que Dieu a créé l'univers sans cause matérielle à un moment donné dans un passé fini. [1]

De plus, les Pères de l'Église, bien que fortement influencés par la pensée grecque, se sont acharnés sur la doctrine de la création, insistant vigoureusement sur la création temporelle de l'univers Ex nihilo en opposition à la doctrine hellénistique dominante de l'éternité de la matière. [2] Une tradition d'argumentation robuste contre l'éternité passée du monde et en faveur de création ex nihilo, issu du théologien chrétien alexandrin John Philoponus (m. 580 ?), a continué pendant des siècles dans la pensée islamique, juive et chrétienne. [3] En 1215, l'Église catholique a promulgué création ex nihilo comme doctrine officielle de l'église au quatrième concile du Latran, déclarant que Dieu est &ldquoCréateur de toutes choses, visibles et invisibles, . . . qui, par sa toute-puissance, depuis le commencement des temps a créé les deux ordres de la même manière à partir de rien. » [4] Cette déclaration remarquable affirme non seulement que Dieu a tout créé en dehors de lui sans recourir à aucune cause matérielle, mais même ce temps lui-même avait un commencement. La doctrine de la création est donc intrinsèquement liée à des considérations temporelles et implique que Dieu a créé l'univers à un moment donné dans le passé sans aucune cause matérielle antécédente ou contemporaine.

Cosmologie contemporaine et création Ex nihilo

Dans cet article, nous laissons de côté les fascinantes questions philosophiques soulevées par la doctrine de la création Ex nihilo, que j'ai cherché à aborder ailleurs [5] , afin de mettre l'accent sur la pertinence de la science contemporaine, en particulier, l'astrophysique et, encore plus spécifiquement, la cosmogonie physique, à la création Ex nihilo. Deux lignes de preuves matérielles indépendantes mais étroitement liées sont pertinentes pour la doctrine de la création Ex nihilo: preuve de l'expansion de l'univers et preuves de la thermodynamique de l'univers.

L'expansion de l'univers

Dans la physique aristotélicienne, la matière première, dont toutes les substances physiques sont composées, est, comme Dieu lui-même, éternelle et incréée. Il sous-tend le processus éternel de génération et de corruption subi par les choses dans le royaume sublunaire. Dans sa structure à grande échelle, l'univers est resté inchangé de toute éternité.

Même avec la disparition de la physique aristotélicienne dans la révolution scientifique achevée par Isaac Newton, l'hypothèse d'un univers statique est restée incontestée. Bien que Newton lui-même croyait que Dieu avait créé le monde, l'univers décrit par sa physique était selon toutes les apparences éternel. L'hypothèse selon laquelle l'univers n'a jamais été créé n'a été renforcée que par la déclaration d'Hermann Helmholtz au XIXe siècle sur les lois de la conservation de la matière et de l'énergie. Puisque la matière et l'énergie ne peuvent être ni créées ni détruites, il doit y avoir toujours eu et il y aura toujours un univers, c'est-à-dire que l'univers est temporellement infini dans le passé et le futur.

Certes, il y avait déjà des indices dans la physique pré-relativiste&ndash comme Olbers&rsquos Paradox de pourquoi le ciel nocturne est sombre plutôt qu'enflammé de lumière si une infinité d'étoiles a existé depuis l'éternité, ou comme la deuxième loi de la thermodynamique, qui semblait impliquer que l'univers, s'il existe depuis l'éternité, devrait être moribond dans un état d'équilibre et qu'il y avait quelque chose qui n'allait pas avec l'hypothèse dominante d'un cosmos éternel et statique. Mais ces soucis insignifiants ne pouvaient pas renverser ce qui était partout tenu pour acquis : que l'univers dans son ensemble a existé et existera inchangé pour toujours.

La révolution opérée par la relativité générale

Les tremblements du tremblement de terre imminent qui démolirait l'ancienne cosmologie ont été ressentis pour la première fois en 1917, lorsqu'Albert Einstein a fait une application cosmologique de sa théorie gravitationnelle nouvellement découverte, la théorie de la relativité générale (ci-après, GR). [6] Einstein a supposé que l'univers est homogène et isotrope et qu'il existe dans un état stationnaire, avec une densité de masse moyenne constante et une courbure constante de l'espace. À son grand regret, cependant, il découvrit que GR ne permettrait pas un tel modèle de l'univers à moins qu'il n'introduise dans ses équations de champ gravitationnel un certain "facteur d'ajustement" L afin de contrebalancer l'effet gravitationnel de la matière et ainsi assurer un univers statique. L'univers statique d'Einstein était équilibré sur un fil de rasoir, cependant, et la moindre perturbation, même le transport de matière d'une partie de l'univers à une autre, provoquerait l'implosion ou l'expansion de l'univers. En prenant au sérieux cette caractéristique du modèle d'Einstein, le mathématicien russe Alexander Friedman et l'astronome belge Georges Lemaître ont pu formuler indépendamment dans les années 1920 des solutions aux équations de champ qui prédisaient un univers en expansion. [7]

L'importance monumentale du modèle Friedman-Lemaître résidait dans son historisation de l'univers. Comme l'a remarqué un commentateur, jusqu'à présent l'idée de l'expansion de l'univers était absolument incompréhensible. Tout au long de l'histoire de l'humanité, l'univers a été considéré comme fixe et immuable et l'idée qu'il pourrait réellement changer était inconcevable ». entité existante, en effet, intemporelle. L'univers a plutôt une histoire, et le temps ne sera pas indifférent à notre enquête sur le cosmos.

En 1929, l'astronome américain Edwin Hubble mesurait le décalage vers le rouge dans les spectres optiques de la lumière provenant de galaxies lointaines, [9] qui était considéré comme indiquant un mouvement de récession universel des sources lumineuses dans la ligne de visée, a fourni une vérification spectaculaire de le modèle Friedman-Lema&icirtre. Incroyablement, ce qu'Hubble avait découvert était l'expansion isotrope de l'univers prédite par Friedman et Lemaître sur la base d'Einstein&rsquos GR. Ce fut un véritable tournant dans l'histoire des sciences. "De toutes les grandes prédictions que la science ait jamais faites au cours des siècles", s'exclame John Wheeler, "en a-t-il jamais eu une plus grande que celle-ci, pour prédire, et prédire correctement, et prédire contre toute attente un phénomène aussi fantastique que l'expansion de l'univers ? & rdquo [10]

Le modèle standard du Big Bang

Selon le modèle de Friedman-Lemaître, au fur et à mesure que le temps avance, les distances séparant les masses galactiques s'accroissent. Il est important de comprendre qu'en tant que théorie basée sur la RG, le modèle ne décrit pas l'expansion du contenu matériel de l'univers dans un espace newtonien vide préexistant, mais plutôt l'expansion de l'espace lui-même. Les particules idéales du fluide cosmologique constitué par la matière et l'énergie de l'univers sont conçues pour être au repos par rapport à l'espace mais pour s'éloigner progressivement les unes des autres à mesure que l'espace lui-même s'étend ou s'étire, tout comme les boutons collés à la surface d'un ballon s'éloigneraient l'un de l'autre au fur et à mesure que le ballon se gonflait. Au fur et à mesure que l'univers s'étend, il devient de moins en moins dense. Cela a l'implication étonnante qu'à mesure que l'on inverse l'expansion et que l'on extrapole dans le temps, l'univers devient progressivement plus dense jusqu'à ce que l'on arrive à un état de densité infinie à un moment donné dans le passé fini. Cet état représente une singularité à laquelle la courbure de l'espace-temps, ainsi que la température, la pression et la densité, deviennent infinies. Il constitue donc un bord ou une frontière à l'espace-temps lui-même. Commentaires de P.C.W. Davies,

Si nous extrapolons cette prédiction à son extrême, nous atteignons un point où toutes les distances dans l'univers ont été réduites à zéro. Une singularité cosmologique initiale forme donc une extrémité temporelle passée de l'univers. On ne peut pas continuer le raisonnement physique, ou même le concept d'espace-temps, à travers une telle extrémité. Pour cette raison, la plupart des cosmologistes considèrent la singularité initiale comme le début de l'univers. De ce point de vue, le big bang représente l'événement de création, la création non seulement de toute la matière et de l'énergie de l'univers, mais aussi de l'espace-temps lui-même. [11]

Le terme « Big Bang », à l'origine une expression dérisoire inventée par Fred Hoyle pour caractériser le début de l'univers prédit par le modèle de Friedman-Lema«, est donc potentiellement trompeur, puisque l'expansion ne peut pas être visualisée de l'extérieur (il n'y a pas de « l'extérieur » de même qu'il n'y a pas d'&ldquobefore&rdquo par rapport au Big Bang).

Le modèle standard du Big Bang, comme le modèle Friedman-Lemaître en est venu à être appelé, décrit ainsi un univers qui n'est pas éternel dans le passé, mais qui a vu le jour il y a un temps fini. De plus, &ndashand cela mérite d'être souligné&ndashl'origine qu'il pose est une origine absolue Ex nihilo. Car non seulement toute matière et énergie, mais l'espace et le temps eux-mêmes naissent à la singularité cosmologique initiale. Comme le soulignent John Barrow et Frank Tipler, &ldquoA cette singularité, l'espace et le temps sont venus à exister littéralement, rien n'existait avant la singularité, donc, si l'Univers provenait d'une telle singularité, nous aurions vraiment une création Ex nihilo.&rdquo [12] Sur le modèle standard, l'univers est originaire Ex nihilo en ce sens qu'à la singularité initiale il est vrai que Il n'y a pas de point d'espace-temps antérieur ou c'est faux que Quelque chose existait avant la singularité.

Bien que les progrès de la cosmologie astrophysique aient forcé diverses révisions du modèle standard [13] , rien n'a remis en cause sa prédiction fondamentale de la finitude du passé et du début de l'univers. En effet, comme l'a montré James Sinclair, l'histoire de la cosmogonie du 20e siècle a vu défiler des théories ratées essayant d'éviter le commencement absolu prédit par le modèle standard. [14] Ces modèles sans commencement ont été montrés à plusieurs reprises comme étant physiquement intenables ou comme impliquant le tout début de l'univers qu'ils cherchaient à éviter. Pendant ce temps, une série de théorèmes de singularité remarquables a de plus en plus resserré la boucle autour de modèles cosmogoniques empiriquement tenables en montrant que dans des conditions de plus en plus généralisées, un début est inévitable. En 2003, Arvind Borde, Alan Guth et Alexander Vilenkin ont pu montrer que tout univers qui est, en moyenne, dans un état d'expansion cosmique tout au long de son histoire ne peut pas être infini dans le passé mais doit avoir un commencement. [15] En 2012, Vilenkin a montré que les modèles cosmogoniques qui ne relèvent pas de cette seule condition échouent pour d'autres raisons à éviter le début de l'univers. Vilenkin a conclu, &ldquoIl n'y a pas de modèles à l'heure actuelle qui fournissent un modèle satisfaisant pour un univers sans commencement.&rdquo [16] Dans un article du journal en ligne Inférence publié à l'automne 2015, Vilenkin a renforcé cette conclusion : &ldquoNous n'avons pas de modèles viables d'un univers éternel. Le théorème BGV donne des raisons de croire que de tels modèles ne peuvent tout simplement pas être construits. » [17]

Le cosmologue Sean Carroll, dans un effort pour subvertir les implications du théorème de Borde-Guth-Vilenkin, a récemment cité des remarques communiquées en privé par Alan Guth selon lesquelles « je ne sais pas » si l'univers a eu un commencement. Je soupçonne que l'univers n&rsquot avoir un début. C'est très probablement éternel, mais personne ne le sait. » [18] Carroll demande à juste titre, « maintenant, comment diable l'auteur du théorème de Borde-Guth-Vilenkin peut-il dire que l'univers est probablement éternel ? » [19] Plus justement, comment l'un des ses auteurs disent qu'il est probablement éternel et l'autre qu'il ne l'est probablement pas ? Carroll a assuré à son auditoire que la raison en est que « le théorème ne concerne que les descriptions classiques de l'univers, pas l'univers lui-même ». [20] Cela n'expliquerait cependant pas comment Vilenkin pourrait se tromper si désespérément sur les implications du théorème. Mais maintenant, une lumière nouvelle a été jetée sur les remarques énigmatiques de Guthôr grâce à une correspondance avec le philosophe Daniel Came. [21] Là, Guth révèle qu'il favorise les modèles de l'univers comportant une flèche d'inversion du temps à un moment donné dans le passé et que ses remarques à Carroll faisaient référence à de tels modèles. De tels modèles ne relèvent pas du théorème BGV car ils ne satisfont pas à la seule condition de ce théorème, que l'univers est, en moyenne, dans un état d'expansion cosmique tout au long de son histoire. Ainsi, ni Guth ni Vilenkin ne se trompent sur les implications du théorème, mais Guth ne fait que préconiser un modèle auquel le théorème ne s'applique pas. Malheureusement pour les espoirs d'un univers éternel comme Guth et Carroll, de tels modèles d'inversion du temps sont hautement non physiques et, même s'ils réussissent, n'évitent pas en fait le début de l'univers mais l'impliquent plutôt. [22] Car l'expansion inversée dans le temps n'est en aucun cas dans notre passé mais représente un univers partageant le même point de départ mais s'étendant dans une autre direction. Vilenkin avait déjà envisagé de tels modèles dans ses discussions précédentes et les avait rejetés. C'est pourquoi il a dit, &ldquoToutes les preuves que nous avons disent que l'univers a eu un commencement.» [23]

Le théorème de Borde-Guth-Vilenkin prouve que l'espace-temps classique, sous une seule condition très générale, ne peut pas être étendu à l'infini passé mais doit atteindre une frontière à un moment donné dans le passé fini. Soit il y avait quelque chose de l'autre côté de cette frontière, soit pas. Sinon, alors cette frontière est le début de l'univers. S'il y avait quelque chose de l'autre côté, alors ce serait une région non classique décrite par la théorie encore à découvrir de la gravité quantique. Dans ce cas, dit Vilenkin, il sera le commencement de l'univers. [24]

Considérons : s'il existe une telle région non classique, alors elle n'est pas éternelle au sens classique du terme. Mais il ne semble pas non plus exister littéralement de manière intemporelle, semblable à la manière dont les philosophes considèrent les objets abstraits comme intemporels ou les théologiens considèrent que Dieu est intemporel. Car il est censé avoir existé avant que l'ère classique, et l'ère classique est censée avoir a émergé d'elle, qui semble poser une relation temporelle entre l'ère de la gravité quantique et l'ère classique. [25] Dans tous les cas, un tel état quantique n'est pas stable et produirait donc soit l'univers de l'éternité passée, soit pas du tout. Comme Anthony Aguirre et John Kehayias le soutiennent,

il est très difficile de concevoir un système &ndash surtout un quantique &ndash qui ne fait rien &lsquoforever&rsquo, puis évolue. Un état quantique véritablement stationnaire ou périodique, qui durerait éternellement, n'évoluerait jamais, alors qu'un état présentant une quelconque instabilité ne durera pas indéfiniment. [26]

Par conséquent, l'ère de la gravité quantique aurait elle-même dû avoir un début pour expliquer pourquoi elle est passée il y a à peine 14 milliards d'années dans le temps et l'espace classiques. Ainsi, que ce soit à la frontière ou au régime de gravité quantique, l'univers a commencé à exister.

La thermodynamique de l'univers

Si cela ne suffisait pas, il existe une deuxième ligne de preuves scientifiques pour le début de l'univers basée sur les lois de la thermodynamique. Selon la deuxième loi de la thermodynamique, les processus qui se déroulent dans un système fermé tendent toujours vers un état d'équilibre. Or, notre intérêt pour la loi est ce qui se passe lorsqu'elle est appliquée à l'univers dans son ensemble. L'univers est, d'un point de vue naturaliste, un gigantesque système fermé, puisqu'il est tout ce qu'il y a et qu'il n'y a rien en dehors de lui. Ce que cela semble impliquer alors, c'est que, avec suffisamment de temps, l'univers et tous ses processus s'épuiseront, et l'univers entier parviendra à l'équilibre. C'est ce qu'on appelle la mort thermique de l'univers. Une fois que l'univers atteint cet état, aucun autre changement n'est possible. L'univers est mort.

Maintenant, la question que cette implication de la Deuxième Loi nous impose inévitablement est la suivante : Si, avec suffisamment de temps, l'univers atteindra la mort thermique, alors pourquoi n'est-il pas dans un état de mort thermique maintenant, s'il existe depuis toujours, depuis l'éternité ? Si l'univers n'avait pas commencé à exister, alors il devrait maintenant être dans un état d'équilibre. Comme une horloge qui tourne, il devrait maintenant être épuisé. Puisqu'il ne s'est pas encore épuisé, cela implique, selon les mots d'un scientifique déconcerté, &ldquoD'une certaine manière, l'univers doit avoir été liquidé.& rdquo [27]

Comme mentionné plus tôt, les physiciens du XIXe siècle étaient déjà conscients de cette énigme. Le scientifique allemand Ludwig Boltzmann a proposé une proposition audacieuse afin d'expliquer pourquoi nous ne trouvons pas l'univers dans un état de "mort thermique" ou d'équilibre thermodynamique. [28] Boltzmann a émis l'hypothèse que l'univers dans son ensemble Est-ce que, en fait, existent dans un état d'équilibre, mais qu'au fil du temps des fluctuations du niveau d'énergie se produisent ici et là dans tout l'univers, de sorte que par hasard il y aura des régions isolées où existe un déséquilibre. Boltzmann appelait ces régions isolées des "mondes". Il ne faut pas s'étonner de voir notre monde dans un état de déséquilibre hautement improbable, affirmait-il, puisque dans l'ensemble de tous les mondes il doit exister par hasard certains mondes en déséquilibre, et le nôtre juste se trouve être l'un d'entre eux.

Le problème avec Boltzmann qui ose l'hypothèse de nombreux mondes est que si notre monde n'était qu'une fluctuation dans une mer d'énergie diffuse, alors il est extrêmement probable que nous observions une région de déséquilibre beaucoup plus petite que nous ne le faisons. Pour que nous existions, une plus petite fluctuation, même celle qui a produit notre monde instantanément par un énorme accident, est inestimablement plus probable qu'un déclin progressif de l'entropie sur 14 milliards d'années pour façonner le monde que nous voyons. En fait, l'hypothèse de Boltzmann, si elle était adoptée, nous obligerait à considérer le passé comme illusoire, tout ayant la simple apparence de l'âge, et les étoiles et les planètes comme illusoires, de simples "images" pour ainsi dire, puisque ce genre de monde est beaucoup plus probable. étant donné un état d'équilibre global qu'un monde avec des événements réels, temporellement et spatialement distants. Par conséquent, l'hypothèse des mondes multiples de Boltzmann a été universellement rejetée par la communauté scientifique, et le déséquilibre actuel est généralement considéré comme étant simplement le résultat de la condition initiale de faible entropie obtenue mystérieusement au début de l'univers.

Physique Relativiste Générale

Aujourd'hui, l'eschatologie n'est plus simplement une branche de la théologie, elle est devenue un domaine de la cosmologie. De même que la cosmogonie étudie l'origine de l'univers, l'eschatologie physique étudie sa fin. Dans l'eschatologie cosmologique contemporaine, il existe deux types possibles de mort thermique pour l'univers. Si l'univers finira par se rétracter, il mourra d'une mort &ldquohot&rdquo. Beatrice Tinsley décrit un tel état :

Si la densité moyenne de matière dans l'univers est suffisamment grande, l'attraction gravitationnelle mutuelle entre les corps finira par ralentir l'expansion jusqu'à l'arrêt. L'univers se contractera alors et s'effondrera en une boule de feu brûlante. Il n'y a aucun mécanisme physique connu qui pourrait inverser une crise catastrophique. Apparemment, si l'univers devient suffisamment dense, c'est une mort brûlante. [29]

Si l'univers est voué à une nouvelle contraction, alors qu'il se contracte, les étoiles acquièrent de l'énergie, les faisant brûler plus rapidement pour finalement exploser ou s'évaporer. Au fur et à mesure que tout dans l'univers se rapproche, les trous noirs commencent à engloutir tout ce qui les entoure et finissent par se fusionner. Avec le temps, &ldquoTous les trous noirs se fondent finalement en un seul grand trou noir coextensif avec l'univers &rdquo [30] dont l'univers ne réémergera jamais.

Mais supposons, comme il est plus probable, que l'univers s'étendra pour toujours. Tinsley décrit le destin de cet univers :

Si l'univers a une faible densité, sa mort sera froide. Il s'étendra pour toujours à un rythme de plus en plus lent. Les galaxies transformeront tout leur gaz en étoiles, et les étoiles s'éteindront. Notre propre soleil deviendra un reste froid et mort, flottant parmi les cadavres d'autres étoiles dans une Voie lactée de plus en plus isolée. [31]

À 10 30 ans, l'univers sera composé à 90 % d'étoiles mortes, à 9 % de trous noirs supermassifs formés par l'effondrement des galaxies et à 1 % de matière atomique, principalement de l'hydrogène. La physique des particules élémentaires suggère qu'ensuite les protons se désintégreront en électrons et positrons, de sorte que l'espace sera rempli d'un gaz raréfié si mince que la distance entre un électron et un positon sera à peu près de la taille de la galaxie actuelle. A 10 100 ans, certains scientifiques pensent que les trous noirs eux-mêmes se dissiperont par un effet étrange prédit par la mécanique quantique. La masse et l'énergie associées à un trou noir déforment tellement l'espace qu'elles sont censées créer un &ldquotunnel&rdquo ou &ldquoworm‑hole&rdquo à travers lequel la masse et l'énergie sont éjectées dans une autre région de l'espace. Au fur et à mesure que la masse d'un trou noir diminue, sa perte d'énergie s'accélère, de sorte qu'il finit par se dissiper en rayonnement et en particules élémentaires. Finalement, tous les trous noirs s'évaporeront complètement et toute la matière de l'univers en constante expansion sera réduite à un mince gaz de particules élémentaires et de rayonnement. Parce que le volume de l'espace augmente constamment, l'univers n'atteindra jamais réellement l'équilibre, car il y a toujours plus de place pour la production d'entropie. Néanmoins, l'univers deviendra de plus en plus froid, sombre, dilué et mort.

Des découvertes récentes fournissent des preuves solides qu'il existe effectivement une constante cosmologique positive qui provoque l'accélération de l'expansion cosmique plutôt que sa décélération. Paradoxalement, étant donné que le volume de l'espace augmente de façon exponentielle, laissant plus de place à la production d'entropie, l'univers s'éloigne de plus en plus d'un état d'équilibre au fil du temps. Mais l'accélération ne fait qu'accélérer la désintégration du cosmos en plaques matérielles de plus en plus isolées qui ne sont plus causalement liées aux restes pareillement abandonnés de l'univers en expansion. Chacune de ces plaques est confrontée à son tour à une extinction thermodynamique. Par conséquent, le sombre avenir prédit sur la base de la deuxième loi reste fondamentalement inchangé.

Ainsi, la même question pointue soulevée par la physique classique persiste : pourquoi, si l'univers existe depuis toujours, n'est-il pas maintenant dans un état froid, sombre, dilué et sans vie ? Contrairement à leurs ancêtres du XIXe siècle, les physiciens contemporains en sont venus à remettre en question l'hypothèse implicite selon laquelle l'univers est passé éternel. Davies, un expert en physique des processus temporellement asymétriques, rapporte,

Aujourd'hui, peu de cosmologistes doutent que l'univers, du moins tel que nous le connaissons, ait eu une origine à un moment fini du passé. L'alternative&mdash que l'univers a toujours existé sous une forme ou une autre&mdash se heurte à un paradoxe assez basique. Le soleil et les étoiles ne peuvent pas continuer à brûler éternellement : tôt ou tard, ils manqueront de carburant et mourront.

Il en va de même pour tous les processus physiques irréversibles, le stock d'énergie disponible dans l'univers pour les conduire est fini et ne peut durer éternellement. C'est un exemple de la soi-disant deuxième loi de la thermodynamique, qui, appliquée à l'ensemble du cosmos, prédit qu'il est bloqué sur une glissière à sens unique de dégénérescence et de désintégration vers un état final d'entropie maximale, ou de désordre. Comme cet état final n'est pas encore atteint, il s'ensuit que l'univers ne peut avoir existé pendant un temps infini. [32]

Davies conclut, &ldquoL'univers peut &rsquot avoir existé pour toujours. Nous savons qu'il doit y avoir eu un commencement absolu il y a un temps fini.»

La théorie de l'inflation a été exploitée par certains théoriciens dans une tentative de relancer l'explication de Boltzmann sur la raison pour laquelle nous nous trouvons dans un univers thermodynamiquement capable de soutenir des observateurs. Selon la théorie générique de l'inflation, notre univers existe dans un véritable état de vide avec une densité d'énergie proche de zéro mais auparavant, il existait dans un faux état de vide avec une densité d'énergie très élevée. Si nous émettons l'hypothèse que les conditions déterminant la densité d'énergie et l'évolution de l'état de faux vide étaient justes, alors le faux vide s'étendra si rapidement que, alors qu'il se désintègre en bulles de vrai vide, les "univers à bulles" se sont formés dans cette mer de faux vide , bien qu'ils s'étendent eux-mêmes à des taux énormes, ne pourront pas suivre l'expansion du faux vide et se trouveront ainsi de plus en plus séparés avec le temps.

De plus, chaque bulle est subdivisée en domaines délimités par des horizons d'événements, chaque domaine constituant un univers observable. Les observateurs internes à un tel univers observeront qu'il est ouvert et infini, même si extérieurement l'univers bulle est fini et géométriquement fermé. Malgré le fait que le multivers soit lui-même fini et géométriquement fermé, le faux vide, selon la théorie, continuera à s'étendre pour toujours. De nouvelles bulles de vrai vide continueront à se former dans les interstices entre les univers bulles et deviendront elles-mêmes des mondes isolés. La question alors, selon les mots de Dyson, Kleban et Susskind, est « si l'univers peut être une fluctuation naturelle, ou doit-il être dû à un agent externe qui démarre le système dans un état de faible entropie spécifique ? » [33 ]

La solution proposée au problème est essentiellement la même que celle de Boltzmann&rsquos. Parmi l'infinité de mondes générés par l'inflation, il y aura des mondes en état de déséquilibre thermodynamique, et seuls de tels mondes pourront supporter les observateurs. Il n'est donc pas surprenant que nous trouvions le monde en état de déséquilibre, puisque c'est le seul genre de monde que nous ayons pu observer.

Mais alors la solution proposée est entachée du même échec que l'hypothèse de Boltzmann. Dans un multivers où le vide gonfle éternellement, la majeure partie du volume sera occupée par des états désordonnés à entropie élevée, incapables de supporter des observateurs. Les états observables peuvent exister de deux manières : premièrement, en faisant partie d'un monde relativement jeune et à faible entropie, ou, deuxièmement, en étant une fluctuation thermique dans un monde à entropie élevée. Même si de jeunes univers sont constamment en train de nucléer hors du faux vide, leurs volumes seront petits par rapport aux bulles plus anciennes. Les états désordonnés seront donc en moyenne fortement prédominants. Cela implique que les observateurs sont beaucoup plus susceptibles d'être le résultat de fluctuations thermiques que le résultat de conditions jeunes et de faible entropie.

Mais alors l'objection se pose encore une fois qu'il est incompréhensiblement plus probable qu'une région de déséquilibre beaucoup plus petite se produise via une fluctuation qu'une région aussi grande que notre univers observable. Roger Penrose calcule que les chances que notre univers ait une condition initiale de faible entropie à exister sont de l'ordre d'une partie sur 10 (123) . [34] Il commente, &ldquoJe ne me souviens même pas avoir vu autre chose en physique dont la précision est connue pour approcher, même à distance, un chiffre comme une partie sur 10 10 (123) .&rdquo [35] En revanche, les chances de notre système solaire&rsquos étant formé instantanément par des collisions aléatoires de particules est d'environ 1:10 10 (60) , un grand nombre, mais inconcevablement plus petit que 10 10 (123) . (Penrose l'appelle « aliments pour poulets » par comparaison. [36] ) Ainsi, dans le multivers des mondes, les états observables impliquant une telle condition initiale de faible entropie seront une fraction incompréhensiblement infime de tous les états observables qui existent. Si nous ne sommes qu'un membre aléatoire d'un ensemble de mondes, nous devrions donc observer un plus petit patch d'ordre.

Adopter l'hypothèse du multivers pour expliquer nos observations ordonnées conduirait donc une fois de plus à une étrange sorte d'illusionnisme. Il serait extrêmement probable qu'il n'y ait vraiment pas un vaste univers ordonné là-bas, malgré nos observations, ce n'est qu'une illusion. En effet, l'état le plus probable qui est adéquat pour soutenir nos observations ordonnées est un &ldquounivers» encore plus petit consistant en un seul cerveau qui apparaît hors du désordre via une fluctuation thermique. Selon toute probabilité, vous seul existez donc, et même votre corps physique est illusoire ! Certains cosmologues ont, dans un langage mélodramatique rappelant les films d'horreur de grade B des années 1950, surnommé ce problème « l'invasion des cerveaux de Boltzmann ». [37] Les cerveaux de Boltzmann sont beaucoup plus nombreux dans l'ensemble des univers que les observateurs ordinaires, et, par conséquent, , chacun de nous devrait penser qu'il est lui-même un cerveau de Boltzmann s'il croit que l'univers n'est qu'un membre d'un ensemble de mondes. Puisque cela semble fou, ce fait infirme fortement l'hypothèse selon laquelle il existe un multivers assez ancien et assez grand pour avoir développé un volume suffisant pour expliquer notre condition de faible entropie apparaissant par hasard. Ces problèmes et d'autres rendent la solution du multivers moins plausible que la solution standard selon laquelle l'univers a commencé à exister avec une condition initiale de faible entropie.

Ceux qui préfèrent un univers sans commencement pourraient espérer que la cosmologie quantique pourrait servir à éviter les implications de la deuxième loi de la thermodynamique. Mais maintenant, un nouveau théorème de singularité formulé par Aron Wall semble fermer la porte à cette possibilité. Wall montre que, étant donné la validité de la deuxième loi généralisée de la thermodynamique en cosmologie quantique, l'univers doit avoir commencé à exister, à moins que, avec Guth, on postule un renversement de la flèche du temps à un moment donné dans le passé, qui, Wall l'observe à juste titre, implique un commencement thermodynamique dans le temps qui « semblerait soulever le même genre de questions philosophiques que n'importe quel autre genre de commencement dans le temps ». [38] Wall rapporte que ses résultats ne nécessitent que certains concepts de base, de sorte que « tout est raisonnable ». croire que les résultats tiendront dans une théorie complète de la gravité quantique. » [39]

Ainsi, nous avons de bonnes preuves à la fois de l'expansion de l'univers et de la deuxième loi de la thermodynamique que l'univers n'est pas éternel passé mais a eu un commencement temporel.

Davies soulève l'inévitable question :

&lsquoQu'est-ce qui a causé le big bang ?&rsquo . . . On pourrait considérer une force surnaturelle, une agence au-delà de l'espace et du temps comme étant responsable du big bang, ou on pourrait préférer considérer le big bang comme un événement sans cause. Il me semble que nous n'avons pas trop le choix. Soit . . . quelque chose en dehors du monde physique. . . ou alors . . . un événement sans cause. [40]

Il peut sembler métaphysiquement absurde que l'univers puisse exister sans cause et donc une agence surnaturelle doit être préférée. Mais certains scientifiques ont soutenu que la physique quantique peut expliquer l'origine de l'univers à partir de rien.

Malheureusement, certains de ces scientifiques ont une compréhension outrageusement naïve du langage. Le mot « rien » est un terme de négation universelle. Cela signifie "rien du tout". Ainsi, par exemple, si je dis, " je n'ai rien eu à déjeuner aujourd'hui ", je veux dire, " je n'ai rien eu à déjeuner aujourd'hui ". Si vous lisez un récit de la Seconde Guerre mondiale dans lequel il est dit que &ldquoRien n'a empêché l'avancée allemande de déferler sur la Belgique»,» cela signifie que l'avancée allemande n'a été arrêtée par rien. Si un théologien vous dit que Dieu a créé l'univers à partir de rien, il veut dire que Dieu a créé l'univers à partir de rien. Le mot « rien », à répéter, est simplement un terme de négation universelle, signifiant « rien de rien ».

Il existe toute une série de mots similaires de négation universelle en anglais : &ldquonobody&rdquo signifie pas n'importe qui. &ldquoNone&rdquo signifie pas un. &ldquoNowhere&rdquo signifie nulle part. &ldquoAucun endroit&rdquo signifie pas dans n'importe quel endroit.

Maintenant, parce que le mot &ldquonothing&rdquo est grammaticalement un pronom, nous pouvons l'utiliser comme sujet ou objet direct d'une phrase. En prenant ces mots, non pas comme des termes de négation universelle, mais comme des mots se référant à quelque chose, on peut générer toutes sortes de situations amusantes. Si vous dites, &ldquo je n'ai vu personne dans le hall», répond le sage, &ldquoOuais, il a beaucoup traîné là ces derniers temps.» Si vous dites, &ldquo je n'ai rien eu à déjeuner aujourd'hui,» dit-il, &ldquoVraiment ? Quel goût avait-il ?»

Ces sortes de jeux de mots sont aussi vieilles que la littérature elle-même. Dans Homer&rsquos Odyssée, Ulysse se présente au Cyclope comme &ldquoNo man&rdquo ou &ldquoNobody.&rdquo Une nuit, Ulysse éteint l'œil du Cyclope&rsquo. Ses compagnons cyclopes l'entendent crier et lui crier "Qu'est-ce qui vous arrive, faisant tant de bruit que nous pouvons dormir" ? Le Cyclope répond : "Personne ne me tue ! Personne ne me tue !» Ils répondent, &ldquo Si personne ne vous attaque, alors vous devez être malade, et on n'y peut rien !» Dans la version Euripide&rsquo de l'histoire, il compose une sorte d'Abbott et Costello &ldquoQui&rsquo en premier ? &rdquo routine :

&ldquoPourquoi cries-tu, Cyclope ?&rdquo
&ldquoPersonne ne m'a défait !&rdquo
&ldquoAlors personne ne vous fait de mal après tout.&rdquo
&ldquoPersonne ne m'aveugle !&rdquo
&ldquoAlors vous&rsquo n'êtes pas aveugle.&rdquo
&ldquoAussi aveugle que toi !&rdquo
&ldquoComment personne n'aurait-il pu vous rendre aveugle ?&rdquo
&ldquoVous vous moquez de moi ! Mais où est ce Personne ?»
&ldquo Nulle part, Cyclope !&rdquo

L'utilisation de ces mots de négation comme &ldquonothing,&rdquo &ldquonobody,&rdquo et &ldquono one&rdquo comme mots substantifs faisant référence à quelque chose est une blague.

Comme il est donc étonnant de constater que certains physiciens, dont la langue maternelle est l'anglais, ont utilisé ces termes précisément comme termes de référence substantiels. Lawrence Krauss, par exemple, nous a dit sans rire que :

&ldquoIl existe une variété de formes de rien, [et] elles ont toutes des définitions physiques.&rdquo
&ldquoLes lois de la mécanique quantique nous disent que rien n'est instable.»
&ldquo70% de la substance dominante dans l'univers n'est rien.&rdquo
&ldquoIl n'y a rien, mais il a de l'énergie.&rdquo
&ldquoRien ne pèse quelque chose.&rdquo
&ldquoRien n'est presque tout.&rdquo [41]

Toutes ces affirmations considèrent que le mot &ldquonothing» est un terme substantif se référant à quelque chose, par exemple, le vide quantique ou les champs quantiques. Ce sont des réalités physiques et donc clairement quelque chose. Appeler ces réalités rien n'est au mieux trompeur, garanti de semer la confusion chez les profanes, et au pire une fausse représentation délibérée de la science. De telles déclarations ne commencent même pas à aborder, et encore moins à répondre, à la question de savoir pourquoi l'univers existe plutôt que rien.

Dans sa critique du livre de Krauss&rsquo Un univers à partir de rien, David Albert, un éminent philosophe de la physique quantique, explique à propos de Krauss&rsquo le premier genre de rien,

les états de vide sont des arrangements particuliers d'éléments physiques élémentaires. . . . le fait que certains arrangements de champs correspondent à l'existence de particules et que d'autres ne soient pas plus mystérieux que le fait que certains des arrangements possibles de mes doigts correspondent à l'existence d'un poing et d'autres non. Et le fait que des particules puissent entrer et sortir de l'existence, au fil du temps, à mesure que ces champs se réorganisent, n'est pas un brin plus mystérieux que le fait que les poings peuvent apparaître et disparaître, au fil du temps, lorsque mes doigts se réorganisent. Et aucun de ces éclats. . . équivaut à n'importe quoi, même à distance, dans le voisinage d'une création à partir de rien. . . . [42]

Il conclut : &ldquoKrauss a tout faux et ses critiques religieux et philosophiques ont tout à fait raison.&rdquo

Venir à l'être à partir de rien

Alexander Vilenkin a une proposition différente sur la façon dont l'univers pourrait naître à partir de rien. En réponse à l'affirmation d'une agence surnaturelle, dit-il,

En ce qui concerne le théorème BGV et sa relation à Dieu, je pense que le théorème implique l'existence d'un état assez spécial à la frontière passée de l'espace-temps classique. Un mécanisme est nécessaire pour imposer cet état. Craig veut que ce mécanisme soit Dieu, mais je pense que la cosmologie quantique ferait tout aussi bien. [43]

Qu'est-ce que Vilenkin a en tête ? Dans son Inférence article, explique-t-il,

La physique moderne peut décrire l'émergence de l'univers comme un processus physique qui ne nécessite pas de cause. Rien ne peut être créé à partir de rien, dit Lucrèce, ne serait-ce que parce que la conservation de l'énergie rend impossible de ne rien créer.sic quelque chose ?] à partir de rien. . . .

Il y a une faille dans ce raisonnement. L'énergie du champ gravitationnel est négative, il est concevable que cette énergie négative puisse compenser l'énergie positive de la matière, rendant l'énergie totale du cosmos égale à zéro. En fait, c'est précisément ce qui se passe dans un univers fermé, dans lequel l'espace se referme sur lui-même, comme la surface d'une sphère. Il résulte des lois de la relativité générale que l'énergie totale d'un tel univers est nécessairement égale à zéro.

Si tous les nombres conservés d'un univers fermé sont égaux à zéro, alors rien n'empêche un tel univers d'être créé spontanément à partir de rien. Et selon la mécanique quantique, tout processus qui n'est pas strictement interdit par les lois de conservation se produira avec une certaine probabilité. . . .

Qu'est-ce qui fait que l'univers surgit de rien ? Aucune cause n'est nécessaire. [44]

Je pense que c'est un argument terrible. Supposons que l'énergie positive associée à la matière soit exactement contrebalancée par l'énergie négative associée à la gravité, de sorte que dans l'ensemble, l'énergie est nulle. Le mouvement clé vient avec l'affirmation que dans un tel cas « il n'y a rien pour empêcher un tel univers d'être créé spontanément à partir de rien»». Or cette affirmation est une trivialité. Forcément, s'il n'y a rien, alors rien n'empêche l'univers de naître. De même, s'il n'y a rien, alors il n'y a rien pour permettre à l'univers de naître. S'il y avait quelque chose pour empêcher ou permettre à l'univers de naître, alors il y aurait quelque chose, pas rien. S'il n'y a rien, alors il n'y a rien, point final.

L'absence de quoi que ce soit pour empêcher l'univers de naître n'implique pas la possibilité métaphysique de l'univers de naître à partir de rien. Pour illustrer, s'il n'y avait rien, alors rien n'empêcherait Dieu de se produire sans cause, mais cela n'implique pas qu'une telle chose soit métaphysiquement possible. Il est métaphysiquement impossible à Dieu de naître sans cause, même s'il n'y avait rien pour l'empêcher parce que rien n'existait.

Vilenkin, cependant, en déduit qu'"aucune cause n'est nécessaire" pour que l'univers naît parce que les lois de conservation ne l'empêcheraient pas et "selon la mécanique quantique, tout processus qui n'est pas strictement interdit par les lois de conservation se produira". L'argument suppose que si il n'y avait rien, alors les lois de conservation et les lois physiques quantiques tiendraient toujours. C'est loin d'être évident, cependant, puisqu'en l'absence de quoi que ce soit, il n'est pas clair que les lois régissant notre univers tiendraient. En tout cas, pourquoi penser que, compte tenu des lois de la mécanique quantique, il se produira quelque chose qui n'est pas strictement interdit par les lois de conservation ? Les lois de conservation n'interdisent pas strictement à Dieu d'envoyer tout le monde au ciel, mais cela ne donne guère de raisons d'être optimiste. Ils n'interdisent pas non plus strictement qu'Il envoie tout le monde en enfer, auquel cas les deux résultats se produiront, ce qui est logiquement impossible, car ce sont des généralisations universelles logiquement contraires. La remarque peut également être faite de manière non théologique : les lois de conservation n'interdisent pas strictement l'existence de quelque chose, mais elles n'interdisent pas non plus l'existence de rien, mais les deux ne peuvent pas se produire. Il est logiquement absurde de penser que parce que quelque chose n'est pas interdit par les lois de conservation, cela arrivera donc.

Enfin, l'inférence de Vilenkin selon laquelle, étant donné que l'énergie positive et négative de l'univers est égale à zéro, aucune cause de la création de l'univers n'est nécessaire est difficile à prendre au sérieux. C'est comme dire que si vos dettes équilibrent vos actifs, alors votre valeur nette est nulle, et donc il n'y a pas de cause à votre situation financière ! Vilenkin ne serait pas, je l'espère, d'accord avec Peter Atkins que parce que l'énergie positive et négative de l'univers somme à zéro, donc rien n'existe maintenant, et donc "Rien n'est en effet venu de rien". [45] Car comme Descartes nous l'a enseigné, je , au moins, existe indéniablement, et donc quelque chose existe. Christopher Isham, premier cosmologiste quantique britannique, souligne à juste titre qu'il doit encore y avoir un « ensemencement » pour créer l'énergie positive et négative en premier lieu, même si dans l'ensemble sa somme est nulle. [46] Même si l'on devait admettre l'absence d'une cause matérielle de l'univers, le besoin d'une cause efficiente est manifeste.

Nous avons donc deux lignes indépendantes de preuves scientifiques à l'appui du début de l'univers. Premièrement, l'expansion de l'univers implique que l'univers a eu un commencement. Deuxièmement, la thermodynamique montre que l'univers a commencé à exister. Parce que ces lignes de preuves sont indépendantes et se renforcent mutuellement, la confirmation qu'elles fournissent pour un début de l'univers est d'autant plus forte. Bien sûr, comme pour tous les résultats scientifiques, cette preuve est provisoire. Comme Sean Carroll nous le rappelle,

La science a pour mission de prouver des choses. Au contraire, la science juge les mérites des modèles concurrents en termes de simplicité, de clarté, d'exhaustivité et d'adéquation aux données. Les théories infructueuses ne sont jamais réfutées, car nous pouvons toujours concocter des schémas élaborés pour sauver les phénomènes, ils disparaissent tout simplement à mesure que de meilleures théories sont acceptées. [47]

La science ne peut pas nous forcer à accepter le début de l'univers, on peut toujours concocter des schémas élaborés pour expliquer les preuves. Mais ces régimes n'ont pas bien réussi à afficher les vertus scientifiques susmentionnées.

Étant donné l'impossibilité métaphysique de l'univers à naître à partir de rien, la croyance en un Créateur surnaturel est éminemment raisonnable. À tout le moins, nous pouvons dire avec assurance que la personne qui croit en la doctrine de création ex nihilo ne se trouvera pas contredit par l'évidence empirique de la cosmologie contemporaine mais au contraire pleinement conforme à celle-ci.

Voir les chapitres 1-2 de Paul Copan et William Lane Craig, La création à partir de rien : une exploration biblique, philosophique et scientifique (Grand Rapids, Michigan : Baker Bookhouse, 2004).

Voir les chapitres 1-2 de Paul Copan et William Lane Craig, La création à partir de rien : une exploration biblique, philosophique et scientifique (Grand Rapids, Michigan : Baker Bookhouse, 2004).

Revoyez Copan et Craig, Création à partir de rien, chap. 3.

Revoyez Copan et Craig, Création à partir de rien, chap. 3.

Voir William Lane Craig, le Kalām Argument cosmologique (Londres : Macmillan & Co., 1979).

Voir William Lane Craig, le Kalām Argument cosmologique (Londres : Macmillan & Co., 1979).

&ldquocreator omnium invisibilium et visibilium, spiritualium et corporalium, qui sua omnipotenti virtute simul ab initio temporis, utramque de nihilo conditit creaturam, spiritualem et corporalem&rdquo (Concilium Lateranense IV, Constitutions 1. De fide catholica).

&ldquocreator omnium invisibilium et visibilium, spiritualium et corporalium, qui sua omnipotenti virtute simul ab initio temporis, utramque de nihilo conditit creaturam, spiritualem et corporalem&rdquo (Concilium Lateranense IV, Constitutions 1. De fide catholica).

Revoyez Copan et Craig, Création à partir de rien, chap. 4-6.

Revoyez Copan et Craig, Création à partir de rien, chap. 4-6.

A. Einstein, &ldquoCosmological Considerations on the General Theory of Relativity,&rdquo in Le principe de relativité, par A. Einstein, et. Al., avec Notes de A. Sommerfeld, trad. W. Perrett et J. B. Jefferey (réd. : New York : Dover Publications, 1952), 177-88.

A. Einstein, &ldquoCosmological Considerations on the General Theory of Relativity,&rdquo in Le principe de relativité, par A. Einstein, et. Al., avec Notes de A. Sommerfeld, trad. W. Perrett et J. B. Jefferey (réd. : New York : Dover Publications, 1952), 177-88.

A. Friedman, &ldquoÜber die Krümmung des Raumes,&rdquo Zeitschrift für Physik 10 (1922): 377-86 G. Lema&icirtre, &ldquoUn univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques,&rdquo Annales de la Sociééé scientifique de Bruxelles 47 (1927): 49-59.

A. Friedman, &ldquoÜber die Krümmung des Raumes,&rdquo Zeitschrift für Physik 10 (1922): 377-86 G. Lema&icirtre, &ldquoUn univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques,&rdquo Annales de la Sociééé scientifique de Bruxelles 47 (1927): 49-59.

Grégory L. Naber, Espace-temps et singularités : une introduction (Cambridge : Cambridge University Press, 1988), 126-7.

Grégory L. Naber, Espace-temps et singularités : une introduction (Cambridge : Cambridge University Press, 1988), 126-7.

E. Hubble, &ldquoUne relation entre la distance et la vitesse radiale parmi les nébuleuses extra-galactiques,&rdquo Actes de l'Académie nationale des sciences 15 (1929): 168-73.

E. Hubble, &ldquoUne relation entre la distance et la vitesse radiale parmi les nébuleuses extra-galactiques,&rdquo Actes de l'Académie nationale des sciences 15 (1929): 168-73.

John A. Wheeler, &ldquoBeyond the Hole,&rdquo dans Un peu d'étrangeté dans la proportion, éd. Harry Woolf (Reading, Mass. : Addison-Wesley, 1980), 354.

John A. Wheeler, &ldquoBeyond the Hole,&rdquo dans Un peu d'étrangeté dans la proportion, éd. Harry Woolf (Reading, Mass. : Addison-Wesley, 1980), 354.

P. C. W. Davies, &ldquoSpacetime Singularities in Cosmology,&rdquo in L'étude du temps III, éd. J.T. Fraser (New York : Springer Verlag, 1978), 78-79.

P. C. W. Davies, &ldquoSpacetime Singularities in Cosmology,&rdquo in L'étude du temps III, éd. J.T. Fraser (New York : Springer Verlag, 1978), 78-79.

John Barrow et Frank Tipler, Le principe cosmologique anthropique (Oxford : Clarendon Press, 1986), 442.

John Barrow et Frank Tipler, Le principe cosmologique anthropique (Oxford : Clarendon Press, 1986), 442.

Principalement l'ajout d'une ère inflationniste précoce et d'une expansion qui s'accélère.

Principalement l'ajout d'une ère inflationniste précoce et d'une expansion qui s'accélère.

William Lane Craig et James Sinclair, &ldquoThe Kalam Argument cosmologique,» dans Le compagnon Blackwell de la théologie naturelle, éd. Wm. L. Craig et J. P. Moreland (Oxford : Wiley-Blackwell, 2009), pp. 101-201 idem, &ldquoOn Non-Singular Spacetimes and the Beginning of the Universe,&rdquo in Approches scientifiques de la philosophie de la religion, éd. Yujin Nagasawa, Palgrave Frontiers in Philosophy of Religion (Londres : Macmillan, 2012), pp. 95-142.

William Lane Craig et James Sinclair, &ldquoThe Kalam Argument cosmologique,» dans Le compagnon Blackwell de la théologie naturelle, éd. Wm. L. Craig et J. P. Moreland (Oxford : Wiley-Blackwell, 2009), pp. 101-201 idem, &ldquoOn Non-Singular Spacetimes and the Beginning of the Universe,&rdquo in Approches scientifiques de la philosophie de la religion, éd. Yujin Nagasawa, Palgrave Frontiers in Philosophy of Religion (Londres : Macmillan, 2012), pp. 95-142.

A. Borde, A. Guth, A. Vilenkin, &ldquoLes espaces-temps inflationnistes sont incomplets dans les directions passées» Lettres d'examen physique 90 (2003) : 151301, http://arxiv.org/abs/gr-qc/0110012.

A. Borde, A. Guth, A. Vilenkin, &ldquoLes espaces-temps inflationnistes sont incomplets dans les directions passées» Lettres d'examen physique 90 (2003) : 151301, http://arxiv.org/abs/gr-qc/0110012.

Alexander Vilenkin, &ldquoL'univers a-t-il eu un début ?&rdquo http://www.youtube.com/watch?v=NXCQelhKJ7A. Cf. Audrey Mithani et Alexander Vilenkin, &ldquoL'univers a-t-il eu un commencement ?&rdquo arXiv:1204.4658v1 [hep-th] 20 avril 2012, p. 1, où ils déclarent : &ldquoAucun de ces scénarios ne peut en fait être éternel.&rdquo

Alexander Vilenkin, &ldquoL'univers a-t-il eu un début ?&rdquo http://www.youtube.com/watch?v=NXCQelhKJ7A. Cf. Audrey Mithani et Alexander Vilenkin, &ldquoL'univers a-t-il eu un commencement ?&rdquo arXiv:1204.4658v1 [hep-th] 20 avril 2012, p. 1, où ils déclarent : &ldquoAucun de ces scénarios ne peut en fait être éternel.&rdquo

Alexander Vilenkin, &ldquoLe début de l'univers,&rdquo Inférence : Revue internationale des sciences 1/4 (23 octobre 2015), http://inference-review.com/article/the-beginning-of-the-universe.

Alexander Vilenkin, &ldquoLe début de l'univers,&rdquo Inférence : Revue internationale des sciences 1/4 (23 octobre 2015), http://inference-review.com/article/the-beginning-of-the-universe.

Robert Stewart, éd., Dieu et cosmologie : William Lane Craig et Sean Carroll en dialogue (Minneapolis : Fortress Press, 2016), p. 70. Le Forum Greer-Heard lui-même s'est tenu en 2014.

Robert Stewart, éd., Dieu et cosmologie : William Lane Craig et Sean Carroll en dialogue (Minneapolis : Fortress Press, 2016), p. 70. Le Forum Greer-Heard lui-même s'est tenu en 2014.


Hubble accélère l'expansion cosmique

Cette nouvelle évaluation provient du télescope spatial Hubble, qui a considérablement affiné la vitesse à laquelle les galaxies proches s'éloignent les unes des autres.

Cela renforce la tension entre ce que nous voyons se produire localement et ce que nous attendrions des conditions qui existaient dans le cosmos primitif.

Ceux-ci ont impliqué une trajectoire beaucoup plus calme pour la récession.

La science a maintenant un gros travail à faire pour essayer de résoudre l'énigme, déclare Adam Riess du Space Telescope Science Institute (STScI) et de l'Université Johns Hopkins, tous deux à Baltimore, Maryland, États-Unis.

"Pour être honnête, avec cette dernière mesure, nous sommes vraiment allés au-delà de ce que nous pourrions appeler la "tension, nous manquons quelque chose dans notre compréhension du cosmos", a déclaré le lauréat du prix Nobel à BBC News.

Le problème en question est la soi-disant constante de Hubble - la valeur utilisée par les astronomes pour décrire l'expansion actuelle.

C'est un nombre critique car il nous aide à évaluer la taille et l'âge de l'Univers.

Une façon de déterminer cette valeur est de mesurer la distance et les vitesses d'un grand nombre d'étoiles dans un bon échantillon de galaxies.

Dans la nouvelle étude du Dr Riess, qui sera publiée sous peu dans The Astrophysical Journal, cela a été fait à l'aide de deux classes d'étoiles très prévisibles.

Ce sont les variables céphéides - des étoiles pulsantes qui se gonflent et se dégonflent de manière très régulière et un groupe d'objets explosifs appelés supernovae de type 1a.

Les deux brillent avec une puissance de sortie connue, et donc en comparant cette quantité avec leur luminosité apparente sur le ciel, il est possible de comprendre leur séparation de la Terre et donc, aussi, la distance aux galaxies qui les hébergent.

Quelque 2 400 céphéides dans 19 galaxies proches ont été utilisées dans l'étude, et celles-ci ont permis de calibrer environ 300 supernovae de type 1a, dont les propriétés particulières ont permis à l'équipe de sonder un volume légèrement plus profond de l'espace.

Le travail donne un nombre pour la constante de Hubble de 73,24 kilomètres par seconde par mégaparsec (un mégaparsec correspond à 3,26 millions d'années-lumière). Ou en d'autres termes - l'expansion augmente de 73,24 km/seconde pour chaque 3,26 millions d'années-lumière que nous regardons plus loin dans l'espace.

Cela signifie essentiellement que la distance entre les objets cosmiques doublera dans 9,8 milliards d'années.

Il s'agit de la troisième itération du projet dirigé par le Dr Riess et présente une incertitude de seulement 2,4%.

Mais il existe une autre façon de déterminer la constante, c'est de regarder l'expansion peu après le Big Bang et d'utiliser ce que nous savons du contenu et de la physique à l'œuvre dans l'Univers pour prédire une valeur moderne de l'expansion.

Cela a été fait en utilisant les données acquises par le télescope spatial Planck, qui, au début de cette décennie, a fait les observations les plus détaillées jamais réalisées sur la plus ancienne lumière de l'Univers.

Sa valeur constante de Hubble était de 66,53 km/s par mégaparsec.

Le désaccord avec le numéro du Dr Riess est plus qu'un simple inconvénient mineur. Lors de l'utilisation de la constante de Hubble pour calculer le temps à partir du Big Bang, le décalage équivaut à une différence de quelques centaines de millions d'années dans l'âge de près de 14 milliards d'années de l'Univers.

Le scientifique du STScI dit que la résolution réside probablement dans une meilleure compréhension des composants "sombres" du cosmos.

Ceux-ci incluent la matière invisible dans les galaxies (matière noire) et l'énergie du vide (énergie noire) supposée entraîner une accélération de l'expansion.

L'écart pourrait également être comblé par l'existence d'une autre particule, jusqu'ici non détectée.

Le quatrième type, ou saveur, souvent hypothétique, de neutrinos ferait l'affaire.

"Cela changerait l'équilibre de l'énergie dans l'Univers et l'accélérerait", a déclaré le Dr Riess.

Les réponses viendront sûrement des nouveaux télescopes spatiaux et détecteurs de particules qui devraient entrer en service dans les prochaines années, a-t-il ajouté.


Hiérarchie énergétique et transformation dans l'univers

De nombreuses propriétés de l'univers découvertes ces dernières années par les progrès de l'astrophysique et de la cosmologie sont cohérentes avec les principes de hiérarchie énergétique développés pour d'autres échelles de temps et d'espace. L'énergie et la masse sont convergées et concentrées par l'auto-organisation autocatalytique d'agrégats de matière, de galaxies, d'étoiles et de trous noirs. Au fur et à mesure que l'énergie traverse les séries de transformations énergétiques, les concentrations aux centres augmentent, les flux d'énergie diminuent, les territoires de support augmentent, les intervalles entre les impulsions de rétroaction vers des niveaux inférieurs augmentent et l'intensité des épisodes de recyclage de masse et d'énergie augmente. Emergy (orthographié avec un « m ») met les structures et les processus sur une base commune. Les transformités (énergie/énergie) indiquent la position de chaque forme d'énergie de l'univers dans la hiérarchie énergétique universelle. Le rayonnement de haute énergie est renvoyé au rayonnement de fond par une cascade dispersante d'absorption par la matière et de rerayonnement. L'augmentation du décalage vers le rouge avec la distance peut être attribuée à la masse et à la gravité plus grandes des centres des systèmes d'échelle croissante. La deuxième loi de la thermodynamique rend compte des transformations énergétiques à chaque échelle de taille et de temps, sauf au niveau le plus bas où l'auto-organisation du rayonnement de fond et des matériaux de fond peut former une hiérarchie d'équilibre. À l'aide d'estimations de la densité de l'énergie et de la matière de fond, un calcul préliminaire est effectué de la part du soleil dans les ressources de l'univers, en dérivant les transformations du soleil, de la terre et de la vie en unités de l'émergie de fond de l'univers.


Remerciements

Pour leurs suggestions et conseils, nous remercions de nombreux collègues, dont Gerhard Casper, Gili Drori, Patti Gumport, Georg Krücken, Gero Lenhardt, Alex McCormick, Francisco Ramirez, Uwe Schimank, Evan Schofer et Manfred Stock. Les idées présentées ici reflètent un travail de collaboration mené depuis de nombreuses années, tel que référencé dans le texte. Certaines illustrations empiriques pertinentes sont présentées dans Frank et Meyer (2006). Le travail sur l'article lui-même a été soutenu par des subventions à Francisco O. Ramirez et John W. Meyer du Freeman Spogli Institute de l'Université de Stanford et de la Spencer Foundation (20060003) et à David John Frank de la Spencer Foundation (200700213) et du Center for l'étude de la démocratie à l'Université de Californie, Irvine.


Voir la vidéo: DISTANCE ET TEMPS DANS LUNIVERS ; BALADE COSMIQUE - Documentaire de lunivers HD (Septembre 2021).