Astronomie

La matière noire pourrait-elle être une réalité « à l'envers » ?

La matière noire pourrait-elle être une réalité « à l'envers » ?

Là où nous sommes, et dans les galaxies conventionnelles etc. que nous voyons, il y a beaucoup d'espace relativement uniforme mais dans des endroits isolés dans cet espace, il y a des poches de "masse" concentrée qui est hautement organisée dans tous les objets que nous observons et l'étude, et dont nous sommes faits.

Supposons maintenant qu'il y ait des régions de l'espace où tout est renversé, et qu'il y ait d'immenses vastes étendues de matière relativement uniforme, et à l'intérieur de cette matière il y a des poches d'« espace » qui sont hautement organisées en une autre forme d'objet, dont sont faits d'autres objets et êtres.

De toute évidence, sur le premier test, et le plus simple - la question de "combien" il y a de matière noire, cette théorie passe le test empirique de la réalité avec brio, c'est-à-dire que les astronomes semblent observer beaucoup plus de masse dans les régions de matière noire hypothétique conformément avec ce que cette conjecture implique.

Quelles autres prédictions vérifiables cette conjecture fait-elle et dans quelle mesure correspondent-elles à nos observations ?


En guise d'avertissement : cette réponse n'inclut pas de références et est principalement basée sur ma première intuition lors de la lecture de la question. Je vois que cela peut potentiellement être une question intéressante à discuter.

Premièrement, nous vivons dans un système solaire, dans une galaxie, dans un amas de galaxies. Cela signifie en soi qu'il y a beaucoup de matière autour. Nous vivons aussi (au moins très probablement) dans un surdensité dans l'univers, ce qui signifie qu'il y a énormément de matière là où nous sommes comparés à la moyenne de l'univers.

Si nous supposons que nous vivons dans une sous-densité de l'univers, cela signifierait qu'il y a plus de matière présente dans l'univers en moyenne par rapport à l'endroit où nous sommes. Toutefois, si les poches de l'espace dans une distribution de matière régulière était de la matière noire, alors il semble qu'il y aurait une plus grande quantité de matière régulière que de matière noire dans l'univers, ce qui ne correspond pas à nos estimations.

Si nous supposons un instant que c'est l'inverse (que nous vivons dans une région avec beaucoup de matière, Pas beaucoup de espace), alors cette théorie aura du mal à expliquer certaines des choses qui pointent vers l'existence de la matière noire. L'une de ces choses sont les courbes de rotation des galaxies, qui indiquent qu'il y a plus de présence de masse qu'on ne le voit. Je m'attends à ce qu'il n'y ait pas assez d'espace dans une galaxie pour créer de telles "poches" d'espace. Disons, cependant, que nous supposons que cela était possible, alors les vides que nous observons entre les galaxies et les amas de galaxies seraient des poches d'espace encore plus gigantesques, ce qui signifierait qu'il y aurait une énorme quantité de matière noire, ce qui, je pense, serait incompatible avec ce que nous voyons du CMB.


Quand la matière noire pourrait-elle être produite ? (Cosmologie / Thermodynamique / Astronomie)

Mambrini et Olive ont proposé la production de matière noire par la diffusion gravitationnelle de l'inflaton. Ils ont découvert qu'une quantité suffisante de matière noire GeV-ZeV peut être obtenue avec des valeurs raisonnables de température de réchauffage (TRH) et de température maximale (Tmax) par pure production gravitationnelle par diffusion inflaton. Leur étude a récemment été publiée dans ArXiv le 11 février 2021.

L'inflation est une période d'expansion en surfusion, lorsque la température chute d'un facteur de 100 000 environ. Cette température relativement basse est maintenue pendant la phase de gonflage. Lorsque l'inflation se termine, la température revient à la température pré-inflationniste, c'est ce qu'on appelle le réchauffement ou la thermalisation car la grande énergie potentielle du champ d'inflation se désintègre en particules et remplit l'Univers de particules du modèle standard, y compris le rayonnement électromagnétique, commençant la phase dominée par le rayonnement l'univers.

Illustration de la production de matière noire par diffusion gravitationnelle de l'inflaton. © Mambrini et Olivier

Ils ont montré que l'abondance finale de matière noire dépend non seulement de la température de réchauffement, mais aussi de la température maximale atteinte et donc de l'évolution détaillée du processus de réchauffement.

Nous avons vu que la matière noire GeV-ZeV peut être obtenue avec des valeurs raisonnables de TRH et Tmax par pure production gravitationnelle par diffusion inflaton

- dit Olivier

Selon Mambrini et Olive, pendant le réchauffage, un bain thermal est rapidement généré avec une température maximale Tmax, et la température diminue à mesure que l'inflaton continue de décroître jusqu'à ce que les densités d'énergie du rayonnement et les oscillations de l'inflaton soient égales, à TRH. Au cours de ces oscillations, la production gravitationnelle du canal s de matière noire se produit.

Lors de ces oscillations, la densité d'inflaton est élevée et la principale contribution à la production de matière noire se produit au début du réchauffement à Tmax. Cela représente une quantité absolument minimale de production de matière noire et cela contribue indépendamment de toute interaction que la matière noire peut avoir avec le modèle standard (ou un autre secteur sombre s'il est présent).

— dit Mambrini.

Référence: Yann Mambrini, Keith A. Olive, “Gravitational Production of Dark Matter during Reheating”, Astronomical Journal, pp. 1-6, 2021. https://arxiv.org/abs/2102.06214

Le droit d'auteur de cet article appartient totalement à notre auteur S. Aman. On n'est autorisé à le réutiliser qu'en donnant un crédit approprié soit à lui soit à nous


Des physiciens soutiennent que les trous noirs du Big Bang pourraient être la matière noire (astronomie)

C'était une vieille idée de Stephen Hawking : des trous noirs « primordiaux » invisibles pourraient être la matière noire cachée. Elle est tombée en disgrâce pendant des décennies, mais une nouvelle série d'études a montré comment la théorie peut fonctionner.

Les trous noirs sont comme les requins. Élégants, simples, plus effrayants dans l'imagination populaire qu'ils ne le méritent, et peut-être cachés dans des endroits sombres et profonds tout autour de nous.

Les trous noirs primordiaux se regrouperaient en amas distincts dans tout l'univers. Des trous noirs relativement grands seraient entourés de beaucoup plus petits. ©Olena Shmahalo.

Leur noirceur même rend difficile l'estimation du nombre de trous noirs qui peuplent le cosmos et de leur taille. Ce fut donc une véritable surprise lorsque les premières ondes gravitationnelles ont traversé les détecteurs du Laser Interferometer Gravitational-Wave Observatory (LIGO) en septembre 2015. Auparavant, les plus grands trous noirs de la taille des étoiles avaient atteint environ 20 fois la masse du soleil. . Ces nouveaux avaient environ 30 masses solaires chacun, ce qui n'est pas inconcevable, mais étrange. De plus, une fois que LIGO s'est allumé et a immédiatement commencé à entendre ce genre d'objets fusionner les uns avec les autres, les astrophysiciens ont réalisé qu'il devait y avoir plus de trous noirs cachés là-bas qu'ils ne l'avaient pensé. Peut-être beaucoup plus.

La découverte de ces spécimens étranges a insufflé une nouvelle vie à une vieille idée – une idée qui avait, ces dernières années, été reléguée à la marge. Nous savons que les étoiles mourantes peuvent faire des trous noirs. Mais peut-être que les trous noirs sont également nés pendant le Big Bang lui-même. Une population cachée de ces trous noirs « primordiaux » pourrait éventuellement constituer de la matière noire, un pouce caché à l'échelle cosmique. Après tout, aucune particule de matière noire ne s'est manifestée, malgré des décennies de recherche. Et si les ingrédients dont nous avions vraiment besoin – les trous noirs – étaient sous notre nez tout le temps ?

"Oui, c'était une idée folle", a déclaré Marc Kamionkowski, cosmologue à l'Université Johns Hopkins dont le groupe est sorti avec l'un des nombreux articles accrocheurs qui ont exploré la possibilité en 2016. "Mais ce n'était pas nécessairement plus fou qu'autre chose autre."

Hélas, le flirt avec les trous noirs primordiaux s'est détérioré en 2017, après un article de Yacine Ali-Haïmoud, astrophysicien à l'Université de New York qui avait précédemment fait partie de l'équipe optimiste de Kamionkowski, a examiné comment ce type de trou noir devrait affecter le taux de détection de LIGO. Il a calculé que si le bébé univers produisait suffisamment de trous noirs pour tenir compte de la matière noire, alors au fil du temps, ces trous noirs s'installeraient en paires binaires, orbiteraient de plus en plus près et fusionneraient à des taux des milliers de fois plus élevés que ce que LIGO observe. Il a exhorté les autres chercheurs à continuer d'étudier l'idée en utilisant des approches alternatives. Mais beaucoup ont perdu espoir. L'argument était si accablant que Kamionkowski a déclaré que cela avait éteint son propre intérêt pour l'hypothèse.

Maintenant, cependant, à la suite d'une rafale d'articles récents, l'idée primordiale du trou noir semble être revenue à la vie. Dans l'un des derniers, publié la semaine dernière dans le Journal de cosmologie et de physique des astroparticules, Karsten Jedamzik, cosmologue à l'Université de Montpellier, a montré comment une importante population de trous noirs primordiaux pouvait entraîner des collisions qui correspondent parfaitement à ce que LIGO observe. "Si ses résultats sont corrects - et il semble que ce soit un calcul minutieux qu'il a fait - cela mettrait le dernier clou dans le cercueil de notre propre calcul", a déclaré Ali-Haïmoud, qui a continué à jouer avec l'idée primordiale du trou noir dans les articles suivants aussi. "Cela voudrait dire qu'en fait, ils pourraient être toute la matière noire."

"C'est excitant", a déclaré Christian Byrnes, cosmologue à l'Université du Sussex qui a contribué à inspirer certains des arguments de Jedamzik. « Il est allé plus loin que quiconque auparavant. »

L'idée originale remonte aux années 1970 avec les travaux de Stephen Hawking et Bernard Carr. Hawking et Carr ont estimé que dans les premières fractions de seconde de l'univers, de petites fluctuations de sa densité auraient pu doter les régions chanceuses ou malchanceuses d'une masse trop importante. Chacune de ces régions s'effondrerait en un trou noir. La taille du trou noir serait dictée par l'horizon de la région - la parcelle d'espace autour de tout point accessible à la vitesse de la lumière. Toute matière à l'horizon ressentirait la gravité du trou noir et tomberait. Les calculs approximatifs de Hawking ont montré que si les trous noirs étaient plus gros que de petits astéroïdes, ils pourraient vraisemblablement encore se cacher dans l'univers aujourd'hui.

D'autres progrès ont été accomplis dans les années 1990. À ce moment-là, les théoriciens avaient également la théorie de l'inflation cosmique, selon laquelle l'univers a connu une explosion d'expansion extrême juste après le Big Bang. L'inflation pourrait expliquer d'où viendraient les fluctuations initiales de la densité.

En plus de ces fluctuations de densité, les physiciens ont également envisagé une transition clé qui favoriserait l'effondrement.

Lorsque l'univers était nouveau, toute sa matière et son énergie bouillonnaient dans un plasma incroyablement chaud. Après le premier cent millième de seconde environ, l'univers s'est un peu refroidi et les quarks et gluons libres du plasma ont pu se lier en particules plus lourdes. Avec certaines des particules ultra-rapides maintenant en camisole de force, la pression a chuté. Cela aurait pu aider davantage de régions à s'effondrer dans des trous noirs.

Mais dans les années 1990, personne ne comprenait assez bien la physique d'un fluide de quarks et de gluons pour faire des prédictions précises sur la façon dont cette transition affecterait la production de trous noirs. Les théoriciens ne pouvaient pas dire à quel point les trous noirs primordiaux devraient être massifs, ni à combien s'attendre.

“Oui, c'était une idée folle. Mais ce n'était pas nécessairement plus fou qu'autre chose.”, a déclaré Marc Kamionkowski.

De plus, les cosmologistes ne semblaient pas vraiment avoir besoin de trous noirs primordiaux. Des études astronomiques ont scanné des parcelles de ciel dans l'espoir de trouver une mer d'objets denses et sombres comme des trous noirs flottant à la périphérie de la Voie lactée, mais ils n'en ont pas trouvé beaucoup. Au lieu de cela, la plupart des cosmologues en sont venus à croire que la matière noire était constituée de particules ultra-timides appelées WIMPs. Et l'espoir couvait que les détecteurs WIMP spécialement conçus ou le futur Grand collisionneur de hadrons en trouveraient bientôt des preuves tangibles.

Avec le problème de la matière noire sur le point de se terminer avec un arc et aucune observation suggérant le contraire, les trous noirs primordiaux sont devenus un marigot académique. "Un cosmologiste senior m'a en quelque sorte ridiculisé pour avoir travaillé là-dessus", a déclaré Jedamzik, qui fait remonter son propre intérêt aux années 1990. "Alors j'ai arrêté ça, parce que j'avais besoin d'avoir un poste permanent."

Bien sûr, aucun WIMP n'a été trouvé dans les décennies qui ont suivi, ni aucune nouvelle particule (à l'exception du boson de Higgs longtemps prévu). La matière noire reste noire.

Pourtant, on en sait beaucoup plus aujourd'hui sur l'environnement qui aurait pu engendrer des trous noirs primordiaux. Les physiciens peuvent maintenant calculer comment la pression et la densité auraient évolué à partir du plasma de quarks et de gluons au début de l'univers. « Il a fallu des décennies à la communauté pour résoudre ce problème », a déclaré Byrnes. Avec ces informations en main, des théoriciens tels que Byrnes et Juan García-Bellido de l'Université autonome de Madrid ont passé ces dernières années à publier des études prédisant que l'univers primitif aurait pu engendrer non seulement une taille de trou noir, mais une gamme d'entre eux. .

Tout d'abord, les quarks et les gluons ont été collés ensemble en protons et neutrons. Cela a causé une chute de pression et aurait pu engendrer un ensemble de trous noirs primordiaux. Alors que l'univers continuait de se refroidir, des particules telles que des pions se sont formées, créant une autre chute de pression et un éventuel trou noir éclaté.

Entre ces époques, l'espace lui-même s'est élargi. Les premiers trous noirs pourraient aspirer environ une masse solaire de matière de l'horizon autour d'eux. Le deuxième tour pourrait récupérer environ 30 masses solaires, tout comme les objets étranges vus pour la première fois par LIGO. « Les ondes gravitationnelles sont venues à notre secours », a déclaré García-Bellido.

Quelques semaines après la première annonce des ondes gravitationnelles de LIGO en 2016, l'hypothèse primordiale du trou noir est revenue à la vie. Mais l'année suivante, Ali-Haïmoud a avancé son argument selon lequel les trous noirs primordiaux entreraient en collision beaucoup trop souvent, ce qui a donné aux partisans un obstacle majeur à surmonter.

Jedamzik ​​a relevé le défi. Lors de longues vacances au Costa Rica, il s'en est pris à la dispute d'Ali-Haïmoud. Ali-Haïmoud avait fait son travail de manière analytique, par équations. Mais lorsque Jedamzik ​​a créé des simulations numériques du même problème, il a trouvé une torsion.

Les trous noirs primordiaux formeraient en effet des binaires. Mais Jedamzik ​​a conclu que dans un univers grouillant de trous noirs, un troisième trou noir s'approchait souvent de la paire initiale et changeait de place avec l'un d'entre eux. Ce processus se répéterait encore et encore.

Au fil du temps, ce basculement de partenaire en partenaire laisserait des trous noirs binaires avec des orbites presque circulaires. Ces partenaires seraient incroyablement lents à entrer en collision. Même une énorme population de trous noirs primordiaux fusionnerait si rarement que l'hypothèse entière s'adapterait toujours au taux de fusion observé par LIGO.

Il a mis en ligne son travail en juin, répondant aux questions d'experts extérieurs comme Ali-Haïmoud lui-même. "Il était très important de convaincre la communauté, autant que possible, que vous ne dites pas simplement des bêtises", a déclaré Jedamzik, en utilisant un terme plus puissant que "non-sens".

Il s'est également appuyé sur des travaux qui prédisaient que les trous noirs primordiaux se trouveraient dans des amas sombres d'un diamètre aussi grand que la distance entre le soleil et l'étoile la plus proche. Chacun de ces clusters pourrait contenir environ un millier de trous noirs entassés les uns contre les autres. Les mastodontes de 30 masses solaires seraient assis au centre, les plus petits les plus communs rempliraient le reste de l'espace. Ces amas se cacheraient partout où les astronomes pensent que la matière noire est. Comme pour les étoiles d'une galaxie ou les planètes entourant le soleil, le mouvement orbital de chaque trou noir l'empêcherait d'en dévorer un autre, sauf lors de ces fusions inhabituelles.

Dans un deuxième article, Jedamzik ​​a calculé exactement à quel point ces fusions devraient être rares. Il a fait les calculs pour les grands trous noirs que LIGO a observés, et pour les plus petits, qu'il n'a pas observés. (Les petits trous noirs produiraient des signaux faibles et aigus et devraient être à proximité pour être détectés.) "J'ai été, bien sûr, stupéfait de voir que l'un après l'autre j'ai obtenu le bon taux", a-t-il déclaré.

Les partisans de l'hypothèse primordiale du trou noir ont encore beaucoup à convaincre. La plupart des physiciens croient encore que la matière noire est constituée d'une sorte de particule élémentaire, diablement difficile à détecter. De plus, les trous noirs LIGO ne sont pas trop différents de ce à quoi nous nous attendrions s'ils provenaient d'étoiles ordinaires. "Cela comble en quelque sorte un trou dans la théorie qui n'est pas réellement là", a déclaré Carl Rodriguez, astrophysicien à l'Université Carnegie Mellon. "Il y a des choses qui sont étranges à propos de certaines des sources LIGO, mais nous pouvons expliquer tout ce que nous avons vu jusqu'à présent grâce au processus d'évolution stellaire normal."

Selma de Mink, astrophysicienne à l'Université Harvard qui a ébauché des théories sur la façon dont les étoiles seules peuvent produire les lourds binaires de trous noirs vus par LIGO, est plus directe : « Je pense que les astronomes peuvent en rire un peu.

Trouver un seul trou noir de masse sous-solaire – qui devrait être commun, selon le scénario de trou noir primordial, et qui ne peut pas se former à partir d'étoiles – transformerait tout ce débat. Et à chaque passage d'observation ultérieur, LIGO a augmenté sa sensibilité, lui permettant éventuellement de trouver de si petits trous noirs ou de fixer des limites strictes sur le nombre pouvant exister. "Ce n'est pas une de ces histoires comme la théorie des cordes, où dans une décennie ou trois décennies nous pourrions encore discuter si c'est correct", a déclaré Byrnes.

En attendant, d'autres astrophysiciens sondent différents aspects de la théorie. Par exemple, les contraintes les plus fortes sur les trous noirs primordiaux proviennent peut-être des recherches de microlentilles – ces mêmes enquêtes qui ont commencé dans les années 1990. Dans ces efforts, les astronomes surveillent des sources lumineuses mais distantes, attendant de voir si un objet sombre passe devant elles. Ces recherches ont longtemps exclu une population uniformément dispersée de petits trous noirs.

Mais si les trous noirs primordiaux existent dans une gamme de masses, et s'ils sont entassés dans des amas denses et massifs, ces résultats pourraient être moins significatifs que les chercheurs ne le pensaient, a déclaré García-Bellido.

Les observations à venir pourraient éventuellement régler cette question également. L'Agence spatiale européenne a récemment accepté de contribuer une fonctionnalité supplémentaire clé au prochain télescope spatial romain Nancy Grace de la NASA, qui lui permettrait de réaliser des études de microlentille révolutionnaires.

L'ajout est venu à la demande de Günther Hasinger, directeur scientifique de l'ESA, qui a fait valoir que les trous noirs primordiaux pouvaient expliquer de multiples mystères. Pour Hasinger, l'idée est séduisante car elle n'invoque pas de nouvelles particules ou de nouvelles théories physiques. Il réutilise simplement d'anciens éléments.

"Je pense que certaines des énigmes qui existent encore pourraient peut-être se résoudre d'elles-mêmes", a-t-il déclaré, "quand vous regardez avec des yeux différents."


“Manquant”— La matière noire pourrait-elle être une source de lumière dans l'univers ?

Toute la lumière de l'univers observable fournit à peu près autant d'éclairage qu'une ampoule de 60 watts vue à 4 km de distance. Et toute l'énergie jamais rayonnée par toutes les étoiles qui ont jamais existé est toujours avec nous, remplissant l'univers d'une sorte de brouillard, une mer de photons connue sous le nom de lumière de fond extragalactique. Et pourtant, une découverte en 2014 a suggéré que la source de lumière dans l'univers provenant de populations connues de galaxies et de quasars n'est pas suffisante pour expliquer les observations d'hydrogène intergalactique. Les filaments d'hydrogène et d'hélium qui relient les vastes étendues d'espace vide entre les galaxies que les astronomes utilisent comme « luxmètre » ont produit un écart étonnant de 400 %.

"La possibilité la plus excitante est que les photons manquants proviennent d'une nouvelle source exotique, pas du tout de galaxies ou de quasars", a déclaré Neal Katz de l'Université du Massachusetts à Amherst à propos de la découverte que la source de lumière dans l'Univers des populations connues de galaxies et de quasars est loin d'être suffisant pour expliquer les observations d'hydrogène intergalactique. Les filaments d'hydrogène et d'hélium qui relient les vastes étendues d'espace vide entre les galaxies que les astronomes utilisent comme un « luxmètre » précis donnent un écart étonnant de 400 %.

Matière noire exotique

"Les astronomes estiment que l'univers observable - une bulle de 14 milliards d'années-lumière de rayon, ce qui représente la distance que nous avons pu voir depuis son début - contient au moins deux billions de galaxies et un billion de billions d'étoiles", écrit Dennis Overbye pour & #8220Out There” dans le New York Times. « La plupart de ces étoiles et galaxies sont trop éloignées et trop faibles pour être vues avec un télescope connu des humains. »

Dans une étude de 2014, La crise de la sous-production de photons, publié dans The Astrophysical Journal, une équipe de scientifiques constate que la lumière des populations connues de galaxies et de quasars n'est pas suffisante pour expliquer les observations de l'hydrogène intergalactique. pièce, mais vous regardez autour de vous et ne voyez que quelques ampoules de 40 watts, a noté Juna Kollmeier du Carnegie Institute. “D'où vient toute cette lumière ? Il manque à notre recensement.

Arriver à un chiffre sur la quantité de lumière stellaire jamais produite a des variables qui le rendent difficile à quantifier. Mais selon la nouvelle mesure, le nombre de photons (particules de lumière visible) qui se sont échappés dans l'espace après avoir été émis par des étoiles se traduit par 4×10^84, ou beaucoup.

Entrez dans la mystérieuse matière noire, qui, suggère Katz, maintient les galaxies ensemble mais n'a jamais été vue directement, et pourrait elle-même se désintégrer et être finalement responsable de cette lumière supplémentaire. « Vous savez que c'est une crise lorsque vous commencez à parler sérieusement de matière noire en décomposition ! » plaisante-t-il.

"Ce qui est génial avec un écart de 400%, c'est que vous savez que quelque chose ne va vraiment pas", a commenté le co-auteur et astrophysicien, David Weinberg de l'Ohio State University. "Nous ne savons toujours pas avec certitude ce que c'est, mais au moins une chose que nous pensions savoir sur l'univers actuel n'est pas vraie."

Tout s'additionne dans l'univers primitif

Étrangement, cette inadéquation n'apparaît que dans le cosmos voisin, relativement bien étudié. Lorsque les télescopes se concentrent sur des galaxies à des milliards d'années-lumière et à des milliards d'années dans son passé, tout semble s'additionner. Le fait que cette comptabilité fonctionne dans l'univers primitif mais s'effondre localement a déconcerté les scientifiques.

La lumière en question est constituée de photons ultraviolets hautement énergétiques capables de convertir des atomes d'hydrogène électriquement neutres en ions chargés électriquement. Les deux sources connues de ces photons ionisants sont les quasars - alimentés par des gaz chauds tombant sur des trous noirs supermassifs plus d'un million de fois la masse du soleil - et les jeunes étoiles les plus chaudes.

Source manquante de photons ionisants

Les observations indiquent que les photons ionisants des jeunes étoiles sont presque toujours absorbés par le gaz dans leur galaxie hôte, de sorte qu'ils ne s'échappent jamais pour affecter l'hydrogène intergalactique. Mais le nombre de quasars connus est bien inférieur à celui nécessaire pour produire la lumière requise.

"Soit notre comptabilité de la lumière des galaxies et des quasars est très éloignée, soit il existe une autre source majeure de photons ionisants que nous n'avons jamais reconnue", a déclaré Kollmeier. « Nous appelons cette lumière manquante la crise de la sous-production de photons. Mais ce sont les astronomes qui sont en crise - d'une manière ou d'une autre, l'univers s'en sort très bien.

L'inadéquation est apparue en comparant les simulations de superordinateur du gaz intergalactique à l'analyse la plus récente des observations du spectrographe des origines cosmiques du télescope spatial Hubble.

« Les simulations s'adaptent parfaitement aux données de l'univers primitif, et elles s'adaptent parfaitement aux données locales si nous pouvons supposer que cette lumière supplémentaire est vraiment là », a expliqué Ben Oppenheimer, co-auteur de l'Université du Colorado. . Il est possible que les simulations ne reflètent pas la réalité, ce qui en soi serait une surprise, car l'hydrogène intergalactique est le composant de l'Univers que nous pensons comprendre le mieux.

La nouvelle version de l'image profonde de Hubble est affichée en haut de la page. En gris foncé, vous pouvez voir la nouvelle lumière qui a été trouvée autour des galaxies dans ce champ et la luminosité de plus de cent milliards de soleils. L'image a pris près de trois ans aux chercheurs de l'Instituto de Astrofísica de Canarias pour produire cette image la plus profonde de l'Univers jamais prise depuis l'espace, en récupérant une grande quantité de lumière « perdue » autour des plus grandes galaxies dans l'emblématique champ ultra-profond de Hubble.


5. La gravité atteint

La matière noire n'est peut-être pas vraiment une "truc" - cela pourrait juste être un nom trompeur pour le comportement étrange de la gravité. La théorie appelée MOND (dynamique newtonienne modifiée), suggère que la gravité ne s'estompe pas aussi rapidement que les théories actuelles le prédisent. Cette gravité plus forte peut remplir le rôle de matière noire, en maintenant ensemble des galaxies et des amas qui autrement s'envoleraient. Une nouvelle formulation de MOND, cohérente avec la relativité, a ravivé l'intérêt pour l'idée, bien qu'elle puisse ne pas correspondre au motif des taches dans le fond diffus cosmologique.


Tirer les secrets de la matière noire d'un chapeau

Au premier étage du Laboratoire de sciences nucléaires du MIT est suspendu un instrument appelé « A Broadband/Resonant Approach to Cosmic Axion Detection with an Amplifying B-field Ring Apparatus », ou ABRACADABRA en abrégé. Comme son nom l'indique, l'objectif d'ABRACADABRA est de détecter les axions, une particule hypothétique qui pourrait être le principal constituant de la matière noire, la matière invisible et encore inexpliquée qui constitue la majeure partie de l'univers.

Pour Chiara Salemi, étudiante de quatrième année en physique dans le groupe de Lindley Winslow, professeur agrégé de développement de carrière Jerrold R. Zacharias en physique, ABRACADABRA est l'instrument parfait sur lequel travailler pendant son doctorat. «Je voulais une petite expérience pour pouvoir faire toutes les différentes parties de l'expérience», explique Salemi. ABRACADABRA, qui consiste en un aimant extrêmement bien protégé, a la taille d'un ballon de basket.

La volonté de Salemi de travailler sur tous les aspects est unique. "La physique expérimentale a à peu près trois composants: le matériel, le calcul et la phénoménologie", explique Winslow, les étudiants se penchant vers l'un des trois. « L'affinité et les forces de Chiara sont réparties uniformément dans les trois domaines », déclare Winslow. "Cela fait d'elle une élève particulièrement forte."

Depuis le début de son doctorat, Salemi a travaillé sur tout, de la mise à jour des circuits d'ABRACADABRA pour sa deuxième exécution à l'analyse des données de l'instrument pour rechercher le premier signe d'une particule de matière noire.

Un heureux accident

Lorsque Salemi a commencé l'université, elle n'avait pas l'intention de poursuivre des études de physique. "Je penchais pour la science, mais je n'étais pas totalement sûr de cela ou du domaine scientifique que j'aimerais." Au cours de son premier semestre à l'Université de Caroline du Nord à Chapel Hill, elle a étudié la physique dans le but de déterminer si cela pourrait être un domaine qui pourrait l'intéresser. faire de la recherche, et la recherche est amusante.

Tout au long de sa carrière de premier cycle, Salemi a accumulé des expériences de recherche. Elle a opéré des radiotélescopes en Virginie-Occidentale. Elle a passé un semestre à Genève, en Suisse, à la recherche des désintégrations du boson de Higgs à l'Organisation européenne pour la recherche nucléaire, mieux connue sous le nom de CERN. Au Lawrence Berkeley National Laboratory, elle a bricolé la conception de semi-conducteurs pour la détection des neutrinos. C'est lors de l'une de ces expériences de recherche, un programme d'été au Fermilab dans l'Illinois, qu'elle a commencé à travailler avec les axions. "Comme beaucoup de choses dans la vie, c'était un accident."

Salemi avait postulé pour le programme d'été parce qu'elle voulait continuer à travailler sur les neutrinos et "Le laboratoire Fermi est la plaque tournante de tout ce qui concerne les neutrinos". Mais quand elle est arrivée là-bas, Salemi a découvert qu'elle était affectée au travail sur les axions. "J'ai été extrêmement déçu, mais j'ai fini par tomber amoureux des axions, car ils sont vraiment intéressants et différents des autres expériences de physique des particules."

Les particules élémentaires dans l'univers et les forces qui régulent leurs interactions sont expliquées par le modèle standard de la physique des particules. Le nom dément l'importance de cette théorie, le modèle standard, qui a été développé au début des années 1970, décrit presque tout dans le monde subatomique. "Mais il y a d'énormes trous béants", dit Salemi. "Et l'un de ces énormes trous béants est la matière noire."

La matière noire est une matière que nous ne pouvons pas voir. Contrairement à la matière normale, qui interagit avec la lumière - l'absorbant, la réfléchissant, l'émettant - la matière noire n'interagit pas ou à peine avec la lumière, la rendant invisible à l'œil nu et aux instruments actuels. Son existence se déduit de son impact sur la matière visible. Malgré son invisibilité, la matière noire est beaucoup plus abondante, dit Salemi. "Il y a cinq fois plus de matière noire dans l'univers que de matière normale."

Comme son homologue visible, qui est composé de particules telles que des neutrons, des protons et des électrons, la matière noire est également composée de particules, mais les physiciens ne savent toujours pas exactement de quels types. Un candidat est l'axion, et ABRACADABRA a été conçu pour le trouver.

Petit mais puissant

Comparé au Large Hadron Collider du CERN, qui est un instrument chargé de détecter les particules proposées et a une circonférence de 16,6 miles, ABRACADABRA est minuscule. Pour Salemi, l'instrument est représentatif d'une nouvelle ère de la physique de table. La stratégie de prédilection était de créer des instruments de plus en plus gros pour rechercher des particules de plus en plus insaisissables, mais celles-ci sont devenues de plus en plus chères. «À cause de cela, les gens proposent toutes sortes d'idées vraiment intéressantes sur la façon de continuer à faire des découvertes, mais avec un budget plus petit», explique Salemi.

La conception d'ABRACADABRA a été développée en 2016 par trois théoriciens : Jesse Thaler, professeur agrégé de physique Benjamin Safdi, alors boursier du MIT Pappalardo et Yonatan Kahn PhD '15, alors étudiant diplômé de Thaler. Winslow, un physicien expérimental des particules, a pris cette conception et a compris comment en faire une réalité.

ABRACADABRA est composé d'une série de bobines magnétiques en forme de tore - imaginez un beignet allongé - enveloppées dans un métal supraconducteur et maintenues réfrigérées autour du zéro absolu. L'aimant, qui, selon Salemi, a à peu près la taille d'un gros pamplemousse, génère un champ magnétique autour du tore mais pas dans le trou du beignet. Elle explique que, si des axions existent et interagissent avec le champ magnétique, un deuxième champ magnétique apparaîtra dans le trou du beignet. "L'idée est que ce serait une région à champ zéro, à moins qu'il n'y ait un axion."

Cela peut prendre 10 ans ou plus pour prendre une conception théorique pour une expérience et la rendre opérationnelle. Le voyage d'ABRACADABRA a été beaucoup plus court. « Nous sommes passés d'un article théorique publié en septembre 2016 à un résultat en octobre 2018 », explique Winslow. The geometry of the toroidal magnet, Winslow says, provides a naturally low background region, the donut hole, in which to search for axions. “Unfortunately, we have gotten through the easy part and now have to reduce those already-low backgrounds,” says Winslow. “Chiara led the effort to increase the sensitivity of the experiment by a factor of 10,” says Winslow.

To detect a second magnetic field generated by an axion, you need an instrument that is incredibly sensitive, but also shielded from external noise. For ABRACADABRA, that shielding comes from the superconducting material and its frigid temperature. Even with these shields, ABRACADABRA can detect people walking in the lab and even pick up radio stations from around Boston, Massachusetts. “We can actually listen to the station from our data,” Salemi says. “It’s like the most expensive radio.”

If an axion signal is detected, Salemi and colleagues will first try hard to disprove it, looking for all potential sources of noise and eliminating them one by one. According to Salemi, detecting dark matter means awards, even a Nobel Prize. “So you don’t publish that kind of result without spending a very long time to make sure it’s correct.”

Results from ABRACADABRA’s first run were published in March 2019 in Lettres d'examen physique by Salemi, Winslow, and others in MIT's Department of Physics. No axions were detected, but the run pointed out tweaks the team could make to increase the instrument’s sensitivity prior to its second run that began in January 2020. “We have been working on setting up, running, and analyzing run 2 for about a year and a half,” says Salemi. Currently, all the data has been collected and the group is finishing up the analysis. The results of which will be published later this year.

As they prepare those results for publication, Salemi and her colleagues are already thinking of the next generation of axion detectors, called DM Radios, for Dark Matter Radios. Salemi says that this will be a much larger, multi-institute collaboration, and the design of the new instrument is still being conceived, including deciding the shape of the magnet. “We have two possible designs: One is the donut shape, and the other one is a cylinder shape.”

The search for axions began in 1977, when they were first theorized, and since the 1980s experimental physicists have been designing and improving instruments for detecting this elusive particle. For Salemi, it would be amazing to continue working on axions through to their discovery, although no one can predict when that may happen. “But, seeing experimental low-mass axion dark matter through from around the start to the finish? That I could do,” she says. “Fingers crossed.”


UCI-led study rules out dark matter destruction as origin of extra radiation in galaxy center

Irvine, Calif., Aug. 26, 2020 – The detection more than a decade ago by the Fermi Gamma Ray Space Telescope of an excess of high-energy radiation in the center of the Milky Way convinced some physicists that they were seeing evidence of the annihilation of dark matter particles, but a team led by researchers at the University of California, Irvine has ruled out that interpretation.

In a paper published recently in the journal Examen physique D, the UCI scientists and colleagues at Virginia Polytechnic Institute and State University and other institutions report that – through an analysis of the Fermi data and an exhaustive series of modeling exercises – they were able to determine that the observed gamma rays could not have been produced by what are called weakly interacting massive particles, most popularly theorized as the stuff of dark matter.

By eliminating these particles, the destruction of which could generate energies of up to 300 giga-electron volts, the paper’s authors say, they have put the strongest constraints yet on dark matter properties.

“For 40 years or so, the leading candidate for dark matter among particle physicists was a thermal, weakly interacting and weak-scale particle, and this result for the first time rules out that candidate up to very high-mass particles,” said co-author Kevork Abazajian, UCI professor of physics & astronomy.

“In many models, this particle ranges from 10 to 1,000 times the mass of a proton, with more massive particles being less attractive theoretically as a dark matter particle,” added co-author Manoj Kaplinghat, also a UCI professor of physics & astronomy. “In this paper, we’re eliminating dark matter candidates over the favored range, which is a huge improvement in the constraints we put on the possibilities that these are representative of dark matter.”

Abazajian said that dark matter signals could be crowded out by other astrophysical phenomena in the Galactic Center – such as star formation, cosmic ray deflection off molecular gas and, most notably, neutron stars and millisecond pulsars – as sources of excess gamma rays detected by the Fermi space telescope.

This representation of data from the Fermi Gamma Ray Space Telescope after its launch in 2008 shows an excess of high-energy radiation in the Milky Way’s Galactic Center. Many physicists attributed this to the annihilation of weakly interacting dark matter particles, but a UCI-led study has excluded this possibility through a range of particle masses. Oscar Macias for UCI

“We looked at all of the different modeling that goes on in the Galactic Center, including molecular gas, stellar emissions and high-energy electrons that scatter low-energy photons,” said co-author Oscar Macias, a postdoctoral scholar in physics and astronomy at the Kavli Institute for the Physics and Mathematics of the Universe at the University of Tokyo whose visit to UCI in 2017 initiated this project. “We took over three years to pull all of these new, better models together and examine the emissions, finding that there is little room left for dark matter.”

Macias, who is also a postdoctoral researcher with the GRAPPA Centre at the University of Amsterdam, added that this result would not have been possible without data and software provided by the Fermi Large Area Telescope collaboration.

The group tested all classes of models used in the Galactic Center region for excess emission analyses, and its conclusions remained unchanged. “One would have to craft a diffuse emission model that leaves a big ‘hole’ in them to relax our constraints, and science doesn’t work that way,” Macias said.

Kaplinghat noted that physicists have predicted that radiation from dark matter annihilation would be represented in a neat spherical or elliptical shape emanating from the Galactic Center, but the gamma ray excess detected by the Fermi space telescope after its June 2008 deployment shows up as a triaxial, bar-like structure.

“If you peer at the Galactic Center, you see that the stars are distributed in a boxy way,” he said. “There’s a disk of stars, and right in the center, there’s a bulge that’s about 10 degrees on the sky, and it’s actually a very specific shape – sort of an asymmetric box – and this shape leaves very little room for additional dark matter.”

Does this research rule out the existence of dark matter in the galaxy? “No,” Kaplinghat said. “Our study constrains the kind of particle that dark matter could be. The multiple lines of evidence for dark matter in the galaxy are robust and unaffected by our work.”

Far from considering the team’s findings to be discouraging, Abazajian said they should encourage physicists to focus on concepts other than the most popular ones.

“There are a lot of alternative dark matter candidates out there,” he said. “The search is going to be more like a fishing expedition where you don’t already know where the fish are.”


What if the filter is ahead of us?

These possibilities assume that the Great Filter is behind us—that humanity is a lucky species that overcame a hurdle almost all other life fails to pass. This might not be the case, however life might evolve to our level all the time but get wiped out by some unknowable catastrophe. Discovering nuclear power is a likely event for any advanced society, but it also has the potential to destroy such a society. Utilizing a planet's resources to build an advanced civilization also destroys the planet: the current process of climate change serves as an example. Or, it could be something entirely unknown, a major threat that we can't see and won't see until it's too late.

The bleak, counterintuitive suggestion of the Great Filter is that it would be a bad sign for humanity to find alien life, especially alien life with a degree of technological advancement similar to our own. If our galaxy is truly empty and dead, it becomes more likely that we've already passed through the Great Filter. The galaxy could be empty because all other life failed some challenge that humanity passed.

If we find another alien civilization, but not a cosmos teeming with a variety of alien civilizations, the implication is that the Great Filter lies ahead of us. The galaxy should be full of life, but it is not one other instance of life would suggest that the many other civilizations that should be there were wiped out by some catastrophe that we and our alien counterparts have yet to face.

Fortunately, we haven't found any life. Although it might be lonely, it means humanity's chances at long-term survival are a bit higher than otherwise.


Astronomy's future waits on NASA's next big telescope

The high-profile, high-price tag James Webb Space Telescope is finally moving closer to launch.

Why it matters: The Webb has been in development by NASA for far longer than expected, and while other missions have moved ahead in that time, getting the powerful telescope to space is a top priority.

Stay on top of the latest market trends and economic insights with Axios Markets. Subscribe for free

The Nancy Grace Roman telescope is on deck after the Webb, and NASA is expected to select a new flagship mission in the coming months that will require a wealth of resources as well.

The Roman telescope, expected to gather data to help scientists understand dark matter and dark energy, will have a view one hundred times larger than the Hubble.

Driving the news: The Webb is now in the final stages of testing in the U.S. before being shipped to French Guiana ahead of its expected launch from there at the end of October.

Scientists have already dolled out the first year of observation time for the telescope.

"We're going to be able to piece together what the universe's story was in the first billion years after the Big Bang," says Caitlin Casey, an astronomer at the University of Texas at Austin, who co-leads a team that received a large allocation of time with the Webb.

Yes, but: A problem with the Ariane 5, the rocket expected to take the Webb to space could still delay the mission, according to a Space News report.

Last week, the U.S. Government Accountability Office released a report detailing 39 risks that still threaten the success of the telescope before and after launch.

Most of those technical risks — including the telescope's deployment once in space — will need to be managed after launch. The report doesn't offer new recommendations to NASA on how to manage them, saying the space agency instituted fixes for management issues in 2019.

Background: The Webb could transform space science, revealing the light of never-before-seen galaxies and stars. But there have been billions of dollars in budget overruns and delays for the telescope.

"It's the most complex piece of civil space robotics in all of human history," astronomer Grant Tremblay told me.

The Webb's development has been long and filled with setbacks, but that isn't unprecedented.

The Hubble Space Telescope’s early years in space were marked by a major problem with a mirror, which eventually forced NASA to launch a crew of astronauts to service it.

Webb, however, won't have that option if all doesn't go to plan after launch. The telescope will be about one million miles from Earth, too far away for a crewed mission to reach it.

The big picture: Researchers working on telescopes expected to follow Webb in the pipeline have also learned from the errors made during its development.

Scientists are currently proposing large flagship missions to follow along after the Roman telescope launches, and those potential missions have better budget models, more realistic timelines and development plans than the Webb did at this stage.

"Everything's just so much more advanced thanks in part to lessons learned from Webb," Tremblay added.

Like this article? Get more from Axios and subscribe to Axios Markets for free.


Something is off

The DES collaboration compared their results with those from other major surveys, such as the Planck survey of the cosmic microwave background, the echo of the Big Bang revealed in a faint glow of radiation that pervades the universe. Their results almost perfectly matched up with existing observations and with prevailing cosmological theory: We live in an expanding universe that is about 13.7 billion years old, whose mass-energy is made of roughly one-third matter (most of which is dark matter), with the rest made of dark energy.

But one measurement stood out: a parameter called S8, which characterizes the amount of clumpiness in the universe. The higher the value of S8, the more tightly matter clumps together. The new DES results favor a value for S8 of 0.776, while the older Planck results showed a slightly higher value, 0.832.

The Planck results come from measurements of the early universe, while the DES results come from later in the universe. These two numbers should agree, and if they really are different, then our understanding of how giant structures grow and evolve over cosmic time &mdash which rests on our understanding of gravity through Einstein's general theory of relativity &mdash might be wrong. Because nobody expected to find this discrepancy, astrophysicists haven't explored exactly what parts of relativity may be flawed.

Cue the headlines hailing the DES results as a major crack in the foundations of our modern cosmological theories. "I spent my life working on this theory [of structure formation] and my heart tells me I don't want to see it collapse," Carlos Frenk, a cosmologist at Durham University in England, who was not associated with DES, told BBC News. "But my brain tells me that the measurements were correct, and we have to look at the possibility of new physics."

But what those headlines (and articles) neglect to mention is the uncertainty. Every measurement carries uncertainty with it &mdash scientists can be only so precise given the amount of data available. When statistical uncertainties are included, the DES and Planck results generally overlap with each other. Not a lot &mdash so the difference is worth digging deeper into &mdash but not enough to set off alarm bells. In the language of statistics, the two measurements are off by only 2.3 standard deviations, meaning that if there really was no real difference between the values of S8, and the observations were to be repeated 100 times, they would give the same (or bigger) difference 98 times. That's far short of the 5 standard deviations usually needed to herald a new discovery.


Voir la vidéo: Syksy Räsänen - Näkymätön luuranko - pimeä aine maailmankaikkeudessa (Juillet 2021).