Astronomie

Les collisions de restes de type mixte produisent-elles quelque chose d'intéressant ?

Les collisions de restes de type mixte produisent-elles quelque chose d'intéressant ?

La détection récente d'une étoile à neutrons binaire inspirant et entrant en collision soulève une question intéressante dans mon esprit. On pense que les supernovae de type Ia sont causées par des paires d'étoiles naines blanches/régulières et/ou des paires de naines blanches. On sait maintenant que les sursauts gamma courts sont produits par des collisions étoile à neutrons/étoile à neutrons. Les collisions trou noir/trou noir n'ont produit aucun rayonnement électromagnétique détecté de manière vérifiable. Qu'en est-il des autres collisions de type mixte ? Surtout naine blanche/étoile à neutrons ou étoile à neutrons/trou noir ?

Ma compréhension est que les binaires stellaires ont tendance à avoir une masse similaire, donc les restes de type mixte seront probablement plutôt rares. Par conséquent, pourquoi je n'ai pas posé de questions sur les binaires naine blanche/trou noir. Même ainsi, je suis curieux de savoir comment la grande différence de densité affecterait les choses. Surtout si une étoile à neutrons serait déchiquetée en un disque d'accrétion par un trou noir avant de pouvoir entrer en collision, créant un événement relativement lent, ou le processus sera-t-il plus rapide et violent, semblable aux événements que nous avons vus jusqu'à présent ?


Un oeil sur l'univers

En août 2017, le monde a découvert l'idée d'une kilonova, une explosion résultant de la fusion de deux étoiles à neutrons. LIGO et VIRGO ont détecté des ondes gravitationnelles provenant de la galaxie lenticulaire NGC 4993, et un transitoire électromagnétique a été observé peu après. Alors que l'idée d'une kilonova avait été explorée pendant des années, aucune détection directe n'avait été confirmée. Soudainement, les astronomes disposaient de données fiables sur un nouveau type d'explosion fascinant avec des implications pour l'astronomie des ondes gravitationnelles, notre compréhension des sursauts gamma et bien plus encore.

Les Kilonovae ne sont pas les seuls événements intéressants impliquant des progéniteurs doublement dégénérés, bien sûr, loin de là. Par exemple, nous nous attendons à ce que les collisions de restes mixtes produisent également des transitoires observables. Certaines des possibilités les plus excitantes, cependant, impliquent les résultats de ces fusions. La kilonova de 2017, par exemple, a probablement produit une étoile à neutrons massive qui s'est ensuite effondrée dans un trou noir. D'autres événements dégénérés doubles, cependant, peuvent conduire à des produits stables.

Prenez, par exemple, la fusion de deux naines blanches dans un système binaire. Si la masse combinée est suffisamment élevée, il est possible d'allumer une supernova de type Ia, un processus qui a jeté un frein à l'idée d'utiliser ces supernovae comme bougies standard. Cependant, dans le cas d'une naine blanche CO et d'une naine blanche He, le produit résultant force devenir ce qu'on appelle une variable R Coronae Borealis (R CrB), qui peut survivre pendant quelque chose de l'ordre de 10 000 ans.

La courbe de lumière de R Coronae Borealis de 1990 à 2017. Notez les baisses irrégulières de luminosité d'environ 8 magnitudes, ainsi que le creux extrême vers 2007. Crédit image : Wikipédia utilisateur Lithopsian, sous licence Creative Commons ShareAlike Unported 3.0.

Les étoiles R CrB existent depuis plus de 200 ans, depuis la découverte de leur supergéante jaune homonyme en 1795. Au cours des siècles qui ont suivi, plusieurs de leurs propriétés se sont démarquées :

  • Ils présentent de courtes variations de luminosité de l'ordre de 0,1 magnitude, évoluant sur environ un mois.
  • Ils sont extrêmement pauvres en hydrogène (avec certains sans hydrogène), mais peuvent présenter des niveaux de carbone et d'azote plus élevés que d'habitude.
  • De temps en temps, les variables R CrB peuvent diminuer jusqu'à huit grandeurs, en plus de leur

En bref, ils constituent une classe de géantes d'hélium riches en carbone et en oxygène avec de grandes différences d'abondance d'hydrogène, ainsi que des variations de luminosité de faible et de forte amplitude. La différence d'hydrogène a été prise par certains pour indiquer qu'un certain nombre de mécanismes de formation différents sont à l'œuvre. Ces mécanismes peuvent être divisés en deux classes principales : les mécanismes à étoile unique et à étoile binaire.

Les modèles à étoile unique impliquent souvent une impulsion thermique tardive se produisant dans l'étoile centrale d'une nébuleuse protoplanétaire, dans les cas où la couche externe d'hélium est suffisamment massive pour déclencher un éclair de coquille. Cela devrait produire du carbone par le processus triple-alpha, ainsi que de l'oxygène par des voies secondaires.

Le modèle d'étoile binaire le plus courant est celui auquel j'ai fait allusion au début. Dans ce modèle, une naine blanche carbone-oxygène de 0,6 masse solaire accumule de la matière à partir d'une naine blanche d'hélium de 0,3 masse solaire, déclenchant finalement un flash d'hélium et envoyant le produit le long du diagramme de Hertzsprung-Russell pour devenir une géante jaune sur une échelle de temps d'un quelques centaines d'années, avec une possible combustion de la coquille d'hydrogène plus tôt si la naine He n'est pas exempte d'hydrogène. Après environ 10 000 ans, le géant évoluera vers le bleu, mettant finalement fin à sa vie pour de bon.

Figure 1, Saio & Jeffrey 2002. Les pistes évolutives d'une variable R CrB après le début de l'accrétion dépendent de sa teneur en hydrogène, mais elles aboutissent toutes à des luminosités de

10 000 fois celle du Soleil.

L'explication des pulsations observées dans les variables R Coronae Borealis est légèrement plus banale. On pense que les pulsations radiales sont responsables de la

0,1 variations de magnitude, tandis que la poussière circumstellaire éjectée conduit probablement à une gradation beaucoup plus dramatique. Ces idées ne sont pas directement liées aux modèles d'ancêtres, qui sont principalement motivés par les abondances chimiques particulières de ces géantes jaunes de faible masse.

Les étoiles R CrB ne sont qu'une classe d'étoiles variables, mais comme toutes les étoiles chimiquement particulières, leur abondance est le signe clair d'un passé inhabituel. J'ai parcouru le principal mécanisme d'ancêtre binaire, mais il existe d'autres idées, certaines plus exotiques. En supposant que le modèle naine blanche-naine blanche soit effectivement responsable de certains sous-ensembles de ces étoiles pauvres en hydrogène, nous pourrions cependant avoir une opportunité vraiment intéressante d'étudier l'avenir des systèmes dégénérés doubles.


Les collisions de restes de type mixte produisent-elles quelque chose d'intéressant ? - Astronomie

1. Introduction aux collisions de galaxies.

« Les galaxies étaient autrefois considérées comme des univers insulaires isolés, pour la plupart non évolutifs, de quelques types caractéristiques, et donc plutôt comme des structures cristallines classiques. Au cours des dernières décennies, notre vision des galaxies a radicalement changé. Nous pensons maintenant que les processus évolutifs sont importants même dans les galaxies isolées et non perturbées, et de plus, que la plupart des galaxies sont fortement, voire violemment affectées par leur environnement. Plus précisément, comme cela sera expliqué ci-dessous, on pense maintenant que la plupart des galaxies subissent plusieurs collisions ou interactions de marée au cours de leur vie qui sont suffisamment fortes pour modifier profondément leur structure et accélérer les processus évolutifs (voir Figure 1). Ainsi, les collisions et les interactions sont maintenant généralement considérées comme l'un des principaux moteurs de l'évolution des galaxies. Les processus de formation et d'évolution des galaxies sont intimement liés à la formation des étoiles, et donc à une variété d'autres problèmes d'intérêt général, notamment : l'accumulation d'éléments lourds dans l'univers, la formation de systèmes planétaires, et la production et la distribution de rayons cosmiques galactiques. Par conséquent, des sujets aussi divers que l'abondance solaire de carbone et le taux de mutations biologiques dans les « univers insulaires » comme le nôtre dépendent dans une certaine mesure de l'environnement à grande échelle et de l'histoire des collisions de la galaxie.

Pour le moment, cependant, revenons au royaume de l'astronomie extragalactique. Il y a un autre aspect des collisions de galaxies, qui n'a pas été beaucoup pris en compte jusqu'à récemment. C'est l'utilisation des collisions galactiques comme sonde de la structure et de la stabilité galactiques. En bref, en raison de l'universalité de la masse des galaxies et des distributions cinématiques, il apparaît que les principaux composants structurels des galaxies sont individuellement et collectivement dans des états de quasi-équilibre. Les processus évolutifs séculaires empêchent l'atteinte d'un équilibre complet. De plus, le taux de formation d'étoiles et la distribution du gaz interstellaire peuvent être le résultat d'une autorégulation dynamique, plutôt que d'un équilibre thermodynamique. Dans tous les cas, il est généralement difficile de connaître la nature d'un état d'équilibre simplement parce qu'il s'agit d'un état unique. La manière habituelle de sonder de telles variables dans un système dynamique consiste à étudier la réponse du système à une perturbation. Comme nous le verrons en détail ci-dessous, les collisions sont les perturbations naturelles des galaxies de quasi-équilibre et des disques de galaxies en particulier, et la nature en fournit une variété abondante. Cet auteur pense que l'étude des systèmes perturbés par collision deviendra le principal moyen d'apprendre la physique de la formation d'étoiles qui est orchestrée à grande échelle, ainsi que l'équilibre de phase et d'autres caractéristiques thermo-hydrodynamiques du gaz interstellaire.

Cet article est destiné à fournir une vue d'ensemble aux étudiants novices en la matière et aux non-spécialistes d'autres domaines des sciences physiques qui souhaitent une introduction à celle-ci. J'insiste sur des descriptions physiques simples des phénomènes dans la mesure du possible et sur les relations physiques entre les différents phénomènes. Dans de nombreuses situations complexes où cela n'est pas possible, les simulations numériques publiées nous donnent une vision de la dynamique et fournissent fréquemment également de nouvelles informations. Dans certains cas, la théorie n'est pas encore suffisamment développée pour permettre la construction d'un bon modèle, et il n'est pas encore possible de décrire une théorie dynamique complète des collisions galactiques. Néanmoins, il semble qu'il existe un consensus sur de nombreuses caractéristiques générales, ainsi que sur de nombreux détails, d'une telle théorie. Par conséquent, la majeure partie de cet article est structurée le long d'un chemin parallèle aux histoires dynamiques génériques des galaxies collisionnelles. Les dernières sections considèrent les collisions dans des environnements plus larges, mais le développement de ces environnements est une autre séquence temporelle étroitement liée.

J'accorderai relativement peu d'attention aux détails des techniques actuelles de modélisation numérique et d'analyse des données, car celles-ci sont soulignées dans un certain nombre d'excellentes sources énumérées plus loin. D'autre part, dans quelques sections I, il y a beaucoup de détails spécialisés. Les nouveaux arrivants qui ne sont pas particulièrement intéressés par de tels détails trouveront généralement un aperçu et un résumé au début et à la fin de chaque section principale. Ce premier chapitre consiste principalement en une brève introduction historique, qui aborde les questions - pourquoi quelqu'un étudie-t-il un sujet si éloigné de la vie quotidienne, et comment ces études ont-elles commencé ?

« La littérature sur les collisions et les interactions entre galaxies est devenue trop vaste pour être résumée de manière équitable en un seul article. Dans la mesure du possible, il s'agira d'un examen des critiques. C'est-à-dire que si une revue à jour existe déjà, j'y référerai généralement le lecteur et limiterai la discussion ici. Inévitablement, cela signifie que des articles importants seront absents de la liste de référence, une circonstance à la fois regrettable et nécessaire.

Il existe plusieurs excellents livres ou articles de synthèse qui couvrent chacun de nombreux aspects de ce sujet, y compris les actes de conférence édités par Sulentic, Keel et Telesco (1990), Wielen (1990) et Combes et Athanassoula (1993), et le articles de Schweizer (1986), Noguchi (1990) et Barnes et Hernquist (1992). Deux publications supplémentaires, contenant de nombreuses revues techniques, étaient sur le point d'être disponibles alors que cet article était en cours d'achèvement (Friedli, Martinet, & Pfenniger 1998, Sanders 1998). L'auteur a eu accès aux versions pré-imprimées de certains de ces articles, mais pas aux livres dans leur ensemble. Il existe également des livres populaires avec une certaine couverture du sujet, notamment Ferris (1980), Parker (1990) et Malin (1993). Le livre de Parker, en particulier, offre un résumé historique intéressant.

Avant de continuer, nous devons définir le terme "collision de galaxie", qui a jusqu'à présent été utilisé de manière assez vague. En fait, il sera utilisé dans un sens très général dans cet article pour indiquer toute rencontre rapprochée ayant un effet significatif sur l'une des galaxies impliquées. Le terme « interaction de marée » est plus couramment utilisé sur le terrain, car les forces de gravité des marées sont responsables des effets les plus importants. Ces forces sont capables de générer des effets spectaculaires sans impliquer l'intersection réelle des parties visibles des deux galaxies à l'approche la plus proche. Un quasi-accident est aussi bon qu'un coup sûr dans ce domaine. Pourtant, il peut sembler que cette définition générale du terme collision est trompeuse. Cependant, des distinctions fines ne sont pas nécessaires aux fins présentes et, en fait, peuvent être elles-mêmes trompeuses. Comme nous le verrons ci-dessous, presque toutes les "interactions" significatives impliquent l'intersection soit des halos sombres des galaxies individuelles, soit la médiation d'un halo de groupe commun. Il convient également de noter que l'adjectif « important » dépend fortement du contexte, comme cela apparaîtra clairement ci-dessous.

Les collisions de galaxies impliquent une énorme quantité d'énergie. Deux objets avec des masses de l'ordre de 10 12 masses solaires ou 2 x 10 42 kg rencontrent des vitesses relatives typiques d'environ 300 km/s, donc l'énergie de collision est de l'ordre 10 53 J. Cette énergie équivaut à environ 10 8 -9 supernovae, par exemple, un certain nombre de supernovae qui peuvent finalement être produites lors de la fusion des deux galaxies. Malgré la grande énergie, la vitesse de rencontre modeste (environ 0,1% de la vitesse de la lumière) signifie qu'il ne s'agit pas d'un phénomène de haute énergie au sens habituel de la physique collisionnelle. Néanmoins, comme les énergies sont comparables aux énergies de liaison des galaxies, les collisions peuvent avoir des effets évolutifs très importants.

Les collisions de galaxies sont extrêmement lentes par rapport aux normes terrestres, avec des échelles de temps typiques de l'ordre de 3 x 10 8 ans, ou 10 16 secondes. Il y a peu d'espoir d'observer directement l'une quelconque des dynamiques. Ainsi, lorsque nous regardons les images des centaines de galaxies collisionnelles suspectées qui sont suffisamment proches pour observer en détail, ce que nous voyons est une galerie d'instantanés de systèmes caractérisés par une grande variété de paramètres structurels et collisionnels. De plus, ces systèmes sont pris au hasard dans l'interaction. Ce fait est l'une des principales raisons pour lesquelles il est si difficile d'interpréter les observations et d'organiser les systèmes dans un schéma de classification physique. Ce fait réapparaît sous de nombreuses formes différentes ci-dessous.

Nous verrons ci-dessous qu'une grande partie de l'énergie de collision est redistribuée ou dissipée sur l'échelle de temps d'interaction. Le taux de dissipation est de l'ordre L = E/ t = 10 37 W. Il s'agit de la luminosité maximale d'une supernova (brillante). C'est un peu moins que la sortie d'une rafale d'étoile typique résultant de la collision, et moins que la luminosité de la plupart des quasars et autres noyaux galactiques actifs.

L'un des aspects les plus fascinants des collisions de galaxies est le fait que la plupart de la matière impliquée n'entre en collision avec rien. En premier lieu, la majeure partie de la masse d'une galaxie typique est constituée de matière noire sans collision. Ainsi, la matière noire de la galaxie compagne traverse celle de la cible sans effets hormis ceux dus à leurs forces gravitationnelles collectives. De même, il n'y a qu'une très faible probabilité de collisions directes étoile-étoile. La section efficace d'une étoile comme le Soleil est d'environ 10 17 m 2 , tandis que la densité surfacique des étoiles proches du Soleil est de l'ordre de 10 par année-lumière au carré (10 -32 m -2 ). Cela implique que la probabilité de collision est de l'ordre de 10 -15 pour une étoile typique. La densité stellaire est beaucoup plus grande au centre des galaxies, mais le point de base n'est pas modifié.

D'autre part, les composants neutres chauds du gaz interstellaire dans le disque de notre galaxie ont un facteur de remplissage important (par exemple Dickey et Lockman 1990, Combes 1991). Une conclusion similaire est impliquée par le fait que la surface des trous de faible densité dans l'hydrogène gazeux neutre est petite dans d'autres disques de galaxies de type tardif (Brinks 1990). De plus, le facteur de remplissage du gaz coronal chaud ou du halo entourant le disque mince et froid dans ces galaxies est probablement essentiellement l'unité (voir par exemple McKee 1993). Ainsi, il doit y avoir des collisions directes entre les différents composants du gaz lorsque deux galaxies à disques riches en gaz entrent en collision. La nature des collisions entre les éléments gazeux dans les deux galaxies dépend beaucoup de leur état thermique. Les collisions entre les nuages ​​froids seront hautement supersoniques, par ex. caractérisé par des nombres de Mach d'ordre 300 pour des nuages ​​avec une température moyenne de 100K entrant en collision avec une vitesse relative de 300 km/s. À l'autre extrême, la vitesse du son dans le gaz coronal est de l'ordre de 100 km/s, de sorte que les collisions entre halos de gaz à de telles vitesses seront transsoniques. Les forces de marée dans les interactions galactiques qui n'incluent pas les collisions directes peuvent entraîner des ondes à des vitesses supersoniques par rapport au gaz froid à l'intérieur du disque, mais les effets sont moins extrêmes.

1.3 Contexte et histoire ancienne

La Voie lactée et les nuages ​​de Magellan ont peut-être connu une rencontre de marée au cours des 10 9 dernières années (par exemple, Wayte 1991 pour un bref examen). Ainsi, il y a des collisions de galaxies à l'œil nu, bien que les effets sur la Voie lactée ne puissent pas être observés en sortant simplement dans l'arrière-cour. L'une des premières "nébuleuses spirales" découvertes avec le télescope, le système M51 relativement proche (bien qu'à une distance d'environ 9 mégaparsec ou 2,8 x 10 7 années-lumière) s'est également avéré être un système de collision. (Voir Byrd et Salo 1995 pour un examen des réflexions actuelles sur la nature de la collision). L'étude scientifique sérieuse des collisions de galaxies a commencé à la suite des premiers efforts visant à découvrir un système de classification morphologique des galaxies et de la grande accumulation d'images résultant de ces efforts. Je ne tenterai pas ici un compte rendu détaillé de la découverte des collisions de galaxies, bien que je pense que cela constituerait un sujet très fascinant pour un historien des sciences qualifié. Cependant, je ne peux pas résister à un échantillonnage anecdotique de l'histoire, d'autant plus qu'il prépare le terrain pour des développements ultérieurs (voir aussi Parker 1990).

Le travail de Hubble et de ses collègues dans la première moitié de ce siècle avait deux motivations principales. Le premier et le plus connu était le désir de voir si la forme de la relation décrivant l'expansion de l'univers, maintenant appelée loi de Hubble, variait à des distances et des périodes rétrospectives plus grandes. La deuxième motivation, à laquelle Hubble s'intéressait depuis une date tout aussi précoce, se concentrait sur la recherche de prototypes de classes importantes de galaxies, avec l'espoir ultime que, comme dans l'astronomie stellaire et de nombreuses autres sciences, les connexions évolutives entre les classes deviendraient apparentes. Un résultat majeur de ce travail est le schéma de diapason bien connu de Hubble, qui est essentiellement le tableau périodique de l'astronomie extragalactique. Ce système est passé en revue dans chaque manuel élémentaire et décrit en détail dans The Hubble Atlas of Galaxies (Sandage 1961, Sandage et Bedke 1994).

Le diagramme du diapason du livre de Hubble (1958, à l'origine 1936) est reproduit sur la figure 2. Le manche de la fourche se compose de galaxies elliptiques de plus en plus aplaties, dominées par de vieilles étoiles et contenant peu de gaz, de poussière et de jeunes étoiles. Les pinces de la fourche sont constituées de deux séquences parallèles de galaxies spirales ou disques, l'une avec une composante barre stellaire, l'autre sans. Dans chaque séquence de disques, la proéminence de la composante du renflement stellaire par rapport au disque étoile-plus-gaz diminue vers la droite (par exemple, de Sa à Sc). Généralement, la fraction gazeuse et la population d'étoiles jeunes augmentent de Sa à Sc. Les galaxies de la classe de transition S0 et de la classe Sa sont appelées galaxies de type précoce, tandis que celles de la classe Sc sont appelées de type tardif. Les bras en spirale ont tendance à être plus étroitement enroulés autour du centre dans les types précoces et plus ouverts, mais aussi plus irréguliers ou floconneux dans les types tardifs. Cette description de capsule ne représente très bien ni les critères de classification originaux, ni la compréhension moderne de ces galaxies, mais elle est suffisante pour les objectifs actuels. (Voir la revue de Roberts et Haynes 1994 pour une compréhension moderne.)

Dans les études de classification, des galaxies ont été découvertes qui ne rentraient dans aucune des catégories principales (par exemple, aucun des types de Hubble) et dont les morphologies étaient inhabituelles, étranges ou "particulières". Au cours des années suivantes, il a été démontré que si le bac "particulier" contenait une grande variété d'objets, il comprenait un certain nombre de galaxies déformées par des collisions. Il est intéressant de voir comment certains exemples, dont la plupart sont maintenant des systèmes collisionnels très connus et bien étudiés, ont été décrits à l'époque.

Il semble que Hubble ait classé un certain nombre de ces galaxies dans sa catégorie "Irrégulière", bien qu'il les décrive comme des "objets très particuliers" (1958, p. 47). Comme exemples, il cite NGC 5363, NGC 1275 et M82. Il suggère en outre que « presque tous nécessitent un examen individuel mais, compte tenu de leur nombre très limité, ils peuvent être négligés dans les enquêtes préliminaires sur les formes nébuleuses » (1958, p. 48).

Une autre description générale du programme de classification est fournie par le livre de Shapley Galaxies (1943, également édition révisée 1961), et nous y trouvons une petite section intitulée "Remark on Freaks". Shapley déclare,

Il existe également des spirales à plaques. et les types franchement "pathologiques" (comme Baade appelle ces monstres) comme NGC 5128. et le système ring-tail, NGC 4038-9, illustré à la figure 97.

Les théories qui expliquent suffisamment la spirale Sc d'apparence relativement simple, comme Messier 33, et les galaxies les plus courantes de la Vierge, doivent avoir une flexibilité suffisante pour prendre en charge ces types aberrants. L'interprète peut avoir besoin de recourir à l'hypothèse de collisions pour trouver des causes satisfaisantes. Il trouvera une justification, parce que les galaxies individuelles ne sont pas si loin séparées mais que les rencontres peuvent avoir été assez nombreuses, si l'échelle de temps a été assez longue. Nous ne sommes qu'au seuil de la maison de la connaissance galactique, et à l'intérieur se trouvent sans aucun doute de nombreuses pièces sombres et difficiles à explorer et à mettre en ordre.

Le point de Shapley sur la fréquence des compagnons galactiques a été repris par Baade -

Hubble et moi avions un pari de longue date de 20 $ pour celui qui pourrait d'abord convaincre l'autre qu'un système qu'il avait trouvé était unique. Nous ne pouvions jamais décider du pari que ni l'un ni l'autre ne pouvions retirer un camarade éloigné - dans certains cas, il y avait vraiment un compagnon et dans d'autres cas, il pourrait y en avoir. Ainsi, les galaxies isolées peuvent être rares. (Baade 1963)

Le commentaire de Shapley sur les collisions n'était probablement pas une spéculation aléatoire. Il est probable qu'il était au courant de l'article de Holmberg (1941). C'est évidemment le premier article à présenter des modèles d'interactions galactiques. La technique de Holmberg consistait à utiliser essentiellement un ordinateur analogique composé d'ampoules et de cellules photoélectriques. La chute 1/r 2 de l'intensité lumineuse devait représenter les forces gravitationnelles. En termes modernes, cela équivalait à une simulation à N corps avec N = 37 par galaxie (74 au total) et à une différence de temps brute. Néanmoins, les déformations de marée attendues ont été confirmées. Cette réalisation (ainsi que l'article précédent de Holmberg (1940)) peut être considérée comme le début de la théorie des collisions galactiques. Cela semble une évaluation juste même si les travaux décrits dans ces articles fondateurs avaient déjà des racines profondes dans l'école scandinave. Par exemple, Toomre (1977) fournit une citation des conjectures de Lindblad (1926) sur les collisions galactiques (dynamiques des gaz). Zwicky (1959) indique également que les travaux de Holmberg ont poursuivi les études de Lundmark sur plusieurs galaxies, qui datent d'environ 1920.

« Toomre (1977) met également l'accent sur les premiers travaux de Chandrasekhar sur la friction dynamique - « dissimulé dans plusieurs annexes d'époque de 1943 au livre de Chandrasekhar (1942) ». Cependant, il a fallu un certain temps avant que ces travaux ne soient appliqués aux collisions de galaxies (voir Toomre 1977).

Une décennie plus tard, Spitzer & Baade (1951) a étendu les travaux de Holmberg en envisageant l'élimination du gaz interstellaire (un processus maintenant appelé "stripping") dans les collisions à grande vitesse, qui, selon eux, devraient être courantes dans les amas denses de galaxies. Le décor était planté pour ce qui est sans doute l'article d'observation séminal dans ce domaine, les travaux de Baade et Minkowski (1954) annonçant la découverte que "la source radio Cygnus A est un objet extragalactique, deux galaxies en collision réelle". nombre d'autres sources radio lumineuses ont été reconnues comme des systèmes de collision (voir la revue de Zwicky 1959, sec. V). Pourtant, toutes les ramifications de ces découvertes (y compris les fusions de galaxies et les super-étoiles) ne seraient pas appréciées avant la fin des années 1970 et les années 1980. Il y a de nombreuses raisons à cela, y compris l'immaturité des technologies de détection infrarouge et la découverte surprenante des quasars, qui ont fait l'objet d'une grande attention dans les années 1960 et 1970. Ironiquement, la morphologie de Cygnus A s'est par la suite avérée être en grande partie le résultat de l'obscurcissement par la poussière d'un noyau actif plutôt que d'une collision galactique en cours. Pourtant, des observations récentes suggèrent une fusion passée (Stockton, Ridgway et Lilly 1994).

En fait, jusqu'à récemment, l'étude des collisions de galaxies était un chemin de campagne peu fréquenté, même dans le monde de l'astronomie extragalactique. Beaucoup de grands noms du domaine dans la première moitié du siècle y avaient contribué, mais généralement seulement en tant que retombées d'autres efforts. (Les exceptions sont Holmberg et Zwicky, qui ont consacré beaucoup d'efforts aux galaxies "multiples".) La raison principale en est la rareté de ces galaxies morphologiquement particulières. Ces « freaks » étaient non seulement trop peu nombreux pour paraître importants, mais ils fournissaient trop peu d’instantanés pour permettre de synthétiser une image cohérente des processus dynamiques. Dans une large mesure, cela est toujours vrai, mais maintenant les simulations informatiques peuvent combler les trames manquantes.

« De nombreuses galaxies collisionnelles bien connues ont été découvertes par hasard, un peu comme des fossiles de dinosaures, lorsque des zones sélectionnées ou des nébuleuses individuelles de type inconnu ont été imagées avec de grands télescopes. La plupart des "nébuleuses" provenaient du New General Catalogue (NGC) de Dreyer et de ses ajouts ultérieurs à l'Index Catalog (voir la version moderne de Sulentic et Tifft 1973). Un programme d'imagerie observationnelle systématique aurait pu découvrir de nombreux "freaks" à une date beaucoup plus précoce. Cependant, aucune recherche de ce type n'a été effectuée avant le relevé photographique Shapley-Ames de toutes les galaxies au-dessus d'une certaine luminosité limite. (Un premier relevé est passé à la 13e magnitude, et un relevé partiel ultérieur à la magnitude 17,6, voir Shapley 1943, 1961. Le travail sur ce catalogue a été poursuivi par de Vaucouleurs et de Vaucouleurs 1964, et les éditions ultérieures.) Shapley a été clairement impressionné par des formes découvertes, comme les "ring-tails" NGC 4027 et NGC 4038/9 (maintenant connu sous le nom d'Antennes et présenté sur la couverture du 3 novembre 1997 du magazine Newsweek). Toutes les découvertes n'étaient pas des objets NGC, l'une des découvertes relativement précoces était la magnifique galaxie annulaire "Cartwheel" découverte par Zwicky (1941). Zwicky était très intéressé par les galaxies « interconnectées », a entrepris ses propres études et a fait de nombreuses autres découvertes (voir Zwicky 1959, 1961, 1971). La figure 3 fournit un résumé des morphologies qu'il a étudiées et un aperçu des systèmes décrits tout au long de cet article.

Cependant, avec l'achèvement du sondage par caméra Schmidt tout ciel de Palomar, qui est allé plus loin que le sondage Shapley (profond), il est devenu possible d'effectuer de nouvelles recherches capables de découvrir de nombreux "freaks"s. H. Arp entreprit la recherche de galaxies particulières dans l'étude Palomar et publia son désormais célèbre atlas (Arp 1966). Un projet de catalogage similaire a été réalisé par Vorontsov-Velyaminov et ses collaborateurs (1959, également Vorontsov-Velyaminov et Krasnogorskaya 1961, Vorontsov-Velyaminov 1977), bien qu'il soit sceptique quant à l'idée que la plupart de ces systèmes perturbés soient le résultat d'interactions de marée. Un grand nombre des objets du bel atlas photographique d'Arp sont des collisionneurs, et il a fourni un point de départ pour de nombreuses études ultérieures. Une fois le relevé du ciel austral encore plus sensible terminé, Arp et Madore (1987) ont produit un atlas de l'hémisphère sud, avec beaucoup plus d'objets. Ces travaux, en particulier l'atlas original de l'Arp, "ont lancé mille" études observationnelles et théoriques, et restent des ressources inestimables dans ce domaine.

Sur le plan théorique, les travaux exploratoires de Holmberg ont été suivis des premiers modèles informatiques. Les premiers travaux comprenaient les articles de Pfleiderer et Siedentopf (1961), Pfleiderer (1963), Tashpulatov (1969, 1970) et Yabushita (1971), qui sont passés en revue dans l'introduction de Toomre et Toomre (1972, également Toomre 1974). Ce sont les travaux de Toomre, qui ont utilisé l'approximation restreinte à trois corps pour calculer les effets sur les orbites des étoiles du disque dans les interactions de marée, qui ont eu le plus grand impact. Bien que les Toomre aient noté qu'un certain nombre de leurs résultats étaient présagés dans les travaux antérieurs, leurs travaux ont rassemblé toutes les pièces disponibles pour justifier de manière convaincante l'hypothèse selon laquelle de nombreuses morphologies galactiques particulières étaient le résultat d'interactions de marée. D'autres articles, dont Wright (1972), Clutton-Brock (1972) et Eneev, Kozlov et Sunyaev (1973), ont également présenté des résultats numériques similaires et confirmants. La plupart de ces projets semblent avoir commencé indépendamment, bien que Wright reconnaisse les communications des Toomre dans son article. Un autre volet important de ce tissu était le travail analytique sur l'Approximation d'Impulsion d'Alladin et de ses collaborateurs dans les années 1960 et 1970, qui sera discuté ci-dessous (voir les références dans la revue d'Alladin et Narasimhan 1982)

Depuis ce point jusqu'à présent, le domaine s'est développé très rapidement et s'est étendu dans de nombreuses directions, ce qui rend impossible de saisir tous les développements importants dans un bref résumé historique. En fait, il est impossible de présenter tous ces développements dans cette modeste revue, ce qui suit sera donc un échantillon.

1.4 L'importance des collisions.

Avant d'approfondir les détails des recherches les plus récentes, nous devons toutefois énoncer explicitement certaines des motivations de cette activité. Comme décrit ci-dessus, il devenait clair au milieu des années 1970 que de nombreuses galaxies morphologiquement "particulières", c'est-à-dire celles qui ne rentraient pas dans les schémas de classification standard, pouvaient être considérées comme le résultat d'interactions de marée. Mais dès le début, il était clair que ces galaxies sont rares, et on peut donc se demander quelle est leur importance ? Pour estimer grossièrement leur "rareté", considérons deux catalogues basés sur le relevé du ciel nord de Palomar. Le catalogue de Zwicky (1961) des "Galaxies et amas de galaxies" contient quelque 30 000 objets, tandis que l'atlas Arp compte 338 paires ou groupes en interaction. Cela implique que les galaxies en collision sont de l'ordre de 1% de toutes les galaxies. Cependant, cette estimation est trop "grossière", comme nous le verrons plus loin dans cette section.

Toomre et Toomre (1972) ont offert des suggestions, à l'époque spéculatives, sur ces questions qui ont suscité beaucoup d'intérêt et, en fait, sont finalement devenues les idées dominantes dans le domaine. Ces idées étaient basées sur, mais étendues bien au-delà, les résultats de leurs simulations de particules de test sans collision (en forme d'étoile). Pour commencer, ils ont noté que les queues et les panaches observés avaient été reproduits avec succès dans des modèles impliquant des rencontres collisionnelles rapprochées, et qu'il était peu probable que de tels événements soient le résultat de galaxies s'approchant sur des orbites hyperboliques aléatoires. Ils ont fait valoir que de telles collisions étaient plus susceptibles de se produire entre des galaxies sur des orbites excentriques et liées. Ils ont ensuite poussé l'argument un peu plus loin et ont suggéré que de telles distorsions de marée à grande échelle doivent être formées aux dépens de l'énergie orbitale, de sorte que les deux galaxies doivent inévitablement fusionner (voir la discussion et l'histoire des débuts dans Toomre 1974). Une troisième déduction suit -

. L'agitation mécanique violente d'une rencontre de marée rapprochée - sans parler d'une fusion réelle - n'aurait-elle pas déjà tendance à apporter au plus profond d'une galaxie un approvisionnement assez soudain de carburant frais sous forme de matière interstellaire, soit à partir de son propre disque périphérique, soit par accrétion à partir de son partenaire ? Et dans un système ou un noyau auparavant pauvre en gaz, le processus relativement banal de formation d'étoiles prolifiques n'imiterait-il pas une grande partie de l'"activité" observée ? (Toomre et Toomre 1972)

Par exemple, les interactions et les fusions peuvent canaliser le gaz interstellaire dans les régions centrales des galaxies et déclencher une formation accrue d'étoiles. Les mécanismes spécifiques ne sont pas décrits en détail, bien qu'un couple soit implicite. Il y a d'abord les effets de marée directs, les "agitations mécaniques" de la cotation. Deuxièmement, dans les paragraphes qui suivent la citation, ils proposent que les rencontres pourraient générer de fortes ondes spirales comme dans M51. Ces ondes pourraient également améliorer le transport du moment angulaire et canaliser le gaz vers l'intérieur. Comme nous le verrons ci-dessous, il existe désormais un solide soutien observationnel et théorique pour ces idées sur la fusion, l'alimentation des centres galactiques, l'induction de la formation d'étoiles prolifiques, et la notion plus générale que ces processus peuvent avoir un impact profond sur l'évolution des galaxies individuelles.

Une étude importante de Larson et Tinsley (1978) a fourni une confirmation observationnelle précoce des améliorations de la formation d'étoiles dans les galaxies en interaction. Larson et Tinsley ont étudié les couleurs optiques à large bande (UBV) des galaxies de l'atlas Arp, et les ont comparées à celles de l'atlas Hubble, en supposant que les galaxies "normales" de ce dernier pourraient servir d'échantillon témoin. Ils ont en outre produit une grille de modèles d'évolution des couleurs pour le vieillissement des populations stellaires avec une variété d'histoires de formation d'étoiles. Celles-ci allaient de cas avec un taux de formation d'étoiles constant sur 10 milliards d'années (10 Gyr.), à des modèles de populations avec toutes leurs étoiles formées dans une rafale relativement courte (par exemple d'une durée de 0,02 Gyr.). Les couleurs des modèles de rafale, et des modèles de combinaison avec une composante de rafale importante, évoluent de manière significative dans le premier Gyr. après l'éclatement. Ainsi, de grandes variations de couleur ont été prédites dans les galaxies avec des sursauts récents importants de formation d'étoiles, et en effet, ils ont constaté que,

Les galaxies normales ont des couleurs qui correspondent à un SFR décroissant de façon monotone. En revanche, les galaxies particulières ont une grande dispersion de couleurs qui correspond à des sursauts aussi courts que 2 x 10 7 ans. impliquant jusqu'à (environ) 5% de la masse totale. La quasi-totalité de cette dispersion est associée à des galaxies montrant des signes d'interaction de marée. Ces résultats fournissent la preuve d'un mode de formation d'étoiles "burst" associé à des phénomènes dynamiques violents. (Larson et Tinsley, 1978).

Au cours des années suivantes, de nombreuses preuves ont été obtenues dans une large gamme de bandes d'ondes pour étayer la conclusion que les collisions et les interactions entraînent fréquemment un taux de formation d'étoiles beaucoup plus élevé, bien qu'il existe des exceptions à la règle. Nous reprendrons ce sujet dans un certain nombre de sections ci-dessous voir également les critiques de Keel (1991), Barnes et Hernquist (1992), Elmegreen (1992), Mirabel (1992) et Kennicutt (1998a).

Dans la citation ci-dessus, Toomre et Toomre soulèvent un autre problème important : le lien entre les collisions galactiques et l'activité nucléaire dans les galaxies. Comme la question de la formation d'étoiles induite par collision, ce sujet a reçu beaucoup d'attention au cours des deux dernières décennies, et nous résumerons cette histoire dans la section 8. Pour le moment, nous notons simplement qu'une telle connexion est restée beaucoup plus insaisissable que dans le cas de formation d'étoiles induite. La question posée par Toomre et Toomre, à savoir si la formation d'étoiles extrêmes dans les régions centrales pourrait imiter l'activité nucléaire, a également été ravivée ces dernières années (par exemple, Terlevich et al. 1992, Terlevich 1994, et les références y figurant). Par exemple, un débat vigoureux s'est développé autour de la question de savoir ce qui a alimenté les galaxies infrarouges ultralumineuses découvertes grâce à l'analyse des données IRAS (Infrared Astronomical Satellite), d'énormes sursauts d'étoiles, de noyaux actifs ou des deux (voir la revue de Heckman 1990 et d'autres articles dans ces procédure). On pense que ces galaxies sont principalement des restes de fusion, donc dans tous les cas des collisions ont été impliquées.

En résumé, il existe maintenant des preuves presque accablantes d'observations et de modèles numériques que les collisions peuvent fortement perturber la morphologie et l'évolution des galaxies impliquées, à la fois par "l'agitation" gravitationnelle directe, mais aussi indirectement en entraînant une forte formation d'étoiles. Comme nous le verrons ci-dessous, ce dernier processus conduit à la conversion de grandes quantités de gaz en étoiles, à la création de toutes nouvelles populations stellaires et à des changements massifs dans la distribution et l'équilibre des phases thermiques du gaz restant. Nous verrons également qu'il existe maintenant des preuves solides pour étayer la conjecture de Toomres selon laquelle la plupart des rencontres collisionnelles ne sont que de simples préludes à la fusion éventuelle des galaxies. Cependant, pour le moment, nous laisserons la question de la fusion, pour réexaminer la deuxième question fondamentale - à quel point les collisions de galaxies sont-elles rares ? Bien qu'ils soient rares dans le ciel, nous savons maintenant qu'ils affectent profondément les galaxies impliquées, la question pertinente est donc de savoir quelle est la probabilité qu'une galaxie connaisse une collision importante au cours de sa vie.

Toomre (1977) a noté que dans de nombreux systèmes avec des queues de marée bien visibles, les centres des deux galaxies étaient très proches. Ce fait, et les autres preuves disponibles, suggéraient que ces galaxies étaient presque fusionnées. Il a fourni 11 exemples remarquables et il a estimé qu'environ 10 % des galaxies avaient participé à une fusion majeure à un moment de leur vie.Notant que cela était proche de la fraction des galaxies elliptiques, et que la formation d'étoiles induite (et d'autres processus) aurait tendance à changer un reste de fusion en un type Hubble plus ancien que celui de ses prédécesseurs, il a spéculé que la plupart des elliptiques pourraient être formées à partir de spirales dans les fusions. Nous ne pourrons pas explorer toute la littérature abondante qui s'est développée autour de cette hypothèse dans les années suivantes, le lecteur est renvoyé à la revue de Hernquist (1993, et chapitre 6). Ce qui est important pour les objectifs actuels, c'est le fait que, tandis que d'une part cette hypothèse a généré un débat fort et de longue durée (par exemple, Ostriker 1980, Parker 1990, pages 198-202, et les articles de la dernière section de Wielen, 1990), d'autre part, cela a brisé le consensus selon lequel les galaxies à interaction forte étaient très rares et donc sans importance.

« Le consensus antérieur reposait sur l'hypothèse que des collisions aléatoires entre galaxies seraient peu probables, car la distance moyenne entre les galaxies est grande par rapport à leur taille. Ce que les Toomres et d'autres ont découvert à l'époque, c'est que les preuves suggéraient que la plupart des collisions se produisaient entre les galaxies en groupes qui étaient au moins faiblement liés. C'est-à-dire que les collisions ont été intégrées dans les conditions initiales, les galaxies naissent en groupes. Alors pourquoi semblaient-ils rares ? Parce que l'échelle de temps de collision est inférieure à un ordre de grandeur de l'âge de l'univers (Toomre 1977, les résultats de travaux numériques plus récents sont passés en revue dans Barnes et Hernquist 1992). Ainsi, même si les collisions se produisaient à des moments aléatoires, nous n'en verrions jamais plus qu'une fraction. En fait, comme l'a souligné Toomre, il y a de bonnes raisons de croire que les collisions étaient beaucoup plus courantes dans un passé lointain. Nous sommes à une époque d'études croissantes des galaxies à grand décalage vers le rouge par le télescope spatial Hubble et une nouvelle génération de télescopes au sol, et les résultats préliminaires indiquent que c'est effectivement le cas (voir plusieurs articles pertinents dans Benvenuti, Macchetto et Schreier 1996 et article 9.3). Enfin, nous notons que si Toomre s'est concentré sur le cas extrême des fusions entre deux progéniteurs (également) massifs, où la perturbation et l'échauffement dynamique sont suffisamment importants pour former une galaxie elliptique, les collisions et les fusions entre partenaires inégaux sont probablement plus fréquentes. De telles collisions, et d'éventuelles fusions, peuvent encore avoir un effet dramatique sur l'évolution de la plus grande galaxie, comme nous le verrons ci-dessous.

« On s'est également rendu compte ces dernières années que même l'hypothèse selon laquelle presque toutes les collisions n'impliquent que deux galaxies peut être incorrecte. Encore une fois, ce n'est pas le résultat du hasard, mais de l'effondrement global de groupes de galaxies (faiblement) liés (voir le chapitre 9 et les articles récents de Governato, Tozzi et Cavaliere 1996, Weil et Hernquist 1996, et les références y figurant). En effet, Weil (1994, Weil et Hernquist 1996) a récemment découvert que les simulations numériques de fusions multiples peuvent produire des restes qui correspondent plus étroitement aux détails structurels et cinématiques de certains elliptiques que les restes de fusion binaire.

Ces idées théoriques ont de profondes conséquences observationnelles, dont la plupart seront explorées plus loin dans cet article. Premièrement, les galaxies aux perturbations morphologiques extrêmes ne sont peut-être que la pointe de l'iceberg en ce qui concerne les collisions, car bien que spectaculaire, il s'agit d'une phase de courte durée. Alors la question devient, quelles preuves de collisions peuvent être trouvées plus tard ? Les galaxies elliptiques avec de faibles coquilles ou ondulations autour d'elles, découvertes par Malin et Carter (1980, 1983), et interprétées comme des débris de marée par Quinn (1982, 1984), en fournissent l'un des meilleurs exemples (voir section 5.5). Seitzer et Schweizer (1990) ont découvert que 32 % des galaxies S0 et 56 % des galaxies elliptiques de leur échantillon ont des " ondulations ". Comme deuxième exemple, Scoville (1994) estime qu'au cours des 10 9 dernières années. 2% des galaxies spirales sont devenues des galaxies infrarouges lumineuses à la suite d'une fusion ou d'une interaction forte. Les arguments que Toomre a appliqués aux galaxies elliptiques suggéreraient que la fraction globale des spirales connaissant un tel événement au cours de leur vie pourrait être au moins 10 fois plus grande. (D'un autre côté, si la plupart de ces spirales se transformaient en elliptiques, il y en aurait beaucoup, donc une extrapolation simple d'esprit peut être dangereuse ici !) Un troisième et dernier exemple, Odewahn (1994) constate que tous sauf 4 dans son échantillon de 75 Les spirales de Magellan (type très tardif) ont des voisins proches, les interactions de marée sont donc susceptibles d'être très importantes dans cette classe.

En résumé, les collisions peuvent profondément influencer l'évolution des galaxies individuelles impliquées dans un temps cosmologiquement court. Alors que les galaxies violemment perturbées semblent rares dans le ciel, une collision peut se produire entre une et plusieurs fois dans la vie d'une galaxie typique. Il existe des motivations théoriques de plus en plus fortes et des indications observationnelles selon lesquelles les collisions sont l'un des processus les plus importants de l'évolution des galaxies.

1.5 Expériences de la galaxie de la nature.

« Il existe de nombreux aspects des galaxies sur lesquels nous en savons relativement peu, y compris la dynamique et les processus thermiques dans le gaz interstellaire, qui sont presque certainement couplés sur une large gamme d'échelles par la turbulence (par exemple, Scalo 1990). De même, il y a beaucoup à apprendre sur les mécanismes de formation des étoiles dans les disques des galaxies, en particulier la formation d'étoiles à grande échelle entraînée par les vagues. Les collisions de galaxies peuvent être considérées comme des expériences propres à la nature, idéalement adaptées pour sonder la structure et la dynamique, à peu près de la même manière que les expériences sur les accélérateurs sondent le micro-monde. Comme Arp (1966) l'a dit,

Les particularités des galaxies. représentent des perturbations, des déformations et des interactions qui devraient nous permettre d'analyser la nature des galaxies réelles que nous observons et qui sont trop éloignées pour expérimenter directement. . A partir de cet éventail d'expériences que la nature nous fournit, il nous appartient donc de sélectionner et d'étudier (celles) qui donneront le plus de renseignements sur la composition, la structure et les forces qui régissent une galaxie.

Les perturbations de collision se présentent sous diverses formes, en fonction de la masse et de la compacité des galaxies, et de la distance d'approche la plus proche (voir section 2). Il existe une limite perturbative, où un compagnon de faible masse interagit avec un primaire massif. Ce cas est particulièrement intéressant pour étudier la dynamique des gaz interstellaires et la formation d'étoiles induite, car le disque primaire est perturbé, mais pas perturbé, en une seule rencontre. À l'autre extrémité de l'échelle, il y a des fusions entre des progéniteurs presque égaux, qui testent la stabilité non linéaire de tous les composants des galaxies. Le résultat de tous les types de collision dépend de la structure des halos de matière noire, donc au moins statistiquement, la comparaison des modèles et de l'observation peut fournir des informations sur ces halos. Des exemples de toutes ces applications du "point de vue expérimental" seront donnés ci-dessous.

Ce point de vue vient aussi naturellement avec la modélisation numérique, où l'on peut faire des expériences sur les "galaxies". Il devrait déjà être clair à partir du bref historique ci-dessus que l'interaction étroite entre la modélisation informatique et l'observation a été la clé du progrès dans ce domaine, et ce sera un thème récurrent dans la suite de cet article.


Des naines blanches fusionnant peuvent-elles former des étoiles variables ?

En août 2017, le monde a découvert l'idée d'une kilonova, une explosion résultant de la fusion de deux étoiles à neutrons. LIGO et VIRGO ont détecté des ondes gravitationnelles provenant de la galaxie lenticulaire NGC 4993, et un transitoire électromagnétique a été observé peu après. Alors que l'idée d'une kilonova avait été explorée pendant des années, aucune détection directe n'avait été confirmée. Soudainement, les astronomes disposaient de données fiables sur un nouveau type d'explosion fascinant avec des implications pour l'astronomie des ondes gravitationnelles, notre compréhension des sursauts gamma et bien plus encore.

Les Kilonovae ne sont pas les seuls événements intéressants impliquant des progéniteurs doublement dégénérés, bien sûr, loin de là. Par exemple, nous nous attendons à ce que les collisions de restes mixtes produisent également des transitoires observables. Certaines des possibilités les plus excitantes, cependant, impliquent les résultats de ces fusions. La kilonova de 2017, par exemple, a probablement produit une étoile à neutrons massive qui s'est ensuite effondrée dans un trou noir. D'autres événements dégénérés doubles, cependant, peuvent conduire à des produits stables.

Prenez, par exemple, la fusion de deux naines blanches dans un système binaire. Si la masse combinée est suffisamment élevée, il est possible d'allumer une supernova de type Ia, un processus qui a jeté un frein à l'idée d'utiliser ces supernovae comme bougies standard. Cependant, dans le cas d'une naine blanche CO et d'une naine blanche He, le produit résultant force devenir ce qu'on appelle une variable R Coronae Borealis (R CrB), qui peut survivre pendant quelque chose de l'ordre de 10 000 ans.

La courbe de lumière de R Coronae Borealis de 1990 à 2017. Notez les baisses irrégulières de luminosité d'environ 8 magnitudes, ainsi que le creux extrême vers 2007. Crédit image : Wikipédia utilisateur Lithopsian, sous licence Creative Commons ShareAlike Unported 3.0.

Les étoiles R CrB existent depuis plus de 200 ans, depuis la découverte de leur supergéante jaune homonyme en 1795. Au cours des siècles qui ont suivi, plusieurs de leurs propriétés se sont démarquées :

  • Ils présentent de courtes variations de luminosité de l'ordre de 0,1 magnitude, évoluant sur environ un mois.
  • Ils sont extrêmement pauvres en hydrogène (avec certains sans hydrogène), mais peuvent présenter des niveaux de carbone et d'azote plus élevés que d'habitude.
  • De temps en temps, les variables R CrB peuvent diminuer jusqu'à huit grandeurs, en plus de leur

En bref, ils constituent une classe de géantes d'hélium riches en carbone et en oxygène avec de grandes différences d'abondance d'hydrogène, ainsi que des variations de luminosité de faible et de forte amplitude. La différence d'hydrogène a été prise par certains pour indiquer qu'un certain nombre de mécanismes de formation différents sont à l'œuvre. Ces mécanismes peuvent être divisés en deux classes principales : les mécanismes à étoile unique et à étoile binaire.

Les modèles à étoile unique impliquent souvent une impulsion thermique tardive se produisant dans l'étoile centrale d'une nébuleuse protoplanétaire, dans les cas où la couche externe d'hélium est suffisamment massive pour déclencher un éclair de coquille. Cela devrait produire du carbone par le processus triple-alpha, ainsi que de l'oxygène par des voies secondaires.

Le modèle d'étoile binaire le plus courant est celui auquel j'ai fait allusion au début. Dans ce modèle, une naine blanche carbone-oxygène de 0,6 masse solaire accumule de la matière à partir d'une naine blanche d'hélium de 0,3 masse solaire, déclenchant finalement un flash d'hélium et envoyant le produit le long du diagramme de Hertzsprung-Russell pour devenir une géante jaune sur une échelle de temps d'un quelques centaines d'années, avec une possible combustion de la coquille d'hydrogène plus tôt si la naine He n'est pas exempte d'hydrogène. Après environ 10 000 ans, le géant évoluera vers le bleu, mettant finalement fin à sa vie pour de bon.

Figure 1, Saio & Jeffrey 2002. Les pistes évolutives d'une variable R CrB après le début de l'accrétion dépendent de sa teneur en hydrogène, mais elles aboutissent toutes à des luminosités de

10 000 fois celle du Soleil.

L'explication des pulsations observées dans les variables R Coronae Borealis est légèrement plus banale. On pense que les pulsations radiales sont responsables de la

0,1 variations de magnitude, tandis que la poussière circumstellaire éjectée conduit probablement à une gradation beaucoup plus dramatique. Ces idées ne sont pas directement liées aux modèles d'ancêtres, qui sont principalement motivés par les abondances chimiques particulières de ces géantes jaunes de faible masse.

Les étoiles R CrB ne sont qu'une classe d'étoiles variables, mais comme toutes les étoiles chimiquement particulières, leur abondance est le signe clair d'un passé inhabituel. J'ai parcouru le principal mécanisme d'ancêtre binaire, mais il existe d'autres idées, certaines plus exotiques. En supposant que le modèle naine blanche-naine blanche soit effectivement responsable de certains sous-ensembles de ces étoiles pauvres en hydrogène, nous pourrions cependant avoir une opportunité vraiment intéressante d'étudier l'avenir des systèmes dégénérés doubles.


Big Science : Les 10 expériences les plus ambitieuses de l'univers aujourd'hui

Ces dix projets scientifiques impressionnants vont du plus grand observatoire sous-marin du monde au "microscope ultime" à un orbiteur Jupiter en mission suicide - mais ils sont tous énormes, souvent à la fois en taille et en portée.

Pour améliorer notre vision d'un univers vaste et complexe, les scientifiques créent de nouveaux outils de plus en plus ambitieux. Le travail n'est pas facile. La vraie grande science nécessite des décennies d'engagement coûteux de la part de plusieurs nations. Mais les instruments qui en résultent sont presque aussi impressionnants que les nouveaux mondes qu'ils nous aident à découvrir. Découvrez notre classement des 10 plus épiques.

Comment nous l'avons fait

Comme tout ce qui est vaste et impliqué, la grande science n'est pas facile à mesurer. Pour nos classements, nous avons pris en compte quatre facteurs objectifs : les coûts de construction avant tout, mais aussi le budget de fonctionnement, la taille du personnel et la taille physique du projet lui-même. Même ceux-ci étaient difficiles à comparer sur une base de pommes à pommes, nous avons donc également utilisé un système de hiérarchisation. Ensuite, nous avons ajouté trois facteurs subjectifs, en les pesant davantage pour refléter leur importance relative : l'utilité scientifique du projet, son utilité pour la personne moyenne ( qu'est-ce que cela fera pour moi ?) et le toujours essentiel ? #8221 facteur. Pour une explication complète de notre notation, cliquez ici.

Assez parlé. Cliquez ici pour accéder à notre galerie des dix grands projets scientifiques les plus fous, les plus ambitieux et les plus étonnants.

10: Le collisionneur d'ions lourds relativiste

Une machine à remonter le temps pour révéler les origines de l'univers Lorsque les ions d'or accélérant à l'intérieur du collisionneur d'ions lourds relativistes à Long Island, New York, se heurtent, ces collisions peuvent produire des températures allant jusqu'à 7,2 billions de degrés Fahrenheit, si chaudes que les protons et les neutrons fondent. Au fur et à mesure que ces particules se désintègrent, les quarks et les gluons qui les composent interagissent librement pour former un nouvel état de la matière, appelé plasma quark-gluon. Au fur et à mesure que le matériau se refroidit une fois la collision terminée, les protons et les neutrons se reforment, produisant ainsi 4 000 particules subatomiques. À l'aide du RHIC, les scientifiques tentent de recréer les conditions qui existaient pendant le premier millionième de seconde après le big bang. Utilité scientifique Pour mieux comprendre comment la matière a évolué dans notre univers, les physiciens du RHIC envoient des atomes d'or à travers plusieurs accélérateurs, en enlevant leurs électrons pour qu'ils deviennent des ions chargés positivement. Ces ions se lancent dans deux tubes circulaires et courent jusqu'à 99,9 % de la vitesse de la lumière avant d'entrer en collision. En examinant les restes de ces collisions, les scientifiques ont découvert que les particules à ce stade post-big-bang se comportaient davantage comme un liquide que comme le gaz prévu. Qu'y a-t-il pour vous? Les scientifiques du RHIC développent actuellement des dispositifs qui accélèrent les protons et les guident plus précisément pour irradier et tuer les tumeurs cancéreuses chez l'homme. Les ingénieurs ont également utilisé le faisceau d'ions lourds pour percer de minuscules trous dans des feuilles de plastique, créant ainsi des filtres capables de trier les substances au niveau moléculaire. Plus tard, nous pourrions voir des dispositifs de stockage d'énergie plus efficaces basés sur la technologie des aimants supraconducteurs utilisée dans le RHIC.

9 : Neptune, le plus grand observatoire sous-marin du monde

Les océans couvrent près des trois quarts de la surface de la Terre et contiennent 90 % de sa vie, mais ils sont presque entièrement inexplorés. Neptune, un réseau d'observatoires océaniques composé de quelque 530 milles de câbles et de 130 instruments avec 400 capteurs, tous connectés à Internet, fournira la première surveillance à grande échelle et 24 heures sur 24 d'un système océanique, y compris la vie animale, la géologie et la chimie. La batterie d'instruments de Scientific Utility Neptune, située jusqu'à 220 milles au large des côtes de la Colombie-Britannique sur la plaque tectonique Juan de Fuca, offre une vue en temps réel de la région. Un flotteur captif, équipé de radiomètres, de fluorimètres et de capteurs de conductivité, monte et descend la colonne d'eau de 1 300 pieds du fond marin à la surface, échantillonnant les conditions chimiques et physiques de la colonne pour déterminer son évolution au fil du temps. Un véhicule télécommandé appelé ROPOS installe des instruments et recueille des données. Sa caméra haute définition fournit des photographies et des vidéos d'animaux et de leurs comportements, que les scientifiques pourraient utiliser pour évaluer les changements dans l'écosystème local. Des hydrophones placés sur le fond marin enregistrent les dauphins et les baleines pour suivre leur nombre et leurs routes migratoires. Et un robot télécommandé nommé Wally survole les fonds marins pour surveiller les dépôts de méthane sous-marins, qui pourraient exacerber le changement climatique mondial et être également une source potentielle d'énergie. Qu'est-ce qu'il y a pour vous Les scientifiques (et professionnels) du monde entier peuvent se connecter sur Internet pour voir la vidéo en streaming de Wally le robot roulant sur le fond marin, regarder des vers tubicoles des grands fonds ondulant dans les courants d'un évent hydrothermal ou écouter un chant de baleine à bosse.

8 : Le très grand tableau

Les radiotélescopes à l'écoute du cosmos Situé sur des centaines de kilomètres carrés de désert à l'extérieur de Magdalena, au Nouveau-Mexique, le Very Large Array (VLA) est l'un des plus grands télescopes au monde. Ses 27 antennes radio individuelles, chacune d'un diamètre de 82 pieds, forment un Y avec des bras de 13 miles de long et recueillent les signaux de certains des objets les plus brillants de l'univers. Son projet frère, le Very Long Baseline Array (VLBA), est une ligne de 10 antennes radio qui s'étend sur 5 531 milles d'Hawaï aux îles Vierges. Le VLA et le VLBA créent des images détaillées d'objets célestes aussi proches que la lune et aussi éloignés que le bord de l'univers observable. Utilité scientifique Parce que les ondes radio peuvent pénétrer la poussière cosmique qui obscurcit de nombreux objets, le VLA et le VLBA peuvent voir des choses que les télescopes optiques ne peuvent pas voir. À l'aide du VLA, les scientifiques ont étudié le trou noir au centre de la Voie lactée, recherché les origines des sursauts gamma dans des nébuleuses lointaines et, en 1989, reçu des transmissions radio du satellite Voyager 2 alors qu'il passait Neptune, nous donnant les premières photos de près de la géante gazeuse et de ses lunes. Le VLBA mesure les changements d'orientation de la Terre dans l'univers. En se concentrant sur des objets distants et virtuellement fixes, tels que les quasarsa, au fil du temps, les scientifiques peuvent détecter tout changement apparent de l'orientation de la Terre dans l'espace. Cette orientation peut être légèrement déplacée lors de tremblements de terre majeurs, comme celui qui a frappé le Japon plus tôt cette année. Qu'y a-t-il pour vous? Choisissez un chapitre dans un manuel d'astronomie moderne et vous trouverez du matériel ou une théorie basée sur les données collectées par le VLA et le VLBA. Le VLBA recueille également des données sur les trajectoires des astéroïdes géocroiseurs, ce qui pourrait aider les scientifiques à prédire si l'on est sur une trajectoire de collision avec notre planète.

7: L'installation nationale d'allumage

Une expérience de fusion laser géante Considéré comme le laser le plus grand et le plus énergétique au monde, le National Ignition Facility, situé à Livermore, en Californie, s'étend sur trois terrains de football, mesure 10 étages et génère deux millions de joules d'énergie ultraviolette. Cette explosion peut amener la cible du laser à atteindre des températures de plus de 100 millions de degrés et des pressions de plus de 100 milliards de fois l'atmosphère terrestre, similaires aux conditions trouvées dans les noyaux des étoiles et des planètes géantes gazeuses. Utilité scientifique Lorsque les 192 faisceaux individuels qui composent le laser NIF convergent vers une cible contenant des atomes de deutérium (hydrogène avec un neutron) et de tritium (hydrogène avec deux neutrons), les noyaux des atomes fusionnent et créent une explosion d'énergie. Les scientifiques du NIF tentent d'affiner ce processus pour produire, pour la première fois, un gain d'énergie net à partir des réactions de fusion. Ils utilisent également leurs recherches pour étudier ce qui arrive aux armes nucléaires au fil du temps, une question cruciale pour juger de la sécurité et de la fiabilité du stock américain. Enfin, comme les conditions dans la cible laser imitent celles du cœur des étoiles massives, les scientifiques espèrent comprendre comment la fusion a produit certains des éléments atomiques lourds, tels que l'or et l'uranium. Qu'est-ce que cela vous rapporte S'il vous arrive de stocker des armes nucléaires dans votre maison, les données du NIF pourraient vous aider à déterminer si votre stock est fiable. Sinon, certains partisans du NIF disent qu'il pourrait fournir de l'énergie de fusion, même si une centrale à fusion ne sera probablement pas basée sur des lasers géants.

6 : Juno, un Jupiter Orbiter en mission suicide

Juste avant que Juno n'entre en orbite de Jupiter en 2016, le vaisseau spatial, tiré par l'énorme gravité de la géante gazeuse, atteindra une vitesse de 134 000 milles à l'heure, ce qui en fera l'un des objets fabriqués par l'homme les plus rapides jamais construits. Une fois en orbite, l'engin effectuera 33 tours autour de la planète puis plongera directement dedans. Lors de sa course suicide, il labourera l'atmosphère d'hydrogène de Jupiter jusqu'à ce qu'il brûle comme un météore. Utilité scientifique Pendant que Juno fait le tour de Jupiter, une suite de neuf instruments étudiera les nombreuses couches de la planète. Jupiter a été la première planète du système solaire à se former, et parce qu'elle est si grande, sa gravité a conservé les matériaux d'origine trouvés dans le système solaire primitif, principalement de l'hydrogène et de l'hélium. Cette caractéristique fait de la planète une fenêtre précieuse sur les origines du système solaire. Les mesures du champ magnétique de Jupiter pourraient enfin résoudre le débat sur la question de savoir si la planète a un noyau rocheux. Les magnétomètres de Juno caractériseront la profondeur et les mouvements de l'océan d'hydrogène métallique trouvé à l'intérieur, qui génère le champ magnétique le plus puissant de notre système solaire en dehors de celui trouvé autour du soleil. Enfin, un radiomètre à micro-ondes mesurera la quantité d'eau dans l'atmosphère profonde de Jupiter, clé pour comprendre comment la planète s'est formée à l'origine. Qu'y a-t-il pour vous L'étude des régimes météorologiques complexes de Jupiter pourrait nous aider à prédire les nôtres, mais il s'agit en grande partie de pure recherche scientifique.

5: Source de lumière avancée

Le microscope ultime Depuis 1993, des chercheurs de l'Advanced Light Source, un accélérateur de particules à Berkeley, en Californie, ont envoyé un faisceau de photons un million de fois plus brillant que la surface du soleil dans des protéines, des électrodes de batterie, des supraconducteurs et d'autres matériaux pour révéler leur atome, propriétés moléculaires et électroniques. Utilité scientifique L'ALS est l'une des sources les plus brillantes de rayons X mous, qui ont les bonnes longueurs d'onde pour la spectromicroscopie, une technique scientifique qui révèle à la fois la composition structurelle et chimique d'échantillons de seulement quelques nanomètres de large. En 2006, des scientifiques de l'ALS ont aidé à déterminer que la poussière capturée par la queue d'une comète s'est formée près du soleil très tôt dans l'histoire du système solaire, montrant que les ingrédients cosmiques originaires de notre coin de l'univers ont commencé à se mélanger plus tôt que nous. pensée. La même année, Roger D. Kornberg de l'Université de Stanford a remporté le prix Nobel de chimie pour ses travaux à l'ALS sur la structure 3-D des enzymes ARN polymérase. Les données structurelles lui ont permis de décrire comment l'ADN est traduit en ARN au cours d'un processus appelé transcription. Qu'est-ce que cela vous apporte ? Travailler à l'ALS sur une protéine associée au mélanome a aidé au développement d'un nouveau médicament pour lutter contre la maladie. Le médicament est actuellement en essais cliniques de phase II et III. D'autres données d'ALS pourraient conduire à des électrodes de batterie au lithium de haute capacité, ce qui augmenterait la capacité de charge de la batterie. Enfin, comprendre la structure physique et électronique des feuilles plates de carbone, appelées graphène, pourrait stimuler le développement de transistors à l'échelle atomique et de processeurs informatiques beaucoup plus rapides.

4 : La Station spatiale internationale

Un laboratoire orbital Il faut 2 milliards de dollars par an et des milliers d'employés pour garder les lumières allumées à la Station spatiale internationale. Jusqu'à présent, 201 personnes de 11 pays (et sept touristes aisés) ont visité l'ISS, qui a supporté la plus longue présence humaine continue en orbite : 11 ans en novembre, avec environ une décennie de plus à venir. L'ISS accueille également le spectromètre magnétique Alpha (AMS), l'instrument le plus gros et le plus lourd jamais utilisé dans l'espace. Utilité scientifique À bord de l'ISS, des scientifiques et des astronautes de la NASA et de ses partenaires internationaux testent des composants d'engins spatiaux et des systèmes de soutien qui pourraient être utilisés pour des vols habités à longue distance. Ils examinent également la physiologie humaine, étudient les effets de l'apesanteur sur la densité osseuse et la production de globules rouges et comment le système immunitaire change pendant de longues périodes dans l'espace. Depuis mai, les chercheurs ont eu accès à l'AMS, un instrument capable de détecter des étranges, des quarks qui ont été fabriqués dans des accélérateurs de particules mais n'ont jamais été observés dans la nature. Qu'est-ce que cela vous apporte ? Les recherches effectuées sur l'ISS ont conduit à la découverte que les bactéries salmonelles deviennent plus virulentes dans l'espace. Cette découverte et l'identification des gènes à l'origine du changement alimentent le développement des premiers vaccins contre la salmonelle et la bactérie Staphylococcus aureus résistante à la méthicilline (SARM), l'infection à staphylocoque qui a affligé des milliers de patients hospitalisés.

3: Source de neutrons de spallation

Une caméra pour les molécules Chaque mois, la source de neutrons de Spallation à Oak Ridge, Tennessee, tire entre 25 et 28 mégawatts d'électricité du réseau électrique et utilise environ 8,5 millions de gallons d'eau pour rester au frais. Pendant le fonctionnement, l'accélérateur de particules du SNS envoie des rafales de deux quadrillions de neutrons par impulsion dans une chambre cible. Ces nuages ​​denses de neutrons détournent les matériaux pour révéler comment les structures atomiques changent au fil du temps. Utilité scientifique Le SNS envoie des neutrons se précipiter vers un échantillon jusqu'à 97 % de la vitesse de la lumière. Mais contrairement aux particules dans un collisionneur, les neutrons ne créent pas de grandes explosions lorsqu'ils frappent leur échantillon. Parce qu'ils sont petits et ont très peu d'énergie, les neutrons n'interagissent que faiblement avec la matière. Lorsque les neutrons traversent un échantillon, ils se dispersent sur les noyaux atomiques de l'échantillon. Cette interaction modifie l'énergie et la direction de ces neutrons, et 14 instruments différents, placés à quelques mètres de l'échantillon, enregistrent ces changements de trajectoire. Le logiciel additionne ensuite toutes les données de diffusion pour produire la structure atomique de l'échantillon. Étant donné que le SNS envoie des paquets de neutrons à une fréquence de 60 impulsions par seconde, il peut enregistrer l'évolution des structures au fil du temps, comme prendre des images individuelles d'un film, puis les assembler en mouvement. Ce qu'il y a dedans pour vous De meilleures batteries. Les scientifiques utilisent ces films à l'échelle atomique pour surveiller les batteries lorsqu'elles se chargent et se déchargent en temps réel. Il sera également utilisé pour étudier la structure des protéines.

2 : Le grand collisionneur de hadrons

Un accélérateur de protons pour trouver l'insaisissable particule divine Enfoui à 330 pieds sous la frontière de la Suisse et de la France, le Large Hadron Collider est le plus grand collisionneur de particules au monde. L'installation nécessite 700 gigawattheures d'énergie et environ 1 milliard de dollars par an pour fonctionner. Plus de 10 000 chercheurs, ingénieurs et étudiants de 60 pays sur six continents contribuent aux six projets permanents du LHC, conçus pour débloquer la physique fondamentale de l'univers. Utilité scientifique Qu'est-ce que la matière noire exactement ? Y a-t-il des dimensions supplémentaires dans l'espace ? Le boson de Higgs, communément appelé « particule de Dieu », existe-t-il ? Comment l'univers s'est-il formé ? Les six détecteurs de particules du LHC enregistrent et visualisent les trajectoires, les énergies et les identités des particules subatomiques, ce qui peut répondre à certaines de ces questions. Le détecteur du projet ATLAS, par exemple, recherche des événements de collision dans lesquels il semble y avoir un déséquilibre de la quantité de mouvement, une indication de la présence de particules supersymétriques censées constituer la matière noire. Le projet Compact Muon Solenoid complète ATLAS en recherchant la supersymétrie et l'insaisissable boson de Higgs. LHC-Forward simulera des rayons cosmiques de haute énergie, et LHC-Beauty fournira des informations sur les raisons pour lesquelles l'univers est composé de matière plutôt que d'antimatière. TOTEM suit les collisions de protons et fournit des données sur la structure interne des protons. Et ALICE suivra les plasmas de quarks et de gluons, de manière similaire aux expériences menées au collisionneur d'ions lourds relativistes (également sur cette liste). Qu'est-ce que cela vous apporte ? Bien que le LHC ait fait sortir les alarmistes des trous noirs du bois, le projet aura peu d'effet sur notre vie de tous les jours, à moins que votre famille et vos amis ne soient du genre à discuter des origines du univers au cours du dîner.

Les ondulations dans le tissu de l'espace et du temps offrent de nouveaux indices sur la forme des trous noirs

Une équipe de scientifiques des ondes gravitationnelles dirigée par le Centre d'excellence de l'ARC pour la découverte des ondes gravitationnelles (OzGrav) révèle que lorsque deux trous noirs entrent en collision et fusionnent, le trou noir résiduel « pépie » non pas une fois, mais plusieurs fois, émettant des ondes gravitationnelles intenses ondulations dans l'espace et le temps du tissu, qui nous renseignent sur sa forme. Aujourd'hui, l'étude a été publiée dans Physique des communications (extrait de la prestigieuse revue Nature).

Les trous noirs sont l'un des objets les plus fascinants de l'Univers. À leur surface, connue sous le nom d'« horizon des événements », la gravité est si forte que même la lumière ne peut s'en échapper. Habituellement, les trous noirs sont des créatures silencieuses et silencieuses qui avalent tout ce qui s'approche trop près d'eux. Cependant, lorsque deux trous noirs entrent en collision et fusionnent, ils produisent l'un des événements les plus catastrophiques de l'Univers : en une fraction de seconde, un Le trou noir est né et libère d'énormes quantités d'énergie au fur et à mesure qu'il prend sa forme finale. Ce phénomène donne aux astronomes une chance unique d'observer des trous noirs en évolution rapide et d'explorer la gravité dans sa forme la plus extrême.

Bien que les trous noirs en collision ne produisent pas de lumière, les astronomes peuvent observer les ondes gravitationnelles détectées - des ondulations dans le tissu de l'espace et du temps - qui rebondissent sur eux. Les scientifiques pensent qu'après une collision, le comportement du trou noir résiduel est essentiel pour comprendre la gravité et devrait être codé dans les ondes gravitationnelles émises.

Illustration d'artiste d'une cuspide de trou noir. Crédit : C. Evans J.C. Bustillo

Dans l'article publié dans Physique des communications (Nature), une équipe de scientifiques dirigée par l'ancien élève d'OzGrav, le professeur Juan Calderón Bustillo, aujourd'hui « La Caixa Junior Leader » boursière Marie Curie ? a révélé comment les ondes gravitationnelles encodent la forme des trous noirs en fusion lorsqu'ils se déposent dans leur forme finale.

L'étudiant diplômé et co-auteur Christopher Evans du Georgia Institute of Technology (États-Unis) déclare : « Nous avons effectué des simulations de collisions de trous noirs à l'aide de superordinateurs, puis comparé la forme changeante du trou noir résiduel aux ondes gravitationnelles qu'il émet. Nous avons découvert que ces signaux sont beaucoup plus riches et complexes qu'on ne le pense généralement, ce qui nous permet d'en savoir plus sur la forme considérablement changeante du trou noir final.”

Premièrement, les deux trous noirs orbitent l'un autour de l'autre, se rapprochant lentement, pendant la phase d'inspiration. Deuxièmement, les deux trous noirs fusionnent, formant un trou noir déformé. Enfin, le trou noir atteint sa forme finale. b : Fréquence des signaux d'ondes gravitationnelles observés depuis le sommet de la collision (le plus à gauche) et depuis différentes positions sur son équateur (au repos) en fonction du temps. Le premier signal montre le signal typique de « pépiement » dans lequel la fréquence augmente en fonction du temps. Les trois autres montrent qu'après la collision (à t = 0) la fréquence chute et augmente à nouveau, produisant un deuxième « chirp » 8221. Crédit : C. Evans, J. Calderón Bustillo

Les ondes gravitationnelles des trous noirs en collision sont des signaux très simples connus sous le nom de "chirps". À mesure que les deux trous noirs se rapprochent, ils émettent un signal de fréquence et d'amplitude croissantes qui indique la vitesse et le rayon de l'orbite. Selon le professeur Calderón Bustillo, « la hauteur et l'amplitude du signal augmentent à mesure que les deux trous noirs s'approchent de plus en plus vite. Après la collision, le dernier trou noir résiduel émet un signal avec une hauteur constante et une amplitude décroissante - comme le son d'une cloche frappée. Ce principe est cohérent avec toutes les observations d'ondes gravitationnelles jusqu'à présent, lors de l'étude de la collision de le haut.

Cependant, l'étude a révélé que quelque chose de complètement différent se produit si la collision est observée à partir de "l'équateur" du trou noir final. « Lorsque nous avons observé des trous noirs depuis leur équateur, nous avons constaté que le dernier trou noir émet un signal plus complexe, avec une hauteur qui monte et descend plusieurs fois avant de mourir », explique le professeur Calderón Bustillo. “En d'autres termes, le trou noir gazouille en fait plusieurs fois.”

Détail de la forme du trou noir résiduel après une collision avec un trou noir, avec une ‘forme de châtaignier’. Les régions de forte émission d'ondes gravitationnelles (en jaune) se regroupent près de sa cuspide. Ce trou noir tourne en faisant pointer la cuspide vers tous les observateurs qui l'entourent. Crédit : C. Evans, J. Calderón Bustillo

L'équipe a découvert que cela est lié à la forme du trou noir final, qui agit comme une sorte de phare à ondes gravitationnelles : « lorsque les deux trous noirs « parents » sont de tailles différentes, le trou noir final ressemble initialement à une châtaigne, avec une cuspide d'un côté et un dos plus large et plus lisse de l'autre », explique Bustillo. Il s'avère que le trou noir émet des ondes gravitationnelles plus intenses à travers ses régions les plus courbes, qui sont celles qui entourent sa cuspide. C'est parce que le trou noir restant tourne également et que sa cuspide et son dos pointent à plusieurs reprises vers tous les observateurs, produisant plusieurs pépiements.

Le co-auteur, le professeur Pablo Laguna, ancien président de la School of Physics de Georgia Tech et maintenant professeur à l'Université du Texas à Austin, a souligné "alors qu'une relation entre les ondes gravitationnelles et le comportement du dernier trou noir a été longue conjecturé, notre étude fournit le premier exemple explicite de ce type de relation.”

Référence : « Pépiements post-fusion des trous noirs binaires en tant que sondes de l'horizon final des trous noirs » par Juan Calderon Bustillo, Christopher Evans, James A. Clark, Grace Kim, Pablo Laguna et Deirdre Shoemaker, 8 octobre 2020, Physique des communications.
DOI : 10.1038/s42005-020-00446-7


La véritable identité de SN1997bs’s : imposteur ou pas ?

En tant que domaine scientifique mû par l'observation, l'astronomie a le don de regrouper des objets qui un peu en quelque sorte se ressemblent, quelle que soit leur physique sous-jacente. Prenez, par exemple, notre schéma de classification des supernovas. Alors que toutes les supernovae marquent la mort explosive d'une étoile, elles ont un large éventail de propriétés. Historiquement, les supernovae sont globalement regroupées en deux catégories en fonction de leurs spectres : les types I (qui manquent de signes d'hydrogène dans leurs spectres) et les types II (qui ont des raies d'hydrogène). Il s'avère que ces catégories sont en grande partie sans rapport avec le processus physique réel à l'origine de ces explosions. Déroutant, non ? Dans l'article d'aujourd'hui, la communauté des supernovas est confrontée à un autre cas de mauvaise taxonomie : des objets collectivement appelés « imposteurs de supernovae ».

Imposteurs de supernova : théorie vs pratique

En théorie, les imposteurs de supernova sont des explosions d'étoiles extrêmement brillantes qui ressemblent beaucoup à des supernovae. Contrairement aux supernovae, elles laissent derrière elles la majeure partie de l'étoile progénitrice entourée d'une coquille de poussière nouvellement formée. L'exemple le plus célèbre d'un tel objet est la plus grande étoile d'Eta Carinae qui a subi de multiples explosions au cours des années 1700 et 1800. Bien que les mécanismes exacts de ces explosions soient incertains, ils semblent monnaie courante dans les étoiles massives lumineuses bleues variables (LBV) comme Eta Carinae. La figure 1 montre Eta Carinae vue par Hubble, entourée de sa nébuleuse d'homunculus.

Fig. 1 : Eta Carinae vue par Hubble. Eta Carinae est un imposteur de supernova qui a subi plusieurs événements d'éruption.

En pratique, les objets sont souvent étiquetés « imposteurs de supernova » sans connaître leur véritable origine. Les imposteurs de supernova, à première vue, ressemblent à des supernovae de type IIn. Les supernovae de type IIn sont des supernovae à effondrement de cœur qui ont des raies d'émission d'hydrogène étroites dans leur spectre. L'étroitesse de ces caractéristiques est étrange car les supernovae sont des événements énergétiques rapides qui produisent généralement des caractéristiques larges, l'étroitesse implique que la supernova interagit avec la poussière qui a voilé le géniteur. Donc, si un astronome voit un transitoire qui ne semble pas assez énergétique pour être une véritable supernova IIn, il pourrait l'étiqueter comme un "imposteur de supernova". Mais tous les soi-disant imposteurs ne semblent pas être des explosions de LBV comme Eta Carinae. En fait, l'article d'aujourd'hui soutient que l'un des archétypes d'imposteurs de supernova, SN1997bs, n'est peut-être pas du tout un imposteur !

SN1997bs : Un imposteur ou la vraie affaire ?

Comme son nom l'indique, SN1997bs a été découvert pour la première fois en avril 1997 et a été classé comme une supernova de type IIn. La supposée supernova s'est ensuite estompée pour être encore plus sombre que son étoile progénitrice d'avant l'explosion, et a semblé se maintenir au début des années 2000. À l'origine, l'aplatissement de la courbe de lumière était interprété comme le flux constant du survivant de l'explosion, faisant de SN1997bs un imposteur de supernova.

L'article d'aujourd'hui s'appuie sur la photométrie récente pour répondre à la question fondamentale : l'étoile est-elle vraiment toujours là? Les auteurs ont suivi SN1997bs avec Hubble, Spitzer et le Large Binocular Telescope (LBT) jusqu'en 2014 près de deux décennies après le transitoire initial ! Ils constatent que l'objet a continué à baisser bien en dessous de la luminosité initiale de l'ancêtre, comme le montre la figure 1. En fait, il n'y a pas hautement significatif détection de l'étoile dans quelconque des images datées entre 2013 et 2014. Si l'étoile n'est plus détectable, qu'est-ce que cela signifie pour SN1997bs ? Les auteurs discutent de quelques théories :

Fig. 1 : Courbe de lumière optique du SN 1997bs. SN1997bs semble s'estomper au-delà de la luminosité d'origine de son ancêtre (indiqué en pointillés). Ici, les bandes optiques V (carrés) et I (triangles) sont représentées, y compris une limite supérieure de bande V de LBT. Tous les points au-delà de 1000 jours sont tous des limites supérieures de la luminosité du SN1997bs’s.

  • SN1997bs pourrait-il être un imposteur de supernova « canonique » ? Peut-être que SN1997bs est une star de type Eta Carinae et se retrouve maintenant dans une toile de poussière sale. Les auteurs disent que cela est peu probable parce que l'étoile devrait éventuellement s'éclaircir sous une lumière plus rouge (ou « rougir »). Au lieu de cela, l'étoile semble devenir plus bleue puis disparaître complètement.
  • Oubliez la poussière…et si SN1997bs était un imposteur « replié » ? L'étoile a peut-être éclaté puis est tombée dans un état beaucoup plus sombre 30 fois plus faible que l'étoile d'origine ! Actuellement, il n'existe aucun mécanisme connu qui puisse réduire considérablement la luminosité intrinsèque de l'étoile après un seul événement. Au contraire, nous nous attendrions à ce que l'enveloppe externe d'une étoile se dilate pendant l'éruption et conduise à une étoile encore plus brillante. Soit une nouvelle astrophysique est en train de se produire, soit
  • SN1997bs est peut-être une vraie supernova de type IIn ? Les auteurs soutiennent que la solution la plus simple à une étoile en voie de disparition est de supposer qu'elle est vraiment partie. Bien que SN1997bs soit une supernova extrêmement sublumineuse (ou de faible énergie), les auteurs soutiennent que d'autres supernovae à faible effondrement de noyau viennent tout juste d'être découvertes, et les plages d'énergie pour ces événements peuvent être plus larges que nous ne le pensions à l'origine. Des facteurs supplémentaires, tels que la poussière obscurcissante, peuvent contribuer à sous-estimer l'énergie de cette supernova initiale.

Afin d'être sûr que SN1997bs était une authentique supernova, nous avons besoin de meilleures observations pour confirmer que l'étoile a disparu. Bien qu'un reste compact, comme une étoile à neutrons, puisse exister après cette explosion, il serait beaucoup plus sombre que l'étoile d'origine. L'incertitude de l'identité réelle de SN1997bs met en évidence un défaut fondamental dans la façon dont nous étiquetons et étudions les imposteurs : et si SN1997bs, un archétype des imposteurs de supernova, n'était pas un imposteur après tout ? Au fur et à mesure que nos connaissances dans ce domaine grandissent, nous devons être prudents dans la classification de ces « imposteurs » éclectiques.


Problème de neutrinos solaires

Les neutrinos sont des particules subatomiques exotiques dont l'existence a été déduite lorsque les physiciens ont remarqué que l'événement subatomique appelé désintégration bêta ne correspondait pas. Mère Nature équilibre toujours ses livres, la loi de conservation de la masse-énergie le force.

Ainsi, avec toutes les réactions nucléaires, la somme de toutes les particules de départ masse-énergie avant la réaction doit être exactement égale à la somme après. Le problème avec la désintégration bêta, c'est qu'ils ne l'étaient pas.

En 1930, le physicien Wolfgang Pauli a dit « Je l'ai ! Et si la désintégration bêta produisait des effets étranges encore inconnus ? invisible particule avec des propriétés qui équilibreront exactement les livres? Nous pensions juste que les choses ne s'équilibraient pas parce que nous ne pouvions pas voir la chose foutue."

Les autres physiciens roulèrent des yeux vers Pauli. Cela ressemblait trop à votre fils en bas âge qui vous disait qu'il n'avait pas cassé la lampe, c'était un monstre vert invisible qui essayait de l'encadrer. Viole le rasoir d'Occam, ça le fait.

Vingt-six ans plus tard, Pauli a été justifié lorsque Clyde Cowan et Frederick Reines ont finalement réussi à détecter l'étrange particule invisible.

Pourquoi cela leur a-t-il pris si longtemps ? Parce que les neutrinos sont réel invisible. Les petits diables glissants peuvent traverser environ une année-lumière entière de plomb solide avant de toucher un noyau de plomb. Ils sont insaisissables, mais peuvent être détectés par un détecteur suffisamment sensible. Il s'agit généralement de 1 000 tonnes d'eau ultra-pure dans un réservoir recouvert de photocellules enfouies profondément sous terre dans une mine abandonnée.

Étant donné que les neutrinos sont si pénétrants, ils peuvent être utilisés pour observer des objets astronomiques. En 1987, quelques détecteurs de neutrinos ont accidentellement repéré quelques-uns de Supernova 1987A. Les neutrinos sont arrivés environ deux heures avant la lumière visible de la supernova. En effet, les neutrinos ont été créés par l'effondrement initial du noyau stellaire, tandis que la lumière n'a été créée que deux heures plus tard, lorsque l'onde de choc a atteint la surface de l'étoile. Le point important est que les neutrinos peuvent être utilisés pour observer les conditions à l'intérieur des noyaux des étoiles.

Ce qui conduit à cette étrange astronomique.

En 1970, les astrophysiciens Raymond Davis, Jr. et John N. Bahcall ont pensé qu'ils pourraient utiliser un détecteur de neutrinos pour mesurer le taux de fusion nucléaire dans notre étoile primaire Sol. Le Soleil dans notre ciel qui nous donne la lumière du jour. Un seul photon de lumière créé par une réaction de fusion au cœur de Sol peut mettre entre 100 000 ans et 50 millions d'années pour se frayer progressivement un chemin jusqu'à la surface de Sol, puis 8 minutes de plus pour se rendre à Terra. Mais le neutrino glissant agit comme si le corps de Sol n'était pas là. Il ne faut que 2,3 secondes pour atteindre la surface de Sol, et 8 minutes de plus pour atteindre Terra.

Cela permettra un rapport beaucoup plus actuel sur l'état des choses au cœur de Sol. 2,3 secondes au lieu de 50 millions d'années.

Davis et Bahcall ont donc installé un réservoir de 100 000 gallons de perchloroéthylène à 1 478 mètres sous terre dans la mine d'or Homestake à Lead, dans le Dakota du Sud.

Bahcall avait fait les calculs théoriques sur le nombre de neutrinos solaires qui atteindraient le détecteur. Davis a utilisé le détecteur pour compter le nombre de neutrinos qui sont réellement arrivés. C'est alors que tout le plaisir a commencé.

Le problème était que le nombre réel de neutrinos détectés était systématiquement d'environ un tiers le nombre prédit par les calculs de Bahcall. Maintenant, gardez à l'esprit que de tels problèmes en Science sont en fait une bonne chose. Isaac Asimov a noté "La phrase la plus excitante à entendre en science, celle qui annonce de nouvelles découvertes, n'est pas 'Eurêka !' (je l'ai trouvé !) mais 'Ca c'est drôle . '"

Suivant correctement les préceptes de la méthode scientifique, la communauté scientifique a immédiatement déclaré que Davis, Bahcall ou les deux avaient fait une erreur. Davis et Bahcall ont tous deux vérifié leur travail, mais n'ont trouvé aucune erreur.

La prochaine étape de la méthode scientifique consiste pour les autres à essayer de recréer l'expérience et de recréer les résultats expérimentaux. Kamiokande au Japon, SAGE dans l'ex-Union soviétique, GALLEX en Italie, Super Kamiokande, également au Japon, et SNO (Sudbury Neutrino Observatory) en Ontario, Canada, tous l'ont essayé. Et voilà, ils ont obtenu les mêmes résultats. Là ont été seulement un tiers de la quantité prévue de neutrinos sortant de Sol.

Quand tu poses la question Pourquoi? c'est quand les choses ont commencé à devenir énervées.

Les deux possibilités sont : les neutrinos ne sont pas compris aussi bien qu'ils le pensaient ou Sol n'est pas compris aussi bien qu'ils le pensaient. Ou les deux.

Les physiciens nucléaires haussèrent les épaules et promirent d'examiner de plus près la théorie des neutrinos pour voir s'il y avait quelque chose qu'ils avaient oublié. S'ils trouvaient quelque chose, la physique des particules serait mise à jour avec les nouvelles informations. Pas grave, la science avance et tout ça.

Les astronomes solaires ont commencé à transpirer. Les résultats expérimentaux pourraient signifier que le taux de fusion thermonucléaire solaire avait été considérablement réduit des deux tiers. Ce qui signifie que l'énergie que Terra reçoit de Sol pourrait soudainement chuter des deux tiers, à tout moment de 50 millions d'années dans le futur à huit minutes à partir de maintenant. La diminution ne serait pas immédiatement apparente en raison du décalage de 50 millions d'années des photons solaires s'échappant du corps de Sol. Dans ce cas, la seule question est de savoir combien de millions d'années dans le passé le taux de fusion s'est-il arrêté ?

Bien sûr, lorsque l'énergie solaire baisse des deux tiers, Terra mourra. Plus froid qu'un sno-cône à Niflheim.

Sir Arthur C. Clarke a utilisé cette situation intéressante comme toile de fond pour son roman de 1986 Les chants de la Terre lointaine. Et il y a eu quelques vulgarisations d'articles scientifiques publiés avec des titres saisissants du style de LES SCIENTIFIQUES NE SONT PAS SRS SI LE SOLEIL SE LEVERA DEMAIN.

La situation a été résolue en 2001 lorsque les résultats sont parvenus de l'Observatoire de neutrinos de Sudbury (SNO) au Canada, au grand soulagement des astronomes et à la consternation des auteurs de science-fiction.

Depuis les années 1970, le modèle standard de la physique des particules a prédit qu'il y avait trois types de neutrinos, les neutrinos électroniques ordinaires de la variété jardin plus les neutrinos exotiques du muon et les neutrinos du tau. La fusion solaire a produit des neutrinos électroniques mais aucun des deux autres.

Les lecteurs avisés auront déjà remarqué la coïncidence entre le nombre de neutrinos différents étant de trois, et les détecteurs de neutrinos ne trouvant qu'un tiers du nombre attendu de neutrinos solaires.

En 1957, Bruno Pontecorvo a proposé la théorie de l'oscillation des neutrinos. Il a prédit qu'un neutrino d'un type pourrait se transmuter spontanément en un autre type, puis un autre type en traversant l'espace. C'était une conjecture intéressante, mais ce n'est pas avant des décennies que les physiciens ont pu imaginer une expérience qui pourrait détecter cela.

Enfin plusieurs expériences ont fait. Ironiquement, l'un d'eux était les données de l'observatoire de neutrinos de Sudbury mentionné précédemment à la recherche de neutrinos solaires. Il s'avère que la plupart des autres télescopes à neutrinos ne pouvaient détecter que les neutrinos électroniques, mais pas les deux autres types.

La collaboration Super-Kamiokande au Japon a produit des preuves suggérant fortement qu'elle voyait des neutrinos muons créés par des rayons cosmiques se transmuter en neutrinos tau.

Mais le SNO a utilisé de l'eau lourde comme moyen de détection. Cela lui a permis de détecter les trois types de neutrinos. Il ne pouvait pas distinguer les neutrinos du muon et les neutrinos du tau, mais il pouvait voir les deux. Mais il pourrait distinguer les neutrinos électroniques des deux autres. En 2001, il a montré que 35% des neutrinos solaires arrivants sont des neutrinos électroniques, les autres étant des neutrinos muoniques ou tau (invisibles pour la plupart des détecteurs de neutrinos). Notez que 35% est assez proche d'un tiers. Si les neutrinos du muon et du tau représentaient les neutrinos électroniques de fusion solaire qui s'étaient transmutés, alors le taux de fusion solaire était celui prévu, et tout va bien pour le monde. Sol ne va pas partir à l'improviste pssssst !, s'assombrir et condamner le monde à une mort arctique.

Hélas, encore une autre idée passionnante de science-fiction proposée pour la première fois par Science mais ensuite arrachée.


Plus de mille ans plus tard, un grand historien avait appelé la période 1901-2000 « le siècle où tout s'est passé ». Il a ajouté que les gens de l'époque auraient été d'accord avec lui, mais pour de mauvaises raisons.
Ils auraient souligné, souvent avec une fierté justifiée, les réalisations scientifiques de l'époque &mdash la conquête de l'air, la libération de l'énergie atomique, la découverte des principes de base de la vie, la révolution de l'électronique et des communications, les débuts de l'intelligence artificielle &mdash et le plus spectaculaire de tous, l'exploration du système solaire et le premier alunissage sur la Lune. Mais comme l'a souligné l'historien, avec une précision rétrospective de 20/20, pas un sur mille n'aurait même entendu parler de la découverte qui transcendait tous ces événements en menaçant de les rendre totalement hors de propos.
Cela semblait aussi inoffensif et aussi éloigné des affaires humaines que la plaque photographique embué du laboratoire de Becquerel qui a conduit, en seulement cinquante ans, à la boule de feu au-dessus d'Hiroshima. En effet, c'était un sous-produit de cette même recherche, et a commencé dans la même innocence.
La nature est une comptable très stricte et équilibre toujours ses livres. Les physiciens ont donc été extrêmement perplexes lorsqu'ils ont découvert certaines réactions nucléaires dans lesquelles, après avoir additionné tous les fragments, quelque chose semblait manquer d'un côté de l'équation.
Comme un comptable remplissant à la hâte la petite caisse pour garder une longueur d'avance sur les auditeurs, les physiciens ont été contraints d'inventer une nouvelle particule. Et, pour expliquer l'écart, il devait s'agir d'un des plus particuliers, sans masse ni charge, et si fantastiquement pénétrant qu'il pouvait passer, sans inconvénient notable, à travers un mur de plomb de plusieurs milliards de kilomètres d'épaisseur.
Ce fantôme a reçu le surnom de « neutrino » & mdash neutron plus bambino. Il ne semblait pas y avoir d'espoir de détecter une entité aussi insaisissable, mais en 1956, par des exploits héroïques de l'instrumentation, les physiciens avaient capturé les premiers spécimens. C'était aussi un triomphe pour les théoriciens, qui trouvaient maintenant vérifiées leurs équations improbables.
Le monde dans son ensemble ne le savait pas et ne s'en souciait pas, mais le compte à rebours jusqu'à la fin du monde avait commencé.
Personne n'a entendu le premier son de la cloche funéraire de la Terre, pas même les scientifiques qui ont fait la découverte fatale, loin sous terre, dans une mine d'or abandonnée du Colorado.
C'était une expérience audacieuse, tout à fait inconcevable avant le milieu du XXe siècle. Une fois le neutrino détecté, on s'est vite rendu compte que l'humanité avait une nouvelle fenêtre sur l'univers. Quelque chose de si pénétrant qu'il traversait une planète aussi facilement que la lumière à travers une feuille de verre pouvait être utilisé pour regarder dans le cœur des soleils.
Surtout le Soleil. Les astronomes étaient convaincus qu'ils comprenaient les réactions alimentant le four solaire, dont dépendait finalement toute vie sur Terre. Aux pressions et températures énormes au cœur du Soleil, l'hydrogène a été fusionné à l'hélium, dans une série de réactions qui ont libéré de grandes quantités d'énergie. Et, comme sous-produit accessoire, les neutrinos.
Ne trouvant que les milliards de tonnes de matière sur leur chemin n'étaient plus un obstacle qu'un filet de fumée, ces neutrinos solaires se sont précipités de leur lieu de naissance à la vitesse de la lumière. À peine deux secondes plus tard, ils ont émergé dans l'espace et se sont propagés à travers l'univers. Quel que soit le nombre d'étoiles et de planètes rencontrées, la plupart d'entre elles auraient encore échappé à la capture par le fantôme insignifiant de la matière «solide» lorsque le temps lui-même a pris fin.
Huit minutes après avoir quitté le Soleil, une infime fraction du torrent solaire a balayé la Terre et une fraction encore plus petite a été interceptée par les scientifiques du Colorado. Ils avaient enterré leurs équipements à plus d'un kilomètre sous terre afin de filtrer tous les rayonnements les moins pénétrants et de piéger les rares et authentiques messagers du cœur du Soleil. En comptant les neutrinos capturés, ils espéraient étudier en détail les conditions à un endroit qui, comme tout philosophe pourrait facilement le prouver, était à jamais exclu de la connaissance ou de l'observation humaine.
L'expérience a fonctionné. Des neutrinos solaires ont été détectés. Mais &mdash il y en avait beaucoup trop peu. Il aurait dû y en avoir trois ou quatre fois plus que l'instrumentation massive avait réussi à en capturer.
De toute évidence, quelque chose n'allait pas, et au cours des années 1970, l'affaire des neutrinos disparus a dégénéré en un scandale scientifique majeur. L'équipement a été vérifié et revérifié, les théories ont été révisées et l'expérience a été répétée des dizaines de fois et toujours avec le même résultat déconcertant.
À la fin du vingtième siècle, les astrophysiciens avaient été forcés d'accepter une conclusion inquiétante et pourtant, personne n'avait encore réalisé toutes ses implications.
Il n'y avait rien de mal avec la théorie, ou avec l'équipement. Le problème était à l'intérieur du Soleil.
La première réunion secrète de l'histoire de l'Union astronomique internationale a eu lieu en 2008 à Aspen, Colorado &mdash non loin de la scène de l'expérience originale, qui avait maintenant été répétée dans une douzaine de pays. Une semaine plus tard, le Bulletin spécial de l'AIU n° 55/08, portant le titre délibérément discret « Quelques notes sur les réactions solaires », était entre les mains de tous les gouvernements de la Terre.

(ndlr : le roman a été écrit en 1986, puis l'année 2008 était deux décennies dans le futur)

On aurait pu penser qu'au fur et à mesure que la nouvelle fuyait, l'annonce de la Fin du Monde aurait provoqué une certaine panique. En fait, la réaction générale a été un silence stupéfait, puis un haussement d'épaules et la reprise des activités normales et quotidiennes.
Peu de gouvernements s'étaient penchés davantage sur les élections, peu d'individus au-delà de la vie de leurs petits-enfants. Et de toute façon, les astronomes pourraient se tromper. Même si l'humanité était sous le coup d'une condamnation à mort, la date de l'exécution était encore indéfinie. Le Soleil n'exploserait pas avant au moins mille ans, et qui pourrait pleurer la quarantième génération ?


Une collision avec une planète naine a probablement causé le déséquilibre de notre lune

Notre Lune présente une face proche et une face lointaine avec des caractéristiques géologiques radicalement différentes. Cette anomalie a intrigué les scientifiques pendant des années, mais de nouvelles simulations informatiques suggèrent que la disposition asymétrique de la Lune peut être attribuée à une ancienne collision avec un autre objet, peut-être une planète naine.

Pendant des milliers et des milliers d'années, l'humanité n'avait aucune idée de ce à quoi ressemblait la face cachée de la Lune. Notre satellite naturel est verrouillé par la marée sur la Terre, nous obligeant à contempler perpétuellement l'un de ses deux hémisphères. En commençant par les missions Apollo, cependant, nous avons finalement acquis la capacité d'enquêter sur la face invisible de la Lune. À la surprise des astronomes, les deux lobes de la Lune présentaient des différences frappantes dans la topographie, l'épaisseur de la croûte et la composition chimique. Les scientifiques ont pensé que cette asymétrie prononcée était le résultat de processus physiques anciens, mais inconnus.

Nouvelle recherche publiée dans le Journal of Recherche géophysique : planètes suggère que cette asymétrie inattendue a été causée par une ancienne collision avec un objet assez gros, probablement une planète naine.

"C'est un article qui sera très provocateur", a déclaré Steve Hauck, professeur de géodynamique planétaire à l'Université Case Western Reserve qui n'était pas impliqué dans l'étude, dans un communiqué de presse. « Comprendre l'origine des différences entre la face visible et la face cachée de la Lune est une question fondamentale en science lunaire »,
Hauck, qui est le rédacteur en chef de JGR: Planets, a ajouté.

L'auteur principal de la nouvelle étude, Zhu Meng-Hua de l'Institut des sciences spatiales de l'Université des sciences et technologies de Macao, avait le pressentiment que les asymétries côté proche-autre étaient le résultat d'une collision céleste après avoir examiné les données recueillies en 2012 par le Mission Gravity Recovery and Interior Laboratory (GRAIL). Ces données ont montré que la croûte du côté éloigné était environ 10 kilomètres (6 miles) plus épaisse que la croûte du côté proche. De plus, la face cachée présentait également une couche supplémentaire de croûte constituée de matériaux riches en magnésium et en fer.

À l'aide des données du GRAIL, Zhu a effectué une série de simulations informatiques pour tester l'hypothèse selon laquelle une collision géante a laissé la Lune déséquilibrée. Au total, 360 modèles informatiques différents ont été réalisés pour déterminer si un impact pouvait produire le même type de caractéristiques physiques observées sur la Lune aujourd'hui.

Parmi les simulations réalisées, deux étaient en phase avec les données du GRAIL.Plus précisément, il a été démontré que l'asymétrie côté proche-côté lointain était causée par un gros objet mesurant 780 kilomètres (480 miles) de diamètre frappant la face visible de la Lune à 22 550 km/h (14 000 mph) ou un objet légèrement plus petit à 720 kilomètres de diamètre ( 450 miles) à une vitesse plus élevée de 24 500 km/h (15 000 mph). En comparaison, la planète naine Cérès mesure 945 kilomètres (590 miles) de diamètre.

Ces deux scénarios ont soulevé de grandes quantités de débris qui sont retombés sur la surface lunaire, en particulier du côté opposé à la collision. La matière tombante a enterré la croûte primordiale de l'autre côté avec une couche mesurant 5 à 10 kilomètres (3 à 6 miles) d'épaisseur, ce qui est cohérent avec les observations faites par GRAIL. Les auteurs de la nouvelle étude ont déclaré que l'objet incriminé était probablement une planète naine en orbite autour du Soleil et non une deuxième lune terrestre.

Surtout, la nouvelle étude a le potentiel de résoudre un mystère persistant sur les différences observées dans les isotopes du potassium, du phosphore et de divers éléments des terres rares entre la Terre et la Lune. Cette nouvelle théorie explique heureusement cet écart en suggérant que les éléments sont arrivés plus tard sur la Lune via l'impact.

De manière intéressante, le nouveau résultat pourrait également expliquer des caractéristiques asymétriques similaires observées sur d'autres planètes du système solaire, y compris Mars.

"En effet, plusieurs planètes ont des dichotomies hémisphériques, mais pour la Lune, nous avons beaucoup de données pour pouvoir tester des modèles et des hypothèses, donc les implications du travail pourraient probablement être plus larges que la Lune", a déclaré Hauck.

C'est une conclusion intrigante, mais fortement dépendante des modèles informatiques. D'autres chercheurs devraient exécuter leurs propres simulations, de préférence avec des données recueillies auprès de GRAIL et d'autres sources. Il serait intéressant de voir, par exemple, si les modèles de retombées observés dans la nouvelle étude peuvent correspondre à d'autres. Les recherches futures devraient également se concentrer sur la présence de matériaux «étrangers» sur la Lune (c'est-à-dire les restes de la prétendue planète naine) qui pourraient corroborer davantage les conclusions du nouvel article. Jusque-là, la nouvelle théorie devra rester juste cela – une théorie.

Journaliste senior chez Gizmodo spécialisé dans l'astronomie, l'exploration spatiale, SETI, l'archéologie, la bioéthique, l'intelligence animale, l'amélioration humaine et les risques posés par l'IA et d'autres technologies de pointe.

Partagez cette histoire

Recevez notre newsletter

DISCUSSION

J'aurais pensé que le fait que la Lune soit verrouillée par la marée sur la Terre expliquerait déjà les différentes caractéristiques de surface des deux côtés, car cela rend disproportionnellement plus difficile pour les astéroïdes de frapper le côté de la Lune qui nous fait face, par rapport au loin un, pour deux raisons.

L'une est que la Terre « protège » le côté opposé de la Lune de nombreuses trajectoires de collision (c'est-à-dire que tout ce qui heurterait la Lune dans un angle relativement aigu à perpendiculaire à ce côté opposé entrera plutôt dans l'atmosphère terrestre). Pensez à la façon dont Yavin 4 a été protégé du coup direct de l'étoile de la mort par Yavin dans Star Wars : A New Hope !

Et l'autre raison étant la gravité, qui, encore une fois, éloigne de nombreux objets de la Lune vers la Terre qui, autrement, heurteraient le côté de la Lune faisant face à la Terre dans un angle relativement plat, mais s'en éloignent par la gravité de la Terre car il s'agit d'environ pour passer entre la Terre et la Lune. La même force gravitationnelle et les mêmes effets s'appliquent également à la face cachée de la Lune, où elle augmente le nombre d'impacts, car elle fait également s'écraser l'objet sur la surface arrière de la Lune, qui serait autrement passé par elle, si seulement la Terre n'avait pas été « tirer » sur eux.

D'ailleurs. la gravité de la Terre affecte également la façon dont les roches et la poussière perturbées et rejetées par tout impact sur la Lune se déposent à la surface de la Lune (à condition qu'elles n'échappent pas complètement à sa gravité), car, encore une fois, elles ont tendance à être tirées vers le côté de la Lune qui fait face à la Terre, et loin de la face cachée.

Là encore, c'est juste moi qui réfléchis pendant quelques secondes, essayant d'appliquer le bon sens et la physique de base à la situation, au lieu d'exécuter des simulations informatiques pendant des mois ou des années sur des millions de dollars d'équipement payés par l'argent des contribuables.


La sombre histoire des superamas en collision

&copier Tous droits réservés. Veuillez ne pas distribuer sans l'autorisation écrite de Damn Interesting.

Malgré tout ce que l'humanité a appris grâce à la science, l'Univers a jusqu'à présent réussi à garder la plupart de ses secrets. Par exemple, nous ne savons pas d'où vient l'Univers, quel sera son destin ou même sa composition la plus élémentaire.

Mais au cours des dernières décennies, des indices alléchants et des conjectures très intelligentes ont conduit les astronomes à une hypothèse étonnante : la matière ordinaire qui raidit nos os et alimente nos soleils ne joue qu'un petit rôle dans la grande épopée de l'existence. Les astronomes pensent maintenant que pour chaque kilogramme de matière normale comme les atomes, les électrons et les quarks, il y a cinq kilogrammes de matière noire.

Très récemment, des astronomes ont annoncé ce que beaucoup pensaient impossible, l'observation directe de l'existence de la matière noire. Il y a des milliards d'années, deux superamas galactiques sont entrés en collision. La collision s'est produite à une vitesse relative de plus d'un million de milles à l'heure. Depuis le Big Bang lui-même, l'univers connu n'a pas connu un événement aussi violent. Les conséquences de cette collision ont offert ce qui pourrait être une opportunité unique de voir enfin la matière noire elle-même.

La matière ordinaire est organisée en structures allant d'échelles aussi petites que le noyau d'un atome à celles qui couvrent une grande partie de l'Univers. Les quatre mêmes forces physiques qui lient les protons aux neutrons et maintiennent nos pieds au sol font que les soleils s'organisent en galaxies, les galaxies se regroupent en amas, les amas se rassemblent en superamas et les superamas forment des structures que les astronomes appellent simplement filaments, bulles et feuilles. .

Les superamas peuvent contenir des millions de galaxies relativement proches. Les étoiles au sein de ces superamas restent liées à leurs galaxies natives, mais la plupart des gaz sont diffusés dans tout l'amas et chauffés à des millions de degrés au cours du processus. Ces gaz constituent la majeure partie de la masse d'une galaxie individuelle et environ 90 % de la masse visible du superamas.

Les astronomes savent depuis longtemps que les superamas ne contiennent pas assez de matière visible pour expliquer leur existence. Les gaz chauds et les galaxies orbitent si rapidement autour de l'amas que la gravité de la masse visible est insuffisante pour maintenir la matière ensemble. Ainsi est née la théorie de la matière noire. La théorie suggère que la matière noire interagit avec la matière normale via une seule des quatre forces fondamentales : la gravité. Des calculs et des simulations informatiques montrent que des amas de matière noire se trouvent au centre de toutes les grandes structures de l'Univers, même de la Voie lactée.

Lorsque deux amas entrent en collision à grande vitesse, les galaxies visibles et la matière noire se croisent comme si de rien n'était. Mais les gaz s'entrechoquent avec suffisamment de force pour les ralentir considérablement. Ainsi, la majeure partie de la matière visible dans les amas est enlevée, laissant derrière elle deux amas de matière noire. C'est exactement ce que les astronomes pensent qu'il s'est passé il y a des milliards d'années dans l'amas 1E0657-56, également appelé amas de balles.

L'image en haut montre le groupe de balles à la fois en lumière visible et aux rayons X. La lumière rouge floue est la lueur des rayons X des gaz extraits. À droite et à gauche de cette lueur, vous pouvez voir les amas de galaxies eux-mêmes. Cette animation tente de montrer la collision et de mieux expliquer les images également.

Les champs gravitationnels intenses déforment suffisamment le tissu de l'espace-temps pour courber les rayons lumineux. À l'échelle galactique, cela peut provoquer un phénomène appelé "lentille gravitationnelle" qui focalise et déforme la lumière que nous voyons des galaxies lointaines. En mesurant cette distorsion, les scientifiques peuvent calculer à la fois la masse et l'étendue de l'objet lentille. L'illustration de gauche montre comment les images de galaxies lointaines sont éclaircies, déformées et dupliquées par la lentille gravitationnelle.

À droite et à gauche de l'amas de balles, les astronomes ont observé deux très grandes lentilles gravitationnelles à l'aide du télescope Hubble. La masse nécessaire pour créer de telles grandes lentilles gravitationnelles (indiquées en bleu sur l'image de droite) est bien supérieure à celle des galaxies des amas d'origine, donc quelque chose de très massif et d'invisible se trouve au centre de ces amas. Ce quelque chose, observé maintenant directement pour la première fois, est la matière noire.

Si tout cela semble un peu moins qu'une observation directe, considérez simplement le résultat : quelque chose de complètement invisible qui est néanmoins plus massif qu'un amas de galaxies et s'étend sur des millions d'années-lumière déforme la lumière derrière l'amas de balles. Nous ne savons pas encore ce qu'est la matière noire, mais nous savons maintenant qu'elle est là. Que la matière noire soit simplement les enveloppes d'étoiles défaillantes, une nouvelle particule subatomique exotique ou autre chose, c'est un secret que l'Univers nous tient toujours.