Astronomie

Qu'est-ce qui limite l'utilisation du diagramme H-R pour mesurer la distance (ajustement de séquence principale), pour quelles distances est-il utile ?

Qu'est-ce qui limite l'utilisation du diagramme H-R pour mesurer la distance (ajustement de séquence principale), pour quelles distances est-il utile ?

Est-il seulement possible de mesurer des objets qui se forment à peu près au même moment ? Est-il possible de mesurer des amas de galaxies lointaines autres que la nôtre ?


Cela dépend de la précision dont vous avez besoin. L'ajustement de la séquence principale suppose que la ou les étoiles en question sont sur la séquence principale. Si vous avez un amas d'étoiles (du même âge), alors définir ce qui est sur la séquence principale et ce qui ne l'est pas devient beaucoup, beaucoup plus facile et bien sûr vous avez beaucoup d'étoiles avec lesquelles vaincre l'incertitude statistique.

En fait, pour des groupes d'étoiles contemporains, ce que vous appelez « ajustement de séquence principale » est rarement fait. Le processus est l'ajustement d'une "isochrone" (une ligne qui relie les points du diagramme HR à un même âge), de sorte que la distance, l'âge (également l'extinction et la métallicité) soient des paramètres libres possibles.

La distinction subtile ici est que ce que l'on appelle "la séquence principale" n'existe pas vraiment dans la pratique, ou du moins pas en tant que locus défini de manière unique dans le diagramme HR. Les étoiles commencent leur vie de séquence principale sur la "séquence principale d'âge zéro" (ZAMS) et terminent leur carrière de séquence principale à la "séquence principale d'âge terminal" (TAMS), en changeant progressivement leur luminosité et leur température au fur et à mesure.

Voici un schéma de Martignoni et al. (2014) montrant le ZAMS et le TAMS pour des étoiles de masses différentes. il y a généralement un facteur 2-3 de luminosité entre eux (une plus grande différence à des masses plus importantes). Cela signifie que si vous utilisez le ZAMS, le TAMS ou quelque chose entre les deux pour déterminer la distance à partir d'un déplacement vertical dans le diagramme HR, vous pouvez varier votre réponse pour la distance en $sqrt{2}$ à $sqrt{3}$. En d'autres termes vous besoin de connaître l'âge d'une étoile de la séquence principale avant que "l'ajustement de la séquence principale" puisse vous donner une distance précise.

Bien sûr, les étoiles de masse inférieure ont une durée de vie plus longue. Tout ce qui est de 0,7 masse solaire ou moins n'a pratiquement pas bougé du ZAMS à l'ère de la Galaxie, il y aurait donc peu d'erreur à supposer un locus ZAMS. A l'inverse, les effets de l'âge sont beaucoup plus rapides et donc beaucoup plus importants sur la séquence principale aux masses plus élevées.

Si vous essayiez d'utiliser l'ajustement de la séquence principale pour estimer la distance à individuel étoiles alors il y a plusieurs dangers. D'une part, il peut être presque impossible d'estimer l'âge d'une étoile individuelle. Par conséquent, s'il a une masse supérieure à 0,7 masse solaire, il y aura une incertitude sur sa position dans le diagramme HR absolu qui conduit à une incertitude inévitable sur la distance estimée. De plus, la position intrinsèque dans le diagramme HR dépend de la composition chimique de l'étoile. De telles informations auxiliaires peuvent être disponibles, mais pas nécessairement, auquel cas il s'agit d'une autre source d'erreur. Une autre source d'incertitude systématique est la rotation stellaire. Les étoiles à rotation rapide ont des durées de vie prolongées sur la séquence principale et des positions intrinsèques quelque peu différentes sur le diagramme HR ; encore une fois une source d'incertitude systématique qui est particulièrement problématique pour les étoiles de grande masse. Enfin, il se peut que ce que vous pensez être une étoile isolée de la séquence principale soit en fait un système binaire. Un compagnon peut augmenter la luminosité du système et faire apparaître une étoile plus près qu'elle ne l'est réellement (jusqu'à un facteur $sqrt{2}$).


Utiliser des supernovae pour mesurer des distances

Les méthodes que nous avons décrites jusqu'à présent ne peuvent atteindre que les amas de galaxies les plus proches. Si nous souhaitons sonder plus profondément dans l'univers, nous devons trouver de nouvelles façons d'estimer les distances. Les méthodes que je vais décrire aujourd'hui ont chacune un point fort et une faiblesse.

Qu'est-ce qu'une supernova ?

La réponse courte est "une étoile qui explose".

Or, il existe plusieurs mécanismes qui font exploser une étoile, et l'objet pré-explosion peut avoir plusieurs formes différentes. Nous discuterons de certains de ces problèmes un peu plus tard.

Mais d'un point de vue observationnel, une supernova est une étoile qui apparaît soudainement dans une galaxie, brille aussi fort qu'une galaxie entière pendant quelques semaines ou quelques mois, puis s'estompe progressivement. Voici quelques beaux exemples de supernovae récentes.


Images de SN 2011fe dans M101 avec l'aimable autorisation de PTF et B. J. Fulton


Images de SN 2014J dans M82 avec l'aimable autorisation de Scott McNeil

SN 2017eaw dans NGC 6946 -- ce qui est brillant à l'heure actuelle!

Maintenant, ces images ne montrent pas vraiment à quel point une supernova peut être brillante. Dans de nombreux cas, une supernova peut éclipser toutes les étoiles de sa galaxie hôte pendant une brève période. Par exemple, les images précédentes du SN 2011fe dans M101 donnent l'impression que le SN n'était qu'une petite goutte de lumière parmi tant d'autres.


Image de SN 2011fe dans M101 avec l'aimable autorisation de PTF et B. J. Fulton et recadrée par mes soins.

Mais si l'on utilise un petit télescope, comme mon Meade LX200 de 12 pouces à l'observatoire RIT, et ne prend qu'une courte exposition, alors nous pouvons comparer plus clairement la lumière du noyau et des bras spiraux de la galaxie à celle de la supernova. Vous trouverez ci-dessous une image de la bande R (lumière rouge) prise le 25 septembre 2011, lorsque le SN 2011fe avait déjà dépassé sa luminosité maximale et commençait à s'estomper.


Image de la bande R de SN 2011fe dans M101 avec l'aimable autorisation de Michael Richmond et de l'observatoire RIT

Et ci-dessous, une image prise à travers un filtre de bande B (lumière bleue). Le SN, à lui seul, produit beaucoup, beaucoup plus de lumière bleue que les milliards d'étoiles du noyau de cette galaxie !


Image en bande B de SN 2011fe dans M101 avec l'aimable autorisation de Michael Richmond et de l'observatoire RIT

Les bons et les mauvais aspects des supernovae comme indicateurs de distance

    Bien
      Très lumineux, donc visible à de très grandes distances. Les astronomes ont trouvé des supernovae bien au-delà de z=1, avec l'événement le plus éloigné à z=3,9 ! Cela signifie que les supernovae peuvent atteindre BEAUCOUP plus loin dans l'espace que toute autre méthode dont nous avons discuté.

L'étoile "S Andromeda" était une explosion de type Ia dans la galaxie d'Andromède, mais cela s'est produit quelques décennies seulement avant que les astronomes ne soient prêts avec un équipement suffisamment puissant pour l'étudier correctement.

Tant de variétés.

Il existe une très grande variété de classes et de sous-classes de supernova. Il est facile de se perdre dans les différents types et désignations. Pour nos besoins, toutes ces distinctions fines ne sont pas nécessaires. Même s'il SEMBLE exister de nombreux types différents, on peut finalement les séparer en seulement deux variétés.

Envie de pratique ? Regardez les images suivantes et essayez de séparer les quatre animaux différents en deux espèces. Tous les individus photographiés ont deux jambes, une tête et mesurent environ deux mètres de haut.


Image d'autruche avec l'aimable autorisation de berniedup et Wikipedia . Image de Rob Gronkowski avec l'aimable autorisation de Wellslogan et Wikipedia. Image de l'astronaute Apollo avec l'aimable autorisation de la NASA. Image de Cao Yuan avec l'aimable autorisation de Fernando Frazão/Agência Brasil et Wikipedia

(j'espère que tu as bien compris)

Il n'y a que DEUX espèces, même si toutes les images sont assez différentes.

Les trois humains différents SEMBLENT différents parce qu'ils portent des quantités différentes de matière sur leur corps. Si vous pouviez couper chaque humain en deux, vous trouveriez la même chose à l'intérieur : os, muscles, sang, etc.

  1. le centre du noyau (généralement) s'effondre en une étoile à neutrons ou un trou noir
  2. les couches externes (relativement massives) de l'étoile sont chauffées à

50 000 K et envolez-vous dans l'espace à des vitesses de


Le droit d'auteur de l'image David Hardy provient de systèmes d'étoiles binaires dans lesquels une étoile de séquence principale ordinaire est proche d'une naine blanche à carbone-oxygène (la seul dégénéré scénario). Le matériel de l'étoile de la séquence principale peut - dans les bonnes circonstances - s'échapper de l'atmosphère extérieure et former un disque d'accrétion autour de la naine blanche. Si le taux d'accrétion de masse sur la naine blanche tombe dans la plage appropriée, alors la masse de la naine blanche peut éventuellement atteindre la limite de Chandrasekhar, environ 1,4 masse solaire. À ce stade, de petites régions de réactions thermonucléaires près du centre de la naine blanche peuvent entrer dans une instabilité galopante, transformant la plupart des naines blanches des éléments du groupe C-O en éléments du groupe Fe et produisant suffisamment d'énergie pour propulser toute l'étoile dans l'espace.

Eh bien, c'est une possibilité. Une autre est que DEUX naines blanches sur une orbite rapprochée peuvent éventuellement fusionner (la double dégénéré scénario). La fusion crée un objet unique qui dépasse à nouveau la limite de Chandrasekhar, et, encore une fois, Ka-Boom.

  1. toute la naine blanche est détruite, il n'y a donc plus de reste
  2. le corps (relativement petit) de l'étoile est chauffé à

50 000 K et s'envole dans l'espace à des vitesses de

Dans les deux cas, très grossièrement 10 51 ergs d'énergie sont libérés par les, euh, processus complexes se produisant dans les régions centrales de l'étoile progénitrice. Ainsi, à une approximation très très grossière, dans les deux cas, nous voyons la même chose : un nuage en expansion de gaz extrêmement chaud, volant vers l'extérieur à des vitesses très élevées, atteignant des magnitudes absolues de Mv

Comment pouvons-nous utiliser cette grosse explosion pour mesurer une distance ?

Méthode d'expansion de la photosphère avec le type IIP

  • le noyau le plus interne devient une étoile à neutrons ou un trou noir
  • un grand nombre de neutrinos s'envolent immédiatement dans l'espace
  • une onde de choc lentement (au cours des heures) se fraie un chemin à travers l'enveloppe jusqu'à la photosphère

L'onde de choc chauffe la majeure partie de l'étoile et l'accélère vers l'extérieur, à des vitesses bien supérieures à la vitesse d'échappement. En un mot, l'étoile explose. Cependant, si l'on regarde de plus près, on constate que les vitesses des différentes couches de l'étoile varient de manière systématique : le matériau des régions internes a une vitesse relativement faible, tandis que le matériau des régions externes a une vitesse relativement élevée. Nous appelons cela expansion homologue. (Cliquez sur la figure ci-dessous pour l'animer)

L'onde de choc chauffe le matériau jusqu'à des températures très élevées, bien supérieures à 100 000 Kelvin, ionisant tout l'hydrogène. Les couches les plus externes émettent des rayons X et des UV pendant plusieurs heures après le choc de l'étoile, mais se refroidissent ensuite rapidement. Cependant, lorsque la température du gaz tombe à environ 6 000 Kelvin, l'hydrogène commence à se recombiner. À ce stade, lorsque la couche la plus externe passe d'ionisée à neutre, son opacité diminue : l'hydrogène gazeux neutre est BEAUCOUP plus transparent que le gaz ionisé.

Lorsque la couche la plus externe se recombine, elle devient essentiellement transparente et nous pouvons voir dans la couche en dessous. Cette couche est encore suffisamment chaude pour que l'hydrogène soit ionisé. mais en peu de temps, elle aussi se refroidit à environ 6000 Kelvin et se recombine. Lorsqu'elle devient transparente, nous pouvons alors voir dans la couche SUIVANTE de l'étoile, et ainsi de suite.

  • le matériau "visible" le plus externe est défini par la région dans laquelle l'hydrogène commence à se recombiner
  • cette couche la plus externe aura une température raisonnablement bien définie d'environ 6000 K
  • la couche se déplace rapidement vers l'extérieur

Au fur et à mesure que le temps passe et que nous voyons plus loin dans l'étoile, la vitesse de cette couche spéciale va diminuer. Le graphique ci-dessous montre l'évolution d'un modèle informatique d'une supernova de type II - les lignes sont tracées à des intervalles d'environ une semaine.


Chiffre tiré de Kasen et Woosley, ApJ 703, 2205 (2009)

La courbe continue de la figure ci-dessous montre l'évolution d'un modèle informatique d'une étoile en explosion, tandis que les cercles montrent les mesures de vraies supernovae.


Chiffre tiré de Kasen et Woosley, ApJ 703, 2205 (2009)

Le rayon d'une couche particulière de matériau à un moment donné t peut être écrit comme

t0 est le moment de l'explosion et R0 est le rayon de cette couche au moment de l'explosion. Avec des spectres de haute qualité de la supernova, nous pouvons mesurer la vitesse d'une couche particulière de l'étoile - la couche qui agit actuellement comme la photosphère.

Parce que la photosphère est dans un état si simple - de l'hydrogène presque pur, à une température proche de 6000 K - il n'est pas trop difficile de calculer le rayonnement qu'elle émet. Au premier ordre, la photosphère agit comme un "corps noir dilué", émettant un flux

T est la température

6000 K, et &xi est un "facteur de dilution", inséré dans l'équation ordinaire du corps noir pour tenir compte de plusieurs facteurs qui font que le spectre de l'étoile réelle diffère de celui d'un corps noir parfait.

En utilisant la spectroscopie et la photométrie, nous pouvons mesurer Vermont) et le flux observé f(t). Si nous effectuons des mesures à plusieurs moments différents, lorsque la photosphère a des tailles et des luminosités différentes, nous avons suffisamment d'informations pour résoudre le temps d'explosion, la taille initiale de l'étoile, et déterminer également la distance, il s'agit simplement de comparer la luminosité F(t) au flux observé f(t) et en utilisant la loi du carré inverse (et en espérant qu'il n'y ait pas eu d'extinction, etc.).

C'est une belle coïncidence que la vitesse à laquelle l'onde de recombinaison pénètre plus profondément dans l'étoile est à peu près la même que la vitesse à laquelle l'étoile s'étend, en d'autres termes, le rayon de la photosphère apparente ne change pas beaucoup pendant que l'onde se déplace toujours à travers l'enveloppe. En conséquence, la luminosité des supernovae de type IIP atteint un plateau (d'où le "P") et reste presque constant pendant un mois ou deux.


Chiffre tiré de Jones et Hamuy, RMxAC, 35, 310 (2009)

Comme exemple de cette technique, regardons le SN IIP 2013ej à proximité dans M74. Ses courbes lumineuses montrent clairement la présence d'un "plateau" lorsque la photosphère se retire dans l'éjecta.


Figure 3 de Richmond, JAVSO 42, 333 (2014)

Nous n'utiliserons que les mesures de la bande V pour ce petit calcul rapide en classe. Choisissons la date JD = 2456510, ce qui est juste un peu après le temps de lumière maximale.


Tiré de la figure 3 de Richmond, JAVSO 42, 333 (2014)

Si l'on suppose que la photosphère émet comme un corps noir, alors on peut estimer la température en ajustant les flux mesurés aux spectres des fonctions de Planck pour différentes températures. La température diminuera avec le temps, en général.


Tiré de la figure 8 de Richmond, JAVSO 42, 333 (2014)

Nous aurons besoin de connaître la vitesse de cette partie de l'éjecta afin de déterminer sa taille. Les observations et la modélisation d'un certain nombre de chercheurs suggèrent que l'explosion s'est produite le 2 456 494 JD, donc notre date choisie de 2 456 510 est environ 16 jours après l'explosion.


Figure 2a légèrement modifiée de Valenti et al., MNRAS 438, L101 (2014)

  • À la température que vous avez estimée, environ 8 % du rayonnement d'un corps noir tombe dans la bande passante V
  • Un objet de magnitude apparente V = 0 a un flux au-dessus de l'atmosphère terrestre d'environ 3,16 x 10 -6 ergs par cm² par seconde
  • dans ce cas, le "facteur de dilution" est d'environ &xi = 0,5

Ainsi, vous devriez maintenant être en mesure de faire une estimation approximative de la distance de cette supernova.

Lorsque j'ai suivi une procédure plus compliquée en utilisant les données de cette supernova, j'ai découvert que la méthode de la photosphère en expansion donnait une distance d'environ 9,1 +/- 0,4 Mpc. D'autres méthodes suggèrent une distance similaire. Comment votre valeur se compare-t-elle ?

    faiblesses
    • la vraie photosphère n'est pas un corps noir
    • la couche de gaz produisant la plus grande partie de la lumière peut ne pas être la même que la couche produisant les raies d'absorption, à partir de laquelle nous mesurons la vitesse

    Nous pouvons appliquer cette technique à de grandes distances, car les Type IIP SNe sont très lumineux : leurs grandeurs absolues typiques sont comprises entre -15 et -18. Regardez l'exemple de SN 2013eq !


    Tableau 4 tiré de Gall et al., A&A 592, 129 (2016)

    Type Ia : bougies standardisables

    Considérons maintenant les supernovae « White Dwarf ». L'idée de base pour les utiliser comme indicateurs de distance est très simple :

    Autrefois (années 1970 et 1980), la collection de mesures était relativement petite et inhomogène. A cette époque, il semblait possible - dans les incertitudes - que tous les types Ia SNe aient la même luminosité absolue, en d'autres termes, il semblait possible qu'ils soient bougies standards.


    Extrait de Branch et Bettis, AJ 83, 224 (1978)

    Cependant, alors que les astronomes accumulaient de meilleures mesures et des échantillons plus gros, il est devenu clair que les SNe Ia ne sont pas tous identiques. Ces supernovae semblent varier de façon systématique.

    Par exemple, si nous mesurons la quantité par laquelle les supernovae déclinent en luminosité 15 jours après le maximum de lumière dans la bande B,


    Chiffre tiré de Richmond et al., AJ 111, 327 (1996)

    et la comparer à la magnitude absolue de l'événement, nous trouvons une corrélation claire.

    Si nous pouvons mesurer suffisamment de SNe Ia pour cerner ces relations entre la magnitude absolue et d'autres quantités observables, nous pouvons peut-être transformer SNe Ia en bougies standardisables pas aussi belles que les bougies vraiment standard, mais toujours utiles. Il existe plusieurs groupes travaillant sur ce problème, avec des techniques légèrement différentes, et tous deux ont rencontré un certain succès. La procédure SALT consiste à choisir l'un d'un ensemble de modèles qui correspond le mieux à la courbe de lumière d'un certain SN Ia particulier observé.


    Chiffre tiré de Guy et al., A&A 443, 781 (2005)

    En utilisant ces méthodes pour corriger la relation entre le taux de déclin et la luminosité, on peut réduire l'incertitude des mesures du module de distance pour SNe Ia à peut-être 0,15 magnitude.

    Si l'on regarde SNe dans la bande H proche infrarouge, ils peuvent en effet être presque identiques. Le diagramme de Hubble ci-dessous utilise des mesures qui n'ont PAS été corrigées pour l'effet du taux de déclin. Pour être juste, beaucoup moins de travail a été fait dans le proche infrarouge que dans l'optique.


    Chiffre tiré de Wood-Vasey et al., ApJ 689, 377 (2008)

    L'une des raisons pour lesquelles les astronomes passent tant de temps à essayer de comprendre le Type Ia SNe est qu'ils sont vraiment, vraiment lumineux : leurs magnitudes absolues sont d'environ -19 ou -20 ! Cela signifie qu'ils peuvent être vus à de TRÈS grandes distances, ce qui signifie qu'ils peuvent être en mesure de tester différents modèles cosmologiques.


    Chiffre tiré d'Amanullah et al., ApJ 716, 712 (2010)

    • il a subi peu d'extinction par la matière interstellaire dans sa galaxie hôte ou dans la Voie lactée
    • il a montré les caractéristiques spectrales "typiques" ou "normales"
    • il a été découvert très peu de temps après l'explosion et mesuré fréquemment dans plusieurs bandes passantes optiques

    Une partie de la courbe lumineuse de la bande B mesurée par Richmond et Smith, JAVSO 40, 872 (2012) est illustrée dans la figure ci-dessous.


    Légèrement modifié de la figure 3 de Richmond et Smith, JAVSO 40, 872 (2012)

    1. parallaxe, avec laquelle nous pouvons atteindre .
    2. RR Lyr ou TRGB ou Cepheids, avec lesquels nous pouvons atteindre .
    3. Type Ia SNe

    Pourtant, même avec cette mise en garde, les supernovae de type Ia fournissent un outil puissant, car nous pouvons les voir (et mesurer leurs propriétés) si loin !

    Pour plus d'informations

    Copyright & copie Michael Richmond. Ce travail est sous licence Creative Commons.


    Par Martin Hardcastle [email protected]>

    Les distances des galaxies doivent être mesurées par une série compliquée d'inférences
    connu sous le nom d'échelle de distance. Nous pouvons mesurer les distances au
    étoiles les plus proches par parallaxe, c'est-à-dire par le mouvement apparent de l'étoile dans
    le ciel en raison du mouvement de la Terre autour du Soleil. Cette technique
    est limité par la résolution angulaire qui peut être obtenue. le
    le satellite Hipparcos fournira les meilleures mesures, donnant le
    parallaxe pour environ 100 000 étoiles. À l'heure actuelle, la parallaxe peut être utilisée
    déterminer avec précision les distances des étoiles à quelques dizaines de
    parsecs du Soleil. [ 1 parsec = 3,26 lt ans]

    Les méthodes statistiques appliquées aux amas d'étoiles peuvent être utilisées pour étendre
    la technique plus loin, tout comme la "parallaxe dynamique" dans laquelle le
    les distances des étoiles binaires peuvent être estimées à partir de leur orbite
    paramètres et luminosités. De cette manière, ou par d'autres méthodes, le
    la distance aux "amas ouverts" d'étoiles les plus proches peut être estimée
    ceux-ci peuvent être utilisés pour déterminer une séquence principale (non évoluée
    diagramme de Hertzsprung-Russell) qui peut être adapté à d'autres plus éloignés
    grappes ouvertes, portant l'échelle de distance à environ 7 kpc.
    Distances aux « amas globulaires », qui sont des amas beaucoup plus compacts
    d'étoiles plus anciennes, peuvent également voir leurs distances déterminées de cette manière
    si l'on tient compte de leur composition chimique différente
    au diagramme H-R de ces associations peut permettre des estimations de distance
    jusqu'à 100 kpc. Toutes ces techniques peuvent être comparées à une seule
    l'autre et leur cohérence vérifiée.

    L'importance de cette détermination de la distance au sein de notre propre galaxie
    c'est qu'il permet de calibrer les indicateurs de distance qui sont utilisés
    pour estimer les distances à l'extérieur. Le primaire le plus utilisé
    les indicateurs de distance sont deux types d'étoiles variables périodiques (Céphéides
    et RR Lyrae) et deux types d'étoiles explosives (novae et
    supernovae). Les céphéides montrent une corrélation entre leur période de
    variabilité et leur luminosité moyenne (la couleur de l'étoile joue aussi
    une partie) de sorte que si la période et la magnitude sont connues, la distance peut
    en principe être calculé. Les céphéides peuvent être observées au sol
    télescopes à environ 5 Mpc et avec le télescope spatial Hubble à au
    au moins 15 Mpc. Les étoiles RR Lyrae sont des variables avec une
    magnitude, ils sont trop faibles pour être utiles à de grandes distances, mais ils
    permettre une mesure indépendante de la distance aux galaxies à moins de 100
    kpc, comme les Nuages ​​de Magellan, pour comparaison avec les Céphéides. Novae
    montrent une relation entre la luminosité à la lumière maximale et le taux de
    baisse d'ampleur, bien que pas très serrée cependant, ils sont
    plus lumineux que les Céphéides, cette méthode peut donc permettre des estimations de distance pour
    objets plus éloignés. Enfin, les supernovae permettent de déterminer la distance
    à grande échelle (car ils sont si brillants), mais la méthode nécessite quelques
    contribution de la théorie sur la façon dont ils devraient se comporter au fur et à mesure de leur expansion. le
    l'avantage d'utiliser des supernovae est que les distances dérivées sont
    indépendant de l'étalonnage à partir des mesures galactiques l'inconvénient
    est que la dépendance du comportement de la supernova au type d'étoile
    qui l'a formé n'est pas complètement compris.

    Les meilleurs indicateurs primaires de distance (généralement les Céphéides) peuvent être utilisés
    pour calibrer principalement des indicateurs de distance secondaires empiriques, ces
    comprennent les propriétés des régions H II, des nébuleuses planétaires et
    amas globulaires dans les galaxies externes et relation de Tully-Fisher
    entre la largeur de la ligne de 21 cm d'hydrogène neutre et la
    magnitude absolue d'une galaxie spirale. Ceux-ci peuvent tous être utilisés dans
    en conjonction avec les supernovae de type Ia pour pousser l'échelle de distance à
    le grand amas de galaxies le plus proche (Vierge, à environ 15--20 Mpc)
    et au-delà (le prochain objectif majeur est le cluster Coma à environ 5 fois
    plus loin). D'autres estimateurs empiriques comme une galaxie
    relation taille-luminosité ou une luminosité constante pour les plus lumineux
    les amas de galaxies ont une valeur incertaine.

    L'objectif dans tout cela est de sortir au-delà des motions de nos
    groupe de galaxies et déterminer les distances pour des
    objets dont on peut raisonnablement supposer qu'ils se déplacent avec le
    l'expansion de l'univers dans la cosmologie du Big Bang. Puisque nous savons
    leurs vitesses de leurs redshifts, cela nous permettrait de
    déterminer la constante de Hubble, actuellement le « Saint Graal » de
    cosmologie observationnelle si cela était connu, nous saurions
    distances à _toutes_ les galaxies éloignées directement de leur récession
    rapidité. Des méthodes malheureusement différentes de cette détermination, en utilisant
    différentes étapes le long de l'échelle de distance, donnent des résultats différents
    cela conduit à une plage couramment adoptée pour H comprise entre 50 et 100
    km/s/Mpc, avec des camps rivaux soutenant des valeurs différentes. Il y a un
    nombre de tentatives en cours pour réduire la complexité de la distance
    échelle et donc l'incertitude dans H. L'un a été le récent (et
    continue) utilisation du télescope spatial Hubble pour mesurer Céphéide
    variables directement dans le cluster Virgo, éliminant ainsi plusieurs
    étapes cela conduit à une valeur élevée (80--100) de H, bien qu'avec une grande
    l'incertitude (qui devrait, espérons-le, être réduite au fur et à mesure que les résultats
    arrivée). D'autres groupes travaillent à l'élimination de l'échelle de distance,
    avec sa grande incertitude et ses hypothèses empiriques, dans l'ensemble, et
    déterminer directement les distances aux galaxies ou aux amas lointains,
    par exemple en utilisant l'effet Sunyaev-Zeldovich avec les rayons X
    des données sur des amas distants ou en utilisant les retards dans la gravitation
    lentilles. Les premiers résultats tendent à soutenir des valeurs inférieures de H, environ
    50.


    Qu'est-ce qui limite l'utilisation du diagramme H-R pour mesurer la distance (ajustement de séquence principale), pour quelles distances est-il utile ? - Astronomie

    Les distances aux galaxies et aux AGN sont importantes, mais les moyens directs de mesure des distances peuvent être difficiles et très longs. D'où la simple possibilité de quelque chose comme le flux Hubble cz = H0 serait une véritable aubaine, car nous pourrions alors estimer la distance (à quelques erreurs près causées par un mouvement particulier) à partir d'une seule mesure directe. L'idée est alors que pour "assez grand" , la vitesse de Hubble écrasera tous les mouvements particuliers et nous verrons un flux lisse et purement radial.

    Trouver la valeur de H0 a été une partie importante de la recherche sur les galaxies depuis sa création, avec la possibilité supplémentaire récente de cartographier les écarts systématiques par rapport à un flux régulier de Hubble. La procédure suit généralement une échelle de distance, dans lequel des objets aux propriétés bien connues sont utilisés pour calibrer des types d'objets plus grands/plus brillants qui peuvent à leur tour être utilisés pour calibrer d'autres indicateurs qui peuvent être vus à de plus grandes distances, jusqu'à ce que finalement nous ayons des indicateurs qui sont utiles dans le domaine de prétendument mouvement cosmologique pur. Un indicateur de distance doit avoir les attributs suivants :

    Une grande partie du débat sur l'échelle de distance découle des grandes distances que nous devons couvrir pour être sûrs que nous sommes au-delà de la plage de vitesses particulières telles que l'écoulement virgocentrique. Finalement, nous constatons que seules les propriétés globales des galaxies et leurs corrélations sont utilisables. Dans l'échelle des indicateurs de distance, la propagation des erreurs devient dominante. Voir Rowan-Robinson, L'échelle de distance cosmologique (Cambridge 1987), pour une discussion complète. Les méthodes modernes sont décrites dans Distances et écarts des galaxies par rapport à l'expansion universelle, éd. B. Madore et R.B. Tully (OTAN ASI 180). Nous considérerons successivement les méthodes de l'échelle de distance traditionnelle.

    Parallaxe trigonométrique. Ceci est utile à quelques centaines de pc pour les étoiles individuelles si nous avons une précision à la milliseconde d'arc, qui Hipparcos livré pour des dizaines de milliers d'étoiles. C'est la seule technique (presque) totalement infaillible pour les distances, puisque nous connaissons bien la taille de l'orbite terrestre. Les applications statistiques peuvent être appliquées à des groupes entiers d'étoiles, en utilisant (par exemple) le mouvement solaire à travers le disque galactique pour générer parallaxe séculaire. Celles-ci n'échantillonnent encore qu'une infime région de la galaxie, et en particulier n'atteignent ni les étoiles très lumineuses ni les variables céphéides (bien que Hipparcos fourni des parallaxes statistiquement utiles pour certaines Céphéides).

    Regroupez les points convergents. Pour les amas proches d'étendue angulaire appréciable (comme les Hyades), la perspective rend les mouvements propres des étoiles individuelles non parallèles, mais dirigés vers un point dans le ciel parallèle au mouvement moyen de l'amas par rapport au Soleil. Cela donne l'angle entre notre ligne de visée et le mouvement de l'amas, et donc quelle fraction du mouvement spatial de l'amas est considérée comme un mouvement propre et quelle est la vitesse radiale. La mesure de la vitesse radiale moyenne permet alors une détermination de distance, comme la distance pour laquelle la vitesse radiale et le mouvement propre sont cohérents avec l'angle entre la ligne de visée et le mouvement spatial. Cela nous permet de calibrer les magnitudes absolues pour tous les membres de l'amas, y compris les étoiles de la séquence principale supérieure et les géantes rouges. L'exemple classique est le cluster Hyades, vu ici en utilisant Hipparcos les mouvements propres de Perryman et al. (1998 A&A 331, 81) :

    Montage de séquence principale. Pour des amas d'étoiles encore plus éloignés (qui pourraient contenir des étoiles OB ou des Céphéides, par exemple), nous estimons les distances en supposant que les étoiles de la séquence principale de type spectral identique ont la même magnitude absolue. Cela revient, par exemple, à déplacer l'emplacement de la séquence principale d'un amas jusqu'à ce qu'il coïncide avec celui d'un amas de référence comme les Hyades. Le rougissement doit être raisonnablement bien déterminé pour que cela fonctionne. Cela peut être fait pour des systèmes aussi éloignés que les nuages ​​de Magellan, qui sont l'endroit le plus facile pour calibrer les Céphéides. A cet effet, chaque Nuage de Magellan peut être considéré comme un amas géant.

    Variables des céphéides. Ce sont des supergéantes dans la bande d'instabilité du diagramme H-R, subissant des pulsations régulières qui se traduisent par des variations de luminosité et de température. Leur luminosité optique élevée les rend faciles à repérer (bien que, étant des étoiles plutôt massives, elles ne se produisent pas dans les galaxies elliptiques). Des données récentes donnent une relation période-luminosité de la forme <MV> = -3,53 log P + 2,13 (<B0> - <V0>) + &phi où &phi

    -2,25 est un point zéro. P est en jours ici, et les parenthèses indiquent une moyenne sur un cycle de la courbe de lumière. Les relations pour le SMC et le LMC sont illustrées par Mathewson, Ford et Visvanathan 1986 (ApJ 301, 664) comme suit, à partir de leur Fig. 3 (avec l'aimable autorisation de l'AAS) :

    Pour utiliser efficacement les Céphéides, il faut traiter les points suivants :

    Les céphéides ont été mesurées depuis le sol dans tout le groupe local (ce que Hubble pourrait faire - l'astronome, pas le télescope), et peuvent être détectées dans les groupes M81 et Sculptor, et plus récemment dans M101 à une distance de 7 Mpc (Cook, Aaronson et Illingworth 1986 ApJLett 301, L45), et même une détection étonnante d'un couple dans la spirale de la Vierge de type tardif NGC 4751, lorsque la vision et l'encombrement stellaire ont tous fonctionné ensemble (Pierce et al. 1994 BAAS 26, 1411). Notez qu'il est de tradition de citer le module de distance m-M = 5 log D - 5 plutôt que la distance elle-même dans de nombreuses publications sur l'échelle des distances - par exemple, le DM du LMC est proche de 18,5. A ce jour, le projet clé HST sur l'échelle des distances a rapporté des détections de Céphéides à 25 Mpc, et il peut en principe aller bien au-delà de la Vierge. C'est vraiment dommage qu'il n'y ait pas de spirales dont on puisse montrer qu'elles vivent dans le noyau de Coma. Le rapport le plus connu de ce travail était pour NGC 4321=M100 in Virgo par Ferrarese et al (1996 ApJ 464, 568), voir aussi Freedman et al 1994 (Nature 371, 757). Le projet, utilisant des Céphéides pour étalonner des indicateurs de distance secondaires à travers une galaxie commune et l'appartenance à un groupe, a été décrit par Kennicutt, Mould et Freedman 1995 (AJ 110, 1476). Certaines de leurs courbes de lumière Céphéides sont présentées ci-dessous - pour le M100 seul, ils détectent déjà plus de Céphéides que ce qui est connu dans le LMC, de sorte que l'étalonnage LMC devient un maillon faible. Le projet a obtenu toutes ses données, et un récent résumé (Mould et al. 2000 ApJ 529, 7867) donne une grande valeur moyenne de H0= 71 ± 6 km/s Mpc sur la base des distances des céphéides HST à 25 galaxies, en concordance ridiculement étroite avec les résultats de l'ajustement du spectre de puissance WMAP de la fluctuation du CMB.

    Ce graphique recueille les distances Key Project Cepheid. Notez les grands mouvements particuliers au sein de la Vierge, la seule galaxie située juste sur la ligne moyenne à cette distance est NGC 7331, presque à l'opposé de la Vierge dans le ciel.

    étoiles RR Lyrae. Ce sont des étoiles de faible luminosité, où la bande d'instabilité croise la branche horizontale. Ils peuvent apparaître sur les diagrammes de cluster H-R par omission dans le « RR Lyrae gap », car les variables ne sont généralement pas tracées. La magnitude absolue de toutes les variables RR Lyrae semble être presque constante à <MV = 0,75 ± 0,1. Il peut y avoir une dépendance à la métallicité mal déterminée. Aucune détermination de période n'est nécessaire ici, juste la détermination qu'une étoile est de ce type (ce qui signifie que vous obtenez la période de toute façon). Les problèmes sont les suivants : les Lyres RR sont intrinsèquement d'environ 2 magnitudes plus faibles que les Céphéides, et de même difficile à calibrer, seuls quelques-uns sont suffisamment proches pour une mesure de parallaxe avec Hipparcos, les parallaxes statistiques sont donc toujours importantes.

    La détection d'images automatisée s'est avérée fructueuse pour trouver ces étoiles dans l'ensemble du groupe local, même avant le HST. Saha et Hoessel (1990, AJ 99, 97) rapportent avoir trouvé 151 dans le petit NGC elliptique 185, comme le montre leur Fig. 5 avec l'aimable autorisation de l'AAS :

    Étoiles les plus lumineuses (bleues/rouges). Il existe une relation empirique entre la magnitude absolue d'une galaxie et celle des étoiles individuelles les plus brillantes - cela revient à supposer une forme constante pour l'extrémité supérieure de la fonction de luminosité et à laisser les statistiques fonctionner. Idéalement, ce sont les premières étoiles à être résolues. Problèmes possibles : confusion avec des amas compacts (comme dans 30 Doradus), variation inconnue avec le type de galaxie.

    Tous les indicateurs stellaires énumérés ci-dessus pour d'autres galaxies sont plus faciles à utiliser dans des systèmes avec des composantes substantielles de population I, et dans des galaxies plutôt ouvertes, de sorte que l'encombrement est réduit. On essaie donc de traiter les régions externes d'une galaxie, et plutôt les galaxies de type tardif (voir l'atlas Sandage et Bedke pour des illustrations de résolution en étoiles pour de telles galaxies, ce qui était l'objet de leur production de ce volume). Il existe également plusieurs indicateurs de distance stellaire temporaires ou indirects :

    Novae. Il existe une relation entre l'amplitude absolue et le taux d'évanouissement des novae, d'après ce que nous pouvons dire du groupe local. Ils peuvent facilement être identifiés comme des sources H&alpha transitoires, et deux semblent avoir été détectés de cette manière aussi loin que M87 (Pritchet et van den Bergh 1987 ApJLett 288, L41), des séries de données suffisantes pour trouver des Céphéides peuvent les trouver comme sources de continuum. Ciardullo et al. (1990 ApJ 356, 472) discutent de 11 novae bien observées dans M31. La relation entre le taux d'évanouissement et la magnitude absolue de B n'est que partiellement suivie par H&alpha, de sorte qu'une combinaison de découverte de H&alpha, d'observations de continuum proches du maximum et d'observations de H&alpha à des niveaux faibles semble l'approche la plus efficace. Les mesures de faible continuum sont impossibles car la nova se fond dans le fond stellaire global. Cette technique peut être utilisée pour les systèmes de population II.

    Nébuleuses planétaires. Ceux-ci peuvent également retracer les composants de la population II, car ils peuvent être produits par de vieilles étoiles. Leur utilité en tant qu'indicateur de distance repose sur le fait que leur fonction de luminosité semble être invariante, et se comprend facilement à partir de l'évolution stellaire (Jacoby 1989 ApJ 339, 39). Un grand nombre de planètes peut être détecté dans les galaxies proches en utilisant des images à bande étroite autour de la raie [O III] &lambda5007, qui est extrêmement forte dans les planètes mais pas dans la plupart des régions H II. Des planètes suffisantes ont été détectées pour les estimations de la distance à la Vierge (Jacoby et al. 1990, ApJ 356, 332). La technique d'ajustement pour une fonction de luminosité incomplète est illustrée par la figure 3 de Ciardullo et al. 1989 (ApJ 339, 53) pour M31 (avec l'aimable autorisation de l'AAS) :

    Supernovae. Les supernovae de type I (population II) peuvent être reconnues (et divisées en sous-groupes a, b et peut-être c) en fonction de leur spectre et de leurs courbes de lumière. Les preuves disponibles sont cohérentes avec le fait que la luminosité maximale est à peu près fixée pour au moins le type Ia (mais attention, une nouvelle compréhension des sublumineux comme 1987A peut changer cela). Les supernovae peuvent être vus un longue loin (comme z=1,7 si vous regardez bien), ils feraient donc de merveilleux indicateurs de distance si (1) nous connaissons vraiment ce pic de luminosité, (2) il est vraiment constant et (3) nous pouvons tenir compte de l'obscurcissement de la poussière (bonjour IR) . La luminosité maximale est donnée par les modèles de supernova, mais les SN dans les galaxies suffisamment proches pour être vérifiées sont rares. Pour les SN cosmologiquement éloignés, le taux de décroissance est étiré par le facteur de dilatation (1+z). Ce sont les objets qui ont d'abord fourni des preuves solides d'une accélération de l'expansion de Hubble (peut-être à identifier avec la constante cosmologique d'Einstein).

    Une mesure directe de la distance pour les objets en expansion ou en pulsation est en principe possible via la méthode Baade-Wesselink. On mesure le changement de luminosité bolométrique et l'intégrale (changement de vitesse relative) radiale sur ce temps. Ensuite, en appliquant soit une approximation du corps noir, soit un spectre plus réaliste, la différence de taille angulaire entre deux époques est dérivée, ce qui donne une distance en exigeant qu'elle soit cohérente avec le changement de rayon par rapport aux vitesses radiales. Les problèmes se concentrent sur la façon dont la vitesse observée est pondérée à travers la photosphère et si la structure d'opacité change entre les époques.

    Fluctuations de la luminosité de la surface. Bien avant qu'une galaxie ne soit vraiment résolue en ses étoiles les plus brillantes, l'image sera tachetée par des fluctuations statistiques par exemple, si la luminosité de la surface est telle qu'il y a 100 géantes rouges par disque voyant, on s'attend à des fluctuations de Poisson de 10 %. Ceux-ci peuvent être distingués du bruit photonique car ces fluctuations ont le même spectre de puissance spatiale que le disque voyant (ou plus généralement la réponse du système, c'est-à-dire PSF), et non le bruit blanc (Tonry et Schneider 1988 AJ 96, 807). À titre d'exemple, cette image montre les données M32 HST rééchantillonnées comme si elles étaient vues à des distances progressivement plus grandes (chaque étape augmentant d'un facteur 2). La technique est étonnamment puissante tant que l'on peut comparer des galaxies avec des populations stellaires similaires - fondamentalement, il faut supposer une luminosité moyenne caractéristique (bien définie) pour les étoiles. La méthode a déjà été étendue à la Vierge, donnant un excellent accord avec les déterminations des nébuleuses planétaires et les premiers indices sur les galaxies situées sur les côtés proche et lointain (Tonry et al. 1989 ApJ 346, L57).

    Régions H II. Par nécessité, ceux-ci nécessitent une formation d'étoiles actives et des étoiles OB. Ils sont lumineux et mesurables à de très grandes distances. La première approche (Sandage et Tammann 1974 ApJ 190, 525) était de supposer que le diamètre des régions H II les plus brillantes est liée à la magnitude absolue de la galaxie. Cependant, Kennicutt 1979 (ApJ 228, 704) a montré que les effets visuels compromettent si fortement les diamètres visuels et isophotes que cela ne peut pas fonctionner comme indicateur de distance.Des travaux plus récents se sont concentrés sur les luminosités des raies d'émission, supposant essentiellement que plus il y a de formation d'étoiles, plus la galaxie est brillante et, statistiquement, plus les quelques régions H II sont grandes. Cela pourrait être considéré comme une variante de la méthode des étoiles bleues les plus brillantes.

    Les largeurs des raies d'émission ont également été considérées, avec une affirmation de Terlevich et Melnick (1981 MNRAS 195, 839) qu'une relation L - &sigma 4 est valable pour les régions supergéantes H II, c'est-à-dire qu'elles sont liées par une masse gravitationnelle propriété de ionisant-UV) intensité de la lumière des étoiles. Ce serait utile de la même manière que la relation de Tully-Fisher ou la relation analogue pour les galaxies elliptiques. Cependant, d'autres travaux (Gallagher et Hunter 1983 ApJ 274, 141 Roy et al. 1986 ApJ 300, 624) ont brouillé l'image pour des échantillons plus étendus, la corrélation est beaucoup moins frappante et les mouvements du gaz sont en grande partie supersoniques, entraînés par vents et SN plutôt que d'être produits par gravitation.

    Un raffinement, comprenant un deuxième paramètre lié à la luminosité de la surface, a été utilisé par les Sept Samouraïs pour compiler un grand ensemble de distances indépendantes du décalage vers le rouge pour cartographier le champ de vitesse local (Dressler et al. 1987 ApJ 313, 42 data in Faber et al. 1989 ApJSuppl 69, 763).

    Propriétés globales des galaxies: Ceux-ci doivent être utilisés pour des systèmes de plus en plus distants, nécessitant un étalonnage poussé des techniques ci-dessus. Les indicateurs spécifiques comprennent :

    Des corrections aux magnitudes observées doivent être appliquées pour (1) la taille de l'ouverture de mesure (2) le décalage vers le rouge de la bande passante, ce que l'on appelle K-correction (3) du décalage vers le rouge à la fois de l'énergie des photons et du taux d'arrivée, et (4) toute évolution supposée - au moins une évolution passive de la population stellaire doit avoir lieu.

    Indicateurs de distance "exotiques"

    Toutes les méthodes ci-dessus reposent sur une application directe de la loi de l'inverse des carrés ou de la relation diamètre-distance angulaire. Il existe également une gamme de techniques qui utilisent des combinaisons plus complexes ou indirectes d'observables. Quelques exemples sont:

    Le temps de Hubble: pour les modèles de big-bang simples, les âges des objets (étoiles, noyaux radioactifs) fixent des limites sur H0. L'âge de l'univers est d'ordre le temps de Hubble &tauH =1/H0, à un facteur d'ordre près dépendant de l'historique de décélération de l'expansion. Pour H0=50 km/s Mpc, &tauH= 2 x10 10 ans pour 100 km/s Mpc, 10 10 ans. Celui-ci doit être supérieur à l'âge déterminé à partir des échelles de temps géologiques et de l'évolution stellaire, des horloges isotopiques nucléaires comme 235 U/238 U, et cohérent avec l'état dynamique des galaxies et des amas. La petite quantité d'évolution observée dans les galaxies elliptiques à environ z=1 favorise les plus petits H0 dans des modèles simples (Hamilton 1985 ApJ 297, 371). Il faut se méfier des arguments subtilement circulaires - les âges des amas globulaires étaient magnifiquement cohérents avec H0= 50 mais avait été calculé par des personnes qui connaissaient la réponse qu'elles s'attendaient à obtenir et ont ajusté quelques paramètres en conséquence. Il y avait, pendant plusieurs années, un écart largement médiatisé entre &tauH à partir des résultats de HST Cepheid et des âges des amas globulaires, mais des calculs récents des effets du mélange sur l'évolution stellaire et la Hipparcos les révisions de distance aux Céphéides vont toutes deux dans le sens de la réduction du problème.

    Lentilles gravitationnelles: nous devons connaître la masse de la lentille (par exemple à travers la dispersion de la vitesse de l'amas) et le délai entre les images (disons à partir de la variabilité du QSO). Ensuite, nous pouvons dériver la distance appropriée de l'objectif. La temporisation différentielle peut être la partie la plus difficile ici, surtout en présence de microlentilles.

    Échos légers: cela a donné une distance indépendante au LMC, en utilisant le temps d'illumination d'un anneau circumstellaire (vu de IUE, Panagia et al. 1991 ApJL 380, L23) pour donner une taille avant-arrière absolue, et la taille angulaire de la bague (de HST) pour une mesure transversale. Cet exemple a été fait par, par exemple, Gould (1995 ApJ 452, 189). Une approche similaire peut également être utilisée (avec une polarisation pour indiquer où se trouve l'anneau) pour les supernovae distantes (Sparks 1994 ApJ 433, 19).

    Mesures d'émission/absorption: ici on utilise les différentes dépendances de l'émission et de l'absorption sur la densité en fonction de la longueur du trajet. Un exemple est l'IGM dans les amas observés en émission par rayons X et en absorption (plus précisément diffusion vers le haut) par rapport au fond micro-ondes (l'effet Sunyaev-Zeldovich). Cela fonctionne parce que sur des bases astrophysiques, nous nous attendons à ce que le gaz chaud soit distribué en douceur à travers l'agrégation potentielle du cluster, ce qui rendrait cela plus utile pour sonder la structure que la distance. Jusqu'à présent, ce n'est pas assez précis pour être utilisé comme plus qu'un argument de cohérence car l'absorption est très faible, mais en principe est libre de bon nombre des hypothèses d'autres méthodes (le gaz à 10 7 K devrait être très bien distribué). Cette technique de détection des atmosphères chaudes d'amas est presque aussi sensible pour tous les redshifts d'amas z>0,5 car il s'agit d'une mesure de surface, des enquêtes sont donc en cours pour trouver des amas à décalage vers le rouge élevé en tant que points S-Z.

    Mouvements appropriés: un maser dans une région de formation d'étoiles devrait être détectable avec le VLBA jusqu'à la Vierge. Son mouvement propre dû à la rotation d'une spirale typique devrait être de l'ordre de 3 microsecondes d'arc par an, ce qui, a-t-on affirmé, devrait être mesurable dans une dizaine d'années. On détermine ensuite la distance à laquelle cela correspond à la vitesse de rotation du disque au rayon approprié. L'application réelle la plus éloignée jusqu'à présent a été celle des masers dans le disque nucléaire de NGC 4258 (Herrnstein et al. 1999 Nature 400, 539).

    Les distances aux galaxies proches ne sont pas sérieusement contestées, mais le rôle de la vitesse particulière à ces échelles l'est. Certaines distances utiles sont (en Mpc)

    Cela signifie que H (Vierge) est d'environ 60 km/s Mpc, mais cette valeur est-elle globalement applicable ? Deux grands camps ont longtemps existé : Sandage à 50 (l'échelle « longue » distance) et de Vaucouleurs à 100 (l'échelle « courte »). Les données se noient parfois dans les invectives à ce sujet. Faisant un traitement d'erreur systématique, Hanes 1981 (MNRAS) et Rowan-Robinson dans son livre ont découvert que 80 km/s Mpc satisfait toutes les barres d'erreur et c'est ce que la relation IR T-F donne à de grandes distances. Il s'agit essentiellement de la valeur globale du projet clé également, avec l'ajustement global CMBR donnant une valeur de 71. Peut-être que la valeur de compromis de 75 que de nombreuses personnes ont utilisée était en fait plus que de la clôture.

    Aaronson, Huchra et Mold ont trouvé des preuves de départs systématiques du flux de Hubble vers la Vierge, de sorte que la relation décalage vers le rouge-distance est non linéaire et, à certains endroits, à valeur double ou triple.

    Une première indication de telles perturbations a été l'étude par Rubin et Ford (1987 AJ 81, 719) de 96 galaxies Sc I, qui ont montré une asymétrie sur le ciel dans l'espace de redshift-magnitude telle que nous étions susceptibles de nous déplacer à environ 500 km /s par rapport au centre de gravité de ces galaxies. Cela s'est finalement transformé en une industrie, les 7 samouraïs annonçant un "grand attracteur" à Centaurus (je=299°, b=-11°) qui perturbe le champ de vitesse jusqu'à environ 3000 km/s (Lynden-Bell et al. 1987 ApJLett 313, L37). Nous approchons de cette masse à environ 700 km/s, ce qui est en fait cohérent avec le résultat de Rubin et Ford si la chute de la Vierge est incluse. Lauer et Postman (1994 ApJ 425, 418) trouvent encore un mouvement différent par rapport à 119 amas d'Abell à z < 0,05 - 561 ± 284 km/s vers je=220 °, b= -28 °, encore une direction différente et certainement une ampleur inattendue. Un mouvement quelque peu différent est dérivé par rapport au fond micro-ondes, qui est la moyenne la plus élevée que nous puissions trouver - l'ensemble de données COBE final donne 368 km/s vers je=264.3, b= 48,1 avec une analyse indépendante des instruments FIRAS et DMR en bon accord (Lineweaver et al. 1996 ApJ 470, 38). Cela vient d'être affiné avec WMAP pour je=263.8, b= 48,2 (Bennett et al. ApJ soumis, astro-ph/0302207). A un moment donné, on s'interroge sur l'échelle à laquelle le principe cosmologique est adéquatement réalisé. Cela signifie que le Graal lui-même, H0, doit être recherché à des distances encore plus grandes qu'on ne le pensait auparavant (dans la mesure où cela serait utile en soi si le flux de Hubble est vraiment grumeleux, bien que l'exactitude du diagramme de Hubble pour les bougies standard suggère que ce n'est pas si mal) .

    Il existe également des cas isolés de galaxies violant de manière flagrante le flux de Hubble. Le meilleur est peut-être en direction de NGC 1275. La galaxie principale a v=5000 km/s, et a quelque chose qui ressemble à une spirale de type tardif manifestement dans de face de celui-ci mais ayant v=8100km/s. Les images de Keel 1983 (AJ 88, 1579) isolent les systèmes d'avant-plan et d'arrière-plan en H&alpha :

    tandis que le système de premier plan est visible en absorption par la poussière dans cette image HST :

    C'est trop rapide pour être juste une chute libre dans un noyau d'amas - et s'il y a beaucoup de galaxies tournant à environ 3000 km/s, il devrait y avoir une énorme dispersion dans le diagramme de Hubble. Ainsi, il ne peut pas y en avoir beaucoup, mais jusqu'où aurions-nous mal tourné si nous avions vu la spirale par elle-même ?


    2. Astrométrie du télescope spatial Hubble de Polaris B

    2.1. Observations FGS et analyse des données

    Dans le cadre d'un programme astrométrique sur les parallaxes trigonométriques des Céphéides harmoniques, nous avons observé Polaris avec le système FGS sur TVH. Les FGS sont un ensemble de trois interféromètres qui, en plus de fournir un contrôle de guidage pendant l'imagerie ou les observations spectroscopiques, peuvent mesurer les positions précises d'une étoile cible et de plusieurs étoiles de référence astrométriques environnantes avec un FGS tandis que les deux autres guident le télescope. Le système FGS s'est avéré capable de produire des parallaxes trigonométriques, dans des cas favorables, avec une précision supérieure à ± 0,2 mas (par exemple, Benedict et al. 2007, ci-après B07 Soderblom et al. 2005 Benedict et al. 2011, 2017 McArthur et al. 2011 Bond et al. 2013).

    La Céphéide Polaris A, à une luminosité moyenne (Fernie et al. 1995), est trop brillante pour être observée avec le système FGS. En raison de la forte preuve que Polaris B est un compagnon physique à la même distance que la Céphéide (voir ci-dessus), nous l'avons plutôt choisie comme cible astrométrique. Nous avons fait des observations FGS de Polaris B pendant deux TVH visites à chacune des cinq époques entre octobre 2003 et septembre 2006 (numéros de programme GO-9888, −10113 et −10482 PI H.E.B.), à des dates proches des périodes semestrielles du facteur de parallaxe maximal. Nous avons utilisé FGS1r pour les mesures, dans son mode POSITION astrométrique grand angle. Il n'y avait aucun signe de duplicité de B dans les données d'acquisition FGS. En plus de Polaris B, nous avons observé un réseau de 10 étoiles de référence de faible luminosité se trouvant à l'intérieur de la cible. Sur les 10 étoiles de référence, deux ont été rejetées en raison d'échecs d'acquisition, de faible luminosité, de binarité ou d'interférence des pointes de diffraction de Polaris A, et nous en avons retenu huit (avec des magnitudes de V = 14,1–16,5) pour la solution finale. Ils sont répertoriés dans le tableau 1.

    Tableau 1. Étoiles de référence astrométrique et Polaris B

    identifiant R.A. (J2000) V BV Vje Type Sp. (mas an −1 ) a (mas) b
    Décl. (J2000) (mas an −1 ) a (mas) b
    R1 02:37:32.4 14.342 0.762 0.890 F8 V 0.9 ± 0.4 1.16 ± 0.15
    +89:20:00.1 ±0.003 ±0.007 ±0.003 −0.6 ± 0.4 1.14 ± 0.07
    R2 02:25:31.0 14.277 0.814 0.930 G2 V −7.9 ± 0.8 1.31 ± 0.17
    +89:18:09.5 ±0.003 ±0.004 ±0.004 7.0 ± 0.5 1.41 ± 0.13
    R3 02:34:04.9 16.504 0.734 0.820 F7 : IV : 0.5 ± 0.8 0.28 ± 0.11
    +89:19:11.6 ±0.014 ±0.010 ±0.011 −0.7 ± 0.7 0.28 ± 0.04
    R7c 02:30:48.2 14.147 0.825 G0 IV 5.4 ± 0.5 1.04 ± 0.35
    +89:14:30.2 ±0.003 ±0.007 0.5 ± 0.4 1.04 ± 0.13
    R8 02:25:26.6 15.304 1.116 1.237 G0 IV 9.7 ± 0.6 0.49 ± 0.16
    +89:14:26.2 ±0.015 ±0.011 ±0.009 −6.8 ± 0.5 0.49 ± 0.05
    R9 02:21:18.2 14.958 0.903 1.070 G1 IV 13.3 ± 1.0 0.76 ± 0.30
    +89:13:37.5 ±0.007 ±0.007 ±0.005 1.5 ± 0.7 0.73 ± 0.07
    R10 02:32:25.8 14.675 1.360 1.633 K5V 35.0 ± 0.6 5.48 ± 0.70
    +89:12:09.2 ±0.004 ±0.008 ±0.007 15.6 ± 0.6 6.32 ± 0.42
    R13 02:25:58.3 15.940 1.051 1.140 G5 : V : 3.5 ± 0.8 1.16 ± 0.15
    +89:12:12.9 ±0.006 ±0.020 ±0.010 −2.0 ± 0.7 1.12 ± 0.17
    Bd 02:30:43.5 8.65 0.42 F3 V 41.1 ± 0.4
    +89:15:38.6 ±0.02 −13.8 ± 0.4 6.26 ± 0.24

    a Mouvements propres en R.A. et déc. de notre solution astrométrique. b Saisissez la parallaxe absolue estimée (entrée du haut) et la parallaxe absolue ajustée à partir de la solution astrométrique (entrée du bas). c R7 est catalogué comme Polaris D, qui a été identifié comme un compagnon possible de Polaris par Burnham (1894), et discuté plus récemment par Evans et al. (2002, 2010). Ce dernier n'a pas détecté d'émission de rayons X de Polaris D, suggérant qu'il ne s'agit pas d'un jeune compagnon de faible masse de la Céphéide. Notre type spectral et photométrie, donnant une distance estimée de

    960 pc, et notre mouvement propre mesuré, excluent définitivement Polaris D en tant que compagnon physique de Polaris A et B. d Polaris B. V magnitude d'Evans et al. (2008) et BV de la compilation de la littérature par Turner (2005) type spectral de Turner (1977).

    Notre procédure de solution astrométrique FGS est décrite par Bond et al. (2013), et décrit en détail par B07 et Nelan (2017). La première étape consiste à corriger les mesures de position du FGS pour l'aberration de vitesse différentielle, la distorsion géométrique, la dérive thermique de l'engin spatial et la gigue de pointage du télescope. En raison des éléments réfractifs dans le train optique FGS, un ajustement supplémentaire basé sur la BV la couleur de chaque étoile est appliquée. De plus, par mesure de sécurité en raison de sa proximité avec Polaris A, Polaris B lui-même a été observé avec l'atténuateur à densité neutre F5ND, tandis que les étoiles de référence beaucoup plus faibles n'ont été observées qu'avec l'élément filtrant F583W. Ainsi, il a été nécessaire d'appliquer des corrections de "filtre croisé" aux positions de Polaris B par rapport aux étoiles de référence les corrections sont légèrement dépendantes de l'emplacement de l'étoile dans le champ FGS.

    Les mesures ajustées des 10 visites ont ensuite été combinées à l'aide d'une technique de plaques superposées à six paramètres qui résout simultanément l'échelle, la translation, la rotation et le mouvement et la parallaxe appropriés de chaque étoile. Tous les détails, y compris les équations de condition, sont donnés dans B07, leur Section 4.1. Nous avons utilisé le programme des moindres carrés GAUSSFIT (Jefferys et al. 1988) pour cette analyse. Les facteurs de parallaxe sont obtenus à partir du prédicteur d'orbite terrestre JPL, version DE405 (Standish 1990). Étant donné que les mesures FGS ne fournissent que les positions relatives des étoiles, le modèle nécessite des valeurs estimées d'entrée des mouvements et des parallaxes propres de l'étoile de référence, afin de déterminer une parallaxe absolue de la cible. Ces estimations (section 2.2) ont été entrées dans le modèle en tant qu'observations avec des erreurs, ce qui permet au modèle d'ajuster leurs parallaxes et leurs mouvements propres (dans les limites de leurs erreurs spécifiées) pour trouver une solution globale qui minimise le résultat.

    2.2. Mouvements propres et parallaxes de l'étoile de référence

    Les estimations initiales du mouvement propre des étoiles de référence ont été extraites du catalogue UCAC5 (Zacharias et al. 2017). Afin d'estimer les distances aux étoiles de référence, nous avons utilisé la classification spectrale et la photométrie, et comme critère de poids inférieur, leurs mouvements propres réduits. Pour la classification spectrale, nous avons obtenu des spectres numériques avec le télescope WIYN 3,5 m et le spectrographe multi-objets Hydra à l'observatoire national de Kitt Peak (KPNO), dans la nuit du 22 novembre 2003. Les classifications ont été réalisées par comparaison avec un réseau de MK étoiles étalons obtenues avec le même spectrographe, assistées par des mesures en largeur équivalente de raies sensibles à la température et à la luminosité. Les résultats sont donnés dans la sixième colonne du tableau 1.

    Photométrie des étoiles de référence dans les Johnson-Kron-Cousins BVI système a été obtenu à KPNO lors d'une nuit photométrique en octobre 2007 (télescope de 0,9 m) et lors de trois nuits photométriques en octobre 2008 (télescope de 2,1 m). Chaque étoile a été mesurée entre 9 et 13 images CCD individuelles. La photométrie a été calibrée sur le réseau d'étoiles standard de Landolt (1992), et les résultats sont présentés dans le tableau 1. Les erreurs internes de la photométrie, tabulées dans le tableau 1, sont généralement assez faibles, mais les erreurs systématiques sont probablement plus importantes car de (a) la masse d'air élevée à laquelle le champ Polaris doit être observé, et (b) la présence d'une étoile très brillante au centre du champ, donnant lieu à des ailes PSF, des pointes de diffraction et des colonnes de saignement de charge à travers une grande partie du terrain.

    Bien que Polaris lui-même ne soit pas rougi (par exemple, Fernie 1990 Laney & Caldwell 2007), ou très légèrement rougi (par exemple, Gauthier & Fernie 1978 find , et TKUG13 give ), il est connu pour se trouver juste devant un nuage moléculaire, le "Polaris Cirrus Cloud" ou "Polaris Flare" (par exemple, Sandage 1976 Heithausen & Thaddeus 1990 Zagury et al. 1999 Cambrésy et al. 2001 Ward-Thompson et al. 2010 Panopoulou et al. 2016, et les références y figurant). Ainsi, un rougissement important des étoiles de référence est attendu.

    Pour estimer leur rougissement, nous avons comparé les BV couleur de chaque étoile avec la couleur intrinsèque correspondant à son type spectral (Schmidt-Kaler 1982), à partir de laquelle nous avons calculé une moyenne . Nous avons également utilisé la carte d'extinction de Schlafly & Finkbeiner (2011), telle que mise en œuvre sur le site Web de la NASA/IPAC, 7 pour déterminer le rougissement dans la direction au-delà de Polaris. La carte Schlafly & Finkbeiner donne une plage de valeurs de rougissement à travers le champ couvert par les étoiles de référence de 0,30, qui est le le total rougissement pour une étoile hypothétique à une très grande distance. Nous avons adopté un rougissement de pour toutes les étoiles de référence, à l'exception de R10, la plus proche, pour laquelle nous avons utilisé en fonction de son type spectral et observé BV.

    Les distances aux étoiles de référence ont ensuite été estimées comme suit : (1) Pour les quatre étoiles classées comme naines, nous avons utilisé un étalonnage de la magnitude visuelle absolue, MV, contre BV et Vje les couleurs dérivées par polynôme s'adaptent à un grand échantillon d'étoiles de la séquence principale à proximité avec une photométrie précise et Hipparcos ou USNO parallaxes, qui est décrit plus en détail dans Bond et al. (2013). Cet algorithme corrige les effets de métallicité. (2) Pour les quatre sous-géantes, nous avons recherché les Hipparcos données pour toutes les étoiles classées avec les mêmes types spectraux qui avaient des parallaxes supérieures à 15 mas, et ont calculé leur magnitude absolue moyenne à utiliser dans l'estimation de la distance. Pour les nains, notre MV contre BVI l'étalonnage reproduit les magnitudes absolues connues de l'échantillon de naines proches avec une diffusion rms de 0,28 mag. Le scatter dans la sous-géante MV les calibrateurs étaient plus gros,

    0,8 mag. Nos parallaxes d'entrée estimées finales et leurs erreurs, basées sur la dispersion dans le MV étalons, sont donnés dans la dernière colonne du tableau 1, avec les parallaxes de sortie donnés par la solution.

    2.3. Parallaxe et mouvement correct de Polaris B

    Notre solution donne une parallaxe absolue de Polaris B de 6,26 ± 0,24 mas ( pc), comme indiqué au bas du tableau 1. L'incertitude comprend les contributions des erreurs résiduelles dans l'étalonnage de la distorsion géométrique du FGS, les erreurs de TVH les performances de pointage et les erreurs dans les mesures de position stellaire brutes. Les composants de mouvement propre pour Polaris B de la solution FGS sont 8 . Le mouvement propre absolu de Polaris A déterminé par Hipparcos est (van Leeuwen 2007), mais cela inclut un décalage dû au mouvement orbital dans la paire A-Ab proche pendant la mission astrométrique relativement courte. Le mouvement propre à long terme de A dans le système FK5, corrigé au Hipparcos cadre, est, selon Wielen et al. (2000). Étant donné que les incertitudes des mouvements propres UCAC5 individuels utilisés pour établir le cadre de référence FGS sont d'environ (Zacharias et al. 2017), l'accord avec les résultats FGS est raisonnable.

    2.4. L'écart avec Hipparcos

    Notre résultat pour la parallaxe de Polaris B (6,26 ± 0,24 mas) est de 1,28 mas plus petit que celui trouvé par Hipparcos pour Polaris A (7,54 ± 0,11 mas). Est-il plausible que le Hipparcos le résultat pourrait-il être erroné d'une si grande quantité ?

    Hipparcos les parallaxes sont généralement d'accord avec les résultats de TVH/FGS, ou d'autres techniques de parallaxe, dans leurs erreurs respectives (par exemple, Benedict et al. 2002 McArthur et al. 2011 Bond et al. 2013). Cependant, il y a eu quelques exceptions notables : (1) Pour l'amas des Pléiades, Melis et al. (2014) ont obtenu une parallaxe d'amas précise de 7,35 ± 0,07 mas à partir de l'astrométrie radio interférométrique à très longue base (VLBI) de quatre membres d'amas radio-émetteurs. Les parallaxes FGS de trois autres étoiles des Pléiades ont donné une parallaxe absolue moyenne de 7,43 ± 0,17 (aléatoire) ± 0,20 (systématique) mas (Soderblom et al. 2005), en accord avec le résultat VLBI. Cependant, van Leeuwen (2009), basé sur Hipparcos l'astrométrie de plus de 50 Pléiades, a trouvé une parallaxe d'amas moyenne de 8,32 ± 0,13 mas, plus grande de 0,97 mas que le résultat VLBI. (2) Benoît et al. (2011) ont utilisé FGS pour mesurer une parallaxe de la céphéide de type II κ Pavonis de 5,57 ± 0,28 mas le Hipparcos une parallaxe de 6,52 ± 0,77 mas est plus grande d'une valeur similaire de 0,95 mas (bien que cela soit de moindre signification statistique en raison de la relativement grande Hipparcos incertitude). (3) VandenBerg et al. (2014) ont utilisé le FGS pour mesurer les parallaxes de trois sous-géantes du halo. Pour deux d'entre eux, les résultats concordaient très bien avec Hipparcos, mais pour HD 84937, le Hipparcos La valeur de 13,74 ± 0,78 mas était supérieure de 1,50 mas à la mesure FGS de 12,24 ± 0,20 mas. (4) Zhang et al. (2017) ont utilisé l'astrométrie VLBI pour dériver une parallaxe de 4,42 ± 0,13 mas pour la variable semi-régulière RT Virginis, pour laquelle le Hipparcos la parallaxe est de 7,38 ± 0,84 mas, soit 2,96 mas plus grande.

    En résumé, il existe en effet des exemples isolés de la Hipparcos la mesure de la parallaxe s'est avérée anormalement trop grande.

    2.5. Sources possibles d'erreur systématique dans la parallaxe FGS

    Dans cette sous-section, nous commentons les causes possibles d'une erreur systématique dans notre mesure de parallaxe FGS pour Polaris B, ce qui pourrait potentiellement expliquer la discordance avec le Hipparcos valeur pour la Céphéide Polaris A.

    (1) Les parallaxes estimées des étoiles de référence pourraient-elles être systématiquement trop faibles par

    1,3 m ? En omettant l'étoile R10, qui est inhabituellement proche, nous trouvons une parallaxe moyenne estimée des sept autres étoiles de référence de 0,89 mas. Cela concorde assez bien avec la valeur de 1,0 mas pour la parallaxe moyenne des étoiles de champ à V = 15, à la latitude galactique de Polaris, recommandé par Altena et al. (1995, leur Figure 2) basé sur un modèle statistique de structure galactique. L'augmentation de nos parallaxes d'étoiles de référence d'une moyenne d'environ 1,3 mas serait en désaccord sérieux avec l'analyse de van Altena et al. valeurs du modèle. De plus, cela nécessiterait que les étoiles de référence soient systématiquement d'environ 1,9 mag plus faibles en magnitude absolue que dans notre étalonnage, ce qui semble astrophysiquement improbable - cela nécessiterait que toutes les étoiles de la séquence principale soient des sous-naines extrêmes, en conflit avec leurs types spectraux.

    (2) Notre photométrie CCD au sol a-t-elle été affectée par la présence du brillant Polaris A dans les images ? Le sens nécessaire pour donner son accord avec Hipparcos serait que les étoiles de référence sont en fait systématiquement plus brillantes que celles indiquées par nos mesures. Ici, nous avons un contrôle, car les mesures FGS fournissent des estimations indépendantes de la V sur la base des taux de comptage observés et d'un étalonnage absolu approximatif. Mis à part R7 et R8, qui sont les plus proches angulairement des étoiles de référence de la très brillante Polaris A, nous constatons que nos magnitudes FGS mesurées sont en moyenne de seulement 0,09 mag plus brillantes que celles au sol. V grandeurs. Une telle quantité est probablement compatible avec la contamination des mesures photométriques du FGS par la lumière diffuse de fond de Polaris. (La lumière diffusée en arrière-plan n'est pas soustraite des comptes mesurés dans les réductions FGS.)

    (3) Les comptes de lumière diffuse ou d'obscurité ont-ils affecté l'astrométrie FGS ? Le champ astrométrique Polaris est unique parmi ceux mesurés avec le TVH/FGS, en raison de la présence du Polaris A extrêmement brillant près du centre du champ. En plus des mesures de magnitude notées dans le paragraphe précédent, nous voyons en effet des preuves de lumière diffusée à travers le champ. Cela se traduit par des taux de comptage améliorés détectés lorsque le champ de vision instantané du FGS est déplacé à travers le ciel vide d'une étoile de référence à la suivante. Cependant, cette lumière de fond est faible, incohérente avec la lumière des étoiles cibles FGS et n'affiche aucun gradient significatif sur la longueur d'échelle des mesures interférométriques FGS. Ainsi, le fond ne réduit que faiblement l'amplitude des franges d'interférence, sans déplacer de manière significative les positions mesurées. C'est le même effet que les comptes d'obscurité des tubes photomultiplicateurs ont sur l'amplitude des franges des étoiles faibles ( ), mais également sans affecter systématiquement leurs positions mesurées. Pour vérifier ces conclusions, nous avons effectué des tests approfondis au cours desquels chaque étoile de référence, ainsi que les paires et triplets d'étoiles de référence, ont été retirés de la solution pour révéler toute exposition individuelle inhabituellement affectée. La suppression des étoiles de référence a augmenté les erreurs dans les mesures de parallaxe mais n'a pas systématiquement modifié la parallaxe de Polaris B de plus de 0,3 mas. Nous concluons donc que la mesure FGS de la parallaxe Polaris B n'était pas significativement affectée par la présence de Polaris A.

    (4) Quelles preuves Gaïa apporter? Le premier récent Gaïa la publication des données (DR1 Gaia Collaboration et al. 2016a, 2016b) fournit un test supplémentaire de nos résultats. Les positions de Polaris B et des étoiles de référence FGS ont été tabulées dans DR1, mais aucune d'entre elles n'est contenue dans le Tycho-Gaïa Solution astrométrique (TGAS), et donc aucune n'a encore de Gaïa-basé sur la parallaxe ou le mouvement propre. (Polaris A n'était pas non plus inclus dans DR1 ou TGAS, car il est trop lumineux pour le standard Gaïa traitement du pipeline.) Cependant, nous avons utilisé l'époque 2015.0 Gaïa positions pour les étoiles de référence et Polaris B pour simuler un ensemble d'observations FGS supplémentaire, puis les combiner avec le reste de nos données. Nous avons trouvé un excellent accord de l'astrométrie FGS avec le Gaïa positions du catalogue (à mieux que 1 mas), mais résultant en une parallaxe encore légèrement plus petite pour Polaris B de 5,90 ± 0,29 mas. Puisque nous notons que DR1 signale les positions de Polaris B et des étoiles de référence comme étant basées sur un "prior galactique bayésien pour la parallaxe et le mouvement propre détendu par un facteur de dix", nous avons décidé de ne pas inclure le Gaïa mesure dans notre solution finale. Néanmoins, l'excellent accord de la FGS et Gaïa L'astrométrie DR1 renforce notre conclusion que nos mesures n'ont pas été contaminées par la présence de Polaris A.


    NGC 7635 (Nébuleuse de la Bulle)

    1,0-3,5 mK. Nos données résultent de deux expériences différentes réalisées, calibrées et analysées de manière similaire. Une étude C II a été réalisée à la longueur d'onde de 3,5 cm pour obtenir des mesures précises des raies de recombinaison radio-carbone. Lorsqu'elles sont combinées avec des données atomiques (C I) et moléculaires (CO), ces mesures vont contraindre la composition, la structure, la cinématique et les propriétés physiques des régions de photodissociation qui se trouvent sur les bords des régions H II. Un deuxième relevé a été réalisé à la longueur d'onde de 3,5 cm pour déterminer l'abondance de 3He dans le milieu interstellaire de la Voie lactée. Avec les mesures de la ligne hyperfine 3He+, nous obtenons des paramètres RRL de haute précision pour H, 4He et C. Ici, nous discutons des améliorations significatives de ces données avec des intégrations plus longues et des sources nouvellement observées.

    149deg(Région 1) et quatre pulsars vers l

    113deg (Région 2) se trouvent derrière les régions HII qui affectent sérieusement les mesures de rotation du pulsar. La mesure de rotation de PSR J2337+6151 semble être affectée par son passage à travers le reste de supernova G114.3+0.3. Pour la région 1, nous sommes en mesure de contraindre la composante aléatoire du champ magnétique à 5,7 mu G. Pour la composante à grande échelle du champ magnétique galactique, nous déterminons une intensité de champ de 1,7 +/- 1,0 mu G. Ce champ moyen est constant sur Galactic échelles situées dans la plage de longitude galactique de 85deg

    3,7×10-6 ergs s -1Å-1 cm-2 sr-1 près de 8300 Å et avec un rapport d'intensité intégré ERE sur bande de lumière diffusée, I(ERE)/I(sca), d'environ 0,7. À des distances plus éloignées, à l'approche de la région H II large et brillante, la bande ERE et l'intensité maximale se déplacent vers des longueurs d'onde plus longues, tandis que l'intensité intégrée à la bande ERE, I(ERE), diminue et, finalement, disparaît au bord intérieur de cette région H II. La variation radiale de I(ERE) et I(ERE)/I(sca) ne correspond pas à celle de la profondeur optique du modèle dérivé pour la piste de poussière. Par contre, la variation radiale de I(ERE), I(ERE)/I(sca) et du domaine spectral ERE semble dépendre fortement de l'intensité et de la dureté du champ de rayonnement d'éclairage. En fait, I(ERE) et I(ERE)/I(sca) diminuent et la bande ERE se déplace vers des longueurs d'onde plus longues lorsque le taux de photons du continuum de Lyman intégré total, Q(H0)TOT, et la température effective caractéristique, Teff, du Les étoiles illuminées OB augmentent. Q(H0)TOT et Teff sont estimés à partir des rapports d'intensité de raie Hα (λ=6563 Å) corrigés pour l'extinction et d'intensité de raie [N II] (λ6583)/Hα et [SII](λλ6716+6731)/Hα , respectivement, et sont cohérents avec le modèle et les valeurs observées typiques des associations OB. Malheureusement, nous ne disposons pas de données inférieures à 5300 Å, de sorte que le recensement du flux UV/optique est incomplet. La variation radiale complexe de l'intensité maximale de l'ERE et de la longueur d'onde maximale de I(ERE) et I(ERE)/I(sca) avec la profondeur optique et la force du champ de rayonnement UV/optique est reproduite de manière cohérente grâce à l'interprétation théorique de la photophysique du ERE carrier by Smith & Witt, qui attribue un rôle clé à la reconnaissance expérimentalement établie que la photoionisation éteint la luminescence des nanoparticules. Lorsqu'ils sont examinés dans le contexte des observations ERE dans le milieu interstellaire diffus (ISM) de notre Galaxie et dans une variété d'autres environnements poussiéreux, tels que les nébuleuses par réflexion, les nébuleuses planétaires et la nébuleuse d'Orion, nous concluons que l'efficacité de la photonconversion ERE dans NGC 4826 est aussi élevé comme ailleurs, mais que la taille des nanoparticules activement luminescentes dans NGC 4826 est environ deux fois plus grande que celles que l'on pense exister dans l'ISM diffus de notre galaxie.

    15deg2 entre l=108deg et 113° a été également sondé dans 13CO. Dans la région couverte par les deux espèces isotopiques, nous trouvons au moins sept GMC avec des masses de l'ordre de 105 Msolaires. Un rayon pondéré en intensité donne une mesure plus significative de la taille des nuages ​​que la simple surface géométrique et est mieux utilisé pour estimer la masse virale. Le rapport des luminosités totales des nuages ​​en CO et 13CO, S12/S13, varie de 6 à 10, avec une moyenne de 8,5. La distribution du gaz moléculaire est très similaire dans le CO et le 13CO, et les intensités intégrées à la vitesse à chaque point sont étroitement corrélées. Dans le diagramme (l,v), le bras de Persée est cinématiquement séparé du bras local par un espace inter-bras qui est presque exempt de CO, la densité de surface de gaz de contraste inmoléculaire entre le bras de Persée et l'espace inter-bras est apparemment d'au moins 20.

    1,2x10^ <-5>ergs s^ <-1>cm ^ <-2>sr ^ <-1>, correspond à environ un tiers de l'intensité lumineuse diffusée, ce qui correspond aux mesures de couleur récentes de la lumière galactique diffuse. Le pic des cirrus ERE ( lambda 0

    6000 A) est décalé vers les longueurs d'onde courtes (plus bleues) par rapport à l'ERE dans les sources excitées par un rayonnement ultraviolet intense, telles que les régions H II (lambda0

    8000 A) une telle tendance est observée dans des expériences de laboratoire sur des films de carbone amorphe hydrogéné.


    Câbles utilisés dans les mines : distribution, installation et jonctions de câbles (avec schéma)

    L'électricité est utilisée à de nombreuses fins à de nombreux endroits dans n'importe quelle mine, à la fois souterraine et à la surface. L'énergie électrique nécessaire est obtenue soit à partir d'une centrale électrique à la houillère, soit, plus généralement, à partir du réseau électrique local, par l'intermédiaire d'une sous-station.

    C'est un fait connu que les câbles utilisés sous terre dans les houillères doivent résister à des conditions défavorables, étant exposés à des chutes de toit, à l'humidité et à d'autres causes potentielles de dommages.

    Les câbles miniers doivent donc être fabriqués de manière robuste pour résister à l'usage rude qu'ils reçoivent. De plus, un entretien constant est nécessaire pour assurer leur sécurité et leur fiabilité. En fait, des câbles fiables et robustes sont essentiels pour une production efficace de charbon.

    De plus, ces câbles miniers doivent être conformes aux règles de mise à la terre, à savoir que la conductance du conducteur de mise à la terre doit être au moins égale à 50 % de celle de l'un des conducteurs de puissance.

    Dans les mines, pour les principales lignes de distribution haute et moyenne tension, des câbles isolés PVC/XLP de dimensions métriques sont désormais utilisés. Avant l'introduction de la taille de câble métrique, les mêmes câbles en pouces étaient utilisés. En fait, les câbles de taille pouces ou impérial sont toujours utilisés. De plus, avant l'utilisation des câbles isolés en PVC, le câble le plus couramment utilisé était le type à gaine de plomb à isolation papier.

    Des quantités considérables de ce type de câble sont encore utilisées. Des câbles ayant de deux à quatre âmes ou conducteurs sont disponibles. Pour triphasé a.c. distribution, des câbles à trois conducteurs sont normalement utilisés, un conducteur pour chaque phase du système d'alimentation.

    La composition des noyaux est la suivante :

    (a) Conducteur toronné en fils de cuivre simples.

    (b) Tige en aluminium solide préformée – Conducteur solide.

    (c) Fils en aluminium simples – Conducteur toronné.

    La section transversale d'un conducteur est constituée d'un secteur de cercle. Les conducteurs individuels sont isolés par un revêtement de composé isolant PVC coloré, les couleurs des trois conducteurs électriques étant le rouge, le jaune et le bleu. Lorsque des câbles à quatre conducteurs sont utilisés, le quatrième conducteur est le neutre et coloré avec un composé isolant noir.

    Les conducteurs du câble sont disposés ensemble en spirale. Tous les espaces entre eux peuvent être comblés avec un vermifuge pour donner une section circulaire uniforme. Les conducteurs assemblés sont généralement liés entre eux par une couche de ruban adhésif.

    Le câble enroulé est recouvert d'une literie, c'est-à-dire d'une gaine en PVC extrudé pour empêcher l'humidité de pénétrer. Les câbles disponibles peuvent être de type simple ou double. Chaque couche d'armure est constituée de fils d'acier galvanisé posés en spirale le long du câble.

    Avec un câble à double armure, un séparateur de ruban fibreux composé sépare les deux couches d'armure et les fils galvanisés sont spiralés dans des directions opposées. L'armure constitue le conducteur de terre du câble et est donc importante du point de vue de la mise à la terre.

    Câble isolé en papier :

    Les conducteurs des câbles isolés en papier sont recouverts de couches de ruban de papier. Ils sont ensuite recouverts de papier ou de jute vermifuge et liés dans plus de ruban de papier. Le câble enroulé est imprégné d'un composé isolant non drainant.

    Celui-ci est ensuite enfermé dans une gaine de plomb extrudé qui est recouverte d'une couche de ruban fibreux composé. Ce type de câble peut avoir une armure simple ou double sur la gaine de plomb, l'armure étant globalement recouverte d'une gaine en PVC extrudé.

    Plusieurs méthodes d'installation sont utilisées à la surface de la mine. La méthode d'installation dépend bien entendu des conditions dans une houillère particulière.

    Les méthodes sont généralement :

    (a) Suspension :

    Suspendu à un fil centenaire ou à des crochets muraux. Des peaux brutes ou des bretelles de câble tressées en plomb sont généralement utilisées à cette fin.

    (b) Crampons :

    La fixation par taquet est le plus souvent utilisée lorsque le câble doit passer le long du côté d'un bâtiment.

    (c) Conduit :

    Un conduit est réalisé en creusant une tranchée et en la doublant de briques ou de béton, le câble est fixé à la paroi du conduit par des supports ou des taquets.

    (d) Supports muraux :

    Le câble repose dans des supports boulonnés au mur. Ce type d'installation est normalement utilisé lorsque le câble longe un mur à l'intérieur d'un bâtiment.

    (e) Tranchée :

    La tranchée du câble doit être d'une profondeur adéquate en tenant compte de la tension de fonctionnement du câble et des conditions du site. Le câble doit être posé dans un lit de sable au fond de la tranchée, puis recouvert de sable. Les dalles de câbles à emboîtement doivent ensuite être posées sur le sable de manière à fournir une couverture continue sur toute la longueur du câble enterré.

    Les dalles de câbles doivent ensuite être recouvertes de terre exempte de cailloux, de corps étrangers, etc. puis la tranchée est remblayée. Enfin une tranchée de câble « Messages de marqueurs” doivent être érigés pour identifier le tracé de la tranchée du câble.

    (f) Installation de l'arbre :

    La méthode normale de fixation d'un câble verticalement dans la gaine consiste à le serrer à intervalles réguliers au moyen de taquets en bois. Les taquets en bois sont disponibles dans des longueurs de 2 pi à 6 pi. Le choix du taquet dépend bien sûr de la charge qu'il doit transporter.

    Alésage du taquet :

    Les taquets sont percés individuellement pour s'adapter au câble à installer, assurant ainsi une très bonne prise en main. La méthode d'alésage du taquet consiste à serrer les deux moitiés ensemble avec une planche de 6,35 mm (1/4 pouce) prise en sandwich entre elles.

    Un trou est ensuite percé à travers le taquet au même diamètre que le câble sur l'armure de fil extérieure, c'est-à-dire en omettant la portion globale. Lorsque le perçage est terminé, la planche est retirée pour que le taquet ait un 6,35 mm. pincer le câble lorsqu'il est correctement serré.

    Suspension à un seul point :

    Une autre méthode d'installation dans une gaine consiste à suspendre le câble à un seul point au sommet de la gaine. Un cône de suspension est utilisé. A l'endroit où il doit être suspendu, le câble est pourvu d'une quadruple armure.

    Le câble est en effet suspendu par deux couches d'armures doublées et encastrées dans le cône. Lorsque le cône est assemblé, la cavité au sommet est remplie de composé. Le noyau de suspension est fixé au sommet de l'arbre par de lourdes chaînes. Cette méthode ne convient que pour des puits relativement peu profonds et est une méthode peu fréquemment adoptée.

    Abaissement du câble :

    La méthode normale pour abaisser le câble dans l'arbre consiste à installer le tambour dans une cage et à disposer le câble lorsque la cage est abaissée. Le câble est ancré au sommet du puits et dégagé au fur et à mesure de la descente de la cage. Si le tambour est trop grand pour entrer dans la cage, une plate-forme est parfois construite en dessous pour accueillir le tambour à câble et les hommes l'accompagneraient.

    Une autre méthode pour abaisser le câble consiste à l'attacher à un câble métallique afin que le câble puisse être contrôlé depuis le haut de l'arbre. Le câble est généralement attaché à la corde à des intervalles d'environ dix pieds. Lorsque le câble a été abaissé, un certain nombre d'arrimages en haut sont coupés et cette partie du câble est fixée par des taquets.

    Le travail se poursuit ensuite le long du câble. A chaque étape, suffisamment d'arrimages sont coupés pour permettre l'installation d'un taquet. Le taquet est ensuite fixé avant que d'autres saisines ne soient coupées.

    Installation souterraine :

    Près du fond de la fosse, des taquets sur des supports peuvent être utilisés pour fixer les câbles aux murs, mais dans les routes et les barrières, la méthode d'installation habituelle consiste à suspendre les câbles à des barres ou des arcs. Les bretelles en cuir brut ou en tresse de plomb, telles que celles avec des fils caténaires, sont couramment utilisées sous terre. Des bretelles en toile ou en acier doux sont également utilisées.

    Le câble est suspendu aussi haut que possible au-dessus de la chaussée afin de minimiser le risque qu'il soit endommagé par l'activité en dessous. Les bretelles de câble sont généralement conçues pour se briser en cas de chute grave du toit, de sorte que le câble redescend avec le toit. De cette façon, le risque d'endommagement des câbles est minimisé.

    Le câble ne doit être tendu en aucun point. Un jeu est nécessaire sur toute sa longueur pour s'adapter aux mouvements du toit.

    La longueur de câble qui peut être prise sous terre d'un seul tenant est limitée par :

    (1) La taille du tambour de câble qui peut être abaissé dans l'arbre et transporté en bye ou

    (2) La quantité de câble qui peut être enroulée et qui est nécessaire pour prendre l'alimentation électrique du fond de la fosse, et doit donc être constituée de longueurs de câble réunies au moyen d'un coupleur de câble ou d'une boîte de jonction. Les deux méthodes donnent un joint satisfaisant lorsqu'elles sont remplies de composé.

    Coupleurs de câbles :

    Un coupleur de câble est en deux moitiés identiques, une moitié ajustée à l'extrémité de chacun des câbles à joindre. Chaque moitié du coupleur a un tube de contact pour chaque conducteur de câble. Lorsque les câbles sont en place, les deux moitiés du câble sont réunies et des broches de contact sont insérées dans les tubes de contact pour terminer les connexions. Les moitiés sont ensuite boulonnées ensemble pour former un joint antidéflagrant, comme illustré à la Fig. 15.2.

    S'il devient nécessaire de séparer à nouveau le câble, les deux moitiés du coupleur sont déboulonnées et écartées. Cependant tout le travail d'assemblage des moitiés de coupleur aux câbles se fait en surface. Chaque câble est pris sous terre avec les coupleurs attachés.

    Boîte de dérivation:

    Lorsqu'une boîte de jonction est utilisée, chaque conducteur du câble est relié au conducteur correspondant de l'autre câble au moyen d'une virole ou d'un connecteur individuel. Lorsque la jonction est terminée, la boîte est remplie de composé. Une fois la boîte de jonction remplie, il est difficile de repartir les câbles, car leur opération consiste à faire fondre le composé et à l'évacuer de la boîte afin de libérer les connecteurs. Tout le travail d'assemblage d'une boîte de jonction doit être effectué sous terre à l'endroit ou très près de l'endroit où elle doit être installée et, à ce titre, les boîtes de jonction sont maintenant moins utilisées que les coupleurs de câbles.

    Connexion d'un câble à un coupleur de câble :

    Une séquence d'opérations typique pour la constitution d'un coupleur de câble est la suivante :

    (1) Préparation des câbles :

    La longueur de la portion, de l'armure, de la literie et de l'isolation des conducteurs qui sont retirés de l'extrémité du câble dépendent du fabricant du coupleur et peuvent être trouvées dans les instructions du fabricant. Avant de retirer l'armure, la pince d'armure est passée le long du câble. Lors du retrait de l'armure, ne coupez pas de part en part avec une scie à métaux, car il sera alors difficile d'éviter d'endommager la literie.

    La procédure correcte consiste à couper une partie du chemin à travers les brins, puis à les casser en les pliant d'avant en arrière. Lorsque le câble a été coupé, l'armure exposée doit être nettoyée jusqu'à ce qu'elle soit brillante, et si le câble a une gaine de plomb, celle-ci doit également être nettoyée à fond.

    (2) Montage du presse-étoupe :

    Les extrémités des blindages sont élargies de sorte que le presse-étoupe du noyau interne, avec ses boulons de presse-étoupe, puisse être inséré en dessous. S'il y a deux couches d'armure, un noyau inter-armure est inséré entre les deux couches. La pince d'armure (qui a été mise en place avant de couper l'armure) est tirée vers l'avant sur l'armure élargie et sur les deux boulons du presse-étoupe, les boulons sont ensuite serrés pour fixer l'armure dans le presse-étoupe. Si le câble a une gaine en plomb, le presse-étoupe doit être emballé avec de la laine de plomb conformément aux instructions du fabricant.

    (3) Pose des tubes de contact et de la moulure isolante intérieure :

    L'isolation des conducteurs individuels est maintenant réduite à la longueur prescrite. Les piliers de support en acier isolant sont montés sur le presse-étoupe intérieur et le moulage intérieur-isolant avec tubes de contact est proposé jusqu'aux piliers de support, ce qui permet de contrôler les longueurs de noyau.

    S'ils sont corrects, les tubes de contact peuvent maintenant être montés sur les âmes des câbles dans le cas des âmes conductrices en aluminium, celles-ci peuvent être soudées (notamment sous gaz inerte) ou serties par l'outil de compression conformément aux instructions du fabricant.

    Dans le cas d'âmes conductrices en cuivre, celles-ci peuvent être soudées ou fixées par des vis sans tête. Après avoir fixé les noyaux dans les tubes de contact, la moulure isolante intérieure doit être montée sur les tubes et fixée aux piliers de support.

    (4) Montage du corps du coupleur :

    Le corps du coupleur peut maintenant être monté sur l'isolateur intérieur et, pour être boulonné en position, vérifier le F.L.P. espace pour s'assurer qu'il est ignifuge.

    (5) Remplissage du boîtier du coupleur :

    Les bouchons de remplissage et d'évent sont retirés et un composé isolant est versé. Avec les câbles PVC, un composé de remplissage à chaud (avec une température ne dépassant pas 135 °C) ou un composé de coulage à froid est utilisé afin d'éviter la fonte de l'isolation du câble. Le composé peut se contracter au fur et à mesure qu'il durcit et doit être rechargé. Lorsque le composé a pris, les bouchons sont remplacés.

    Lorsqu'un coupleur a été assemblé et que le composé a durci, la résistance d'isolement entre chaque paire de conducteurs et entre chaque conducteur et le boîtier du coupleur est testée avec un testeur approprié, comme Megger ou Metro-ohm.

    Lorsque les deux extrémités du câble ont été préparées, la continuité de chaque conducteur à travers le câble est testée avec un testeur de continuité, pour s'assurer que les connexions internes sont sécurisées et adéquates.

    Il est particulièrement important de tester la continuité entre les boîtiers de deux coupleurs pour s'assurer que le conducteur de terre est conforme aux règles de mise à la terre, à savoir que la conductivité du conducteur de terre est d'au moins 50 % de celle d'un conducteur de puissance.

    Si le conducteur de terre est fourni par l'armure du câble, la continuité de la terre dépendra de la sécurité avec laquelle l'armure a été fixée par le presse-étoupe. Il est important, lors du test d'un tel câble, de mesurer la continuité de terre entre les boîtiers des coupleurs de câbles afin que les connexions électriques entre les presse-étoupes et les armures soient testées correctement.

    Lorsqu'un coupleur a été testé, il est étroitement enveloppé dans des toiles de jute ou des feuilles de plastique, et l'extrémité du câble est attachée à une agrafe sur le tambour. Il est recommandé de boulonner une plaque d'obturation sur l'extrémité du coupleur pour protéger la bride du point antidéflagrant. Pendant que le câble est entreposé, il doit être aussi sec que possible pour empêcher l'humidité de pénétrer dans l'isolant.

    Constituer une boîte de jonction :

    La séquence d'opérations pour constituer une boîte de jonction est la suivante :

    Si les conditions le permettent, le boîtier est d'abord boulonné dans la position où il doit être installé c'est-à-dire sur un pilier en brique, ou dans un encastrement. Si la position est difficile à atteindre, la boîte peut être faite en dessous ou à côté de sa position finale et mise en place une fois terminée.

    (2) Préparation du câble :

    La méthode de préparation des câbles est similaire à celle d'un coupleur de câbles.

    Les pinces de blindage et les presse-étoupes sont similaires à ceux utilisés avec le coupleur de câble. Il est habituel de boulonner les colliers avant de commencer à travailler sur les connexions internes.

    (4) Réalisation de connexions électriques :

    L'isolation des conducteurs individuels est réduite aux dimensions requises et les isolations restantes renforcées en enroulant du ruban isolant autour d'eux. Les extrémités des conducteurs sont conformées en une section circulaire, si nécessaire. La virole ou les connexions sont maintenant installées aux extrémités des conducteurs et leurs vis sans tête sont serrées. L'ensemble du joint est ensuite lié avec du ruban isolant.

    Dans certains types de boîtes, la connexion est boulonnée sur des bases en bois ou en porcelaine. Dans d'autres types, les embouts ne sont pas supportés, mais les conducteurs de câble sont maintenus séparés par des écarteurs isolants. Certains fabricants exigent que les connexions soient décalées à l'intérieur de la boîte. L'exigence sera anticipée par les dimensions données pour les conducteurs individuels lors de la préparation du câble.

    Avant la fermeture du boîtier, la résistance d'isolement entre chaque paire de conducteurs et entre chaque conducteur et le boîtier doit être testée avec un testeur de résistance d'isolement approprié. Un test similaire à partir de l'extrémité non connectée de l'un des câbles est requis une fois la boîte remplie.

    Le couvercle est maintenant boulonné. Les joints entre le couvercle et le corps de la boîte doivent être testés avec une jauge d'épaisseur pour s'assurer qu'ils sont antidéflagrants. Si une carte de terre est fournie, assurez-vous qu'elle est bien fixée et avec de bons contacts électriques.

    (8) Remplissage de composé :

    Les bouchons de remplissage et les bouchons d'évent sont retirés et la boîte remplie de composé. Au fur et à mesure que le composé prend et se contracte, il peut être nécessaire de le compléter. Lorsque la boîte a été remplie, les bouchons sont remplacés. Si la boîte de jonction est souterraine ou dans un puits, le composé ne peut pas être chauffé à proximité du site réel de la boîte.

    Si une pâte à couler chaude doit être utilisée, elle doit être chauffée en surface et transportée dans un support isolé jusqu'à l'endroit où elle doit être remplie. La température minimale de coulée pour de nombreux composés est d'environ 150°C. Si la boîte de jonction est loin sous terre et nécessite un long trajet pour l'atteindre, il peut ne pas être possible de garder le composé chaud assez longtemps pour être versé dans la boîte de jonction lorsqu'il est enfin atteint.

    Dans de tels cas, et lorsqu'il n'est pas possible d'utiliser de la pâte à chaud, il est conseillé de remplir la boîte d'une pâte à couler à froid. En fait, un composé de coulée à froid est fabriqué en mélangeant un durcisseur dans une huile bitumineuse. Dès que les deux constituants sont mélangés, le composé prend jusqu'à 24 heures pour durcir.

    Le composé peut, bien sûr, être mélangé sous terre en plus de la boîte. Dans la plupart des cas pratiques, ce type de composé de coulée à froid s'est avéré très utile. Pour remplir de pâte à couler à froid, versez d'abord l'huile bitumineuse dans un récipient propre, puis ajoutez-y le durcisseur. Le mélange doit être agité vigoureusement jusqu'à ce que les deux constituants soient bien mélangés, de sorte qu'il ne reste aucun sédiment.

    Le composé doit être versé dans la boîte sans délai et les bouchons de remplissage doivent être remplacés. Dès que le joint a été rempli, toute quantité de mélange laissée dans le seau doit être nettoyée car les composés restants ne peuvent pas être éliminés une fois qu'ils ont pris.

    Installation des coupleurs de câbles et des boîtes de jonction :

    Les boîtes de jonction utilisées sous terre sont généralement montées sur des piliers en brique ou dans des encarts découpés dans le côté d'une chaussée. Les câbles sont généralement fixés au mur par des taquets près de l'endroit où ils pénètrent dans les boîtes de jonction. Beaucoup de mou est laissé, de sorte qu'en cas de chute de toit qui fait tomber le câble, le moins de tension possible est placé directement sur la boîte.

    Les coupleurs de câbles et parfois les boîtes de jonction sont suspendus au toit par des berceaux. S'il y a une chute de toit, le coupleur ou le boîtier descend avec le câble. Les joints de câbles sont rarement réalisés dans les puits, mais lorsqu'ils le sont, la boîte est généralement placée dans un médaillon sur le côté de l'arbre. Certains types de boîtes de jonction sont conçus pour être boulonnés verticalement sur le côté de l'arbre.

    5. Types de câbles flexibles dans les mines :

    Les câbles flexibles utilisés dans le système électrique d'une mine se répartissent en deux catégories principales : les câbles traînants et les câbles à armure métallique souple.

    (1) Câbles de remorquage :

    La majorité des câbles de fuite modernes ont cinq noyaux - trois noyaux d'alimentation pour le courant alternatif triphasé. alimentation, un quatrième noyau pour le pilote et un cinquième noyau pour la terre. Les âmes sont toujours isolées avec un isolant synthétique tel que le C.S.P. (Polyéthylène chloré sulfoné) ou E.P.R. (Caoutchouc éthylène propylène). Certains noyaux ont une isolation E.P.R. qui est ensuite recouvert d'une couche de C.S.P. (deux couches d'isolant).

    Le noyau de terre de certains types de câbles traînants n'est pas isolé mais mis à nu au centre du câble. Le composé synthétique C.S.P. est un composé isolant plus dur que le caoutchouc, il est plus résistant à la pénétration par des fils d'âme ou de blindage cassés. Il a une faible résistance d'isolement et une capacité élevée avec un temps de charge conséquent lors de la mesure de la résistance d'isolement.

    Les conducteurs isolés sont disposés de diverses manières en fonction du type de câble.

    Dans certains, les noyaux sont disposés en spirale autour d'un berceau central, la spirale est assez serrée en particulier dans le cas de câbles de forage afin que le câble puisse fléchir facilement sans imposer de contraintes sur les noyaux individuels. Dans d'autres, soit le pilote, soit le noyau de terre passe dans le berceau central avec les autres noyaux disposés autour.

    La majorité des câbles traînants modernes sont du type blindé individuellement où les écrans sont mis à la terre. Le blindage fournit une protection électrique pour les câbles en cas d'endommagement accidentel et de pénétration d'un objet métallique, l'objet entrera d'abord en contact avec l'écran mis à la terre avant de toucher le noyau sous tension.

    Par conséquent, la possibilité d'un court-circuit entre les noyaux sous tension, etc. est considérablement réduite, car la protection contre les fuites à la terre détectera un défaut à la terre et déclenchera le boîtier de commande de fin de grille avant que le court-circuit ne se produise.

    Il existe deux types de câbles de fuite blindés individuellement :

    (1) L'écran tressé en cuivre/nylon et

    (ii) L'écran en caoutchouc conducteur.

    Les câbles de remorquage ayant des écrans en caoutchouc conducteur ne doivent être utilisés que sur un système ayant une fuite à la terre sensible qui limite le courant de défaut à la terre à 750 m.a. sur câbles d'alimentation et 125 m.a. sur les câbles de forage, les câbles de fuite sont gainés sur tout le pourtour en P.C.P. (Polychloroprène).

    (2) Câbles blindés souples :

    Ces câbles se composent de trois ou quatre conducteurs avec une isolation synthétique sur les conducteurs. L'isolation du noyau étant généralement C. S. P. ou E.P.R. (ou C.S.P. sur E.P.R.) pour les câbles fonctionnant sur la tension du système jusqu'à 1 100 de tension. Pour les câbles fonctionnant sur des systèmes de plus de 1 100 volts et jusqu'à 6 600 volts, l'isolation du noyau est en butyle ou en E.P.R.

    Les noyaux sont disposés autour d'un centre, ils sont ensuite enfermés dans une gaine intérieure en P.C.P. L'armure est en fait constituée d'une couche de torons souples en acier galvanisé disposés en spirale sur la gaine intérieure, le câble est globalement recouvert d'une gaine en P.C.P.

    Un blindage tressé en cuivre/nylon est fourni autour de chaque noyau d'alimentation individuel. De manière similaire et pour des raisons similaires à celles mentionnées précédemment, les noyaux de terre ne sont pas blindés pour les câbles de fuite.

    Les câbles de fuite sont normalement connectés à l'équipement au moyen d'une fiche qui s'accouple avec une prise correspondante sur l'équipement. Les fiches et les prises sont de deux types, c'est-à-dire les types boulonnés et retenus. Les fiches et douilles boulonnées ont des brides correspondantes qui s'accouplent lorsque la fiche est complètement insérée dans la douille, les brides sont ensuite boulonnées ensemble par des goujons qui se vissent dans la bride de la douille.

    Les fiches et les prises retenues sont tirées et maintenues ensemble par une vis d'extraction. La vis d'extraction de douille a un loquet (came) qui s'engage dans un méplat sur le corps de la fiche en masquant la vis dans la fiche, et est tiré dans la douille et maintenu in situ. Lorsqu'ils sont correctement assemblés, les types boulonnés et retenus forment des jonctions antidéflagrantes. Ici encore, le chemin antidéflagrant et les interstices doivent être vérifiés.

    Des fiches et des prises avec différentes valeurs nominales de courant et de tension sont utilisées, les valeurs nominales utilisées dépendant de la charge de l'équipement auquel le câble est connecté ainsi qu'en référence à la tension du système. Les 150 ampères. La prise et la prise restreintes sont les plus couramment utilisées sur une tension allant jusqu'à 660 volts.

    Une version à double tension de la fiche et de la prise restreintes de 150 ampères a été conçue et récemment mise à disposition. Ceci est adapté pour un fonctionnement sur des systèmes 600/1100 volts et en plus, il a été mis à jour à 200 ampères. Pour faire la différence entre 660 volts et 1 100 volts, le mode 1 100 volts a ses isolateurs et ses tubes de contact tournés à 180°. Le mode 660 volts est entièrement interchangeable avec la gamme 150 ampères 660 volts.

    Cependant, la prise et la prise de type boulonnée 30 ampères 660 volts sont fournies pour le petit h.p. équipement, les fiches et les prises de différents fabricants sont conçues pour se brancher les unes aux autres. Il existe également des types antérieurs de fiches et de prises de 1 100 volts de 50 ampères et de 150 ampères.

    Ces types plus anciens ne sont pas interchangeables avec les types indiqués ci-dessus, ils ne sont pas non plus interchangeables avec les produits d'autres fabricants. Dans la conception d'aujourd'hui, l'interchangeabilité est un point essentiel à considérer.

    C'est une autre caractéristique importante de l'électrotechnique. Le code de couleur standard pour l'identification du noyau de câble a changé en raison de la métrique. A titre de comparaison, le tableau suivant donne le nouveau code de couleur métrique ainsi que l'ancien code de couleur impérial. Ceci est important compte tenu du fait que les anciens codes sont toujours utilisés et que ceux-ci le resteront pour les années à venir.

    Installation:

    Dans la mesure du possible, des câbles blindés et traînants souples sont suspendus aux barres de toit ou aux arches. Lorsqu'ils doivent courir le long du sol, ils doivent être placés d'un côté où ils ne gêneront pas la circulation et seront exposés au minimum de risques de dommages.

    Aux têtes de route, les câbles doivent être protégés par des canaux ou des tuyaux en acier. Les câbles de fuite descendant le long de la façade doivent être placés là où ils n'encrassent pas les machines, les vérins et les supports de toit, et là où ils sont le moins susceptibles de subir des dommages dus aux travaux en cours, aux chutes de toit ou à toute autre cause.

    De nombreux convoyeurs sont équipés d'un canal blindé pour recevoir les câbles et lorsqu'un tel convoyeur est utilisé, il est indispensable de s'assurer que le câble est correctement protégé par le canal. Si la machine à tailler le charbon est équipée d'un dispositif de manipulation de câble, assurez-vous que le câble s'y engage correctement. Les câbles sont fabriqués en longueur standard et, pour cette raison, un câble peut être plus long que la longueur pour laquelle il doit être utilisé.

    La longueur de câble de rechange doit être récupérée en la faisant en huit. Ne faites jamais de bobine circulaire, car cela introduirait des torsions, ce qui pourrait entraîner une tension des conducteurs ou le blindage ‘ ‘bird-caging”. Les bobines fournissent une réserve de câble qui peut être disposée si le parcours doit être rallongé, par ex. entre la sous-station in-bye et les panneaux d'extrémité de porte lorsque le front avance.

    En effet, les ingénieurs électriciens dans les mines devront toujours être vigilants pour considérer les facteurs permettant d'éviter tout retard, et donc d'éviter toute perte de production, et surtout d'éviter tout accident.

    Trouver à redire:

    Les défauts de câbles sont généralement détectés en raison de leur effet sur l'équipement qu'ils desservent. Un défaut est susceptible de déclencher un contacteur ou un disjoncteur via la protection contre les défauts à la terre ou la protection contre les surcharges. Le type de défaut peut être confirmé et le ou les conducteurs concernés peuvent être découverts en effectuant des tests d'isolement et de conductance.

    Une fois que le type de défaut a été connu, il reste le problème de trouver où le long du câble le défaut s'est produit. Trouver le défaut par inspecté est laborieux, et un défaut pourrait passer inaperçu, à moins qu'un examen très approfondi et détaillé ne soit effectué. L'un des tests suivants est donc utilisé pour trouver la position approximative du défaut avant le début de l'examen visuel.

    Ces tests sont le plus souvent réalisés en atelier.Si un câble armé traînant ou pliable devient défectueux, il est remplacé par un câble sain et ramené à la surface pour réparation. Si un défaut se développe sur une ligne de distribution principale, il peut être nécessaire de faire un test avec le câble en place, afin que le défaut puisse être réparé sur place, ou seulement une petite section du câble renouvelée.

    Les tests sont particulièrement utiles lorsqu'un défaut se produit dans un câble enterré en surface.

    Faille terrestre Test:

    Ce test permet de localiser un défaut entre un conducteur et l'écran ou le blindage. Plusieurs formes de test sont utilisées, la plus simple est le test de boucle de Murray, qui utilise le principe du pont de Wheatstone. L'équipement requis et le raccordement à effectuer sont illustrés à la Fig. 15.3.

    A et B sont deux résistances variables (ou parties d'une boîte de résistance).

    Le test de défaut à la terre est décrit ci-dessous :

    1. Isolez les deux extrémités du câble et déchargez-le à la terre.

    2. À une extrémité du câble, connectez le conducteur défectueux à un conducteur sonore de même section.

    3. À l'autre extrémité du câble, connectez l'équipement de test comme illustré à la Fig. 15.3.

    4. Mettez sous tension et réglez la résistance A et B jusqu'à ce que le galvanomètre indique zéro.

    5. Les valeurs des résistances A & B lorsque le galvanomètre est à zéro -sont utilisées pour trouver le défaut c'est-à-dire la distance (X) au défaut = A /A+B × deux fois la longueur du câble.

    Ce test est utilisé pour trouver un court-circuit entre deux conducteurs d'un câble. L'un des conducteurs défectueux est mis à la terre, et le défaut est localisé par le test de boucle de Murray, en utilisant l'autre conducteur défectueux et le conducteur du son, comme le montre la Fig. 15.4., où l'on voit A & B sont deux résistances variables (ou parties de une boîte de résistance).

    Le galvanomètre est équilibré à zéro en ajustant la résistance.

    Circuit ouvert Test:

    Ce test permet de trouver une rupture dans l'un des conducteurs du câble. Le principe du test est de comparer la capacité d'une partie du conducteur défectueux, avec la capacité de l'ensemble d'un conducteur sain.

    Les méthodes sont les suivantes :

    1. Isolez les deux extrémités du câble et déchargez-le à la terre.

    2. À une extrémité du câble, connectez l'équipement de test comme illustré à la Fig. 15.5. Le conducteur acoustique à utiliser doit avoir la même section transversale que le conducteur rompu.

    3. Mettez à la terre les deux extrémités du conducteur rompu et tous les conducteurs du câble, à l'exception du conducteur acoustique auquel l'alimentation doit être connectée.

    4. Branchez l'alimentation sur le conducteur sonore et laissez le conducteur se charger complètement.

    5. Connectez immédiatement le conducteur chargé au galvanomètre et notez le temps mis par le conducteur pour se décharger. Le temps de décharge est mesuré à partir du moment où l'interrupteur est connecté jusqu'au moment où l'aiguille du galvanomètre revient à zéro.

    6. Déconnectez l'équipement de test du conducteur de son et mettez le conducteur à la terre.

    7. Retirez la connexion à la terre de l'extrémité de test du conducteur rompu et connectez l'équipement de test au conducteur.

    8. Chargez le conducteur cassé et trouvez le temps de décharge.

    9. La distance (X) jusqu'au défaut

    = Temps de décharge pour conducteur cassé x longueur de câble. / Temps de décharge pour conducteur de son.

    Tous les réseaux de terre des différentes sections du charbonnage sont, en effet, reliés en un seul réseau, qui se termine quelque part en surface, où il est relié au corps général de la terre par une ou plusieurs prises de terre.

    La sécurité de l'ensemble du système électrique dépend d'une mise à la terre efficace au point, et les connexions de la plaque de terre doivent donc être testées de temps en temps. Le test peut être effectué avec un testeur de terre (par exemple le Megger), ou par la méthode de chute de potentiel en utilisant l'équipement comme indiqué sur la Fig. 15.6 qui explique en détail la méthode de test appelée Earth Plate Test.

    Plaque de terre Test:

    Il s'agit d'un test très important dont la méthode de test est la suivante :

    1. Débranchez la plaque de terre à tester du système électrique.

    Assurez-vous que le système électrique est toujours relié à la terre par d'autres plaques. S'il n'y a qu'une seule plaque de terre, le test ne peut être effectué que lorsque le système électrique est à l'arrêt.

    2. Insérez les deux piquets de terre dans le sol, en plaçant l'un environ deux fois plus loin de la plaque de terre que l'autre. Les distances appropriées seraient : PA 12 m, PB 24 m. Une grande distance est nécessaire pour s'assurer que chaque électrode est bien en dehors de la zone de résistance de la plaque de terre testée. Assurez-vous que chaque pointe fait une bonne connexion à la terre.

    3. Connectez l'équipement comme indiqué sur la Fig. 15.6. Les connexions correctes pour un testeur de terre sont fournies avec l'instrument.

    4. Allumez l'alimentation de test et notez les lectures sur les deux instruments. La lecture sur le voltmètre, divisée par la lecture sur l'ampèremètre donne une valeur en ohm pour la résistance de la connexion de la plaque de terre à la terre. La résistance peut être lue directement à partir d'un testeur de terre.

    5. Coupez l'alimentation et déplacez la pointe B d'environ 6 m. plus près de la plaque de terre, par ex. PA 12 m, PB 18 m.

    6. Allumez l'alimentation et trouvez à nouveau la résistance de la plaque de terre.

    7. Mettez sous tension et déplacez la pointe B dans une position d'environ 6 m. plus loin de la plaque de terre que sa position d'origine, par ex. PA 12 m, PB 30 m.

    8. Allumez l'alimentation et trouvez à nouveau la résistance de la plaque de terre.

    9. Si les trois valeurs obtenues aux étapes 4, 6 et 8 se situent à environ 0,25 ohm l'une de l'autre, trouvez la moyenne des trois valeurs et acceptez-la comme résistance de la connexion de la plaque de terre à la terre.

    Si les trois valeurs montrent maintenant une plus grande variation, il est probable que les pointes de test n'étaient pas situées en dehors de la zone de résistance de la plaque de terre. Il faudra refaire tout le test pour trouver trois lectures qui ne diffèrent pas de plus de 0,25 ohm. Commencez avec des pointes de test plus espacées qu'auparavant.

    Une valeur finale de 1 ohm ou moins indique une bonne connexion à la terre. La valeur maximale pouvant être acceptée est de 2 ohms.


    Type1 : Température

    (i) Thermocouple - Ils sont constitués de deux fils (chacun en alliage ou métal homogène différent) qui forment une jonction de mesure en se joignant à une extrémité. Cette jonction de mesure est ouverte aux éléments mesurés. L'autre extrémité du fil se termine à un dispositif de mesure où une jonction de référence est formée. Le courant circule dans le circuit car la température des deux jonctions est différente. La milli-tension résultante est mesurée pour déterminer la température à la jonction. Le schéma du thermocouple est présenté ci-dessous.

    Symposium européen sur l'ingénierie des procédés assistée par ordinateur-12

    Arnoud Nougues, . Rob Snoeren , en génie chimique assisté par ordinateur , 2002

    Surveillance de l'APC et du contrôle de la couche de base

    Shell a développé et est en train de développer une suite complète de progiciels, appelée MD (Monitoring and Diagnosis) pour surveiller les performances des boucles de contrôle et pour aider au dépannage des boucles qui n'atteignent pas leur objectif de performance. Les outils s'appliquent aux commandes multivariables, de la technologie Shell (SMOC) ainsi qu'aux commandes multivariables de n'importe quel fournisseur APC, et ils s'appliquent aux boucles traditionnelles à entrée unique-sortie unique (par exemple, contrôleur PID).

    L'élément central de MD est un système d'information client-serveur pour le suivi des performances de la boucle de contrôle. MD est lié à divers historiens de données d'usines commerciales (par exemple, Exaquantum de Yokogawa, OSI PI), où résident l'état de base de la boucle de contrôle en temps réel et les informations sur les performances. Chaque jour, les statistiques de performances sont calculées automatiquement et stockées dans une Base de Données Relationnelle dédiée. Les ingénieurs de contrôle sont informés si les boucles de contrôle fonctionnent en dessous des objectifs prédéfinis par des rapports récapitulatifs quotidiens par e-mail. A côté de cela, l'utilisateur peut entrer dans le mode rapport où les informations statistiques peuvent être consultées.

    Pour chaque boucle de régulation et variable contrôlée (CV), MD fournit les informations statistiques suivantes :

    % en service : les balises de disponibilité du contrôleur et de l'unité en option sont surveillées pour déterminer si le contrôleur est en service.

    % Uptime : la disponibilité de la boucle est déterminée à partir de l'état du mode contrôleur.

    % de conformité : cette statistique indique si un CV s'écarte significativement d'un point de consigne ou d'une valeur Min./Max. limites. La limite pour indiquer un écart significatif est déterminée à partir d'une tolérance spécifiée par l'utilisateur (CL) pour chaque CV. Si le CV se situe dans la limite ± CL des limites de contrôle (plage définie), le CV est considéré comme conforme. Les informations sont rapportées sous forme de moyennes quotidiennes et mensuelles basées sur des calculs effectués en utilisant généralement des données d'une minute.

    Le pourcentage de service, le pourcentage de disponibilité, le pourcentage de conformité ainsi qu'un facteur de coût défini par l'utilisateur sont utilisés pour dériver une incitation de coût qui est communiquée quotidiennement et mensuellement à l'utilisateur (PONC : prix de non-conformité).

    La surveillance des performances de la boucle n'est pas suffisante. Des outils supplémentaires sont nécessaires pour aider à analyser les problèmes liés aux performances des boucles et à dépanner efficacement les boucles sous-performantes. Un certain nombre de techniques de diagnostic de performance de boucle propriétaires innovantes ont été développées par Shell et font partie de la suite de packages MD :

    Courbes moyennes de réponse en boucle fermée : les courbes d'erreur CV et de réponse MV sont calculées et tracées. Les courbes de réponse moyenne fournissent un résumé visuel de la forme et du temps de réponse du SISO ainsi que des boucles de contrôle multivariables, en réponse aux perturbations réelles affectant le processus et en réponse aux changements de point de consigne. Les courbes de réponse moyenne sont dérivées de l'ajustement d'un modèle ARMA (moyenne mobile auto-régressive) aux données de la série chronologique de la boucle, généralement sur plusieurs heures ou jours de fonctionnement normal en boucle fermée.

    Tracé de la comparaison de l'écart type de l'erreur CV de la fenêtre glissante avec les meilleures performances réalisables à partir du contrôleur de variance minimale (MVC) : l'écart type de l'erreur CV est calculé sur une période de temps représentative, puis le calcul est répété en faisant glisser la fenêtre du début à la fin de la plage de temps des données. L'écart type qui aurait été atteint par le contrôleur de rétroaction (MVC) le plus rapide possible est affiché sur un tracé parallèle. Les tracés d'écart type d'erreur CV sont utiles pour évaluer les performances de la boucle en termes relatifs (écart type d'erreur CV atteint et son évolution dans le temps) ainsi qu'en termes absolus (comparaison avec le contrôleur MVC de référence).

    Analyse des degrés de liberté et des contraintes : cette technique s'applique aux applications de contrôle multivariables. L'idée est de suivre et de signaler quelles variables contrôlées dans un système multivariable en boucle fermée sont actives (c'est-à-dire conduites à leur limite de spécification supérieure ou inférieure) et à quelle fréquence elles sont actives. En conséquence, l'état d'activité des variables manipulées est signalé, c'est-à-dire quels MV sont limités ou indisponibles et à quelle fréquence. Ces informations, présentées sous forme de graphiques à barres et de tendances, donnent un aperçu de l'activité et des performances d'un contrôleur multivariable complexe et aident à diagnostiquer les problèmes de structure de contrôle (par exemple, degrés de liberté insuffisants pour atteindre les objectifs de contrôle requis).


    Technologie automobile

    III.B.6 Systèmes électroniques

    Il existe quatre domaines dans lesquels les nouvelles techniques d'acquisition et de traitement électronique des données sont utilisées :

    Fonctionnalités de commande nécessaires au fonctionnement du véhicule qui étaient en partie réalisées mécaniquement, hydrauliquement ou pneumatiquement dans le passé. Des exemples sont les systèmes de gestion globale du moteur pour réduire la consommation de carburant ou les émissions de polluants ainsi que le contrôle de la transmission afin de choisir le rapport de transmission optimal ou d'améliorer l'opération de changement de vitesse dans la transmission automatique.

    Des fonctionnalités de contrôle concernant le mouvement du véhicule sur la route qui améliorent également la sécurité active et passive en reconnaissant quand le conducteur réagit trop tard ou de façon inappropriée et en corrigeant à temps ses manœuvres de direction et de freinage. Des exemples de combinaison d'essieux, de direction et de freins avec traitement électronique des données suivent. le système de freinage anti-blocage (ABS Section 4 ) est parfois soutenu par assistance au freinage, qui raccourcit la distance d'arrêt d'un véhicule en cas de freinage d'urgence. L'assistance au freinage reconnaît une réaction induite par la peur de la vitesse à laquelle le conducteur enfonce la pédale de frein. Il procède ensuite au développement d'une augmentation de puissance de freinage maximale dès le début du freinage. le système de contrôle de dérapage d'accélération (ASR) empêche les roues motrices de patiner. L'ASR est une intervention à commande électronique de la puissance du moteur et des freins qui est de plus en plus utilisée dans les voitures particulières et les véhicules utilitaires. le Programme de stabilité électronique (ESP) (Fig. 17B) réduit considérablement les tendances au dérapage et au glissement dans le véhicule en mouvement. Le système détecte les situations potentiellement dangereuses sur la base de différents signaux de capteurs (par exemple, la vitesse de rotation de la roue, l'angle de lacet et l'angle de braquage) plus rapidement que même le conducteur le plus expérimenté ne peut le faire. L'ESP intervient alors avec une grande précision et stabilise le véhicule avec une activation exactement mesurée des freins et/ou une réduction de la puissance du moteur. Le contrôle électronique des freins et de la puissance du moteur permet d'utiliser toutes les forces de friction possibles entre les roues et la route, mais uniquement dans leurs limites physiques. le contrôle électronique de distance régule la distance au véhicule qui précède via des capteurs radar ou infrarouges, intervient dans la gestion du moteur et, si nécessaire, active les freins. L'activation de l'airbag et du rétracteur de ceinture est commandée par un capteur de décélération, qui est relié rigidement à la carrosserie de la voiture dans un emplacement central ( Section VI ).

    Transfert d'informations et de communication entre le véhicule, le conducteur et le monde extérieur. Pendant des décennies, l'autoradio a fourni le seul lien – à sens unique – avec le monde extérieur, et c'était à sens unique. Récemment, le téléphone mobile a inauguré une ère de communication bidirectionnelle. Les systèmes de navigation assistés par satellite pour garder une trace de la position exacte d'un véhicule et un moniteur de fonctionnement et d'affichage, les composants de base d'un module de communication ou de télématique embarqué, font désormais partie d'une voiture moderne. Cela permet un large éventail de nouvelles applications, y compris les systèmes de navigation pour guider les conducteurs vers leur destination à l'aide d'une carte routière sur CD-ROM. Si les données de trafic actuelles sont également transmises au véhicule via l'interface de données (Fig. 17C), la recommandation d'itinéraire peut prendre en compte la situation du trafic et, dans la mesure du possible, aider à éviter les retards.

    Surveillance de toutes les fonctions importantes du véhicule telles que l'ABS, les airbags, l'éclairage, etc. Ces fonctions sont contrôlées en permanence. En cas de panne, le conducteur reçoit un avertissement et/ou un buzzer.

    Malgré ces progrès, cependant, il n'y a aucune chance que l'électronique prenne entièrement le relais du conducteur dans un avenir prévisible. Les conducteurs conserveront la responsabilité de surveiller eux-mêmes la situation du trafic et de réagir en cas de danger.


    Voir la vidéo: Excel KAAVIO I - kuvaajan osat ja muokkaus, kaavion viimeistely (Juillet 2021).