Astronomie

Relation entre la couleur photométrique et le redshift, deuxième partie

Relation entre la couleur photométrique et le redshift, deuxième partie

Dans les graphiques de ma question précédente ici, il y a des régions à pente négative lorsque la relation couleur-z oscille. Donc, si je regarde comment les couleurs I-W2 et W3-U changent avec le redshift, comme je l'ai fait ici :

avec I-W2 et W3-U devenant tous deux plus bas (plus bleu, n'est-ce pas ?), cela signifie-t-il que mes graphiques indiquent l'une des régions à pente ascendante ?

Qu'est-ce que l'évolution du décalage vers le rouge de I-W2 par rapport à W3-U indique d'autre ?


Titre : Portail scientifique DES : Calcul des décalages vers le rouge photométriques

Nous rapportons qu'un défi important auquel sont confrontés les relevés photométriques à des fins cosmologiques est la nécessité de produire des estimations fiables du décalage vers le rouge. L'estimation des redshifts photométriques (photo-zs) a été consolidée en tant que stratégie standard pour contourner les coûts de production élevés et l'incomplétude des échantillons de redshift spectroscopiques. Les méthodes photo-z basées sur la formation nécessitent la préparation d'une liste de haute qualité de décalages vers le rouge spectroscopiques, qui doit être constamment mise à jour. La formation, la validation et l'estimation de photo-z doivent être effectuées de manière cohérente et reproductible afin de répondre aux exigences scientifiques. Pour atteindre cet objectif, nous avons développé une interface de données Web intégrée qui fournit non seulement le cadre pour effectuer les étapes ci-dessus de manière systématique, permettant de tester et de comparer facilement différents algorithmes, mais répond également aux exigences de traitement en parallélisant les calcul de manière transparente pour l'utilisateur. Ce cadre appelé Portail scientifique (ci-après Portail) a été développé dans le cadre du Dark Energy Survey (DES) pour faciliter l'analyse scientifique. Dans cet article, nous montrons comment le portail peut fournir un environnement fiable pour accéder à de vastes ensembles de données, fournir des algorithmes et des métriques de validation, même dans le cas de plusieurs méthodes photo-zs. Il est possible de conserver la provenance entre les plus » étapes d'une chaîne de workflows tout en assurant la reproductibilité des résultats. Nous illustrons comment le portail peut être utilisé pour fournir des estimations photo-z en utilisant les données DES de première année (Y1A1). Enfin, alors que la collaboration DES développe encore des techniques pour obtenir des photo-z plus précis, disposer d'un cadre structuré comme celui présenté ici est essentiel pour la vérification systématique des améliorations algorithmiques du DES et la production cohérente de photo-z dans les futures versions de DES. « moins

Formats de citation

Ouvrages référençant / citant cette notice :


1. INTRODUCTION

Les amas de galaxies sont des traceurs idéaux des plus grandes fluctuations de densité de l'univers, et leur abondance (et son évolution avec le temps cosmique) peut être utilisée pour imposer des contraintes à la cosmologie (par exemple, Eke et al. 1996). Ils fournissent également des laboratoires idéaux pour étudier l'évolution des galaxies. Initialement utilisées de cette manière car elles contiennent un grand nombre de galaxies toutes au même endroit, il est depuis devenu clair que les propriétés de leurs galaxies membres sont nettement différentes de celles des galaxies du champ général (par exemple, Dressler 1980 Balogh et al. 1999 Ellingson et al. 2001), ce qui implique que les mécanismes qui tronquent la formation d'étoiles et transforment la morphologie des galaxies opèrent à l'échelle des amas (par exemple, Treu et al. 2003, et les références y figurant).

La construction de grands échantillons bien définis d'amas de galaxies a une histoire longue et variée. Les premières recherches systématiques impliquaient l'identification visuelle des surdensités de galaxies optiques sur des plaques photographiques (Abell 1958 Abell et al. 1989). Dans les années 1970, avec l'avènement des télescopes à rayons X au-dessus de l'atmosphère terrestre, la sélection d'amas à partir de leur émission étendue de rayons X a été privilégiée (Mitchell et al. 1976 Serlemitsos et al. 1977). Récemment, une combinaison de détecteurs CCD grand format et d'algorithmes objectifs pour rechercher efficacement des signatures d'amas de galaxies a conduit à un renouveau de l'utilisation de la sélection optique dans les études d'amas (Postman et al. 1996 Kepner et al. 1999 Gal et al. 2000 Gladders & Yee 2000 Gilbank et al. 2004). Diverses techniques ont été suggérées pour exploiter la luminosité et/ou la distribution des couleurs attendues des galaxies dans les amas. Le gros avantage de ces enquêtes par rapport aux recherches visuelles plus anciennes est que la méthode de détection pourrait être automatisée et caractérisée, ce qui signifie que la fonction de sélection de l'enquête pourrait être quantifiée. La méthode la plus efficace est sans doute celle de Gladders & Yee (2000) qui utilise le fait que les noyaux des amas de galaxies sont dominés par des galaxies avec de vieilles populations stellaires, formant une séquence rouge serrée dans l'espace de magnitude de couleur (Visvanathan 1978 Bower et al. 1992 ). Un certain nombre d'autres réalisations d'algorithmes de recherche de clusters basés sur la séquence rouge existent (par exemple, Koester et al. 2007) différant dans certains détails mais reposant toutes sur des couleurs précises provenant de l'imagerie dans deux filtres ou plus. La couleur observée de cette séquence fournit une estimation précise de la distance. L'application de cette méthode a conduit à la construction du premier Red-sequence Cluster Survey (RCS-1 Gladders & Yee 2005), un levé d'imagerie à 72 deg 2 en deux bandes (RC et z') conçu pour localiser les amas de galaxies à partir de 0,2 z 1.1 en utilisant la technique de Gladders & Yee (2000).

Non seulement la sélection optique des amas de galaxies connaît un renouveau, mais l'astronomie en général entre dans une ère de « science des relevés » où un nombre sans précédent de relevés optiques (et NIR) à grand champ sont actuellement en cours ou prévus, tels que le LSST (LSST Science Collaborations et al. 2009), Pan-STARRS 5 , UKIDSS (Lawrence et al. 2007) et DES. 6 En outre, bon nombre de ces relevés optiques à grand champ ciblent spécifiquement les zones étudiées pour les grappes à l'aide d'autres méthodes, telles que le Blanco Cosmology Survey (High et al. 2010) du South Pole Telescope (SPT Carlstrom et al. 2009) Enquête en grappes sélectionnée par effet Sunyaev–Zel'dovich (SZ). Pour les enquêtes utilisant d'autres méthodes (telles que la sélection SZ), les données optiques sont essentielles pour la vérification des candidats de cluster trouvés et pour la détermination des redshifts photométriques. De plus, l'étude des mêmes zones avec plusieurs techniques permet des comparaisons importantes des différents effets de sélection et des propriétés résultantes des grappes trouvées (par exemple, Donahue et al. 2001 Gilbank et al. 2004 Rasmussen et al. 2006).

Dans cet article, nous décrivons la deuxième enquête en grappes à séquence rouge (RCS-2), la plus grande enquête de cette nouvelle génération pour laquelle l'imagerie a déjà été réalisée. Ceci s'appuie sur la méthodologie du RCS-1. La collaboration RCS a investi beaucoup de travail pour tenter de caractériser la fonction de sélection et les propriétés des clusters sélectionnés avec cette technique. Bon nombre de ces résultats sont directement applicables au RCS-2 (tels que les étalonnages masse-richesse) et il est donc utile de résumer certains des travaux du RCS à ce jour.

L'efficacité de la méthode de sélection employée par les enquêtes de séquence rouge est qu'elle peut localiser et estimer les décalages vers le rouge des grappes en utilisant uniquement des données d'une seule couleur (deux filtres), compte tenu du choix approprié de filtres. Il n'est pas pratique d'obtenir des estimations de masse à partir d'observations de suivi de la

30 000 grappes qui seront trouvées dans RCS-2, donc les données d'enquête elles-mêmes doivent être utilisées pour produire une approximation de la masse des grappes. Des échantillons significatifs et représentatifs de grappes de RCS-1 ont été suivis à l'aide d'une variété d'estimateurs de masse tels que dynamique (Gilbank et al. 2007 DG Gilbank et al. 2011, en préparation), X-ray (Hicks et al. 2008) , lentilles fortes et faibles (provenant d'un programme d'instantanés ACS, PI : Loh ACS SNe Cosmology project, PI : Perlmutter) et observations SZ. De cette façon, la relation entre notre proxy de masse (richesse optique à partir des données de l'enquête) et la masse de l'amas peut être comprise.

L'un des principaux objectifs de RCS-1 était d'imposer des contraintes sur les paramètres cosmologiques (ΩM,8 Gladders et al. 2007) via la croissance de la fonction de masse d'amas. Cela a démontré pour la première fois la faisabilité d'une telle approche en utilisant un échantillon de grappes sélectionné optiquement. Cette approche a utilisé la relation mesurée entre la masse et la richesse, mais a également montré que des contraintes significatives pouvaient être obtenues en utilisant une technique d'auto-étalonnage (Majumdar & Mohr 2004) pour estimer la forme de cette relation à partir des données d'enquête elles-mêmes. Ces auteurs démontrent que les meilleures contraintes sont obtenues lorsque des estimations de masse précises sont disponibles pour un sous-échantillon de grappes au sein de l'enquête. Il convient de souligner que même s'il existe une dispersion significative dans la relation entre la masse et le proxy (comme nous l'avons trouvé pour la richesse optique), il est seulement important que la taille de la dispersion soit bien comprise. Avec un ordre de grandeur plus grand que RCS-1, il devient possible de contraindre également l'équation d'état de l'énergie noire, w (Majumdar & Mohr 2004), et c'est en partie la motivation pour RCS-2. RCS-1 a également produit un échantillon significatif d'arcs à lentilles fortement gravitationnelles autour des amas trouvés. Le nombre et la distribution du décalage vers le rouge de ces amas de lentilles ont été utilisés pour discuter des propriétés physiques des amas responsables de leur section efficace de lentilles et de la pertinence de tels systèmes pour contraindre la cosmologie (Gladders et al. 2003). L'identification d'une telle luminosité de surface élevée et de galaxies fortement lentilles est un autre moteur scientifique principal pour RCS-2. Les amas massifs peuvent être utilisés comme télescopes gravitationnels pour étudier les galaxies à décalage vers le rouge élevé (par exemple, Pettini et al. 2000 Wuyts et al. 2010) qui seraient autrement trop faibles pour être observées en détail. Les arcs géants peuvent également être utilisés comme sondes des propriétés des lentilles de cluster elles-mêmes.

Avec un échantillon statistique d'amas de galaxies, comme dans RCS-1, il est possible d'étudier les propriétés de leurs galaxies membres (par exemple, leurs fonctions de luminosité et leurs fractions bleues) en empilant des sous-échantillons construits à partir des données d'enquête elles-mêmes (Gilbank et al. 2008 Loh et al. 2008). Avec l'ordre de grandeur plus grand du RCS-2, il devient possible de mesurer des tendances beaucoup plus faibles et de pousser les mesures des amas de galaxies jusqu'à des surdensités beaucoup plus faibles. L'ajout de redshifts photométriques (par exemple, Hsieh et al. 2005) permettra d'étendre ces techniques à l'environnement de terrain. De telles études sur l'évolution des galaxies seront explorées dans des travaux futurs avec RCS-2.

Le plan de cet article est le suivant. Dans la section 2, nous donnons un aperçu de la conception et des observations de l'enquête. Les sections 3 et 4 traitent du pré-traitement CCD, de la réduction, de la détection d'objets et de la photométrie. 6 décrit la procédure et la précision de l'étalonnage astrométrique. Les sections 7 et 8 décrivent l'incorporation de données supplémentaires dans nos principaux catalogues RCS-2 : je-bande de données qui couvre une grande (

70%) sous-échantillon du primaire g, r, z zone d'enquête et les données d'imagerie publique de l'enquête CFHTLS-Wide, respectivement. La section 9 décrit le nettoyage final des catalogues photométriques : assemblage en patchs contigus, suppression des données en double entre les pointages qui se chevauchent et masquage des artefacts. La section 10 résume et décrit les travaux en cours et futurs de l'enquête.


La vue céleste d'un vaisseau relativiste : partie 2

Dans mon article précédent, j'ai décrit l'apparence visuelle du ciel étoilé pour un observateur se déplaçant à une fraction substantielle de la vitesse de la lumière, par exemple à bord d'un statoréacteur interstellaire Bussard en état de marche, comme celui illustré ci-dessus.

Je vais récapituler la terminologie que j'ai établie dans ce post, qui vient de la relativité restreinte. Nous appelons le point de vue d'un observateur qui est effectivement stationnaire par rapport aux étoiles distantes le « cadre de repos ». Le “cadre mobile” est, comme vous pouvez le deviner, le point de vue d'un observateur qui se déplace avec une vitesse appréciable par rapport au cadre de repos. Cette vitesse relative est donnée comme une fraction de la vitesse de la lumière, et symbolisée par (beta).

Pour l'observateur voyageur, l'aberration de la lumière provoque un décalage de la position apparente des étoiles, les déplaçant à travers le ciel vers la direction du voyage. L'angle pertinent est l'angle entre la direction du voyage et l'emplacement de l'étoile, symbolisé par (thêta) dans le cadre de repos, que l'aberration convertit en un angle plus petit, , dans le cadre en mouvement.

Si une sphère d'étoiles entoure un observateur de cadre de repos, comme ceci :

il sera transformé en un ellipsoïde pour un observateur se déplaçant au même endroit à la moitié de la vitesse de la lumière, chaque étoile étant décalée parallèlement à la ligne de vol :

et dans un ellipsoïde encore plus étiré à 85 % de la vitesse de la lumière :

C'est donc une aberration. L'autre phénomène important à traiter est le décalage Doppler.

DOPPLER RELATIVISTE

Comme l'aberration, l'effet Doppler (du nom du physicien Christian Doppler) est quelque chose qui devrait être familier de la vie quotidienne. La sirène d'une voiture de police ou d'une ambulance sonne plus aiguë à l'approche qu'à l'éloignement. La distance entre les fronts d'onde successifs du son est réduite par la vitesse du véhicule vers nous, puis augmentée par sa vitesse de récession. Lorsque le véhicule nous dépasse, il y a un moment où nous sommes à 90º de sa ligne de déplacement et nous entendons le son de la sirène avec exactement la fréquence à laquelle elle a été émise.

La même chose se produit avec les ondes lumineuses : la lumière d'un objet qui s'approche est décalée vers l'extrémité bleue du spectre à haute fréquence (un « décalage vers le bleu » 8221), tandis que la lumière d'un objet qui s'éloigne est décalée dans l'autre sens ( “décalage rouge”). Mais (comme pour l'aberration lumineuse), nous ne pouvons pas utiliser la même géométrie simple pour prédire le comportement de la lumière - la relativité spéciale s'impose à nouveau. Cette fois, nous devons tenir compte du fait qu'un observateur en mouvement mesure le temps comme s'écoulant plus lentement dans le cadre de repos. Un observateur à bord d'un vaisseau spatial à grande vitesse ne ne pas voir la couleur originale de la lumière d'une étoile qui est à 90º jusqu'à la ligne de vol du vaisseau spatial. Le ralentissement des horloges prédit par la relativité restreinte signifie que la lumière de l'étoile est décalée vers le rouge dans cette position (ce qu'on appelle le « Doppler transverse »), et la frontière entre le décalage rouge et le décalage bleu se situe toujours un peu en avant. du vaisseau spatial.

Ce que nous devons calculer, c'est le facteur Doppler relativiste, qui est symbolisé de diverses manières par différents auteurs. Je vais utiliser le symbole η (eta). Eta est le facteur de multiplication de la fréquence de la lumière observée — si η>1, la lumière est décalée vers le bleu si η<1, la lumière est décalée vers le rouge. Lorsque =1, la lumière est reçue à la même fréquence à laquelle elle a été émise.

La valeur de dépend des deux variables β (la vitesse de l'observateur en mouvement en tant que fraction de la vitesse de la lumière) et θ′ (l'angle dans le ciel du vaisseau spatial entre la direction du vol et l'objet observé) .

Voici un graphique montrant comment η varie entre θ′=0º (tout en avant) et θ′=180º (tout en arrière), pour trois valeurs différentes de :

Nous pouvons voir que, comme prévu, il y a toujours un décalage vers le rouge à la position 90º (Doppler transversal dû à la dilatation relativiste du temps). Et le point dans le ciel auquel le décalage rouge passe au décalage bleu est progressivement plus avancé pour des valeurs plus élevées de - plus le vaisseau spatial vole vite, plus la région en avant dans laquelle le décalage bleu se produit est petite. Mais plus le navire se déplace rapidement, plus les objets vers le bleu sont fortement décalés vers le bleu et plus les objets vers l'arrière sont fortement décalés vers le rouge. En fait, il existe une relation inverse précise : si la fréquence de la lumière venant de l'avant est doublée, la fréquence de la lumière venant de l'arrière est réduite de moitié.

C'est donc la situation telle qu'on la voit dans le ciel du vaisseau spatial à grande vitesse, qui est déformée par les effets de l'aberration. Mais il est instructif de convertir de θ′ en θ (l'angle correspondant dans le cadre de repos). Voici la relation entre η et pour les trois mêmes valeurs de β :

Bien que la région décalée vers le bleu vu du vaisseau spatial devient plus petit à mesure que la vitesse augmente, il comprend en fait des régions du ciel de plus en plus grandes, comme on le voit depuis le cadre de repos. En fait, il existe une autre belle symétrie : l'angle auquel =1 dans le repère mobile se convertit en θ = 180º – θ′ dans le repère de repos.

Voici la proportion de ciel (par zone) affectée par le décalage bleu, pour le cadre mobile (ligne continue) et le cadre de repos (ligne pointillée). Il pourrait tout aussi bien représenter les proportions décalées vers le rouge, avec le cadre mobile en pointillé et le cadre de repos plein.

Ainsi, avec l'augmentation de la vitesse, l'aberration déplace de plus en plus d'étoiles dans la région avant décalée vers le bleu, même si cette région décalée vers le bleu diminue. Voici le diagramme des effets d'aberration que j'ai utilisé dans mon article précédent, sauf cette fois avec les régions de décalage rouge et bleu marquées dessus :

Nous pouvons voir qu'avec l'augmentation de la vitesse, les étoiles se croisent continuellement depuis l'arrière du vaisseau spatial pour entrer dans la région décalée vers le bleu en avant. A la limite de vitesse de la lumière, le ciel entier se retrouve dans la zone décalée vers le bleu vers l'avant, qui s'est rétrécie à un point sans dimension juste devant.

Et voici quelques “trajectoires Doppler” pour les étoiles à divers endroits dans le cadre de repos :

Les marqueurs de ligne sont pour les mêmes valeurs de β le long de chaque trajectoire. Pour indiquer leur signification, je les ai tagués avec un petit “c“, le symbole conventionnel de la vitesse de la lumière, mais je n'ai étiqueté que les courbes 90º et 170º, pour éviter l'encombrement visuel. Nous pouvons voir qu'une étoile qui est dans la position =90º est immédiatement incorporée dans la région décalée vers le bleu du cadre mobile. Au fur et à mesure que β augmente, il avance plus loin dans le ciel du vaisseau spatial et devient de plus en plus décalé vers le bleu. Mais une étoile à =170º, proche d'être à l'arrière de notre vaisseau spatial, nécessite une vitesse très élevée pour l'amener dans la position =90º, puis une vitesse encore plus grande avant qu'elle ne se déplace dans le (maintenant très petit) bleu- région déplacée en avant. Et notez que pour chaque étoile, le décalage vers le rouge maximum se produit lorsqu'elle passe par θ′=90º.

Maintenant, il existe une relation très satisfaisante entre η et les ellipsoïdes d'aberration que j'ai dérivés dans le post précédent et reproduits en haut de celui-ci. Si un objet a une distance r dans le repère de repos, il a une distance r′=ηr dans le repère mobile. Par exemple, si un objet apparaît deux fois plus éloigné en raison d'une aberration, sa lumière sera décalée vers le bleu à deux fois la fréquence.

Ainsi, nous pouvons immédiatement marquer les ellipsoïdes d'aberration avec une indication de décalage vers le rouge et le bleu. Les parties des ellipsoïdes qui tombent à l'intérieur la sphère d'étoiles observée dans le repère de repos doit être décalée vers le rouge, car r′<r, et donc η<1. Et les parties qui tombent dehors la sphère doit être décalée vers le bleu, car r′>r, et donc η>1.

C'est chouette, n'est-ce pas ? Remarquez comment l'ellipsoïde plus long produit par une plus grande vitesse a moins d'étoiles décalées vers le rouge dans la vue arrière. Remarquez la flèche rouge la plus haute, qui montre une étoile qui est décalée vers le rouge à la moitié de la vitesse de la lumière, mais qui devient décalée vers le bleu à 85% de la vitesse de la lumière. Et notez que toutes les étoiles en arrière sont au plus près (et, nous le savons maintenant, les plus décalées vers le rouge) lorsqu'elles passent par la position 90º, les étoiles les plus à l'arrière passant nécessairement le plus près de toutes et donc connaissant le plus grand décalage vers le rouge. . Tout tient ensemble.

Et parce que la distance apparente d'un objet est proportionnelle à , son diamètre apparent est inversement proportionnel à , et son aire angulaire est proportionnelle à 1/η². La valeur s'avère être la clé de beaucoup de choses sur l'apparence du ciel de notre vaisseau spatial à grande vitesse.

Il y en aura plus à ce sujet la prochaine fois, quand je traiterai de la façon dont l'apparence visuelle des étoiles est modifiée par le décalage bleu ou rouge.

Notes mathématiques

La relation entre le facteur Doppler relativiste η, la vitesse et les angles de vue (repos) et θ′ (mobile) est :


Relation entre couleur photométrique et redshift, deuxième partie - Astronomie

Un cas particulier d'analyse des SED de sources extragalactiques est le problème de l'estimation du décalage vers le rouge, un sujet généralement appelé décalages vers le rouge photométriques (ci-après photo-z). Ce problème est distinct de toutes les autres estimations de propriétés physiques car des mesures indépendantes et plus précises de la même propriété sont disponibles pour de grands échantillons sous la forme de décalages vers le rouge spectroscopiques. La méthode peut ainsi être largement testée et même calibrée empiriquement. C'est également l'une des premières formes d'ajustement SED, ayant été suggérée comme un moyen d'aller au-delà des limites de la spectroscopie précoce (Baum 1957).

Pour une définition de travail, Koo (1999) suggère ce qui suit : « les décalages vers le rouge photométriques sont ceux dérivés de seul images ou photométrie avec résolution spectrale / 20. Ce choix de 20 est destiné à exclure les décalages vers le rouge dérivés des spectres à fente et sans fente, images à bande étroite, imageur à filtre en rampe, images Fabry-Pérot, spectromètres à transformée de Fourier, etc. pour une grande variété d'approches qui sont activement explorées par les membres de la communauté. Alors qu'aujourd'hui la plupart des études s'appuient sur un ensemble de grandeurs ou de couleurs, récemment d'autres observables ont été utilisées avec succès, par exemple dans les travaux de Wray et Gunn ( Cependant, toutes les méthodes dépendent de caractéristiques fortes dans les SED des objets, comme la cassure de Balmer ou encore les caractéristiques PAH (Negrello et al. 2009).

Traditionnellement, l'estimation photométrique du décalage vers le rouge est largement divisée en deux domaines : les méthodes empiriques et l'approche d'ajustement de modèle. Les méthodes empiriques utilisent un sous-échantillon du relevé photométrique avec des décalages vers le rouge mesurés par spectroscopie comme « ensemble d'apprentissage » pour les estimateurs du décalage vers le rouge. Ce sous-échantillon décrit empiriquement la distribution du décalage vers le rouge en amplitude et en espace colorimétrique et est ensuite utilisé pour calibrer cette relation. Les méthodes de modèles utilisent des bibliothèques de spectres observés de galaxies extérieures au relevé ou de modèles SED (comme décrit dans la section 2). Comme il s'agit de spectres complets, les modèles peuvent être déplacés vers n'importe quel redshift, puis convolués avec les courbes de transmission des filtres utilisés dans le levé photométrique pour créer le jeu de modèles pour les estimateurs de redshift.

Les deux méthodes utilisent ensuite ces ensembles d'apprentissage comme bases pour les routines d'estimation du décalage vers le rouge, qui incluent l'ajustement 2 et divers algorithmes d'apprentissage automatique (par exemple, les réseaux de neurones artificiels, les ANN). Les combinaisons les plus populaires sont le 2-ajustement avec des modèles et l'apprentissage automatique avec des modèles empiriques. Pour un examen des idées et de l'histoire des deux domaines, voir Koo (1999).

La préférence de l'un par rapport à l'autre est motivée par les limites de notre compréhension des sources et des observations disponibles. Les modèles de modèles sont préférés lors de l'exploration de nouveaux régimes car leur extrapolation est triviale, si elle est potentiellement incorrecte. Les modèles empiriques sont préférés lorsque de grands ensembles d'apprentissage sont disponibles et qu'une grande précision statistique est requise. Ici, nous passons en revue ces techniques et estimateurs, en nous concentrant principalement sur la méthode du modèle qui est plus proche de l'idée d'ajustement SED comme discuté dans la section précédente.

Très tôt, les premières méthodes empiriques se sont révélées extrêmement puissantes malgré leur simplicité (voir par exemple Connolly et al. 1995a, Brunner et al. 1997, Wang et al. 1998). Cela était en partie dû à leur construction, qui devrait fournir à la fois des décalages vers le rouge précis et des estimations réalistes des incertitudes du décalage vers le rouge. Même les fonctions d'ajustement polynomial d'ordre faible et linéaire par morceaux font un travail raisonnable lorsqu'elles sont réglées pour reproduire les décalages vers le rouge des galaxies (voir par exemple Connolly et al. 1995a). Ces premières méthodes ont fourni des estimations de redshift supérieures par rapport à l'ajustement de modèle pour un certain nombre de raisons. De par leur conception, les ensembles d'apprentissage sont de véritables galaxies et ne souffrent donc d'aucune incertitude quant à la précision des modèles. De même que les galaxies sont un sous-échantillon de l'enquête, la méthode inclut intrinsèquement les effets des filtres passe-bande et des étalonnages de flux

L'un des principaux inconvénients de cette méthode est que l'estimation du décalage vers le rouge n'est précise que lorsque les objets de l'ensemble d'apprentissage ont les mêmes observables que les sources en question. Ainsi, cette méthode devient beaucoup plus incertaine lorsqu'elle est utilisée pour des objets à des magnitudes plus faibles que l'ensemble d'apprentissage, car cela peut extrapoler les étalonnages empiriques en redshift ou d'autres propriétés. Cela signifie également que, dans la pratique, chaque fois qu'un nouveau catalogue est créé, un ensemble de formation correspondant doit être compilé.

L'autre limitation, liée, est que l'ensemble d'apprentissage doit être suffisamment grand pour que l'espace nécessaire dans les couleurs, les magnitudes, les types de galaxies et les redshifts soit bien couvert. En effet, les calibrations et les incertitudes correspondantes sont bien connues et seules des extrapolations limitées au-delà du lieu observé dans l'espace couleur-amplitude sont nécessaires.

Les estimateurs les plus simples et les plus anciens étaient l'ajustement linéaire et polynomial, où des ajustements simples de l'ensemble d'apprentissage empirique en termes de couleurs et de magnitudes avec décalage vers le rouge ont été obtenus (voir par exemple Connolly et al. 1995a). Ceux-ci pourraient ensuite être appariés à l'échantillon complet, donnant directement les décalages vers le rouge et leurs incertitudes pour les galaxies. Depuis lors, des algorithmes plus intensifs en calculs ont été utilisés, tels que la classification par arbre de décision oblique, les forêts aléatoires, les machines à vecteurs de support, les réseaux de neurones, la régression de processus gaussien, la régression du noyau et même de nombreux algorithmes heuristiques homebrew.

Ces algorithmes fonctionnent tous sur l'idée d'utiliser l'ensemble d'apprentissage empirique pour établir une relation complète entre les magnitudes et/ou les couleurs et le décalage vers le rouge. Comme chaque paramètre individuel (disons le B - V color) auront une certaine diffusion avec le redshift, ceux-ci donnent des distributions ou des valeurs probabilistes pour le redshift, rétrécies avec chaque paramètre supplémentaire. Ce processus, en termes de réseaux de neurones artificiels, est bien décrit par Collister et Lahav (2004), qui utilisent cette méthode dans leurs photos accessibles au public.z code ANNz (décrit dans le même article). Ils discutent également des limites et des incertitudes qui découlent de cette méthodologie.

Les algorithmes d'apprentissage automatique (dont les réseaux de neurones font partie) sont l'une des forces de la méthode empirique. Ces méthodes sont capables de déterminer les corrélations amplitude/couleur et redshift à un degré surprenant, peuvent gérer les ensembles d'apprentissage de plus en plus grands (c'est-à-dire SDSS) et renvoyer des estimations probabilistes fortes (c'est-à-dire des incertitudes bien contraintes, voir figure 16) sur les redshifts et al. 2008a pour une description des algorithmes d'apprentissage automatique disponibles et de la forte photo-z contraintes possibles). En outre, les algorithmes d'apprentissage automatique sont également capables de gérer les ensembles de données à l'échelle téra désormais disponibles pour la photo-z détermination rapide, limitée uniquement par la vitesse du processeur et l'efficacité de l'algorithme (Ball et al. 2008b).

L'avantage supplémentaire de la méthode empirique avec l'apprentissage automatique, maintenant de plus en plus utilisée, est que les entrées contraignantes pour la photo-zs ne sont pas limités aux galaxies SED. Suggérées d'abord par Koo (1999), des propriétés telles que le rapport du renflement au flux total (par exemple Sarajedini et al. 1999), la luminosité de la surface (par exemple Kurtz et al. 2007), les rayons pétrosiens (par exemple Firth et al. 2003) , et l'indice de concentration (par exemple Collister et Lahav 2004) ont tous été utilisés en association avec les magnitudes et les couleurs pour contraindre le décalage vers le rouge, certains codes rassemblant même beaucoup d'entre eux (par exemple Wray et Gunn 2008).

Contrairement à la méthode empirique, la méthode basée sur des modèles est en fait une forme d'ajustement SED au sens de cette revue (voir par exemple Koo 1985, Lanzetta et al. 1996, Gwyn et Hartwick 1996, Pello et al. 1996, Sawicki et al. 1997). En termes simples, cette méthode consiste à créer une bibliothèque de modèles observés (Coleman et al. 1980 est un ensemble couramment utilisé) et/ou de modèles (tels que Bruzual et Charlot 2003) pour de nombreux redshifts, et à les faire correspondre aux SED observés pour estimer le décalage vers le rouge. Comme les modèles sont des SED ou des spectres « complets », l'extrapolation avec la méthode d'ajustement du modèle est triviale, si elle est potentiellement incorrecte. Ainsi, les modèles de modèle sont préférés lors de l'exploration de nouveaux régimes dans un levé, ou avec de nouveaux levés sans un grand ensemble d'étalonnage spectroscopique complémentaire. Un avantage supplémentaire majeur de la méthode des modèles, en particulier avec les modèles théoriques, est que l'obtention d'informations supplémentaires, en plus du décalage vers le rouge, sur les propriétés physiques des objets fait partie intégrante du processus (comme discuté dans la section 4.1). Notez cependant que même des méthodes purement empiriques peuvent prédire certaines de ces propriétés si un ensemble d'apprentissage approprié est disponible (voir par exemple Ball et al. 2004).

Cependant, comme les méthodes empiriques, l'ajustement des modèles souffre de plusieurs problèmes, le plus important étant les décalages entre les modèles et les galaxies de l'enquête. Comme indiqué dans la section 2, les modèles de modèles, bien que bons, ne sont pas précis à 100 %, et ces discordances de couleurs modèle-galaxie peuvent entraîner des erreurs systématiques dans l'estimation du décalage vers le rouge. Les modèles SED sont également affectés par des modificateurs qui ne sont pas directement liés aux modèles tels que la contribution des raies d'émission, le rougissement dû à la poussière, mais aussi AGN, qui nécessitent des modèles très différents (voir par exemple Polletta et al. 2007).

Il est également important de s'assurer que le jeu de modèles est complet, c'est-à-dire que les modèles utilisés représentent toutes, ou au moins la majorité, des galaxies trouvées dans l'étude (comparer également la section 4.5.2). Cela est particulièrement vrai lors de l'utilisation de modèles empiriques, car ceux-ci sont généralement limités en nombre. Les modèles empiriques sont également souvent dérivés d'objets locaux et peuvent donc être intrinsèquement différents des galaxies lointaines, qui peuvent être à des stades d'évolution différents. Un grand ensemble de modèles est également important pour évaluer les problèmes de dégénérescence, c'est-à-dire où la bibliothèque de modèles peut donner deux décalages vers le rouge différents pour les mêmes couleurs d'entrée. Un autre inconvénient potentiel des méthodes d'ajustement de modèle vient de leur sensibilité à de nombreuses autres mesures jusqu'au niveau du pourcentage, par exemple, les profils de bande passante et les étalonnages photométriques de l'enquête.

Pour les implémentations de l'ajustement de gabarit, la méthode du maximum de vraisemblance est prédominante. Cela implique généralement la comparaison des magnitudes observées avec les magnitudes dérivées des modèles à différents décalages vers le rouge, en trouvant la correspondance qui minimise le 2 (comparer la section 4.5). Ce qui est renvoyé est le redshift et le modèle les mieux adaptés (minimum 2 ) (ou modèle + modificateurs comme l'atténuation de la poussière). En soi, cette méthode ne donne pas d'incertitudes sur le redshift, ne renvoyant que le meilleur ajustement. Pour les estimations des incertitudes dans le décalage vers le rouge, un processus typique consiste à se propager à travers les incertitudes photométriques, pour déterminer quelle est la plage de décalages vers le rouge possible au sein de ces incertitudes. Une bonne description de la méthode du maximum de vraisemblance d'ajustement de modèle peut être trouvée dans la description de la photo accessible au public.z code, hyperz dans Bolzonella et al. (2000).

Comme mentionné ci-dessus, l'un des problèmes des modèles est la possibilité d'un modèle incomplet, c'est-à-dire de ne pas avoir suffisamment de modèles pour décrire les galaxies de l'échantillon. D'un autre côté, avoir trop de galaxies dans la bibliothèque de modèles peut entraîner des dégénérescences de décalage vers le rouge. Une façon de surmonter ces problèmes est l'inférence bayésienne : l'inclusion de nos connaissances antérieures (voir la section 4.5), telles que l'évolution de la limite d'âge supérieure avec le redshift, ou la forme attendue des distributions de redshift, ou l'évolution attendue de la fractions de type galaxie. Comme décrit dans la section 4.5, cela a l'avantage supplémentaire de renvoyer une fonction de distribution de probabilité, et donc une estimation des incertitudes et des dégénérescences. À certains égards, en s'attendant à ce que la bibliothèque de modèles s'adapte à toutes les galaxies observées dans un relevé, la méthode des modèles elle-même est déjà bayésienne. De telles méthodes sont utilisées dans le code BPZ de Ben&# 237tez (2000), qui décrit dans ce travail la méthodologie de l'inférence bayésienne en ce qui concerne la photo-z, l'utilisation de priors et comment cette méthode est capable d'estimer l'incertitude du redshift résultant.

Il convient de noter que, bien que les codes publics préemballés puissent fournir des estimations raisonnables pour certains types de sources, aucune analyse ne devrait se poursuivre sans validation croisée et tracés de diagnostic. Il existe des problèmes communs qui apparaissent dans les ensembles de données et des problèmes qui doivent d'abord être compris et contournés, si possible (voir par exemple Mandelbaum et al. 2005 pour une comparaison de certaines photos publiques).z codes). Quelques autres photos publiques-z les codes incluent kphotoz (Blanton et al. 2003), ZEBRA (Feldmann et al. 2006) et Le Phare (Arnouts et al. 1999, Ilbert et al. 2006, Ilbert et al. 2009a).

Les erreurs de redshift sont en fin de compte basées sur les données : elles évoluent généralement avec 1+z étant donné la résolution de longueur d'onde constante de la plupart des ensembles de filtres, ils s'adaptent également à l'erreur photométrique dans un régime de transition entre

20%. Les erreurs plus petites ne sont souvent pas exploitées en raison des disparités entre les données et le modèle résultant de l'étalonnage des données et du choix des modèles, tandis que les erreurs importantes se traduisent de manière non linéaire par de faibles contraintes de décalage vers le rouge. Si une résolution de bande moyenne est disponible, les QSO montrent de fortes raies d'émission et conduisent à des photos plus profondes.z complétude pour les QSO que pour les galaxies.

Les décalages vers le rouge photométriques ont des limites qu'ils partagent avec les décalages spectroscopiques, et certains leur sont propres : comme en spectroscopie, des valeurs aberrantes catastrophiques peuvent résulter de la confusion des caractéristiques, et l'exhaustivité dépend du type et de la magnitude SED. Deux photo caractéristiques-z les problèmes sont des biais moyens dans l'estimation du décalage vers le rouge et une dispersion importante et/ou mal déterminée dans les erreurs de décalage vers le rouge. Les valeurs aberrantes catastrophiques résultent d'ambiguïtés dans l'espace colorimétrique : elles sont soit apparentes dans le modèle et permettent de signaler des objets comme incertains, soit ne sont pas visibles dans le modèle mais présentes dans la réalité, auquel cas la grande erreur est inévitable même pour les sources non signalées. Les modèles empiriques peuvent être trop petits pour montrer des ambiguïtés locales avec des rapports de densité élevés, et les modèles modèles peuvent manquer de certains SED présents dans l'Univers réel.

Les remèdes à ces problèmes incluent l'ajout de données plus discriminantes, l'amélioration de la correspondance entre les données et les modèles ainsi que les a priori des modèles, et en prenant soin de mesurer correctement la photométrie et ses erreurs en premier lieu. Photo-z les erreurs dans les enquêtes à large bande semblent limitées à une résolution de décalage vers le rouge proche de 0,02 × (1 + z), résultat d'une résolution spectrale limitée et d'une variété intrinsèque des propriétés spectrales. Les fonctions de traçage avec une résolution plus élevée augmentent la précision du décalage vers le rouge jusqu'à la spectroscopie réelle. Travail futur entre photo-z les développeurs se concentreront probablement sur deux domaines : (i) Comprendre la diversité des codes et affiner leurs performances et (ii) Décrire la photo-z questions quantitatives telles que les exigences de performance et de valeur scientifique peuvent être traduites en exigences pour les données photométriques, pour les propriétés des modèles et pour la sortie des codes.

En général, les photos basées sur des modèlesz les estimations dépendent de manière sensible de l'ensemble de modèles utilisés. En particulier, il a été constaté qu'une meilleure photo-z les estimations peuvent être obtenues avec un ensemble empirique de modèles (par exemple Coleman et al. 1980, Kinney et al. 1996) plutôt que d'utiliser des modèles de synthèse de population stellaire (SPS, par exemple Bruzual et Charlot 2003, Maraston 2005 voir Section 2) directement. Pourtant, ce sont les modèles qui sont couramment utilisés pour calculer les masses stellaires des galaxies. Étant donné que l'utilisation de ces modèles ne donne pas de très bons décalages vers le rouge photométriques, ce qui est généralement fait est de dériver d'abord les décalages vers le rouge photométriques à l'aide de modèles empiriques, puis d'estimer les masses stellaires avec les modèles SSP. Évidemment, ce n'est pas cohérent.

Pour enquêter sur les causes de la plus mauvaise photo-z estimations de modèles synthétiques, Oesch et al. (en prép.) ont utilisé les données photométriques dans 11 bandes de l'enquête COSMOS (Scoville et al. 2007), ainsi que les redshifts du suivi zCOSMOS (Lilly et al. 2007) et ont ajusté les données avec des modèles SSP. Dans les résidus de cadre de repos résultants, ils ont identifié une caractéristique remarquable autour de 3500 Å, où les modèles sont trop faibles par rapport aux données photométriques, ce qui peut être vu sur la figure 17. La caractéristique ne semble pas être causée par le continuum nébulaire ou l'émission de ligne, qu'ils ont ensuite ajoutés aux modèles SSP d'origine. De plus, tous les types de galaxies souffrent du même problème, indépendamment de leur taux de formation d'étoiles, de leur masse, de leur âge ou de leur teneur en poussière.

Des divergences similaires ont été trouvées précédemment par Wild et al. (2007), Walcher et al. (2008), qui a trouvé un

0.1 mag offset dans le Dm(4000) indice. Comme cette coupure spectrale est l'une des principales caractéristiques du spectre de toute galaxie, il est probable que la mauvaise photo-z les performances des modèles synthétiques sont dues à cet écart. La cause de l'écart a été identifiée comme un manque de couverture dans les bibliothèques stellaires synthétiques utilisées pour les modèles. Il y sera donc remédié dans la prochaine version de GALAXEV (G. Bruzual, comm. priv.).

L'un des principaux avantages de la méthode du modèle est que tout sous-échantillon spectroscopique d'une enquête peut être utilisé pour vérifier la photo-déterminée par modèle.zs. Cela peut également être fait pour les méthodes empiriques, mais pour cela, un très grand échantillon spectroscopique est nécessaire de sorte qu'il puisse être divisé en un ensemble d'apprentissage et des ensembles de test suffisamment grands.

Avec l'existence d'un échantillon spectroscopique d'essai, il est alors possible de étalonner la bibliothèque de modèles, conduisant à une méthode combinée de modèles empiriques. Cela signifie corriger des erreurs dans l'étalonnage photométrique ou encore la correction des modèles eux-mêmes par exemple pour permettre l'évolution des galaxies avec une petite bibliothèque, ou pour tenir compte de modèles imprécis (voir section 2). Un tel étalonnage est typiquement un processus itératif, dans lequel la photométrie et/ou les modèles SED sont modifiés pour minimiser la dispersion dans les redshifts photométriques résultants.

Le type d'étalonnage le plus simple consiste à ajouter de petits décalages de point zéro à la photométrie uniformément sur l'échantillon. Cela n'implique pas que la photométrie est mal calibrée (bien qu'en pratique le calibrage absolu puisse très bien avoir de petites erreurs dans le point zéro), mais plutôt qu'il y a souvent un décalage entre les vrais SED des galaxies et les modèles utilisés pour les ajuster . L'étalonnage vise à minimiser ces différences. Tracer des diagrammes couleur-couleur ou couleur-décalage vers le rouge (figure 18) avec les modèles SED superposés indiquera souvent des décalages en vrac entre les deux.

Une approche plus instructive, cependant, consiste à calculer les résidus entre la magnitude prédite du modèle le mieux ajusté au décalage vers le rouge spectroscopique et la magnitude observée (pour plus de détails, voir Brodwin et al. 2006a, Brodwin et al. 2006b). Ces résidus peuvent être tracés en fonction de la couleur ou du décalage vers le rouge pour une puissance de diagnostic supplémentaire. Dans l'exemple de la figure 19, il semble y avoir un décalage de magnitude effective de 0,3 mags dans le H-bande.

L'application de tels ajustements de point zéro efficaces dans toutes les bandes dans un processus itératif minimise le décalage entre les données et les modèles, et minimise donc la dispersion de décalage vers le rouge photométrique résultante, comme le montre la figure 20.

De telles phases de calibration sont utilisées dans les travaux de Brodwin et al. (2006a) et comme « template-optimisation » dans les codes ZEBRA (Feldmann et al. 2006) et Le Phare (Ilbert et al. 2006, Ilbert et al. 2009a) qui utilisent un ajustement de gabarit avec des inférences bayésiennes et cette phase d'étalonnage pour donner les redshifts photométriques les plus précis possibles avec l'approche par gabarit.

Avec les redshifts photométriques les plus précis possibles, l'ajustement du modèle peut ensuite être utilisé pour estimer des propriétés physiques telles que les masses stellaires, les taux de formation d'étoiles, etc. (voir section 6).

Margoniner et Wittman (2008) ont spécifiquement étudié l'impact du rapport signal sur bruit (SN) photométrique sur la précision des redshifts photométriques dans les relevés d'imagerie multibande. En utilisant des simulations de relevés de galaxies avec des distributions de décalage vers le rouge (avec un pic à z

0.6) qui imite ce qui est attendu pour un levé d'imagerie profond (bande R 10-sigma = 24,5 magnitudes) tel que le Deep Lens Survey (Wittman et al. 2002) ils étudient l'effet de la dégradation du SN sur les redshifts photométriques déterminés par plusieurs codes accessibles au public (ANNz, BPZ, hyperz).

La figure 21 montre les résultats d'un ensemble de leurs simulations pour lesquelles ils ont dégradé la photométrie initialement parfaite pour abaisser successivement le SN. Dans ces simulations irréalistes, toutes les galaxies ont le même SN dans toutes les bandes. La figure montre la fraction cumulée d'objets avec z inférieur à une valeur donnée en fonction de z. Le panneau de gauche montre la fraction cumulée pour tous les objets, tandis que le panneau de droite montre les galaxies pour lesquelles la photo BPZz paramètre de qualité, CHANCES > 0.9. Le nombre de galaxies dans le panneau de droite devient progressivement plus petit que le nombre de gauche à mesure que le rapport signal/bruit diminue (64% de SN = 250, et seulement 6,4% de SN = 10 objets ont CHANCES > 0.9), mais la précision de la photo-zs est clairement mieux.

Les résultats de ce travail montrent (1) la nécessité d'inclure des erreurs photométriques réalistes lors de la prévision photo-zs performance (2) que l'estimation de la photo-zLes performances d'objets spectroscopiques à SN plus élevé conduiront à des résultats trop optimistes.

5.3. Un cadre unifié Le domaine des redshifts photométriques et l'estimation d'autres propriétés physiques ont été très pragmatiques. Son développement, depuis les premières tentatives, a été incrémental dans le sens où la plupart des études se sont concentrées sur le raffinement des composants mais en restant dans les concepts des idées originales des deux classes. Les approches empiriques et d'ajustement de modèles suivent aujourd'hui des voies très distinctes, ces classes de méthodes utilisant même des ensembles de mesures différents. Seule l'approche semi-empirique de l'étalonnage du point zéro se rapproche de lier les deux approches. Cependant, une étude récente de Budaví (2009a) tente de comprendre cette séparation et éventuellement de rapprocher ces méthodes en élaborant un cadre unifié pour une solution rigoureuse basée sur les premiers principes et les statistiques bayésiennes.

Ce travail commence par un ensemble minimal d'exigences : un ensemble d'apprentissage avec quelques observables photométriques X et des mesures spectroscopiques , et une requête ou un ensemble de tests avec un ensemble potentiellement différent d' observables oui. Le lien entre ceux-ci est un modèle M qui fournit la correspondance entre X et oui, la densité de probabilité p(X|oui, M). C'est plus que la simple formule de conversion habituelle entre les systèmes photométriques car elle intègre également les incertitudes.

La relation empirique de X - est souvent supposé être une fonction. Une meilleure approche consiste à le laisser général en mesurant la fonction de densité conditionnelle. Le moyen le plus simple est d'estimer la relation par les densités sur l'ensemble d'apprentissage comme p(|X) = p(, X) / p(X). Le résultat final n'est qu'une convolution du mappage et de la relation mesurée : p(|oui, M) = X p(|X)p(X|oui, M). Dans la figure 22, nous montrons les résultats de Budaví (2009a), où il trace la relation empirique (ligne bleue pointillée) et la densité de probabilité finale (rouge continu) pour une poignée de galaxies SDSS. Les panneaux supérieurs montrent des galaxies intrinsèquement rouges, dont les contraintes sont raisonnablement serrées jusqu'aux décalages vers le rouge les plus élevés. Les galaxies bleues dans les panneaux inférieurs s'aggravent cependant avec la distance comme prévu.

L'application susmentionnée suit une approche empirique minimaliste mais va déjà au-delà des méthodes traditionnelles. L'ajustement du modèle se situe à l'autre extrême du cadre où l'ensemble d'apprentissage est généré à partir du modèle à l'aide d'une grille. Sans erreurs sur les modèles, les équations se réduisent à l'estimation habituelle du maximum de vraisemblance actuellement utilisée par la plupart des codes. Une extension simple suggérée par Budavári (2009a) consiste à inclure des erreurs plus réalistes pour les modèles. De même, on peut développer des prédicteurs plus sophistiqués qui exploitent en même temps les ensembles d'apprentissage existants et les modèles de spectre.

En général, il existe un accord global sur la plupart des aspects des méthodologies photométriques de décalage vers le rouge, et même sur les aspects techniques. Cependant, des mesures de qualité et des procédures d'essai normalisées sont nécessaires. Il est important d'analyser les performances de chaque spectre de modèle en fonction du redshift. Pour ce faire, il est préférable de tracer la différence entre les magnitudes observées et celles basées sur des modèles. Ces chiffres peuvent identifier des problèmes avec les spectres et même les points zéro. Intrinsèquement, ce sont les quantités utilisées dans les procédures d'optimisation de modèle, par exemple, dans Budavári et al. (2000) et Feldmann et al. (2006).

Dans l'ajustement SED, l'interpolation entre les modèles est souvent utilisée, qui peut être effectuée de manière linéaire ou logarithmique. Ce dernier a l'avantage d'être indépendant de la normalisation des spectres. Pourtant, la plupart des codes semblent utiliser une interpolation linéaire sans une normalisation minutieuse. Cela pourrait expliquer certaines des divergences entre les codes similaires trouvés par le Photo-Z Projet de test de précision (PHAT). 5

La détermination de la qualité des estimations est également un sujet crucial. Il est nécessaire de disposer de différentes mesures qui puissent décrire la dispersion des points sans être dominée par des valeurs aberrantes et qui puissent estimer la fraction de défaillances catastrophiques. Il est également recommandé de caractériser la précision des estimations par une échelle M robuste au lieu du RMS, une mesure simple à calculer, mais non sensible aux valeurs aberrantes. Un autre aspect de ceci est l'étude des critères de sélection qui est souvent négligée. Certains projets ne concernent pas les échantillons incomplets tant que la précision de ceux fournis est bonne (par exemple, lentille faible, Mandelbaum et al. 2005), tandis que d'autres, comme le regroupement de galaxies, pourraient nécessiter une sélection impartiale. Par conséquent, il est perçu que les études utilisant des méthodes avec des indicateurs de qualité ou des quantités devraient fournir des détails sur leurs effets de sélection.

Un thème commun pour les objectifs futurs dans la plupart des travaux photométriques de décalage vers le rouge semble être des analyses probabilistes plus détaillées, avec le besoin de fonctions de densité de probabilité. Les priors utilisés dans la plupart des analyses bayésiennes semblent être généralement acceptés dans la photo-z communauté. Avec un tel consensus parmi les redshifts photométriques obtenus, l'objectif du travail est maintenant de passer de l'estimation de "seulement" les redshifts à la contrainte simultanée des paramètres physiques et du redshift de manière cohérente.


Systèmes photométriques standard

▪ Résumé La photométrie stellaire standard a dominé la seconde moitié du XXe siècle, atteignant son apogée dans les années 1980. Il a été introduit pour tirer parti de la sensibilité élevée et de la large plage dynamique des tubes photomultiplicateurs par rapport aux plaques photographiques. Au fur et à mesure que l'efficacité quantique des photodétecteurs s'améliorait et que la gamme de longueurs d'onde s'étendait davantage vers le rouge, les systèmes standard ont été modifiés et affinés, et les écarts par rapport aux systèmes d'origine se sont multipliés. Le passage révolutionnaire aux détecteurs de zone pour toutes les observations optiques et IR a forcé de nouveaux changements dans les systèmes standard, et la précision et l'exactitude de la photométrie à large bande et à bande intermédiaire ont souffert jusqu'à ce que des techniques d'observation plus appropriées et des procédures de réduction standard soient adoptées. Mais la plus grande révolution s'est produite avec la production de relevés photométriques tout ciel. Hipparcos/Tycho était basé dans l'espace, mais la plupart, comme 2MASS, étaient des télescopes d'enquête dédiés au sol. Il est très probable qu'à l'avenir, plutôt que de mesurer un objet dans un système photométrique standard, on cherchera simplement les magnitudes et les couleurs de la plupart des objets dans les catalogues accessibles depuis l'Observatoire virtuel. Dans cette revue, l'histoire de la photométrie stellaire standard sera décrite, et l'étalonnage et la réalisation de systèmes standard seront examinés. Enfin, les flux d'atmosphère des modèles sont désormais très réalistes, et la photométrie synthétique offre les meilleures perspectives pour calibrer tous les systèmes photométriques. La photométrie synthétique issue de la spectrophotométrie observée devrait également être utilisée systématiquement pour fournir des couleurs dans les systèmes standard et pour mieux comprendre les spectres et les couleurs d'étoiles inhabituelles, d'amas d'étoiles et de galaxies lointaines.


Contenu

Le levé 2dF couvrait une superficie d'environ 1 500 degrés carrés, examinant les régions des pôles galactiques nord et sud. [2] Le nom vient du fait que l'instrument d'arpentage a un champ de vision de 2 degrés de diamètre.

Les zones sélectionnées pour l'observation ont été préalablement étudiées par le massif APM Galaxy Survey (sur lequel Steve Maddox a également travaillé). [2] Les régions étudiées couvrent environ 75 degrés d'ascension droite pour les deux bandes, et la déclinaison de la bande polaire nord était d'environ 7,5 degrés tandis que la déclinaison de la bande polaire sud était d'environ 15 degrés. Des centaines de champs isolés de deux degrés près de la bande polaire sud ont également été étudiés (voir cette illustration, où les cercles noirs représentent les champs d'enquête et la grille rouge représente le levé APM précédent).

Au total, la photométrie de 382 323 objets a été mesurée, qui comprend les spectres de 245 591 objets, dont 232 155 galaxies (221 414 avec des spectres de bonne qualité), 12 311 étoiles et 125 objets quasi-stellaires (quasars). [3] L'enquête a nécessité 272 nuits d'observation requises, réparties sur 5 ans.

Le levé a été réalisé avec le télescope anglo-australien de 4 mètres, avec le appareil 2dF installé au foyer primaire permettant l'observation d'un champ de 2 degrés par pointage. L'instrument possède un spectrographe équipé de deux bancs de 200 fibres optiques chacun, permettant la mesure simultanée de 400 spectres.

La magnitude apparente limite du relevé est de 19,5, couvrant des objets avec un décalage vers le rouge principalement inférieur à z=0,3 et un décalage vers le rouge médian de 0,11. Le volume de l'Univers couvert par l'enquête est d'environ 10 8 h -1 Mpc 3 , où h correspond à la valeur de la constante de Hubble, H0, divisé par 100. H0 est d'environ 70 km/s/Mpc. Le plus grand redshift observé par le relevé correspond à une distance de 600 h -1 Mpc.

Les principaux résultats obtenus pour le domaine de la cosmologie par l'enquête 2dF sont :

  • La mesure du paramètre de densité de la matière non relativiste (matière baryonique plus matière noire plus neutrinos massifs)
  • La détection des oscillations acoustiques baryoniques, et par conséquent la relation entre la densité de matière baryonique et la matière noire
  • Limites de la contribution des neutrinos massifs à la matière noire, mettant une limite à la somme des masses des trois familles de neutrinos à 1,8 eV.

Tous ces résultats sont en accord avec les mesures d'autres expériences, notamment celles de WMAP. Ils confirment le modèle cosmologique standard.

L'enquête 2dF donne également une vue unique sur notre environnement cosmique local. Dans la figure, une reconstruction 3-D des parties internes de l'enquête est montrée, révélant une vue impressionnante sur les structures cosmiques dans l'univers voisin. Plusieurs superamas se démarquent, comme la Grande Muraille de Sloan, l'une des plus grandes structures [4] de l'univers connues à ce jour (voir aussi Huge-LQG).


Discussion : Extinction (astronomie)

Peut-être inclure la formule qui relie la grandeur et l'extinction absolue et apparente.

FTA "D'une manière générale, l'extinction interstellaire varie avec la longueur d'onde de telle sorte que plus la longueur d'onde est courte, plus l'extinction est forte." Ce n'est pas vraiment vrai et je pense que c'est un peu déroutant. Le lien, bien que présent, se rompt aux extrémités du spectre EM. Il est relativement faible et je pense qu'il serait plus utile d'avoir une sorte de tableau répertoriant l'opacité relative de la poussière aux rayons X, gamma, infrarouge, etc.


Qu'est-ce que les gens en pensent ?

Je souhaite que d'autres examinent l'inclusion de Trumpler et la référence à la page et obtiennent un consensus pour le laisser ou l'exclure. Jobberone (discussion) 19:28, 10 septembre 2008 (UTC)

J'ai commencé à mettre à jour et à développer cette page pour être plus complète et inclure plus de références. Cela fait partie d'un effort plus large de ma part pour améliorer les informations sur la poussière interstellaire en général. N'hésitez pas à ajouter des questions à cette page et/ou à me les envoyer. Karl D. Gordon 14:32, 27 décembre 2006 (UTC)

Reste à faire : mettre à jour la section sur la façon dont les courbes d'extinction sont mesurées, ajouter une section sur des caractéristiques autres que 2175 A bump (absorptions de silicate et de glace, peut-être ajouter des bords d'absorptoine de rayons X) et ajouter plus de chiffres (courbe d'extinction UV-IR avec caractéristiques étiquetées , figure pour la façon dont les courbes d'extinction sont calculées, figure avec des caractéristiques de silicate et de glace).Karl D. Gordon 17:51, 1er janvier 2007 (UTC)

Je propose que cet article soit divisé en deux parties. La majorité du texte entrerait en extinction interstellaire et le reste en extinction atmosphérique. Cela aurait plus de sens car les deux sources d'extinction découlent de processus physiques différents. Et cela faciliterait la révision des deux pièces pour qu'elles soient plus complètes. Karl D. Gordon 16:50, 27 décembre 2006 (UTC)

La mention de l'étude ROSAT, et seulement de cette étude, pour la détermination de la relation entre N(H) et A_V semble impliquer qu'il s'agit de la mesure définitive, sinon unique. Peut-être faudrait-il mentionner la référence de Bohlin, Savage, & Drake (1978), et l'étude ROSAT, entre autres, pourrait être utilisée pour renforcer la confiance dans la valeur. AmberRobot 17:51, 28 décembre 2006 (UTC)

Excellente remarque. J'ai ajouté Bohlin et al. (1978) et la plus récente Diplas & Savage (1994) à la liste de référence et a modifié la valeur de la relation approximative étant donné que ces trois études n'ont pas toutes obtenu la même valeur (1,87, 1,59 et 1,79). Karl D. Gordon 18:36, 28 décembre 2006 (UTC)

Douteux Modifier

Le rapport est parfois donné en atomes H/A(V) ou en atomes H/E(B-V). Ils sont liés par R(V) = A(V)/E(B-V). Comme R(V) est de 3,1 pour la poussière diffuse moyenne de la Voie lactée, les mesures divisées par E(B-V) peuvent être converties en par A(V) en divisant par 3,1. Le Bohlin et al. (1978) la référence est par E(B-V). Donc, en divisant par 3,1 donne quelque chose comme 1,87 ·10 21 atomes par magnitude. Étant donné qu'il existe une incertitude dans cette mesure à la fois observationnelle et dans la contribution de H2 au total des atomes H, une valeur approximative est probablement la meilleure chose à rapporter. Karl D. Gordon (conférence) 10h00, 26 janvier 2011 (UTC)

Les différents termes R(V), A(V), E(B-V) doivent être clairement définis afin que le lecteur général puisse avoir une idée de ce que signifient les concepts. S'ils sont définis ailleurs, ils devraient être wiki. L'introduction est assez claire, mais l'ensemble de l'article doit être aussi clairement expliqué. Un diagramme d'une courbe d'extinction doit être inclus, ainsi que la relation mathématique de la paramétrisation.Puzl bustr (talk) 11:32, 8 décembre 2009 (UTC)

Par exemple, un rapide Google a trouvé: "A(V) L'extinction absolue à la bande V à 5550 Angstroms. E(BV) L'excès de couleur entre les bandes B et V. c L'extinction logarithmique H bêta.".Puzl bustr (talk ) 11:45, 8 décembre 2009 (UTC) OK, j'ai modifié l'article pour préciser que R(V) est défini, pas seulement égal à A(V)/E(BV), et précisé que A(V) est mesurée à 5550 Å. Peut-être que quelqu'un pourrait ajouter la longueur d'onde pertinente pour B. A également défini l'extinction totale et absolue, en utilisant les références, puisque l'extinction absolue A(λ)/A(V) est sur l'axe des y du dernier graphique. La relation mathématique entre R(V) et la courbe d'extinction est spécifiée dans les références mais hélas je n'ai pas pu la suivre. Quelque chose à propos de l'ajustement de a(x)+b(x)/R(V) à la moyenne de A(λ)/A(V) pour différentes gammes de longueurs d'onde, pour les polynômes a et b. Un diagramme de courbe d'extinction normalisé est également inclus dans [1] et montre les caractéristiques mentionnées, le genou, etc. Il a 1/λ sur l'axe des x et E(λ-V)/E(BV) sur l'axe des y . Ce serait génial si quelqu'un pouvait faire un tel complot et le télécharger pour montrer les caractéristiques mentionnées. Puzl bustr (discussion) 18:35, 10 décembre 2009 (UTC)

Il n'est pas écrit quelle est l'importance du phénomène d'extinction de l'espace. Il devrait être en quelque sorte comparé à d'autres choses. La seule explication est 0,7 mag/Kpc. Ne me dit rien. Il faut savoir si pour certaines étoiles l'effet se voit à l'œil, pas par une courbe (la couleur de l'étoile change-t-elle ?). Comparez avec le décalage vers le rouge et comparez l'extinction atmosphérique à l'extinction spatiale. Setreset (discussion) 06:06, 25 août 2010 (UTC)

Atomes d'hydrogène par centimètre carré de colonne.Je ne comprends pas cela. Cela signifie-t-il une colonne d'un centimètre carré s'étendant de la terre à l'objet observé ? Quoi qu'il en soit, d'autres non-astronomes pourraient tirer profit de cette explication. 68.186.166.197 (discussion) 21:41, 24 mars 2011 (UTC)

C'est l'intégrale de chemin de la densité numérique le long de la ligne de visée entre l'observateur et la source. La densité numérique a des unités de cm^-3, tandis que la longueur du chemin a des unités de cm. Multipliez les deux ensemble et vous obtenez cm^-2. C'est ce qu'on appelle la "densité de colonne". Génie modeste conférence 19:45, 26 mai 2011 (UTC)

R.J. Trumpler est crédité dans l'article de la première découverte de la rougeur (première référence). Je ne trouve rien sur la rougeur dans la source donnée. Je l'ai peut-être manqué, quelqu'un peut-il le citer et me dire la page ?

Il est possible qu'il ait été le premier avec :

6. L'écart entre les indices de couleur et les types spectraux observé dans les amas ouverts augmente avec la distance de l'amas et montre que cette absorption de lumière est sélective, le coefficient d'absorption photographique étant environ le double du visuel.

Cela peut être en partie involontairement une référence à la rougeur, mais où cela fait-il référence à la poussière et à la rougeur ? Mes excuses que cela m'échappe, je serais reconnaissant si quelqu'un pouvait le signaler. Orphadeus (discussion) 19:01, 21 mai 2011 (UTC)

La 3ème référence est où ? Orphadeus (discussion) 20:05, 21 mai 2011 (UTC)

Merci pour la réponse. En ce qui concerne le 1er point, j'ai trouvé la section (écrite) sur l'absorption des nuages ​​(vraisemblablement de la poussière):

'Wallenquist, conscient de la grande différence entre ses indices de couleur de NGC 663 et les types spectraux des mêmes étoiles, et incapable d'en tenir compte par des erreurs d'observation, conclut : 'L'explication la plus probable est, peut-être, l'hypothèse de l'absorption sélective nuages ​​dans (et dans les environs de) l'amas NGC 663.' Que l'effet ne soit pas dû à une erreur de méthode est bien illustré par le fait que Wallenquist a observé trois clusters par la même méthode et le même instrument et que seuls les deux plus éloignés montrent un grand excès de couleur il en est de même pour les deux clusters ouverts enquêté par Shapley. Dans une publication précédente, j'ai attiré l'attention sur le grand excès des observations de couleur de Shapley dans l'amas Messier 11 et, opposé à l'idée d'une absorption sélective générale dans notre système stellaire, j'ai adopté une attitude plutôt sceptique concernant l'exactitude des résultats de Shapley jusqu'à ce qu'ils soient confirmé par les observations de Wallenquist. (Page 165)

Il en ressort que le concept d'extinction interstellaire devrait être actuellement attribué à Wallenquist. Orphadeus 94.194.100.228 (discussion) 11:34, 22 mai 2011 (UTC)

Il semble que quelqu'un ait ajouté une autre non-référence (actuellement la référence 2), ce qui désorganise la liste des références de cette section de discussion. Cliquez sur cette référence et vous obtenez ceci. Bien sûr, il y a un numéro de page, faites la recherche et vous n'obtenez rien. Les références actuellement à 4 (auparavant 3) ont été modifiées et donnent la même (rien) que ce qui est actuellement la référence 2. La 2ème référence précédente, actuellement à 3, donne toujours un lien vers une étude qui n'est "pas disponible". La légère paranoïa, excusez-moi, me dit que si je supprime assez raisonnablement les références douteuses et attribue le concept de rougissement à Wallenquist, avec référence, la mafia s'occupera de moi. Orphadeus (discussion) 12h30, 22 mai 2011 (UTC)

La priorité dans ces cas est souvent difficile à déterminer si votre matériel Wallenquist a l'air fondamentalement bien. Avez-vous vérifié la source réelle ou simplement le lien de commodité BookSources ? S'il vous plaît lire sur ADSABS, lié ci-dessus. Vous vous plaignez d'un non-problème. le indisponible à cette page indique que ce service d'indexation particulier n'a pas le résumé de cet article. Veuillez lire et respecter la politique de civilité. - 2/0 (suite) 22:07, 22 mai 2011 (UTC)

J'aurais pensé que si le résumé de l'article n'était pas disponible, c'est un non lien qui ne devrait pas être là. Je me souviens avoir lu Wikipédia en étant d'accord. Quant aux liens ISBN, ils ne fonctionnent tout simplement pas, même si vous faites la recherche avec le numéro de référence. Ce ne sont littéralement aucune référence, à part laquelle, est-ce que mettre un moteur de recherche Google comme source serait acceptable ? Je pense que ces liens sont indéfendables. Orphadeus (discussion) 17:09, 23 mai 2011 (UTC)

Votre citation répétée de Wallenquist est incorrecte. Lui, comme de nombreux autres observateurs de l'époque, dont Shapley, a remarqué que les amas d'étoiles dans différentes directions et à différentes distances avaient des dégradés de couleurs différents. Mais il ne l'a pas attribué à la bonne cause. Trumpler a été le premier astronome à rassembler toutes les observations discordantes et à proposer qu'il y avait de la poussière diffuse dans la Galaxie. C'est pourquoi il obtient le crédit. Vos plaintes concernant les liens ISBN et NASA ADS sont également incorrectes. La page ISBN BookSources fournit une page fourre-tout pour trouver un livre dans de nombreuses sources différentes. NASA ADS n'a pas de résumés pour la plupart des références plus anciennes car ils ont été scannés et n'ont pas été OCRed. Les liens NASA ADS dans cet article incluent tous un lien vers l'article requis, même si le résumé n'est pas affiché sur la page principale ADS. - Parejkoj (discussion) 14:09, 26 mai 2011 (UTC)

Je pense qu'il peut y avoir une certaine confusion concernant l'article actuel et le redshift de l'expansion métrique de l'espace. Les deux font apparaître les spectres plus rouges de manière prévisible, ce qui signifie que toute observation particulière devra être déconvoluée avant que les données ne soient interprétables. Les origines physiques des effets sont cependant complètement distinctes. Y a-t-il un moyen de formuler cela plus clairement tout en restant succinct en tête ? - 2/0 (suite) 22:11, 22 mai 2011 (UTC)

"toute observation particulière devra être déconvoluée" - pas vraiment, à moins que vous ne parliez d'estimer les redshifts photométriques, ce qui est un processus beaucoup plus compliqué. Le redshift modifie les longueurs d'onde des raies spectrales, le rougissement modifie l'amplitude de l'extrémité bleue du spectre par rapport à l'extrémité rouge, sans changer la position des raies. Ce sont des effets complètement orthogonaux, que l'article décrit comme tels. - Parejkoj (discussion) 13:42, 23 mai 2011 (UTC)

J'aime les 2 dernières phrases de 2/0. Je pense que quelqu'un qui comprend toute la terminologie et qui est agile, devrait peut-être vérifier l'étude. Je ne comprends pas toute la terminologie, mais je peux comprendre et il me semble que Parejkoj est incorrect. Quoi qu'il en soit, ce n'est pas le travail de Wikipédia de défendre une position définie. Peut-être qu'une section sur le rougissement et le redshift peut être appropriée, à condition qu'elle soit impartiale. Au fait, quelqu'un pourrait trouver ça intéressant, je viens de trouver ça. Orphadeus (discussion) 17:46, 23 mai 2011 (UTC)

Orphadeus : vous ne comprenez clairement pas ces articles de recherche que vous n'arrêtez pas de citer. Je vous conseille encore une fois de consulter quelques manuels d'astronomie avant de continuer, car vous parvenez simplement à vous embrouiller davantage et à répandre cette confusion sur les pages de Wikipédia. Je ne comprends pas pourquoi vous continuez à évoquer Santiago et al., mais cela explique comment la sélection des cibles pour les relevés de décalage vers le rouge est affectée par l'extinction, et non pas que les décalages vers le rouge déterminés par la suite changent, comme je l'ai déjà dit. Bien que cet article puisse nécessiter une reformulation (j'ai commencé à le faire), les faits qu'il contient sont corrects en l'état. Votre lien vers un "RedshiftEssay" est WP:FRINGE, et appartiendrait *au mieux* à la page de cosmologie non standard. - Parejkoj (discussion) 20:08, 23 mai 2011 (UTC)

Concernant la suggestion de 2/0, sa phrase, « Les origines physiques des effets sont, cependant, complètement distinctes » pourrait être utilisée. Orphadeus (discussion) 17:59, 23 mai 2011 (UTC)

@Parejkoj: Je considérerais cela comme une déconvolution dans le sens où si vous regardez simplement le rapport de deux longueurs d'onde, il est toujours nécessaire de déterminer pourquoi il y a plus de rouge que prévu. Pourtant, ce n'est ni ici ni là, et la dernière phrase de votre premier commentaire le dit parfaitement. En relisant mon commentaire initial, il semble que j'essayais d'être trop diplomate. Orphadeus, je pense que vous confondez peut-être deux concepts physiquement distincts. J'aimerais éditer cet article d'une manière qui clarifie votre malentendu, mais j'ai besoin d'aide pour déterminer exactement où il se trouve. Je ne sais pas non plus pourquoi vous pensez que Santiago dit ce que vous semblez penser qu'il dit, à moins que je ne vous comprenne mal, ce n'est pas le cas. Essais de physique n'est généralement pas une source fiable pour quoi que ce soit au-delà des opinions des auteurs si cette idée particulière a reçu une attention extérieure, il pourrait être approprié de la citer à Cosmologie non standard, bien que j'aie des doutes. - 2/0 (suite) 21:47, 23 mai 2011 (UTC)

Examinons ces deux études :

De plus, toutes les propriétés physiques régissant les propriétés de la poussière (métallicité, taux de formation et d'évolution des étoiles et fonds de rayonnement) évoluent fortement avec le décalage vers le rouge, nous nous attendons donc à ce que les propriétés de la poussière évoluent avec le décalage vers le rouge. L'évolution de la loi d'extinction moyenne avec décalage vers le rouge serait une incertitude systématique cruciale dans les études des supernovae de type Ia pour contraindre le modèle cosmologique (voir, par exemple, Perlmutter, Turner, & White 1999), puisque l'extinction modifie l'étirement apparent des courbes lumineuses (Nugent, Kim, & Perlmutter 2002). http://iopscience.iop.org/004-637X/605/2/614/59211.text.html

« En utilisant les observations de Voyager, il est démontré que l'orbite de Triton la courbe de lumière est fortement dépendante de la longueur d'onde, une caractéristique qui explique facilement certaines des divergences apparentes entre les mesures télescopiques pré-Voyager. Spécifiquement, une amplitude de courbe de lumière (crête à crête) est trouvée qui diminue systématiquement avec l'augmentation de la longueur d'onde d'environ 0,08 magnitude (crête à crête) près de 200 nm à moins de 0,02 magnitude près de 1000 nm.' http://adsabs.harvard.edu/abs/1991JGR. 9619211H

Est-ce que je m'accroche à des pailles Peut-être que la courbe de lumière étant fortement dépendante de la longueur d'onde est spécifique à l'orbitale de Triton ? Je me demande s'il y a une différence entre le courant principal scientifique actuel et le courant principal scientifique des médias. Je me demande si le problème est spécifique au Royaume-Uni. Orphadeus (discussion) 11:06, 24 mai 2011 (UTC)

Vous comprenez mal les deux études (donc, oui, saisir des pailles): une courbe de lumière est le changement de la luminosité observée d'un objet avec le temps, qui n'est pas lié au décalage vers le rouge ou au rougissement. Veuillez lire un manuel d'astronomie avant de consulter des articles de recherche, car vous ne comprenez *pas* la terminologie. Vous encombrez également ces pages de discussion avec vos malentendus. Veuillez étudier un manuel avant de publier davantage sur les pages d'astronomie de Wikipédia. - Parejkoj (discussion) 16:24, 24 mai 2011 (UTC)

Je suppose qu'une bonne chose qui est venue des récentes modifications erronées de cette page est que je l'ai retravaillée. L'intro et la première section devraient être beaucoup plus lisibles maintenant, et le drapeau "Technique" peut, espérons-le, être supprimé. Je n'ai pas de citation pour le rougissement typique "0,7-1,0 mag/kpc" dans la valeur du voisinage stellaire, donc si quelqu'un pouvait ajouter cela, ce serait génial. La poussière interstellaire n'est pas mon domaine d'expertise, donc je n'ai pas essayé de mettre à jour les références pour refléter la littérature plus récente, désolé. - Parejkoj (discussion) 01:17, 24 mai 2011 (UTC)

'Fitzgerald (1968) constate qu'il y a une forte rougeur (Av = 0,7-1 mag/kpc) dans les régions 140-150° et 160-170° du bras de Persée, ce qui implique que.. Page 8

Je ne sais pas si 140-150° et 160-170° du bras de Persée sont ce que vous recherchez. Orphadeus (discussion) 12:08, 24 mai 2011 (UTC)

« Un taux moyen d'extinction visuelle de (1,25 ± 1,08 mag/kpc) est déduit d'un échantillon de 133 étoiles. » Page 244 Vous pouvez également consulter la page 243. Orphadeus (talk) 11:17, 25 May 2011 (UTC)

Le paragraphe qui commence par « En gros » est plein de termes issus de la spectroscopie, mais aucune référence n'est faite à cette technique. Quelqu'un comme moi avec une formation en physique n'est pas déconcerté par cela, mais la plupart des gens avec qui je socialise seraient totalement déconcertés. Ok, je l'ai édité. En fait, le premier paragraphe de tout l'article gagnerait à mentionner la spectroscopie, technique que je me retrouve souvent à expliquer lorsqu'on me demande "mais comment sait-on qu'il y a tel ou tel élément intéressant dans cet objet distant que l'on ne peut qu'observer en regardant de loin ?" En dehors de la communauté des scientifiques et des techniciens, la spectroscopie n'est pas une technique généralement comprise, certainement pas dans la mesure où les télescopes optiques sont compris par des personnes non techniques. Musicengin (conférence) 11:18, 24 avril 2015 (UTC)

L'édition actuelle est probablement exactement ce que veulent les lecteurs de Wikipédia. Toi

re moyenne 15 ans qui s'intéresse à la science peut comprendre et apprécier. Toute personne plus avancée en science peut profiter des liens. Les références sont toutes réelles dans cet article. je peux

Je ne serais pas dérangé par une guerre d'édition, mais je crois avoir montré à quoi devrait ressembler une page scientifique wikipedia. Orphadeus (discussion) 19:09, 26 mai 2011 (UTC)

Le problème avec vos modifications est qu'elles sont en grande partie incorrectes et montrent un manque important de compréhension du sujet. Je comprends que vous souhaitiez améliorer l'article, mais vos modifications propagent principalement des inexactitudes et n'aident donc pas. Comme je l'ai dit plus haut, vous ne comprenez pas les références que vous citez, en interprétez très mal certaines, et vous citez très travail marginal qui n'a rien à voir avec le sujet de l'extinction. Vous n'avez pas non plus répondu à mes critiques et commentaires par le passé, et vous ne semblez en avoir lu aucun. - Parejkoj (discussion) 19:32, 26 mai 2011 (UTC)

J'ai mis en gras quelque chose dans le message de Parejkoj qui est vérifiable incorrect. Orphadeus (discussion) 10h00, 27 mai 2011 (UTC)

S'il vous plaît ne modifiez pas les commentaires de la page de discussion d'un autre utilisateur comme ça. Il existe un ensemble très restreint de circonstances où cela est acceptable, aucune d'entre elles ne s'applique ici. En outre, vous n'avez pas abordé leur point ou expliqué pourquoi vous que cette déclaration est incorrecte. Génie modeste talk 13:35, 27 mai 2011 (UTC) Orphadeus a montré une incapacité totale à saisir WP:NPOV et WP:RS sur Talk:Number of the Beast, son article et autres. Qu'il s'agisse de WP:CIR ou de WP:IDIDNTHEARTHAT, je ne sais pas, mais il est intéressant de voir que ce type pose également un problème sur d'autres pages. Bien que ce ne soit pas un sujet auquel je suis impliqué, je vais l'ajouter à ma liste de surveillance. Pour ce que ça vaut, je n'ai eu qu'un cours d'introduction à l'astronomie il y a des années, et l'introduction régulière n'est pas difficile à lire. Si c'était le cas, je cliquerais sur les liens impliqués pour en savoir plus sur les choses dont je n'étais pas sûr. Beaucoup de nos lecteurs le font. J'admets que certaines autres sections sont un peu techniques, mais le fait de jeter ces informations ne facilite pas la lecture. Au lieu de cela, des résumés et des explications moins techniques ajoutés à l'article (au lieu de remplacer) fonctionneraient mieux. Cependant, ceux-ci devraient répondre aux mêmes normes d'approvisionnement que le reste de l'article, ou tout autre article. Je recommanderais fortement à Orphadeus de discuter de tout changement potentiel sur la page de discussion avant de le faire, car un certain nombre d'autres éditeurs ont exprimé leur inquiétude quant à sa capacité à localiser et à résumer avec précision des sources fiables. Ian.thomson (discussion) 14:51, 27 mai 2011 (UTC)

Yann très intéressant. (Je pense qu'il est contrarié - et me suit - parce que l'évangile de Marc a 666 versets). Orphadeus (discussion) 15:24, 27 mai 2011 (UTC)

Non, je garde un œil sur un utilisateur problématique qui est plutôt habile à apporter des détails sans pouvoir expliquer leur pertinence. Ian.thomson (discussion) 15:27, 27 mai 2011 (UTC)

Alors Ian, tu me suis. Quels détails ai-je soulevés sans expliquer leur pertinence ? Modeste Génie, vous êtes clairement un adepte des règles. Mes excuses, je n'avais pas réalisé que c'était un crime de mettre en évidence certains mots que quelqu'un a postés et d'indiquer clairement, là où tout le monde était vu que les gras verraient, que je les avais mis en évidence. Étant un adepte des règles, êtes-vous satisfait des références de l'article actuel (pas celui que j'ai écrit) ? Orphadeus (discussion) 15:31, 27 mai 2011 (UTC)

Les références sont adéquates, mais pourraient bien sûr être améliorées. Ils ne semblent pas être assez bons pour, par ex. Normes GA, mais elles sont décentes. Ils pourraient faire avec se débarrasser de tous ces liens rouges laids. Mais elles sont bien meilleures que les références dans la version de l'article que vous avez écrite et décrite comme « presque parfaite ». Oh et je ne vous ai jamais accusé d'un crime, j'ai simplement fait une demande polie et laissé un lien vers la page du projet concerné, dont vous n'étiez peut-être pas au courant. Génie modeste talk 20:44, 27 mai 2011 (UTC) Votre incapacité à présumer de la bonne foi en m'accusant de colère contre votre affirmation est idiote (et déraisonnable quand j'ai expliqué comment rendre votre affirmation applicable à l'article en vous demandant d'expliquer comment elle était pertinent et en soulignant les directives que vous deviez suivre). Le problème pertinent est que vous avez montré à maintes reprises que vous ne semblez pas avoir la compréhension d'un lycéen des normes de recherche de base, et vous rejetez continuellement les conseils d'autres éditeurs sur les directives de ce site (qui frisent les normes de recherche de niveau collégial mais restent assez simples que j'ai vu des éditeurs au collège les gérer). Vous avez fait pression pour des ajouts marginaux à un certain nombre d'articles, et dans le cas du Nombre de la Bête et de votre affirmation selon laquelle l'Évangile de Marc (quelle version ?) a 666 versets, vous n'avez jamais pu expliquer pourquoi c'était pertinent. La compétence est requise ici, et vous devez soit arrêter d'être un éditeur tendancieux, accepter des conseils si vous ne savez pas comment faire, ou partir. Vous aviez déjà un lien avec les directives de la page de discussion, ce qui expliquait qu'il était inacceptable de modifier les publications d'autres pages de discussion, sauf dans des conditions limitées (comme la publication dans le les archives comme si l'on ne comprenait pas ce que signifiait le mot "archives"). Ian.thomson (discussion) 15:42, 27 mai 2011 (UTC)

Êtes-vous ici pour parler d'Extinction ? Orphadeus (discussion) 18:56, 27 mai 2011 (UTC)

(Pointe vers mon premier message sur cette page). Je suis ici pour aider à améliorer l'article (c'est à cela que servent les pages de discussion, pas la discussion générale, comme cela vous a été expliqué auparavant), car un éditeur problématique l'a perturbé et les autres éditeurs ne sont pas au courant de votre comportement ailleurs. Ian.thomson (discussion) 19:04, 27 mai 2011 (UTC)

Alors Ian, comment pensez-vous que l'article peut être amélioré ? Mon avis personnel est qu'il est trop technique (ou trop technique trop tôt) et devrait être mis de manière à ce que les personnes sans doctorat puissent en profiter et apprendre. Je suis peut-être partial, mais je pensais avoir fait un bon coup (je ne sais pas si vous avez lu l'article - il y a un lien dans le 1er message de cette section). J'aurais pensé qu'après ce genre d'explication, si les gens le voulaient, vous pourriez avoir une section technique (peut-être avec des sous-sections pertinentes) avec des trucs (pour la plupart des gens) incompréhensibles. Je pense aussi qu'il y a plus de précision dans l'article que j'ai écrit, en particulier avec l'attribution du concept d'extinction et dans la section effet sur Redshift.Accepteriez-vous? Un autre problème avec l'article est qu'il y a des liens qui semblent n'être rien. Orphadeus (discussion) 19:25, 27 mai 2011 (UTC)

Alors que l'article pourrait certainement être amélioré, la suppression totale de presque toutes les informations n'est pas la façon de le faire. Si vous voulez rendre l'article plus compréhensible, je vous suggère de le faire une ou deux phrases à la fois. Trouvez quelque chose qui vous semble mal formulé et reformulez-le pour qu'il soit plus facilement compréhensible. Ensuite, enregistrez l'article et laissez-le pendant 24 heures pour voir si les autres éditeurs qui regardent la page conviennent qu'il s'agit d'une amélioration. Ne supprimez pas tout le contenu, n'essayez pas de réécrire complètement l'article en une seule fois, mais essayez plutôt de l'améliorer progressivement et progressivement, pièce par pièce. Génie modeste talk 20:37, 27 May 2011 (UTC) Comme je l'ai dit plus tôt "Pour ce que ça vaut, je n'ai eu qu'un cours d'introduction à l'astronomie il y a des années, et l'introduction régulière n'est pas difficile à lire. Si c'était le cas, je cliquerais sur les liens impliqués pour en savoir plus sur les choses dont je n'étais pas sûr. Beaucoup de nos lecteurs le font. J'admets que d'autres sections sont un peu techniques, mais jeter cette information ne la rend pas plus facile à lire. Au lieu de cela, des résumés et des explications moins techniques ajoutés à l'article (au lieu de remplacer) fonctionneraient mieux. Cependant, ceux-ci devraient répondre aux mêmes normes d'approvisionnement que le reste de l'article, ou tout autre article. » En d'autres termes, la suppression totale d'une grande partie des informations de l'article au motif qu'il était trop technique était loin d'être parfaite ( même loin d'être "presque parfait.") Orphadeus, que diriez-vous de lire les commentaires des autres utilisateurs ? Vous ne finirez pas par avoir l'air tendancieux ou incompétent. Quant aux liens rouges, si les liens sont pour des sujets qui méritent un article, une bonne solution serait de créer l'article. C'est une pratique courante et acceptée, à condition que les articles soient à la hauteur. Ian.thomson (discussion) 21:33, 27 mai 2011 (UTC)

Désolé Ian, je n'ai pas lu votre message car nous avons eu un chevauchement d'édition et je n'ai presque plus de temps Internet, alors j'ai coupé-collé sur Modest Genius -

Cela peut être une bonne idée. Je pense que c'est la solution la plus difficile en pratique. Le problème est, par exemple, que la 1ère phrase est bonne et je ne veux pas la changer. C'est aussi assez technique. Je pensais à l'explication du profane suivie de l'extase technique, peut-être en étant discret sur la "progression". La ligne d'ouverture actuelle pourrait ouvrir la section plus technique. Cela nécessite une réflexion tactique quant à la mise en page. Orphadeus (discussion) 22:15, 27 mai 2011 (UTC)

Salut Ian, j'ai lu votre message maintenant et je suis d'accord que "moins de résumés et d'explications techniques ajoutés à l'article (au lieu de remplacer) fonctionneraient mieux". Je pense aussi qu'au début, car les lecteurs moins techniques sont moins susceptibles de lire des trucs techniques pour arriver à ce qu'ils apprécieraient, que l'inverse. Concernant l'ouverture, la référence au rayonnement électromagnétique n'est pas bonne pour le profane, même en cliquant sur le lien, sa meilleure ouverture avec une référence à la lumière, avec la phrase d'ouverture actuelle dans une explication technique plus loin. Je vais essayer de faire une modification sans supprimer aucun des articles en cours. Orphadeus (discussion) 11h30, 28 mai 2011 (UTC)

Vous venez de rajouter du matériel qui a été annulé non seulement pour avoir perturbé la page, mais également pour être erroné et marginal. Vous n'avez jamais abordé le point précédent de Parejkoj à ce sujet. Aussi, le sarcasme du titre "Technical Ecstacy" est inapproprié pour une encyclopédie. Si vous n'avez pas un horaire Internet si limité que vous ne pouvez pas lire efficacement mes commentaires ou les siens, ou tout ce qui se trouve être quelque chose avec lequel vous n'êtes pas d'accord, vous devriez peut-être reconsidérer si vous avez suffisamment de temps pour éditer sur Wikipedia. Ian.thomson (discussion) 15h00, 28 mai 2011 (UTC)

J'ai certainement répondu au commentaire de Parejkok. Si quelqu'un vérifiait les références, tous ses points étaient traités. Il n'a pas échappé à mon attention que Parejkok retire à plusieurs reprises du matériel d'origine. Un autre point est que je fais exactement ce que les demandes techniques. Orphadeus (conversation) 18:32, 28 mai 2011 (UTC) Orphadeus (conversation) 18:33, 28 mai 2011 (UTC)

En fait c'est Ian qui l'a enlevé cette fois (désolé Parejkok). Au fait, si quelqu'un pense avoir un meilleur titre que "Techniacal Ecstacy", changez-le. Orphadeus (discussion) 18:47, 28 mai 2011 (UTC)

Encore une fois, le matériel est toujours ce que Parejkoj a souligné comme étant une interprétation erronée. Vous ne semblez pas lui avoir adressé la parole à ce sujet, mais vous avez simplement entamé une conversation pour ensuite repartir lorsqu'il a signalé l'erreur. Vous n'avez pas encore abordé ses points soulevés dans la discussion sur la source ou le lien entre l'extinction/le rougissement et le décalage vers le rouge. L'utilisateur 2/0 a également souligné que vous n'avez aucune idée de ce que vous faites. Vous les avez complètement ignorés tous les deux et avez continué malgré plusieurs utilisateurs signalant vos erreurs. Vous prouvez être un exemple de l'effet Dunning-Kruger à l'œuvre ici. Arrêtez de réintroduire votre matériel erroné. Ian.thomson (discussion) 19:00, 28 mai 2011 (UTC)

Ian, il ne sert à rien de continuer Parejkok à dire « ceci les liens » et moi à dire « que les liens ». Vérifiez les références vous-même. Il y a des numéros de page donnés pour les endroits où les numéros de page sont requis. Il y a une théorie marginale qui est énoncée dans l'article comme une théorie marginale et elle est contrée dans l'article par une étude générale. Je vous laisse le temps de vérifier les références. Orphadeus (conversation) 21:34, 28 mai 2011 (UTC) Orphadeus (conversation) 21:37, 28 mai 2011 (UTC)

    . La pièce en peluche que vous avez créée sur Ling Jun Wang admet à peu près que c'est un travail marginal. , toute tentative de le relier serait une recherche originale.

L'article de Ling Jun Wang pourrait être amélioré en soulignant que le communiqué du gouvernement américain sur l'erreur reddshift n'a pas réfuté sa théorie, avec référence. Quant à vos autres points, http://iopscience.iop.org/0004-637X/605/2/614/59211.text.html et http://adsabs.harvard.edu/abs/1991JGR. 9619211H ne sont pas dans l'article. Les références que j'ai mises dans l'article sont :

  • 1.^ http://www.asterism.org/tutorials/tut28-1.htm Extinction atmosphérique et réfraction
  • 2.^ http://www.astro.virginia.edu/class/skrutskie/astr121/notes/redden.html Rougeur interstellaire, extinction et couchers de soleil rouges
  • 3.^ http://www.asterism.org/tutorials/tut28-1.htm Extinction et réfraction de l'atmosphère
  • 4.^ http://star-www.rl.ac.uk/star/docs/sc6.htx/node15.html Extinction atmosphérique et masse d'air
  • 5.^ http://mintaka.sdsu.edu/GF/explain/optics/scatter.html Diffusion atmosphérique
  • 6.^ Attribution à Wallenquist sur la page 165 http://adsabs.harvard.edu/cgi-bin/bib_query?1930LicOB.420..154T RÉSULTATS PRÉLIMINAIRES SUR LA DISTANCE, LES DIMENSIONS ET LA DISTRIBUTION DE L'ESPACE DES CLUSTERS OPEN STAR. Auteurs : Trumpler, Robert Julius
  • 7.^ http://adsabs.harvard.edu/full/1937AnHar.105..359G L'EFFET DE L'ABSORPTION DES NUAGES SUR LE COEFFICIENT D'ABSORPTION GÉNÉRAL. Auteur : Jesse L Greenstein
  • 8.^ Page 18. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.53.80 L'enquête optique sur le redshift II. Auteurs : Basílio X. Santiago , Bas'ilio X. Santiago , Michael A. Strauss , Ofer Lahav , Marc Davis , Alan Dressler , John P. Huchra
  • 9.^ http://ned.ipac.caltech.edu/level5/Sept07/Li2/Li3.html SPECTROSCOPIE DE POUSSIÈRE - DIAGNOSTIC DE LA COMPOSITION DE LA POUSSIÈRE Dans "Le moteur central des noyaux galactiques actifs", Série de conférences ASP, Vol. 373, Xi'an, Chine, 16-21 octobre 2007, éd. L.C. Ho et J.-M. Wang
  • 10.^ Page 99 http://iopscience.iop.org/1538-3881/125/1/98/pdf/1538-3881_125_1_98.pdf LES CONDITIONS PHYSIQUES DES NUAGES INTERMÉDIAIRES-REDSHIFT Mg II ABSORBANT DE L'ANALYSE DU PROFIL VOIGT. Auteurs : Christopher W, Churchill, Stephen S. Vogt, Jane C. Charlton
  • 11.^ http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.53.80 L'enquête optique Redshift II. Auteurs : Basílio X. Santiago , Bas'ilio X. Santiago , Michael A. Strauss , Ofer Lahav , Marc Davis , Alan Dressler , John P. Huchra
  • 12.^ Page 104 http://iopscience.iop.org/0004-637X/518/1/103/pdf/0004-637X_518_1_103.pdf LA DISTRIBUTION DES COULEURS DE LA GALAXIE À HAUT DÉCALAGE : VARIATIONS DE LA LIGNE DE VUE DANS L'HYDROGÈNE NEUTRE ABSORPTION. Auteurs : Matthew A. Bershady, Jane C. Charlton, Janet M. Geoffroy
  • 13.^ http://www.utc.edu/Faculty/LingJun-Wang/RedshiftEssay.pdf Théorie de l'extinction dispersive de Redshift. Auteur : Ling Jun Wang
  • 14.^ http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2966.2010.16464.x/abstract Sur l'impact de la poussière intergalactique sur la cosmologie avec les supernovae de type Ia. Auteurs Brice Ménard, Martin Kilbinger, Ryan Scranton

Orphadeus (conversation) 14h55, 30 mai 2011 (UTC) Orphadeus (conversation) 15h00, 30 mai 2011 (UTC)

Il y a une image qui peut être téléchargée ici. J'ai essayé de l'avoir dans l'article mais je n'ai pas pu. Peut-être que quelqu'un de plus technique que moi aimerait. Orphadeus (conversation) 21:42, 28 mai 2011 (UTC) Orphadeus (conversation) 21:44, 28 mai 2011 (UTC)

Ce n'est pas seulement une question de codage Wiki mais de copyright. Ian.thomson (discussion) 14:32, 29 mai 2011 (UTC) En effet. Cette image ne peut pas être utilisée sous une licence « libre » et ne peut pas non plus être considérée comme un usage loyal. Voir Wikipedia:Politique d'utilisation des images. Plus précisément, il est massivement obsolète. Pourquoi voudrions-nous utiliser une image qui montre très peu, et qui ne reflète pas le consensus scientifique actuel ? Génie modeste conférence à 16h31, le 29 mai 2011 (UTC)

J'ai supposé qu'il était libre d'être utilisé, je pensais que cela ajouterait de la couleur à la page. Mes excuses. Orphadeus (discussion) 19:47, 29 mai 2011 (UTC)

J'apprécierais si quelqu'un pouvait répondre si L'ENQUÊTE SUR LE TÉLESCOPE SPATIAL HUBBLE* CLUSTER SUPERNOVA : est marginale.

« Les galaxies de type précoce en grappes en particulier se forment encore plus tôt que celles sur le terrain, la plupart des formations d'étoiles se produisant à z & 3 (Thomas et al. 2005 S´anchez-Bl´azquez et al. 2006 Gobat et al. 2008 S´ anchez-Bl´azquez et al. 2006 Gobat et al. 2008).)'

« Le taux de cluster à décalage vers le rouge élevé est particulièrement important : les mesures montrent que la majeure partie du fer intracluster a été produite à un décalage vers le rouge élevé (Calura et al. 2007). »

C'est vers la fin de la page 2. Est-ce une frange ? — Commentaire précédent non signé ajouté par Orphadeus (discussion • contributions) 13:10, 29 mai 2011 (UTC)

Ce n'est pas marginal, mais cela n'a rien à voir non plus avec le sujet de cet article, qui est l'extinction. Comme je l'ai dit à plusieurs reprises, vous devez étudier un manuel d'astronomie avant d'essayer d'éditer des pages wikipédia sur le sujet : vous vous méprenez sérieusement sur les articles de recherche que vous citez sans cesse. - Parejkoj (conférence) 14h00, 29 mai 2011 (UTC) En effet, cet article ne traite pas de l'extinction. Le sujet de l'article est les supernovae de type 1a dans les amas de galaxies, ce qui n'a rien à voir avec le sujet de cet article. Génie modeste conférence 16:34, 29 mai 2011 (UTC)

C'est un point juste. Cependant, il est pertinent car il valide mon interprétation de la page 104 de l'une des références que j'ai utilisées. De plus, L'ENQUÊTE SUR LA SUPERNOVA DU CLUSTER DU TELESCOPE SPATIAL HUBBLE : fait référence à l'extinction à la page 7 :

«Cependant, son hôte est morphologiquement elliptique et probablement à z. 0,7 en fonction de sa couleur. À z. 0.7, un SN Ia devrait être très rouge (E(B − V ) & 1) pour correspondre au couleur et grandeur de la courbe lumineuse de SCP06U50. Comme cela est très improbable (étant donné que l'hôte elliptique contient probablement peu de poussière), nous concluons que SCP06U50 est également très probablement un AGN.'

D'un peu plus haut dans la page -

«Cependant, étant donné que la galaxie hôte est probablement à z. 1 sur la base de son grandeur et couleur,'

- Je trouve des preuves suggérant que l'enquête grand public, d'une manière politique, déclare que la poussière affecte le redshift. Orphadeus (conversation) 19:22, 29 mai 2011 (UTC) Orphadeus (conversation) 19:44, 29 mai 2011 (UTC)

1) Effet d'extinction et de rougeur tous observation photométrique de tout ce qui se trouve au-delà du système solaire, à un degré plus ou moins élevé. Ce n'est pas parce qu'un article les mentionne qu'il a des informations importantes à transmettre sur le sujet. Il y a des milliers, probablement des dizaines de milliers, d'articles qui les mentionnent, mais dans presque tous les cas c'est simplement pour qu'ils puissent corriger l'effet. 2) Le rougissement et le redshift sont deux choses totalement différentes. Le décalage vers le rouge est le décalage des longueurs d'onde des raies spectrales vers le rouge dû à l'éloignement de la Terre et de la source à grande vitesse. Pour les galaxies lointaines, cette vitesse est causée par l'expansion de l'univers. Cela n'a absolument rien à voir avec l'absorption et la diffusion par les grains de poussière. 3) Si quelqu'un pense savoir à quoi ressemble une version sans décalage vers le rouge d'un objet, il peut utiliser la photométrie pour estimation le décalage vers le rouge. C'est ce que font ces auteurs lorsqu'ils disent « en fonction de sa grandeur et de sa couleur ». Notez qu'ils font référence à la galaxie hôte à ce stade, et non à la supernova candidate. 4) Dans la discussion sur SCP06U50, les auteurs essaient de déterminer s'il s'agit d'une supernova de type Ia ou d'un autre type d'objet. La seule information dont ils disposent est une courbe de lumière photométrique en plusieurs couleurs. Parce que tout les mesures photométriques sont affectées par l'extinction, elles doivent considérer l'effet que cela pourrait avoir. Leur conclusion est qu'il faudrait beaucoup de poussière pour que cette source soit un SN Ia, ils concluent donc qu'il s'agit probablement d'un AGN à la place. 5) S'ils avaient un spectroscopique mesure du décalage vers le rouge, mesuré à partir d'une raie spectrale, il serait totalement insensible à la poussière. Je ne veux pas être impoli, mais avez-vous lu et compris le contenu de l'ensemble de cet article, ou avez-vous simplement cherché dans celui-ci une mention d'extinction ? Qu'entendez-vous exactement par « d'une manière politique, déclare que la poussière affecte le redshift » ? Dans quel sens la poussière affecte-t-elle le redshift ? Quel rapport avec la politique ? Et en quoi est-ce pertinent pour le contenu de l'article de Wikipédia sur l'extinction ? Génie modeste conférence 21:31, 29 mai 2011 (UTC) (modifier le conflit)"Politique?" Qu'est-ce que cela a à voir avec le concept de cité-État ou de gouvernance ? Aussi, aucune recherche originale. Cela signifie pas d'interprétations personnelles. Nous venons de résumer la source. Cela vous a été expliqué à plusieurs reprises, et les directives de ce site définissant la recherche originale vous sont liées plusieurs fois (vous pensez peut-être que cela a été fait pour que vous puissiez les lire et arrêter de faire perdre du temps à tout le monde en spammant cette page de discussion avec des trucs ce site ne prend tout simplement pas?). Ian.thomson (discussion) 21:40, 29 mai 2011 (UTC)

Pourquoi tentent-ils de corriger la mesure du décalage vers le rouge pour l'extinction si l'extinction n'a aucun effet ? Orphadeus (discussion) 21:51, 29 mai 2011 (UTC)

Ils ne le font pas. Ils tentent de corriger leur photométrie pour déterminer si l'objet est une supernova ou non. Cela n'a rien à voir avec leur détermination de redshift. As-tu lu ce que j'ai posté plus haut ? Ou l'ignorez-vous volontairement ? Génie modeste talk 21:55, 29 mai 2011 (UTC) Vous ignorer délibérément lorsque vous montrez qu'il a tort ? Bienvenue au club. Ian.thomson (discussion) 22:22, 29 mai 2011 (UTC)

Faites-vous référence au redshift photométrique ? Selon l'article, il a été remplacé par un décalage vers le rouge spectroscopique. Parajkoj nous a assuré à plusieurs reprises (sans référence) que les raies spectroscopiques ne sont pas affectées par l'extinction. D'après l'ENQUÊTE HUBBLE SPACE TELESCOPE* CLUSTER SUPERNOVA à la page 16 :

«Pour la distribution des couleurs, en plus d'un simple décalage, nous quantifions également l'effet de l'inclusion d'une fraction plus ou moins grande de SNe considérablement rougie par la poussière. En fait, nous avons de bonnes raisons de croire que la plupart des clusters SNe Ia seront dans des environnements sans poussière. Une grande partie de la masse stellaire des amas (à 80 %) est contenue dans des galaxies de séquence rouge qui devraient contenir peu ou pas de poussière. Notre analyse spectroscopique et photométrique (Meyers10) des galaxies de séquence rouge confirme cette attente.'

Il me semble que Parajkok a peut-être tort. Orphadeus (discussion) 22:27, 29 mai 2011 (UTC)

Où Parajkok dit-il que la même lumière ne peut pas être affectée à la fois par le décalage vers le rouge et l'extinction ? Et qu'est-ce que cela a à voir avec votre précédent. points? Comment ne pas savoir faire une thèse cohérente ? Ian.thomson (discussion) 22:43, 29 mai 2011 (UTC) Oui, je fais référence au redshift photométrique de la galaxie. Mais la discussion sur le rougissement était dans la détermination de la source, une mesure complètement différente, sans rien à voir avec le redshift. Le redshift photométrique est certainement une technique inférieure aux redshifts spectroscopiques, mais elle est largement utilisée car il est BEAUCOUP plus facile de prendre une image à travers plusieurs filtres que de mesurer un spectre. Les décalages vers le rouge dans ce papier d'amas de supernova auquel vous faites constamment référence sont des décalages vers le rouge photométriques. Mais je ne comprends pas ce que cette citation a à voir avec quoi que ce soit, ni en quoi Parajkok se trompe soi-disant. Génie modeste conférence 22:42, 29 mai 2011 (UTC)

Ian, je n'ai pas dit que Parajkoj a dit que la même lumière ne peut pas être effectuée à la fois par le décalage vers le rouge et l'extinction. Il a affirmé à plusieurs reprises (sans référence) que l'extinction n'a pas d'effet sur le décalage vers le rouge. Vous remarquerez peut-être que j'ai spécifiquement demandé des références. Je trouve que le point politique vaut également la peine d'être répondu (je suis limité dans le temps). Il me semble que la zone d'extinction, le décalage vers le rouge acquis de diverses manières, le décalage vers le rouge intrinsèque et ces sujets interdépendants est une zone d'incertitude scientifique. Il semblerait qu'un gourou ait « résolu le problème », qu'il soit devenu un best-seller de livres grand public, que les hommes du oui se soient entassés et qu'un « fait scientifique grand public » ait été établi, du moins dans les médias. Cependant, si l'on considère l'ensemble des études scientifiques publiées comme la science dominante, il semble qu'il y ait une scission entre les médias dominants - illustrés par comme peut-être Stephen Hawking et Brian Cox - et le courant dominant scientifique réel. La certitude vend des livres. Je déforme peut-être Hawking - je me fie à ce que j'ai lu à son sujet plutôt qu'à lui - mais le point est juste en ce qui concerne Cox. Il se peut que certains des courants scientifiques actuels se soient adressés aux personnalités des médias pendant un certain temps, mais il existe des preuves solides - comme une publication du gouvernement américain et également dans l'enquête Hubble - que cela est abandonné (si jamais cela a été accepté). Cependant, il peut y avoir un problème dans la mesure où l'establishment ne veut pas que le public se moque de la science, d'où la dispute, s'ils l'ont jamais été avec les personnalités des médias, se fait d'une manière subtile qui pourrait être qualifiée de politique. Il peut également y avoir un problème de fief et de sauvegarde de la face si, par exemple, des ordures vérifiables sont actuellement enseignées dans les universités britanniques. Orphadeus (discussion) 11:50, 30 mai 2011 (UTC)

Pas de discussion - juste une référence. Veuillez mettre vos références avec des citations à l'appui de votre cas. je vais ouvrir le bal

evlinder/redsys.pdf - (Hey - c'est le gouvernement américain) Citation : "Dans cet article, nous explorons les effets de l'erreur de décalage vers le rouge, non seulement à travers la distance de luminosité, mais également à travers l'étirement propagé, la correction K et les erreurs d'extinction." — Commentaire précédent non signé ajouté par Orphadeus (discussion • contributions)

Si je le lis correctement (et gardez à l'esprit que je n'ai pas été appelé constamment et que je ne prétends pas être un astronome après avoir été appelé à plusieurs reprises par un astronome professionnel), le document ne dit pas que l'extinction uneaffecte le décalage vers le rouge. "Le terme de module de distance est dominant aux plus bas redshifts alors que les erreurs d'extinction dominent pour presque toute la plage de redshift considérée." L'extinction et le décalage vers le rouge peuvent être confondus, mais cette confusion est une erreur. Ils peuvent se produire au même endroit (un événement provoquant une extinction pourrait s'éloigner de nous, créant un décalage vers le rouge), mais ils sont distincts. Ian.thomson (discussion) 22:22, 29 mai 2011 (UTC)

"Le terme de module de distance est dominant aux plus bas redshifts alors que les erreurs d'extinction dominent pour presque toute la plage de redshift considérée." Merci pour ça Ian. Orphadeus (discussion) 22:31, 29 mai 2011 (UTC)

(modifier le conflit)En fait, Ian, ce "papier" ne dit pas tout à fait cela (notez que j'ai écrit ceci en réponse à votre commentaire précédent, que vous avez depuis corrigé). Lors de la mesure de l'expansion de l'univers, il est nécessaire de tracer le décalage vers le rouge en fonction de la distance. En utilisant les supernovae de type 1a, la distance peut être trouvée à partir de la luminosité, après correction de diverses choses (y compris l'extinction). Cet « article » traite des différentes sources d'erreur pour les deux quantités. Je dis « papier », car il est extrêmement court et ne semble pas avoir été publié dans une revue à comité de lecture. Ce n'est pas non plus écrit par le gouvernement américain, mais quelqu'un appelé 'A. Kim' qui travaille apparemment à LBNL. Maintenant, pour aborder le point réel : je viens d'expliquer (section ci-dessus) que si vous estimez les décalages vers le rouge à partir de la photométrie, vous devez prendre en compte l'extinction. Si quelqu'un mesure réellement les décalages vers le rouge à partir de la spectroscopie, la poussière n'a pas d'importance. C'est une différence essentielle entre décalages vers le rouge photométriques, qui ne sont qu'une estimation et même ceux qui les utilisent admettent qu'ils ne sont pas très précis, et décalages vers le rouge spectroscopiques qui sont des mesures réelles de l'affect. Alors Orphadeus, qu'essayez-vous de prouver ? Pourquoi avons-nous soudainement une discussion pour savoir si la poussière affecte le décalage vers le rouge ? Qu'est-ce que cela a à voir avec l'article? Et pourquoi continuez-vous à ignorer les points des autres utilisateurs et commencez-vous plutôt à discuter de quelque chose de complètement nouveau ? Génie modeste conférence à 22h35, le 29 mai 2011 (UTC)

Cela pourrait faire avec un accompagnement musical. Lawrence Berkley National Laboratory est le gouvernement américain. En supposant de bonne foi, si Modest Genius avait lu le rapport, il aurait peut-être remarqué qu'il faisait référence à un décalage vers le rouge spectrométrique (essayez l'introduction) :

«Dans les études de supernova, la mesure du décalage vers le rouge est généralement prise à partir du spectre de la galaxie hôte, soit à partir de raies d'émission nettes, soit à partir de la cassure de 4000 '» Orphadeus (discussion) 10:57, 30 mai 2011 (UTC) Orphadeus (discussion) 14 : 14, 30 mai 2011 (UTC)

Je ne vais pas chercher une citation selon laquelle le décalage vers le rouge et le rougissement sont différents, car je doute sérieusement qu'une publication se donne la peine de le dire. Leurs effets sur le spectre d'un objet sont si différents que votre insistance sur leur similitude ne fait que mettre en valeur votre manque de connaissance du sujet. C'est comme demander à quelqu'un une citation qu'un cheval et un corbillard sont des choses différentes. Votre lien vers le court document d'A. Kim sur la supernova parle de la détermination du module de distance à une supernova à partir de sa luminosité. La luminosité est calculée à partir de la luminosité dans une bande optique donnée qui est affectée par l'extinction. La détermination du redshift n'est pas affectée par l'extinction. Arrêt complet. Modest Genius a raison ci-dessus. D'après ce que je peux dire, vous recherchez simplement des documents qui utilisent les deux termes (rougeur et décalage vers le rouge), puis prétendez qu'ils impliquent un lien entre les concepts, sans vraiment comprendre les documents. Il n'y a pas de confusion entre rougissement et redshift dans la littérature, juste dans votre tête. Deux astronomes professionnels, qui utilisent tous deux le rougissement et le décalage vers le rouge dans leur travail, vous l'ont dit. Cette conversation ne fait rien pour améliorer la page en question, et devrait se terminer maintenant, et être archivée bientôt, afin de ne pas encombrer davantage cette page de discussion. Aussi, pour toutes les personnes impliquées : c'est parejkoj. - Parejkoj (discussion) 17:21, 30 mai 2011 (UTC)

Ceci est une section pour les références. La médiane dans l'équation doit être écrite en petit, tout comme la spécification. Malheureusement, une vague au-dessus d'une ligne droite n'est pas disponible - car après la médiane dans l'équation :

«L'extinction est une source de confusion et rend difficile l'identification des QSO dans le plan galactique (c) la méthode χ2 est meilleure que les ANN pour estimer les redshifts photométriques. En raison des dégénérescences de couleur, la plus grande erreur absolue médiane (|Δz|Median ' 0,2) est prédite dans la plage 0,5 < zspec < 2. La méthode basée sur les composantes principales spectrales est prometteuse pour récupérer le redshift, en particulier pour V < 19, z < 2.5 QSO.' http://gaia.esa.int/spectralib/spectralibqso/Claeskens-et-al.pdf Orphadeus (discussion) 18:43, 30 mai 2011 (UTC)

«Cependant, nous avons immédiatement réalisé dans cette étude que la diversité existant parmi les spectres QSO doit être prise en compte pour estimer de manière réaliste la fraction de QSO correctement identifiés et les erreurs sur la détermination du redshift. En effet, le spectre observé d'un QSO dépend fortement de son redshift z, de la pente de son continuum, de l'intensité des raies individuelles (flux de crête à continu, largeurs de raies), de la présence éventuelle de raies d'absorption larges, de l'absorption par des nuages ​​intergalactiques intermédiaires ou de l'extinction. par la poussière dans la galaxie hôte QSO ou dans la Voie lactée.' - Page3 :http://gaia.esa.int/spectralib/spectralibqso/Claeskens-et-al.pdf Orphadeus (discussion) 19:10, 30 mai 2011 (UTC)

Je vais juste enregistrer que j'ai changé le titre de cette section (pour aucune autre raison que) pour être consensuel. Orphadeus (discussion) 21:06, 30 mai 2011 (UTC)

Cela devient trop étalé, donc je le consolide:

Si vous êtes tellement limité dans le temps que vous ne pouvez pas répondre correctement à un certain nombre de points des utilisateurs ou ne pouvez pas lire leurs corrections à vos erreurs constantes, vous devriez partir et vous concentrer sur votre vie au lieu de perdre le temps de tout le monde. Presque tous les éditeurs avec lesquels vous avez interagi ont dû vous appeler pour une sorte d'incompétence, et dans de nombreux cas, vous n'avez craché que dans leur cas en ignorant leurs conseils. Raison de plus pour vous de partir. Vous n'êtes d'aucune aide ici.

Quant à vos revendications de « politique », Wikipédia s'appuie sur des revues à comité de lecture et des livres basés sur celles-ci. Cet article ne cite à aucun moment Cox ou Hawking ou quelqu'un d'autre comme ça. Vous soulevez un argument d'homme de paille, un substitut à un point réel. Tous les auteurs des sources de cet article sont des personnes non notables. Vos revendications de "politique" sont des conneries ignorantes. Ayant fréquenté un collège qui tentait de regrouper les communautés scientifique et artistique dans un même département, la communauté scientifique a en fait déteste des célébrités scientifiques, donc nos sources n'hésiteraient pas à renverser Hawking et Cox, s'ils étaient le moins du monde pertinents pour cette discussion.

De plus, en tant qu'Américain, je sais qu'il y a une différence entre « obtenir un financement du gouvernement » et faire partie du gouvernement. Bien que le Lawrence Berkeley National Laboratory soit financé par le gouvernement américain, il est en réalité géré par l'Université de Californie. Le journal de Wang n'est pas plus un document du gouvernement américain que mes devoirs du semestre dernier. L'article de Wang ressemble plus à un devoir qu'à n'importe quel article de revue à comité de lecture.

Et j'ai un message général pour vous :

Je suis un major anglais. Mon diplôme est dans les conneries, donc je sais comment repérer quand quelqu'un d'autre parle de quelque chose qu'il ne connaît pas. Je sais que tu ne sais pas de quoi tu parles. Vous pensez peut-être que oui, mais ce n'est pas le cas. Ayant vu que vous ne compreniez pas à quoi sert une "archive", j'ai dû remettre en question votre intelligence. Ayant vu votre manque total de compétences en recherche et votre incapacité à former une thèse cohérente à Talk: Number of the Beast, je ne peux que supposer qu'une partie de votre éducation est manquante pour une raison quelconque. Puisqu'un astronome (Parajkoj) dit à plusieurs reprises que vous ne savez rien sur ce sujet, et que personne ne l'a interpellé pour avoir dit cela, je ne peux que supposer que vous ne savez rien sur ce sujet. Après avoir regardé l'article de LBNL, je peux dire que vous obtenez le contenu à l'envers et des parties manquantes, et que vous y lisez vos points de vue au lieu de ce que dit l'article. Vous ne savez rien des sujets dont vous avez parlé. Vous n'avez pas montré que vous connaissiez un moyen de recherche. Vous ne faites que gâcher et devriez simplement partir. Vous avez seulement montré que vous êtes incapable de quoi que ce soit d'utile. Vous êtes un parfait exemple de l'effet Dunning-Kruger.

Si vous voulez me prouver le contraire, indiquez de manière cohérente ce que vous essayez de faire pour les articles sur lesquels vous avez essayé de travailler. C'est-à-dire, formez un énoncé de thèse et apportez des sources qui soutiennent directement cet énoncé. C'est une chose que vous devez savoir pour obtenir votre diplôme d'études secondaires, et vous avez démontré une incapacité totale à gérer cela. Ian.thomson (discussion) 17:06, 30 mai 2011 (UTC)

Et encore, vous refusez d'aborder n'importe quel point. J'abandonne, tu es un éditeur inutile et mauvais, soit parce que tu es volontairement ignorant et sans éducation et que tu ne peux pas t'en rendre compte, soit parce que tu es un troll. Quelle que soit la raison, c'est la dernière fois que je vous répondrai en dehors des avertissements et des rapports. Ian.thomson (discussion) 18:56, 30 mai 2011 (UTC)

Dans l'introduction, il est dit que l'extinction est mesurée en mag/kpc. Il n'est pas clair si l'extinction est A (bande passante), mentionnée ci-dessous et identifiée comme « extinction totale », et les unités de A ne sont jamais énoncées sans ambiguïté. Cependant, les unités dans l'équation pour N_H/A(V) impliquent que A a des unités de mags. A a-t-il des unités de mag, ou mag/kpc ? Asterai (discussion) 21:34, 1er juillet 2011 (UTC)

A a des unités de grandeurs. J'ai supprimé la déclaration trompeuse en tête et mentionné les unités lorsque A (et N (H)) est introduit. Génie modeste conférence 23:11, 1er juillet 2011 (UTC)

Si je peux faire une suggestion ici : mettez un exemple ou deux avec des termes clairement définis sur la façon dont la rougeur est calculée localement. Choisissez une étoile dire. 300 parsecs et guidez le lecteur à travers les mathématiques étape par étape. En fait, voir un exemple de l'équation en action, avec des termes définis tout autour, aiderait beaucoup ici. — Commentaire précédent non signé ajouté par 74.124.96.239 (talk) 00:25, 3 avril 2013 (UTC)

D'accord, ce serait utile. S'il vous plaît allez-y et ajoutez-en un. Génie modeste conférence 12:13, 22 avril 2013 (UTC)


1. Introduction

Les études de l'Univers à fort décalage vers le rouge reposent de plus en plus sur décalages vers le rouge photométriques identifier et cartographier la distribution des galaxies lointaines. Ces décalages vers le rouge photométriques sont estimés à partir des formes spectrales globales tracées par des catalogues de données photométriques, par opposition à l'ajustement d'une ou plusieurs caractéristiques spectroscopiques. Les relevés photométriques du décalage vers le rouge étendent considérablement les possibilités des études cosmologiques et de l'évolution des galaxies en augmentant considérablement le nombre et la variété des galaxies au-delà des relevés spectroscopiques de galaxies plus coûteux en observation.

Parce que le décalage vers le rouge des galaxies est une propriété fondamentale, la compréhension des erreurs dans les estimations du décalage vers le rouge photométrique est cruciale pour l'interprétation des résultats empiriques. Par exemple, il a été démontré que les incertitudes du décalage vers le rouge ont un impact important sur l'évolution mesurée de la fonction de masse (par exemple, chen:03 marchesini:09 muzzin:13 ) . Les relevés photométriques peuvent permettre des études de structure à grande échelle et d'amas de galaxies inaccessibles aux relevés spectroscopiques, mais la modélisation des résultats dépend fortement de la compréhension des incertitudes du décalage vers le rouge (par exemple chen:03 quadri:08 wake:11 mccracken:15 soltan:15 ) . Afin de modéliser pleinement les effets des redshifts photométriques, nous devons quantifier leur précision, qui elle-même peut dépendre du redshift et des propriétés des galaxies.

Traditionnellement, la précision photométrique du redshift est testée par comparaison directe entre les redshifts mesurés et vrai redshifts pour un sous-ensemble d'un catalogue avec spectroscopie de suivi (par exemple skelton3dhst dahlen:13 ) . Alternativement, plusieurs groupes ont identifié de nouvelles méthodes pour tester la précision photométrique du décalage vers le rouge en utilisant les propriétés de regroupement des galaxies (par exemple, newman:08 benjamin:10 quadri:10 ). Enfin, un certain nombre d'études sur la précision photométrique du décalage vers le rouge ont été menées sur la base de simulations de catalogues de galaxies (par exemple ascaso:15 ) . La première méthode est la plus directe, mais elle est généralement biaisée vers des échantillons très spécifiques et les galaxies les plus brillantes pour lesquelles des décalages vers le rouge spectroscopiques sont possibles : principalement à z < 1 et pour les galaxies en formation d'étoiles avec des raies d'émission lumineuses. La deuxième classe de méthodes a différentes implémentations possibles, mais en général, elles nécessitent de grands ensembles de données, peuvent manquer de sensibilité à certains types d'erreurs systématiques de redshift ou à des défaillances catastrophiques, et les résultats peuvent être difficiles à interpréter. Bien que les catalogues fictifs soient une alternative intéressante et ne nécessitent aucune donnée supplémentaire, ils sont fondamentalement limités par leur capacité à correspondre à la diversité empirique d'une population de galaxies en évolution.

Plusieurs méthodes d'ajustement des redshifts photométriques et de nombreux progiciels et bibliothèques existent au sein de la communauté. Avec les mêmes données, chaque méthode produira des résultats légèrement différents (par exemple, hogg:98 hildebrandt:08 hildebrandt:10 abdalla:11 ) . Récemment, dahlen:13 a publié une étude approfondie évaluant la précision des redshifts produits par divers codes photométriques, en se concentrant sur la comparaison directe d'objets avec des redshifts spectroscopiques dans les champs CANDELS (Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey), y compris un échantillon avec plus profond télescope spatial Hubble (TVH) grism redshifts spectroscopiques pour étendre l'analyse à des redshifts élevés. Bien que l'étude ait examiné certaines tendances de la précision du décalage vers le rouge photométrique avec les propriétés des galaxies, elle est fondamentalement limitée à la disponibilité des décalages vers le rouge spectroscopiques.

Le levé 3D-HST ( 3dhst skelton3dhst , PI : P. van Dokkum ) offre une opportunité unique de tester directement la précision photométrique du décalage vers le rouge dans les champs CANDELS ( candels candelsb ) et 3D-HST. Les données de ce programme HST Legacy combinées à celles de l'enquête AGHAST (A Grism H-Alpha SpecTroscopic) (PI : B. Weiner) incluent la spectroscopie grism basse résolution sur ∼ 70 % de l'empreinte de l'imagerie CANDELS/3D-HST. Cette couverture spectroscopique uniforme permet des estimations spectroscopiques de grism sans précédent des vrais décalages vers le rouge pour des milliers de galaxies au-delà de z > 1 . En utilisant les décalages vers le rouge de grism, nous pouvons quantifier la précision du décalage vers le rouge des catalogues photométriques dans ces champs pour un échantillon suffisamment grand et non biaisé de galaxies à décalage vers le rouge élevé ( z < 3 ). Dans cet article, nous évaluons la précision photométrique du décalage vers le rouge dans les catalogues photométriques sélectionnés par HST/WFC3 (Wide Field Camera 3) produits par la collaboration 3D-HST ( skelton3dhst ). Bien que nous concentrions notre enquête sur les redshifts photométriques dérivés du code EAZY ( eazy ), nous nous attendons à ce que les conclusions soient similaires pour différents algorithmes étant donné que dahlen:13 n'a trouvé aucune différence importante entre les différentes méthodologies et codes pour un ensemble de données similaire. De plus, bien que cette étude ait recommandé une médiane combinant les redshifts photométriques à l'aide d'une multitude de techniques d'ajustement, le code EAZY a été exécuté par trois groupes différents et a toujours produit des fractions de dispersion et de valeurs aberrantes relativement faibles parmi la suite de tests de redshift. Dans ce travail, nous visons à quantifier les tendances de la dispersion entre les redshifts photométriques et vrais en fonction des propriétés des galaxies ainsi que les taux d'occurrence des défaillances catastrophiques.

Compte tenu de l'objectif ultime de quantifier les performances de décalage vers le rouge photométrique dans les catalogues 3D-HST, ce document est organisé comme suit. La section 2 décrit brièvement le jeu de données 3D-HST. La section 3 quantifie la précision des redshifts photométriques de l'échantillon entier détecté et en fonction des propriétés de la galaxie par comparaison avec les redshifts spectroscopiques et grism en plus d'une analyse de paires proches. La section 4 traite de la relation entre la précision du décalage vers le rouge photométrique et les bandes passantes photométriques incluses dans l'ajustement du décalage vers le rouge. La section LABEL:sect:pdfs traite de l'utilisation de la fonction de distribution de probabilité photométrique complète du redshift par opposition à un redshift photométrique à valeur unique. La section LABEL:sect:sim_surveys étend l'analyse de la dépendance au filtre pour simuler les performances photométriques du décalage vers le rouge dans les enquêtes DES, DES plus VHS et LSST. Enfin, nous résumons les principaux résultats de l'étude dans la section LABEL:sect:summary .

Tout au long de cet article, nous supposons une cosmologie de concordance ( H 0 = 70 k m s − 1 M p c − 1 , M = 0,3 et Ω Λ = 0,7 ) et citons toutes les grandeurs du système AB.


Systèmes photométriques et couleurs

Mais regardez ce qui se passe lorsque nous prenons une photo du même amas d'étoiles avec une autre sorte d'émulsion photographique.

Quels sont les trois plus brillants maintenant? Alors, laquelle devrait avoir les valeurs de magnitude les plus faibles ?

Couleurs stellaires

  • la plupart sont relativement faibles
  • tous sont de minuscules petits points de lumière
  • la plupart des étoiles brillent de couleurs pastel douces, sans crier au néon

Néanmoins, si vous regardez attentivement, vous verrez de légères différences de couleurs. Dans la constellation d'Orion, par exemple,


Image reproduite avec l'aimable autorisation de Denys Sakva

Bételgeuse, en haut à gauche, est nettement plus rouge que la plupart des étoiles.

Vous pouvez rehausser les couleurs d'une photographie (ou d'un oculaire) en défocalisant afin que la lumière soit répartie sur une plus grande zone.

La réponse est Température.

L'échelle de température Kelvin

Prenons un instant pour discuter de la façon dont les astronomes décrivent la température. Ici sur Terre, dans des circonstances ordinaires, les gens utilisent des échelles de température qui ont tendance à donner des valeurs "pratiques" pour la plupart des objets : de petits nombres positifs, comme "12" ou "45" ou "98".

Les astronomes étudient des objets qui couvrent une gamme de températures beaucoup, beaucoup plus large. Des nuages ​​de gaz et de poussière très froids peuvent avoir des températures qui sont incommodément basses dans cette échelle ordinaire : -420 degrés Fahrenheit ou -250 degrés Celsius. Les étoiles ordinaires comme le Soleil ont des températures de plusieurs milliers de degrés, et les étoiles très chaudes peuvent atteindre plusieurs dizaines de milliers. Il est déroutant de traiter à la fois des nombres négatifs et positifs, de sorte que les astronomes choisissent d'adopter le Kelvin échelle de température : elle commence à la température la plus froide possible, puis monte par paliers de la même taille que les degrés Celsius.

Il est facile de convertir de Celsius en Kelvin : ajoutez simplement 273. La conversion de Fahrenheit en Kelvin est un peu plus difficile, mais si vous utilisez Celsius comme étape intermédiaire, ce n'est pas si difficile.

Notez que les scientifiques omettent souvent le mot « degrés » lorsqu'ils décrivent une température en Kelvin. L'eau pure gèle à "0 degrés Celsius", mais à "273 Kelvin". Quelqu'un qui veut sonner à l'ancienne pourrait même écrire "273 Kelvins".

Le lien entre la couleur et la température

Vous savez probablement déjà que les objets chauds brillent d'une couleur qui dépend de leur température. La lave relativement froide - seulement 1000 Kelvin - apparaît d'un rouge terne :

tandis qu'un chalumeau oxyacétylénique à 3200 Kelvin émet une lumière blanc bleuâtre :

Ce qui se passe, c'est que la température d'un objet affecte le spectre de lumière qu'il émet. Un "spectre" est simplement une description de la quantité de lumière divisée par longueur d'onde. Nous pouvons afficher le spectre d'un objet sous forme d'image, comme ceci :


Copyright de l'image Maurice Gavin

Nous pouvons également afficher les spectres sous forme graphique, avec la longueur d'onde le long de l'axe horizontal et l'intensité de la lumière le long de l'axe vertical.


Copyright de l'image et du spectre Maurice Gavin

Il s'avère qu'il existe un schéma clair dans le spectre de la lumière émise par un objet.

  • les objets chauds émettent la plupart de leur lumière à de courtes longueurs d'onde
  • les objets froids émettent la plupart de leur lumière à de longues longueurs d'onde

Systèmes photométriques standards

La définition formelle des grandeurs ne décrit que les différences entre deux étoiles elle ne contient pas de zéro point. Clairement, il est nécessaire à un moment donné de fixer un point zéro, pour que les étoiles puissent être décrites individuellement plutôt que seulement par rapport aux autres. Mais comment choisir ce point zéro ?

L'un des facteurs de complication est que la luminosité apparente d'une étoile dépend de l'équipement utilisé pour la mesurer. « Bien sûr », pourriez-vous dire, « quand je regarde à travers un grand télescope, une étoile apparaîtra beaucoup plus brillante que lorsque je regarde à travers un petit télescope ». Assez vrai. Mais le relatif la luminosité de deux étoiles côte à côte peut changer, selon la façon dont on les considère :

La réponse est que les températures des étoiles s'étendent sur une large plage, de moins de 2000 Kelvin à plus de 50 000 Kelvin. La plupart des étoiles émettent un rayonnement comme un corps noir classique, avec un spectre qui dépend principalement de leur température :

Or, si l'on attachait un filtre bleu à son télescope, on ne mesurerait que la lumière bleue émise par les étoiles. Dans ce cas, l'étoile chaude apparaîtrait plus brillante que l'étoile froide :

D'un autre côté, si l'on attachait un filtre rouge à son télescope, l'étoile froide apparaîtrait plus brillante que l'étoile chaude :

Ainsi, le rapport de luminosité apparente - et, par conséquent, la différence de magnitude - entre deux étoiles dépend de la passe-bande à travers lequel on les observe. Une « bande passante » est la sensibilité globale d'un instrument en fonction de la longueur d'onde : elle inclut les effets des filtres, ainsi que les caractéristiques du détecteur et des miroirs du télescope.

Les astronomes ont choisi un certain nombre de systèmes photométriques, chacun basé sur une bande passante particulière (c'est-à-dire une combinaison particulière de filtre, de détecteur et de télescope). Il faut toujours se souvenir de spécifier le système lorsque l'on cite la magnitude d'une étoile.

La plupart des astronomes travaillant dans l'optique utilisent les systèmes photométriques UBVRI. Il s'agit de cinq bandes passantes différentes qui s'étendent de l'extrémité bleue du spectre visible au-delà de l'extrémité rouge. Ils ont été mis en place il y a de nombreuses années par plusieurs astronomes :

  • Johnson et Morgan, ApJ 117, 313 (1953) définit le système UBV avec des étoiles visibles dans l'hémisphère nord
  • Cousins, MNRAS 166, 711 (1974) (et ses références) étend le système UBV au ciel austral
  • Cousins, MNASSA 33, 149 (1974) définit les bandes passantes R et I plus rouges. Malheureusement, cet article et d'autres de Cousins ​​décrivant les bandes passantes R, I ont été publiés dans une revue quelque peu obscure (Monthly Notices of the Astronomical Society of South Africa), qui n'est pas disponible en ligne ou dans de nombreuses bibliothèques. Une bonne référence secondaire est Bessell, PASP 91, 589 (1979).

Les systèmes sont définis par des combinaisons particulières de filtres en verre et de tubes photomultiplicateurs, car ils ont été créés à l'époque avant l'existence des CCD. Étant donné que les photomultiplicateurs et les CCD ont des sensibilités spectrales très différentes (les photomultiplicateurs sont plus efficaces dans le bleu, les CCD dans le rouge), il est difficile de faire correspondre la bande passante effective d'un instrument à base de CCD à celle d'un instrument à base de photomultiplicateur. En 1990, Michael Bessell a proposé une recette pour fabriquer des filtres à partir de verres colorés courants qui reproduiraient assez fidèlement les bandes passantes officielles de Johnson-Cousins ​​UBVRI.

Les bandes passantes UBVRI sont appelées haut débit car ils couvrent de larges bandes de longueurs d'onde. La résolution spectrale des bandes passantes est faible :

Pour certaines applications, les astronomes utilisent des filtres qui transmettent une gamme de longueurs d'onde beaucoup plus petite.

UNE bande étroite un filtre comme celui-ci nécessite des temps d'exposition beaucoup plus longs pour générer le même signal qu'un filtre à large bande. Le temps des télescopes étant si précieux, les astronomes ont tendance à utiliser des systèmes à large bande. C'est l'une des raisons de la popularité du système UBVRI.

Lorsqu'ils écrivent la magnitude d'une étoile, les astronomes utilisent une abréviation pour désigner le système photométrique de la mesure :

Il existe également une convention pour utiliser des lettres minuscules pour les mesures brutes et des lettres majuscules pour les valeurs entièrement réduites :

Zéro point

Ainsi, une fois que l'on s'est fixé sur l'équipement que l'on utilisera - qui définit le système photométrique - on est toujours confronté à la question du point zéro de la magnitude. Le choix est arbitraire. Les astronomes ont choisi d'utiliser la brillante étoile Vega comme point de départ.

Dans les systèmes UBVRI, l'étoile Vega est définie comme ayant une magnitude de zéro.(*)

Des "couleurs" stellaires

Lorsque les gens ordinaires utilisent le mot « couleur » pour décrire une étoile, ils veulent alors dire « quelle est la teinte perçue par l'œil ? Une étoile peut avoir une couleur "orange pâle", une autre "blanc bleuté".

Mais les astronomes utilisent le mot "couleur" de manière très différente. Pour eux, la "couleur" est une mesure de la différence de magnitude d'une étoile dans deux bandes passantes. par rapport à la différence de magnitude de Vega dans les mêmes bandes passantes. Permettez-moi d'illustrer avec un exemple ou deux.

Considérez les étoiles Vega (une étoile chaude), Antares (une étoile très froide) et Meissa (une étoile très chaude dans la constellation d'Orion). Nous pouvons mesurer leurs amplitudes dans les bandes passantes B et V.

Un astronome dirait : « Antares a un indice de couleur de (B-V) = 1,87 », ou moins formellement « Antares a une couleur de 1,87 », ou, encore moins formellement, « Antares est rouge ». Tout indice de couleur inférieur à environ 0,5 (indiquant une température similaire à environ 10 000 K de Vega) signifie qu'une étoile est "bleue" tout indice de couleur supérieur à environ 1,5 (indiquant une température bien inférieure à celle de Vega) signifie qu'une étoile est "rouge".

Parce que tant de mesures ont été effectuées dans les systèmes B et V au fil des ans, les astronomes utilisent souvent l'indice de couleur (B-V) comme "la" mesure de la couleur d'une étoile. En fait, on peut aussi se référer à l'indice de couleur formé par (U-B), ou (V-I), ou tout autre couple de bandes passantes. Mais (B-V) est l'indice le plus couramment utilisé. Par exemple, le diagramme de Hertzsprung Russell, qui montre la relation entre la luminosité d'une étoile et sa température, est généralement tracé avec l'indice de couleur (B-V) comme indicateur de température :

Parce que la plupart des étoiles ordinaires émettent un rayonnement comme un corps noir, il existe une relation simple entre leur indice de couleur et leur température. Sekiguchi et Fukugita, AJ 120, 1072 (2000) montrent

Cela suggère un moyen très rapide et facile de déterminer la température d'une étoile : il suffit de prendre des images à travers deux bandes passantes différentes (B et V, par exemple), puis d'appliquer une formule empirique pour transformer l'indice de couleur en température. Avec une caméra grand champ, on peut mesurer des centaines voire des milliers de couleurs stellaires dans une seule paire d'images.


Cet APOD du 4 décembre 2005 provient de David Malin, UK Schmidt Telescope, DSS, AAO -- . et ainsi on peut calculer les températures de milliers d'étoiles après seulement quelques minutes de travail à l'observatoire. C'est beaucoup, beaucoup plus rapide que de prendre le spectre de chaque étoile individuellement (bien que, pour être juste, la température déterminée à partir d'un spectre soit plus précise que celle d'un seul indice de couleur).


Voir la vidéo: LIVE TECHNIQUE Espaces colorimétriques et formats (Septembre 2021).