Astronomie

Distinction entre le signal de la Terre et les signaux des sources célestes

Distinction entre le signal de la Terre et les signaux des sources célestes

Comment est-il confirmé qu'une source de rayonnement (pas en lumière visible) est terrestre ou céleste ?

Si des explications détaillées et/ou des références sont possibles, je vous en serais reconnaissant.


Il y a quelques indicateurs où se trouve une source :

Direction : Les ondes radio sont comme les ondes lumineuses mais avec une longueur d'onde plus longue : vous devez regarder dans la direction de la source pour la voir. Les sources terrestres ne sont généralement pas haut dans le ciel.

Mouvement apparent : Un autre aspect important est la rotation de la Terre : le ciel tourne par rapport à la surface de la Terre. Ainsi, si la source se déplace avec la vitesse de rotation de la Terre et reste stationnaire dans un référentiel céleste, il s'agit très probablement d'une source en dehors de la Terre - et vice versa.

Emplacement / Parallaxe : Si vous avez plusieurs récepteurs, ils ne seront pas d'accord sur la direction d'où provient un signal, mais seront d'autant mieux d'accord plus la source est éloignée. Les sources célestes sont suffisamment éloignées pour que la direction soit (presque) identique. La quantité de désaccord, la soi-disant parallaxe, vous donne un indicateur géométrique sur la distance à la source.


À l'excellente réponse de Planetmaker, ajoutez la périodicité. Ceci est utile si vous ne pouvez pas du tout mesurer la direction.

Un signal dont l'intensité varie régulièrement sur une période de 24 heures est vraisemblablement terrestre.

Un signal dont l'intensité varie régulièrement sur une période de 23 heures 56 minutes est probablement céleste.

Pour les signaux qui (pour une raison quelconque) ne peuvent être observés qu'à une heure particulière de la journée - disons, minuit - une période de 12 mois suggère "céleste" mais vous devez être prudent car le temps a également une période de 12 mois, en la plupart des endroits.


Le 29 avril 2019, le radiotélescope Parkes en Australie a commencé à s'aligner sur les signaux radio du voisin le plus proche du Soleil, Proxima Centauri, à un peu plus de 4 années-lumière. Le télescope recherchait des preuves d'éruptions solaires et a donc écouté pendant 30 minutes avant de se recycler sur un quasar distant pour se recalibrer puis pointer en arrière.

Au total, le télescope a recueilli 26 heures de données. Mais lorsque les astronomes l'ont analysé plus en détail, ils ont remarqué quelque chose d'étrange - un seul ton pur à une fréquence de 982,02 MHz qui est apparu cinq fois dans les données.

Le signal a été signalé pour la première fois l'année dernière dans The Guardian, un journal britannique. L'article soulevait la possibilité que le signal puisse être la preuve d'une civilisation avancée sur Proxima Centauri, une étoile naine rouge connue pour avoir une planète de la taille de la Terre en orbite dans sa zone habitable.

Mais les chercheurs ont toujours minimisé cette possibilité en disant que, à tout le moins, le signal doit être à nouveau observé avant de pouvoir tirer des conclusions. En effet, le signal n'a pas été revu, malgré diverses recherches.

Amir Siraj et Abraham Loeb de l'Université Harvard à Cambridge, Massachusetts, ont calculé la probabilité que le signal provienne d'une civilisation basée à Proxima Centauri, même sans autre observation. Ils disent que les chances sont si faibles qu'elles en excluent effectivement la possibilité, à condition que les hypothèses qu'ils formulent dans leurs calculs soient valides.


LIGO N'était-ce que du bruit ?

Le signal GW faisait partie de l'ensemble du faisceau de bruit, puis ils ont fait correspondre les deux signaux GW l'un par rapport à l'autre, donc bien sûr, l'ensemble des faisceaux de bruit a également commencé à correspondre dans son ensemble.

Vous pouvez considérer l'ensemble du signal de bruit comme un corps et les GW comme le squelette, si vous faites correspondre deux squelettes, les corps correspondront également. Ou est-ce que j'ai raté quelque chose ?

Il semblait également qu'il n'y avait qu'un seul signal aussi fort, aux deux détecteurs sur une longue période de temps et ils étaient tous les deux dans un laps de temps de 7 ms. C'est une correspondance claire.

La seule excuse valable semblait être l'orage, peut-être déclenché par une forte dose de rayons cosmiques qui a également été ressentie par ces deux détecteurs ? Non.

Il y avait un gros orage exactement entre les deux détecteurs au moment de la détection. Ceux-ci pourraient être liés aux rayons cosmiques et 'de grandes rafales de rayons X et de rayons gamma' :

En revanche, le cas des orages et des éclairs est légèrement différent. Contrairement à la chambre à étincelles, les champs électriques à l'intérieur de l'orage ne semblent pas être assez grands pour déclencher une étincelle, donc pour que le mécanisme de Gurevich fasse le travail, il a dû supposer qu'il y avait beaucoup, beaucoup de particules chargées traversant l'orage. immediatement. Parce que les gerbes d'air de rayons cosmiques ne produisent pas suffisamment de particules par elles-mêmes, Gurevich a postulé que l'orage a donné un coup de pouce à la gerbe de rayons cosmiques en augmentant le nombre d'électrons énergétiques grâce à un processus exotique appelé « rupture d'emballement ».

Une panne d'emballement se produit lorsque la force de traînée que les électrons subissent en se déplaçant dans l'air est inférieure à la force électrique agissant sur eux. Dans de tels cas, les électrons "s'enfuiront" en gagnant de très grandes quantités d'énergie. Lorsque les électrons en fuite entrent en collision avec les molécules d'air, ils génèrent d'autres électrons en fuite ainsi que des rayons X et des rayons gamma, ce qui entraîne une avalanche de particules à haute énergie. Au lieu de roches dans un glissement de terrain, pensez aux électrons en fuite comme des éclats d'obus déchirant un chemin à travers le nuage orageux. Selon le modèle de Gurevich, ce chemin conducteur est à l'origine de la foudre.

Une panne d'emballement peut créer de grandes quantités d'électrons à haute énergie, ainsi que des rayons X et des rayons gamma. Fait intéressant, nous savons que la panne d'emballement fonctionne pour les faibles champs électriques déjà observés à l'intérieur des orages. Nous savons également que cela se produit parfois juste avant la foudre, car nous pouvons voir de grandes rafales de rayons X et de rayons gamma jaillir des orages. En fait, ces rayons gamma sont si énergétiques et si brillants qu'ils ont été observés depuis l'espace extra-atmosphérique, à 600 kilomètres (373 miles) au-dessus de la surface de la Terre. - https://www.scientificamerican.com/article/experts-do-cosmic-rays-cause-lightning/

la densité des trous noirs de l'univers est-elle connue ? théoriquement ou observationnellement (expérimentalement) ?
Étant donné le volume de l'univers (connu) et la densité de trous noirs qu'il contient (question ci-dessus), la probabilité d'une collision devrait être calculable.

Jusqu'à présent, ce résultat d'observation GW est une fois dans n'importe quelle période de temps pendant laquelle les détecteurs GW ont été activés (quand LIGO est-il devenu opérationnel pour la première fois et a-t-il été en direct à 100% depuis ?) La période d'activation de LIGO doit être utilisée avec la seule observation pour reculer la densité des trous noirs dans l'univers si elle n'est pas déjà connue par d'autres méthodes. Ce calcul a-t-il déjà été fait ou publié ? Si oui où. Quelqu'un peut-il faire ce calcul et le poster ici?

Peut-être qu'étant donné la densité de trous noirs dans l'univers connu et le volume de l'univers connu, le nombre de telles observations prédites est en accord avec le nombre réellement observé par LIGO. Si la densité de BH donnée n'est pas connue à l'avance, elle peut être déduite par le nombre de collisions de BH observées au cours du temps fini où LIGO a été actif.

Ma supposition et mon intuition est que la densité BH est beaucoup plus grande et implique plus de collisions de ce type que celles observées par LIGO depuis qu'il est opérationnel. Si cela est vrai, cela signifie que l'efficacité du détecteur LIGO est très faible, mais LIGO a-t-il déjà expliqué de manière adéquate pourquoi leur efficacité de détection est faible (si elle est faible) ?

Le groupe LIGO a-t-il discuté de cet aspect de ses observations ? Est-ce nouveau, ancien ou hors de propos pour une raison quelconque ?


Vos appareils connectés bousillent l'astronomie

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

À l'heure actuelle, "Voici des choses stupides sur l'Internet des objets" est devenu un genre d'article à part entière. Il y a même un Tumblr dédié à l'idée : "We Put a Chip in It", ça s'appelle.

Dans certaines visions du futur, les appareils intelligents capturent, quantifient et contrôlent la plupart des aspects de la vie quotidienne. Le four sait que vous avez oublié vos biscuits et les refroidit pour vous à un maximum de croustillant. Le ventilateur sait que vous êtes entré dans la pièce et que vous désirez une brise. L'oreiller sait quand vous commencez à ronfler et vibre pour que vous vous déplaciez dans votre sommeil. Alexa peut vous en commander un ! OK Google?

Voici la chose, cependant : pour que ces puces dans ces appareils fassent du bien, elles doivent communiquer avec le monde extérieur, et le monde extérieur doit répondre. Et, comme la plupart des communications magiques, cela se produit souvent par ondes radio.

Le nombre croissant d'objets intelligents sur Terre (en plus des satellites à rayonnement WiFi de plus grande puissance et à plus longue portée, des radars de voiture et une couverture cellulaire omniprésente) pose des problèmes aux scientifiques qui veulent regarder au-delà de notre planète : les astronomes trouvent cela plus difficile et plus difficile à détecter les faibles signaux radio de l'espace, qui arrivent parfois sur les mêmes fréquences que la technologie humaine. Les scientifiques, l'industrie et le gouvernement tentent de partager un spectre si encombré que beaucoup appellent cela une crise.

À l'heure actuelle, la FCC réglemente l'utilisation du spectre radio. Et cela permet d'économiser des "bandes", ou des gammes de fréquences, principalement pour la radioastronomie. Autour de 1 400 mégahertz, par exemple, les astronomes peuvent rechercher en toute sécurité de l'hydrogène neutre. Un peu plus haut, près de 1 600 mégahertz, la FCC a des protections pour les observations d'hydroxyle. Dans les bandes entièrement protégées, comme celles de l'hydrogène, personne d'autre, ni un fabricant de brosses à dents intelligentes ni un fournisseur de téléphonie mobile, ne peut diffuser à ces fréquences.

Le reste du spectre alloué par la FCC est réparti entre 29 autres services, tels que « diffusion », « amateur », « mobile » et « aides météorologiques ». Toutes les technologies ne nécessitent pas de licences pour utiliser des fréquences spécifiques (y compris de nombreux objets de l'Internet des objets). Mais dans certaines tranches de la FCC, les entreprises se disputent des sections spécifiques. Les fournisseurs de services cellulaires, par exemple, ont payé plus de 19 milliards de dollars plus tôt cette année pour 84 mégahertz de bande passante que les télédiffuseurs utilisaient auparavant.

Et ce nombre b$g devrait vous dire quelque chose : ces tranches sont précieuses. C'est simple l'offre et la demande. Que signifie ces coins réservés exclusivement à la radioastronomie ? Quelqu'un aimerait vraiment les utiliser pour gagner de l'argent.

Parce qu'il s'agit d'un milieu universitaire, il y a un comité pour cela : le Comité sur les fréquences radio de l'Académie nationale des sciences (CORF !). Et le 1er juillet, l'astronome Liese vanZee deviendra son nouveau chef, à la tête du groupe de scientifiques qui (essayent) d'aider à guider l'allocation des ressources radio par le gouvernement et le monde afin que les scientifiques puissent étudier les galaxies sans confisquer votre Samsung Galaxy.

Les recherches de VanZee utilisent principalement l'une des bandes ultra-protégées, autour de fréquences de 1 420 mégahertz, où l'hydrogène cosmique diffuse ses émissions. Elle a donc beaucoup moins à s'inquiéter, personnellement, que certains radioastronomes qui étudient les molécules organiques complexes qui émettent à la même fréquence que le radar anticollision. Pourtant, même dans la section du spectre prétendument scientifique de vanZee, des problèmes surgissent. "Cela n'empêche pas les gens de décider de diffuser là-bas", dit-elle. Cela se produit souvent par inadvertance, sous la forme d'« harmoniques » ou d'harmoniques accidentelles avec des fréquences exactement 2, 3, 4, etc. fois supérieures à celles prévues.

En préparation d'une prochaine réunion de la Conférence mondiale des radiocommunications, le comité de vanZee fournira des informations aux dirigeants présents sur un "nouveau" spectre compris entre 275 et 450 gigahertz. Avec les fréquences les plus basses si encombrées, les gens poussent plus haut (même si la technologie pour le faire n'est pas mature) et se déplacent vers un spectre auparavant non alloué.

Mais il y a un gros problème : un tout nouveau télescope d'un milliard de dollars au Chili, l'Atacama Large Millimeter/submillimeter Array, ou ALMA, vient d'ouvrir les yeux il y a quelques années, regardant dans l'espace dans cette portée radio. « Si vous souhaitez étudier des molécules dans notre atmosphère ou d'autres parties de notre galaxie ou d'autres galaxies, cela fait partie du spectre que vous souhaitez utiliser », explique vanZee. Si un tas de types de communication commencent à diffuser tout là-dedans, cet instrument d'un milliard de dollars ne pourra pas faire son travail.

Maintenant, vanZee ne dit pas que tout le monde, à l'exception des astronomes, devrait devenir des luddites pour sauver l'astronomie. « Il est vraiment tentant pour la communauté scientifique de mettre le pied à terre et de dire : « Non, non, » », dit-elle. "Mais, en fait, nous voulons travailler avec l'industrie."

Les deux parties peuvent travailler pour minimiser les coups de tête : les astronomes peuvent continuer à construire leurs radiotélescopes dans la nature sauvage du monde, loin des hordes de Blueteeth et des tours de téléphonie cellulaire et Teslas. Et ils peuvent construire des "interféromètres" - des ensembles de télescopes plus petits qui fonctionnent ensemble comme un seul, qui aident les astronomes à distinguer les signaux terrestres et célestes - au lieu de plats autonomes.

Pour sa part, l'industrie peut dire « désolé » lorsqu'elle crée des harmoniques, puis les corriger. C'est bon pour tout le monde. "Vous gaspillez de l'énergie si vous transmettez en dehors de votre groupe", dit vanZee. Et la FCC pourrait donner plus de latitude aux deux parties : placez un espace vide entre les bandes sacrées de l'astronomie et les bandes de communication, afin que l'industrie puisse être un peu bâclée sans obscurcir l'univers.

C'est encore une vieille façon de voir les choses, dit Darpa, l'agence de recherche sur la défense qui vous a apporté ce robot beignet méduse rampant. "Allouer" le spectre ? Si rigide, si dépassé. La voie à suivre n'est pas de dire exactement aux émetteurs radio ce qu'ils doivent faire, mais de les libérer, de les laisser décider eux-mêmes.

L'ancien modèle a fonctionné relativement bien pendant plus d'un siècle. Mais il n'est plus pratique, de l'avis de Darpa, d'avoir des appareils qui fonctionnent à une fréquence fixe et statique. C'est la base du nouveau Spectrum Collaboration Challenge de l'agence (semblable à un défi d'il y a quelques années) : des étrangers créent des appareils qui peuvent choisir, à la volée, quelle gamme de fréquences fonctionnera le mieux à ce moment-là, en fonction de la diffusion caractéristiques des autres appareils à proximité, y compris ceux qui sont également basculer entre les fréquences.

"Si nous voulons éliminer les inefficacités qui existent aujourd'hui", déclare Paul Tilghman, responsable du défi, "nous voulons gérer le spectre à la vitesse des machines, pas à celle des personnes". Une trentaine d'équipes, sélectionnées en janvier, se préparent désormais pour le premier "tournoi" de décembre, où leurs diffuseurs s'affronteront.

L'armée, et donc la Darpa, s'y intéresse parce que ses nombreuses « plates-formes sans pilote » – des drones dans l'eau et dans les airs, des satellites en orbite – ont besoin de communications cohérentes et ininterrompues. Mais tout ce qui sort de la concurrence peut aussi faire son chemin dans l'industrie. Dans votre brosse à dents qui vous dit si vos dents sont propres !

Des diffuseurs super intelligents comme celui-ci pourraient être à la fois une bonne et une mauvaise nouvelle pour la radioastronomie. La bonne nouvelle : les algorithmes qui aident les machines à déterminer les fréquences à utiliser peuvent facilement inclure des éléments tels que « ne jamais utiliser 1 420 mégahertz ».

La mauvaise nouvelle : lorsque les astronomes veulent savoir si un signal vient de l'espace, ils dépendent parfois de savoir à quoi ressemble une source donnée d'ondes radio créées par l'homme. « Oui, c'est certainement le iRobot des voisins », ils pourront peut-être dire. Mais pas si iRobot est en constante évolution.

L'important, quelle que soit l'évolution de l'usage de la radio, c'est de partager, intelligemment, et d'en parler d'abord. Car aussi cool que ce soit de communiquer à la maison, le faire de manière irresponsable pourrait couper les humains de l'espace. « Si vous remplissez le spectre d'émissions artificielles, vous ne pourrez jamais comprendre certaines parties de l'univers », explique vanZee.


L'utilisation des observations précises du pôle éphéméride céleste dans l'analyse de l'excitation géophysique de la rotation de la Terre

Les perturbations de la rotation de la Terre sont actuellement observées sous forme de variations temporelles du temps universel UT1-UTC et de changements dans l'orientation terrestre et céleste de l'axe du pôle éphéméride céleste (CEP) exprimé par cinq paramètres d'orientation de la Terre (EOP). D'autre part, les théories dynamiques de la rotation de la Terre décrivent généralement des perturbations du vecteur de rotation instantané. Une grande amélioration de la résolution spatiale et temporelle de la détermination de l'EOP pose également le problème de la distinction entre mouvement polaire haute fréquence et nutation. Ici, nous dérivons les relations dans le domaine temporel entre le mouvement polaire de l'axe de rotation et les changements observés du CEP ainsi qu'entre le mouvement spatial et terrestre du CEP. Ces relations ont été discutées par Brzeziński (1992a). Ici, ils sont présentés de manière beaucoup plus simple et directe en utilisant uniquement des transformations matricielles entre le système de référence terrestre conventionnel et le système de référence céleste sous la forme proposée par Capitaine et al. (1986) et Capitaine (1990), à partir du concept d'origine non rotative (Guinot, 1979). Ces relations sont d'abord obtenues sous une forme stricte qui permet d'estimer l'ordre de grandeur des erreurs résultant de diverses approximations. Les expressions linéaires finales sont utilisées dans un algorithme qui transforme des équations différentielles arbitraires décrivant l'excitation géophysique du mouvement polaire en la forme n'utilisant que les quantités observées comme variables.


Commentaires

Ha! Je peux voir dans vos photos de comparaison côte à côte que vous n'avez pas utilisé votre masque à ouverture circulaire pour celles-ci. Maintenant, je vais voir ces pointes d'étoiles à lame d'ouverture d'objectif partout. Merci!

Blague à part, les gens veulent souvent savoir quelle est leur magnitude limite (LM). J'aimerais voir quelqu'un construire un graphique montrant LM par rapport au nombre d'images empilées ou au temps d'exposition total (peut-être sur une échelle logarithmique). Cela pourrait presque être fait avec des objectifs à focale très courte (environ "normale"), des expositions relativement courtes et des cartes d'étoiles régulières. C'est-à-dire, en utilisant des étoiles pas plus faibles que, disons, le catalogue SAO, juste pour le rendre traitable.

Le LM continue-t-il à devenir de plus en plus faible, ou commence-t-il à se retourner et semble-t-il se stabiliser à un moment donné ? J'ai seulement joué un peu avec l'empilement, donc je n'ai aucune idée du résultat. Mais l'idée de pouvoir atteindre des objets de 25e magnitude avec mon objectif 200 mm f/2.8 si je pouvais juste exposer suffisamment d'images de 30 secondes semble absurde.

Et au diable tous les avions et satellites !

Vous devez être connectés pour poster un commentaire.

Richard S. Wright Jr. Auteur de l'article

Salut, et oui ces images étaient des jours de masque de pré-ouverture

C'est une excellente idée pour un blog de suivi à l'avenir. Séparer une étoile faible de la lueur du ciel est un défi, mais aussi le bruit de lecture et de tir. L'empilement aidera avec les deux, mais à un moment donné, il sera «pratiquement» impossible de faire mieux. L'empilement complet du bruit de lecture est à toutes fins utiles « interdit », et donc la magnitude limite est également fonction du bruit de lecture de vos caméras. Ouais… bonne idée de sujet… pour quelque temps !


Cherchons des sondes extraterrestres, pas seulement des signaux extraterrestres

Aux blind dates, nous recherchons d'autres personnes qui nous ressemblent, du moins à un certain niveau. C'est vrai dans notre vie personnelle mais encore plus sur la scène des rencontres galactiques, où nous cherchons depuis un moment une civilisation compagne sans succès. Tout en développant notre propre communication radio et laser au cours des sept dernières décennies, la recherche d'intelligence extraterrestre (SETI) s'est concentrée sur les signaux radio ou laser provenant de l'espace extra-atmosphérique et de deux types de &ldquomessenger&rdquo électromagnétiques que les astronomes utilisent pour étudier le cosmos.

Au cours de la même période, nous avons également lancé des sondes, comme Voyager 1 et 2, Pioneer 10 et 11 et la sonde New Horizons, vers l'espace interstellaire. Ceux-ci pourraient éventuellement atteindre des civilisations extraterrestres, annonçant passivement notre existence. Mais en 1960, à l'aube de l'ère spatiale, Ronald Bracewell a noté dans un article de Nature qu'une sonde spatiale physique pourrait également rechercher des civilisations technologiques à travers les distances interstellaires. SETI devrait donc explorer également cette technique et devenir une notion opportune à l'ère de l'astronomie multimessager, inaugurée plus récemment par la détection des ondes gravitationnelles.

Ce genre d'exploration pourrait évidemment fonctionner dans les deux sens. Grâce aux données recueillies par le télescope spatial Kepler, nous savons maintenant qu'environ la moitié de toutes les étoiles semblables au soleil hébergent une planète rocheuse de la taille de la Terre dans leur zone habitable. Dans cette zone, la température de surface de la planète peut supporter l'eau liquide et la chimie de la vie. La célèbre équation de Drake quantifie (avec de grandes incertitudes) la probabilité de recevoir un signal radio d'une autre civilisation dans notre galaxie de la Voie Lactée. Mais cela ne s'applique pas aux sondes physiques qui pourraient arriver à notre porte. La distinction ressemble à la différence entre une conversation sur téléphone portable à la vitesse de la lumière et l'échange de lettres par voie postale.

Il suggère également un ajout à l'équation de Drake : le nombre de sondes dans un volume d'espace interstellaire peut être exprimé comme le nombre d'étoiles multiplié par le nombre moyen de sondes produites par étoile, N. Le système stellaire le plus proche, Alpha Centauri, contient un paire rapprochée d'étoiles solaires (A et B) liées à une étoile naine plus éloignée (C). Ce système d'étoiles triples se trouve à environ quatre années-lumière, mais la sonde la plus proche pourrait être beaucoup plus proche et à une distance inférieure d'un facteur (3N) 1/3. En fait, cette sonde serait dans la séparation Terre-Soleil si les civilisations produisent en moyenne un quadrillion (N

10 15 ) sondes par étoile sur leur durée de vie.

Si chaque sonde pèse un gramme, similaire à ce qui a été proposé par l'initiative Breakthrough Starshot, alors la masse totale d'un quadrillion de sondes serait comparable au poids d'un astéroïde de la taille d'un kilomètre et totalement négligeable dans le budget de masse planétaire. Un tel météore frappe la Terre tous les demi-millions d'années, et sa taille est plus petite de plusieurs dizaines que l'impacteur Chicxulub K/Pg qui a tué les dinosaures il y a environ 66 millions d'années. De toute évidence, le nombre réel de sondes interstellaires dépendrait de l'abondance et de la durée de vie des civilisations technologiques par étoile, ainsi que du poids de chaque sonde et de la sophistication de sa technologie de production.

Mon livre à paraître, intitulé Extraterrestrial, raconte l'histoire de la découverte de `Oumuamua, signifiant &ldquoscout&rdquo dans la langue hawaïenne, par l'installation Pan-STARRS à Hawaï en octobre 2017. En tant que premier objet interstellaire détecté près de la Terre depuis l'extérieur du système solaire, cela avait l'air étrange, contrairement à n'importe quelle comète ou astéroïde vu auparavant dans le système solaire. Le livre détaille les propriétés inhabituelles de `Oumuamua : il avait une forme aplatie avec des proportions extrêmes et jamais vues auparavant parmi les comètes ou les astéroïdes, ainsi qu'une vitesse initiale inhabituelle et un aspect brillant. Il manquait également une queue cométaire, mais présentait néanmoins une poussée du soleil supérieure à la force gravitationnelle solaire.

En tant que comète ordinaire, `Oumuamua aurait dû perdre environ un dixième de sa masse pour subir l'excès de poussée par effet de fusée. Au lieu de cela, `Oumuamua n'a montré aucune molécule à base de carbone le long de sa trajectoire, ni de gigue ou de changement dans sa période de rotation. L'excès de force pourrait s'expliquer si `Oumuamua a été poussé par la pression de la lumière du soleil, c'est-à-dire s'il s'agit d'une mince relique artificielle de voile de lumière et de mdasha de la technologie prometteuse pour l'exploration spatiale proposée dès 1924 par Friedrich Zander et actuellement développé par notre civilisation. Cette possibilité impliquerait que `Oumuamua pourrait être un message dans une bouteille.

En septembre 2020, un autre &ldquoasteroid&rdquo inhabituel a été découvert par Pan STARRS, montrant une poussée excessive de la lumière du soleil sans queue cométaire. Cet objet, étiqueté par le nom astronomique 2020 SO, n'était pas non lié comme `Oumuamua mais plutôt sur une orbite terrestre autour du soleil. Après avoir intégré son orbite dans le temps, il a été découvert que 2020 SO est un propulseur de fusée égaré, laissé par un crash de l'atterrisseur lunaire Surveyor 2 à la surface de la Lune en 1966.

Néanmoins, sa découverte donne de la crédibilité à l'idée que les objets artificiels minces avec un grand rapport surface-masse peuvent être distingués des objets naturels en fonction de leur éloignement excessif du soleil sans queue cométaire. Il n'y a aucun moyen que `Oumuamua ait pu provenir de notre planète en raison de sa vitesse locale élevée, de sa grande taille et de l'inclinaison de sa trajectoire. Une autre façon de le dire est que `Oumuamua a passé une fraction d'année dans l'orbite de la Terre autour du soleil, et nous ne connaissons aucun objet fabriqué par l'homme qui a été propulsé sur sa trajectoire au cours de l'année précédant sa découverte.

Lorsque je prends des vacances près d'une plage, j'aime étudier les coquillages naturels, mais en de rares occasions, je rencontre une bouteille en plastique artificielle. De même, les astronomes repèrent régulièrement des roches fabriquées naturellement lorsqu'ils surveillent des comètes ou des astéroïdes du système solaire, mais peut-être `Oumuamua représente notre première rencontre avec une bouteille en plastique, fabriquée par une civilisation technologique avancée. Les voiles légères peuvent être conçues pour peser un gramme par dizaines de mètres carrés de surface, comparable à la superficie d'Oumuamua.

Les sondes interstellaires pourraient également manœuvrer vers des trajectoires préférées qui ne sont pas tirées d'une distribution aléatoire. En particulier, il est intéressant de les amener au repos par rapport à l'étoile qu'ils entendent sonder. Dans ce cas, l'attraction gravitationnelle de l'étoile les attirera directement vers elle. La focalisation de leurs trajectoires augmentera leur densité à proximité de l'étoile, permettant à un plus grand nombre d'entre eux de voyager à travers la zone habitable et d'y espionner d'éventuelles signatures technologiques. Dans l'enveloppe externe du système solaire, de telles sondes à mouvement lent seraient cachées parmi les nombreuses roches glacées du nuage d'Oort, qui sont vaguement liées au soleil à mi-chemin d'Alpha Centauri.

Si les expéditeurs des sondes préfèrent rester anonymes, ils pourraient choisir de les déposer dans le parking galactique, ce qu'on appelle l'étalon local de repos, qui calcule la moyenne des mouvements aléatoires de toutes les étoiles à proximité du soleil. Dans ce référentiel neutre, il n'est pas possible d'identifier d'où ils viennent. Étonnamment, `Oumuamua a commencé dans ce cadre avant d'entrer dans le système solaire.

Les données que nous avons recueillies sur `Oumuamua sont incomplètes. Pour en savoir plus, nous devons continuer à surveiller le ciel pour des objets similaires. La prise de conscience que nous ne sommes pas seuls aura des implications dramatiques pour nos objectifs sur Terre et nos aspirations pour l'espace. En lisant les nouvelles chaque matin, je ne peux m'empêcher de me demander si nous sommes "les biscuits les plus pointus dans le bocal". Y a-t-il des extraterrestres plus intelligents que nous dans la Voie lactée ? La seule façon de le savoir est de sonder le ciel à la recherche de la multitude de messagers qu'ils pourraient utiliser.

À PROPOS DES AUTEURS)

Avi Loeb est l'ancien président (2011-2020) du département d'astronomie de l'Université Harvard, directeur fondateur de la Black Hole Initiative de Harvard et directeur de l'Institute for Theory and Computation au Harvard-Smithsonian Center for Astrophysics. Il préside également le Conseil de physique et d'astronomie des académies nationales et le conseil consultatif du projet Breakthrough Starshot, et est membre du Conseil présidentiel des conseillers en science et technologie. Loeb est l'auteur à succès de Extraterrestre : le premier signe de vie intelligente au-delà de la Terre (Houghton Mifflin Harcourt).


Comparaison des explications pour le Wow! Signal

Il y a trois explications suggérées pour le Wow ! : soit des émissions parasites de la Terre, une communication interstellaire ou une fuite d'un faisceau de puissance. Voici un bref résumé des preuves pour et contre chaque explication :

Arguments en faveur d'une fuite de faisceau de puissance comme cause :

  • L'explication rayonnante de puissance pour le Wow! représente les quatre Wow! paramètres : la densité de puissance reçue, la durée du signal, sa fréquence, et la raison pour laquelle le Wow! ne s'est plus reproduit. Le Waouh ! L'hypothèse de fuite du faisceau de puissance se renforce au fur et à mesure que l'on écoute le Wow ! se reproduire ne l'observe pas se répéter.
  • Les faisceaux de puissance sont désormais plus crédibles car nous construisons les nôtres : le projet Starshot prévoit de lancer des sondes vers les étoiles proches au cours de ce siècle. La technologie requise pour les Beamers pour de tels lancements de sondes interstellaires est à notre portée.

Arguments contre la communication extraterrestre comme cause :

  • La théorie selon laquelle le Wow! Signal était une communication interstellaire prédit qu'il se reproduira. Cela s'inscrit dans la stratégie globale de SETI, qui cherche à nous transmettre délibérément des messages de la part d'ETI. Mais la longue série des non-observations ultérieures du Wow! montre que l'hypothèse de la messagerie SETI est progressivement faussée en étant testée.

Arguments contre les interférences radio (RFI) comme cause :

  • Le Waouh ! Le signal était à 1,42 GHz. La bande de 1,4 à 1,427 GHz est protégée au niveau international, ce qui signifie que toutes les émissions sont interdites [2]. Par conséquent, il est très douteux que le Wow! Était-ce une transmission de satellites terrestres ou d'avions parce qu'ils sont interdit transmettre dans cette bande. Les satellites secrets l'éviteraient car ils seraient détectés par les radioastronomes. (Des émissions dans cette bande sont parfois détectées, mais à des niveaux très faibles. Celles-ci sont probablement dues aux produits d'intermodulation, qui sont des effets non linéaires en électronique.)
  • Il est peu probable que les aéronefs restent statiques dans le ciel. Les engins spatiaux traverseraient le faisceau beaucoup plus rapidement. Pour correspondre à ce manque de mouvement angulaire, un satellite terrestre devrait être distant de millions de kilomètres, bien au-delà de la Lune.
  • L'Ohio a eu un bon rejet RFI parce que ce qui a été enregistré était le différence entre deux décalage faisceaux, de sorte qu'un signal local apparaissant dans les deux cornes simultanément s'annulerait. Cela a été fréquemment vérifié.
  • La possibilité que le signal soit une harmonique ou une sous-harmonique d'un signal local est contrée par l'État de l'Ohio ayant surveillé la bande de 21 cm pendant de nombreuses années, aurait remarqué un signal interférent local.
  • Un canular délibéré ? Cela manque de crédibilité, car les canulars sont une farce, qui réussit s'ils sont révélés plus tard. Alors pourquoi le garder secret pendant des décennies ?

Monde sans fil RF

Les fréquences micro-ondes sont utilisées pour la communication sans fil lorsqu'elles pénètrent dans l'ionosphère. Elles s'atténuent lorsqu'elles sont utilisées comme ondes de sol ainsi que comme ondes de surface. Pour cette raison, la communication par micro-ondes est principalement basée sur la communication LOS (Line of Sight).

Les systèmes de communication par micro-ondes sont principalement classés en systèmes satellitaires et systèmes terrestres. Ces deux systèmes nécessitent une partie émission et une partie réception. Le système de transmission convertit le signal en bande de base en signal hyperfréquence. Le système de réception convertit le signal hyperfréquence en signal de bande de base. Le signal en bande de base est un signal multiplexé qui transporte un certain nombre de signaux individuels à faible bande passante tels que la voix, les données et la vidéo. Le multiplexage est effectué à l'aide de TDM ou FDM.

Système de communication terrestre

Microwave frequency gets attenuated due to buildings, trees, geographical locations, hence the ground distance(i.e. range) is limited from one part of earth to the other. In order to extend the range of terrestrial communication system, multi section relays or repeaters are used.

The figure-1 depicts terrestrial communication system with two stations and repeater module. Multiple repeaters are used between source and destination stations. Repeater receives the signal from one end and amplifies and retransmits the signal to the other end. Hence repeaters will make up for the RF losses introduced due to path pass. Typically repeaters are placed at the distance of about 32 to 80 Km.

Terrestrial system uses both analog and digital modulation types. In analog systems, data information signals are frequency multiplexed(FDM) first and later modulated (FM) and up converted for the transmission using RF antenna.

In digital systems, data information signals are time multiplexed(TDM) to form baseband signal. This is later modulated (using either PM or PSK) and up converted for transmission using RF antenna.

Satellite Communication System

Figure-2 depicts satellite communication system. There are two modes of satellite based network viz. mesh and star. In general in this system, baseband information is transmitted at microwave carrier frequency using directional antenna from ground station (i.e. VSAT) to the satellite. Satellite receives the signal using on board antenna. It first shifts the received frequency to the other frequency band. Later it does amplification of the translated signal before being relayed over the large area of the earth.

As depicted in the figure 6GHz is used as uplink frequency and 4GHz is used as downlink frequency. Difference of 2GHz is carried out at the satellite transponder using LO frequency of value 2225 MHz. Here 6 GHz is the frequency range from 5.925 to 6.425 GHz and 4 GHz from 3.7 to 4.2 GHz. Refer function of satellite transponder.

Satellite frequencies are selected to overcome effects of ionosphere, absorption by gases and water vapour. Geo Stationary Satellite is placed at the height of 35800 Km. It travels at approx. speed of 11000 Km/Hour. Due to this fact, tracking of satellite is not required and fixed antenna at ground station is enough to establish RF link at all the times.

In mesh mode, VSAT1 and VSAT2 directly communicates using satellite. In star mode, VSAT1 and VSAT2 communicates using Satellite/Hub. Both configurations work at 6GHz(uplink) / 4GHz(downlink) bands. The other satellite system bands are Ku bands and works at 14GHz (Uplink) /11 GHz (Downlink) and 17/12 GHz frequency bands.

As mentioned in terrestrial system, repeater is used between source and destination stations. In satellite system, transponder is used to provide connectivity between source and destination stations. In general, satellite usually will have total 12 transponders each with 36 MHz bandwidth. The whole satellite band is usually about 500MHz.

Difference between Satellite System and Terrestrial System

There are a number of differences between satellite based and terrestrial wireless communications that affect design.

&bull Coverage area of a satellite based system is greater than that of a terrestrial based wireless communication system. A GEO satellite with one single antenna can cover about 1/4 th of the earth.

&bull Satellite communications link will have more degradations compare to terrestrial communication link but quality of transmission is usually quite good.

&bull In a satellite link delay from earth to satellite to earth is about 240ms while in terrestrial link it will be far less. But transmission cost in a satellite system is independent of the distance within the area of coverage of the satellite antenna, while in terrestrial system it varies based on the distance.

&bull In a satellite based system satellite EIRP and bandwidth is very vital parameters which need to be carefully designed at the initial stage of both satellite and earth station point of view.

&bull Very high bandwidths and very high data rates are achievable in a satellite based communication system.

&bull In case of satellite based systems all the earth stations/VSATs can receive their own transmissions and hence transmitted power should be carefully decided based on the RF link budget. But both transmitting and receiving frequencies are different and hence will not create much problem. Transmit reject filter should be good enough to overcome this problem.


Contents

At different frequencies, radio waves travel through the atmosphere by different mechanisms or modes: [3]

E, F layer ionospheric refraction at night, when D layer absorption weakens.

F1, F2 layer ionospheric refraction.

Infrequent E ionospheric (Es) refraction. Uncommonly F2 layer ionospheric refraction during high sunspot activity up to 50 MHz and rarely to 80 MHz. Sometimes tropospheric ducting or meteor scatter

At typical communication distances from a transmitter, the transmitting antenna usually can be approximated by a point source. Doubling the distance of a receiver from a transmitter means that the power density of the radiated wave at that new location is reduced to one-quarter of its previous value.

The power density per surface unit is proportional to the product of the electric and magnetic field strengths. Thus, doubling the propagation path distance from the transmitter reduces each of these received field strengths over a free-space path by one-half.

Radio waves in vacuum travel at the speed of light. The Earth's atmosphere is thin enough that radio waves in the atmosphere travel very close to the speed of light, but variations in density and temperature can cause some slight refraction (bending) of waves over distances.

Line-of-sight refers to radio waves which travel directly in a line from the transmitting antenna to the receiving antenna. It does not necessarily require a cleared sight path at lower frequencies radio waves can pass through buildings, foliage and other obstructions. This is the most common propagation mode at VHF and above, and the only possible mode at microwave frequencies and above. On the surface of the Earth, line of sight propagation is limited by the visual horizon to about 40 miles (64 km). This is the method used by cell phones, [d] cordless phones, walkie-talkies, wireless networks, point-to-point microwave radio relay links, FM and television broadcasting and radar. Satellite communication uses longer line-of-sight paths for example home satellite dishes receive signals from communication satellites 22,000 miles (35,000 km) above the Earth, and ground stations can communicate with spacecraft billions of miles from Earth.

Ground plane reflection effects are an important factor in VHF line-of-sight propagation. The interference between the direct beam line-of-sight and the ground reflected beam often leads to an effective inverse-fourth-power ( 1 ⁄ distance 4 ) law for ground-plane limited radiation. [ citation needed ]

Lower frequency (between 30 and 3,000 kHz) vertically polarized radio waves can travel as surface waves following the contour of the Earth this is called ground wave propagation.

In this mode the radio wave propagates by interacting with the conductive surface of the Earth. The wave "clings" to the surface and thus follows the curvature of the Earth, so ground waves can travel over mountains and beyond the horizon. Ground waves propagate in vertical polarization so vertical antennas (monopoles) are required. Since the ground is not a perfect electrical conductor, ground waves are attenuated as they follow the Earth's surface. Attenuation is proportional to frequency, so ground waves are the main mode of propagation at lower frequencies, in the MF, LF and VLF bands. Ground waves are used by radio broadcasting stations in the MF and LF bands, and for time signals and radio navigation systems.

At even lower frequencies, in the VLF to ELF bands, an Earth-ionosphere waveguide mechanism allows even longer range transmission. These frequencies are used for secure military communications. They can also penetrate to a significant depth into seawater, and so are used for one-way military communication to submerged submarines.

Early long-distance radio communication (wireless telegraphy) before the mid-1920s used low frequencies in the longwave bands and relied exclusively on ground-wave propagation. Frequencies above 3 MHz were regarded as useless and were given to hobbyists (radio amateurs). The discovery around 1920 of the ionospheric reflection or skywave mechanism made the medium wave and short wave frequencies useful for long-distance communication and they were allocated to commercial and military users. [6]

Ionospheric modes (skywave) Edit

Skywave propagation, also referred to as skip, is any of the modes that rely on reflection and refraction of radio waves from the ionosphere. The ionosphere is a region of the atmosphere from about 60 to 500 km (37 to 311 mi) that contains layers of charged particles (ions) which can refract a radio wave back toward the Earth. A radio wave directed at an angle into the sky can be reflected back to Earth beyond the horizon by these layers, allowing long-distance radio transmission. The F2 layer is the most important ionospheric layer for long-distance, multiple-hop HF propagation, though F1, E, and D-layers also play significant roles. The D-layer, when present during sunlight periods, causes significant amount of signal loss, as does the E-layer whose maximum usable frequency can rise to 4 MHz and above and thus block higher frequency signals from reaching the F2-layer. The layers, or more appropriately "regions", are directly affected by the sun on a daily diurnal cycle, a seasonal cycle and the 11-year sunspot cycle and determine the utility of these modes. During solar maxima, or sunspot highs and peaks, the whole HF range up to 30 MHz can be used usually around the clock and F2 propagation up to 50 MHz is observed frequently depending upon daily solar flux values. During solar minima, or minimum sunspot counts down to zero, propagation of frequencies above 15 MHz is generally unavailable.

Although the claim is commonly made that two-way HF propagation along a given path is reciprocal, that is, if the signal from location A reaches location B at a good strength, the signal from location B will be similar at station A because the same path is traversed in both directions. However, the ionosphere is far too complex and constantly changing to support the reciprocity theorem. The path is never exactly the same in both directions. [7] In brief, conditions at the two end-points of a path generally cause dissimilar polarization shifts, hence dissimilar splits into ordinary rays and extraordinary rays (Pedersen rays) which have different propagation characteristics due to differences in ionization density, shifting zenith angles, effects of the Earth's magnetic dipole contours, antenna radiation patterns, ground conditions, and other variables.

Forecasting of skywave modes is of considerable interest to amateur radio operators and commercial marine and aircraft communications, and also to shortwave broadcasters. Real-time propagation can be assessed by listening for transmissions from specific beacon transmitters.

Meteor scattering Edit

Meteor scattering relies on reflecting radio waves off the intensely ionized columns of air generated by meteors. While this mode is very short duration, often only from a fraction of second to couple of seconds per event, digital Meteor burst communications allows remote stations to communicate to a station that may be hundreds of miles up to over 1,000 miles (1,600 km) away, without the expense required for a satellite link. This mode is most generally useful on VHF frequencies between 30 and 250 MHz.

Auroral backscatter Edit

Intense columns of Auroral ionization at 100 km altitudes within the auroral oval backscatter radio waves, including those on HF and VHF. Backscatter is angle-sensitive—incident ray vs. magnetic field line of the column must be very close to right-angle. Random motions of electrons spiraling around the field lines create a Doppler-spread that broadens the spectra of the emission to more or less noise-like – depending on how high radio frequency is used. The radio-auroras are observed mostly at high latitudes and rarely extend down to middle latitudes. The occurrence of radio-auroras depends on solar activity (flares, coronal holes, CMEs) and annually the events are more numerous during solar cycle maxima. Radio aurora includes the so-called afternoon radio aurora which produces stronger but more distorted signals and after the Harang-minima, the late-night radio aurora (sub-storming phase) returns with variable signal strength and lesser doppler spread. The propagation range for this predominantly back-scatter mode extends up to about 2000 km in east–west plane, but strongest signals are observed most frequently from the north at nearby sites on same latitudes.

Rarely, a strong radio-aurora is followed by Auroral-E, which resembles both propagation types in some ways.

Sporadic-E propagation Edit

Sporadic E (Es) propagation occurs on HF and VHF bands. [8] It must not be confused with ordinary HF E-layer propagation. Sporadic-E at mid-latitudes occurs mostly during summer season, from May to August in the northern hemisphere and from November to February in the southern hemisphere. There is no single cause for this mysterious propagation mode. The reflection takes place in a thin sheet of ionization around 90 km height. The ionization patches drift westwards at speeds of few hundred km per hour. There is a weak periodicity noted during the season and typically Es is observed on 1 to 3 successive days and remains absent for a few days to reoccur again. Es do not occur during small hours the events usually begin at dawn, and there is a peak in the afternoon and a second peak in the evening. [9] Es propagation is usually gone by local midnight.

Observation of radio propagation beacons operating around 28.2 MHz, 50 MHz and 70 MHz, indicates that maximum observed frequency (MOF) for Es is found to be lurking around 30 MHz on most days during the summer season, but sometimes MOF may shoot up to 100 MHz or even more in ten minutes to decline slowly during the next few hours. The peak-phase includes oscillation of MOF with periodicity of approximately 5. 10 minutes. The propagation range for Es single-hop is typically 1000 to 2000 km, but with multi-hop, double range is observed. The signals are very strong but also with slow deep fading.

Tropospheric modes Edit

Radio waves in the VHF and UHF bands can travel somewhat beyond the visual horizon due to refraction in the troposphere, the bottom layer of the atmosphere below 20 km. [10] [3] This is due to changes in the refractive index of air with temperature and pressure. Tropospheric delay is a source of error in radio ranging techniques, such as the Global Positioning System (GPS). [11] In addition, unusual conditions can sometimes allow propagation at greater distances:

Tropospheric ducting Edit

Sudden changes in the atmosphere's vertical moisture content and temperature profiles can on random occasions make UHF, VHF and microwave signals propagate hundreds of kilometers up to about 2,000 kilometers (1,200 miles)—and for ducting mode even farther—beyond the normal radio-horizon. The inversion layer is mostly observed over high pressure regions, but there are several tropospheric weather conditions which create these randomly occurring propagation modes. Inversion layer's altitude for non-ducting is typically found between 100 and 1,000 meters (330 and 3,280 feet) and for ducting about 500 to 3,000 meters (1,600 to 9,800 feet), and the duration of the events are typically from several hours up to several days. Higher frequencies experience the most dramatic increase of signal strengths, while on low-VHF and HF the effect is negligible. Propagation path attenuation may be below free-space loss. Some of the lesser inversion types related to warm ground and cooler air moisture content occur regularly at certain times of the year and time of day. A typical example could be the late summer, early morning tropospheric enhancements that bring in signals from distances up to few hundred kilometers for a couple of hours, until undone by the Sun's warming effect.

Tropospheric scattering (troposcatter) Edit

At VHF and higher frequencies, small variations (turbulence) in the density of the atmosphere at a height of around 6 miles (9.7 km) can scatter some of the normally line-of-sight beam of radio frequency energy back toward the ground. In tropospheric scatter (troposcatter) communication systems a powerful beam of microwaves is aimed above the horizon, and a high gain antenna over the horizon aimed at the section of the troposphere though which the beam passes receives the tiny scattered signal. Troposcatter systems can achieve over-the-horizon communication between stations 500 miles (800 km) apart, and the military developed networks such as the White Alice Communications System covering all of Alaska before the 1960s, when communication satellites largely replaced them.

Rain scattering Edit

Rain scattering is purely a microwave propagation mode and is best observed around 10 GHz, but extends down to a few gigahertz—the limit being the size of the scattering particle size vs. wavelength. This mode scatters signals mostly forwards and backwards when using horizontal polarization and side-scattering with vertical polarization. Forward-scattering typically yields propagation ranges of 800 km. Scattering from snowflakes and ice pellets also occurs, but scattering from ice without watery surface is less effective. The most common application for this phenomenon is microwave rain radar, but rain scatter propagation can be a nuisance causing unwanted signals to intermittently propagate where they are not anticipated or desired. Similar reflections may also occur from insects though at lower altitudes and shorter range. Rain also causes attenuation of point-to-point and satellite microwave links. Attenuation values up to 30 dB have been observed on 30 GHz during heavy tropical rain.

Airplane scattering Edit

Airplane scattering (or most often reflection) is observed on VHF through microwaves and, besides back-scattering, yields momentary propagation up to 500 km even in mountainous terrain. The most common back-scatter applications are air-traffic radar, bistatic forward-scatter guided-missile and airplane-detecting trip-wire radar, and the US space radar.

Lightning scattering Edit

Lightning scattering has sometimes been observed on VHF and UHF over distances of about 500 km. The hot lightning channel scatters radio-waves for a fraction of a second. The RF noise burst from the lightning makes the initial part of the open channel unusable and the ionization disappears quickly because of recombination at low altitude and high atmospheric pressure. Although the hot lightning channel is briefly observable with microwave radar, no practical use for this mode has been found in communications.

Other effects Edit

Diffraction Edit

Knife-edge diffraction is the propagation mode where radio waves are bent around sharp edges. For example, this mode is used to send radio signals over a mountain range when a line-of-sight path is not available. However, the angle cannot be too sharp or the signal will not diffract. The diffraction mode requires increased signal strength, so higher power or better antennas will be needed than for an equivalent line-of-sight path.

Diffraction depends on the relationship between the wavelength and the size of the obstacle. In other words, the size of the obstacle in wavelengths. Lower frequencies diffract around large smooth obstacles such as hills more easily. For example, in many cases where VHF (or higher frequency) communication is not possible due to shadowing by a hill, it is still possible to communicate using the upper part of the HF band where the surface wave is of little use.

Diffraction phenomena by small obstacles are also important at high frequencies. Signals for urban cellular telephony tend to be dominated by ground-plane effects as they travel over the rooftops of the urban environment. They then diffract over roof edges into the street, where multipath propagation, absorption and diffraction phenomena dominate.

Absorption Edit

Low-frequency radio waves travel easily through brick and stone and VLF even penetrates sea-water. As the frequency rises, absorption effects become more important. At microwave or higher frequencies, absorption by molecular resonances in the atmosphere (mostly from water, H2O and oxygen, O2) is a major factor in radio propagation. For example, in the 58–60 GHz band, there is a major absorption peak which makes this band useless for long-distance use. This phenomenon was first discovered during radar research in World War II. Above about 400 GHz, the Earth's atmosphere blocks most of the spectrum while still passing some - up to UV light, which is blocked by ozone - but visible light and some of the near-infrared is transmitted. Heavy rain and falling snow also affect microwave absorption.

HF propagation conditions can be simulated using radio propagation models, such as the Voice of America Coverage Analysis Program, and realtime measurements can be done using chirp transmitters. For radio amateurs the WSPR mode provides maps with real time propagation conditions between a network of transmitters and receivers. [12] Even without special beacons the realtime propagation conditions can be measured: A worldwide network of receivers decodes morse code signals on amateur radio frequencies in realtime and provides sophisticated search functions and propagation maps for every station received. [13]

The average person can notice the effects of changes in radio propagation in several ways.

In AM broadcasting, the dramatic ionospheric changes that occur overnight in the mediumwave band drive a unique broadcast license scheme, with entirely different transmitter power output levels and directional antenna patterns to cope with skywave propagation at night. Very few stations are allowed to run without modifications during dark hours, typically only those on clear channels in North America. [14] Many stations have no authorization to run at all outside of daylight hours. Otherwise, there would be nothing but interference on the entire broadcast band from dusk until dawn without these modifications.

For FM broadcasting (and the few remaining low-band TV stations), weather is the primary cause for changes in VHF propagation, along with some diurnal changes when the sky is mostly without cloud cover. [15] These changes are most obvious during temperature inversions, such as in the late-night and early-morning hours when it is clear, allowing the ground and the air near it to cool more rapidly. This not only causes dew, frost, or fog, but also causes a slight "drag" on the bottom of the radio waves, bending the signals down such that they can follow the Earth's curvature over the normal radio horizon. The result is typically several stations being heard from another media market – usually a neighboring one, but sometimes ones from a few hundred kilometers away. Ice storms are also the result of inversions, but these normally cause more scattered omnidirection propagation, resulting mainly in interference, often among weather radio stations. In late spring and early summer, a combination of other atmospheric factors can occasionally cause skips that duct high-power signals to places well over 1000 km away.

Non-broadcast signals are also affected. Mobile phone signals are in the UHF band, ranging from 700 to over 2600 MHz, a range which makes them even more prone to weather-induced propagation changes. In urban (and to some extent suburban) areas with a high population density, this is partly offset by the use of smaller cells, which use lower effective radiated power and beam tilt to reduce interference, and therefore increase frequency reuse and user capacity. However, since this would not be very cost-effective in more rural areas, these cells are larger and so more likely to cause interference over longer distances when propagation conditions allow.

While this is generally transparent to the user thanks to the way that cellular networks handle cell-to-cell handoffs, when cross-border signals are involved, unexpected charges for international roaming may occur despite not having left the country at all. This often occurs between southern San Diego and northern Tijuana at the western end of the U.S./Mexico border, and between eastern Detroit and western Windsor along the U.S./Canada border. Since signals can travel unobstructed over a body of water far larger than the Detroit River, and cool water temperatures also cause inversions in surface air, this "fringe roaming" sometimes occurs across the Great Lakes, and between islands in the Caribbean. Signals can skip from the Dominican Republic to a mountainside in Puerto Rico and vice versa, or between the U.S. and British Virgin Islands, among others. While unintended cross-border roaming is often automatically removed by mobile phone company billing systems, inter-island roaming is typically not.

UNE radio propagation model, also known as the radio wave propagation model ou la radio frequency propagation model, is an empirical mathematical formulation for the characterization of radio wave propagation as a function of frequency, distance and other conditions. A single model is usually developed to predict the behavior of propagation for all similar links under similar constraints. Created with the goal of formalizing the way radio waves are propagated from one place to another, such models typically predict the path loss along a link or the effective coverage area of a transmitter.

As the path loss encountered along any radio link serves as the dominant factor for characterization of propagation for the link, radio propagation models typically focus on realization of the path loss with the auxiliary task of predicting the area of coverage for a transmitter or modeling the distribution of signals over different regions

Because each individual telecommunication link has to encounter different terrain, path, obstructions, atmospheric conditions and other phenomena, it is intractable to formulate the exact loss for all telecommunication systems in a single mathematical equation. As a result, different models exist for different types of radio links under different conditions. The models rely on computing the median path loss for a link under a certain probability that the considered conditions will occur.

Radio propagation models are empirical in nature, which means, they are developed based on large collections of data collected for the specific scenario. For any model, the collection of data has to be sufficiently large to provide enough likeliness (or enough scope) to all kind of situations that can happen in that specific scenario. Like all empirical models, radio propagation models do not point out the exact behavior of a link, rather, they predict the most likely behavior the link may exhibit under the specified conditions.

Different models have been developed to meet the needs of realizing the propagation behavior in different conditions. Types of models for radio propagation include:


Voir la vidéo: Rappels - Les signaux lumineux (Juillet 2021).