Quantcast
Channel: Le blog de l'habitat durable
Viewing all articles
Browse latest Browse all 4277

Quand le satellite décrypte la vague du Tsunami

$
0
0

Quand-le-satellite-de-crypte-la-vague-du-Tsunami1.jpgQuand le satellite décrypte la vague du Tsunami

Les dégâts qu’engendre un tremblement de terre de forte magnitude concèdent d’importantes pertes humaines mais aussi d’infrastructures. Ainsi pour comprendre ce phénomène de séisme, de nombreuses simulations permettent une évolution normative des processus de construction. Reconstruire sur des décombres requiert donc la mise en œuvre d’un mécanisme aidant les collectivités à anticiper et à répondre aux perturbations causés par les dégâts et à assurer la reprise après catastrophe.

La compréhension par modélisation des séismes à partir de données cumulées exerce une prédiction sur les effets d’une telle catastrophe.

Toutefois, même si ce type d’information s’inscrit dans une logique de révision normative, un autre aspect important est le phénomène de tsunami engendré par un tremblement de terre, lequel est encore difficile à appréhender.

L’Anr, l'Agence nationale de la recherche, a lancé un programme de recherche sur l’analyse des stations GPS terrestres japonaises, acquises avant, pendant et après le séisme du 11 mars 2011.

Un seul objectif dans le cadre de ce projet, la préservation de milliers de vies humaines et d’une manière plus formelle celle de l’anticipation des catastrophes naturelles.

Dans ce schéma, le processus qui a engendré ce tsunami suit le tragique tremblement de terre sur les côtes japonaises en ce mois de mars 2011.

La « Subduction », qui désigne la reptation des plaques tectoniques. Un mouvement d'aspiration, d’expiration, un enroulement infiniment long des écailles qui composent la croûte terrestre, et plongent les unes sous les autres avec une lenteur tectonique.

En moyenne, la plaque Pacifique se glisse sous le Japon à raison de 8 cm par an. Elle fonce à toute lenteur vers le centre de la Terre, forçant le passage, contraignant ses voisines, notamment près de la surface, où les plaques frictionnent. Les contraintes s'accumulent. Des ressorts se tendent durant des siècles, comme dans une machine de guerre moyenâgeuse. Quand ils cèdent, ils rendent en quelques minutes l'énergie folle qu'ils ont accumulée — l'équivalent cette fois de 600millions de bombe d'Hiroshima. Au Japon, ce fut le 11 mars 2011, à 14 h 46, heure locale. L'épicentre du séisme fut presque instantanément localise au large, à 160 km de la ville de Sendai et à une profondeur d'environ 30 km, grâce aux premières ondes se déplaçant à plus de 6km par seconde. Depuis le traumatisme de Kobé, en 1995, le Japon est bardé de capteurs sismologiques. C'est sur eux que repose la toute première alerte. Dès 14h49, la magnitude fut annoncée à 7,9 sur l'échelle de Richter, accompagnée d'une alerte tsunami annonçant une vague de 6 mètres. La magnitude fut relevée deux jours plus tard à 9, ce qui fit du séisme le quatrième jamais mesuré sur Terre, comparable à ceux qui secouèrent Sumatra en 2004 (magnitude 9,2), et le Chili en 2010 (8,8).

Le Japon vit avec les tremblements de terre depuis qu'il est Japon. Ses architectes sont des maîtres de la construction parasismique. Grâce notamment aux progrès des dernières années dans la prévention du risque sismique, le tremblement de terre lui-même fit peu de victimes quand celui de Kobé, pourtant 400 fois moins puissant, tua plus de 6400 personnes. Mais la secousse de 14h46 ne fut que le prélude à une catastrophe de bien plus grande ampleur: les dispositifs de reconnaissance et d'alerte avaient, en même temps que la magnitude, largement sous-estimé l'ampleur du tsunami qui allait ravager les côtes.

Lorsque l’énergie du «ressort» est libérée, la plaque en compression se détend et déforme le fond de l’océan. Ce sont ces déformations à très grande échelle (des distances de plus de 100km) qui génèrent un tsunami. Celui du 11 mars mit moins de 30 minutes à atteindre les côtes les plus proches de l'épicentre. Ses vagues mesuraient par endroits 25 mètres de haut, soit quatre fois plus que ce qui fut anticipé par les autorités lors de la construction des défenses côtières des villes et villages les plus exposés. Le tsunami emporta plus de 15 000 personnes. Il endommagea plusieurs réacteurs nucléaires disposés le long des côtes japonaises, dont deux réacteurs à eau bouillante de la centrale nucléaire de Fukushima, entraînant l'évacuation d'un demi-million de réfugiés.

Low Tide - Le Japon du chaos-1© Denis Rouvre

Pourtant le Japon est largement instrumenté », rappelle Pierre Bosser dans son bureau de l'ENSG, avec vue sur le campus de Champs- sur-Marne. Pierre Bosser, 31 ans, est enseignant-chercheur à l'ENSG, associé au Lareg, le laboratoire de recherche en géodésie de l'IGN. Sa thèse de doctorat portait sur l'amélioration des méthodes de calculs GPS par une meilleure prise en compte de la dégradation des signaux lors de la traversée de l'atmosphère. Elle s’intitulait «Développement et validation d'une méthode de calcul GPS intégrant des mesures de profils de vapeur d'eau en visée multi-angulaire pour l'altimétrie de haute précision» et fut soutenue en 2008. Depuis 2011, Pierre Bosser analyse les données des stations GPS japonaises terrestres dans le cadre du projet TO-EOS. TO-EOS est l'acronyme de «Tohoku-Oki Earthquake from Earth to Ocean and Space»: Tohoku est le nom de la région du nord-est du Japon qui a le plus fortement ressenti le séisme du 11 mars et To-hoku-Oki est le nom du séisme. 

Ce programme vise à analyser conjointement les enregistrements terrestres, marins et spatiaux afin d’évaluer différentes approches permettant de mieux anticiper de futurs séismes et tsunamis. Ces approches peuvent être basées sur le long terme (l'accumulation des contraintes plusieurs siècles avant la rupture), le court terme (l'évolution des propriétés sur la faille dans les jours précédant la rupture), ou permettre la caractérisation de l’événement dans les minutes suivant son apparition.

Ce projet a été sélectionné par le programme Flash initié conjointement, seulement quelques mois la recherche (ANR) et son homologue au Japon, la JST (Japan Science and Technology Agency). Ce programme associe et compare la recherche de mouvements à terre, dans l'espace et en mer, l'étude des signaux GPS valant à la fois pour l'espace et la mer. En utilisant l'énorme quantité d'observations effectuées depuis la Terre, l'océan et l'espace, est-il possible d’anticiper l’occurrence des futurs grands séismes ?

Lancé en octobre 2011, le projet associe le laboratoire Géoazur (installé à Sophia-Antipolis, près de Nice), l'Institut de physique du globe de Paris (IPGP), l'Institut national de l’information géographique et forestière (IGN), le Commissariat à l’énergie atomique (CEA) et deux instituts japonais : l'Earthquake Research Institute (ERI) de l'université de Tokyo et le Geospatial Information Authority (GSI, l'équivalent japonais de l'IGN). «Ils avaient besoin d’un organisme qui sache traiter les signaux GPS», dit modestement Pierre Bosser. Les GPS, terrestres ou volants, il connaît. Ceux du Japon, il est allé les voir sur place : environ 1200 stations terrestres permanentes, soit une tous les 20 km. Leur radôme blanc les fait ressembler à des cotons-tiges de 5 mètres de haut. Elles font du réseau Geonet japonais l'un des plus denses de la planète. Le réseau GNSS permanent (RGP) qu'entretient l'IGN en France se contente de 332 stations pour un territoire une fois et demie plus grand. Le Japon dispose du « top du matériel », entretenu par le GSI. Les données sont enregistrées chaque seconde et transmises en continu aux salles de contrôle. Ces données à haute fréquence sont conservées deux semaines, sauf cas exceptionnel.

Le 11mars 2011 à 14h50, juste après le séisme, une bonne partie du Japon s'était déplacée horizontalement de deux mètres, certaines zones de cinq. Toutes les stations, avec une ampleur dépendant de leur localisation, ont enregistré ces mouvements. La priorité du travail est d'obtenir la meilleure précision des mesures GPS autour du moment du séisme (quelques heures), pour extraire des perturbations infimes mais pouvant nous renseigner sur les mécanismes de génération de la rupture.

Les signaux issus des mesures GPS sont multiples: des mouvements lents du sol, inférieurs au centimètre, survenant longtemps avant le séisme, et traduisant une activité sismique qui peut être éloignée d'une centaine de kilomètres; des mouvements immédiats, que l'on repère mieux... lorsqu'il est déjà trop tard. Ou, piste plus récente, des perturbations de l'ionosphère : la vague de tsunami crée une onde atmosphérique qui monte vers le ciel. L'ascension jusqu'à l'ionosphère, à 300 km du sol, dure une dizaine de minutes. L’onde, pendant ce temps, est amplifiée jusqu'à 10000 fois. Comment la repérer? En temps ordinaire, l'ionosphère affecte déjà la transmission des ondes radio ou GPS qui la traversent. Les satellites, pour compenser les perturbations, émettent sur deux fréquences. Aux infimes décalages entre deux fréquences correspond une perturbation de l'ionosphère — par exemple celle créée par un tsunami. Un des objectifs du projet TO-EOS est donc d’évaluer si les «cartes» ainsi obtenues des perturbations de l’ionosphère permettent une détermination rapide (quelques minutes à quelques dizaines de minutes) de la localisation et de la magnitude des séismes et tsunamis. En complément de la sismologie classique, ce type d’approche pourrait être mis en place à moindre coût (quelques stations GPS suffisent) et permettrait d’imager les phénomènes qui ont lieu en mer.

Dans l’imagerie de l’ionosphère ou dans la mesure des mouvements du sol, les données GPS ont un rôle crucial. Et elles ne seront jamais trop précises. Les satellites GPS sont des horloges atomiques volant à 20000km d'altitude et lancés à 14 000km/h.

Les signaux qu'elles émettent à destination des stations terrestres ou d’un récepteur de voiture, sont perturbés par l'ionosphère, par la troposphère (les couches basses et humides de l'atmosphère), parfois par les reliefs au sol. La vapeur d'eau les ralentit. La précision dépend aussi de l'environnement de la station, de la qualité du matériel et de celle des corrections opérées. Pour exploiter ces signaux d'une manière fine, il faut les corriger en permanence et concevoir des logiciels capables de traiter des données en masse. Il faut «réduire le bruit» des signaux pour augmenter leur précision, et détecter, sans erreur, les plus petits déplacements. Pierre Bosser a reçu des partenaires japonais du projet, seconde par seconde, les positions des 1 200 stations japonaises quatre jours avant, pendant, et deux jours après le séisme.

D'ordinaire, au Lareg, le travail s’effectue sur une position par jour ou par semaine. Là, l’estimation suit une position par seconde et par station, sans compter la prise en compte des effets de l'atmosphère. La coordination de ces paramètres est « une véritable alchimie », dit Pierre Bosser. Par ailleurs, le traitement est différentiel ou relatif: les calculs se porte sur les différences entre les stations. Mais cela exige un temps de calcul trop important. L’utilisation d’une méthode appelée PPP (pour positionnement ponctuel précis) à partir de la localisation exacte des satellites pour étudier chaque point séparément, station par station. »

Le traitement est effectué sur le déphasage du signal, la différence entre le signal attendu et le signal observé. Lorsque est déterminé une position par seconde, en mesure planimétrique, la mesure s’obtient mieux que le cm: 8 à 10mm; en vertical, la mesure se fait à 15 à 20 mm. Les résultats sont ensuite communiqués à Géoazur, chargé de la base de données du réseau GPS permanent des laboratoires français Renag et à l'Institut de physique du globe de Paris.

Pierre Bosser a d'abord étudié les données des stations les plus proches de l'épicentre. En juin, il a fourni une première solution, sur l'intervalle six heures avant / deux heures après le séisme. Puis il a élargi son analyse aux autres stations, et agrandi la fenêtre temporelle en s'intéressant aux quatre jours ayant précédé et suivi le séisme. Une journée de données des 1 200 stations pèse dix gigaoctets de données brutes.

L'analyse d'un jour de données, pour la détermination d'une position d'une station à chaque seconde, dure environ 60 minutes si l'on sait jongler avec les calculateurs pour réduire la durée des calculs. Des premières analyses qu'il a faites, Pierre Bosser a produit un schéma animé. Les déplacements des balises terrestres y sont représentés en temps réel (1 Hz) ou accéléré (10 Hz) par des flèches rouges s'allongeant jusqu'à l'insupportable vers le sud-est. Les ondes du séisme y atteignent le Japon, secouent sa côte Est, le déplacent de plusieurs mètres. Les couleurs marquent l'ampleur des déplacements. La station d'Osso, la plus proche de l'épicentre, fait un bond horizontal de 5,24 mètres vers l'est, s'enfonce verticalement de 1,21 mètre. Tout l'enjeu est de faire parler ces stations le plus précisément possible, sans que l'on sache encore ce qu'elles sont capables de révéler. L'étude des déplacements des stations avant le séisme a permis de mettre en évidence qu'une meilleure précision est encore nécessaire. Celle des perturbations de l'ionosphère après le séisme, lisibles dans le déphasage des signaux GPS, est plus avancée. Le projet ANR TO—EOS est une course contre le temps. Il sera clos au printemps 2013. I

D'après l'IGN

Quand-le-satellite-de-crypte-la-vague-du-Tsunami.jpg


Viewing all articles
Browse latest Browse all 4277

Trending Articles