La côte nord-est du Japon a été le théâtre le 11 mars 2011 d’un tsunami qui a coûté la vie à près de 18 500 personnes. Si les données générées par les capteurs avaient permis de prédire rapidement la hauteur des vagues et la portée de ce tsunami, de nombreuses vies auraient pu être sauvées. C’est l’hypothèse sur laquelle ont travaillé Iyan Mulia, chercheur au “Prediction Science Laboratory” à Riken, institut de recherche japonais, et ses collègues. Ils ont utilisé le deep learning pour réduire le temps de calcul de ces prédictions à moins d’une seconde. Leur étude intitulée “Machine learning-based tsunami inundation prediction derived from offshore” a été publiée dans Nature Communications.
Des systèmes d’alerte basés sur les ondes sismiques ont été mis en place pour limiter le pertes humaines et matérielles de ces catastrophes. Les populations ne sont prévenues que quelques secondes avant les secousses mais comme les tsunamis se déplacent plus lentement, cela leur laisse quelques dizaines de minutes pour se réfugier en lieu sûr.
Cependant, ces systèmes d’alerte ne parviennent pas à estimer rapidement la magnitude des très grands séismes et par conséquent, la hauteur des inondations. Ainsi, le système d’alerte japonais a estimé une magnitude de 8 au lieu de 9 lors du séisme de la côte Pacifique du Tōhoku (couramment appelé séisme de Fukushima) en 2011, prévoyant une vague de 3 mètres au lieu de 15, une erreur aux conséquences dramatiques.
Depuis cette catastrophe, les recherches pour prédire la hauteur des vagues sont de plus en plus nombreuses. L’une d’elles, regroupant des chercheurs de l’IRD, du CNRS, de l’Université Côte d’Azur, de l’Observatoire de la Côte d’Azur, du Los Alamos National Laboratory et de Kyoto University, a utilisé le deep learning pour estimer en temps réel la magnitude des grands séismes.
Une autre associait l’institut Riken aux laboratoires Fujitsu, l’Université de Tohoku et l’Université de Tokyo qui, en exploitant les performances du supercalculateur Fukagu, avait développé un modèle d’IA capable de prédire instantanément les inondations dues au tsunami.
Une nouvelle étude basée sur le deep learning, dérivée d’observations offshore
A la suite du tsunami dévastateur de 2011, l’Institut national de recherche pour les sciences de la Terre et la résilience aux catastrophes du Japon a installé le plus grand réseau de capteurs au monde pour surveiller le mouvement du fond océanique. Ce réseau d’observation des fonds marins pour les tremblements de terre et les tsunamis le long de la fosse japonaise (S-net) compte 150 stations offshore (au large des côtes). S-Net a détecté avec succès un tsunami de moins de 1cm le 20 août 2016, généré par un séisme modéré au large de Sanriku, dans le nord-est du Japon.
Pour l’équipe de recherche, en plus de la détection précoce des tsunamis, une alerte efficace devrait inclure davantage d’informations, y compris l’étendue potentielle des inondations et le profil de hauteur aux endroits d’intérêt.
Des études antérieures ont démontré que la prévision des inondations causées par les tsunamis peut être approchée en résolvant numériquement les équations non linéaires des eaux peu profondes simulant l’hydrodynamique des tsunamis. Cependant, cette méthode nécessite de tenir compte de toutes les variables des équations gouvernantes, c’est-à-dire les composantes d’altitude et de vitesse, qui évoluent dans le temps à toutes les grilles numériques, et donc de s’appuyer sur un supercalculateur.
Pour cette étude, les chercheurs ont appliqué une technique d’apprentissage automatique basée sur des réseaux de neurones artificiels avec pour entrée les données sur les tsunamis observés dans les 150 stations S-net, et pour sortie la carte d’inondation correspondante aux endroits spécifiés.
Grâce au réseau d’observation dense de S-net, la prévision des hauteurs maximales d’inondation des tsunamis (la hauteur au-dessus du niveau moyen de la mer) ou des profondeurs d’écoulement (la hauteur au-dessus du sol) et de la couverture par les réseaux neuronaux, peut être dérivée des observations offshore sans calculer l’ensemble des variables d’état du système dynamique du tsunami, réduisant considérablement le coût de calcul en temps réel par rapport à la simulation basée sur la physique.
Les tsunamis sont heureusement des phénomènes rares, le modèle a été entraîné avec 3093 scénarios de tsunami générés par ordinateur. Il a ensuite été testé avec 480 autres scénarios et 3 tsunamis réels. Le modèle pourrait atteindre une précision comparable à la simulation conventionnelle avec seulement 1% de l’effort de calcul.
Les conclusions de l’étude
Pour l’équipe de recherche ,“Cette étude démontre qu’un modèle basé sur l’apprentissage automatique peut être utilisé comme substitut potentiel du modèle conventionnel basé sur la physique pour prédire les inondations de tsunami en champ proche en temps réel. De plus, nous configurons notre modèle pour prendre en compte des zones d’inondation considérablement plus larges que celles couramment adoptées dans la modélisation des tsunamis. Le modèle peut également être étendu pour englober plus de zones sans être compensé par une augmentation significative du coût de calcul en temps réel. Bien que la vitesse de calcul de l’algorithme et la précision de la prédiction soient prometteuses, nous reconnaissons qu’il reste plusieurs questions en suspens à résoudre avant la pratique réelle dans le système de prévision opérationnelle.”
Réferences :
“Machine learning-based tsunami inundation prediction derived from offshore observations.” Nature Communications 13 5489 (2022) – Doi: 10.1038/S41467-022-33253-5
Auteurs : Iyan E. Mulia, Naonori Ueda, Takemasa Miyoshi, Aditya Riadi Gusman, Kenji Satake