L’Overfitting et l’accident de Fukushima

Le 11 mars 2011 se produisait l’accident nucléaire de Fukushima. Il fut la conséquence d’un tsunami provoqué par un tremblement de terre dont la magnitude atteignit 9,1 sur l’échelle de Richter.

Cette centrale nucléaire conçue pour supporter une magnitude maximale de 8,6 résista jusqu’à ce qu’une coupure de l’électricité vienne neutraliser le système de refroidissement.

En dehors des aspects techniques, une question se pose :

Pourquoi avoir retenu 8,6 et non de 9,5 par exemple ?

La simple application de la loi de Gutenberg-Richter, encapsulée dans la formule ci-dessous n’incitait cependant pas à se contenter d’une magnitude de 8,6 sur l’échelle de Richter :

Ce que cette formule a d’extraordinaire c’est sa simplicité. Elle met en relation d’une manière très simple la fréquence des séismes et leurs magnitudes respectives.

Afin que chacun puisse comprendre comment elle fonctionne, nous avons reproduit grossièrement les données relatives aux tremblements de terre survenus dans le secteur de Fukushima.

La représentation graphique ci-dessous démontre que jusqu’au point D, la loi de Gutenberg-Richter est respectée.

Cette image a un attribut alt vide ; le nom du fichier est image-1.png

A partir de ce point « D », les données historiques sont éparses et peu nombreuses. Elles constituent un amas de bruits et non un ensemble de signaux.

En statistique, « Overfitting » est le mot anglais utilisé pour désigner le fait de confondre le bruit et le signal.

Dans notre exemple, les sismologues qui décidèrent de la norme à respecter pour assurer la sécurité de la centrale retinrent une magnitude maximum de 8,6, et ce, parce qu’ils se fondèrent (à tort) sur la fonction d’extrapolation calquée sur les bruits.

Cette fonction permettait d’identifier le point F sur le graphique et donc de considérer que les séismes de magnitude 8,8 se produisaient tous les 10 000 ans (c’est à dire 1/0,0001) et les séismes d’une magnitude de 9 sur la même échelle tous les 13 000 ans.

Or sur la base de la simple application de la loi Gutenberg-Richter dont la fiabilité n’a pas été démentie à ce jour, la fréquence d’un cataclysme d’une telle amplitude aura du être évaluée à un séisme tous les 30 ans.

Et même si sur les 45 dernières années, aucun séisme de cette magnitude ne s’était produit, la fréquence restait toujours valable.

A ce stade le lecteur aura compris l’intérêt du cas Fukushima qui met en lumière les effets dévastateurs qui peuvent résulter de la confusion entre le bruit et le signal.

En économie, la collecte des données, la formalisation des modèles mathématiques, servent à établir des lois statistiques dont la vocation est d’aider à prévoir voire de prévoir.

Ces modèles sont malheureusement parfois conçus à partir du bruit ambiant et non des véritables signaux, ce qui a pour effet de passer à côté de la prévision des catastrophes.

C’est ce que nous explique de manière beaucoup plus détaillée et approfondie, Nate Silver, dans son excellent ouvrage « The Signal and the Noise, The art of Science of prediction. »

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s