Le calcul intensif : un outil exceptionnel pour la compréhension de la planète Terre

Titan_2012-P03156_3000

Titan est l’ordinateur le puissant du monde avec 600 To de mémoire vive.

Vous connaissez sans doute la loi de Moore ? L’ancien président de la compagnie Intel avait observé que la vitesse des ordinateurs doublait tous les 18 mois. Malgré les limites de la nanoélectronique, cette loi est toujours valide car les gains de performances sont obtenus par une multiplication massive des unités de calcul ainsi qu’une architecture hiérarchique hybride et parallèle. Dans son rapport sur la fusion nucléaire en 2007, l’Académie des Sciences estimait qu’en tenant compte à la fois du progrès des méthodes numériques et de la puissance des moyens de calcul, on gagnait un facteur 5 tous les 2 ans.

L’un des plus puissants superordinateurs du moment est à Oak-Ridge National Lab : il a 299 008 cœurs de calcul et 18 688 accélérateurs graphiques de 2 668 cœurs chacun ; il est capable d’une puissance de crête de 20 Pétaflop/s (20 millions de milliards d’opérations élémentaires flottantes par seconde, l’équivalent de 100 000 PC portables récents). Une de ses missions principales concerne la simulation du climat. Tera-100, le super ordinateur du CEA, a été un des premiers à franchir la barre du Pétaflop/s en Europe : si chaque habitant de la planète pouvait effectuer une opération par seconde, il faudrait 48 heures à la population mondiale pour réaliser autant d’opérations que Tera-100 en fait en une seconde. Le calculateur Curie, développé dans le cadre du projet PRACE et installé à Bruyères-le-Chatel, ouvert aux scientifiques européens, est l’un des plus puissants d’Europe avec 2 Petaflops/s.

Cette capacité de calcul colossale apporte des problématiques nouvelles, tant technologiques que mathématiques. Ainsi, à ce niveau de performances, la consommation d’énergie devient un enjeu : la puissance électrique nécessaire à l’alimentation et au refroidissement de Tera-100 est de l’ordre de 7 MW, ce qui est comparable à une motrice de TGV. Les données à manipuler sont faramineuses : en une journée, Tera-100 fournit l’équivalent du volume numérisé des ouvrages de la Bibliothèque Nationale de France. Ces volumes sont tels que les temps de communication, de transfert et de sauvegarde deviennent significatifs et peuvent pénaliser les performances si les procédures sont mal conçues. Pour donner un exemple : un calcul représentant le quart du cœur d’Iter sur une durée de fonctionnement d’une milliseconde implique 10^9 inconnues, il prend 31 jours sur 8 192 processeurs et produit 6.7 TeraOctets de données. Pour visualiser de telles données, de nouvelles techniques sont élaborées, avec de véritables murs d’images consacrés à la simulation numérique, comme celui du CEA pour ses programmes de recherche nucléaire.

Exploiter efficacement ces machines nécessite de concevoir le calcul de manière nouvelle et oblige à programmer de façon différente. Il faut arriver à diviser le problème sur tous les processeurs pour mieux régner. Ou bien l’application est parallèle par nature comme les algorithmes de Monte-Carlo, ou bien il faut décomposer le domaine de calcul en sous-domaines, en veillant à optimiser les échanges d’informations entre les différents cœurs chargés de chacun de ces sous-domaines. 

Simulation numŽrique de la circulation ocŽanique : mise en Žvidence du "Ni–o"

Mise en évidence du Niño par simulation numérique de la circulation océanique.

Les super ordinateurs sont des instruments exceptionnels pour explorer l’invisible, le gigantesque, l’infiniment petit et l’infiniment complexe, à condition d’avoir une solide connaissance de la physique des phénomènes étudiés. Mais curieusement cela ne suffira pas, même lorsque les ordinateurs exaflopiques (10^{18} opérations élémentaires par seconde) feront leur entrée vers 2020. La propagation des erreurs des données expérimentales et numériques ne semble pouvoir être contrebalancée que par la prise en compte d’aspects aléatoires dans les modèles mathématiques. Les phénomènes multi-échelles sont difficiles à prendre en compte dans les approximations numériques, qui plus est limitées par les conditions de stabilité des algorithmes pour les problèmes dépendant du temps. Les instabilités non-linéaires tuent les calculs si on ne les appréhende pas. Nous comptons sur les mathématiques pour débroussailler tout cela et donner de la crédibilité aux résultats numériques.

Brève rédigée en coopération avec Olivier Pironneau (Laboratoire J.-L. Lions, Univ. Pierre et Marie Curie, membre de l’Académie des Sciences).

Pour en savoir plus :

Credits images : Oak Ridge National Laboratory – ORNL et Inria, projet IDOPT.

2 Commentaires

Leave a Reply

Your email address will not be published. Required fields are marked *


4 + = six

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>