Le nouveau classement Top500 des machines les plus puissantes du monde, les HPC, vient d’être publié.

Il confirme la domination de la machine chinoise Tianhe-2, qui est en tête depuis plusieurs mois, estimée à près de 34 Peta Flops.

Autres enseignements de ce classement : les chinois ont dépassé les européens en nombre de machines présentes dans ce Top500, qui passent de 37 à 109 machines, pendant que la présence européenne s’effilochait de 141 à 107 machines. Ce qui témoigne en particulier de la vitalité de la recherche chinoise.

Dans le même temps, les américains sont passés de 231 à 201 machines présentes dans ce Top500 mais restent les principaux concepteurs et consommateurs de ces HPC : High Performance Computer.

Concernant ces super-ordinateurs construits sur mesures, un certain nombre de points sont à relever.

Le fait tout d’abord, que la tendance générale qui veut que tous les 11 ans leur puissance est multipliée par un facteur 1000 : 1 GFlops en 1985 (du temps de la splendeur du Cray), 1 TFlops en 1997 et 1 PFlops en 2008, est légèrement en train de s’effriter, la progression n’étant plus aussi nette que par le passé.

La raison vient sans doute du fait qu’au fur et à mesure que l’on améliore la puissance des nœuds des clusters et que l’on augmente leur nombre, l’overhead système induit par la gestion proprement dite de la machine et ses liens inter-nœuds devient exorbitant. Qui accapare l’essentiel des ressources de traitement. Il faut croire aussi que la montée vertigineuse de la consommation électrique de ces « monstres », qui se situe aujourd’hui entre 15 et 20 MW, telle que celle de la machine construite par IBM pour l’institut néerlandais et son radiotélescope SKA, une machine exaflopique, est considérée comme inacceptable.

Il y aussi le fait qu’il devient très difficile de contrôler le mouvement « brownien » des messages échangés entre 1 million voire 10 millions de nœuds, qui semble être l’échéance à laquelle les concepteurs seront bientôt confrontés. D’autant que les API et le protocole d’échanges MPI, datent un peu, qui doivent être repensés à l’échelle exaflopique et au-dessus.

Si l’arrivée de machines exaflopiques (1018) ne fait plus aucun doute, celle des machines zettaflopiques (1021) et Yottaflopiques (1024), prévues normalement pour 2030 et 2040,  est donc beaucoup plus incertaine.

Toutes ces machines étant de plus en plus des modèles uniques, construites certes à base de composants traditionnels, mais dotées d’un système d’exploitation fait sur mesure, sur une base généralement Linux et surtout des matrices d’interconnexion à très haut débit, là encore construites spécifiquement, Ethernet, Infiniband et les autres standards étant désormais totalement dépassés.

En termes d’usage, on pourrait penser que ces machines d’une « autre planète » ne sont que des laboratoires, destinés à valider des concepts architecturaux, mais il n’en rien.

Au contraire, la demande est très forte, qui vient surtout des laboratoires de recherche fondamentale, du big data avec des modèles d’analyse très sophistiqués, tel Watson d’IBM, mais aussi les météorologues et les pétroliers, dont les besoins en modélisation 3D de recherche sismique, sont particulièrement élevés.

Il y a donc un marché et malgré la présence confirmée de Tianhe-2, ce marché reste essentiellement américain.