RTFlash

L'informatique "en grille" va démultiplier la puissance de calcul disponible pour la recherche

Une sorte de supercalculateur virtuel.» Fabio Hernandez, informaticien au centre de calcul du CNRS de Lyon, résume ainsi la réussite du programme européen DataGrid, qui vient tout juste de s'achever. Lancé en 2000, il vient de démontrer que la mise en réseau de centaines de petits ordinateurs pouvait avantageusement remplacer le recours aux superordinateurs pour mouliner de gros calculs scientifiques. L'idée est née dans les laboratoires de physique des particules. On y prépare la mise en service du Large Hadron Collider (LHC), en cours d'installation au Centre européen de recherches nucléaires (Cern), près de Genève. Il sera en 2007 le plus puissant accélérateur de particules du monde et permettra de sonder la matière avec une précision inédite grâce à un niveau d'énergie supérieur. A condition de savoir analyser les milliards d'informations qui surgiront des violentes collisions entre particules. C'est là qu'interviendra le «supercalculateur virtuel» de Hernandez. Des milliers de processeurs 10 000 au moins seront mis en réseau dans toute l'Europe pour analyser des jeux de données d'une dimension encore jamais atteinte, comptés en pétaoctets (des nombres comportant 15 chiffres avant la virgule). Ce besoin des physiciens des particules s'est transformé en aubaine pour les autres chercheurs. Pourquoi ne pas ouvrir cet ordinateur virtuel géant à tous ceux bio-informaticiens, géophysiciens, astronomes... qui n'ont pas toujours les moyens et les compétences pour utiliser les supercalculateurs traditionnels ? Surtout que ces mêmes scientifiques pourraient apporter une part de la solution : dans leurs labos, des milliers d'ordinateurs personnels «dorment» une bonne partie des 24 heures de chaque journée. Le projet European DataGrid était né. Dirigé par les informaticiens du Cern, où fut inventé le Web, financé (10 millions d'euros) par l'UE, mettant en commun les ressources de 21 instituts de 8 pays, il a démontré que l'idée était bonne. Et permet d'envisager une nouvelle infrastructure de recherche : une fabuleuse puissance de calcul offerte 24 heures sur 24 à tout chercheur. Lors des tests réussis, raconte Fabio Hernandez, la «grille» européenne a montré l'étendue de ses possibilités. Comparer une séquence ADN avec toutes les séquences contenues dans les banques de données ? Le biologiste se contente de soumettre sa séquence, d'indiquer le nom des banques, et «tout le reste est pris en charge par le logiciel». Rapidement, le biologiste reçoit les résultats, sans même savoir où et par quels ordinateurs ils ont été calculés. En sciences de la Terre, c'est l'Institut Pierre-Simon-Laplace (Paris) qui a mis à profit DataGrid pour reconstituer en trois dimensions la couche d'ozone stratosphérique au-dessus de l'Antarctique à partir des données satellitaires. La suite de l'opération est déjà dans les tuyaux. Le logiciel DataGrid est approuvé par l'Open Source Initiative Corporation, il est donc libre. Et va constituer le point de départ de la grille de calcul permanente que la Commission européenne a décidé de construire au vu du succès de l'opération.

Libération : http://www.liberation.fr/page.php?Article=195102

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top