Rencontre au Café des Techniques sur “La grille, super ordinateur mondial”

La grille super ordinateur mondial

Sylvie Colleu me signale la prochaine rencontre du Café des Techniques, organisée au Musée des Arts et Métiers, sur le thème des grilles de calcul. En voici le programme :

« La grille, super ordinateur mondial »

Jeudi 18 novembre 2004, de 18h30 à 20h Musée des arts et métiers
60, rue Réaumur – 75003 Paris Métro : Réaumur-Sébastopol ou Arts et Métiers – Bus : 20,38,39,47
www.arts-et-metiers.net
Entrée libre dans la limite des places disponibles. Inscriptions au 01 53 01 82 70 ou à conferences AT arts-et-metiers.net

Après la toile, voici la grille ou plutôt les grilles

L’idée est simple : proposer un accès à la demande à un réservoir quasi illimité de ressources informatiques.

Plus qu’une simple communication entre machines, il s’agit d’une véritable mutualisation des ressources d’un parc d’ordinateurs hétérogènes et dispersés dans le monde. Cette technologie du Grid computing (Globalisation des ressources informatiques et des données) offre alors une puissance de calcul et une capacité de stockage inégalées. C’est aussi la possibilité d’échanger de l’information au sein d’une organisation virtuelle liée par un intérêt commun.
Imaginées pour répondre aux besoins des scientifiques confrontés à un volume sans cesse croissant de données à analyser, les grilles couvrent une large gamme d’applications.
Quels sont les obstacles au développement de cette technologie ? A qui cela bénéficie-t-il ? Quelles sont les applications spécifiques du Grid computing ? Quels en sont les utilisateurs potentiels ? Cela peut-il accroître la “fracture numérique” ? Continue reading

SETI@home a découvert un signal…”intéressant”

carte de la 2eme session d'observations de mars 2003

SETI@Home est le programme de recherche qui a rendu populaire le grid computing auprès d’un large public. Rappelons en deux mots de quoi il s’agit. Le principe est de faire analyser par les ordinateurs de milliers d’Internautes volontaires les signaux reçus par le radiotéléscope d’Arecibo (Puerto Rico) . Celui-ci scrute sans cesse l’univers à la recherche d’un éventuel signal extraterrestre, c’est-à-dire un signal lointain dont les caractéristiques ne pourraient pas être naturelles.

Depuis le démarrage du programme, les cinq milliards de signaux repérés par le programme se sont vus affectés un coefficient de probabilité pour mesurer la possibilité d’une origine extraterrestre. Les deux-cents signaux avec les meilleurs scores ont fait l’objet d’une session de ré-observation en mars 2003. Et parmi ces deux-cents signaux, une poignée a pu être observée une deuxième fois. A l’intérieur de cette poignée, un seul, baptisé du joli nom de SHGb02+14a, a vu son score augmenter.

Ces informations ont été reprises par le magazine New Scientist, déclenchant une forte excitation, qui a amené Dan Werthimer, scientifique en chef à l’université UC Berkeley et responsabe à SETI@Home, à déclarer que “l’éruption de déclarations selon lesquelles SETI@home aurait découvert un signal émananant probablement d’une civilisation extraterrestre est fortement exagérée”.

Effectivement, comme le précise le New Scientist, ce signal pourrait provenir d’un phénomène astrophysique naturel jamais observé jusqu’alors. Déjà en 1967, Jocelyn Bell Burnell, de l’Université de Bath au Royaume-Uni, avait détecté avec son équipe un signal incompréhensible pour l’époque…et qui s’était révélé être le premier enregistrement d’un pulsar ! Continue reading

Puissance de calcul : n’en jetez plus !

Nos ordinateurs personnels ont une capacité de calcul toujours plus importante, donc nous n’exploitons qu’une infime partie. Je viens de terminer la lecture du numéro de juillet-août de Science et Vie Micro, et j’ai découvert avec effarement la configuration optimale qui devrait être nécessaire pour faire « tourner » LongHorn, le futur système d’exploitation de Microsoft : Pentium 4 à 4 GHZ, 1 Go de mémoire vive !

Alors je me suis livré à une petite expérience. J’ai enregistré le texte préparatoire à ce billet aux formats Word 97 et Word 2 (je n’ai pas évolué dans les versions de Word, Word 97 satisfaisant largement mes besoins).

Bilan : le même texte pèse 3 Ko avec Word 2 et 38 Ko avec Word 97.

Ceci n’est qu’un exemple de l’extraordinaire gaspillage de ressources (mémoire, capacité de calcul), qui est à l’œuvre dans nos ordinateurs personnels. Car franchement, qui, à part les hard gamers, ces fondus de jeux vidéo super réalistes, aura vraiment besoin quotidiennement d’un processeur cadencé à 1 GHz et de 1 Go de RAM ?

La loi de Moore, qui prévoit le doublement du nombre de transistors sur une puce tous les 18 mois, ne cesse d’être vérifiée. Mais force est de constater qu’il n’y a pas une évolution parallèle des besoins réels des utilisateurs.

D’un point de vue écologique, tout ça ne fait pas de sens. Cette course a la puissance a un coût, non seulement pour l’utilisateur final qui doit périodiquement renouveler son matériel, mais aussi pour les entreprises du secteur en frais de R&D. Continue reading

L’Europe des grilles de calcul passe à la vitesse supérieure

Succédant à Datagrid, projet pionnier de l’Union Européenne dans le domaine du grid computing, son successeur, Egee (Enabling Grids for E-science in Europe), vient d’être officiellement lancé. Dotée d’un budget de 30 millions d’euros, cette nouvelle initiative, d’une durée prévue de 2 ans , se fixe pour objectif une disponibilité permanente de l’infrastructure de calcul 24 heures sur 24 pour les 70 organisations participantes (des universités et des centres de recherche) des 27 pays impliqués.

La grille utilisera le système de transmission de données à très haut débit GEANT. Les deux premières applications concerneront la physique des particules et la recherche biomédicale.

Ce projet de grande dimension et porté par les institutions reflète l’importance accordée par la communauté scientifique aux grilles de calcul. Si leurs débouchés paraissent encore lointains, c’est sans doute parce qu’elles concernent généralement la recherche fondamentale. Mais n’oublions pas que ce sont les avancées de celles-ci qui conditionnent les progrès des techniques de demain. En témoigne la déclaration de Fabrizio Gagliardi, Directeur du Projet Egee : “comme le Web, qui avait été développé à l’origine à des fins scientifiques, l’impact de la technologie émergente des grilles de calcul sur la société européenne est difficile à prévoir à ce stade, mais il sera probablement considérable.”

Où serons-nous ?

Le temps change…Il n’est qu’à se souvenir de la canicule de l’été 2003. Quant à l’expérience sensible de chacun d’entre nous, elle témoigne d’une variabilité et d’une instabilité du climat évidentes.

Les chercheurs commencent à s’accorder sur le fait que le réchauffement climatique a commencé. Les causes sont certainement multiples et encore peu claires. Les émissions de gaz à effet de serre, conséquences du développement industriel, y sont certainement pour beaucoup. Or le moteur de ce développement, dont nous profitons très certainement, est le modèle économique de la société de consommation qui se généralise sur la planète.

Parce que nous consommons tous, nous avons tous une part (infime) de responsabilité dans le réchauffement climatique. Alors pourquoi ne pas prendre une part (infime) dans les solutions à apporter au problème ?

C’est ce que propose le projet ediction.net.

La difficulté pour modéliser le réchauffement climatique et ses effets est qu’ils dépendent d’une grande quantité de facteurs très incertains. Selon la valeur accordée à tel ou tel facteur, les résultats peuvent être très différents. Encore une illustration du célèbre effet papillon…L’enjeu est donc de réduire cette incertitude le plus possible. Pour cela, deux approches sont possibles :

  • l’approche théorique
  • En collectant toujours plus de données sur les températures, les masses d’air, etc., sur toute la planète, à l’aide des satellites, et en traitant ces données avec les ordinateurs les plus puissant disponibles, on peut espérer affiner à l’extrême la pondération des différents paramètres. Ainsi, les modèles mathématiques de plus en plus précis permettront de comprendre mieux les phénomènes en cours.

  • l’approche empirique
  • Les modèles mathématiques font intervenir une foule de paramètres pondérés. Mais comment choisir la bonne pondération ? La solution retenue par Climateprediction.net consiste à effectuer des centaines de milliers de simulations, avec des valeurs différentes pour les coefficients de pondération. Ensuite, il s’agit de faire le tri, pour voir quelles combinaisons permettent le mieux de modéliser le climat du passé. A partir de ces combinaisons, on peut essayer de prévoir le futur.

    Cette méthode nécessite des capacités de calcul titanesques, qui dépassent largement les capacités des ordinateurs les plus puissants existants aujourd’hui. Les organisateurs du projet (notamment des chercheurs de l’Université d’Oxford et du Met Office, centre de prévision britannique réputé) ont donc fait le choix du calcul distribué. Continue reading