Informatique coopérative : la Communauté du réseau

La communauté du réseau

Qui a dit que le groupe n’avait pas d’intelligence ? Aujourd’hui, les possesseurs d’ordinateurs individuels (PC) réinventent le collectivisme, dans l’intérêt bien compris de chacun : c’est l’informatique coopérative. L’avènement d’Internet permet d’interconnecter des centaines de millions d’ordinateurs à travers le monde, capables de partager des ressources de multiples natures.

    1. Technologies de réseaux : le carré magique de Metcalfe

Robert Metcalfe, inventeur du protocole informatique Ethernet et fondateur de la société 3COM, a formulé une loi empirique permettant de mesurer l’utilité d’un réseau.

Utilité du réseau = k * N²

où N désigne le nombre de nœuds du réseau et k un facteur multiplicatif.

Autrement dit, l’utilité d’un réseau est proportionnelle au carré du nombre des points qu’il relie. Prenons le cas du téléphone. S’il n’y a que deux utilisateurs, on peut parler de réseau, mais sa valeur est très faible. Si tous les habitants d’une petite ville sont reliés au réseau téléphonique, sa valeur devient déjà beaucoup plus importante. Aujourd’hui que tous les habitants des pays développés sont équipés, la valeur du réseau téléphonique mondial est considérable, contribuant à créer un « village mondial ».


La loi de Metcalfe

    2. Internet : la révolution avant l’heure

Et l’Internet dans tout ça ? En 1993, 2,5 millions d’ordinateurs y étaient reliés. En 1997, ils étaient 25 millions. On peut donc dire en première approximation que l’utilité d’Internet a été multipliée par 100 en quatre ans. C’est vrai qu’Internet a changé notre vie, que ce soit au bureau ou à la maison. Le courrier électronique est exemplaire à cet égard. Le phénomène Internet a modifié les mentalités, au point qu’on a pu croire à une révolution. Cette croyance est allée jusqu’à s’emparer des milieux financiers, créant la « bulle Internet ».

Et puis la bulle a éclaté en l’an 2000.

Pourquoi ? Parce que si Internet avait profondément remanié les cartes du jeu économique et social, il n’avait pas encore atteint à cette époque tout son potentiel. La loi de Metcalfe ne s’appliquait à lui qu’imparfaitement. En effet, si les ordinateurs connectés au « Web » formaient bien un réseau planétaire, l’architecture restait centralisée, les flux de données restant dominés par les échanges entre les sites (parfois regroupés en portails) et les internautes.

    3. L’informatique coopérative : le (vrai) grand bond en avant

La révolution attendue est peut-être en train de se produire avec le développement de l’informatique coopérative. Le principe est simple : en bénéficiant de la généralisation de l’accès à Internet, il s’agit de mettre en commun des ressources entre les ordinateurs du réseau. Le phénomène a pris une ampleur particulière depuis deux ans, avec l’essor du haut débit et des connexions permanentes. On arrive ainsi à un modèle dans lequel chaque ordinateur peut réellement collaborer avec tous les autres, donnant tout son sens à la loi de Metcalfe.

    4. Les quatre stades de l’informatique coopérative

Quatre types d’application sont apparus qui continuent à coexister. Chacun d’entre eux marque un pas en direction de l’intelligence distribuée, orientation que semble prendre l’informatique coopérative.

  • L’information échangée : le peer to peer
  • C’est sans conteste Napster qui a fait connaître cette application au grand public. Le site permettait aux internautes de mettre en commun leurs fichiers musicaux, de les rechercher à l’aide d’un moteur, et de les télécharger. Néanmoins, le système restait centralisé, avec un serveur chargé de mettre en relation le PC demandeur avec le PC possédant la ressource. C’est d’ailleurs cette caractéristique qui a été utilisée par les grandes maisons de disque pour attaquer Napster devant la Justice, l’obligeant finalement à fermer (*). D’autres systèmes véritablement peer to peer sont apparus par la suite, sans cette limitation. Il s’agit de réseaux sans serveur centralisé. L’utilisateur recherchant un fichier (chanson, vidéo, logiciel…) envoie sa requête qui est acheminée de proche en proche par les nœuds du réseau. Se constitue ainsi une chaîne ad hoc entre le PC demandeur et le PC possédant la ressource (s’il existe) permettant le transfert du fichier. Parmi les logiciels peer to peer les plus utilisés, on peut citer Limewire, Kazaa, Overnet…Ils sont beaucoup plus difficiles à contrer d’un point de vue juridique, car leurs promoteurs se contentent de mettre à disposition un protocole d’échange de fichiers et ils ne peuvent pas, en principe, être tenus responsables de l’usage qu’en font les personnes. Au-delà de cette querelle, les systèmes peer to peer sont une mine d’informations, permettant à leurs utilisateurs de trouver des documents rares qu’ils n’auraient jamais pu se procurer autrement.

  • Le calcul distribué : le grid computing
  • Certaines applications demandent une puissance de calcul telle qu’elles ne pouvaient jusqu’à présent être effectuées que par des super calculateurs très coûteux. L’informatique coopérative offre une alternative beaucoup plus économique. Au lieu de confier les calculs à un seul super ordinateur, pourquoi ne pas les découper en millions de petits morceaux pris en charges par autant de micro-ordinateurs ? On passe ainsi du concept de Toile (ou Web) à celui de grille (ou grid). Il suffit d’installer sur des postes clients de petits logiciels chargés d’effectuer les opérations à partir de données reçues depuis un serveur central. Généralement, ces programmes utilisent les périodes pendant lesquelles les processeurs des machines sont partiellement ou totalement inactifs. Ensuite, ils renvoient les chiffres au serveur central, où un autre logiciel combine tous les résultats reçus pour reconstituer le résultat final. Les utilisations de cette astucieuse technique sont multiples :

    – Dans le domaine scientifique

    Si Napster a contribué à faire connaître le peer-to-peer au grand public, c’est sans conteste l’initiative SETI@home qui a popularisé le grid computing. Le programme SETI (Search for Extra Terrestrial Intelligence) consiste à rechercher un signal radio dans l’espace d’origine artificielle et non humaine. De nombreuses gammes de fréquence, dans de nombreuses directions, sont susceptibles de recéler un hypothétique signal. La tâche est donc immense, et l’analyse des signaux reçus demande de grandes capacités de calcul. Pour les réunir, la décision a été prise de répartir les calculs entre des millions d’ordinateurs répartis à travers la planète. Actuellement, selon SETI@home, les trois millions d’ordinateurs connectés participants équivalent à une machine de 15 téraflops (réalisant quinze mille milliards d’opérations par seconde), pour un coût total de 500 000 dollars. A titre de comparaison, la machine la plus puissante actuelle, l’IBM ASCI White, a une capacité de 12 téraflops seulement et coûte 110 millions de dollars.

    – Dans le domaine médical

    Profitant de l’élan créé par SETI@home, d’autres initiatives de grid computing ont été lancées, avec des retombées plus directes. On peut citer le Décrypthon, lancé dans le cadre du Téléthon 2001, qui a permis de réaliser la première comparaison exhaustive de toutes les protéines identifiées chez les êtres vivants (animal, végétal, humain), soit 559 275 séquences protéiniques comparées en moins de deux mois. Un autre programme mérite d’être signalé, sous l’égide de l’université de Stanford. Composé de deux projets, Folding@home et Genome@home, il s’attache à étudier les génomes et la synthèse de protéines. Depuis le début du programme, en janvier 2001, plus de 20 000 années CPU (qui sont à l’informatique coopérative ce que les années hommes sont aux projets humains) ont été données par des bénévoles. Au total, elles ont permis de simuler plus de six millions de nouvelles sequences protéiniques.

    – Dans le domaine économique

    De nombreux secteurs d’activité requièrent des capacités de calcul gigantesques, qu’il s’agisse de la finance, des biotechnologies, de l’automobile…L’achat de supercalculateurs représente un investissement énorme pour les entreprises, qui peut être évité en mettant en place une grille de calcul. Ainsi, une banque pourra faire réaliser ses opérations financières complexes en utilisant son réseau local d’ordinateurs (LAN) : les cycles inutilisés des unités centrales des machines (CPU) pourront prendre en charge les opérations mathématiques requises, de manière transparente pour l’utilisateur. Cette solution ne présente pas seulement l’avantage de remplacer l’utilisation d’un supercalculateur. Elle permet également d’adapter la puissance de calcul disponible dans une entreprise en fonction des besoins. La compagnie pourra ainsi dimensionner au plus juste cette puissance disponible, en sachant que si elle a besoin de davantage de puissance, il lui suffira de “densifier” sa grille en connectant un plus grand nombre d’ordinateurs. Si la puissance de calcul varie, la société pourra également faire le choix d’externaliser son approvisionnement. Un prestataire externe pourra lui procurer un certain volume de temps de calcul (temps CPU) et lui facturer exactement le montant consommé…exactement comme dans le cas de la consommation de courant électrique. Certaines sociétés sont déjà présentes sur le marché des grilles de calcul à usage professionnel, notamment Gridsystems à travers sa solution Innergrid.

  • La connaissance partagée
  • L’informatique coopérative passe aussi par les systèmes de gestion de la connaissance (knowledge management). En effet, une grande partie du savoir de l’entreprise reste implicite, car reposant sur une expertise et des savoir-faire individuels débordant largement des qualifications et des titres officiels. Un moyen de rendre ce savoir accessible est d’inviter les collaborateurs à alimenter les bases de connaissance de l’entreprise, de participer aux forums sur l’intranet, ou de se faire connaître en tant qu’ « experts » sur certains sujets, à qui des questions peuvent être envoyés par les systèmes de messagerie instantanée ou d’e-mail.

  • L’intelligence démultipliée
  • L’étape ultime de l’informatique coopérative consiste à capitaliser sur les comportements individuels pour créer une intelligence collective supérieure, un peu à la manière des fourmis possédant chacune une rationalité limitée mais organisée en colonies complexes. Plusieurs applications peuvent déjà être citées, comme la lutte contre les e-mails non sollicités (spam). La société Cloudmark propose ainsi un logiciel, SpamNet, permettant aux membres d’une communauté de collaborer dans la lutte anti-spam. Il suffit à chaque membre recevant un spam de le signaler comme tel pour que toute la communauté en soit protégée. Dès l’information transmise, les logiciels de messagerie des autres utilisateurs sont aussitôt immunisés contre le message non sollicité, qui sera systématiquement refoulé. Autre initiative, Woldwide Lexicon vise à créer un système de traduction automatique multilingue pour les langues rares, en sollicitant des milliers de traducteurs volontaires pour traduire des portions de phrase ou des mots à leurs moments libres.


    Les quatre stades de l'informatique coopérative

    En résumé, l’informatique coopérative fait entrer la société de l’information dans un âge nouveau, dans lequel les notions de partage, de communauté et de participation jouent un rôle prépondérant. Elle n’en est qu’à ses balbutiements. Mais de même qu’aujourd’hui nous ne nous préoccupons pas de l’origine de l’électricité que nous consommons, demain les entreprises et les particuliers disposeront, si le paradigme se confirme, de puissances de calcul et de processus intelligents encore inimaginables.

    Jérôme Delacroix

    Pour en savoir plus : une discussion sur la loi de Metcalfe sur CraoWiki
    http://wiki.crao.net/index.php/LoiDeMetcalfe

    One thought on “Informatique coopérative : la Communauté du réseau

    1. Pingback: Cooperatique.com » A lire : les créatifs culturels en entreprise

    Laisser un commentaire