Passer au contenu

Vers l’échange direct de PC à PC via le Net

Candidat à la succession du modèle client-serveur, et donc du Web, le peer-to-peer prône l’échange de fichiers et la distribution des applications à travers des PC communiquant, le plus souvent, directement entre eux via le Net. À la clé, l’exploitation de ressources informatiques énormes, celles des PC, jusqu’alors souvent en sommeil.

L’échange de fichiers peer-to-peer (d’égal à égal) pousse à son paroxysme le concept d’informatique distribuée. Il pourrait même succéder au modèle client-serveur, sur lequel reposent le Web, le courrier électronique et presque toutes les applications nées depuis dix ans. Les domaines ciblés sont très variés. Napster, qui autorise l’échange de fichiers musicaux de type MP3, est le plus souvent cité. Auparavant, les outils de messagerie électronique en direct, de type ICQ, étaient déjà peer-to-peer. Gnutella, de Nullsoft, et FreeNet permettent, eux, de publier des informations en partageant tout type de fichier sans impliquer de serveur tiers.

Chaque machine devient tour à tour client et serveur

Si l’on se place du point de vue du support matériel, le peer-to-peer se caractérise par sa capacité à répartir les applications sur les ressources situées à la périphérie d’Internet ?” c’est-à-dire les PC (et demain, pourquoi pas, les assistants personnels ou d’autres types d’appareils nomades) et l’individu placé devant le clavier. Pour réaliser cela, un logiciel totalement indépendant du navigateur Web et du client de messagerie doit être installé sur le PC. Certaines applications, plutôt scientifiques, tireront essentiellement parti des capacités de traitement et de la mémoire centrale des postes de travail. Les applications d’archivage, de partage d’informations ou de communication exploiteront, quant à elles, les ressources de stockage et les capacités d’entrées-sorties de la machine, mais aussi le contenu créé ou accumulé par l’utilisateur.Une autre définition consiste à présenter le peer-to-peer comme une classe d’applications dans lesquelles il n’existe aucun système serveur, chaque machine pouvant alors être alternativement client ou serveur. Cette définition est valable pour Gnutella ou FreeNet. Mais, dans le cas de Napster ou de SETI@Home, un serveur se comporte en chef d’orchestre. Son rôle se limite, toutefois, à la répartition des traitements (puis à la synthèse des résultats) ou à l’initialisation d’un dialogue direct et potentiellement symétrique entre PC. Si l’on accepte cette restriction, une application mérite le label peer-to-peer, lorsque les PC qui la mettent en ?”uvre bénéficient d’une autonomie importante, à défaut d’être totale. Quoi qu’il en soit, les PC ont toujours le beau rôle. Il en découle un argument déterminant : les trois cents à quatre cents millions de postes de travail reliés à Internet cumulent des nombres de gigahertz et de téraoctets largement supérieurs à ceux des serveurs.Autre avantage : ces ressources sont administrées par les utilisateurs. En somme, le peer-to-peer permet de répartir les traitements ou les données, mais aussi les risques, les coûts et les efforts d’administration. D’aucuns avancent une thèse plus” philosophique ” : dans le cas d’applications de communication ou de publication d’informations, le dialogue direct entre PC ouvre la porte à une liberté totale. Par exemple, pour partager leurs fichiers, les individus ne dépendent plus d’une autorité gérant un serveur Web ou SMTP.En contrepartie, l’anonymat inhérent à certains outils (comme FreeNet) autorise la publication de n’importe quoi, sans autorisation, et en toute impunité.. En contrepartie, l’anonymat inhérent à certains outils (comme FreeNet) autorise la publication de n’importe quoi, sans autorisation, et en toute impunité.

Quand le réseau change de nature

Une autre définition du peer- to-peer met l’accent sur l’aspect réseau. En effet, à l’inverse des serveurs, le PC présente généralement la caractéristique de ne pas posséder d’adresse IP fixe, une adresse provisoire étant allouée dynamiquement par un serveur DHCP (Dynamic host configuration protocol). Le PC n’est, en outre, pas connecté en permanence, ni même forcément sous tension. Les applications doivent donc s’accommoder de ce terrain mouvant.Cela signifie essentiellement qu’elles doivent posséder leur propre système d’identification, indépendant du DNS (Domain name server). Un tel système se base généralement sur un annuaire centralisé ou distribué, par l’intermédiaire d’un mapping temporaire ?” le temps d’une session ?” avec les adresses IP des PC. Ces nouveaux systèmes d’adressage (certains comptent déjà des millions d’adresses) pourraient apparaître comme un phénomène temporaire. Car, finalement, n’est-il pas dû aux carences du protocole IP v. 4, essentiellement prévu pour gérer des n?”uds fixes ? Le nombre limité d’adresses disponibles avec IP v. 4, et les connexions ponctuelles des PC ?” dont on pourrait dire qu’elles sont tolérées sur Internet ?” ont amené à allouer provisoirement des adresses à ces PC.Aujourd’hui, les applications peer-to-peer doivent contourner l’obstacle. Mais, demain, les connexions télécoms permanentes (ADSL, câble et boucle locale radio) vont se multiplier, et, parallèlement, le protocole IP v. 6 délivrera un nombre virtuellement illimité d’adresses, ce qui permettra d’en offrir une à chaque terminal. Dès lors, le PC redeviendra un n?”ud comme les autres. Et les systèmes d’adressage spécifiques à chaque application peer-to-peer seront inutiles. Certains plaident pourtant en faveur de leur maintien.

Gnutella pourrait terrasser le Web

Souvent, en effet, ces nouveaux systèmes ne ciblent pas l’identification des machines elles-mêmes. Ainsi, celui d’ICQ prend des humains comme référence, tandis que FreeNet alloue un identifiant unique à chaque information publiée, les individus restant, quant à eux, anonymes. Parallèlement, si les PC sont un jour connectés en permanence, il n’en sera pas de même d’appareils nomades tels que les PDA ou les téléphones portables, qui, demain, participeront à des applications peer-to-peer.Hormis le système d’adressage, les applications peer-to-peer auront d’autres implications essentielles sur le réseau. Déjà, elles permettent une optimisat ion de la bande passante, puisque celle-ci est répartie entre des centaines de millions de PC, et non plus concentrée vers quelques millions de serveurs, qu’il faut souvent répliquer ou compléter par des systèmes de caches complexes. De plus, les modes de connexion asymétriques des PC, que l’on retrouve aussi bien avec les modems qu’avec l’ADSL ou le câble, sont inadaptés au peer-to-peer, qui prône, comme son nom l’indique, une communication d’égal à égal. Concrètement, un PC exécutant Napster reste plus efficace comme client (le débit descendant du réseau vers le PC étant supérieur) que comme serveur (le débit montant du PC vers le réseau étant inférieur), alors que, par définition, le trafic mondial généré par cette application est aussi important dans les deux sens. Un argument qui plaide, donc, en faveur de l’avènement du SDSL (Symmetric digital subscriber line)Napster a été la première application dûment estampillée peer-to-peer. Elle requiert l’installation d’un logiciel qui permet la publication ou la recherche et le téléchargement de fichiers musicaux au format MP3. Tour à tour, un PC exécutant Napster se comportera ainsi en client ou en serveur. Mais l’utilisateur s’enregistre initialement auprès du serveur Napster, chef d’orchestre qui tient à jour, dans son référentiel, les pointeurs vers les PC des utilisateurs et les fichiers qu’ils publient. Ainsi, lorsqu’un d’entre eux cherche un fichier, il lance une requête ?” dont les critères sont le morceau recherché, l’artiste ou la qualité du codage sonore ?” qui aboutit sur le serveur. Celui-ci transmet la liste des PC connectés publiant ce fichier. Ces PC serveurs peuvent être directement contactés par le PC client, qui initie le téléchargement à partir de l’un d’entre eux.Gnutella, ainsi que le projet de logiciel libre FreeNet, nourrissent l’ambition de concurrencer le Web en étendant le principe de Napster à tout type de contenu. L’architecture, dans ce cas, est entièrement horizontale, les PC ne dépendant plus de l’autorité d’un serveur. Et lorsqu’un utilisateur cherche un document, son PC émet une requête vers des PC voisins, qui la répercutent vers d’autres. La requête se propage ainsi jusqu’à ce que le contenu soit trouvé, puis transmis de PC à PC. De plus, FreeNet attribue un identifiant unique à chaque document publié. Ce dernier se propage à travers le réseau, au lieu de rester sur un seul PC. Et cela, d’autant plus vite que des utilisateurs le sollicitent. À l’inverse, s’il n’intéresse personne, il disparaîtra.

Des supercalculateurs distribués sur le réseau

Des outils de recherche ou de partage de fichiers ont la possibilité d’être mis en ?”uvre sur un Intranet en peer-to-peer. Sur la base de Gnutella, on pourrait imaginer de répartir la fonction de serveur de fichiers, avec une disponibilité accrue due à l’existence de copies multiples et distantes. D’autres applications peer-to-peer ciblent d’emblée les entreprises. La plus connue, Groove, de Groove Networks, est développée par Ray Ozzie, l’un des pères de Lotus Notes. Cet outil de travail collaboratif intra-entreprise, ou entre l’entreprise et ses partenaires et clients, propose des fonctions de dialogue en direct, de voix sur IP, de partage de fichiers et d’images, ou encore, de conavigation sur le Web, le tout dans le cadre d’espaces virtuels partagés.À l’instar de Napster, Groove confie à des serveurs la tâche d’initier les interactions de PC. Avec Rumor, Network Associates applique le principe du peer-to-peer à la télédistribution de fichiers de signatures d’antivirus vers un vaste parc de PC. Concrètement, lorsqu’un utilisateur cherche à mettre à jour son fichier, son PC interroge d’abord les autres PC. Et c’est seulement si aucun d’entre eux n’a déjà réalisé l’opération qu’il devra chercher la dernière version sur un serveur Web.

Quand le peer-to-peer attire les convoitises

Au-delà du partage ou de la propagation de fichiers et d’informations, le peer-to-peer promet d’exploiter à des fins scientifiques et techniques le formidable gisement de puissance de calcul que recèlent les millions de PC reliés à Internet.En quelque sorte, on reproduit, à l’échelle du réseau, un supercalculateur massivement parallèle, mais avec un couplage très lâche entre les n?”uds, donc compatible avec l’instabilité des connexions des PC et avec la nécessité d’attendre que leurs utilisateurs ne les sollicitent plus. Un serveur central se charge ainsi de découper les masses de données en multiples tranches, sur lesquelles les traitements peuvent être appliqués sans interactions d’une tranche à l’autre. Celles-ci sont ensuite envoyées vers les PC qui, une fois ces traitements réalisés, retournent les résultats au serveur, qui les consolide. Le célèbre projet SETI@Home applique ce principe à l’analyse de signaux dont il s’agit de mettre en évidence l’éventuelle origine extraterrestre. Toujours identiques, les traitements sont réalisés par un programme inclus dans un économiseur d’écran s’activant quand le PC n’est pas utilisé.Les sociétés Popular Power et United Devices reprennent ce principe et l’étendent à tout type de traitement, tels l’imagerie de synthèse, le calcul statistique ou l’analyse de données complexes. Pour séduire les utilisateurs et tester sa technologie, Popular Power propose le téléchargement d’une plate-forme réalisant, pour l’instant, des calculs d’optimisation d’un vaccin contre la grippe. Mais, à terme, l’objectif est de rémunérer les possesseurs de PC, par exemple sous la forme de crédits de connexion à Internet, qui accepteront de vendre leur capacité de calcul à des entreprises. L’utilisateur aura, notamment, la possibilité de spécifier la puissance qu’il désire céder, et même la part qu’il veut voir consacrée à la recherche fondamentale ou à des projets commerciaux. À la fin de l’année dernière, cette société affirmait avoir installé sa plate-forme sur cent mille PC.Pour l’heure, ce modèle à couplage lâche confère une autonomie réduite aux PC, et ne prévoit aucune communication de PC à PC. On peut considérer que le label peer-to-peer est à peine mérité. Cependant, on peut imaginer un couplage plus étroit avec passage de messages de PC à PC. Sur leurs réseaux privés ?” qui offrent des débits bien plus élevés qu’Internet ?” organismes de recherche, grandes entreprises et universités se rapprochent d’une telle topologie, avec des réseaux dédiés au calcul baptisés grids (ou grilles).Quelques poids lourds ont tout intérêt à voir le succès de ce modèle. Pour Intel, c’est un moyen de justifier l’augmentation exponentielle de la puissance de ses microprocesseurs. Microsoft, qui ne cache pas non plus son intérêt, y trouve un argument de poids en faveur du poste client lourd, par opposition aux terminaux Intranet et autres network computers. De fait, le peer-to-peer pourrait faire de l’ombre à Sun Microsystems ou à Oracle, initiateurs des concepts de clients légers et partisans d’un retour à la centralisation des ressources. Comme jadis le client-serveur ou les technologies propres à Internet, le peer-to-peer entame la longue route qui l’amènera à la maturité technologique.Cela passera par la résolution de problèmes de sécurité et par l’engagement dans un processus de standardisation. Tels sont déjà les objectifs d’un groupe fondé par Intel. Baptisé Peer-to-peer Working Group, il comprend quelques dizaines de membres et de supporters, dont IBM, HP et JDEdwards, auxquels s’ajoutent beaucoup de sociétés.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Thierry Lévy-Abégnoli