RadioSouvenirsFM

RadioSouvenirsFM

lundi 30 mars 2009

Web_Internet. Un réseau à l'architecture dépassée




Internet serait-il en train de vivre la fin de son âge d'or ? Alors même que s'accumulent les promesses d'applications révolutionnaires, nombre de spécialistes du réseau mondial font le constat qu'il fonctionne déjà aux limites de ses possibilités.

Les informaticiens disent qu'Internet «fait au mieux». En clair: l'utilisateur n'a aucune garantie sur la qualité des données reçues et sur l'instant de leur réception. Ainsi, en cas de congestion, des files d'attente se forment dans les routeurs, aiguilleurs du réseau. Après deux secondes d'attente, les paquets de données sont abandonnés et rendus inutilisables pour la téléphonie ou la vidéo. En l'état actuel de l'architecture, faire de la «qualité de service garantie» sur tout Internet est donc impossible. Cette limite se fait encore plus nette pour l'Internet mobile. Un enjeu de taille, à l'heure où l'on s'attend à ce que le prochain milliard d'internautes, issu des pays en voie de développement, accède au réseau par un terminal mobile plutôt que par de lourdes infrastructures fixes. Mais voilà: les échanges sans fil (Wi-fi, Wimax, Bluetooth) déboussolent l'une des briques essentielles d'Internet: le TCP, pour «Transfer Control Protocol». Le rôle de cette règle interne de fonctionnement: gérer automatiquement le flux des données, afin d'éviter une saturation du réseau.

Un sombre bilan

Par principe, chaque erreur de transmission est vue par le protocole TCP comme un signe de congestion. Sagement, TCP réduit alors le débit d'émission de moitié. Seulement, au contraire du support filaire pour lequel TCP a été pensé, le mode sans fil est sujet à de nombreuses pertes de données... que TCP interprète comme autant de signes de congestion, ce qui donne une liaison très loin d'être optimale. Dans ces conditions, Internet peut être mobile, oui... mais au prix de connexions ralenties. Et même intermittentes! Au final, le bilan est sombre: là où Internet semble offrir les applications les plus prometteuses, l'architecture du réseau peine à suivre. Et le temps n'y fera rien: grandi trop vite sur des bases inadaptées à ses usages actuels, il se révèle aujourd'hui sclérosé! Et si les applications actuelles fonctionnent, c'est uniquement au prix de multiples rustines techniques, patchs et autres correctifs qui, à force d'être posés, réduisent les chances de progrès et conduisent à rendre le réseau ingérable!

Faire table rase

Il suffit d'imaginer que les «rustines» représentent aujourd'hui plus de lignes de codes que les protocoles de base eux-mêmes! Un seul exemple ici: face au succès du réseau et à la mainmise américaine sur le stock d'adresses IP, les entreprises européennes ont dû ruser pour éviter la pénurie. Comment? Avec un patch, le «NAT» (Network Address Translation), qui attribue temporairement une adresse Internet pour un échange d'un réseau local vers l'extérieur. Le hic, c'est que ce NAT perturbe les protocoles de transport et impose d'incroyables circonvolutions aux services de messagerie instantanée ou de téléphonie sur IP. Arriver à développer une application comme Skype - logiciel de téléphonie sur le Web ?, dans ce contexte, fut un pur miracle technique. Et la question se pose: si son architecture devait rester en l'état, Internet serait-il définitivement condamné à stagner? Figé dans ses protocoles fondamentaux, Internet semble de plus en plus hors du coup. La question est maintenant: comment changer cet Internet? Question à laquelle de plus en plus de spécialistes osent répondre... «Clean slate.» Traduisez: faire table rase. Car tel est bien le sort que voudraient désormais lui réserver certains chercheurs, parmi lesquels d'anciens glorieux architectes d'Internet! Effacer les protocoles actuels devenus obsolètes, repenser de zéro l'architecture... Depuis cinq ans, les universités de Princeton, Stanford et le MIT, toutes impliquées dans la conception du Net, y vont de leur projet «clean slate». La National Science Fondation lançait même, en 2005, l'idée d'un colossal banc d'essai d'architectures à 350 millions de dollars : Geni (Global Environment for Network Innovation). Une sorte de LHC (le super collisionneur de particules) pour informaticiens!

La virtualisation

Difficile pourtant d'imaginer 28.000 fournisseurs de service remplacer d'un seul coup les 500.000 routeurs du réseau! À l'inquiétude légitime face à ce chantier, les ingénieurs opposent une botte secrète: la virtualisation qui consiste à faire tourner sur une même infrastructure physique plusieurs systèmes informatiques. Au fil du temps, il est probable que les opérateurs achèteront de nouveaux routeurs dotés de ces capacités. Dès lors, il sera possible de faire courir deux réseaux, voire plus, en parallèle, l'ancien et le nouveau, puis d'assurer une migration en douceur.

Source : LeTelegramme.com
* Par Vincent Nouyrigat (Sciences et vie)

Aucun commentaire: