RadioSouvenirsFM

RadioSouvenirsFM

mercredi 22 octobre 2008

Technologie_Science en réseau : un potentiel majeur



La collaboration en réseau pourrait donner un nouveau souffle à la science et aux scientifiques.

Tirez-vous le maximum de votre ordinateur ? Le comique britannique Harry Hill affirme allumer le sien la nuit et utiliser l’écran comme lampe de chevet, pour en profiter pleinement.

Évidemment, on peut faire mieux. Harry Hill pourrait par exemple laisser ses gigaoctets inactifs à la disposition de chercheurs, par Internet, pour mener des expériences destinées à lutter contre le cancer ou à élaborer un modèle plus précis de prévision du changement climatique.

Tel est l’enjeu de l’« informatique répartie ». Alors que la capacité fait défaut aux chercheurs, IBM, Google ou Amazon investissent déjà dans des centres de données générant des « nuages de recherche » sur Internet, accessibles aux étudiants pour faire de la programmation et des recherches à distance. Aujourd’hui, le grand public peut également être associé à la recherche scientifique, ce qui suscite l’essor de l’informatique répartie.

Des chercheurs dépourvus de supercalculateurs peuvent maintenant entreprendre des projets inimaginables auparavant. Selon le Berkeley Open Infrastructure for Network Computing (BOINC), une infrastructure ouverte de calcul en réseau, un ordinateur puissant destiné à la recherche coûte environ 5 millions de dollars pour le seul matériel, et 1 million de dollars par an en énergie et maintenance. Pas même un rêve pour la plupart des chercheurs. Or, on peut obtenir la même capacité en répartissant la recherche entre 10 000 ordinateurs fonctionnant la moitié du temps, et ce pour environ 50 000 dollars.

Les possibilités s’élargissent encore grâce à Internet. Le plus grand superordinateur mondial, le IBM Blue Gene/L, fonctionne avec une puissance de calcul proche de 500 téraflops (un « téraflop » représente 1012 « flops », qui mesurent la capacité de calcul). Les participants du projet Folding@home, qui étudie les anomalies du comportement des molécules de protéines, entraînant des pathologies comme Alzheimer, viennent de dépasser le petaflop (1015 flops), soit un quadrillion d’opérations mathématiques à la seconde.

Jusqu’où peut aller le calcul en réseau, surtout si le nombre de personnes désireuses de partager leur ordinateur augmente ? Si la puissance de calcul continue à doubler tous les deux ans, le potentiel est réellement énorme.

La démarche est simple. Un internaute se connecte à un ou plusieurs projets parmi la cinquantaine en cours, télécharge le logiciel et laisse l’ordinateur faire le travail. Pas besoin de rester rivé à son écran puisque le programme tourne lorsque l’ordinateur est inactif. Il n’interfère pas non plus avec d’autres applications quand l’ordinateur est en service. Une puissance de calcul, une mémoire et une largeur de bande suffisantes sont nécessaires, et la plupart des ordinateurs aujourd’hui en disposent.

Les utilisateurs ayant des ordinateurs plus puissants ou qui consacrent davantage de temps à un projet gagnent des « points » selon un système de reconnaissance des contributions individuelles. Aucun argent ne circule. Tableaux d’affichage électroniques, forums de discussion et profils d’utilisateur, créés pour développer les communautés en ligne, permettent de discuter et d’échanger des conseils sur des problèmes techniques (surchauffe occasionnelle de l’ordinateur, par exemple). Dernièrement, la plate-forme BOINC menait plus de 50 projets, auxquels étaient associés 1,2 million d’utilisateurs faisant fonctionner 2,7 millions d’ordinateurs dans plus de 240 pays.

Il existe ainsi des projets en médecine, biologie moléculaire, astrophysique, mathématiques et climatologie. Une plate-forme de l’Université d’Oxford, Climateprediction.net, analyse les approximations de ses modèles de changement climatique en les soumettant à des milliers d’internautes, qui modifient légèrement les données. Cette méthode permet de tester la sensibilité d’un modèle à de légers changements affectant les niveaux de CO2 ou le cycle du soufre, par exemple. Un modèle tourne comme un économiseur d’écran et permet à l’utilisateur de regarder les modèles météorologiques se déployer selon l’un des nombreux scénarios hypothétiques.

L’informatique répartie donne leur chance à des projets très intéressants aux ressources financières limitées. Le programme de recherche d’intelligence extraterrestre SETI (Search for Extraterrestrial Intelligence) compte 3 millions de contributeurs qui surveillent le ciel à la recherche de signaux radio provenant de civilisations lointaines.

Plus proche nous, le projet MalariaControl.net développé par Africa@home conduit des volontaires à faire tourner des simulations pour étudier la dynamique de transmission de la maladie. À partir de ces résultats, de nouvelles stratégies peuvent être développées pour fournir traitements, vaccins et matériels de protection aux populations touchées. Africa@home est un partenariat entre des institutions africaines et internationales, dont l’Institut tropical suisse. Les chercheurs de l’Institut ont entrepris le projet avec 40 ordinateurs et autant d’années devant eux pour le mener à bien. Mais l’union fait la force. Dans une phase test, 500 ordinateurs volontaires ont fait tourner sur plusieurs mois des simulations équivalant à 150 années de calcul sur un seul ordinateur. Grâce à Internet, des années de modélisation épidémiologique ont été achevées en quelques mois. Des projets similaires sont en cours pour d’autres maladies moins connues et négligées.

L’étape suivante : passer des ordinateurs oisifs aux esprits actifs. La « pensée collaborative » est l’équivalent humain de l’informatique répartie. Sur une nouvelle plate-forme de BOINC appelée BOSSA (pour Berkeley Open System for Skill Aggregation – système ouvert pour l’agrégation des compétences), on sollicite la faculté de jugement des participants, et non la capacité de leurs ordinateurs à aligner des chiffres. BOINC assure également la formation des volontaires en mettant à leur disposition un ensemble d’outils baptisé BOLT (Berkeley Open Learning Technology).

Les perspectives pédagogiques sont phénoménales. Les réseaux ouverts peuvent redonner goût à la science, quand le choix pour les carrières scientifiques dans la zone OCDE est en chute libre. Les réseaux ouverts font participer des étudiants à des expériences d’une vraie valeur scientifique et dont les résultats pourraient influer sur l’action des pouvoirs publics et transformer nos vies quotidiennes.

L’ouverture est une caractéristique essentielle d’Internet et de nombreux experts sont convaincus qu’à l’avenir, Internet dépendra plus que jamais de services ouverts et interopérables. Des initiatives comme celle de BOINC dépassent déjà le cadre des ordinateurs et étendent le réseau à d’autres technologies. Les consoles de jeux telle la PlayStation 3 de Sony utilisent de puissantes cellules qui calculent dix fois plus vite qu’un ordinateur classique. Récemment, Folding@home a adapté son logiciel à la console PlayStation 3. Cette opération a connu un tel succès qu’en un an, la console pourrait devenir le principal vecteur de calcul pour le projet.

Mais les réseaux ouverts ne conviennent pas à toutes les recherches. Lorsqu’interviennent des données personnelles, comme en sciences sociales et naturelles, la confidentialité est essentielle. Les réseaux ouverts sont également plus vulnérables aux pirates qui sont à la recherche de toute faille.

La vérification des données est un autre enjeu. Les volontaires n’ont pas de réputation professionnelle à défendre ni de responsabilité juridique à assumer. Il arrive que certains d’entre eux faussent les calculs. Par ailleurs, comment garantir que le logiciel téléchargé pour un projet donné n’abîmera pas l’ordinateur du volontaire ?

Les droits de propriété intellectuelle sont une autre source de préoccupation, et les chercheurs (comme les laboratoires) s’inquiètent de voir leur travail volé en l’absence de brevet. Les avis sont partagés et les pouvoirs publics commencent à réfléchir à la question.

Reste que le message aux décideurs est clair : la recherche ouverte souffre de l’insuffisante couverture en haut débit dans de nombreux pays, et du coût élevé des relais de télécommunications locales, imputable aux barèmes tarifaires nationaux. Une évolution des esprits s’impose. Les pouvoirs publics devraient mettre en place des mesures incitatives encourageant l’ouverture et la coopération dans l’échange de savoir, sans menacer l’intégrité et la valeur scientifiques ni la sûreté des personnes.

Loin d’être une menace, le succès de l’informatique répartie offre de nouvelles possibilités aux scientifiques professionnels. Internet pourrait accélérer la recherche et offrir de nouvelles ressources, bien que l’offre et le traitement de l’information en réseau exigent bien sûr une faculté de jugement scientifique, des compétences et un savoir de très haut niveau. Il est fort possible que la demande de science et de scientifiques augmente. En somme, grâce à Internet, les scientifiques pourraient non seulement susciter l’intérêt du public, mais aussi exploiter ses capacités techniques. LT

Références

OCDE (2007), « La recherche en réseau et les entreprises à forte intensité de recherche. Canevas exploratoire », DSTI/ICCP/IE(2007)16, 14 novembre 2007.

Pour en savoir plus sur les initiatives de BOINC

Voir aussi www.worldcommunitygrid.org/ projects_showcase/viewResearch.do.

Source : ObservateurOCDE
Par : David Rooney

Aucun commentaire: