RTFlash

RTFLASH Recherche & Technologie
NUMERO 233
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Mars 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le Forum des droits sur l'internet décrète la liberté des liens hypertexte
L'UE punira les hackers avec de la prison ferme
Internet bouleverse les comportements des Européens
NEC prend la tête de la course à l'informatique quantique
Centrino : Intel met du WiFi au coeur de ses processeurs
Avec le "Wireless G" le WiFI accède à la très grande vitesse
Avenir
La cryptographie quantique pourrait être opérationnelle dés 2010
E-bombs, la dissuasion électromagnétique
Matière
Un interrupteur moléculaire ultra-basse consommation pour l'après silicium
Renouvelables: nouveau bond de l'éolien en Europe
Des piles SOFC qui démarrent au quart de tour
Terre
Le climat change, l'agriculture aussi...
La France bétonne ses espaces naturels
Multiplication des inondations et des sécheresses à l'horizon 2025
Eau: doubler les investissements en faveur du tiers monde
Vivant
Le virus HTLV1 est impliqué dans la leucémie et le SIDA
Des cellules souches dans les globules blancs
Signature historique d'un traité international contre le tabac
Comment éviter les maladies chroniques ?
Le mariage de deux protéines observé pour la première fois grâce à la microscopie à force atomique
Vers un pacemaker pour le cerveau
Homme
La population mondiale revue à la baisse
Recherche
L'UE enfin d'accord pour créer un brevet communautaire
Edito
De la découverte de la structure de l'ADN au décodage du génome humain : l'aventure scientifique continue



Il y a 50 ans, le 28 février 1953, en découvrant la structure de l'ADN, l'acide desoryribonucléique, deux chercheurs anglo-saxons, l'Américain James Watson et le Britannique Francis Crick, posaient les bases d'une des plus grandes révolutions scientifiques de tous les temps. C'est cette découverte, qui a profondément bouleversé notre connaissance du vivant, et dont nous sommes loin d'avoir fini de mesurer les immenses retombées scientifiques, médicales et industrielles, que le monde entier se prépare à célébrer. (voir le site du cinquantenaire: www.dna50.org/main.htm et le dossier du NYT ( http://www.nytimes.com/2003/02/25/science/25HELI.html). Pourtant, qui était prêt à croire Francis Crick, lorsqu'il leva son verre à l'Eagle pub de Cambridge, au soir du 28 février 1953, proclamant à la cantonade qu'il venait de "percer le secret de la vie". C'est à ces deux savants, en effet, que le monde doit la découverte, le 28 février 1953, de la structure de l'ADN, le support de l'hérédité. Une découverte à l'origine d'une quantité astronomique de recherches, tant dans le domaine de la compréhension de cet acide fondateur que dans celui de son utilité biologique : décryptage du génome, animaux transgéniques, thérapie génique, empreintes génétiques... C'est en 1869 que l'ADN fut isolé pour la première fois (dans des cellules de sperme de saumon) et intensivement étudiée par Friedrich Miecher, un Suisse, dans une série d'investigations remarquables. En 1944, Avery et ses collaborateurs avaient déjà réussi à isoler l'acide désoxyribonucléique, substance dont on connaissait déjà la présence dans le noyau de tous les organismes, mais dont on ne savait pas le rôle. Celui-ci est de porter la spécificité génétique des unités de Mendel. Grâce à la conjugaison des bactéries, on peut analyser le fonctionnement d'un chromosome, en discerner la structure fine et en dresser la carte. Mais il fallut attendre 1953 pour que J.D. Watson et de F.H.C. Crick parviennent à élucider la structure des acides nucléiques. Ils construisirent un modèle avec des bouts de carton étiquetés, pour essayer divers arrangements des composants connus de l'ADN en se fondant sur les radiographies de Rosalind Franklin. Le 28 février 1953, Watson réalisa que les règles de Chargaff, A égale T et G égale C, ne pouvaient s'expliquer que si les membres de chaque paire étaient chimiquement liés. Une molécule n'est pas un brin simple contrairement à ce qu'on croyait, mais deux brins, reliés par des bases complémentaires, et qui avaient la forme d'une double hélice. Cette forme leur révéla très vite comment l'ADN se répliquait. Le 2 avril 1953, Watson et Crick firent l'annonce de leur découverte historique dans la célèbre revue "Nature" (voir article originel http://www.nature.com/genomics/human/watson-crick/). Né à Chicago, James Watson est arrivé en 1951 à Cambridge (Angleterre) à l'âge de 23 ans. Ayant laissé ses études de zoologie après la lecture d'un livre de génétique qui l'avait intéressé, il rencontra Francis Crick, alors brillant physicien. Qu'ont découvert ces deux savants ? Que la molécule d'ADN a la forme d'une double hélice, qui ressemble à une échelle enroulée sur elle-même sur toute sa longueur. Chaque barreau est composé de deux bases, qui fournissent le code génétique. La séquence de ces quatre bases, disposées le long de l'ADN, déchiffre toute l'information contenue dans les gènes. "L'annonce de cette découverte a fait l'effet d'un arbre qui tombe au milieu de la forêt. Elle n'a eu aucun impact", se souvient Alex Rich, qui travaillait à l'époque sur l'ADN, au sein de l'Institut de technologie de Californie. "La plupart des équipes n'en avaient jamais entendu parler, du fait notamment du manque d'intérêt porté à l'ADN." Aujourd'hui, cette structure est connue de tous les étudiants en biologie. Par ailleurs, la compréhension très précise de la structure de l'ADN a permis de poser une autre question fondamentale relative au fonctionnement des gènes : quand et comment ces derniers décident-ils de la production de protéines dans la cellule ? Des scientifiques ont finalement mis en évidence le rôle central joué parallèlement par la molécule d'ARN, l'acide ribonucléique à la structure proche de celle de l'ADN. Selon eux, l'ARN transmet lui aussi des messages des gènes vers le système cellulaire qui fabrique les protéines. 50 ans après la structure de l'ADN, la découverte de ce mécanisme fondamental baptisé "ARN interférents", qui permet de "mettre en veille" certains gènes pathogènes responsables du déclenchement de graves maladies, ouvre un nouveau et immense champ de recherche en médecine et en génétique (voir mon éditorial de la lettre 210 http://www.tregouet.org/lettres/rtflashmail.asp?theLettre=236 ). Cette année, le cinquantenaire de la découverte de la structure de l'ADN donnera lieu à des célébrations non seulement dans les pages des revues scientifiques réputées, mais aussi à l'occasion de conférences organisées aux Etats-Unis, en Europe et en Australie. Hors des laboratoires de recherche, cet anniversaire a permis la sortie d'au moins trois nouveaux ouvrages scientifiques. Par ailleurs, de nombreuses expositions artistiques célèbreront cette découverte, la double hélice étant devenue un emblème. Le Musée d'Art moderne de New York (MoMA) vend ainsi un bracelet en forme de double-hélice. La forme sinueuse, qui apparaît dans de nombreux logos, a aussi servi de modèle pour des sculptures et figure même sur un timbre britannique. Enfin, dans le cadre de la troisième édition du Forum mondial des sciences du vivant à Lyon, BioVision fêtera solennellement les 50 ans de l'ADN le 8 avril 2003, en présence du Président Jacques Chirac et d'une douzaine de prix Nobel, dont James Watson, co-découvreur avec Crick de la structure en double hélice de l'ADN. Cinquante ans après cette découverte historique, nous avons la chance d'avoir toujours parmi nous, et toujours actifs, ces deux scientifiques exceptionnels que sont Watson et Crick. Agé aujourd'hui de 86 ans, Francis Crick est président émérite et professeur d'études biologiques à l'Institut Salk de San Diego. Il travaille dans le domaine de la biologie de la connaissance. De son côté, James Watson, qui a participé au vaste projet national de cartographie du génome, estime que les questions les plus importantes aujourd'hui, dans le domaine de la biologie moléculaire, se situent dans le cerveau : "Comment se transmettent les instincts ? Comment l'information est-elle stockée dans le cerveau ? Comment le cerveau du lion lui dicte-t-il de tuer ? Personne n'en sait assez sur le fonctionnement du cerveau pour répondre à ces questions", a-t-il observé. "La recherche sur le cerveau n'a pas encore de double hélice..." Alors que la communauté scientifique s'apprête à célébrer en grande pompe pendant toute cette année 2003 le cinquantenaire de la découverte de la structure de l'ADN par Watson et Crick, on mesure un peu plus chaque jour à quel point cette découverte a bouleversé la médecine et la biologie en nous ouvrant la porte sur un nouveau continent du vivant qui se révèle chaque jour plus vaste, plus riche et plus complexe, comme vient encore de le montrer une étonnante étude suédoise qui montre que l'expression de certains de nos gènes pourrait en partie dépendre de l'environnement. Il y a 2 ans, en février 2001, une nouvelle étape fondamentale dans la compréhension du vivant a été accomplie avec le séquençage complet du génome humain, réalisé conjointement par le Projet Génome humain (HGP), qui regroupe des organismes publics aux Etats-Unis, en Grande-Bretagne, en France, en Allemagne, au Japon et la firme privée Celera Genomics (voir Nature pour le HGP htpp://www.nature.com/genomics/human ) et dans Science pour Celera (http://www.sciencemag.org/5507.1304.html). Mais l'aventure de la génétique est loin d'être achevée car il faut à présent comprendre toute la "grammaire" et le sens des mots et des phrases ainsi traduits. Or, avec seulement 35.000 gènes, cette compréhension intime et exhaustive du génome humain sera un des grands défis de ce siècle car il faudra non seulement découvrir les nombreuses fonctions commandées par un même gène mais encore comprendre une multitude d'interactions d'une très grande complexité entre ces gènes. Parallèlement, les scientifiques se sont également lancés dans un nouveau projet encore plus ambitieux : le décryptage et la cartographie complète de notre "protéome" qui regroupe des centaines de milliers de protéines (molécules organiques composées d'acides aminées), véritables «briques du vivant», dont nos gènes commandent la fabrication. Il restera ensuite à comprendre l'ensemble des interactions entre ces gènes et ces protéines et à utiliser cette connaissance pour concevoir, à l'aide de modèles informatiques d'une puissance inouïe, des thérapies et médicaments qui seront capables de modifier avec une précision absolue le fonctionnement de nos gènes ou de nos cellules : une entreprise titanesque ! Cette tâche pharaonique sera-t-elle achevée le 28 février 2053? Probablement, grâce aux fantastiques progrès de la bioinformatique et du calcul distribué en "grille" mais il n'est pas impossible que d'ici cette date la découverte de nouveaux mécanismes génétiques et biologiques fondamentaux totalement inconnus, comme celui des ARN "interférents", ouvre de nouveaux horizons aux sciences de la vie. Décidément, l'extraordinaire aventure humaine et scientifique que représente l'exploration et la connaissance du vivant ne fait que commencer.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le Forum des droits sur l'internet décrète la liberté des liens hypertexte
Samedi, 08/03/2003 - 00:00

Le Forum des droits sur l'internet, organisme de "corégulation" du web, a érigé en principe la liberté de création de liens entre sites web (liens hypertextes) mais identifié aussi quelques exceptions, dans une recommandation publiée lundi. "Le lien hypertexte est libre, sous réserve des droits des tiers", proclame le Forum créé en mai 2001 par le gouvernement Jospin. Consultative, sa recommandation n'en constitue pas moins une référence, y compris pour le juge, et tranche une question que se posent souvent webmasters, responsables éditoriaux et parfois mêmes simples internautes. Ces liens qui tissent la "toile" doivent en revanche faire l'objet d'une demande d'autorisation préalable s'ils conduisent "à s'approprier des contenus protégés par la propriété intellectuelle". Il peut s'agir d'articles de journaux, de fichiers musicaux (MP3), de logiciels téléchargeables ou encore d'annonces, surtout si leur origine est masquée. "Une entreprise qui établit un lien avec son concurrent pour détourner sa clientèle ou un lien exploité à des fins économiques peuvent tomber sous le coup de la loi", explique Lionel Thoumyre, chargé de mission au Forum. "Par contre, l'internaute moyen qui discute sur un forum et renvoie sur un site ne risque rien, à condition qu'il s'agisse de pages web dont le contenu est licite", poursuit-il. Le Forum, qui a réuni un groupe de travail ad hoc pendant un an et demi, recommande aussi aux responsable de sites d'afficher clairement leur politique en autorisant ou non la création de liens vers leurs pages. Les conclusions du groupe de travail sont fondées d'une part sur le mode de fonctionnement du web - indissociable de l'établissement de liens hypertextes -, la culture de partage sur lequel il a été conçu, la nécessité de ne pas nuire à la circulation de l'information, mais aussi sur la défense d'intérêts économiques légitimes. Celles-ci consistent à déclarer que l'acte d'établissement d'un lien est libre, sous réserve du respect du droit des tiers. Ceci a notamment pour conséquence de dire que l'établissement de liens simples ou profonds vers des pages web peut être librement accompli, sauf dans certains cas particuliers évoqués dans la Recommandation. Le Forum des droits sur l'internet a également élaboré une grille d'analyse permettant d'appréhender, à défaut d'accord préalable du site ou du contenu pointé, les probabilités d'atteinte à un droit suivant les techniques de liaison utilisée : liens simples, liens profonds (lien vers la page interne d'un site ou un fichier précis), inclusion par liens hypertextes (lien permettant de représenter une page ou un contenu tiers au sein d'une page web)...

Le Forum des droits sur l'internet :

http://www.foruminternet.org/telechargement/documents/reco-hyli-20030303.htm

L'UE punira les hackers avec de la prison ferme
Samedi, 08/03/2003 - 00:00

Les pirates informatiques et les concepteurs de virus informatiques encourront désormais des peines d'un à cinq ans de prison, selon la nouvelle réglementation approuvée vendredi par les ministres de la Justice de l'Union européenne. Ces lois doivent harmoniser les législations nationales des Quinze sur les délits de piratage informatique, d'intrusion dans un réseau ou un serveur (hacking) et de conception/propagation de virus. "Il y a aura des définitions communes (...) et des sanctions pour un certain nombre d'activités criminelles sur internet", a déclaré le commissaire européen à la Justice et aux Affaires intérieures, Antonio Vitorino. Le piratage en bande organisée sera puni de deux à cinq ans de prison. Les délits moins importants seront punis d'un à trois ans de prison. La France pour sa part a devancé l'Union européenne et a déjà renforcé son propre arsenal juridique pour lutter contre la «cybercriminalité». En complément des mesures déjà adoptées à l'automne 2001 dans la loi sur la sécurité quotidienne, et celles avalisées fin 2002 dans la loi pour la sécurité intérieure, l'Assemblée nationale a adopté, le 26 février, de nouvelles dispositions, en validant en première lecture le projet de loi pour la confiance dans l'économie numérique. Les députés ont alourdi les sanctions pesant sur les auteurs d'intrusions informatiques . Ils encourent à présent jusqu'à cinq ans d'emprisonnement et 75000 euros d'amende, s'ils introduisent «frauduleusement des données dans un système de traitement automatisé», ou s'ils suppriment ou modifient «frauduleusement les données qu'il contient». Ils ont également ajouté (article 34) un délit de création intentionnelle de virus ou de dispositifs pouvant servir à des intrusions: «Le fait de détenir, d'offrir ou de céder ou de mettre à disposition un équipement, un instrument, un programme informatique ou toute donnée conçus ou spécialement adaptés» pour s'introduire dans un système, l'entraver ou en endommager le contenu sera désormais puni d'au maximum cinq ans de prison et de 75000 euros d'amende. La loi prévoit toutefois une exception pour «les besoins de la recherche scientifique et technique» ou de la «protection des réseaux et des systèmes».

Reuters : http://fr.news.yahoo.com/030228/85/32mb2.html

Internet bouleverse les comportements des Européens
Samedi, 08/03/2003 - 00:00

La 2e "Cyberstudy" AOL/RoperASW consacrée à "l'Europe sur le Net" fait apparaître le rôle social du Web: 41,5% des internautes européens y ont déjà rencontré de nouveaux amis, voire l'amour. Du reste, 30 % des Européens connectés donnent aujourd'hui plus volontiers leur adresse e-mail que leur numéro de téléphone lors d'une première rencontre. L'enquête, mise en ligne cette semaine par le fournisseur d'accès AOL (www.aol.fr/presse/cyberstudy.htm), montre également l'influence qu'a le Web sur la personnalité et les habitudes de ses utilisateurs. L'internaute européen se révèle sans complexe, mais aussi narcissique (34 % des personnes interrogées ont déjà cherché leur nom dans un moteur de recherche) et prosélyte (69 % encouragent vivement leurs amis à se connecter). De plus, 41 % des Européens qui surfent sur le Net ont déjà modifié leur aménagement intérieur en fonction de leur ordinateur. Le Web devient une affaire de famille avec 2,4 personnes connectées par foyer. Toutes les générations se branchent et les enfants surfent de plus en plus tôt : l'âge de leur première connexion s'échelonne entre 8 et 11 ans. L'étude indique en outre que 49 % des internautes européens sont des parents d'enfants de moins de 18 ans. Et même les grands-parents s'y mettent, 8% des plus de 55 ans surfant sur le Web. Par ailleurs, les différences culturelles existent aussi en matière de surf sur Internet. Les internautes français se distinguent par le temps qu'ils passent en ligne chaque semaine: près de neuf heures, contre sept pour les Britanniques et quatre pour les Allemands. Autre tendance à noter, les Français ont désormais acquis le réflexe Internet pour s'informer: 63 % sont des mordus de l'info en ligne, contre seulement 31 % des Britanniques et des Allemands. Les internautes français gèrent aussi à une écrasante majorité (91 %) leur portefeuille boursier sur Internet. Ils sont enfin beaucoup plus "accros" aux logiciels de messagerie instantanée que leurs homologues européens: 61 % placent l'échange de messages instantanés parmi leurs cinq principales "cyber-activités". De leur côté, les internautes britanniques s'illustrent par le plus large spectre de générations en ligne: c'est en Grande-Bretagne que l'on trouve les plus jeunes surfeurs (dès 8 ans, contre 11 ans dans les deux autres pays) et que les "seniors" connectés sont les plus importants (13%). Ils se distinguent aussi par leur forte intention d'acheter sur Internet (63%), leur conviction que le Web influe positivement sur le travail de leurs enfants (71 %) et leur souhait de pouvoir obtenir... leurs ordonnances médicales en ligne. Les internautes allemands se remarquent quant à eux par leur passion pour le Net: 60% ne pourraient plus s'en passer! Leur avance en terme de connexion haut débit est également notable: 43% des internautes allemands sont déjà des adeptes du surf rapide via le câble ou l'ADSL. Ils manifestent enfin le plus fort engouement pour les rencontres en ligne: 62% ont déjà été invités à un rendez-vous galant via Internet. Cette étude, commanditée par AOL, a été réalisée du 17 octobre au 2 novembre par l'institut international RoperASW auprès d'un échantillon de 500 personnes par pays, âgés de 18 ans et plus et connectés à Internet depuis leur domicile.

AP : http://fr.news.yahoo.com/030304/5/32tbs.html

NEC prend la tête de la course à l'informatique quantique
Samedi, 08/03/2003 - 00:00

Une étape supplémentaire vient d'être franchie sur le long chemin qui nous sépare encore du mythique ordinateur quantique. Un article publié le 20 février dans la revue scientifique britannique Nature annonce que les chercheurs de Nec ont pour la première fois réussi à créer un "état d'enchevêtrement quantique entre deux qubits solides". La formulation peut paraître quelque peu absconse, mais il s'agit là d'une percée remarquable. Le qubit est l'élément de base de l'ordinateur quantique, l'équivalent du bit de l'informatique « classique » qui peut prendre l'une ou l'autre des deux valeurs 0 ou 1. A cette différence considérable près : le qubit peut prendre simultanément une « superposition » des deux valeurs 0 et 1, affectées de probabilités différentes. D'où les possibilités, pour l'instant encore théoriques, de calculs hypermassivement parallèles. Pour prendre l'exemple simplifié de la factorisation des grands nombres, à la base des principaux algorithmes de cryptographie actuels, tandis que l'ordinateur classique doit essayer tous les diviseurs les uns après les autres, l'ordinateur quantique les testera... tous en même temps ! Mais reste à construire cet ordinateur quantique. Et pour cela, deux conditions. La première, bien sûr, est de créer ces fameux qubits. La seconde est de savoir établir entre eux les caractéristiques quantiques qui feront toute l'efficacité de leur fonctionnement. Et en tout premier lieu, le fameux enchevêtrement quantique. Un état prévu par la théorie, mais tellement étonnant que le grand Einstein lui-même n'y croyait pas : deux particules enchevêtrées, sans aucune liaison entre elles, gardent quoi qu'il arrive des propriétés identiques, modifiées simultanément chez l'une et chez l'autre quelle que soit la distance qui les séparent... Jusqu'ici, c'est IBM qui tenait la corde avec les recherches menées à Almaden par l'équipe d'Isaac Chuang : premier ordinateur quantique à 2 qubits en 1998, à 3 qubits en 1999, à 5 en août 2000 et 7 fin 2001. Et ce dernier fit preuve de son efficacité puisqu'il réussit la décomposition de 15 en 5 fois 3. Une belle performance, hélas ternie par un handicap de taille. Les qubits sont obtenus dans une solution liquide, de surcroît ne pouvant fonctionner à la température ambiante. Bref, un joli dispositif expérimental mais qu'il est bien difficile d'envisager adapté à une production industrielle. Et c'est ici que prend toute sa valeur la première réalisée par l'équipe de Jaw-Shen Tsai, du Nec Fundamental Research Laboratory, et le laboratoire de cohérence quantique macroscopique de l'institut public japonais de recherche physique et chimique, le Riken. Car cette fois, il s'agissait de l'enchevêtrement de deux qubits solides. Un dispositif beaucoup plus adapté à la réalisation de circuits complexes nécessaires à la fabrication d'un véritable ordinateur quantique. Chez Nec, si l'on reconnaît que ce n'est pas pour les prochaines années - peut-être en 2020 ?-, on se fixe déjà les prochaines échéances :"Dans les douze mois qui viennent, nous visons à développer une porte quantique universelle, le véritable élément de base de l'ordinateur quantique". La course aux super ordinateurs du XXIe siècle est vraiment lancée.

Monde informatique :

http://www.weblmi.com/news_store/2003_03_03_NEC_prend_la_tete_de_95/News_view

Nature :

http://www.nature.com/cgi-taf/DynaPage.taf?file=/nature/journal/v402/n6760/abs/4...

Centrino : Intel met du WiFi au coeur de ses processeurs
Samedi, 08/03/2003 - 00:00

Le WiFi bientôt au coeur de tous les ordinateurs ? Le géant américain des microprocesseurs Intel va bientôt débuter une campagne de communication massive (300 millions de dollars) pour imposer "Centrino", une nouvelle famille de processeurs intégrant la technologie WiFi. Le lancement commercial de ce nouveau processeur est prévu pour le 12 mars mais les campagnes publicitaires devraient débuter quelques jours auparavant pour créer un effet de "teasing" chez les consommateurs. Centrino sera le deuxième plus grand lancement commercial pour Intel, quelques années après le Pentium, qui mise énormément sur cette nouvelle famille qui intègre un processeur Intel Pentium M, un jeu de composants de la famille des chipsets Intel 855 et la solution de connectivité sans fil Intel PRO/Wireless. L'ambition de Centrino est ainsi d'augmenter l'autonomie des PC utilisant une connexion sans-fil 802.11b en intégrant cette technologie au coeur de la carte-mère. Cette orientation stratégique d'Intel devrait contribuer à renforcer le poids de la technologie WiFi face à la technologie bluetooth ou face à l'UMTS qui n'en finit pas d'être reporté. Netéconomie :

http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/2003030400495...

Avec le "Wireless G" le WiFI accède à la très grande vitesse
Samedi, 08/03/2003 - 00:00

Le petit monde des mordus de réseaux informatiques sans fil bruisse déjà des merveilles de la toute dernière version de la norme de transmission WiFi, appelée "Wireless G" et capable d'un débit environ 50 fois supérieur à celui des connexions par câble. Le Wireless G ne semble en effet comporter que des avantages : compatible avec les anciennes versions de WiFi, il ne coûte qu'à peine 50 % plus cher pour des performances multipliées par cinq. En fait, il est même tellement rapide que la plupart des applications des réseaux sans fil, que ce soit chez les particuliers, dans les cyber-cafés, les salons de première classe d'aéroports ou les grands hôtels, ne tirent pas vraiment parti de cette vitesse. "Qu'attendez-vous de votre réseau domestique sans fil d'ici un an ?", souligne Allen Huotari, directeur de la recherche et du développement chez Linksys, un vendeur de matériels WiFi. "Pour du pur accès internet, vous n'aurez pas besoin (du Wireless G)." Et pourtant, cela ne semble pas refroidir l'enthousiasme des passionnés. "Je suis tellement impatient", trépigne Avi Rubin, directeur technique de l'Institut de sécurité de l'information à l'université Johns Hopkins du Maryland, qui a commandé une borne d'accès réseau compatible avec la nouvelle norme chez Apple Computer. Le Wireless G peut télécharger simultanément plusieurs flux vidéo en haute qualité, alors que l'ancienne norme Wireless B ne pouvait en "streamer", c'est-à-dire télécharger à assez grande vitesse pour qu'il puisse être visionné en même temps et de façon fluide, qu'un seul dans le meilleur des cas. Mais le téléchargement de films par WiFi se heurte à des problèmes juridiques car il est possible pour des ordinateurs placés à proximité de la borne de capter les données et donc de télécharger des films protégés par des droits d'auteur sans en avoir payé l'achat. Le Wireless G n'a à cet égard pas résolu les problèmes de sécurité des données qui affectent le WiFi dans toutes ses versions. Les réseaux locaux sans fil se sont pourtant multipliés depuis quelques années, notamment dans les réseaux domestiques qui ont représenté la moitié du 1,7 milliard de dollars du marché du matériel WiFi vendu en 2002, selon la société d'études Infonetics Research. Cette dernière estime que le marché devrait se monter à 2,7 milliards de dollars d'ici 2006. La norme WiFi, nom populaire de l'appellation technique 802.11, connaît plusieurs déclinaisons: 802.11A, B et G. Le 802.11B est la norme la plus ancienne, la plus répandue, mais la plus lente. Les versions A et G sont plus rapides, mais avec des propriétés différentes: le 802.11A s'adresse plutôt aux groupes d'ordinateurs organisés autour d'une borne d'accès dans un environnement ouvert, tandis que le 802.11G passe mieux au travers des murs. Le Wireless G possède surtout l'avantage d'être le seul compatible avec le B, ce qui permet à ses utilisateurs de pouvoir choisir entre les deux normes. Apple a d'ores et déjà choisi son camp et ne commercialise plus que des bornes AirPort à la norme Wireless G.

Reuters : http://fr.news.yahoo.com/030301/85/32n73.html

^ Haut
Avenir
Nanotechnologies et Robotique
La cryptographie quantique pourrait être opérationnelle dés 2010
Samedi, 08/03/2003 - 00:00

De récentes études suggèrent que la mécanique quantique, dont les lois défient l'intuition, aura des applications dans les prochaines années. Sur la foi de cette étrange physique, deux nouveaux types de cryptage des télécommunications devraient voir le jour d'ici cinq à dix ans. Ses stupéfiantes propriétés avaient conduit Albert Einstein à penser qu'elle ne décrivait pas la réalité physique. La mécanique de l'infiniment petit, dite quantique, est pourtant, aujourd'hui, en passe d'être domestiquée. Deux études, notamment, publiées récemment dans la revue Nature, ouvrent la voie à la mise en oeuvre de formes inédites de cryptage des télécommunications. A l'université de Genève, le groupe de physique appliquée, dirigé par Nicolas Gisin, a ainsi opéré la téléportation d'un photon sur une distance dont l'ordre de grandeur laisse entrevoir des applications industrielles à moyen terme. Il ne s'agit pas de la téléportation du photon lui-même, précise toutefois M. Gisin, "mais de la téléportation de son état quantique". Ce sont donc des informations inhérentes à une particule, comme sa polarisation par exemple, qui ont été téléportées. Pour ce faire, les chercheurs de l'université de Genève ont, en le focalisant sur un cristal non linéaire, scindé un faisceau laser en deux rayons distincts. Le premier rayon a été dirigé dans un laboratoire donné, l'autre a été acheminé, via une fibre optique de 2 kilomètres de longueur, vers un autre laboratoire, distant de 55 mètres du premier. Cette division d'un faisceau laser en deux parties est à l'origine d'une troublante propriété : l'"intrication" des photons. Chaque "grain de lumière" de l'un des deux rayons résultants possède, dans l'autre faisceau, une manière de jumeau avec lequel, précise M. Gisin, "il ne forme, fondamentalement, qu'un seul et même objet physique". Deux particules, une seule entité : c'est le fondement théorique de toute téléportation quantique. Un seul et même objet se trouve simultanément en deux endroits distincts. Il devient alors possible d'agir en un lieu sur l'un des photons intriqués pour voir cette action répercutée sur le photon jumeau, pourtant situé en un autre point de l'espace. Le phénomène, prévient M. Gisin, "est presque magique". "Nous avons fait interagir l'un des deux faisceaux avec un troisième, dont l'état quantique des photons nous était connu", poursuit-il. Cette interaction modifie l'état des photons du premier faisceau. Et ce changement est répercuté à 55 mètres de là. "C'est la première fois que l'influence d'un troisième faisceau, dont l'état est connu par avance, est impliquée dans le processus" , souligne M. Gisin. Il devient donc possible de téléporter une information connue - et non plus aléatoire - d'un point à un autre. Des applications de ce phénomène au cryptage des télécommunications deviennent dès lors envisageables "d'ici cinq à dix ans".

Le Monde :

http://www.lemonde.fr/article/0,5987,3244--311640-,00.html

E-bombs, la dissuasion électromagnétique
Samedi, 08/03/2003 - 00:00

Il y a quelques jours, The Wall Street Journal publiait un article consacré à ces e-bombs, expliquant leurs effets possibles et les recherches menées par l'armée américaine, notamment sur la base de Kirtland, au Nouveau Mexique. Le terme générique e-bomb recouvre en réalité de multiples systèmes d'armes différents, en général basés sur les HPM ( High-Power Microwave - ondes à forte puissance). Globalement, le principe est simple : en explosant, la bombe libère pendant une très courte durée une énorme puissance énergétique qui crée une onde électromagnétique de forte amplitude. Celle-ci provoque, dans la zone concernée (un périmètre de une dizaine à un centaine de mètres), un court-circuit généralisé au sein des appareils électriques - dont, bien sûr, les ordinateurs. L'armée « travaille avec des équipements qui peuvent générer une puissance de plusieurs millions de watts » , à comparer avec la puissance d'un four à micro-ondes domestique, souvent inférieure à 1500 Watts. « L'effet des micro-ondes peut être désastreux pour les composants électroniques, faisant "griller" les systèmes qui en contiennent », lit-on également, dans un paragraphe expliquant ce qui rend les armes HPM aussi « attirantes ». Carlo Kopp, enseignant à l'université de Monash, en Australie, et consultant en matière de défense, est considéré comme un expert dans ce domaine. Dans un document au titre évocateur (« La bombe électromagnétique, une arme de destruction électrique massive »), il expliquait en 1996 qu'en paralysant les systèmes électriques « de telles armes pourraient fournir un avantage décisif en cas de guerre électronique, ou d'attaque aérienne. » Toutefois, si les bombes électromagnétiques constituent une voie d'avenir sur laquelle travaillent plusieurs pays, il est difficile de savoir si elles sont réellement opérationnelles aujourd'hui, et a fortiori si elles peuvent être utilisées dans le cadre d'un éventuel conflit en Irak. Kirtland, on se refuse à tout commentaire. « C'est regrettable, mais peu d'informations relatives à notre travail, dans ce domaine, peuvent être rendues publiques », indique Juventino Garcia, du laboratoire de recherche de l'US Air Force. « Ces armes existent, absolument », affirme pourtant Winn Schwartau, expert des problèmes de défense. Et d'ajouter, en expliquant que des bombes HPM ont été utilisées en 1991 durant la guerre du Golfe, et en 1999 en Serbie : « Nous les avons déjà utilisées, et nous le ferons à nouveau. »

OINet : http://www.01net.com/article/202586.html

^ Haut
Matière
Matière et Energie
Un interrupteur moléculaire ultra-basse consommation pour l'après silicium
Samedi, 08/03/2003 - 00:00

Il y a deux ans, le groupe de physique de l'Université libre de Berlin, en collaboration avec le groupe nanosciences du Centre d'élaboration de matériaux et d'études structurales (CEMES-CNRS, Toulouse), mettait au point un interrupteur moléculaire sur une molécule cyclique de porphyrine substituée par 4 groupements dibutyl-phényl. De ces 4 pieds moléculaires, 3 ont servi à former un trépied stable pour la porphyrine. Les chercheurs ont alors déposé la molécule sur une surface de cuivre servant d'électrode de contact. Pour obtenir un commutateur moléculaire, il ne leur restait plus qu'à créer un effet de basculement intramoléculaire, en appliquant sur le groupe restant la pointe d'un microscope à effet tunnel. La rotation du phényl autour de sa liaison avec la porphyrine ne conduit qu'à deux positions stables, une perpendiculaire à la surface de cuivre et l'autre parallèle. Parce que l'une permet une conductance élevée de la jonction métal-molécule-métal formée et l'autre pas, les deux conformations moléculaires ont constitué les positions « on » et « off » de l'interrupteur. La nouvelle étape, présentée dans la revue Physical Review Letters du 14 février 2003, a permis d'évaluer l'énergie de commutation consommée par ce nouveau composant électronique. Une mesure encore jamais réalisée et qui n'aurait pu l'être sans l'utilisation d'une nouvelle version du microscope à force atomique dans l'ultra-vide, en collaboration avec le groupe d'IBM Zurich. Les chercheurs ont travaillé en fixant une oscillation permanente du bras de levier au dessus du phényl et en enregistrant les variations de fréquence de ce bras de levier en fonction de la position verticale de la pointe. L'interaction entre la pointe du microscope et la surface de la molécule a ainsi provoqué le basculement du phényl et permis de déduire la force mise en jeu dans le basculement. L'équipe toulousaine du CNRS s'est servie de ces résultats pour modéliser l'expérience sur ordinateur et calculer l'énergie de commutation correspondant à la force mesurée. Celle-ci a été évaluée à 47 zeptoJoules (47 x 10-21 Joules), soit 10 000 fois moins qu'un transistor de microélectronique. Comme le souligne Christian Joachim, la miniaturisation de la micro-électronique se heurte déjà aujourd'hui à certains écueils. « Si on combine les prévisions liées à la loi de Moore (de plus en plus de composants par puce) et l'évolution de consommation des composants qui ne pourra s'affranchir de la thermodynamique, on arrive dans dix ans à des puces consommant près du mégawatt ». La synthèse d'une seule molécule intégrant l'ensemble des fonctions électroniques pourrait alors représenter une alternative de choix.

CNRS :

http://www.cnrs.fr/cw/fr/pres/dyncom/communique.php?

Renouvelables: nouveau bond de l'éolien en Europe
Samedi, 08/03/2003 - 00:00

La production d'électricité à partir du vent a fait un bond de 34 % en un an dans l'Union européenne et s'est élevée à 39,73 térawatts heure (TWh) en 2002, indique jeudi EurObserver dans un communiqué. Mais elle n'a représenté encore que 1,5 % de la production d'électricité des Quinze en 2002, selon cet organisme européen de recherche sur les énergies renouvelables qui est soutenu par la Commission européenne. La puissance installée (capacité de production de toutes les éoliennes) a enregistré une hausse similaire chez les Quinze. Elle atteignait 22.331 MW mégawatts (MW) fin 2002, soit 5.211 MW de plus en un an (+30,4 %). Elle représente désormais 73 % des capacités de production mondiales de ce secteur contre 70 % un an plus tôt. L'Allemagne continue de caracoler en tête du classement européen et mondial avec une puissance éolienne installée de 12.001 mégawatts (MW) fin 2002 et un bond de 3.247 MW (37,1 %) en un an. L'Espagne, numéro deux de l'UE avec une puissance installée de 4.144 MW, a encore progressé de 900 MW l'an passé (+27,7 %). A l'échelle mondiale elle talonne désormais les Etats-Unis qui n'ont augmenté leur capacité de production éolienne que de 10,9 % à 4.708 MW (+463 MW). Le Danemark, 3ème grand de l'UE dans ce domaine, a une puissance installée de 2.889 MW (+472 MW, soit +19,5 %). Face à ces poids lourds de la filière, la France fait encore modeste figure, avec 153 MW de capacité de production éolienne fin 2002, selon EurObserver. Ce chiffre marque tout de même une envolée de 62,8% en un an. D'autres pays européens ont également beaucoup progressé, Belgique à 34 MW (+88,9 %), Autriche à 127 MW (+53 %), Portugal à 179 MW (+43 %) et Pays-Bas à 677 MW (+40,2 %). L'éolien fait partie des sources d'énergies renouvelables n'émettant pas de gaz à effet de serre comme le CO2 (gaz carbonique).

AFP : http://www.larecherche.fr/actu/n030227092334.0vy9ers3.html

Des piles SOFC qui démarrent au quart de tour
Samedi, 08/03/2003 - 00:00

Tokyo Gas Co. a développé une pile a combustible de type SOFC (solid oxide fuel cell) dont le temps de mise en marche est de quatre heures seulement, soit a peine un tiers du temps de démarrage des piles conventionnelles de même type (aujourd'hui de l'ordre de 10 a 24 heures). Un matériau principalement compose de zircone constituera électrolyte, un alliage d'oxyde de nickel et de zircone sera utilise pour l'anode tandis qu'un alliage de fer constituera la cathode. En remplaçant le matériau céramique utilise pour les électrodes et les électrolytes par des alliages métalliques, il est possible d'abaisser la température de fonctionnement de 1.000°C a seulement 200 ou 300°C. La réduction de cette température permet un démarrage plus rapide de la pile et une durée de vie plus longue des composants. Tokyo Gas prévoit d'utiliser ces nouveaux matériaux des 2003 pour la fabrication d'un empilement de 80 piles a combustible délivrant une puissance de 1kW, qui sera utilise pour mener des tests de durée de vie. Le dispositif devrait être opérationnel en 2007. L'objectif que s'est fixe Tokyo Gas Co. est de réduire le temps de démarrage de ses piles SOFC a une heure seulement et d'abaisser les coûts de production a 100.000 yen par kilowatt.

BE Japon : http://www.be.adit.fr

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le climat change, l'agriculture aussi...
Samedi, 08/03/2003 - 00:00

L'évolution du climat, qui fait l'objet de travaux depuis une dizaine d'années au sein de l'Institut national de la recherche agronomique, a déjà un impact sur l'agriculture et la forêt françaises. Cette évolution donne lieu à des programmes de recherche spécifiques pour les cultures les plus sensibles telles que la vigne et les arbres fruitiers, souligne un chercheur de l'INRA, à l'occasion du Salon de l'Agriculture de Paris. Ainsi, la date de vendange s'est avancée de plus de 3 semaines en 50 ans à Chateauneuf-du-Pape, dans les Côtes du Rhône, tandis que les abricotiers, très sensibles au climat, ont vu leur date de floraison avancée (de 0,5 à 1 jour par an en moyenne depuis 20 ans) dans le Sud-est. "Une tendance qui, si elle s'accentuait, pourrait poser des problèmes de pollinisation des fleurs et de dégâts par le gel printanier", explique Bernard Seguin, chercheur au centre d'Avignon de l'INRA. Selon lui, une meilleure connaissance des exigences climatiques de l'espèce et la sélection de nouvelles variétés plus résistantes aux aléas climatiques devraient contribuer à diminuer les risques. Concernant les effets du changement climatique sur la production de céréales, les chercheurs ont eu recours à des modèles mathématiques pour étudier la réponse des cultures à différents scénarios: dans le cas du blé dans le sud-est du pays, ils ont déterminé qu'un réchauffement moyen de 2 degrés correspondant à un doublement de la teneur actuelle en gaz carbonique entraînerait un raccourcissement du cycle de la culture d'environ trois semaines. "Sans impact sur le rendement, ce raccourcissement entraînerait une baisse de la teneur en protéines, donc une perte de qualité", souligne M. Seguin. Pour la forêt métropolitaine, le changement climatique à l'horizon 2100 devrait favoriser la croissance des arbres, mais les changements dans la répartition des précipitations dans l'espace et dans le temps (plus de pluies en hiver, moins en été) devraient fortement influencer cette tendance générale. L'INRA, en collaboration avec Météo France, a montré que le déficit hydrique pourrait entraîner une baisse de la production forestière dans la moitié ouest de la France, du fait de la forte baisse des précipitations estivales sur la façade atlantique. Les conséquences du réchauffement climatique sur les maladies des plantes ont également été étudiées: une équipe de l'INRA a pu effectuer une étude rétrospective de la maladie de l'encre du chêne sur les 30 dernières années en observant des coupes d'arbres infectés. Ils ont montré que le froid hivernal limite le développement de la maladie. "Un modèle permettant de prédire la survie du parasite en fonction des conditions climatiques a été mis au point, ce qui a permis l'établissement d'une carte du risque. Une nouvelle carte tenant compte du réchauffement à venir est en cours d'élaboration", précise Bernard Seguin. L'INRA, qui présente l'état de ses travaux dans le cadre du Salon de l'Agriculture, met par ailleurs en évidence l'impact sur la croissance des forêts du changement climatique, dû principalement aux gaz à effet de serre produits par l'activité humaine. "La croissance des forêts pourrait s'accélérer, mais leur sensibilité à la sécheresse pourrait aussi être affectée. Cette nouvelle hypothèse a dès aujourd'hui des conséquences sur le choix des espèces pour le reboisement et sur la gestion des forêts", note Bernard Seguin.

AFP : http://fr.news.yahoo.com/030226/202/32g2u.html

La France bétonne ses espaces naturels
Samedi, 08/03/2003 - 00:00

La France convertit ses prairies, landes et forêts en maisons individuelles, jardins, routes et parkings à un rythme accéléré depuis une dizaine d'années. C'est ce qu'indique une étude de l'Institut français de l'Environnement (IFEN) publiée le 25 février. En 2000, 8 % du sol métropolitain étaient occupés par des bâtiments, jardins, pelouses, routes et parkings. Ces terrains "artificiels" semblent peser peu par rapport aux 27 % de forêts, 30 % de sols cultivés ou 20 % de prairies. Mais le grignotage par l'homme s'accélère au rythme de 1,6 % par an depuis 1992. L'habitat individuel, qui englobe à la fois les maisons mais aussi les jardins, pelouses, voies d'accès et parkings, a "consommé" en moyenne 330 km2 supplémentaires chaque année en France depuis 1992, contre 275 km2 annuels de 1982 à 1990. Les zones pavillonnaires (18.600 km2) occupent plus d'espace que le réseau routier (10.700 km2). La plus grande partie de ces terrains sont en fait des pelouses, témoignant de l'étalement urbain de plus en plus prononcé. Un étalement qui génère un gros besoin de transports, la construction de voies d'accès et de parkings, synonymes de bruit et de pollution de l'air. Les nouveaux terrains occupés par l'habitat et les routes (7.400 km2) sont pris en priorité sur des prairies (1.520 km2) dont le rôle de réservoir de "biodiversité" est bien connu. L'imperméabilisation des sols amplifie le risque d'inondations, en empêchant l'absorption de l'eau dans la terre et en favorisant son ruissellement en surface. Enfin, les zones aménagées fragmentent les espaces naturels, entravant les déplacements des animaux. Tous les départements français sont touchés, sauf les Alpes-de-Haute-Provence. En Ile-de-France, 21% des surfaces sont déjà artificielles, pour seulement 6% dans le Limousin. Mais le phénomène n'est pas forcément lié à la croissance démographique. En Dordogne, la population n'a cru que de 0,06% par an entre 1990 et 1999, mais un record de 170 km2 de terres ont été converties en surfaces bâties, pelouses et routes, du fait de l'essor des résidences secondaires.

IFEN : http://www.ifen.fr/

Multiplication des inondations et des sécheresses à l'horizon 2025
Samedi, 08/03/2003 - 00:00

La moitié de la population mondiale vivra d'ici 2025 dans des régions susceptibles d'être frappées par des tempêtes et d'autres événements météorologiques extrêmes probablement liés au changement climatique, estime un rapport publié jeudi en vue du Forum mondial de l'eau. Les inondations catastrophiques n'ont cessé d'augmenter de décennie en décennie entre 1950 et 1998, avec six cas dans les années 50, sept dans les années 60, huit dans les années 70, 18 dans les années 80 et 26 dans les années 90, rappelle le document établi par le Conseil mondial de l'eau (CME-WWC). Entre 1971 et 1995, elles ont affecté plus de 1,5 milliard d'habitants de la planète, tuant 318.000 personnes et faisant plus de 81 millions de sans-abri. Les plus graves ont touché le Bangladesh en avril 1991, faisant 140.000 morts. En 2002, plus de 16 millions de personnes ont été victimes d'inondations et plus de 4.200 ont péri dans le monde. La majorité des inondations se produisent en Asie mais "peu de pays sont exempts du risque", comme l'ont montré les inondations dévastatrices de l'été dernier en Europe centrale, note le document. A l'opposé, les sécheresses record sont également de plus en plus nombreuses, notamment en Afrique. "Jusqu'à 45% des décès consécutifs à des catastrophes naturelles entre 1992 et 2001 sont dus aux sécheresses et aux famines" qu'elles entraînent. Ces phénomènes ont frappé notamment l'Afrique de l'ouest mais aussi en 2002 l'Australie. Dans ce pays, la Nouvelle-Galles du Sud (sud-est) a enregistré les plus faibles précipitations de son histoire. La sécheresse a provoqué de graves incendies de forêts et occasionné des pertes considérables aux récoltes et à l'élevage. La multiplication des événements météorologiques extrêmes pourrait être le signe avant-coureur du changement climatique, selon le rapport. Les catastrophes sont beaucoup moins dévastatrices si des mesures de prévention sont prises, observe-t-il. "Un dollar mis dans la prévention peut permettre d'économiser quatre dollars de secours" et d'épargner de nombreuses vies. Ainsi, Dhaka a pris de nombreuses mesures de prévention des inondations dans les années 90. De ce fait les cyclones et inondations de 2001 et 2002, d'une gravité similaire à ceux de 1991, ont fait moins de 200 morts. Le Forum mondial de l'eau, organisé pour la 3ème fois, réunira du 16 au 23 mars à Kyoto (Japon) quelque 10.000 délégués, ministres et hauts fonctionnaires, ONG, industriels et professionnels de l'eau. Il étudiera notamment les rapports entre changement climatique et eau.

AFP : http://fr.news.yahoo.com/030227/202/32jq8.html

Eau: doubler les investissements en faveur du tiers monde
Samedi, 08/03/2003 - 00:00

Fournir de l'eau potable au milliard d'individus qui en sont dépourvus exige un doublement des investissements et une refonte de la gestion du secteur dans les pays en développement, estime un rapport publié mercredi en vue du Forum mondial de l'eau (16-23 mars à Kyoto, Japon).Actuellement 1,1 milliard d'individus sont sans eau potable et 2,4 sans toilettes et tout à l'égout, rappelle le document établi sous la direction de l'ancien président français du Fonds monétaire international Michel Camdessus. L'argent consacré à la construction de conduites d'eau potable et de réseaux d'assainissement dans le tiers monde "est tombé récemment à un niveau très bas".L'aide publique au développement (APD, dons et prêts des gouvernements du Nord et des institutions multilatérales) totalise 4 à 4,5 milliards de dollars par an. Les investissements annuels des multinationales et des pays du Sud eux-mêmes atteignent 75 milliards de dollars. A ce rythme, plus de quatre milliards d'hommes n'auront pas d'eau potable et plus de six milliards seront privés d'assainissement en 2015. Pour diminuer de moitié ces proportions en 2015, conformément aux engagements pris aux sommets du Millénaire (2000) et de Johannesburg (2002), l'APD doit être doublée immédiatement et le total des investissements porté de 80 à 180 milliards de dollars par an, indique le rapport. La tâche apparaît herculéenne, explique-t-il en termes techniques. En effet l'investissement international privé se tarit alors qu'il devrait fournir l'essentiel de l'effort supplémentaire. Les multinationales et leurs banquiers reculent devant les crédits à très long terme spécifiques au secteur et dont le remboursement est incertain en raison de la mauvaise gestion des services de l'eau des pays bénéficiaires. Ils sont parfois découragés par la corruption qui existe, "dans le secteur de l'eau comme ailleurs" et "ne sera pas facile à éliminer, notamment dans les sociétés où elle est endémique". Ils ont été aussi échaudés par de "fortes dévaluations" (Argentine, Philippines, Brésil, Indonésie). Le rapport formule 60 propositions à mettre en oeuvre en trois étapes, 2006, 2015 et 2025, pour aboutir à cette dernière date à "une couverture universelle" en réseaux d'eau potable et d'assainissement. Il plaide pour des partenariats public-privés "transparents" pour financer les infrastructures. Il souligne la nécessité de faire payer le consommateur, le prix variant selon son pouvoir d'achat et seuls les pauvres devant bénéficier de subventions "identifiées clairement dans les comptes publics". Les services de l'eau devraient être non seulement décentralisés mais dotés de l'autonomie financière et d'un budget pluri-annuel pour "éviter les ingérences politiques" et les coupes soudaines de crédits du pouvoir central. Ils devraient respecter des codes de bonne conduite, procéder systématiquement par appels d'offres et publier comptes et contrats. Ils devraient pouvoir bénéficier directement de l'aide des pays du Nord et des investissements internationaux privés. Les donateurs devraient étudier la création d'un fonds de garantie contre les dévaluations. Le "Rapport du groupe de travail mondial sur le financement des infrastructures de l'eau" a été élaboré par 20 personnes dont 17 banquiers internationaux et anciens ministres des Finances.

AFP : http://fr.news.yahoo.com/030305/202/32vgl.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le virus HTLV1 est impliqué dans la leucémie et le SIDA
Samedi, 08/03/2003 - 00:00

Une équipe américano-japonaise vient de mettre à jour le mécanisme par lequel le virus HTLV-1, responsable de certaines leucémies, se propage dans l'organisme. Une découverte cruciale qui pourrait avoir des retombées sur le traitement... du VIH-SIDA ! Le Pr Charles Bangham, du St Mary's Hospital à Londres et ses collaborateurs des universités de Kagoshima et de Ryukyus au Japon ont découvert que le virus HTLV-1, se répand en modifiant le comportement des lymphocytes T, les cellules chargées de combattre l'infection. « La cellule infectée se déplace ensuite à travers l'organisme et transfère le virus au contact d'autres cellules » explique le Pr Charles Bangham. A la différence de nombreux autres virus, HTLV-1 ne libère donc pas de particules virales qui ensuite « voyagent » à travers le sang pour infecter d'autres cellules. Mais ce n'est pas tout... « Le virus HTLV-1 est similaire à celui du VIH » poursuit en effet Bangham. « Voilà pourquoi cette découverte peut vraiment constituer une nouvelle étape dans le développement de traitements contre la leucémie bien sûr, mais aussi contre le VIH-SIDA ».

Science du 13 février 2003 : http://sciencenow.sciencemag.org/

Des cellules souches dans les globules blancs
Samedi, 08/03/2003 - 00:00

Des chercheurs américains ont obtenu des cellules souches pluripotentes à partir d'un sous-groupe de monocytes circulant dans le sang périphérique humain. Yong Zhao, David Glesne et Eliezre Huberman ont identifié une catégorie de monocytes circulant dans le sang périphérique humain capables de se différencier en macrophages, en lymphocytes, en cellules épithéliales, en cellules endothéliales, en neurones ou encore en hépatocytes. Face aux questions éthiques et légales que soulèvent l'utilisation des cellules souches embryonnaires, l'identification de telles cellules pluripotentes dans l'organisme adulte apporte une solution idéale aux chercheurs et aux médecins. Ces monocytes sont faciles à obtenir à partir du sang humain et peuvent être cultivés, stockés, amplifiés et différenciés in vitro : ce sont de parfaits candidats pour la mise au point de traitements par transplantation. Ces cellules sont des candidats de choix pour les thérapies qui se fondent sur la transplantation de cellules. Indépendamment des problèmes éthiques que pose la manipulation de cellules souches embryonnaires, leur utilisation en thérapie peut provoquer des rejets immunologiques. En employant les cellules pluripotentes identifiées par Zhao et coll., il est possible de s'affranchir de ce problème, puisqu'elles ont l'avantage d'être faciles à obtenir chez les malades à traiter. Cette formidable découverte devrait non seulement profiter à la mise au point de traitements nécessitant des greffes de cellules, mais aussi fournir une alternative plus que satisfaisante à la manipulation des cellules souches embryonnaires. Ces cellules pourraient en effet à l'avenir être utilisées pour restaurer le pool de cellules immunitaires détruit au cours de certains traitement du cancer ou encore pour remplacer les neurones endommagés chez les patients atteints au niveau de la moelle épinière ou souffrant de la maladie de Parkinson ou d'Alzheimer.

PNAS : http://www.pnas.org/cgi/doi/10.1073/pnas.0536882100.

Signature historique d'un traité international contre le tabac
Samedi, 08/03/2003 - 00:00

Les 169 pays membres de l'Organisation mondiale de la Santé (OMS) sont parvenus le 1er mars à Genève, après deux ans et demi d'âpres négociations, à un accord sur un traité historique qui imposerait des restrictions sans précédent sur la publicité pour le tabac, l'étiquetage, la lutte contre la contrebande et le tabagisme passif. La Convention cadre sur le contrôle du tabac, premier traité mondial sur la santé, a été conclu à l'issue d'une dernière séance marathon de 18 heures, au terme d'un dernier round de deux semaines de dures négociations. Dans son préambule, le texte affirme que "la propagation de l'épidémie de tabagisme est un problème mondial aux conséquences graves pour la santé publique qui appelle la coopération internationale la plus large possible". Il relève l'augmentation de la consommation et de la production mondiales de cigarettes, surtout dans les pays en développement, et la charge qui en résulte pour les systèmes de santé nationaux. Il met en évidence la dépendance à l'égard du tabac et le caractère toxique et cancérigène de la fumée de cigarette. Les parties se disent "inquiètes notamment de l'augmentation de la consommation de cigarettes chez les femmes et les jeunes filles partout dans le monde" et s'accordent à reconnaître que les mesures financières et fiscales sont "un moyen efficace et important" pour réduire la consommation de tabac. Elles s'engagent à adopter ou renforcer leur législation pour protéger la population à l'exposition à la fumée du tabac, dans les lieux et transports publics et sur les lieux de travail. L'obligation de faire figurer sur les paquets de cigarettes des mises en garde sur le danger du tabac représentant au moins 30% de la surface du paquet, la sensibilisation du public, l'interdiction de la vente de produits du tabac aux mineurs, le traitement de la dépendance, l'adoption de mesures de lutte contre la contrebande, figurent également dans la convention. Le traité cherche à contrer les conséquences "dévastatrices" du tabagisme actif et passif par des mesures allant de l'interdiction de la publicité et du parrainage d'ici cinq ans à la répression de la contrebande en passant par l'interdiction de la vente de cigarettes aux mineurs. Il ne va néanmoins pas jusqu'à interdire catégoriquement les termes cigarette "légère" ou "à faible taux de goudron" qui, selon l'OMS, donnent à penser, à tort, que ces cigarettes sont moins nocives. Un soutien financier sera apporté aux pays les plus pauvres pour mettre en place des campagnes contre le tabagisme et trouver des alternatives rentables à la culture du tabac. Plusieurs des mesures prévues sont déjà appliquées dans des pays riches mais, pour la plus grande partie des pays en développement, où les maladies liées au tabagisme sont en hausse, il s'agit de la première tentative de combattre ce que l'OMS présente comme la première cause de mort prématurée. L'OMS espère que le traité, baptisé Convention cadre sur le contrôle du tabac, freinera le nombre de décès liés au tabac, qui devrait s'élever selon ses estimations à 10 millions par an d'ici 25 ans (dont 70% dans les pays en voie de développement), contre 4,9 millions actuellement et 4 millions en 1999, lorsque les discussions sur le traité ont été initiées. Ce traité devrait entrer en vigueur une fois signé par 40 pays. Cependant, les Etats-Unis et l'Allemagne, deux des 171 pays participant aux discussions, ont dit ne pouvoir accepter certaines parties de l'accord, bien qu'ils ne puissent empêcher l'assemblée annuelle de l'OMS de l'adopter, en mai. Les Etats-Unis, qui ont pourtant une des lois anti-tabac les plus sévères au monde, et l'Allemagne ont émis des objections à l'interdiction de la publicité, bien que le traité prévoie d'y substituer la notion de "restriction" pour les pays où la liberté d'expression garantie par la Constitution exclut une interdiction. Les Etats-Unis, où sont basés nombre de cigarettiers parmi les premiers au monde, ont annoncé qu'ils chercheraient à faire amender le texte lors de l'assemblée annuelle de l'OMS, en mai. La Convention prévoit finalement que "chaque partie, dans le respect de sa constitution, instaure une interdiction totale de toute publicité en faveur du tabac, ainsi que de la promotion et du parrainage". Le texte stipule que chaque pays "devrait en accord avec ses principes constitutionnels ou sa Constitution mettre en place l'interdiction complète de toute publicité ou promotion pour le tabac". Washington a affirmé qu'une interdiction totale violerait la liberté d'expression. Les Etats-Unis ont cherché en vain à inclure une disposition qui permettrait à chaque pays d'approuver le traité tout en pouvant ne pas appliquer certaines clauses.

Brève rédigée par @RT Flash

OMS : http://www.who.int/mediacentre/events/2003/pr21/en/

Comment éviter les maladies chroniques ?
Samedi, 08/03/2003 - 00:00

L'Organisation mondiale de la santé (OMS) et l'Organisation des Nations Unies pour l'agriculture et l'alimentation (FAO) tirent la sonnette d'alarme : les maladies chroniques -- les problèmes cardio-vasculaires, le cancer, le diabète et l'obésité, notamment -- sont "chaque années plus meurtrières". En 2001, elles "étaient à l'origine d'environ 59 % des décès enregistrés dans le monde et de 46%" des maladies, précisent les deux institutions de l'ONU. Une grande partie des décès attribués à des maladies chroniques ont pour origine des risques facilement évitables, tels que l'hypertension, l'hypercholestérolémie, l'obésité et le manque d'exercice physique. Dans un rapport publié lundi, les deux institutions de l'ONU invitent donc les gouvernements à donner des directives simples, réalistes et concrètes en matières d'alimentation : consommer peu de graisses et de sucre, manger au moins 400 grammes de fruits et de légumes par jour, et faire au moins une heure d'activité physique journalière. Au total, 17 mesures individuelles ou globales ont été envisagées. Cet ensemble de mesure permettraient notamment de réduire de moitié le poids global des maladies cardiovasculaires dans le monde. Ces maladies chroniques ne sont pas seulement dues à la suralimentation, mais aussi à un régime déséquilibré. Le rapport note l'influence d'une forte consommation de sel sur la tension artérielle, et celle des graisses saturées dans l'hypercholestérolémie. De plus en plus de personnes dans les pays en voie de développement souffrent de maladies chroniques, alors qu'il y a une dizaine d'années encore, ce type d'affection était associé aux pays riches. L'urbanisation joue un rôle important dans cette évolution, les citadins ayant en général un régime alimentaire plus énergétique, riche en acides gras saturés et en glucides raffinés. "Le changement subit d'alimentation conjugué à un mode de vie sédentaire, a des effets dévastateurs sur la santé des habitants pauvres des villes", précisent l'OMS et la FAO. La Finlande et le Japon sont cités en exemple. Grâce à des mesures énergiques pour faire évoluer les habitudes alimentaires de leur population, les facteurs de risques ont reculé et la fréquence des maladies chroniques a chuté dans ces deux pays.

OMS : http://www.who.int/mediacentre/releases/2003/pr20/en/

Le mariage de deux protéines observé pour la première fois grâce à la microscopie à force atomique
Samedi, 08/03/2003 - 00:00

Les protéines membranaires ne fonctionnent généralement pas de manière isolée mais en s'associant entre elles pour former des supercomplexes protéiques. L'un des plus connus à ce jour est celui assurant la transformation de l'énergie lumineuse en ATP. Si les connaissances atomiques des différents constituants de ces membranes sont relativement avancées, très peu d'informations sont en revanche disponibles sur l'organisation et la fonction de ces supercomplexes. Leur étude représentait jusqu'à maintenant un défi pour les biologistes, car avec les méthodes disponibles, ils ne pouvaient principalement observer que des protéines isolées de leur contexte. L'équipe de Jean-Louis Rigaud « Cristallisation bidimensionnelle de protéines membranaires » à l'Institut Curie vient de bouleverser cet état de fait en rendant possible l'observation à haute résolution de membranes biologiques en conditions physiologiques par la microscopie à force atomique (AFM). La microscopie à force atomique, développée par des physiciens en 1986, permet d'imager la surface d'un échantillon à des résolutions atomiques. Son principe consiste à balayer la surface de l'échantillon avec une pointe dont les déplacements sont repérés par un laser. Ces données permettent ensuite de dresser la carte « topographique » de l'échantillon. L'AFM présente l'énorme avantage de pouvoir analyser des échantillons en solution : un atout majeur pour la biologie. Dès 1995, des protéines membranaires ont pu être observées en AFM, à des résolutions latérales de 6 angströms (10-10m) et verticales de 1 angström. L'équipe de Jean-Louis Rigaud vient de franchir une nouvelle étape en observant dans des membranes natives - c'est-à-dire très proches de leur état naturel - les collaborations entre protéines. Ce sont les premières images sur l'organisation d'un supercomplexe protéique. C'est grâce à la combinaison de la microscopie à haute résolution comme l'AFM, de la microscopie électronique - depuis des échelles atomiques obtenues par cristallographie jusqu'à des échelles cellulaires -, et de la microscopie optique que les cellules livreront progressivement leurs secrets. Les cellules ne sont pas des entités isolées : elles communiquent sans cesse avec leur environnement grâce à des récepteurs membranaires où se fixent des messages informatifs venus de l'extérieur (autres cellules, tissus et organes). La réception de ces messages active des protéines à l'intérieur de la cellule qui à leur tour en activent d'autres, et ainsi de suite. Une fois interprétés, ces signaux vont permettreaux cellules de déterminer leur position et leur rôle dans l'organisme. Ils sont indispensables à la prolifération, à la différenciation, à la morphologie et à la mobilité des cellules. Cette nouvelle technologie d'investigation va donc permettre de visualiser et de mieux comprendre les défaillances et dysfonctionnements de ce système complexe de signalisation en cascade qui joue un rôle biologique majeur, notamment dans le déclenchement du cancer.

CNRS :

http://www.cnrs.fr/cw/fr/pres/dyncom/communique.php?theme=0&article=133&nbrttl=1...

Vers un pacemaker pour le cerveau
Samedi, 08/03/2003 - 00:00

Les scientifiques ont longtemps supposé que les attaques comme les crises d'épilepsie intervenaient soudainement. Cependant les recherches récentes menées à l'aide d'électroencéphalogrammes (EEG) indiquent, au contraire, qu'il existe une période d'intensification de l'activité cérébrale permettant la prédiction de ces problèmes cérébraux. C'est en effet grâce aux épileptiques que ces recherches ont pu aboutir. Ainsi, lorsqu'un patient souffrant de crises épileptiques régulières entre à l'hôpital pour subir une intervention chirurgicale visant à faire une ablation des tissus cérébraux endommagés, il fait l'objet d'EEG répétés. Quand les neurologues ont utilisé des méthodes classiques pour analyser ces archives importantes d'EEG, ils n'ont trouvé aucun signe précurseur d'une attaque. En revanche, les méthodes d'analyse basées sur la théorie du chaos ont permis aussitôt de reconnaître le profil d'une crise en formation. En décembre dernier, des chercheurs de l'Arizona State University ont démontré qu'il est possible de prédire plus de 80% des crises, en moyenne une heure avant leur pic. Néanmoins, le logiciel utilisé est responsable d'un certain nombre de fausses alertes. Actuellement, plusieurs équipes travaillent à l'optimisation de ces programmes de dépistage afin de permettre le développement de dispositifs administrant de petites doses de médicaments contre l'épilepsie ou émettant des signaux électriques qui arrêtent les crises.

NYT 18/02/03 : http://www.nytimes.com/2003/02/18/science/18EBOX.html

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La population mondiale revue à la baisse
Samedi, 08/03/2003 - 00:00

Nous serons moins nombreux sur Terre que prévu en 2050, d'après les démographes de l'ONU, qui ont profondément modifié leurs prévisions de croissance de la population mondiale. En 2000, ils prédisaient que nous serions 9,3 milliards d'êtres humains sur Terre. En 2002, ils ne prévoient plus que 8,9 milliards d'individus contre 6,3 milliards aujourd'hui. Où sont passés les 400 millions qui font la différence ? Deux facteurs sont avancés par l'ONU pour expliquer cette révision à la baisse : les taux de fécondité diminuent plus que prévu et l'épidémie de sida frappe plus fort que jamais. Pour la première fois, la Division population des NU prévoit que le taux de fécondité va passer sous la barre des 2,1 enfants par femme dans la plupart des pays en développement. Autrement dit en dessous du taux minimum nécessaire au renouvellement des générations. Dans les pays développés, la population va diminuer, prévoit les démographes. D'ici 2050, le Japon pourrait perdre 22 % de sa population actuelle, l'Italie 14 % et des pays comme la Bulgarie, la Russie ou l'Estonie perdraient 30 à 50 %. Quant au sida, c'est une «maladie de destruction massive» selon Joseph Chamie, directeur de la Division population. L'impact de l'épidémie est désormais prévu à plus long terme et dans un plus grand nombre de pays. Le coût serait de 278 millions de vie en moins d'ici 2050, selon Chamie. Finalement, huit pays représenteraient la moitié de l'augmentation mondiale de la population dans les 50 prochaines années. Il s'agit de l'Inde, du Pakistan, du Nigéria, des Etats-Unis, de la Chine, du Bangladesh, de l'Ethiopie et de la République démocratique du Congo.

ONU :

http://www.un.org/apps/newsFr/storyF.asp?NewsID=5407&Cr=Populations&Cr1=Chamie

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'UE enfin d'accord pour créer un brevet communautaire
Samedi, 08/03/2003 - 00:00

Après des années de tergiversation, les Quinze sont parvenus le 3 mars à Bruxelles à un accord sur la création d'un brevet communautaire qui permettra aux inventeurs d'obtenir un brevet unique valable dans toute l'Union européenne (UE).Ce compromis doit être entériné officiellement par les chefs d'Etat et de gouvernement des Quinze lors du prochain sommet européen de Bruxelles les 20 et 21 mars. Le brevet communautaire, attendu depuis 30 ans par les industriels mais sur lequel les Européens n'avaient jamais réussi à s'entendre, vise à encourager l'innovation en Europe en abaissant fortement ses coûts d'obtention, actuellement trois à cinq fois plus élevés qu'aux Etats-Unis ou au Japon. L'accord offrira surtout une sécurité juridique en instituant, après une période transitoire jusque 2010, un tribunal spécialisé unique à Luxembourg. Le brevet communautaire sera délivré à partir de 2005 par l'Office européen des brevets (OEB) de Munich. Il cohabitera avec le brevet dit "européen", accordé depuis 1973 par l'OEB. Ce brevet "européen" s'appliquait dans les pays choisis par le demandeur. Mais il n'empêchait pas chaque Etat membre de pouvoir exiger sa traduction complète dans sa langue, pour le valider sur son territoire. En outre, les tribunaux nationaux restaient compétents en cas de litiges. "Le titulaire du brevet communautaire n'aura plus, pour faire reconnaître ses droits, à intenter une action judiciaire par pays avec le délai, les coûts et les risques de jugement contradictoires que cela impliquait", s'est félicitée la ministre française déléguée à l'industrie, Nicole Fontaine. "L'adoption du brevet était une priorité pour améliorer la compétitivité de l'économie européenne", a renchéri le commissaire européen au Marché intérieur, Frits Bolkestein. Actuellement un brevet "européen" typique (applicable dans huit Etats membres) coûte environ 50.000 euros, dont 25% pour les traductions alors que dans la pratique celle-ci sont rarement consultées, l'anglais étant la langue des brevets. Le compromis trouvé diviserait les coûts par deux en ayant recours seulement aux trois langues de travail de l'OEB - anglais, français ou allemand - pour la demande de brevet, qui protège aussitôt l'inventeur. Seules les "revendications" - les trois pages qui constituent le coeur juridique du brevet - et non la description intégrale de l'invention devront être ensuite traduites dans toutes les langues de l'UE, une fois le brevet officiellement délivré, plusieurs années après. Le compromis a pu être conclu grâce à l'Allemagne, où sont actuellement jugés 50% des litiges européens, soit plusieurs milliers d'affaires. Berlin a accepté de dessaisir à terme ses trois tribunaux spécialisés, au profit d'une chambre qui sera créée à la Cour européenne de justice de Luxembourg et officiera en 2010, à l'issue de la période transitoire. "L'Allemagne est le pays où on dépose le plus de brevets et en même temps pour les industriels le plus gros marché, celui où ils acceptent le moins de voir leurs produits contrefaits", a expliqué un expert européen. "C'est la première fois que la Cour européenne réglera des litiges de droit privé", a-t-il souligné. Les juridictions nationales resteront néanmoins compétentes pour les conflits sur les brevets purement nationaux. C'est à l'Office européen des brevets installé à Munich, qu'il reviendra de délivrer le brevet communautaire. «Le titulaire n'aura plus besoin d'intenter une action judiciaire par pays pour faire reconnaître ses droits». C'est un gain de temps et d'argent considérable et une réelle protection de l'innovation.

UE : http://europa.eu.int/news/index_en.htm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top