RTFlash

RTFLASH Recherche & Technologie
NUMERO 239
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Avril 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'arrivée des puces-radio dans nos vêtements pourrait révolutionner la distribution
Toshiba se met aux robots domestiques
Une boucle de fibre optique nourrit la mémoire d'ordinateurs super-puissants
Service universel: Paris répond à la menace de Bruxelles
Avenir
Du cuivre résistant à la rupture obtenu par des chercheurs français
Matière
Intel lance un nouveau Pentium 4 plus rapide
Une nouvelle approche dans la fusion nucléaire
Un réseau énergétique national sous le sol américain est envisageable à long terme
Espace
La France défend un "accès autonome" de l'Europe à l'espace
Terre
Le mystère des bulles de méthane marin
Le projet de Charte de l'Environnement a été rendu public
Vivant
Pneumopathie atypique : le décryptage du génome du virus ouvre la voie vers un vaccin
Pneumonie: confirmation par l'OMS de la responsabilité du coronavirus
Une pneumonie atypique qui recèle encore des mystères
Des chercheurs américains vont tester 2.000 médicaments contre le SRAS
Tabagisme passif : 3 fois plus de morts que les accidents du travail!
Percée dans le traitement de Lou Gehrig
Maladies cardio-vasculaires: la prise en charge des facteurs de risque est indispensable
Y-a-t-il une dépendance au "fast food"
Les maladies cardio-vasculaires mieux soignées dès 2007
Le clonage humain peut-être impossible avec les techniques actuelles
Edito
L'avenir passe par la puissance de calcul



La connaissance du génome humain combinée à l'informatique et à l'électronique ouvre d'immenses perspectives de mise au point de traitements du futur pour des maladies aussi diverses que celles du cerveau, les diabètes ou la tuberculose, ont expliqué des chercheurs réunis à Denver (Colorado), dans le cadre de la réunion annuelle de l'Association américaine pour les Progrès de la Science. (voir article de l'AAAS http://www.eurekalert.org/pub_releases/2003-02/aaft-nsa020303.php). Mais rien de tout cela ne serait possible sans la puissance de calcul conférée par l'informatique, face aux trois millions de lettres composant le génome et aux milliards de cellules du corps humain, chacune réglée par des milliers de gènes qui interagissent et changent de rôle, d'une cellule à l'autre et d'un instant à l'autre, ont expliqué les scientifiques. "Le but du séquençage du génome humain était de définir les gènes, le but de la phase suivante est de déterminer comment ces gènes, et les protéines qu'ils encodent, sont interconnectés, comme des circuits intégrés dans les cellules", a expliqué Trey Ideker. Pour découvrir ces interconnexions, les chercheurs ont recours à des mini-laboratoires de la taille d'un timbre poste, appelés "microréseaux ADN", "puces ADN" ou encore "biopuces", capables de fournir la carte d'identité de tout gène exprimé par une cellule prélevée sur un patient. C'est grâce à ces biopuces que les chercheurs tentent de comprendre le rôle joué par certains gènes dans des maladies infectieuses ou dégénératives, pour mettre au point les traitements du futur. La puce ADN peut contenir plusieurs milliers de sondes moléculaires dont la séquence nucléotidique est connue. Ces sondes sont placées sur la puce (faite de verre, silicium ou polymère) pour reconnaître leurs séquences nucléotidiques complémentaires, si elles sont présentes dans l'échantillon génétique testé. Puis l'analyse de la puce permet aux chercheurs de savoir quels gènes étaient actifs dans cet échantillon et de quelle nature était leur activité. Des chercheurs de la faculté de médecine Johns Hopkins et du Kennedy Krieger Institute ont rapporté avoir identifié, grâce à la puce ADN, certaines expressions génétiques associées à l'autisme, à la trisomie 21 et à d'autres maladies. "Une grande question des maladies du cerveau est de savoir pourquoi le patient souffre de tels déficits. Si nous arrivions à comprendre quels gènes sont anormalement exprimés, cela nous fournirait des marqueurs et des cibles thérapeutiques", a expliqué le professeur Jonathan Pevsner. Eric Hoffman, de l'hôpital pour enfants de Washington, utilise les biopuces pour étudier notamment la région de la cellule dans laquelle un nerf touche une cellule musculaire, dans l'espoir de découvrir un traitement pour la maladie de Lou Gehrig (ou maladie de Charcot) et l'amyotrophie spinale. Le Dr Hoffman étudie également un groupe de personnes qui ont de fortes probabilités de développer un diabète de type 2. Par l'étude des gènes exprimés dans leurs cellules musculaires, il espère mettre au point un traitement pour prévenir les problèmes circulatoires chez les diabétiques. La puce ADN a déjà permis à Gary Schoolnik, de l'université de Stanford, de découvrir des gènes clés dans la bactérie responsable de la tuberculose, permettant à cet agent pathogène de s'adapter à son hôte, l'homme, pour l'infecter. Cette bactérie, a-t-il expliqué, peut se cacher dans des cellules humaines et demeurer silencieuse pendant des années avant de se réveiller pour provoquer la maladie. Mais si la puce ADN offre des promesses sans limite, l'exploitation des données qu'elle fournit doit encore être améliorée par le stockage et le partage des informations dans d'immenses banques de données que tous les chercheurs pourraient consulter. C'est là qu'interviennent les fantastiques progrès de l'électronique et de l'informatique : actuellement l'ordinateur le plus puissant du monde, l'Earth Simulator de NEC, traite 35 téraflops, c'est-à-dire 35000 milliards d'opérations par seconde mais d'ici 2010 la recherche en bioinformatique disposera de machines d'une puissance inimaginable de 1 pétaflop : 1000 téraflops, soit un million de milliards d'opérations par seconde. Mais avant même l'arrivée de ces "hyperordinateurs" qui pourront analyser en temps réel des processus biologiques d'une complexité inouïe, le nouveau concept de "grille informatique" est en train de révolutionner la recherche biologique et médicale en démultipliant de plusieurs ordres de grandeur la puissance de calcul immédiatement disponible. En France, le décrypton, lancé le 11 mars 2002, a permis, en fédérant 75 000 ordinateurs personnels, d'effectuer en seulement 7 semaines un énorme travail de comparaison de plus de 500.000 protéines. Aux Etats-Unis, une équipe de l'université californienne de Stanford a réussi, en octobre 2002, à simuler la formation d'une protéine grâce à des dizaines de milliers d'ordinateurs individuels reliés en réseau. Conscient de l'importance stratégique de ce concept de grille informatique, la Fondation Nationale pour la Science (NSF) a commencé à installer le matériel nécessaire au TeraGrid, un superordinateur à l'échelle du pays, qui devrait être à la puissance de calcul ce qu'Internet est aux documents. Le TeraGrid représentera la quintessence de ce que l'on appelle la “grille de calcul”. Une fois connecté à la grille, un ordinateur de bureau pourra acquérir la puissance phénoménale de l'ensemble des ordinateurs connectés. Pour le MIT, le TeraGrid représente rien de moins que l'émergence d'une nouvelle infrastructure sur laquelle la science tout d'abord, puis l'économie tout entière, seront bâties. La grille informatique présente l'avantage de fédérer des ressources non-homogènes (Windows, Unix, Linux, etc.) et d'être très fiable car elle permet de stocker les mêmes informations en différents endroits, et de les retrouver systématiquement. Outre Atlantique, le gouvernement américain et les grands sociétés informatiques ont parfaitement compris l'enjeu de ce nouveau concept technologique et n'hésitent pas à affirmer que la puissance de calcul est devenue une arme économique et politique et sera bientôt un indicateur-clé de la puissance d'une nation, au même titre que le PIB. IBM a investi 4 milliards de dollars dans cette technologie. Le premier secteur qui va être révolutionné par ces grilles informatiques est celui des sciences de la vie, de la pharmacie et les biotechnologies. En effet, ce secteur, comme vient encore de le montrer la rencontre annuelle de l'AAAS de Denver, doit stocker, comparer et transmettre des quantités de données de plus considérables issues des recherches sur le génome et sur le protéome humains. Il faut savoir que chaque année, le nombre de données brutes disponibles en biologie est multiplié par deux et comme l'a souligné Bernard Pau, directeur du département des sciences du vivant au CNRS, "L'enjeu culturel de ce siècle sera de traiter les milliards d'informations complexes qui s'offrent aux biologistes depuis le séquençage du génome humain voici trois ans, afin d'envisager une reconstruction de la théorie du vivant". Après la cartographie du génome, les scientifiques se sont en effet attaqués à la cartographie et à la comparaison du protéome qui contient plusieurs centaines de milliers, voire plusieurs millions, de protéines. Mais si l'on veut comparer deux à deux toutes les séquences protéiques disponibles dans les banques publiques, cela représente des milliards de calculs, hors de portée de la plupart des laboratoires de recherche. Pour mettre au point de plus en plus rapidement, à partir de ces immenses quantités d'informations, les médicaments et les thérapies géniques et cellulaires qui demain vaincront le cancer, les maladies neurodégénératives et les pathologies liées au vieillissement, les chercheurs, quels que soient leur nombre et leurs compétences, auront besoin d'ici 10 ans de disposer en permanence d'une puissance de calcul et de simulation et d'une largeur de débit de 100 à 1000 fois plus importante qu'aujourd'hui. Dans une telle perspective, il faut bien comprendre que biologie, médecine et informatique vont devenir, via l'Internet, absolument indissociables, formant un nouveau continuum de recherche pluridisciplinaire : la bioinformatique. Voilà pourquoi il est si important de préparer aujourd'hui les réseaux et les outils informatiques si nous voulons que la France effectue sa mutation vers l'économie immatérielle et reste dans la compétition numérique mondiale à l'aube de la prochaine décennie.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
L'arrivée des puces-radio dans nos vêtements pourrait révolutionner la distribution
Samedi, 19/04/2003 - 00:00

Vos sous-vêtements pourraient bientôt parler. De petits émetteurs sans fil permettent de relier habits, rasoirs et autres objets de la vie courante à internet, créant un monde où les murs ont effectivement des oreilles. Selon des experts en marketing, cette technologie connue sous le nom d'identification par fréquence radio (RFID) pourrait révolutionner les techniques de vente en personnalisant les services et en améliorant la gestion des stocks. Mais les défenseurs des libertés individuelles estiment que ces émetteurs pourraient également nous propulser dans un monde digne de George Orwell, où les vendeurs et les forces de l'ordre pourraient contrôler le contenu de votre sac d'un coup de baguette magique... ou savoir que vous avez acheté vos sous-vêtements à 10 dollars en solde dans tel magasin. "Quand j'ai découvert ce système, je l'ai trouvé plus terrifiant que tout ce dont j'avais entendu parler auparavant", a déclaré Katherine Albrecht, une avocate spécialisée dans la défense des libertés individuelles. Egalement chercheuse à Harvard, elle a appelé au boycott des produits Benetton, la compagnie de textile italienne qui est en train de tester le système. Développé pour la première fois lors de la deuxième guerre mondiale pour aider les opérateurs radar à distinguer les avions alliés des ennemis, le marquage RFID est utilisé aujourd'hui pour suivre la progression des troupeaux, localiser les animaux perdus et permettre aux usagers des transports en commun de passer les portillons automatiques sans perdre de temps. Dans le magasin ouvert par Prada dans le quartier de SoHo à New York, des capteurs dans les murs des cabines d'essayage, permettent de savoir quels habits un client est en train d'essayer et d'indiquer si ceux-ci sont disponibles dans d'autres tailles, couleurs ou tissus. Le marqueur, de la taille d'une carte à jouer, coûte environ quatre dollars pièce, suffisamment cher pour qu'on l'enlève à la caisse pour le réutiliser, explique un vendeur. Dans un magasin où le moindre t-shirt peut coûter plus de 400 dollars, le marquage RFID est également un antivol efficace. Des entreprises comme Procter & Gamble et Nokia pensent utiliser le marquage RFID dans leurs produits pour mieux gérer le mouvement de leur marchandise entre l'usine et les points de vente. Le système permet également aux vendeurs de relier les informations sur un produit - son prix et le lieu de fabrication - avec la liste d'achats d'un client. Alors que les nouveaux marqueurs devraient rétrécir jusqu'à atteindre la taille d'un grain de riz et leur prix dégringoler, leurs partisans imaginent un avenir pas si lointain où les chemises sales expliqueront aux machines à laver à quelle température elles doivent être lavées, et où les réfrigérateurs passeront commande à l'épicerie quand il manque du lait. Un important casino de Las Vegas devrait équiper les uniformes de ses employés de ces marqueurs pour s'assurer que des voleurs ne s'introduisent pas près des tables de jeux en se déguisant en croupier, explique James Hall, directeur de la recherche du cabinet de conseil Adventure. "Nous entrons dans un monde que nous appelons la réalité en ligne", où chaque objet manufacturé est connecté à internet, a précisé Hall lors d'une récente conférence en Allemagne. Mais à une époque où les vendeurs suivent les consommateurs à la trace et compilent des informations sur leurs habitudes d'achat, le système RFID menace la vie privée, ont estimé des participants à la Computers, Freedom and Privacy conference, qui s'est déroulée la semaine dernière à New York. Selon eux, les magasins pourraient déterminer l'identité des acheteurs à partir des marqueurs de leurs habits, les voyeurs utiliser des scanners pour savoir quels sous-vêtements les femmes portent et les annonceurs pourraient choisir quelle publicité passer à la télévision en fonction des goûts du spectateur. Les pro-RFID affirment être conscients de ces inquiétudes. Simson Garfinkel, un avocat défenseur de la vie privée qui travaille avec le département AutoID du Massachusetts Institute of Technology (MIT), a proposé "une déclaration des droits du RFID" pour informer les consommateurs de la présence de ces marqueurs et qui leur donnerait le droit de les désactiver. Le département AutoID du MIT, soutenu par les industriels, fait également la promotion d'une technologie qui détruirait le marqueur à la caisse en lui envoyant une impulsion électrique. Benetton a également affirmé que s'il décidait d'utiliser le système, les clients pourraient désactiver le marqueur. "Les entreprises savent qu'elles ne tireront aucun bénéfice de cette technologie si elles essayent de l'imposer sans finesse", explique Mark Roberti, journaliste au RFID Journal, un site internet spécialisé. Mais cette bonne volonté pourrait ne pas suffire, affirme Katherine Albrecht, face à l'appétit des experts en marketing et des forces de police, aiguisé par l'immense quantité d'informations collectées par les marqueurs RFID. Selon elle, seule une loi peut réguler l'utilisation de cette technologie, ce que l'Etat du Massachusetts serait sur le point de faire.

Reuters : http://fr.news.yahoo.com/030409/85/350w2.html

Toshiba se met aux robots domestiques
Samedi, 19/04/2003 - 00:00

Toshiba fait une véritable entrée sur le marché des robots domestiques, dominé par Sony. Le géant nippon a présenté au Japon le prototype d'un robot, baptisé ApriAlpha, lors du salon Robodex 2003 dédié aux robots non industriels, qui s'est tenu du 3 au 6 avril à Yokohama, près de Tokyo. Il y a quatre ans, Toshiba avait dévoilé un robot capable de jouer au volley, avant de se tourner ensuite exclusivement vers la fabrication de robots industriels. Mais la demande pour des robots domestiques augmentant au japon, notamment grâce au succès des animaux cybernétiques de Sony (la série des Aibo), Toshiba a décidé de se lancer véritablement sur ce secteur. Son robot ApriAlpha n'est pas humanoïde, mais de forme sphérique. Il s'agit d'un grosse boule blanche de 35 cm de diamètre pesant 9,5 kilogrammes. Pour se déplacer, il utilise plusieurs rangées de roues placées sous sa coque, et s'appuie sur des capteurs à ultrasons pour se repérer dans l'espace et éviter les obstacles. La vocation d'ApriAlpha est de faire office «d'intermédiaire entre les humains et leurs réseaux de communications domestiques», indique Toshiba dans un communiqué. Il est pour cela doté de fonctions de reconnaissance vocale et faciale (jusqu'à 100 individus reconnus), ainsi que de synthèse vocale pour communiquer avec les humains. Afin de recevoir les données des réseaux, il dispose d'un module de communication radio Wi-Fi (norme 802.11b) et peut également se connecter à des appareils grâce au système radio à courte portée Bluetooth qu'il intègre. Par ailleurs, il dispose d'un écran couleur intégré, qui permet à son utilisateur d'accéder à ses données, comme par exemple un e-mail; il peut les visionner sur le robot, qui peut également les lui lire à haute voix. ApriAlpha peut également servir de "chien de garde". Capable de détecter des mouvements, il peut prévenir ses maîtres en transmettant l'information via les réseaux de communications domestiques, s'ils sont reliés avec l'extérieur.

ZDnet : http://www.zdnet.fr/

Une boucle de fibre optique nourrit la mémoire d'ordinateurs super-puissants
Samedi, 19/04/2003 - 00:00

La fibre optique va-t-elle réussir à alimenter la mémoire des plus puissants ordinateurs du monde ? Selon la MIT technology review, des scientifiques de l'université de Johns Hopkins ont récemment mis au point une méthode permettant de capturer des photons lumineux circulant en continue sur une boucle de fibres optiques, pour les stocker, les rediriger rapidement, et les transformer en bits ! Ce dispositif implique un système de stockage et de re-direction ultra-rapide. Ces quantum lumineux ainsi transformés en bits servent à alimenter massivement la mémoire d'ordinateurs super-puissants, les « Quantum computers ». Ces derniers sont potentiellement assez puissants pour casser le plus solide des codes secrets, ou rechercher une information dans des bases de données gigantesques. Les chercheurs ont reconnu que ce dispositif de « mémoire cyclique » pourrait être utilisé concrètement pour des applications d'ici cinq à dix ans, mais jusqu'à la mise en avant de cette méthode, on estimait à 20 ans l'arrivée effective de ces « Quantum computers »...

Atelier : http://www.atelier.fr/

Service universel: Paris répond à la menace de Bruxelles
Samedi, 19/04/2003 - 00:00

Suite à la mise en demeure adressée par la Commission européenne le 8 avril dernier à l'État français, le gouvernement a vite réagi. Selon le quotidien Les Echos de ce jour, il a publié un décret le 10 avril, qui modifie le code des postes et télécommunications au sujet du service universel des télécommunications. Pour rappel, le service universel concerne la gestion des cabines téléphoniques publiques, des services d'annuaire et de renseignements. Un service non rentable mais nécessaire et qui est à la charge de France Télécom. Mais, exception française, il est cofinancé par les autres opérateurs via une taxe payée à l'opérateur historique. Or, dans tous les autres pays de l'Union, ce service est totalement pris en charge par l'ex-monopole du téléphone. Les autorités locales estiment en effet que les avantages induits par ce "service public", en termes de notoriété et d'image, profitent avant tout à l'opérateur historique. D'où les foudres de la Commission de Bruxelles, qui a obtenu gain de cause en décembre 2001 par un arrêt de la Cour de justice européenne. Mais devant l'immobilisme de l'État français, elle l'a mis donc en demeure, seize mois après, de se conformer à cet arrêt sous peine d'une éventuelle amende. Le décret du 10 avril (n°2003-338), publié au Journal officiel dimanche 13, est censé répondre à cette mise en demeure. Il éclaircit le mode de calcul du service universel et ainsi des remboursements que doit effectuer France Télécom. Il indique notamment comment doit être calculé le montant net du service universel, en détaillant les coûts des l'opérateur en charge de ce service, avec des précisions parfois très terre à terre. « Le coût net des obligations correspondant à la fourniture du service universel (...) est égal à la différence des coûts et des recettes imputables à ces obligations», peut-on ainsi lire dans le décret. Une précision qui laisse à penser que le mode de calcul précédent était réellement peu clair, ce que déplorait justement Bruxelles. Autre modification apportée par le décret: les avantages induits par le service universel sont enfin pris en compte et détaillés. Ils comprennent notamment «le bénéfice technique et commercial résultant de l'étendue du réseau (...), le bénéfice tiré de l'exploitation des données relatives aux abonnés, pour la connaissance du marché et] le bénéfice tiré de l'image de marque associée à la position d'opérateur de service universel». Au final, ce décret devrait donc réduire considérablement la taxe des opérateurs tiers, mais pour autant il ne supprime pas cette particularité française. D'ailleurs, même la Cour européenne, dans son arrêt du 6 décembre 2001, n'avait pas été jusque-là. Elle ne réclamait qu'une baisse pour les années à venir et un remboursement sur des années passées où il n'était pas justifié. Ce privilège de France Télécom, accordé par l'État français, actionnaire majoritaire de l'opérateur, ne semble donc pas être en voie de disparaître.

ZDnet : [http://news.zdnet.fr/story/0,,t118-s2133509,00.html

^ Haut
Avenir
Nanotechnologies et Robotique
Du cuivre résistant à la rupture obtenu par des chercheurs français
Samedi, 19/04/2003 - 00:00

Un cuivre particulièrement fin, dit "nanocristallin" et composé de grains jusqu'à mille fois plus petits que le métal classique, peut être étiré de 10 à 15 % de sa taille initiale à température ambiante sans se rompre, ce qui permet d'envisager des applications industrielles intéressantes, révèlent des chercheurs français dans un article publié dans la revue "Science".Fabriqué à partir d'une poudre obtenue par la technique d'évaporation-condensation de gouttes microscopiques de cuivre en fusion puis compactée et extrudée, le cuivre nanocristallin est composé de cristaux d'une centaine de nanomètres (milliardièmes de mètre), alors que le cuivre couramment utilisé, microcristallin, est formé de grains cent à mille fois plus gros. Selon les auteurs de l'étude, dirigée par Yannick Champion, du Centre d'études de Chimie Métallurgique du CNRS (CECM, Vitry-sur-Seine), et Patrick Langlois, du Laboratoire d'ingénierie des matériaux et des hautes pressions (LIMHP, Villetaneuse), le cuivre nanocristallin présente un comportement élasto-plastique quasi parfait, phénomène "qui n'avait encore jamais été observé". Quand on étire un matériau classique, a expliqué à l'AFP Sandrine Guérin-Mailly (CECM), co-signataire de l'article, plus la force appliquée est importante, plus il se déforme. Mais au bout d'un certain temps apparaissent des fissures qui finissent par provoquer sa rupture. Dans le cuivre nanocristallin, la traction entraîne une déformation homogène, et le métal se comporte comme un élastique : si on arrête de tirer, il revient à sa taille initiale. "On passe ensuite à une déformation plastique qui n'est pas totalement réversible", a précisé la scientifique. "Les cristaux glissent alors les uns par rapport aux autres, ce qui empêche l'apparition des fissures. Cette déformation importante sans rupture est connue sous le nom de superplasticité." Cette avancée dans la compréhension des propriétés des matériaux nanocristallins pourrait, à terme, faciliter la production de structures plus complexes et de matériaux plus performants. "On pourrait par exemple étirer les fils électriques avec des méthodes plus pratiques et moins chères, en augmentant leur résistance à la déformation", a ajouté Sandrine Guérin-Mailly.

Science du 11-04-2003 :

http://www.sciencemag.org/cgi/content/abstract/300/5617/310?etoc

^ Haut
Matière
Matière et Energie
Intel lance un nouveau Pentium 4 plus rapide
Samedi, 19/04/2003 - 00:00

Le premier fabricant mondial de semi-conducteurs Intel a lancé le 14 avril deux nouveaux produits destinés au segment haut de gamme du marché informatique: une nouvelle version de son micro-processeur Pentium et un jeu de processeurs intégrés permettant de téléphoner via internet tout en téléchargeant de la musique numérique. Intel a précisé que son nouveau Pentium 4, dont la vitesse d'horloge atteindra trois gigahertz, sera équipé d'un bus de données de 800 megahertz, 50 % plus rapide que les 533 megahertz du précédent Pentium 4 de trois gigahertz. Ces taux de transfert de données plus élevés sont importants pour les applications consommant beaucoup de mémoire comme le montage vidéo et certains jeux. La vitesse d'horloge d'une puce renvoie au nombre de cycles que cette puce peut effectuer en une seconde - dans ce cas, trois milliards. La vitesse du bus de données renvoie quant à elle à la vitesse avec laquelle les données peuvent être transférées entre différentes unités à l'intérieur d'un PC ou d'un poste de travail. Le nouveau jeu de processeurs intégrés, baptisé 875P et auparavant connu sous le nom Canterwood, est compatible avec la norme d'interface graphique AGP 8x et des connexions périphériques via USB et des appareils audio. Intel a ajouté que son jeu de processeurs intégrés comportait au moins deux innovations: un système du nom de Performance Acceleration Technology permettant d'accélérer le transfert de données entre le processeur central et la mémoire et une nouvelle architecture de réseau qui, combinée avec d'autres produits, pourrait permettre de doubler la bande passante.

Reuters : http://fr.news.yahoo.com/030414/85/359ey.html

Une nouvelle approche dans la fusion nucléaire
Samedi, 19/04/2003 - 00:00

Depuis les années 1950, nombre de scientifiques ont tenté de maîtriser la fusion nucléaire. Le phénomène de fusion d'atomes légers comme l'hydrogène pour former des atomes d'hélium correspond à ce qui se produit au sein de notre Soleil. La technologie, si elle était mise au point, ouvrirait la voie à des centrales nucléaires plus efficaces et plus propres (sans production de déchets radioactifs de longue vie). Mais le défi scientifique est de taille. Pour produire un plasma chaud capable de déclencher les processus de fusion, certains proposent d'employer un puissant laser tandis que d'autres préconisent l'utilisation de rayons X. C'est ainsi que des chercheurs du Sandia National Laboratory ont eu l'idée de créer un dispositif inédit. Une capsule d'hydrogène est placée au centre d'un cylindre formé par 360 fils de tungstène. Pendant quelques milliardièmes de seconde, un accélérateur appelé Z crée un courant électrique qui vaporise les fils de tungstène, produisant une onde de choc vers le centre. Cette onde génère alors des rayons X qui chauffent les atomes de deutérium (un isotope de l'hydrogène) contenus dans la capsule, pour atteindre 11 millions de degrés Celsius. Une température suffisante pour déclencher une mini explosion thermonucléaire. Aujourd'hui, la machine Z est capable de générer un tir de ce type par jour. Une centrale s'inspirant de cette technologie devrait pouvoir en produire un toutes les quelques secondes. Tout cela reste donc encore au stade de l'expérimentation.

NYT : http://www.nytimes.com/2003/04/08/science/physical/08FUSI.html

Un réseau énergétique national sous le sol américain est envisageable à long terme
Samedi, 19/04/2003 - 00:00

Pour mettre un terme aux pénuries énergétiques comme celle qu'a connues la Californie en 2000 et 2001, certains rêvent d'un gigantesque réseau de tuyaux souterrains capable d'acheminer l'électricité aux quatre coins des Etats-Unis. Un projet technologiquement réalisable mais coûteux, estime le groupe de chercheurs chargé d'examiner la question. "On pourrait parfaitement imaginer de construire ce système en 20 ans", explique Tom Overbye, professeur à l'Université de l'Illinois, qui a participé à l'étude. Le réseau serait formé de lignes supraconductrices à basse température, à l'intérieur desquelles circulerait de l'hydrogène liquide réfrigérant. Une telle construction permettrait de transporter d'importantes quantités d'électricité sur de longues distances, rapidement et presque sans pertes, contrairement aux réseaux locaux ou régionaux actuels conçus pour distribuer l'énergie près de la source de production. De plus, l'hydrogène liquide pourrait être récupéré et utilisé pour le fonctionnement de véhicules à piles de nouvelle génération. Seul hic, le coût de ce travail pharaonique atteindrait, selon les experts, "quelques mille milliards de dollars sur 50 à 100 ans".

USAT 10/04/03 :

http://www.usatoday.com/tech/news/techinnovations/2003-04-10-super-grid_x.htm

^ Haut
Espace
Espace et Cosmologie
La France défend un "accès autonome" de l'Europe à l'espace
Samedi, 19/04/2003 - 00:00

Jacques Chirac a déclaré mardi que la France jouerait un "rôle moteur pour que l'Europe maintienne son autonomie d'accès à l'espace". "La maîtrise de l'espace est un enjeu stratégique", a rappelé le chef de l'Etat lors du conseil des ministres. "La France y a beaucoup investi et elle doit jouer un rôle moteur pour que l'Europe maintienne son autonomie d'accès à l'espace", a-t-il ajouté, dans des propos rapportés par le porte-parole du gouvernement Jean-François Copé.

Jacques Chirac s'exprimait à l'issue d'une communication de la ministre déléguée à la Recherche Claudie Haigneré sur la politique spatiale. Comme Jacques Chirac, Mme Haigneré a souligné la nécessité d'une "ambition européenne" pour un "accès autonome" de l'Europe à l'espace. "On a une ambition européenne qui représente des enjeux stratégiques, politiques forts d'un accès autonome à l'espace", a déclaré Mme Haigneré, qui présentait une communication sur la politique spatiale au conseil des ministres. "C'est vraiment un enjeu d'indépendance." L'ancienne spationaute a souhaité que l'Europe passe à une "autre étape" de sa politique spatiale lors de la réunion fin mai des ministres chargés de l'Espace. La France propose que l'Agence spatiale européenne (ESA), organisme intergouvernemental, passe sous le contrôle direct de l'Union européenne. Claudie Haigneré a insisté à cet égard sur "l'enjeu stratégique" du lanceur Ariane pour l'Europe. "La filière des lanceurs est le premier objectif qu'on doit se fixer, puisqu'il nous faut un lanceur fiable, compétitif pour être présents sur le marché des lanceurs institutionnels et le marché commercial", a-t-elle expliqué. La France va maintenir sa contribution à l'ESA jusqu'en 2009. La ministre déléguée à la Recherche a reconnu que tous les Etats-membres de l'ESA n'étaient pas dans cet état d'esprit. "Nous devons aussi avoir les autres Etats-membres européens dans le même esprit de solidarité pour cette filière lanceurs", a-t-elle dit, même si "la sensibilité de la plupart des Etats-membres est de reconnaître cet enjeu stratégique". Jacques Chirac a également appelé de ses voeux une réorganisation du Centre national d'études spatiales (CNES). "Elle a été trop longtemps différée, et cela nous a desservi", a estimé le chef de l'Etat.

AP : http://fr.news.yahoo.com/030415/5/35bov.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le mystère des bulles de méthane marin
Samedi, 19/04/2003 - 00:00

Le réchauffement climatique est-il provoqué par des dégazages massifs de méthanes en provenance des fonds marins? Parmi les nombreuses questions encore sans réponse liées à l'effet de serre, celle-ci a animé les débats la semaine dernière au congrès international des géosciences à Nice. «La plupart des modèles climatiques ont été faits sans prendre en compte les échanges de méthane entre les fonds marins et l'atmosphère, ce qui fait actuellement l'objet d'un débat», explique Jean-Paul Foucher, responsable du programme hydrates de gaz à l'Ifremer. Un article paru il y a deux mois dans la revue Science a d'ailleurs apporté de l'eau au moulin des défenseurs de cette thèse. Les hydrates de gaz, ces blocs de glace présents au fond des mers qui renferment du méthane dans leurs cavités, sont encore assez mal connus. Certains chercheurs estiment aujourd'hui que ceux-ci contiennent deux fois plus de carbone que la totalité des gisements connus de gaz naturel, pétrole et charbon. Gerald Dickens, de l'université d'Ann Arbor au Michigan, a ainsi montré en 1997 qu'une zone de 26 000 kilomètres carrés, au large de la côte sud-est des États-Unis, contenait 35 milliards de tonnes de carbone, soit 105 fois la consommation annuelle de gaz naturel des États-Unis de l'époque. C'est une réserve énergétique gigantesque (entre 5 000 milliards et 30 000 milliards de tonnes selon les estimations), mais pour l'instant inaccessible. Car ils sont dispersés dans les sédiments et ne peuvent être exploités par des forages conventionnels. Des scientifiques ont découvert récemment que les hydrates soutenaient une vie microbienne riche et diverse. Certains microbes consomment en effet du méthane et, agissant comme un filtre, en retiennent en grandes quantités, qui pourraient se libérer subitement, s'inquiètent certains chercheurs. «Si on les fait fondre, ce volume solide libère un volume de gaz correspondant à 160 fois son volume», explique en effet Jean-Paul Foucher. «La question, qui n'est pas tranchée aujourd'hui, est de savoir comment se font les échanges entre ces résidus de méthane et l'atmosphère», poursuit-il. Pour certains chercheurs, il se forme de grosses bulles qui remontent à la surface. De quoi entraîner des conséquences dramatiques, comme des glissements de terrain. En témoigne le gigantesque effondrement marin intervenu voici environ 170 000 ans à proximité des côtes nord de la Nouvelle-Zélande. Le Sud-Africain Evan Nisbet a lancé, au début des années 90, l'idée que les fluctuations climatiques entre glaciations et périodes chaudes venaient de ces dégazages de méthane, une idée admise par une partie des climatologues. De là à affirmer que ce mécanisme est de nature à accélérer le réchauffement climatique, il n'y a qu'un pas, que certains ont franchi. C'est la thèse défendue depuis plusieurs années par James Kennett, baptisée «l'hypothèse du coup de revolver de l'hydrate», exposée dans un ouvrage paru l'année dernière, que Science considère comme «le livre scientifique le plus controversé du nouveau millénaire». L'idée est qu'un réchauffement des eaux de surface et des eaux intermédiaires entraîne une propagation d'eaux chaudes vers les sédiments dont les corps solides, en fondant, libèrent des gaz. De telle sorte que l'interaction serait réciproque entre les deux phénomènes: non seulement le réchauffement climatique contribue à faire fondre ces hydrates de méthane, mais ces derniers contribuent, une fois libérés dans l'atmosphère, à accélérer le réchauffement. Reste à savoir si c'est bien du méthane qui est diffusé dans ce cas à la surface ou s'il s'est transformé en gaz carbonique après oxydation. L'article consacré au sujet dans Science montre que, dans le cas précis d'une expérience menée à Santa Barbara et sur une échelle de temps relativement courte, c'est bien du méthane qui arrive à la surface après sa libération. Cette thèse ne fait pas l'unanimité au sein de la communauté scientifique. «Cette hypothèse n'est pas compatible avec ce que nous observons dans les carottes de glace que nous prélevons, témoins de l'atmosphère», estime ainsi Jérôme Chappellaz, paléoclimatologue au Laboratoire CNRS de glaciologie de Grenoble. Pour lui, «même s'il a peut-être existé des dégazages de méthane, les teneurs en méthane ont varié dans l'atmosphère d'environ 1/10 de degré sur environ 10 000 ans, ce qui est tout à fait négligeable. Pour estimer que le méthane représente une force motrice dans le changement climatique, il faudrait des teneurs deux à trois fois plus élevées que ce qu'on a observées». Par ailleurs, «si une augmentation de température contribue à déstabiliser les hydrates, l'augmentation du niveau des mers, qui élève la pression de l'eau, a elle pour effet inverse de stabiliser ces derniers». Et de conclure: «Entre les deux, qu'est-ce qui prendra le dessus à l'avenir? Nous l'ignorons.»

Figaro : http://www.lefigaro.fr/sciences/20030415.FIG0151.html

Le projet de Charte de l'Environnement a été rendu public
Samedi, 19/04/2003 - 00:00

Ancrer le droit de l'Environnement dans la Constitution, Jacques Chirac n'en fait pas mystère, est un de ses projets phares. Il a présenté mardi, en Conseil des ministres, sa vision de la future Charte de l'Environnement : "un texte ambitieux" qui établisse les principes d'une "écologie humaniste". Le gouvernement a confirmé qu'il comptait présenter en juin un projet de loi constitutionnelle pour permettre l'inscription de ce texte dans le préambule de la Constitution. La commission de 18 membres présidée par le paléontologue Yves Coppens, qui a planché pendant près d'un an sur ce texte, a remis sa copie le 6 avril à Roselyne Bachelot. "Il s'agit d'une nouvelle étape de notre pacte républicain, d'une avancée constitutionnelle qui va fonder une nouvelle relation entre l'homme et la nature", a estimé la ministre de l'Ecologie. Le préambule de la Constitution fera directement référence aux "droits et devoirs définis dans la Charte de l'Environnement de 2003", donnant ainsi valeur constitutionnelle au texte, selon le projet de la commission Coppens. "Cela signifie que plus aucune loi ne pourra s'affranchir de ces principes constitutionnels", a expliqué la ministre de l'Ecologie. Un projet de loi portant gravement atteinte à l'environnement pourrait ainsi "être retoqué par le Conseil constitutionnel", a-t-elle ajouté. Le projet de Charte, rendu public mardi, comporte 14 points, dont le plus sensible comporte deux versions. "Il n'y a jamais eu de conflit au sein de la commission. Il y a eu des débats parfois un peu vifs", a assuré Yves Coppens, qui a préféré que le projet soit le reflet de ces débats plutôt que de faire adopter un texte à la majorité. Le texte propose ainsi deux versions de son article 12 : l'une pose noir sur blanc les principes de précaution, de prévention et de pollueur-payeur, l'autre évoque la mise en oeuvre de "mesures de précaution", mais sans référence à un principe quelconque. "Ni l'une ni l'autre de ces versions ne remet en cause la précaution", a tenu à préciser Roselyne Bachelot. Le gouvernement va maintenant s'appuyer sur ces propositions pour rédiger son projet de loi constitutionnelle.

TF1 : http://www.tf1.fr/news/france/0,,1025549,00.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Pneumopathie atypique : le décryptage du génome du virus ouvre la voie vers un vaccin
Samedi, 19/04/2003 - 00:00

Les scientifiques espèrent mettre au point "en quelques semaines" un vaccin contre la pneumonie atypique qui a fait plus de 130 morts dans le monde, a déclaré lundi 14 avril le Dr Marco Marra, directeur du laboratoire de Vancouver (Canada) affirmant avoir séquencé le génome du coronavirus suspecté d'être à l'origine de la maladie. . Des scientifiques d'un laboratoire de Colombie britannique ont en effet annoncé le 12 avril avoir séquencé le génome du coronavirus soupçonné d'être à l'origine de l'épidémie. Le décryptage du code génétique de ce coronavirus pourrait permettre de confirmer qu'il est bien à l'origine du syndrome respiratoire aigu sévère (SARS) et, le cas échéant, de dépistage de la maladie, selon les chercheurs du centre de sciences génomiques Michael Smith de Vancouver : « On pourrait utiliser certaines parties du génome de ce virus pour dépister les patients infectés », a expliqué le docteur Marco Marra, directeur de ce laboratoire, qui fait partie de l'agence anti-cancer de la province canadienne de Colombie britannique. Les informations contenues dans le génome « vont aussi nous dire si le SARS ressemble à d'autres virus et nous ouvrir des pistes pour comprendre la biologie de ce virus », a poursuivi le médecin. "Je pense que cela nous aidera à mettre au point un vaccin dans des temps très brefs, en quelques semaines", a ajouté le chercheur. "Nous avons engagé une course contre la montre pour arriver à ce résultat. Nous avons porté une trace du virus au laboratoire de microbiologie de Winnipeg, le plus sûr du pays, où nous l'avons cultivé et purifié. Le matériel génétique a ensuite été transféré chez nous à Vancouver", a précisé le Dr Marra. "Trente de nos chercheurs ont suspendu tous leurs travaux en cours pour établir en un temps record la carte du virus", a-t-il souligné. Interrogé sur la propagation de l'épidémie, le Dr Marra estime que "les mesures pour la contenir ont été très efficaces". "Nous savons qu'en milieu hospitalier, l'infection ne se propage pas si le personnel soigne les malades avec les précautions adéquates (masques, gants...)", a-t-il souligné. "Je ne crois pas que l'Asie produise plus de maladies que le reste de la planète mais la forte concentration d'habitants est propice à l'apparition de nouveaux agents infectieux", a-t-il ajouté. L'Organisation mondiale de la santé (OMS) a qualifié ce progrès de «pas extraordinaire». Les résultats de cette découverte seront affichés sur le site internet de laboratoire. Ces résultats sont disponibles sur l'internet (www.bcgsc.bc.ca) pour aider les chercheurs du monde entier. La Chine est le pays le plus durement frappé par cette maladie nouvelle dont le bilan mondial est de près de 120 morts pour plus de 3000 cas dans une trentaine de pays. Dans ce contexte, l'OMS a décidé de renforcer son groupe d'experts en Chine, où la maladie serait apparue pour la première fois. L'OMS pense que l'épidémie a débuté en novembre dans la province méridionale du Guangdong, en Chine, avant de passer ensuite à Hong Kong et s'étendre dans le monde entier. Plusieurs reprochent à la Chine ses manquements initiaux qui ont conduit à la situation actuelle, le gouvernement s'étant montré surtout soucieux de minimiser sa gravité afin de ne pas faire du tort au secteur du tourisme en pleine expansion ni aux relations d'affaires internationales. Le ministère de la Santé chinois a toutefois annoncé l'envoi d'un millier de médecins dans tout le pays afin d'examiner les patients hospitalisés pour des affections respiratoires, des rhumes ou une pneumonie et établir s'ils ont été ou non infectés par le SRAS.

Brève rédigée par @RT Flash

Radio-Canada :

http://radio-canada.ca/nouvelles/International/nouvelles/200304/13/003-SRAS-asie...

Le séquençage du génome du coronavirus du SRAS : http://www.bcgsc.bc.ca

Pneumonie: confirmation par l'OMS de la responsabilité du coronavirus
Samedi, 19/04/2003 - 00:00

L'Organisation mondiale de la santé (OMS) a annoncé mercredi que le virus à l'origine du syndrome respiratoire aigu sévère (SRAS) avait été formellement identifié. Les chercheurs de Hong Kong qui ont décrypté son code génétique ont quant à eux confirmé qu'il avait été transmis à l'homme par des animaux. Le virus mortel a fait huit nouvelles victimes en Asie mercredi: cinq décès ont été enregistrés à Hong Kong, deux à Singapour et un dans la province chinoise de Canton, où l'épidémie serait née. Au total 162 personnes sont mortes dans le monde, principalement en Asie, et plus de 3.000 personnes ont été contaminées dans près de 25 pays. L'OMS a précisé depuis Genève que le virus mortel avait été identifié par des chercheurs de l'université Erasmus de Rotterdam (Pays-Bas). Ces derniers ont inoculé le coronavirus à des singes et ont découvert que les animaux développaient des symptômes identiques à ceux de l'homme. Ce test constitue une étape-clé dans la vérification des causes de cette pneumonie atypique. Par ailleurs, des chercheurs hongkongais ont maintenu que ce virus avait été transmis à l'homme par des animaux. "Ce virus n'existe pas à l'origine chez les humains, il vient vraiment d'animaux", a affirmé Yuen Kwok-yung, microbiologiste de l'université de Hong Kong lors d'une conférence de presse. Pour les scientifiques, ce virus est une nouvelle version du coronavirus, qui provoque des rhumes chez les hommes. "Ce virus ne ressemble à aucun des virus humains ou animaux connus", a observé Malik Peiris, un autre microbiologiste de l'équipe de Hong Kong. "C'est quelque chose qui est nouveau pour la science." De plus amples recherches seront nécessaires pour déterminer l'espèce animale responsable de la transmission de la maladie à l'homme. Les chercheurs de l'université de Hong Kong constituent la troisième équipe à publier le code génétique de ce virus depuis le week-end dernier. Ils estiment, sans avoir pu le prouver, qu'une mutation du virus initial pourrait être à l'origine de la contamination de 300 personnes dans une seule résidence de l'ex-colonie britannique. La Chine, d'où la maladie serait originaire, a enregistré mercredi son 65e décès dû à la maladie. L'Organisation mondiale de la santé juge que le pays a minoré le nombre de cas de pneumonie atypique. Selon l'OMS, les hôpitaux militaires de Pékin n'auraient pas communiqué leurs chiffres, et 100 à 200 personnes auraient été infectées à Pékin, contre 37 officiellement. Quatre d'entre elles seraient mortes, sans que les autorités chinoises l'ait annoncé. L'OMS souhaite à présent se pencher sur la situation dans d'autres provinces qui pourraient être touchées. La gravité de l'épidémie est imputée en partie au silence des responsables officiels chinois. La pneumonie atypique, qui a débuté en novembre dans le Guangdong, province voisine de Hong Kong, n'avait été révélée hors de Chine que le 12 mars. Singapour, troisième foyer de l'épidémie en Asie - mais 4ème dans le monde après le Canada -, a annoncé trois décès supplémentaires. Il s'agit de proches de gens déjà malades. La virulence du SRAS inquiète le monde entier et les mesures de contrôle de voyageurs se renforcent et s'étendent après les simples mises en gardes lancées le mois dernier. En Australie, les personnes en provenance des régions frappées par l'épidémie seront interdites dans les hôpitaux pendant une période de dix jours suivant leur arrivée sur le territoire national, ont annoncé les autorités sanitaires. Le Pr Richard Smallwood a affirmé que seuls les malades nécessitant des soins intensifs pourront être accueillis tandis que les autres devront retarder leurs venue à l'hôpital. "La majorité des contaminations du SRAS dans le monde ont eu lieu dans des hôpitaux" a-t-il souligné.

AP : http://fr.news.yahoo.com/030416/5/35eap.html

Une pneumonie atypique qui recèle encore des mystères
Samedi, 19/04/2003 - 00:00

En moins de deux mois, les connaissances sur la pneumonie atypique, qui a tué plus de cent personnes dans le monde, ont fait de remarquables progrès mais la maladie conserve encore des mystères, en particulier ses divers modes possibles de transmission.Un nouveau coronavirus, membre d'une famille de virus responsables des rhumes habituellement bénins, est considéré comme la cause "la plus probable" de ce syndrome respiratoire aigu sévère (SRAS), selon Wolfgang Preiser, membre de l'équipe de l'OMS de retour de l'épicentre apparent de l'épidémie, la province méridionale chinoise du Guangdong, qui a enregistré plus de cas et de morts que nulle part ailleurs au monde. Reste à confirmer la présence du virus dans les prélèvements effectués par les Chinois où ils indiquent avoir détecté des bactéries, de type chlamydiae, connues pour être, en autres, responsables de pneumonies. La détection d'autres agents tels des paramixovirus chez certains malades pose également la question d'une "co-infection" qui jouerait un rôle dans les formes graves de la maladie. "Il faut encore regarder, vérifier si ce +virus associé au SRAS+, tue les cellules au niveau pulmonaire" avant d'affirmer définitivement sa responsabilité, estime Jean-Paul Gonzalez, chercheur basé en Thaïlande (IRD, Institut de recherche pour le développement), même si certains de ses confrères à l'OMS "y croient à 90 %". En l'état des connaissances, "quand on trouve le nouveaux coronavirus, cela confirme un cas présumé, mais quand on ne le trouve pas cela n'exclut pas un SRAS", résume le Dr Isabelle Nutall du Département des Maladies transmissibles Surveillance et Action (CSR) de l'OMS. "On ne dispose pas encore de tests rapides, en particulier pour détecter des personnes infectées avant qu'elles ne développent les premiers signes de la maladie", rappelle-t-elle. La précision des premiers tests disponibles est d'ailleurs encore en cours d'évaluation. "Dans la plupart des cas, l'enquête épidémiologique retrouve la piste d'un contact proche avec un malade", souligne Daniel Levy-Bruhl de l'Institut national de Veille sanitaire (InVS). Mais dans un certain nombre de situations, il n'y a pour l'instant pas d'explication satisfaisante et diverses hypothèses sont explorées", ajoute-t-il. Entre-temps, une adaptation du virus le rendrait plus contagieux, l'une des hypothèses les plus inquiétantes qui ait été avancée dans ce débat médical. Premier mystère, le cas de l'hôtel Métropole à Hong Kong. Plusieurs cas de SRAS ont touché des clients d'un étage de l'hôtel où avait séjourné un médecin chinois, venu de Canton. Ce médecin avait soigné des malades atteints de pneumonie. Mais "aucun membre du personnel n'a été touché", a affirmé à l'AFP le Dr Guénaël Rodier de l'OMS. Diverses hypothèses sont également soulevées pour expliquer un autre mystère, l'étonnante concentration de cas dans l'immeuble d'Amoy Gardens à Hong Kong (268 sur 842 cas à Hong Kong lundi). Parmi celles-ci, "le contact avec un objet dans l'environnement servant d'intermédiaire pour le passage du virus d'une personne à l'autre". La climatisation individuelle dans cet immeuble ne semble pas en cause, selon le Dr Garnier. "La théorie des cafards a été éliminée, des rats aussi", a aussi déclaré mercredi à l'AFP le Dr Isabelle Nutall à propos de cet immeuble. "L'hypothèse d'une autre voie de transmission par l'intermédiaire de l'évacuation des eaux usées reste encore explorée", relève-t-elle. "La transmission oro-fécale est à envisager", précise Jean-Paul Gonzalez. Tous s'accordent sur une mesure d'hygiène de base -"se laver les mains"-, même si les postillons des malades peuvent transmettre le virus.

AFP : http://fr.news.yahoo.com/030409/202/3518m.html

Des chercheurs américains vont tester 2.000 médicaments contre le SRAS
Samedi, 19/04/2003 - 00:00

Des chercheurs américains vont tester quelque 2.000 médicaments déjà disponibles ou en cours d'élaboration, dans l'espoir de trouver un remède à la pneumonie atypique qui a déjà fait plus de 110 morts dans le monde. Il n'existe pas actuellement de remède au syndrome respiratoire aigu sévère (SRAS), seulement des traitements contre les symptômes de la maladie. Les chercheurs sont presque sûrs que le SRAS est causé par un nouveau membre de la famille des coronavirus, responsables notamment des banals rhumes. L'Institut national américain de l'allergie et des maladies infectieuses compte tester la trentaine de médicaments anti-viraux sur le marché, quelque 800 traitements mis au point à d'autres fins et un millier d'autres qui sont en cours d'élaboration. Les analyses ont commencé à l'Institut de recherche médicale de l'armée de terre pour les maladies infectieuses à Fort Detrick, dans le Maryland. Le laboratoire peut tester entre 150 et 200 médicaments par semaine. Mais jusqu'ici "rien ne semble très prometteur", reconnaissait mercredi le chercheur Peter Jahrling. Parmi les médicaments étudiés, beaucoup sont destinés à empêcher les virus de se reproduire dans l'organisme. Bien que presque tous ces traitements aient été conçus pour lutter contre d'autres agents pathogènes, les chercheurs estiment qu'il y a une chance qu'ils soient également efficaces sur les coronavirus. Si ce n'était pas le cas, la solution serait alors de concevoir un médicament ad hoc. Au moins un laboratoire, AVI BioPharma, basé à Portland, s'est déclaré en mesure de produire un nouveau traitement rapidement. La firme a déjà produit des médicaments expérimentaux contre les coronavirus pour les chats et les souris. Des responsables américains ont également déclaré qu'ils pourraient élaborer un traitement en une semaine à condition de disposer du code génétique du virus, dont les Centres américains pour le contrôle et la prévention des maladies (CDC) espèrent terminer le décryptage bientôt.

WP : http://www.washingtonpost.com/wp-dyn/health/

Tabagisme passif : 3 fois plus de morts que les accidents du travail!
Samedi, 19/04/2003 - 00:00

Selon une étude menée en Grande-Bretagne, 1200 personnes par an , plus de trois personnes par jour, meurent à cause de la fumée de cigarette qu'elles ont respiré sur leur lieu de travail. Soit trois fois plus que les victimes d'accidents du travail. Trois millions de personnes seraient ainsi exposées aux volutes de tabac dans ce pays. "En France, un million de personnes sont exposées au tabagisme passif. Lequel provoque 2.500 à 3.000 morts par an à la suite de maladies respiratoires et de maladies cardio-vasculaires notamment. Une centaine de bébés en décèdent également ", explique Bertrand Dautzenberg, professeur de pneumologie à l'hôpital de La Pitié-Salpétrière et président de l'Office français de prévention du tabagisme (OFT), qui avait dirigé une étude sur ce thème. "L'effet du tabagisme passif est très rapide au niveau cardio-vasculaire. On constate une intoxication principalement par l'oxyde de carbone", ajoute le spécialiste. Que l'on fume ou que l'on soit exposé à la fumée, les pathologies sont les mêmes, précise le professeur Dautzenberg. Toutefois, le tabagisme passif provoque davantage de cancers du nez, de maladies cardiovasculaires et d'infections de jeunes enfants. Mais le professeur Dautzenberg, comme les autorités sanitaires britanniques, soulignent que "l'action du tabagisme passif est indiscutable statistiquement mais reste encore difficile à prouver au niveau d'un individu", note-t-il. Si l'interdiction de fumer est de mieux en mieux respectée sur le lieu de travail et dans certains lieux publics il n'en va pas de même dans les bars, pubs et restaurants ou, pour des raisons à la fois commerciales et culturelles, il reste difficile d'interdire l'usage du tabac.Mais à mesure que les dangers du tabagisme passif sont démontrés scientifiquement les législations et règlements ne cessent de se durcir, tant au niveau national que local. C'est ainsi que la Californie est devenue en 1998 le premier état du monde à interdire totalement le tabac dans tous les lieux publics, ouverts ou fermés. La ville de New York, pour sa part vient d'interdire totalement le tabac dans ses 13000 bars et restaurants.

Brève rédigée par @RT Flash

BBC : http://news.bbc.co.uk/1/hi/uk_politics/2935705.stm

Percée dans le traitement de Lou Gehrig
Samedi, 19/04/2003 - 00:00

Des souris génétiquement modifiées porteuses du gène codant superoxide dismutase (SOD1)- responsable d'environ 2 % des cas de sclérose latérale amyotrophique (SLA) - ont vu leur durée de vie prolongée par l'ingestion combinée de minocycline, de riluzole et de nimodipine. Cette découverte d'une équipe de neurologues de l'Institut de recherche du Centre universitaire de santé McGill à Montréal est publiée dans le numéro d'avril des Annals of Neurology. La maladie s'attaque aux neurones moteurs - motoneurones - qui contrôlent les muscles volontaires de tout le corps. Elle entraîne progressivement la paralysie complète et l'incapacité de parler ou d'avaler. Les malades conservent toutefois leurs facultés intellectuelles. En moyenne, le décès survient de 3 à 5 ans après le diagnostic. Il existe deux formes de SLA. Dans 90 % des cas, elle frappe les individus au hasard. Le 10 % restant est de nature héréditaire. La SLA survient généralement chez les personnes âgées de 45 à 65 ans. « Deux tiers des malades sont des hommes. Il y aurait donc des facteurs hormonaux en plus d'une prédisposition génétique », selon Jean-Pierre Julien, chercheur principal de l'étude. La longévité des souris SLA ayant bénéficié de la trithérapie s'est accrue de 6 semaines. Les souris porteuses du gène SOD1 vivent en moyenne 48 semaines tandis qu'une souris normale jouit d'une espérance de vie de 2 à 3 ans. Selon Monique D'Amour, neurologue responsable de la recherche sur la SLA au CHUM, les souris tolèrent très bien la trithérapie. « Des essais cliniques chez les patients atteints de la SLA devraient être entamés très bientôt. Les trois médicaments sont déjà sur le marché et l'étude est plus que concluante chez les souris », souligne le Dr Jean-Pierre Julien.

Cybersciences : http://www.cybersciences.com/cyber/3.0/N3176.asp

Maladies cardio-vasculaires: la prise en charge des facteurs de risque est indispensable
Samedi, 19/04/2003 - 00:00

Avec 180.000 décès par an, les maladies cardiovasculaires (infarctus du myocarde et accidents vasculaires cérébraux) restent la première cause de mortalité en France. Leur prévention, par la prise en charge des différents facteurs de risque, et plus spécifiquement des "quatre bourreaux du coeur" que sont le tabagisme, l'hypertension, l'obésité et l'hypercholestérolémie, peut avoir une influence considérable sur l'évolution de ces maladies. Le tabac, on le sait, représente à lui seul une grande menace pour les artères, notamment les artères coronaires (du coeur), les artères des jambes et les artères cérébrales (risque de paralysie). L'oxyde de carbone qu'il contient prend la place d'une partie de l'oxygène transporté par le sang et favorise les dépôts de cholestérol sur la paroi des artères. La nicotine accélère les battements du coeur, augmente le tension artérielle, fait baisser le "bon cholestérol", augmente l'agrégation des plaquettes sanguines et favorise la formation des caillots. Le cholestérol, substance indispensable à notre organisme, peut devenir dangereux lorsque son taux dans le sang dépasse 2g/l. Le cholestérol en excès se dépose sur la paroi des artères, notamment celles du coeur (artères coronaires), formant des plaques graisseuses qui s'épaississent au fil des ans (athérosclérose) et qui finissent par boucher les artères. Pour l'éviter, faites trois repas par jour, à peu près équivalents, en commençant la journée par un petit déjeuner copieux. Limitez l'usage des graisses saturées (celles qui se figent en refroidissant telles que le beurre ou les fromages gras), utilisez des margarines végétales riches en graisses poly-insaturées (les autres graisses) et évitez l'excès d'aliments sucrés. Tout comme l'excès de cholestérol sanguin, l'hypertension artérielle atteint toutes les artères. Elle correspond à une pression trop élevée du sang dans les artères et favorise le dépôt de graisse sur leur paroi, avec les mêmes conséquences. En outre, elle contraint le coeur, soumis à la forte résistance opposée par les artères, à une surcharge de travail, le fatigue prématurément et provoque sa défaillance. C'est ce que l'on appelle l'insuffisance cardiaque. Enfin, sans effort physique régulier, le muscle cardiaque perd sa puissance de contraction. Il reçoit et envoie de moins en moins de sang dans le corps, donc moins d'oxygène aux muscles et aux organes; il récupère moins vite après l'effort. En développant le muscle cardiaque, l'exercice physique régulier lui donne une réserve de puissance. Un coeur plus musclé travaille plus longtemps sans défaillance, envoie plus de sang dans l'organisme. Chaque fois que cela vous est possible, préférez la marche à la voiture, montez les escaliers, pratiquez le jardinage et le bricolage, selon vos goûts.

AP : http://fr.news.yahoo.com/030415/5/35btb.html

Y-a-t-il une dépendance au "fast food"
Samedi, 19/04/2003 - 00:00

De nouvelles découvertes, portant sur les effets biologiques de la restauration rapide, montrent que devenir obèse à cause d'une alimentation trop grasse et trop sucrée n'est pas simplement imputable à un défaut de maîtrise de soi. Certains scientifiques pensent qu' une consommation abondante d'aliments excessivement riches en graisses et en sucres peut provoquer dans le cerveau et dans l'organisme des modifications biochimiques durables qui se traduisent, dans certains cas, par une véritable dépendance, à ce type de nourriture. La différence entre un repas de fast-food et un repas de cuisine familiale réside dans la quantité de calories et de graisses délivrées en une seule fois. Les apports journaliers recommandés par le ministère de l'Agriculture américain pour un homme sont de 2 800 kilocalories, les graisses étant limitées à 93 grammes. Un seul repas dans un fast-food, avec hamburger, frites, boisson et dessert, peut fournir l'intégralité de cette ration. Or un excès d'absorption de calories et de graisses est capable de provoquer chez un individu des modifications physiologiques réduisant au silence les signaux hormonaux qui lui commandent habituellement de poser sa fourchette. Les chercheurs ont découvert que certaines hormones jouent un rôle dans la régulation de l'appétit. Dans des conditions normales, ces hormones contrôlent l'alimentation et aident à maintenir un poids stable. La leptine, par exemple, est sécrétée continuellement par les cellules adipeuses, et son niveau dans le sang indique l'état des réserves du corps en graisses. Le signal est déchiffré par l'hypothalamus, région du cerveau qui coordonne le comportement alimentaire et sert à maintenir les réserves stables. Mais les personnes prenant du poids développent une résistance à l'action de la leptine, explique Michael Schwartz, endocrinologue à l'université de l'Etat de Washington, à Seattle : "Le cerveau perd sa capacité à tenir compte du signal envoyé par ces hormones au fur et à mesure de l'augmentation du taux de graisses dans le corps." Plus ces individus grossissent et plus ils produisent de leptine, plus l'hypothalamus y devient insensible. Finalement, l'hypothalamus interprète ce taux élevé comme étant normal, et par la suite considère systématiquement les chutes de leptine causées par une perte de poids comme un avertissement de manque de nourriture. Chacun peut perturber son système de régulation des graisses par la leptine bien avant de devenir obèse. Les dernières recherches suggèrent que quelques repas gras suffisent. Durant une étude rendue publique en décembre dernier, le physiologiste Luciano Rossetti, de la faculté de médecine Albert Einstein de New York, a soumis des rats à une alimentation riche en graisses. Il a découvert que les animaux avaient perdu presque toute leur capacité de réponse à la leptine après seulement soixante-douze heures de ce régime. Sarah Leibowitz, neurobiologiste à l'université Rockefeller de New York, dispose d'autres preuves indiquant que manger dans les fast-foods entraîne un besoin d'y retourner. Ses expériences montrent que la consommation d'aliments gras peut rapidement remodeler le système hormonal de l'organisme, qui exige alors encore plus de graisses. Ainsi les niveaux de galanine, peptide cérébral qui stimule l'alimentation et ralentit la dépense d'énergie, augmentent chez les rats ayant une alimentation riche en graisses. Sarah Leibowitz a découvert qu'il suffit d'un seul repas riche en graisses pour stimuler l'expression de la galanine dans l'hypothalamus. "C'est le point de départ d'un cercle vicieux", souligne-t-elle. D'autres travaux suggèrent que se gaver de graisses et de sucres provoque des transformations cérébrales habituellement associées à des drogues comme l'héroïne. Il est déjà fermement établi qu'alimentation et accoutumance sont étroitement liées. Pour de nombreux chercheurs étudiant les dépendances, les drogues créant un état d'accoutumance, comme la cocaïne et la nicotine, exercent leur attraction irrésistible en détournant les circuits de "récompense" du cerveau. John Hoebel, chercheur à l'université Princeton, dans le New Jersey, a voulu vérifier si nous pouvions devenir dépendants aux opioïdes naturels que nous libérons lorsque nous mangeons une grosse quantité de sucres. Il a récemment montré que des rats soumis à un régime contenant 25 % de sucre deviennentanxieuxlorsque ce sucre leur est tout à coup retiré. Leurs symptômes ressemblent à ceux d'une personne souffrant d'un manque de nicotine ou de morphine (claquements de dents, tremblements). Et, quand John Hoebel a distribué de la naloxone aux rats, un médicament qui bloque les récepteurs d'opioïdes, il a observé une chute brutale des niveaux de dopamine dans leur noyau accumbens et une libération d'acétylcholine dans leur cerveau. Ce sont les mêmes mécanismes que l'on observe chez une personne en manque d'héroïne. Même si les mécanismes en jeu sont encore loins d'être élucidés, il apparaît de plus en plus clairement que la consommation régulière d'un certain type de nourriture, trop grasse et trop sucrée, peut entraîner chez certaines personnes un véritable comportement addictif, proche de celui provoqué par la consommation de drogues.

BBC : http://news.bbc.co.uk/2/hi/health/2707143.stm

Les maladies cardio-vasculaires mieux soignées dès 2007
Samedi, 19/04/2003 - 00:00

Une nouvelle génération de médicaments plus efficaces dans le traitement des maladies cardio-vasculaires, du diabète et de l'obésité verra le jour en 2007 ou 2008, a annoncé mercredi le professeur Jean-Charles Fruchart, de l'Institut Pasteur de Lille. L'équipe du professeur Fruchart travaille depuis 1992 sur des molécules, les PPAR (peroxisome proliferator activator receptors), qui, lorsqu'elles sont activées, modifient l'expression des gènes pour notamment augmenter le taux de bon cholestérol. Le professeur Fruchart, qui vient de recevoir la médaille d'or de la fondation des sciences médicales Giovanni Lorenzini pour ses avancées dans ce domaine, a souligné les "prévisions alarmantes" en terme de mortalité coronarienne, citant l'estimation de 11,1 millions de victimes dans le monde en 2020, en nette progression par rapport aux 8 millions enregistrées en 2000. Dans ce contexte, les PPAR représentent "un énorme espoir", a souligné le Pr Fruchart lors d'une conférence de presse. Les travaux de son équipe suscitent désormais l'intérêt de 25 entreprises pharmaceutiques dans le monde, parmi lesquelles Novartis, Roche, AstraZeneca ou Genfit, laboratoire dirigé par le Pr Fruchart. Ces différentes entreprises pharmaceutiques développent déjà des activateurs de PPAR. Les maladies cardio-vasculaires sont la première cause de mortalité adulte en France et dans le monde. Le diabète notamment touchait 118 millions de personnes dans le monde en 1995 et devrait concerner 221 millions de personnes en 2010.

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=15155

Le clonage humain peut-être impossible avec les techniques actuelles
Samedi, 19/04/2003 - 00:00

Le clonage humain, mission impossible? Il semble en effet irréalisable, en l'état actuel de la science, de "copier" des êtres humains ou même des primates, selon des scientifiques qui suggèrent que les tentatives de clonage reproductif sur des singes ont échoué à cause d'un obstacle moléculaire fondamental. Dès la première étape, les cellules des primates clonés ne se divisent pas normalement et entraînent un mélange désordonné de chromosomes trop anormaux pour permettre à la grossesse de débuter, rapportent des chercheurs de l'université de Pittsburgh dans le magazine "Science". "La plupart des personnes impliquées dans le domaine du clonage vont être surprises", estime le directeur de l'équipe de recherche, Gerald Schatten. "Ce travail démontre qu'il y a un nid-de-poule dans le processus. Nous connaissons désormais la profondeur et la largeur du nid-de-poule, et nous mettons au point des stratégies pour le contourner". Des dizaines d'animaux clonés, dont des vaches, cochons, souris, chèvres et même un chat, sont nés depuis que Dolly la brebis est devenue le premier être vivant créé à partir d'une cellule adulte en 1997. Néanmoins, il s'agit d'un domaine toujours aussi incertain: beaucoup de morts prématurées, mais aussi beaucoup de malformations importantes. En pratique, pour obtenir un clone, les scientifiques prélèvent un ovule d'une femelle qu'ils vident de son noyau et donc du patrimoine génétique de la "mère", pour le remplacer par de l'ADN d'une cellule adulte de l'animal à cloner. Un choc électrique doit ensuite entraîner la division. Si tout va bien, l'oeuf devient un embryon qui peut être implanté dans l'utérus de la mère. Il a fallu 277 tentatives pour Dolly. L'équipe de Gerald Schatten a multiplié les essais pour cloner un singe rhésus: 724 oeufs qui ont formé seulement 33 embryons, et pas une seule grossesse. Afin que les cellules se divisent correctement, les chromosomes doivent se dupliquer entre eux, puis se diviser. Dans le cadre d'une reproduction humaine, si les chromosomes ne se divisent pas convenablement, cela peut aboutir à une malformation, comme la trisomie, ou à un avortement. Or les chercheurs de Pittsburgh ont découvert, à l'intérieur des cellules clonées, des chromosomes désordonnés, suggérant que, comme le pressentait Gerald Schatten, des anomalies chromosomiques pouvaient être à l'origine de l'échec du clonage du singe. En effet, comme les ovules contiennent des protéines qui agissent comme des moteurs moléculaires cruciaux dans l'ordonnancement des chromosomes, ces protéines étant extraites en même temps que l'ADN, la grossesse est vouée à l'échec, selon Gerald Schatten. Chez d'autres mammifères, la protéine subsiste en quantité suffisante pour permettre la reproduction. Et ce n'est pas seulement une mauvaise nouvelle pour le clonage reproductif. Cela signifie également que le clonage thérapeutique sera plus difficile à mettre en oeuvre, selon Gerald Schatten. Néanmoins, ajoute-t-il, résolument optimiste, si 95% des cellules cultivées en laboratoire se révèlent défectueuses, il est toujours possible d'utiliser les 5 % restants.

Université de Pittsburgh : http://pdc.magee.edu/press/sci0403/

New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99993614

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top