RTFlash

RTFLASH Recherche & Technologie
NUMERO 185
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Mars 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le Trésor de la Langue Française accessible sur Internet
Le haut débit dépasse les connexions internet classiques aux USA
Le net est devenu un outil de la vie quotidienne des Américains
Le Parlement européen adopte le suffixe .eu
Brevetabilité des logiciels : la France exprime ses réserves sur le projet de directive européenne
Les militants du libre réclament des PC sans Windows
Avenir
L'exploration du nanomonde commence
Matière
L'énergie renouvelable, priorité du Royaume-Uni
L'hydrogène fait sa "révolution"
2020, l'hydrogène remplace le pétrole
Espace
De grandes quantités de glace découvertes sur Mars
Terre
Une pile pour le climat
Seulement 15 % des rivières françaises en bon état
Comment prévoir les inondations
Vivant
Dépistage du cancer du sein : bientôt une simple prise de sang ?
Comment améliorer l'efficacité des inhibiteurs de l'angiogénèse contre les tumeurs?
L'espoir dans le nouveau vaccin contre le SIDA se confirme
Les nouveaux neurones formés chez l'adulte sont fonctionnels
Cannabis et troubles cognitifs : le lien se confirme
L'obésité dans le monde gagne du terrain et touche tous les pays
Alimentation : une tasse de thé après un repas trop gras
La sélection naturelle joue un rôle plus important qu'on le pensait
Edito
Les puces à ADN vont devenir l'outil royal de la médecine de demain



Moins de 10 ans après son apparition, la puce à ADN est en train de bouleverser les méthodes de travail de tous les acteurs du secteur de la santé. Avant la fin de cette décennie, ce bijou de technologie pas plus grand qu'une boîte d'allumettes, qui combine les avancées des technologies de l'information et les acquis des sciences de la vie, permettra de diagnostiquer en un temps record, de quelques heures à quelques instants, la prédisposition ou le développement de maladies génétiques chez des patients. Il deviendra alors possible de prévoir l'évolution de leurs "fondamentaux héréditaires" (tendances à l'obésité, calvitie, etc.) mais aussi de détecter la présence de virus dans l'eau, dans l'air, dans les aliments ou bien l'intrusion des fameux organismes génétiquement modifiés (OGM) dans les produits issus de l'industrie agroalimentaire. Le matériel de fabrication de cet outil qui est en train de révolutionner la médecine et la santé ressemble à celui des classiques semi-conducteurs de l'informatique, mais en lieu et place des circuits, les puces sont "gravées" avec des morceaux d'ADN, le support du programme génétique humain. Réservées pour l'instant aux chercheurs des grands laboratoires pharmaceutiques qui travaillent sur la détection des gènes et la préparation de nouveaux médicaments, les puces à ADN seront dans dix ans d'un usage banal dans les hôpitaux et cabinets de médecins. Le PDG d'Affymetrix, Steve Fodor, a fait le choix de puces à "high density" ADN et aujourd'hui il ne le regrette pas : "Nos puces permettent de repérer en une seule fois non pas quelques gènes, mais des milliers (actuellement près de 12.000 sur les puces les plus performantes). C'est capital, car nous répondons ainsi au souci de la génétique moderne qui considère le génome comme une association de milliers de gènes. Cette nouvelle étape de la révolution génomique s'appuie sur une ancienne découverte de la biologie moléculaire : la complémentarité des deux longs filaments en double hélice de l'ADN. Ceux-ci sont composés de quatre "bases" (oligonucléotides) fonctionnant par paires : les bases d'adénine (A) d'un brin de l'ADN s'apparient avec les bases de thymine (T) de l'autre brin, les bases de guanine (G) avec les bases de cytosine (C). Et vice versa. Dans sa collection de produits déjà commercialisés, Affy propose aussi la puce G11O qui "travaille" sur les séquences génétiques les plus couramment impliquées dans divers cancers humains. Ou encore une puce qui permet de détecter les mutations du gène P53 (un suppresseur de tumeurs) actives dans de nombreux cancers. En France, Affy s'est associé avec BioMérieux, filiale de Pasteur-Mérieux, engagé avec la Lyonnaise des eaux dans un programme d'analyse microbiologique de l'eau. A terme, BioMérieux voudrait lancer des puces capables d'identifier des myco-bactéries et divers germes pathogènes. Depuis quelques années, la recherche sur de nouveaux types de biopuces s'emballe. Une équipe de la Purdue University, dans l'Indiana, affirme avoir mis au point une puce à base de silicium sur laquelle s'accrochent des milliers de protéines. Avantage par rapport aux puces à ADN classiques : les protéines interagissent avec des molécules spécifiques. Le champ d'investigation s'en trouve donc beaucoup plus précis, et ces puces deviennent l'outil idéal dans la chasse aux bactéries. D'après les universitaires associés au projet, le système est fiable. Michael Ladisch, un des concepteurs, envisage des dizaines d'applications possibles : d'abord le diagnostic médical de maladies communes. Mais aussi la détection d'agents bactériens présents dans divers environnements. En dehors du secteur médical, trois secteurs industriels majeurs offrent des débouchés aux biopuces :

-* L'agro-alimentaire : le suivi des bactéries productrices de ferments lactiques, détection des séquences provenant d'organismes génétiquement modifiés dans les semences.

-* L'environnement : l'analyse bactérienne de l'eau de consommation, la détection des agents infectieux dans l'alimentation, l'air ou l'eau (Salmonella, Listeria, Legionnella).

-* La guerre bactériologique ou chimique : en déterminant par avance les modifications du fonctionnement génétique des cellules immunitaires occasionnées par des agents toxiques, on peut identifier rapidement les produits chimiques (mercure, dioxine...) ou bactériologiques (bacille du charbon ou de la diphtérie...) disséminés par un éventuel agresseur. Lors d'un conflit militaire, des capteurs, éparpillés sur le champ de bataille, donneraient l'alerte en cas d'attaque chimique ou biologique. A la lumière des nouvelles et graves menaces terroristes d'attaques chimiques ou biologiques, on mesure l'importance de pouvoir disposer d'un outil rapide et fiable, capable de mesurer très précisément la présence d'un agent toxique. Le même dispositif, recyclé sur des exploitations agricoles, permettrait d'enrayer dès leur apparition diverses infections bactériennes touchant les animaux.

Les essais de la Purdue Biochip se poursuivent en laboratoire. Première application concrète annoncée : la réalisation de capteurs destinés à détecter très tôt la présence dans les aliments de listeria, cause de nombreux décès. D'abord prise de vitesse, la recherche française tente de rattraper son retard. Le Commissariat à l'énergie atomique (CEA) pilote un projet de puce différent de la technique Affymetrix. Ce type de puce ne pourra plus seulement dire si " oui " ou " non " la séquence génétique recherchée est présente, mais en quelle quantité elle est présente. Par conséquent, le CEA s'engage aussi sur la voie du robot pour faire de la synthèse de sondes in situ. Le travail de cet automate sera couplé à la technologie d'adressage électrochimique que le CEA a déjà développée pour la puce MICA. Dans ce cas, le support de la puce est en silicium et les brins d'ADN sont fixés sur des plots qui sont en fait des électrodes d'or. La place des sondes est déterminée par le passage d'un courant électrique. Récemment, les biopuces ont franchi une nouvelle étape. Des chercheurs irlandais de Cork ont en effet annoncé qu'ils avaient développé une biopuce, d'un volume inférieur à celui d'une boîte d'allumettes, qui permet la détection instantanée des cellules cancéreuses chez l'animal. Le Professeur Abraham P. Lee, conseiller technologique à l'Institut National du Cancer de Bethesda, dans le Maryland, est persuadé que cette nouvelle génération de puce permettra, avant 10 ans, de reconnaître immédiatement la signature moléculaire spécifique des cellules cancéreuses. Il prévoit même que ces puces seront implantées dans le corps des patients pour assurer une détection précoce et infaillible d'un cancer dès son apparition. On pourra alors mettre en oeuvre un traitement anti-cancéreux personnalisé en fonction du profil génétique spécifique de la tumeur détectée. Ces différents développements ne sont que quelques exemples de puces à ADN dont les performances ne cessent de s'améliorer. Tous les biologistes en sont persuadés, la puce à ADN ouvre des perspectives extraordinaires en matière de prévention et de détection des grandes pathologies du XXIe siècle, cancer, maladies cardio-vasculaires, maladies virales, maladies neuro-dégénératives. Ce nouvel outil, qui ouvre la voie vers une médecine personnalisée et des traitements sur mesure, sera demain à la biologie ce que le microprocesseur est à l'informatique.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le Trésor de la Langue Française accessible sur Internet
Samedi, 09/03/2002 - 00:00

Le Trésor de la Langue Française Informatisé (TLFI), version électronique du TLF, dictionnaire des XIXème et XXème siècles publié par les éditions Gallimard, est désormais en accès libre sur Internet, a annoncé mercredi le Centre national de la Recherche scientifique (CNRS). Réalisé par une centaine de chercheurs, à l'initiative du CNRS, dans les années 1960, le TLF, le plus complet des dictionnaires de langue française, comprend seize volumes, qui regroupent 100.000 mots, avec leur histoire, 270. 000 définitions et 430.000 exemples, soit 350 millions de caractères au total. Le premier tome est sorti en 1971, le seizième en 1994. Cette informatisation permet à la fois la consultation simple des articles du TLF et les consultations transversales (tous les mots d'origine espagnole, par exemple). Elle offre également la possibilité de répondre à des demandes plus complexes (exemple : la visualisation des termes de marine, en rapport avec la manoeuvre des voiles) et autorise une hypernavigation avec les dictionnaires de l'Académie française, la base lexicale ATILF et la base de données textuelles Frantext.

Le Trésor de la langue française : http://www.inalf.fr/tlfi

Le haut débit dépasse les connexions internet classiques aux USA
Samedi, 09/03/2002 - 00:00

Pour la première fois en janvier 2002, les internautes américains ont passé plus de temps connectés à internet par l'intermédiaire d'un accès à haut débit que par une ligne téléphonique classique, selon les chiffres de Nielsen/NetRatings. Le cabinet de recherches statistiques indique que les abonnés à un service à large bande passante se sont connectés 1,19 milliard d'heures soit 51 % des 2,33 milliards d'heures passées en ligne aux Etats-Unis en janvier. Ces chiffres représentent une hausse de 64 % du temps de connexion à haut débit par rapport au mois de janvier l'année dernière. En comparaison, le temps de connexion à partir d'une ligne téléphonique conventionnelle a reculé de 3 %, de 1,18 milliards à 1,14 milliards d'heures. Près de 21,9 millions de particuliers américains disposaient d'une connexion à haut-débit au mois de janvier, précise l'étude, soit une hausse de 67 % par rapport à l'année dernière et une part de marché de 21 % des accès internet à domicile. Le nombre des internautes se connectant par le haut débit depuis leur lieu de travail a quant à lui progressé de 42 % à 25,5 millions sur la même période. Ils n'étaient que 18 millions en janvier 2001. Selon l'avis d'un analyste de Salomon Smith Barney, la majorité des accès à haut débit se fait toujours par des modems-câble avec 62 % des parts de marché internet rapide en Amérique du Nord. Cette étude a été réalisée alors que les entreprises du secteur développent de manière intensive leurs services d'accès en pariant sur le haut-débit.

Reuters : http://fr.news.yahoo.com/020305/85/2i55b.html

Le net est devenu un outil de la vie quotidienne des Américains
Samedi, 09/03/2002 - 00:00

Internet a perdu de sa nouveauté pour de nombreux internautes américains mais il devient un outil de plus en plus utilisé dans la vie de tous les jours, selon une étude publiée dimanche par un centre américain de recherche sur internet. A mesure que les utilisateurs du réseau mondial acquièrent de l'expérience, ils ont tendance à passer un peu moins de temps en ligne : la durée de la session moyenne est passée de 90 minutes à 83 minutes en un an, selon l'étude du Pew Internet and American Life Project. Mais les utilisateurs expérimentés ont précisé qu'ils utilisaient ce temps de connexion pour travailler depuis leur domicile, vérifier leur compte bancaire et faire des réservations de voyage, plutôt que de simplement surfer sur le web. L'e-mail aussi a perdu de sa nouveauté : les internautes disent envoyer des messages à leurs amis et leurs proches moins fréquemment. Mais ils sont aussi plus enclins à utiliser le courrier électronique lorsqu'ils sont inquiets, veulent demander un conseil et de manière générale pour envoyer des messages sérieux. "Internet est passé de la nouveauté à l'outil pour de nombreux Américains", a déclaré Lee Rainie, directeur du projet Pew. "Ils commencent à considérer qu'internet va de soi, mais ils ne pourraient pas imaginer de vivre sans." De nombreux utilisateurs disent qu'internet modifie aussi leur comportement lorsqu'ils ne sont pas en ligne. Un sur quatre dit passer moins de temps à regarder la télévision et près d'un acheteur en ligne sur trois dit avoir passé moins de temps dans les magasins. L'étude ajoute que les internautes sont plus enclins à ramener du travail chez eux : 14 % des personnes interrogées ont constatent que l'utilisation du réseau a conduit à un allongement de leur temps de travail à leur domicile tandis qu'elles ne sont que 5 % à estimer le contraire. Les "spam," ou messages non sollicités, figurent en tête des plaintes: 44 % des personnes interrogées considèrent que c'est un problème et plus de la moitié d'entre elles disent avoir reçu des e-mails à contenu pornographique. Le Pew Internet & American Life Project a suivi 1.501 internautes pendant un an, de mars 2000 à mars 2001, et son étude a une marge d'erreur de plus ou moins 4%.

Reuters : http://fr.news.yahoo.com/020304/85/2i2zq.html

Le Parlement européen adopte le suffixe .eu
Samedi, 09/03/2002 - 00:00

Les entreprises, les organismes et les citoyens de l'Union européenne pourront bientôt accoler le suffixe .eu à leurs adresses internet, le Parlement européen ayant approuvé le projet de loi portant création de ce nouveau nom de domaine. "Le suffixe .eu offrira davantage de choix aux entreprises européennes et aux citoyens, accélérera le développement d'internet et renforcera le commerce électronique sur le marché européen", a affirmé Erkki Liikanen, le commissaire européen initiateur du projet. "Cela permettra, par exemple à une société possédant des filiales dans plusieurs pays de l'UE, de traduire sa large implantation en Europe sur internet." Le vote du parlement ouvre la voie à l'adoption finale du projet par les Etats membres de l'UE. Ce nouveau suffixe complète la liste des noms de domaines propres à chaque pays européen, comme fr. pour France ou .de pour l'Allemagne. Le choix d'un nom de domaine à forte connotation géographique va à l'encontre de la tendance actuelle, qui privilégie les adresses mettant l'accent sur les activités comme .biz pour entreprises ou .pro pour les catégories professionnelles. La Commission européenne espère que le suffixe .eu permettra d'accélérer le développement d'internet en Europe et offrira une meilleure visibilité de la "marque" européenne sur le web. Une fois ce nouveau nom de domaine approuvé par les Etats membres, la Commission pourra entamer la procédure pour sélectionner l'organisme privé à but non lucratif qui gérera les adresses .eu.

Reuters : http://fr.news.yahoo.com/020228/85/2hzuf.html

Brevetabilité des logiciels : la France exprime ses réserves sur le projet de directive européenne
Samedi, 09/03/2002 - 00:00

Christian PIERRET, Ministre délégué à l'Industrie, aux PME, au Commerce, à l'Artisanat et à la Consommation, a fait part, le 1-03-2002, à la Commission Européenne de la position du gouvernement français concernant le projet de directive sur la brevetabilité des logiciels présenté aujourd'hui au Conseil marché intérieur. Constatant que le projet de directive n'apporte aucune des précisions attendues sur les limites et les exigences de la brevetabilité, le gouvernement s'inquiète du champ qui pourrait être ouvert à la brevetabilité de l'ensemble des logiciels voire des méthodes intellectuelles et commerciales. Or, il est apparu clairement en France comme en Europe qu'une telle extension est largement rejetée. La France a rappelé qu'elle juge indispensable de disposer d'un bilan de la protection juridique des logiciels telle qu'elle résulte de la pratique de l'Organisation Européenne des Brevets (OEB) et des Etats membres. Le gouvernement français souhaite écarter tout projet qui aurait des conséquences négatives pour l'innovation, pour l'interopérabilité et les logiciels libres, et pour l'ensemble des acteurs (éditeurs, intégrateurs, utilisateurs), notamment les PME. Il considère que la proposition de directive ne répond pas de façon adéquate aux enjeux économiques, scientifiques et culturels du secteur du logiciel ainsi qu'à la nécessité de promouvoir l'innovation qui figure parmi les priorités du plan d'action " e.Europe ". La Commission a mené des études et une consultation sur ce thème au dernier trimestre 2000. Le projet de directive présenté aux Etats membres n'indique pourtant pas clairement les risques que présenterait une validation juridique de la pratique de l'OEB dans les Etats membres de l'Union, au regard des avantages que l'on pourrait en attendre. Divers études et rapports conduits dans plusieurs Etats Membres sont apparus par ailleurs réservés quant à une telle évolution. A l'initiative notamment de la France, la Conférence Diplomatique pour la révision de la Convention sur le Brevet Européen (CBE), qui s'est tenue à Munich en novembre 2000, avait décidé de ne pas modifier les dispositions de la Convention en la matière, souhaitant qu'une position européenne claire puisse être prise sur la base d'une analyse précise de ses conséquences sur les plans économique, technique et juridique.

Ministère de Industrie : http://www.industrie.gouv.fr/accueil.htm

Les militants du libre réclament des PC sans Windows
Samedi, 09/03/2002 - 00:00

"Nous appelons les consommateurs à refuser d'être victime des ventes forcées de logiciels, par le biais de ventes liées dites "OEM", lorsqu'ils achètent un ordinateur." Les sites LinuxFrench.NET, Linuxfr.org, Portalux.com, KDE-France.org, NoCopyright.fr.st, gcu-squad.org, Independant Technologies, Planète Libre, TuxFamily et les associations AFUL, ALDIL, APRIL, Linux-Azur, Parinux et ALL se rebiffent face à l'hégémonie de Microsoft dont Windows est par défaut le système installé sur 98 % des ordinateurs. "Dans les faits, il s'agit de Windows mais cela pourrait être n'importe quoi d'autre", précise Frédéric Couchet, président de l'APRIL, qui ajoute que la démarche s'applique aussi au matériel en général comme les imprimantes et leurs drivers notamment. "Ce que nous visons, c'est tout simplement à rétablir la normalité", explique Frédéric Couchet, "il n'est pas normal d'avoir à payer le matériel et les logiciels si on n'en veut pas au même titre que quand on achète une bibliothèque, on ne paye pas les livres qui iront dedans." Bref, laisser au consommateur le choix non seulement des logiciels qui accompagneront la machine mais aussi le choix de ne pas payer des applications qu'il n'utilisera d'ailleurs pas forcément. Un choix qui passe notamment "par une transparence des coûts de la facture afin que le consommateur puisse éventuellement renégocier le prix d'une machine indépendamment du coût des licences", justifie le président de l'APRIL, "car la situation actuelle ne concourt pas à la diffusion d'une alternative". Lancé à l'initiative de Hervé Lefebvre de LinuxFrench.net, ce mouvement vise autant à informer les consommateurs de leurs droits qu'à faire bouger les pouvoirs publics. Et pour cela, les activistes invitent les consommateurs à saisir la direction de la consommation, de la concurrence et de la répression des fraudes (DGCCRF) pour chaque infraction constatée dans leurs achats. Cet appel en direction du consommateur arrive avec la campagne électorale en France. Ce n'est évidemment pas un hasard dans la mesure où le gouvernement est plus susceptible de prendre des engagements qu'habituellement.

Vunet :

http://www.vnunet.fr/actu/article.htm?numero=9370&date=2002-03-04

^ Haut
Avenir
Nanotechnologies et Robotique
L'exploration du nanomonde commence
Samedi, 09/03/2002 - 00:00

Le dernier outil des chercheurs en nanotechnologie mesure 1,5 micromètre (1,5 millionième de mètre) et est capable de dresser une carte extrêmement précise d'une surface apparemment plane. Il s'agit d'un robot moléculaire autopropulsé. Les petites aspérités, des gouffres à l'échelle microscopique, n'échappent pas à sa prospection. Dans les Nano Letters de 13 février 2002, les chercheurs du Département de bioingénierie et du Département de physiologie et biophysique de l'université de Washington (USA), expliquent que leur système est une nouvelle approche pour l'imagerie microscopique. La sonde et ses centaines de partenaires - car ces nanorobots travaillent en « troupeau » - sont des microtubules améliorés, des filaments polymères de 24 nanomètres de diamètre (24 milliardièmes de mètre) qui jouent un rôle très important dans la structure et le transport moléculaire à l'intérieur des cellules eucaryotes (c'est à dire avec un noyau). Les chercheurs leur ont ajouté une protéine "moteur", la kinésine, ainsi qu'un marqueur fluorescent qui permet de les suivre avec une caméra. Les petits explorateurs se baladent à la vitesse de plusieurs centaines de nanomètres par seconde (cela dépend du type de surface et du nombre de nanorobots). Certaines dénivelées imperceptibles pour nous les ralentissent, d'autres sont infranchissables. Vu du dessus, leurs trajectoires apportent de précieux renseignements sur la topographie du lieu ainsi que sur certaines propriétés physiques locales. Les mini-sondes sont par exemple capables de signaler les régions hydrophobes ou hydrophiles. Un détail qui peut avoir sans importance pour, comme l'espèrent les chercheurs, comprendre la structure des matériaux poreux, l'architecture des tissus biologiques ou la forme de grosses molécules. « Notre technique présente plusieurs avantages », écrivent les chercheurs. « Le grand nombre de sondes diminue la marge d'erreur : si quelques-unes ne fonctionnent pas, la vitesse d'acquisition des données est seule à en souffrir. De plus, l'absence de lien physique entre les sondes et le matériel de détection devrait permettre aux sondes d'explorer une surface à l'intérieur d'une cavité. Enfin, un mélange de différents types de sondes pourrait analyser simultanément différentes propriétés de la surface. » La résolution obtenue est inférieure à 50 nanomètres, soit quatre fois plus précise que celle d'un microscope optique classique. Et les chercheurs pensent encore l'améliorer en utilisant des nanorobots toujours plus petits.

Nature : http://www.nature.com/nsu/020218/020218-19.html

^ Haut
Matière
Matière et Energie
L'énergie renouvelable, priorité du Royaume-Uni
Samedi, 09/03/2002 - 00:00

Brian Wilson, ministre britannique de l'Energie, a annoncé que 2002 serait "l'année du renouvelable" dans son pays et que le gouvernement avait l'intention d'investir quelque 420 millions d'euros au cours des 3 prochaines années dans la mise au point de technologies sur l'énergie renouvelable. A l'heure actuelle, moins de 3 pour cent de l'électricité du Royaume-Uni provient de sources renouvelables, mais le gouvernement a pris l'engagement d'atteindre dix pour cent à l'horizon 2010. Dix pour cent, tel est également l'objectif fixé par le Royaume-Uni pour 2010, conformément aux recommandations de la Commission européenne. L'objectif global fixé pour l'UE est toutefois de 22 pour cent et le pourcentage visé par le Royaume-Uni est l'un des plus bas de l'UE". Une fraction substantielle du financement britannique sera consacrée au déploiement de la première génération d'exploitations éoliennes en mer et de centrales électriques à récolte énergétique, deux des domaines qui offrent le plus grand potentiel de croissance. "Des projets potentiellement viables ont aujourd'hui la possibilité d'obtenir le soutien et l'accès dont ils ont besoin. Je souhaite appuyer chacune des technologies de l'énergie renouvelable jusqu'au stade où l'on pourra déterminer lesquelles possèdent un avenir viable dans le contexte britannique. Certaines opportunités existent pour des projets extrêmement modestes, à l'échelle d'une communauté ou même d'un ménage, tout comme pour des projets de grande envergure", a déclaré M. Wilson. M. Wilson a conscience qu'il a établi un objectif ambitieux, bien qu'il soit inférieur à celui de la Commission européenne. "Bien entendu, j'espère que nous placerons la barre plus haut que 10 pour cent après 2010. Le fait est toutefois que nous démarrons d'un niveau faible et qu'une volonté solide, notamment de la part du gouvernement, sera nécessaire pour atteindre ces 10 pour cent", a-t-il commenté. Le plan d'action de la Commission pour parvenir aux 22 pour cent implique des mesures liées au marché intérieur dans les domaines réglementaire et fiscal, un renforcement des politiques communautaires qui influencent la pénétration croissante des énergies renouvelables, des propositions d'intensification de la collaboration entre les Etats membres, et des mesures de soutien pour faciliter les investissements et favoriser la diffusion d'informations au sujet des énergies renouvelables.

Cordis : http://dbs.cordis.lu/cgi-bin/srchidadb?

L'hydrogène fait sa "révolution"
Samedi, 09/03/2002 - 00:00

Elle s'appelle “Révolution” et préfigure ce que sera la voiture des années 2010. Développé par Hypercar et semblant sortir tout droit d'un film de science-fiction, l'engin est un prototype fonctionnant à l'hydrogène. “Autant dire que la 'révolution' peut bien encore attendre un peu”, précise le “Chronicle”, car la technologie non polluante est loin d'être au point. Pourtant, l'idée d'utiliser l'hydrogène en tant que carburant s'impose peu à peu. Le principe - développé pour ses fusées par la NASA - consiste à produire de l'énergie électrique sans combustion grâce à une réaction électrochimique entre hydrogène et oxygène, tout en ne rejetant que de la vapeur d'eau. Son principal défaut est le coût de fabrication et l'encombrement. L'hydrogène est un gaz inflammable qui doit être stocké sous forme liquide et nécessite de fait de gros réservoirs cryogéniques. Or, vu les nouvelles réglementations antipolluantes, les constructeurs automobiles se ruent vers cette technologie du futur avec deux objectifs : annuler les émissions de dioxyde de carbone et minimiser le coût de production des piles à hydrogène pour préserver leurs marges bénéficiaires. Or, selon “The New York Times”, “les piles à combustible actuelles coûtent environ 440 euros pour chaque kilowatt d'énergie produit et durent environ 3 000 heures. Pour concurrencer efficacement les moteurs actuels, la technologie doit progresser suffisamment pour abaisser le prix à environ 44 euros le kilowatt et durer environ 5 000 heures, soit environ 193 100 kilomètres pour une voiture conventionnelle.” A l'image d'Hypercar, des sociétés de haute technologie tentent de proposer des voitures du futur intégrant des piles à combustible plus performantes. La “Révolution”, décrite avec envie par le “San Francisco Chronicle”, ne pèse que 850 kilos, mais Hypercar doit encore développer une version satisfaisante de son moteur électrique. Enfin, l'entreprise doit trouver un moyen de baisser le prix de base de son modèle : 55 000 euros.

San Francisco Chronicle. :

http://www.sfgate.com/cgi-bin/article.cgi?file=/chronicle/archive/2002/02/25/MN....

2020, l'hydrogène remplace le pétrole
Samedi, 09/03/2002 - 00:00

Le plein d'hydrogène, s'il vous plaît.» Voici ce que les pompistes des stations-service islandaises entendront demain. L'hydrogène, qui n'émet dans l'atmosphère ni gaz carbonique ni autres gaz polluants - puisque le moteur électrique qui fonctionne avec ce combustible ne laisse guère derrière lui que de l'eau- va, en effet, devenir le roi des carburants en Islande, détrônant ainsi le pétrole. Ils se sont tous alliés, Daimler-Chrysler, les pétroliers Hydro et Shell, la société islandaise Vistorka, pour créer Iceland Hydrogen and Fuel Cell Company. Objectif d'ici à vingt-cinq ans: avec l'aide du gouvernement et des chercheurs de l'université de Reykjavik, réduire les importations de pétrole, baisser de 70 % la production de gaz carbonique, et vendre le savoir-faire acquis au reste du monde. Etats-Unis, Japon et Europe suivent de près cette expérience pilote, tant l'hydrogène, atome le plus abondant sur la planète, notamment sous forme d'eau (H2O), semble être le vecteur énergétique de l'avenir, inépuisable, aisément transformable en électricité grâce à l'utilisation de la pile à combustible et non polluant. Aujourd'hui, «45millions de tonnes d'hydrogène sont produites dans le monde chaque année par l'industrie, soit 130 millions de tep tonnes équivalent pétrole]», explique Daniel Deloche représentant d'Air Liquide. L'hydrogène est utilisé par les raffineries, les industries chimiques et le spatial, acheminé en Europe du Nord par un réseau de 1100 kilomètres de canalisations. «Demain, si 10 % des bus et 1 % des automobiles utilisaient de l'hydrogène, la demande atteindrait seulement un dixième de la production totale annuelle.» Un des premiers prototypes de voiture à hydrogène, réalisé par PSA-Peugeot-Citroën, Air Liquide, Nevera (fabricant de pile) et le CEA, affiche déjà ses performances : «Equipée d'une pile à combustible de 30 W fonctionnant avec 3,3 kg d'hydrogène stocké à 350 bars dans des bouteilles, affirme Marcel Gargnier de PSA-Peugeot-Citroën, elle possède cinq vraies places et affiche une autonomie de 300 km.» A quand la production en série? «Un des problèmes reste le stockage du carburant.» L'atome d'hydrogène est si petit que peu de matériaux lui sont imperméables. Il ne peut être stocké en sécurité que dans d'encombrantes cartouches de gaz. Dans le futur, il pourrait être absorbé par des hydrures métalliques, des nanotubes de carbone ou des microbilles de verre qui relarguent le gaz de façon maîtrisée. Autre souci: «Une automobile utilisera 30 m3 d'hydrogène par jour, note Daniel Deloche, un bus 300, une pile stationnaire 3000. Il faut donc des stations-service pour approvisionner tout le monde. Leur adaptation coûtera plusieurs milliards d'euros.» En l'état, le système est trop coûteux pour envisager une application grand public. «Pour être compétitif il ne faut pas dépasser les 4,57 e/kW. Or, en 2010, le coût sera encore pour un véhicule de 22,87 e/kW.» En attendant de fournir de l'hydrogène à la pompe, certains constructeurs comptent alimenter la voiture avec du méthanol, reformé (transformé) en hydrogène à l'intérieur de la pile. Inconvénient: il est toxique, et son utilisation aboutit à une émission de gaz carbonique.

Science&Avenir :

[http://www.sciencesetavenir.com/tempsfort/p660/indextempsfort.html

^ Haut
Espace
Espace et Cosmologie
De grandes quantités de glace découvertes sur Mars
Samedi, 09/03/2002 - 00:00

De grandes quantités de glace ont été découvertes sous la surface de la planète Mars par les équipements d'observation embarqués sur la sonde Odyssey, et notamment son spectromètre à rayons gama qui permet de détecter la présence d'hydrogène. Quelque dix millions de kilomètres carrés de glace ont été détectés sous le pôle sud de la Planète rouge et l'eau gelée a aussi été localisée sur les flancs du Mont Olympus de Mars, haut de 26 kilomètres et le plus haut sommet connu du système solaire. La sonde Odyssey a commencé ses relevés topographiques fin février et les chercheurs estiment que les premiers résultats vont au-delà de leurs attentes. A Washington, des scientifiques de l'Administration nationale de l'Aéronautique et de l'Espace (NASA) ont annoncé le 2 mars que la sonde avait détecté de l'eau gelée sur la Planète rouge. Selon les chercheurs américains, les premières découvertes montrent la présence de quantités "significatives" d'hydrogène dans la région polaire méridionale de Mars et dont l'origine est probablement de la glace. Des analyses ultérieures doivent confirmer cette interprétation et déterminer la quantité exacte de glace qui se trouve sur la Planète rouge, ont indiqué les scientifiques américains. Odyssey est la première sonde à atteindre Mars depuis l'échec des deux missions précédentes en 1999. Pendant qu'elle se met en orbite autour de Mars, la sonde prend des mesures et des photos à haute résolution des sites promis à d'éventuels atterrissages pour des missions futures sur la Planète rouge. Les régions contenant de la glace devraient être choisies pour l'installation de premiers astronautes sur Mars qui y trouveraient un "soutien vital" pour leur mission. "Nous sommes ravis de la qualité des données observées" a déclaré le Dr Steve Saunders, l'un des responsables scientifiques du projet Odyssey auprès du NASA Jet Propulsion Laboratory (JPL) à Pasadena en Californie. "Nous pourrions maintenant voir de l'eau plutôt que de supposer où il y en a ou bien où il a pu y en avoir. Avec les images thermiques nous serons en mesure d'examiner la surface géologique de la planète à partir d'une nouvelle perspective" a précisé le Dr Saunders.

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1853000/1853031.stm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une pile pour le climat
Samedi, 09/03/2002 - 00:00

L'avenir n'est pas rose, il est même plutôt d'un gris sale lorsqu'on évoque l'état de notre planète enrubannée d'un voile de gaz carbonique. Partout dans le monde développé et, de plus en plus, dans celui en développement, l'activité humaine génère ces fameux gaz à effet de serre qui viennent saturer l'atmosphère et perturber le climat. La Terre se réchauffe et cela aura des conséquences économiques, sociales, médicales considérables, ont prévenu les scientifiques. C'est pour tenter d'éviter cette catastrophe annoncée que l'Europe vient de ratifier le traité de Kyoto de réduction des émissions polluantes (les Etats-Unis, eux, s'y refusent). Les 15 ont du pain sur la planche. Ils se sont engagés à réduire leurs émissions de gaz carbonique (CO2) et de cinq autres gaz à effet de serre de 8 % en 2010 par rapport au niveau atteint en 1990. En apparence, tout va bien : la pollution a déjà régressé de 4 % entre 1990 et 1999. Mais seuls certains pays (l'Allemagne et le Royaume-Uni) sont des bons élèves de la classe environnementale. D'autres sont de véritables cancres qui ont augmenté leurs rejets : Danemark, Italie, Pays-Bas, Espagne... Et le futur n'augure rien de bon surtout dans le domaine des transports, le plus gros secteur pollueur. Un parlementaire européen chiffre même à 50 % la hausse des émissions polluantes provenant des transports d'ici à 2010 ! Aux côtés de mesures classiques de réduction de la pollution, une technologie pourrait grandement améliorer la situation si elle sortait enfin des laboratoires. Il s'agit de la pile à combustible, une source d'énergie non-polluante au champ d'application extrêmement large : production d'électricité décentralisée dans l'habitat, combustible pour l'automobile, jusqu'aux mini-piles pour téléphones portables. La pile peut être comparée à une sorte de groupe électrogène chimique où entrent de l'hydrogène et de l'oxygène. A la sortie, on obtient de l'électricité et de l'eau et pas un atome de pollution. Découverte par le britannique William Grove en 1839, la pile à combustible doit encore faire ses preuves économiques. Les prix de production des prototypes sont encore bien trop élevés et il faut encore, dans chacune des applications, travailler la technologie. Mais il est probable que cette source d'énergie innovante ait un réel avenir dans des pays soucieux de l'environnement. Dans l'automobile, responsable, on l'a vu, d'une bonne partie des émissions polluantes, nombre de constructeurs s'intéressent à la pile à combustible : Daimler-Chrysler qui sortira en 2004 son premier véhicule de série équipé d'une pile (la Necar), Opel, Toyota et Honda, mais aussi, dans une moindre mesure, Renault et PSA. Pour les Français, regroupés dans un consortium qui inclut également TotalFinaElf et Air Liquide, il faut encore pousser la recherche pour faire baisser les prix. Rendez-vous dans 10 ans pour, peut-être, commencer à juguler la pollution au plus grand bénéfice du climat.

Tribune : http://www.latribune.fr/

Seulement 15 % des rivières françaises en bon état
Samedi, 09/03/2002 - 00:00

Seulement 15% des rivières françaises sont en bon état, selon la première carte de l'état écologique des cours d'eau français publiée mardi par le Conseil supérieur de la pêche à partir de populations de poissons. Cette étude, publiée à l'occasion de l'ouverture de la pêche à la truite samedi, donne une idée du chemin à parcourir pour parvenir à un bon état écologique des eaux françaises en 2015, comme l'exige une directive cadre européenne d'octobre 2000. Les poissons sont des indicateurs de la santé d'une rivière. A partir de données recueillies sur 3.000 portions de rivières abritant trois espèces "test" particulièrement exigeantes en termes de qualité des eaux -truite, ombre et brochet- le Conseil supérieur de la pêche a dressé la carte des rivières françaises. Globalement, 15 % seulement des rivières sont en bon état: elles permettent à l'ensemble du cycle biologique du poisson de se dérouler normalement, et on y trouve 80 % de la population "idéale" d'une rivière. 63 % des rivières sont dans un état moyen: elles abritent 20 à 80% de l'échantillon "idéal" et compromettent une des phases vitales du cycle biologique (reproduction, éclosion, croissance). 22 % sont carrément en mauvais état: une des phases vitales est impossible, et sans apport extérieur, l'espèce disparaît peu à peu. Sans surprise, les rivières en amont, notamment en montagne, sont mieux préservées. Les perturbations y sont dues pour l'essentiel aux barrages. Les rivières en aval se dégradent d'autant plus qu'elles sont soumises à l'impact des activités humaines. Sont en cause les pesticides et nitrates d'origine agricole, mais aussi la dégradation des lits des rivières (extraction de graviers), la modification des milieux (suppression des haies, ruissellement..), la création de plans d'eau qui réchauffent les rivières. Les rivières à salmonidés se portent le mieux, avec 25 % des eaux conformes, 60% perturbées et 15 % dégradées. 9 % des rivières à ombres sont en bon état, et 7 % seulement des cours d'eau abritant des brochets.

Conseil supérieur de la pêche : http://www.csp.environnement.gouv.fr/

Comment prévoir les inondations
Samedi, 09/03/2002 - 00:00

A la confluence de l'Aisne et de l'Oise va être mis en service un système révolutionnaire de prévision des inondations. Ce dispositif, élaboré par des chercheurs du Cemagref, permettra d'anticiper de six heures l'arrivée des crues. La méthode hydraulique classique mesure simplement la cote d'un cours d'eau en amont pour prévoir le débit aval. Le modèle Cemagref intègre, en revanche, l'ensemble des flux inventoriés sur le territoire d'un fleuve ou d'une rivière (le «bassin-versant»): écoulement, précipitations, solde des infiltrations et de l'évaporation. Ainsi peut-on suivre en continu l'état de la nappe phréatique, facteur déterminant dans la survenue d'une crue. Peu complexe, le système peut s'adapter à de nombreux bassins, même si l'ensemble des paramètres en jeu est difficile à maîtriser. «Nous agissons un peu comme un couturier ajuste son patron selon vos mensurations, explique l'hydrologue Charles Perrin. Avec quatre variables seulement, une mise à jour des prévisions est possible en période d'alerte.»

Express :

http://www.lexpress.fr/Express/Info/Sciences/Dossier/inondations/dossier.asp?nom...

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Dépistage du cancer du sein : bientôt une simple prise de sang ?
Samedi, 09/03/2002 - 00:00

Pourra-t-on bientôt dépister un cancer du sein par une simple prise de sang? C'est l'espoir que caresse une équipe de recherche américaine, qui espère mettre au point, à terme, un test de dépistage du cancer du sein équivalent à celui employé pour le cancer de la prostate. Il est encore trop tôt pour se prononcer sur l'efficacité de cette méthode encore expérimentale, mais la recherche de nouveaux modes de dépistage de tumeurs mammaires ou de cellules cancéreuses renforce la polémique autour de la mammographie et de ses prétendus bénéfices. Certains prévoient que l'examen radiologique cèdera la place à l'examen sanguin. ''La mammographie n'est pas éliminée'', admet le Dr Alan Hollingsworth, du centre médical Mercy à Oklahoma City, l'un des sept hôpitaux américains qui participent à la recherche engagée par la firme Matritech sur le test sanguin. ''Toutefois, ajoute-t-il, il existe peut-être une façon d'améliorer le dépistage.'' La mammographie est un examen qui permet de détecter des tumeurs de petite taille. Mais le bénéfice d'un dépistage précoce sur l'espérance de vie fait l'objet d'une vive polémique. Le gouvernement américain le pense et incite les femmes de plus de 40 ans à en faire pratiquer une tous les deux ans. Une recommandation que le tiers de ces dernières ne suivent pas. Une étude préliminaire portant sur l'analyse d'échantillons sanguins de 78 femmes fait apparaître que la NMP-66 a été retrouvée chez toutes celles présentant un cancer du sein invasif et chez quatre des cinq femmes souffrant d'un cancer non invasif des canaux galactophores, mais qu'elle était absente du sang de toutes celles présentant une mammographie normale. Un écueil toutefois: la protéine a aussi été retrouvée chez deux des 24 femmes présentant une tumeur bénigne du sein. Une nouvelle étude, également conduite par la firme Matritech et dont les résultats seront connus au plus tard cette année, porte sur la recherche de NMP-66 chez 700 femmes ayant subi des biopsies pour la recherche d'une tumeur, et chez 400 autres pour lesquelles les mammographies de contrôle n'avaient rien montré de suspect. Avant que ces tests expérimentaux n'aient donné des résultats satisfaisants, les femmes sont invitées à faire pratiquer une mammographie régulière par des radiologues habitués à cet examen.

American Cancer Society : http://www.cancer.org

Comment améliorer l'efficacité des inhibiteurs de l'angiogénèse contre les tumeurs?
Samedi, 09/03/2002 - 00:00

Les inhibiteurs de l'angiogénèse étaient une classe pharmacologique extrêmement prometteuse dans la lutte contre le cancer. Lors des tests, ils réussissaient à soigner complètement des animaux de cancers expérimentaux. Mais sur l'homme, leur effet n'a au mieux été que médiocre. Une étude de l'Université de Toronto qui explique pourquoi les tumeurs ne meurent pas : l'anoxie n'est pas complète, et il leur reste de l'oxygène. La nouvelle idée ? Marier les inhibiteurs de l'angiogénèse à de nouveaux médicaments attaquant les nouveaux vaisseaux comme la Combréstatine ou détruisant les cellules hypoxiques comme la Tirapazamine, pour créer un environnement totalement anoxique où la tumeur ne pourra que mourir.

NBC : http://www.msnbc.com/news/713368.asp?0si=-&cp1=1

L'espoir dans le nouveau vaccin contre le SIDA se confirme
Samedi, 09/03/2002 - 00:00

L'espoir suscité par un nouveau vaccin contre le virus du SIDA se confirme, à en croire les premiers résultats obtenus sur l'homme par le laboratoire pharmaceutique Merck. Mais il faudra encore plusieurs années pour savoir si cette solution peut protéger d'une pandémie qui a fait 25 millions de morts dans le monde en 20 ans, tandis que 40 millions de personnes sont aujourd'hui infectées. ''A ce stade, le vaccin paraît déclencher la même réponse du système immunitaire chez l'homme que chez les singes nouvellement immunisés, bien que les volontaires n'aient pas été confrontés à l'exposition cruciale au virus VIH'', a expliqué Emilio Emini, directeur du programme de recherche chez Merck, intervenant mardi lors de la 9e Conférence annuelle de Seattle sur le rétrovirus. ''Nous sommes encouragés. Evidemment, la grande question reste celle de l'efficacité dans la prévention ou le contrôle de l'infection. Il faudra attendre les études sur le long terme''. Dans le meilleur des cas, a-t-il ajouté, la mise à disposition à grande échelle devrait prendre au moins cinq ans. Plutôt que d'un vaccin préventif, il s'agira probablement d'un stimulant des défenses immunitaires qui maintiendra le virus à un niveau indétectable dans le sang pendant plusieurs années, voire toute la vie du patient. La présentation de Merck à Seattle a reçu un bon accueil. ''Je dis: 'Fonçons avec ce programme. Ce sont des résultats très encourageants'', s'est enthousiasmé le Dr David Ho, directeur scientifique au Aaron Diamond AIDS Research Center à New York. ''C'est ce que bon nombre d'entre nous attendaient'', a souligné pour sa part le Dr Robert Schooley, chef du département des maladies infectieuses à l'Université de Colorado, rappelant toutefois qu'il y avait ''encore du chemin avant d'avoir un vaccin qui protège les gens''.

AP : http://fr.news.yahoo.com/020227/5/2hy31.html

Les nouveaux neurones formés chez l'adulte sont fonctionnels
Samedi, 09/03/2002 - 00:00

Bien que l'on sache désormais qu'il existe une neurogenèse chez l'adulte, on ne savait pas encore si les nouveaux neurones possédaient une fonctionnalité. C'est chose faite avec cette étude publiée dans Nature qui montre que les nouvelles cellules nerveuses élaborées dans l'hippocampe de souris ont toutes les propriétés des cellules matures du cerveau et qu'elles génèrent des potentiels d'action caractéristiques des neurones fonctionnels.Différentes études indiquent que la neurogenèse chez l'adulte est une réalité, notamment dans la région de l'hippocampe appelée dentate gyrus, impliquée dans l'apprentissage et la mémoire. Cependant, il est difficile de savoir si les cellules nerveuses néoformées sont fonctionnelles. Henriette von Praag et ses collaborateurs (laboratoire de génétique, The Salk Institute for Biological Studies, La Jolla, Californie, EU), afin d'étudier la neurogenèse chez la souris adulte, ont utilisé un vecteur rétroviral porteur de la molécule fluorescente GFP, s'exprimant uniquement dans les cellules en division, et pouvant être visualisée dans l'hippocampe in vivo. Les chercheurs ont observé que les cellules nerveuses néoformées dans l'hippocampe de souris possédaient une morphologie neuronale, exprimaient des propriétés de perméabilité passive membranaire, ainsi que des potentiels d'action synaptiques tout à fait comparables à ceux retrouvés dans les cellules matures de la région cérébrale étudiée. Ces résultats démontrent selon les auteurs que les cellules nerveuses néoformées chez l'adulte sont matures et fonctionnelles.

Nature du 28-02-02 : http://www.nature.com/cgi-taf/DynaPage.taf?

Cannabis et troubles cognitifs : le lien se confirme
Samedi, 09/03/2002 - 00:00

De nombreuses personnes, spécialement chez les jeunes, considèrent que le cannabis est une drogue "douce" dont la consommation régulière n'entraîne aucun effet néfaste sur le système nerveux et les fonctions cognitives. Une récente étude scientifique vient malheureusement de prouver le contraire et montre que la consommation de cannabis perturbe sur le long terme les fonctions de mémoire et d'attention. Cette étude, publiée dans le Journal of American Medical Association montre que ces troubles cognitifs persistent au-delà de la période qui suit immédiatement la consommation et ils semblent s'intensifier avec le nombre d'années de consommation. Pour cette étude, Nadia Solowij et ses collaborateurs ont étudié trois groupes différents de patients entre 1997 et 2000. Les auteurs ont comparé les fonctions cognitives chez les consommateurs quasi-quotidiens de cannabis : 51 en consommaient depuis longtemps et 51 depuis moins de temps. Un groupe témoin était composé de 33 non consommateurs. Neuf tests neuropsychologiques ont été utilisés pour mesurer l'attention, la mémoire et les autres fonctions cognitives des participants. Ils étaient réalisés en moyenne après 17 heures d'abstinence. Les participants du premier groupe avec une moyenne de 24 ans de consommation régulière de cannabis ont eu de moins bons résultats aux tests de mémoire et d'attention que les sujets témoins ou ceux du groupe avec une durée de consommation moyenne de 10 ans. Ceux avec le plus long passé cannabique avaient de moins bons résultats que les deux autres groupes. Entre les témoins et ceux qui consommaient du cannabis depuis 10 ans en moyenne, les résultats étaient similaires pour certains tests tandis qu'ils étaient en défaveur du cannabis pour d'autres critères d'évaluation. "Les mesures des performances étaient souvent significativement corrélées à la durée de l'utilisation du cannabis, en étant moins bonnes avec l'augmentation des années d'utilisation", expliquent les chercheurs. Par ailleurs, ces mesures n'étaient pas corrélées à la présence de symptômes de manque et les différences restaient significatives si l'on prenait en compte la consommation récente de cannabis ou d'autres drogues. D'après les auteurs, ces résultats confirment des résultats précédents sur les conséquences du cannabis chez les gros consommateurs réguliers. Ils ajoutent que l'effet de l'arrêt du cannabis sur le rétablissement de ces fonctions cognitives reste à étudier.

Journal of American Medical Association :

http://jama.ama-assn.org/issues/v287n9/abs/joc11416.html

L'obésité dans le monde gagne du terrain et touche tous les pays
Samedi, 09/03/2002 - 00:00

C'est une étude réalisée dans le cadre du symposium sur la pandémie d'obésité, organisé par l'American Association for the Advancement of Science (AAAS, Boston, EU), et présentée par l'anthropologue Marquisa LaVelle (Université de Rhode Island), qui relate la progression importante de personnes souffrant de problèmes liés à l'obésité dans le monde. Ayant récolté les données de nombreux pays, cette étude montre que les pays industrialisés comme aujourd'hui les pays en voie de développement, connaissent une avancée considérable de l'obésité. Les nouvelles habitudes comportementales qui poussent à se nourrir davantage tout en ayant moins de dépense physique, sont incriminées par les auteurs de l'étude. «Nous nous préparons à une avalanche de maladies chroniques à retardement liées à l'obésité]», a alerté LaVelle, qui note par ailleurs une étude de l'OMS estimant que l'obésité a augmenté de 50% ces dix dernières années. Les auteurs de cette étude ont répertorié les données mondiales en matière d'obésité et ont trouvé que de 200 millions d'adultes et 22 millions d'enfants obèses en 1995, les chiffres en 2000 étaient passés à plus de 300 millions de personnes obèses à travers le monde. «Ce changement rapide ne peut être expliqué par des modifications génétiques de l'homme», disent les scientifiques, «car ce phénomène se passe trop rapidement et se répand trop vite». Les chercheurs pensent plutôt à un changement du style de vie brusque que connaissent les personnes dans les pays industrialisés ou émergents, avec pour corollaire l'apparition d'une puberté précoce des enfants, bien documentée maintenant par les études épidémiologiques. Pour expliquer la tendance à l'obésité parmi les pays pauvres, les auteurs mettent en avant l'adoption dans ces pays d'une nourriture industrielle associée à une diminution de l'activité physique, particulièrement chez les jeunes. «A mon avis», commente LaVelle, «nous devons repenser le problème de l'obésité dans un contexte environnemental, incluant une rétrospective bibliographique de l'alimentation scolaire et une révision des comportements vis à vis de l'activité physique qui devrait faire partie intégrante de la vie», a-t-elle conclu.

AAAS du 27-02-2002 : [http://www.aaas.org/news/

Alimentation : une tasse de thé après un repas trop gras
Samedi, 09/03/2002 - 00:00

Les personnes atteintes de maladies cardiovasculaires pourraient réduire les effets néfastes d'un repas trop gras en consommant, tout simplement, une bonne tasse de thé. C'est ce que révèlent les recherches de Yoshikazu Takanami, du Tokyo Medical University, au Japon. Lors d'un repas riche en gras, le niveau de lipides dans le sang devient plus élevé, ce qui peut entraîner une contraction des vaisseaux sanguins chez les patients déjà atteints de maladies cardiovasculaires. Mais le thé possède des propriétés antioxydantes qui pourraient permettre aux vaisseaux sanguins de rester plus souples et d'améliorer ainsi le flux sanguin. Dans une étude sur une courte échelle, Takanami et ses collègues ont évalué les effets de deux repas à taux élevé de matières grasses sur une dizaine de personnes volontaires âgées entre 21 et 38 ans. Pendant le premier repas, les participants n'ont bu que de l'eau, alors qu'après le deuxième repas, ils ont eu droit à une tasse de thé. Les résultats ont démontré que l'apport sanguin était plus fort durant le deuxième repas. L'équipe de Takanami a tenu à rajouter que pour les personnes atteintes de maladies cardiovasculaires, un seul repas trop gras pourrait causer une crise cardiaque, ce qui justifie l'importance de poursuivre les recherches dans ce domaine.

Radio Canada :

http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200202/26/003-the-card...

La sélection naturelle joue un rôle plus important qu'on le pensait
Samedi, 09/03/2002 - 00:00

La théorie synthétique de l'évolution, héritée de Darwin et complétée par la génétique fait l'objet depuis ses origines, il a presque un siècle et demi, de contestations permanentes, voire de remises en cause radicales . Deux équipes de chercheurs (université de Chicago, université de Sussex) impliquées dans l'étude de l'évolution génétique des drosophiles viennent pourtant de confirmer le rôle prépondérant de cette théorie de l'évolution des espèces qui reste la clef de voûte de toute la biologie moderne. Leurs résultats, publiés dans « Nature » du 28 février concordent : 25 % des gènes de la mouche du vinaigre évoluent rapidement, en réponse à des pressions de sélection. Pour parvenir à une telle conclusion, les chercheurs ont comparé sur plusieurs générations les séquences de 45 gènes homologues chez des insectes issus de deux espèces proches, Drosophila melanogaster et Drosophila simulans. Le but était d'évaluer l'influence de l'environnement sur le taux de mutations de ces gènes précis. Bilan: 34 des 45 gènes, soit près de 75 %, ne montrent aucun signe de sélection naturelle. Les onze gènes restants, en revanche, semblent évoluer très rapidement. Or le rôle de ces onze gènes n'est pas anodin : tous sont impliqués dans les fonctions de reproduction ou de résistance aux maladies. Ces fonctions, qui conditionnent la survie de l'individu et de l'espèce, sont connues pour être en constante amélioration. Les gènes qui les sous-tendent sont donc fortement sélectionnés. Après de savants calculs, les chercheurs sont parvenus à estimer à 270 000 le nombre de substitutions d'acides aminés positivement sélectionnées depuis la divergence des deux espèces de drosophiles, survenue il y a six millions d'années. Ainsi, une nouvelle substitution dite « adaptative » surviendrait tous les quarante-cinq ans dans chaque espèce. Si ces résultats semblent fiables, il faut éviter de vouloir tout expliquer par le biais de la sélection. « En fait, il faut admettre qu'en termes d'évolution les gènes se répartissent en deux catégories, explique Marie-Louise Cariou, qui dirige l'unité Populations, Génétique et Evolution du CNRS à Gif-sur-Yvette (91). Une partie du génome, responsable des fonctions vitales, est fortement sélectionné par l'évolution - cela est vrai pour toutes les espèces animales. Le reste du génome suit, quant à lui, une évolution compatible avec la théorie de la neutralité. » Selon cette théorie de la neutralité, proposée par le généticien Motoo Kimura en 1968, le génome subit, au cours de son évolution, une série d'infimes changements aléatoires et naturels, donc indépendants du contexte environnemental. Ces changements n'influencent pas la capacité adaptative de l'individu, lequel conserve alors les mêmes aptitudes à vivre. « Ces nouveaux travaux sont intéressants car, pour la première fois, ils présentent une approche globale sur une compilation d'un groupe de gènes, estime Marie-Louise Cariou, chercheuse au CNRS. Il ne s'agit toutefois que d'une première indication, qui reste à confirmer. » Dans ce but, l'unité CNRS que dirige la chercheuse s'est engagée dans un nouveau projet : l'analyse très fine, toujours chez la drosophile, de la variabilité moléculaire au niveau d'une douzaine de gènes (impliqués dans la reproduction, ou bien neutres). Les premiers résultats devraient paraître d'ici à quelques mois. Chung-I Wu est convaincu que sa théorie est transposable aux vertébrés, et notamment à l'homme. Une étude récente a déjà démontré que, chez les mammifères, les gènes de la reproduction sont effectivement soumis à la sélection et ont tendance à évoluer plus vite que les autres. Mais pour que soit transposable aux humains l'approche décrite ci-dessus, il faudrait pouvoir disposer de dizaines de générations, afin de savoir si les mutations sont gardées ou non. Pour ce faire, une étude européenne est en cours, qui porte sur une ancienne population d'Homo sapiens : des fossiles du pourtour méditerranéen. Entre autres polymorphismes génétiques devrait notamment être recherchée la variabilité du CMH en fonction de la répartition des parasites et des microbes à l'époque.

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top