RTFlash

RTFLASH Recherche & Technologie
NUMERO 480
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Juin 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Hewlett-Packard lance un PC doté d'un écran tactile
Les villes européennes en 3D dans Google Earth
Les tarifs des médecins bientôt accessibles en ligne
Avenir
Le robot-serpent, prochain outil de la chirurgie à coeur battant
Matière
Energies renouvelables : François Fillon inaugure un site pilote de géothermie
Produire de l'électricité à partir des gaz d'échappement des véhicules
Ces déchets produisent de l'électricité
Espace
Les scientifiques de Phoenix convaincus d'avoir trouvé de la glace sur Mars
Découverte d'une série d'exoplanètes de type "super-Terre"
Mars : Phoenix a enfin collecté son premier échantillon
Terre
Réduire de 85 % les émissions de CO2 d'ici 2050 : les propositions concrètes de l'organisation écologiste norvégienne Bellona
Biocarburants de seconde génération : incertitudes technologiques et risques écologiques
Traitement des eaux usées : vers la méthanisation des boues d'épuration
Le réchauffement perturbe les zones océaniques les plus poissonneuses
Vivant
20 scientifiques mettent en garde sur l'utilisation abusive des téléphones portables
Une nouvelle molécule doublement efficace contre le cancer
Cancer de la prostate : des progrès dans la prévention et la détection
Sclérose en plaques : tous les gênes de prédisposition bientôt identifiés
Obésité : tout se joue pendant l'enfance
Le risque de diabète relié à une exposition aux pesticides
Edito
Quelles sont les limites de la vie ?



Depuis la célèbre expérience de la "soupe primitive", réalisée à Chicago en 1953 par Stanley Miller, le processus d'apparition et de développement de le vie ne cesse de révéler son infinie richesse et sa complexité étonnante.

Des scientifiques ont pu récemment mettre en évidence la présence de vie microbienne dans un sédiment profond daté de 3,5 millions d'années et soumis à une température de 55°C. Sachant que la couche sédimentaire peut atteindre jusqu'à 10 km d'épaisseur, l'abondance de la vie microbienne souterraine serait telle que 10 % du carbone organique et les deux tiers des procaryotes pourraient être contenus dans les sédiments marins.

Une étude publiée dans Science présente les premières preuves de vie procaryote dans des échantillons de sédiments marins situés à une profondeur de 1 626 m sous la surface du sédiment, datés de 111 millions d'années et soumis à une température de 60 à 100°C. L'observation de l'abondance des cellules en division, de l'intégrité de la paroi cellulaire des microorganismes et la présence de séquences d'ARNr 16S originales affiliées à des Archaea thermophiles (Thermococcales) confirment l'existence d'une biosphère profonde et chaude constituée de micro-organismes endémiques. Il semble que cet écosystème profond, composé de procaryotes affiliés à des méthanotrophes (ANME), pourrait être alimenté par des composés d'origine thermogénique comme le méthane et l'hydrogène.

En 1977, de nouvelles formes de vies surprenantes, non liées à la photosynthèse, avaient déjà été découvertes : à 2500 m de fond sous l'océan, près de sources hydrothermales chaudes. Il s'agit d'étonnants vers tubulaires, les riftia, qui supportent une pression de 250 atmosphères, des températures de plusieurs centaines de degrés et vivent dans un environnement acide et riche en gaz toxiques.

Un nouvel écosystème a été par ailleurs découvert en 2005 sous la calotte glaciaire Antarctique, dans les fonds marins, à 850 mètres de profondeur. C'est ainsi qu'ils ont eu la surprise de voir que des bactéries et des coquillages peuplaient cet endroit peu propice à la vie. Plus récemment, des bactéries ont été identifiées encore plus profondément dans la glace de l'Antarctique, à plus de 3 km de profondeur!

Mais si la vie est partout sur Terre, y compris dans les endroits où règnent les conditions les plus extrêmes, elle est également présente, à l'état latent, dans l'espace. Depuis 1965, plus de 140 molécules ont été découvertes dans l'espace, à l'intérieur de nuages interstellaires et dans des enveloppes autour d'étoiles et une grande partie de ces molécules est organique. Les astronomes ont ainsi détecté la molécule à 8 atomes du sucre glycolaldehyde à l'intérieur du nuage Sagittarius B2. Ces nuages qui s'étendent sur plusieurs années-lumière sont la matière brute à partir de la laquelle se forment des étoiles et le système planétaire susceptible de les entourer. Ce n'est pas la première fois que du sucre est détecté dans l'espace mais cette nouvelle découverte prouve que le sucre existe à une température extrêmement basse -- seulement 8 degrés au-dessus de l'absolu zéro.

En mars 2008, une équipe franco-australienne a détecté pour la première fois une molécule proche chimiquement d'un acide aminé : l'aminoacétonitrile. Cette découverte est d'autant plus spectaculaire que la molécule est probablement un précurseur direct de la glycine, acide aminé essentiel et élément constitutif de la vie.

Depuis quelques semaines, la sonde ultra-sophistiquée Phoenix Lander utilise son bras robotisé pour creuser le sol jusqu'aux couches d'eau gelée. La sonde est en train d'analyser la nature du permafrost martien, en cherchant notamment des molécules de carbone et d'hydrogène essentielles à la vie. Mais la mission la plus prometteuse, totalement dédiée à la recherche de vie martienne est Exo-Mars, un projet de l'Agence spatiale européenne (ESA), avec un robot équipé d'une foreuse et d'un microscope, de détecteurs d'acides animés. Ce robot devrait atteindre Mars en 2015 et pourrait nous réserver bien des surprises!

Mais même si on ne trouve pas de vie sur Mars, cela ne signifie pas qu'en dehors de notre système solaire la vie n'existe pas sur d'autres planètes. En un peu plus de 15 ans, plus de 250 planètes extrasolaires ont été découvertes et en avril 2007, de la vapeur d'eau a été découverte pour la première fois dans l'atmosphère d'une exoplanète.

Enfin, il y a quelques jours, des scientifiques européens ont découvert trois "super-Terres" en orbite autour d'une étoile relativement proche de nous, et de deux autres systèmes solaires dotés de petites exoplanètes. Ces découvertes suggèrent que les exoplanètes ayant des caractéristiques voisines de celles de la Terre sont peut-être en réalité courantes dans l'univers. (Voir article complet dans notre rubrique « Espace »).

Vers 2025, la mission "Darwin", encadrée par l'Agence spatiale européenne sera en mesure d'analyser directement la lumière des planètes pour en déduire des informations sur la composition chimique de l'atmosphère et en déduire la présence possible de la vie.

Nous savons à présent que la vie peut naître, se développer et perdurer dans des conditions extrêmement hostiles et que ses capacités d'adaptation sont absolument prodigieuses. Aujourd'hui, aucun scientifique ne se hasarderait plus à fixer des limites aux conditions nécessaires à l'apparition, à l'essor et à la complexification de la vie et il y a donc fort à parier que, dans les décennies à venir, nous découvrions de nouvelles formes de vie inattendues sur notre planète et peut être, ce qui serait encore plus extraordinaire, des traces de vie sur d'autres planètes.

Nous devrions enfin, au cours des prochaines décennies, savoir si la vie est finalement relativement banale dans l'Univers. Si tel est le cas, la vie n'est-t-elle, comme l'écrivait Jacques Monod, il y a 40 ans, que le "produit du hasard et de la nécessité" ou faut-il intégrer le phénomène vivant à la question troublante et très débattue de l'ajustement fin des constantes physiques fondamentales de l'Univers qui semblent être réglées de telle manière que l'apparition de la vie soit probable ?

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Hewlett-Packard lance un PC doté d'un écran tactile
Vendredi, 27/06/2008 - 00:00

Hewlett-Packard, le premier fabricant mondial d'ordinateurs, a lancé une nouvelle génération de PC dotés d'écrans tactiles conçus pour sortir ce type d'ordinateurs "conviviaux" de la niche haut de gamme dans laquelle ils étaient jusqu'ici cantonnés. Le modèle TouchSmart All-in-One, grâce auquel l'utilisateur peut accéder à des photos, des vidéos, de la musique, ou encore à internet ou à la télévision grâce à un simple tapotement sur l'écran, vient d'être lancé à Berlin.

Il sera commercialisé 1.299 dollars (836 euros) à partir du mois de juillet dans 17 pays, dont les Etats-Unis et le Royaume-Uni. La division Personal Systems de HP, qui regroupe les activités PC, portables, stations de travail et appareils de poche, s'est transformée au cours des dernières années, passant d'une activité principalement soutenue par des ventes en volume à une approche, bien plus fructueuse, s'appuyant principalement sur le design des produits.

L'un des dirigeants du groupe, Todd Bradley, a déclaré à Reuters que son objectif était de lancer une nouvelle tendance et de créer un nouveau marché. "Nous ne concevons pas cela comme une niche. Nous le considérons comme un produit mondial qui fera l'objet d'une demande et suscitera de l'intérêt", a-t-il déclaré lors d'une interview téléphonique, tout en refusant de faire des prévisions sur le potentiel du marché pour de tels ordinateurs. Le TouchSmart All-in-One d'HP a été dévoilé au lendemain de la présentation par Apple d'un nouvel iPhone, dont la première version a attiré l'attention du public sur les écrans tactiles et entraîné à sa suite une foule d'imitateurs.

Reuters

Les villes européennes en 3D dans Google Earth
Vendredi, 27/06/2008 - 00:00

Google propose aux villes européennes qui disposent d'une modélisation 3D de leurs bâtiments de les intégrer dans son logiciel de photos par satellite Google Earth. Baptisé « Google Earth Villes en 3D », ce programme est disponible en France, en Allemagne, en Italie et au Royaume-Uni. Les collectivités locales peuvent partager leurs données 3D, mais aussi « mettre à profit les nombreuses fonctions de cet outil pour communiquer auprès du public, des professionnels du secteur privé et des visiteurs de la ville », souligne Google. Premier avantage du programme : mettre en avant les lieux touristiques à découvrir avant de visiter ces villes, ce que la cartographie ne permet pas.

GE

Les tarifs des médecins bientôt accessibles en ligne
Vendredi, 27/06/2008 - 00:00

Plus de transparence sur les honoraires des médecins, c'est ce que souhaite la Sécurité sociale. A partir du mois de juillet prochain, en principe, la Caisse nationale d'assurance maladie indiquera sur son site Internet les tarifs moyens pratiqués par chaque praticien, de façon nominative, qu'il soit conventionné (secteur 1) ou non (secteur 2).

L'organisme souhaite surtout palier le défaut d'information des médecins libéraux du secteur 2 qui peuvent dépasser les honoraires et de fixer leurs propres tarifs, qu'ils doivent afficher dans leur salle d'attente. Mais dans les faits, cette obligation n'est que rarement respectée. La Direction générale de la concurrence de la consommation et de la répression des fraudes (DGCCRF) avait révélé en mai 2007 que la moitié des médecins libéraux inspectés s'affranchissaient de ce devoir.

En pratique, la Sécurité sociale indiquera sur Internet, comme elle le fait déjà au téléphone depuis 2007, la fourchette des honoraires des professionnels de santé. « En plus des honoraires des médecins, nous indiquerons les tarifs des soins pratiqués par les dentistes, puis, ceux des principaux actes techniques chirurgie, NDRL] », indique t-on à la Cnam.

Dès cet été, les patients devraient donc être mieux armés pour choisir leur médecin. Le Collectif inter-associatif sur la santé (Ciss) qui regroupe l'Union nationale des associations familiales et diverses associations de patients vient de tirer la sonnette d'alarme. Selon un sondage qu'il a effectué en septembre 2007, 13 % des Français ont déjà dû renoncer à des soins en raison du prix de la consultation chez un spécialiste. Et pour cause les dépassements d'honoraires, qui ne sont pas remboursés par le Sécurité sociale, et plus ou moins par les mutuelles, explosent. Ils se seraient montés en 2006 à un total de 6 milliards d'euros dont 4 milliards rien que pour le secteur dentaire.

[OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Le robot-serpent, prochain outil de la chirurgie à coeur battant
Vendredi, 27/06/2008 - 00:00

La cardiologie interventionnelle, qui permet de déboucher les artères par des sondes passant dans les vaisseaux, avait déjà conquis une partie du terrain de la chirurgie cardiaque. Celle-ci pourrait en céder une autre à des robots articulés, en forme de serpent, dont les premiers essais chez l'homme devraient débuter au deuxième semestre 2008. Maniable, peu invasif : telles sont les deux grandes qualités du prototype mis au point par Mario Zenati et Howie Choset, du laboratoire de biorobotique de l'université Carnegie Mellon (Pittsburgh, Pennsylvanie). Développée dans le cadre de la société privée qu'ils ont fondée, CardioRobotics, leur sonde articulée est assez fine pour passer à l'intérieur des vaisseaux, et suffisamment souple pour en suivre les méandres. Pilotée par un chirurgien au moyen d'un joystick et d'un ordinateur, elle existe en plusieurs tailles. La plus petite fait 12 millimètres de diamètre pour une longueur de 30 centimètres.

Baptisé CardioArm (Arm signifiant "bras", mais étant aussi l'acronyme d'Articulated Robotic MedProbe : "sonde médicale robotique articulée"), ce robot, dont la tête est dotée d'une caméra et d'un scalpel, a fait l'objet, en 2006, d'essais sur des porcs. Introduit dans la cage thoracique par un orifice pratiqué sous l'extrémité inférieure du sternum, il a permis d'intervenir alors que le coeur de l'animal continuait de battre. L'opération n'a eu aucun effet indésirable sur la tension artérielle, pas plus qu'elle n'a provoqué de saignement inattendu. Après avoir amélioré leur prototype, les chirurgiens ont répété avec succès l'opération sur des cadavres humains. Le robot s'est révélé encore plus maniable, chaque anneau du "serpent" suivant exactement, grâce à l'assistance de l'ordinateur, la trajectoire de la tête de l'appareil.

"Nous faisons en sorte de n'avoir qu'un seul point d'entrée pour le robot et d'atteindre n'importe quel site à partir de ce point", explique Marco Zenati. D'autres robots existent, mais nécessitent cinq ou six points d'entrée. Des chercheurs de l'université Johns-Hopkins (Baltimore) ont, quant à eux, mis au point un robot-serpent semblable au CardioArm, mais de taille inférieure, pour la chirurgie du larynx. De la même manière que la coeliochirurgie a su naguère trouver sa place, les reptiles automates ont incontestablement un avenir dans la médecine.

LM

^ Haut
Matière
Matière et Energie
Energies renouvelables : François Fillon inaugure un site pilote de géothermie
Vendredi, 27/06/2008 - 00:00

Accompagné de Jean-Louis Borloo et de Nathalie Kosciusko-Morizet, François Fillon visitait, le 13 juin, le site du projet franco-allemand de production d'électricité par géothermie de Soultz-sous-Forêts (Bas-Rhin), le "plus avancé au monde pour ce type d'énergie renouvelable". Lors de l'inauguration du site de production d'électricité géothermique de Soultz-sous-Forêts, le Premier ministre s'est exprimé sur la crise pétrolière. Il a affirmé qu'"encourager la consommation d'hydrocarbures serait commettre un contresens historique et prolonger une illusion en attendant la hausse suivante". "L'Etat n'est pas là pour donner un faux répit. Il est là pour aider à franchir un cap", a-t-il ajouté. Le principe de la géothermie consiste à transformer la température élevée du sous-sol - 200°C à 5 000 mètres de profondeur - en électricité. Le projet franco-allemand permettra, avec cette méthode, de développer des centrales qui produisent de l'électricité ou de la chaleur à un coût concurrentiel.

En cas de succès, ce projet de centrale pilote sera suivi par la réalisation en 2015 d'un prototype industriel de 20 MWe capable d'alimenter en énergie électrique une ville de 20 000 habitants. Lancé en 1987 par un accord de coopération franco-allemand entre le Bureau de recherches géologiques et minières (BRGM) pour la France et le Geologisches Landesamt du Bade-Wurtemberg pour l'Allemagne, le projet de géothermie de Soultz-sous-Forêts a nécessité seize années d'études de faisabilité. Lors de son déplacement, le Premier ministre a symboliquement injecté le premier KWh géothermique dans le réseau d'électricité de Strasbourg qui achète le courant produit et le diffuse sur son réseau.

PM

Produire de l'électricité à partir des gaz d'échappement des véhicules
Vendredi, 27/06/2008 - 00:00

Les chercheurs de l'Institut Fraunhofer de techniques de mesures physique (IPM) élaborent actuellement un générateur thermoélectrique permettant de convertir la chaleur d'échappement des voitures en électricité. Ce module pourrait servir de source d'alimentation pour les systèmes électroniques à bord des véhicules. Par conséquent, le système permettrait une réduction de la consommation de carburant, et donc a fortiori une diminution des émissions de CO2 des véhicules automobiles. En effet, deux tiers du carburant seraient perdus sous forme de chaleur lors du fonctionnement de l'automobile : environ 30 % dans le groupement moteur et 30 % à 35 % dans les gaz d'échappement.

Les générateurs thermoélectriques transforment la chaleur en énergie électrique en se servant du gradient de température : plus la différence de température est grande, plus ces générateurs produisent de l'électricité. Pour atteindre leur objectif, les chercheurs de l'IPM développent des matériaux thermoélectriques, des modules et des systèmes adaptés à l'automobile. "Dans la tuyère d'échappement, les températures atteignent jusqu'à 700°C et plus", raconte Docteur Harald Böttner, directeur du département systèmes thermoélectriques, d'où un gradient de température entre la tuyère d'échappement et le circuit du liquide de refroidissement de plusieurs centaines de degrés Celsius.

"Le transformateur thermoélectrique exploite ce grand écart", continue-t-il. Entraînés par le flux de chaleur créé entre les gaz d'échappement chauds et le circuit de refroidissement, les porteurs de charge traversent plusieurs semi-conducteurs spéciaux générant un courant électrique. A long terme, ce générateur pourrait rendre superflu le rôle de l'alternateur et alimenter directement les récepteurs électriques dans la voiture, dont le nombre croît constamment. Ainsi, "la consommation de carburant pourrait diminuer de 5% à 7 %", détaille Docteur Böttner.

Cette technologie pourrait s'avérer fort utile : environ 50 millions de véhicules automobiles circulent en Allemagne, à raison de 200 heures par an chacun. Si l'on pouvait utiliser la chaleur émise pendant ce temps pour alimenter toute l'électronique de bord avec une puissance d'un kilowatt, cela permettrait d'économiser 10 terawattheure chaque année, soit environ 2 % de la consommation allemande d'électricité.

BE

Ces déchets produisent de l'électricité
Vendredi, 27/06/2008 - 00:00

Des ordures qui produisent du gaz méthane, qui alimente ensuite un moteur et produit de l'électricité. C'est nouveau, simple et ça marche. On l'appelle l'électricité verte. La transformation des déchets en énergie semble faire son apparition dans l'Oise et pourrait bien révolutionner notre perception des centres d'enfouissement. C'est Saint Maximin qui vient d'ouvrir une unité de valorisation électrique du biogaz. « L'idée est de donner une nouvelle vie à nos déchets », assure Yves Matichard, directeur général de Fairtec-Gastec, l'entreprise filiale de la Sita qui a réalisé l'installation.

Le centre de stockage de St Maximin et ses 120 000 t de déchets annuels, générera dorénavant 7,5 gigawatts/heure d'électricité verte. Soit de quoi couvrir la consommation EDF annuelle de près de 3 300 habitants. « Un projet dont nous rêvions depuis vingt ans », confie Serge Macudzinski, maire de la commune. « Avoir un centre d'enfouissement sur son territoire, c'est toujours inquiétant mais, avec cette unité de valorisation, Sita joue vraiment le jeu du développement durable. »

Le principe de cette usine est étonnamment simple. Le site de stockage des déchets, implanté dans d'anciennes carrières de pierres, est divisé en alvéoles indépendantes. Dès qu'un casier est plein, il est recouvert d'une couverture étanche puis de terre végétale. On fore alors des puits pour récupérer le biogaz issu de la fermentation des déchets. Ce fluide est conduit via des tuyaux jusqu'à l'unité de valorisation où il est refroidi puis injecté dans un moteur à explosion, semblable à celui d'une voiture à essence.

L'électricité ressortant de ce processus passe alors par un transformateur pour être convertie au voltage standard du réseau. Elle est enfin renvoyée directement sur les lignes EDF. Le biogaz est ainsi réutilisé au lieu d'être brûlé dans l'atmosphère, comme c'est le cas aujourd'hui sur la plupart des centres d'enfouissement.

LP

^ Haut
Espace
Espace et Cosmologie
Les scientifiques de Phoenix convaincus d'avoir trouvé de la glace sur Mars
Vendredi, 27/06/2008 - 00:00

"Nous avons trouvé la preuve que nous cherchions, à savoir que ce matériau brillant est bien de la glace d'eau et non pas une autre substance", a déclaré le 22 juin Peter Smith, de l'Université d'Arizona (sud-ouest), le responsable scientifique de Phoenix, lors d'une téléconférence de presse. Huit morceaux de matériau blanc brillant, de la taille d'un dé, avaient été photographiés il y a quatre jours dans une tranchée que venait de creuser la pelle du bras robotisé de Phoenix. Or, ils n'étaient plus visibles sur les dernières images du même endroit transmises par la sonde, a expliqué Mark Lemmon, un des membres de l'équipe scientifiques.

Ces matériaux étaient bien de l'eau gelée qui s'est évaporée après avoir été exposée au soleil, a-t-il dit avant d'ajouter : "Nous avons trouvé ce que nous cherchions". Il y avait un débat jusqu'à cette découverte au sein de l'équipe de recherche de Phoenix sur le fait de savoir si ce matériau blanc était de la glace ou du sel. "Cette découverte faite grâce aux images est vraiment incroyable, quelque chose de merveilleux", s'est félicité Peter Smith, notant que la surprise a été de découvrir de la glace aussi près de la surface du sol à moins de deux centimètres. Selon lui, Phoenix s'est posée sur un immense glacier. La présence de glace à la surface de Mars n'est pas une nouvelle mais c'est la première fois qu'il est possible d'en observer et, ultérieurement, d'en analyser des échantillons.

Depuis les observations et les mesures effectuées en 2002 par l'orbiteur américain Mars Odyssey, les scientifiques savent qu'il y a une énorme calotte glaciaire permanente au pôle nord de Mars. La mission Phoenix, avec son lieu d'atterrissage dans le permafrost de l'arctique martien, a été conçue sur la base de la découverte de Mars Odyssey, afin de creuser le sol pour atteindre la glace. Si l'eau a coulé sur Mars, elle a laissé son empreinte sur les minéraux environnants, et les impuretés détectées dans la glace peuvent donc en dire long sur l'histoire climatique de cette région et de la planète.

Mars est actuellement trop froid pour que la glace puisse y exister à l'état liquide, mais il est possible que dans un passé lointain les régions polaires aient connu des températures plus clémentes, supputent les scientifiques. L'eau étant un ingrédient essentiel pour la vie, cette région arctique a peut-être été habitable à un certain moment, ce que cherche à savoir Phoenix en déterminant également avec ses instruments si des éléments organiques y sont présents.

NASA

Découverte d'une série d'exoplanètes de type "super-Terre"
Vendredi, 27/06/2008 - 00:00

Des scientifiques européens annoncent la découverte de trois "super-Terres" en orbite autour d'une étoile relativement proche de nous, et de deux autres systèmes solaires dotés de petites exoplanètes. Ces découvertes, présentées au cours d'une conférence en France, suggèrent que les exoplanètes ayant des caractéristiques voisines de celles de la Terre sont peut-être en réalité courantes dans l'univers.

"Est-ce que chaque étoile compte des planètes et, si oui, combien ?", s'est interrogé Michel Mayor, qui fut l'un des découvreurs des premières exoplanètes en 1995. "Peut-être ignorons-nous encore la réponse mais nous progressons énormément dans cette direction", a ajouté Mayor, de l'Observatoire de Genève.

Le trio de planètes découvertes tourne autour d'une étoile légèrement moins massive que notre Soleil, à seulement 42 années-lumière de nous, dans les constellations Doradus et Pictor. Elles sont plus grosses que la Terre : l'une a 4,2 fois sa masse, une autre 6,7 fois et la troisième 9,4 fois. Elles tournent en orbite autour de leur étoile à des vitesses extrêmement grandes : l'une accomplit une révolution en quatre jours seulement, contre 365 jours pour la Terre ; une autre prend dix jours et la plus lente met 20 jours.

Mayor et ses collègues ont eu recours au télescope HARPS (High Accuracy Radial Velocity Planet Searcher), de La Silla, dans les montagnes du nord du Chili, pour effectuer ces découvertes. A ce jour, depuis 1995, plus de 270 exoplanètes ont été découvertes. La plupart sont des géantes qui rappellent nos Jupiter et Saturne. Les planètes de plus petit diamètre, proches de celui de la Terre, sont sensiblement plus difficiles à détecter, en l'état actuel des techniques d'astronomie.

L'équipe de scientifiques a également annoncé avoir localisé une autre exoplanète ayant 7,5 fois la masse de la Terre, en orbite autour de l'étoile HD 181433. Cette étoile-là a aussi une planète géante, qui accomplit sa révolution en trois années terrestres. Un autre système solaire découvert compte une planète de 22 fois la masse terrestre, qui effectue sa révolution en quatre jours, et une planète de type Saturne, dont la révolution dure elle aussi trois ans.

Selon Mayor, il est clair que ces planètes ne sont que la pointe émergée de l'iceberg. L'analyse de toutes les étoiles passées en revue à ce jour avec le télescope HARPS, dit-il, montre qu'un tiers des étoiles comparables au Soleil sont environnées soit de planètes dites "super-Terres" soit de planètes de type Neptune, dont la révolution excède les 50 jours.

NO

Mars : Phoenix a enfin collecté son premier échantillon
Vendredi, 27/06/2008 - 00:00

Après plusieurs tentatives infructueuses, le bras articulé de la sonde Phoenix a finalement collecté le premier échantillon de sol martien pour commencer les analyses en quête d'eau et de composants organiques. La pelle du bras articulé de Phoenix, qui s'est posé le 25 mai dans l'arctique jusque-là inexploré de la planète rouge, avait bien déposé en fin de semaine dernière sa première moisson du sol martien à l'entrée d'un des instruments.

Mais l'échantillon trop granuleux ne pouvait pas entrer dans la chambre d'un des huit micro-fours dit TEGA ("Thermal and Evolved Gas Analyzer") qui peut chauffer les matériaux jusqu'à 1.000 degrés Celsius. "Après avoir actionné une septième et dernière fois le vibrateur pour faire tomber des particules à travers le tamis de l'entrée de TEGA, nous avons été surpris de recevoir des données indiquant que le four était plein", a expliqué, visiblement soulagé, William Boynton, un des chercheurs de la mission. "Nous avons actionné le vibrateur plusieurs fois par jour en nous croisant les doigts" pour finir par faire tomber suffisamment de ce sol dans TEGA, a-t-il dit lors d'une conférence de presse. Ce four ne peut être utilisé qu'une fois mais Phoenix en compte huit.

Ce processus "prendra environ cinq jours dont les quatre premiers durant lesquels la température sera progressivement augmentée (...) de manière à identifier l'eau et les différents minéraux présents", a expliqué le scientifique. En se décomposant sous l'effet de la chaleur les minéraux libèrent l'eau et le dioxyde de carbone (CO2) avec lesquels ils ont interagi chimiquement dans le passé, a-t-il poursuivi. "C'est un dénouement merveilleux avec l'instrument TEGA", a jugé Peter Smith, le responsable scientifique de la mission Phoenix, de l'Université d'Arizona (sud ouest) qui s'exprimait lors de la même conférence de presse.

Il a souligné que le sol du permafrost martien paraissait "particulièrement intéressant et très inhabituel". Ce sol est formé d'une fine croûte à la surface qui recouvre un matériau d'apparence sablonneuse. Mais ce sol a aussi tendance à s'agglomérer et à coller. Des portions de l'échantillon déposé dans l'entrée de TEGA adhéraient fortement sur la surface métallique lisse en forme d'entonoir malgré une pente de 45 degrés, a poursuivi Peter Smith.

Selon Peter Smith les premières images du microscope devraient bientôt arriver sur la Terre. Les commandes ont été transmises à l'instrument, a-t-il précisé. Il faut quinze minutes à un signal radio voyageant à la vitesse de la lumière pour parcourir les quelque 276 millions de kilomètres séparant Mars de la Terre. Ces scientifiques se sont aussi dits très confiants que la sonde trouverait de l'eau gelée sous la surface du sol, deuxième étape de son exploration.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réduire de 85 % les émissions de CO2 d'ici 2050 : les propositions concrètes de l'organisation écologiste norvégienne Bellona
Vendredi, 27/06/2008 - 00:00

Dans un rapport touffu (132 pages) et remarquable de rigueur, l'organisation écologiste norvégienne Bellona a présenté un ensemble de mesures qui, de la combustion d'algues à l'enfouissement de CO2, permettraient, selon elle, de réduire de 85 % les émissions de gaz à effet de serre d'ici à 2050. "Combattre le réchauffement de la planète est un défi considérable mais pas insurmontable", estime Frederic Hauge, le président de Bellona. "Les mêmes compétences et capacités industrielles qui ont créé le problème peuvent permettre de le résoudre", ajoute-t-il.

Dans son rapport "Comment combattre le changement climatique : le scénario Bellona", l'ONG norvégienne présente une recette qui s'appuie à la fois sur les comportements et les technologies. Pour arriver à l'objectif voulu, elle prône de changer les modes de vie en indexant notamment le prix des produits à leur effet sur le climat, d'améliorer l'efficacité énergétique, de développer les énergies renouvelables et d'améliorer la gestion des forêts.

Elle recommande aussi le captage et stockage du carbone (CCS) émis par les industries lourdes et les centrales thermiques au gaz ou charbon, mais aussi, mesure moins connue, d'appliquer le principe du CCS à des centrales alimentées à la biomasse.

Combiner CCS et biomasse déboucherait sur une "contribution carbone négative", c'est-à-dire qu'une centrale fonctionnant à la biomasse, des algues par exemple, permettrait de produire de l'énergie tout en éliminant du CO2, celui absorbé par ladite biomasse par voie de photosynthèse.

En regardant la télévision, en passant l'aspirateur ou en conduisant votre voiture électrique pour aller voir de la famille et des amis, vous aideriez ainsi à supprimer du CO2 de l'atmosphère", a noté M. Hauge. Selon le Groupe intergouvernemental d'experts sur l'évolution du climat (Giec), il faudrait réduire de 50 à 85 % les émissions de CO2 d'ici à 2050 pour limiter à 2°C la hausse moyenne des températures et éviter ainsi des catastrophes majeures.

Bellona

Biocarburants de seconde génération : incertitudes technologiques et risques écologiques
Vendredi, 27/06/2008 - 00:00

Produits à partir de paille, de bois, de déchets agricoles et forestiers, ces carburants utilisent la ligno-cellulose des plantes, leur constituant principal. S'il faut toujours compter avec des cultures consacrées aux biocarburants, comme l'herbe à éléphant (miscanthus), le nombre d'espèces valorisables s'élargit donc considérablement. En partant de cette biomasse, on peut obtenir soit de l'éthanol soit des “BtL” (Biomas to Liquids), ou hydrocarbures de synthèse qui, selon Xavier Montagne, directeur scientifique adjoint de l'Institut Français du Pétrole (IFP), pourraient être disponibles entre 2015 pour l'éthanol et 2020 pour le BtL.

Techniquement, deux voies sont explorées, biologique et thermochimique, actuellement en cours de tests au stade pilote en Europe et aux Etats-Unis notamment (en France à partir de 2009). “Ces procédés ont aujourd'hui de mauvais rendements. Il faudrait arriver à les mutiplier par deux, trois serait l'idéal”, souligne encore Claude Roy, coordinateur interministériel français pour la valorisation de la biomasse. “Le vrai pari sera la bataille des rendements”. Autre obstacle : des investissements considérables.

En Allemagne, la société Choren a inauguré en avril en Saxe un site pour produire 18 M de l de biodiesel à partir de résidus de bois. Elle prévoit désormais une raffinerie d'une capacité de 200 000 tonnes, d'un coût estimé à 1 milliard d'euros contre 40 M pour un site comparable au colza, selon la Fédération allemande des biocarburants.

Par ailleurs, même si les cultures consacrées à la production de cette nouvelle génération nécessitent moins de surfaces, “il faudra quand même mobiliser des sols. Là encore on risque d'entrer en concurrence avec les cultures agricoles”, reconnaît Claude Roy.

Jean-Louis Bal, responsable des Energies renouvelables à l'Agence pour le développement et la maîtrise de l'énergie (Ademe) met également en garde contre le bilan carbone (les émissions de gaz à effet de serre) des biocarburants, même de seconde génération. “Si une terre était déjà cultivée ça ne change rien. Mais si on convertit des prairies, ou pire, une forêt, qui stockaient des quantités considérables de CO2 qu'on relâche dans l'atmosphère, le bilan devient catastrophique”.

Romandie

Traitement des eaux usées : vers la méthanisation des boues d'épuration
Vendredi, 27/06/2008 - 00:00

La forte hausse des volumes d'eaux usées, conjuguée avec l'amélioration des niveaux de traitement, engendre une croissance constante des quantités de boue d'épuration rejetées, dont l'élimination pose problème. « Les volumes de boues municipales produites en France sont passés de 860 000 tonnes en 1998 à 1,1 million de tonnes en 2006, soit une progression de 18 % », explique Jean-Philippe Tridant Bel, responsable de l'activité Chimie, Matériaux et Energie chez Alcimed, une société de conseil en matière de sciences de la vie et de chimie.

Or les procédés d'élimination traditionnels non-durables, comme la mise en décharge, l'épandage et l'incinération tendent à disparaître. La mise en décharge, réduite progressivement par la directive européenne du 26 avril 1999, sera définitivement interdite en 2015. L'épandage qui représente aujourd'hui près de 60 % de l'élimination des boues en France est également amené à disparaître pour des raisons environnementales, tandis que l'incinération reste peu accessible du fait de son coût élevé.

Composées d'eau et de matières minérales et organiques, les boues d'épuration sont considérées comme des déchets gênants alors qu'elles ont un véritable potentiel. Deux options permettent leur valorisation : le compostage et la biomasse. Le premier transforme les boues en matières fertilisantes, par un phénomène de dégradation biologique.

La méthanisation permet de produire du biogaz par dégradation de la matière organique contenue dans les rejets des stations d'épuration. Si cette technique n'assure pas l'élimination complète des boues, elle contribue néanmoins à en réduire considérablement le volume, et constitue une source d'énergie renouvelable.

DD

Le réchauffement perturbe les zones océaniques les plus poissonneuses
Vendredi, 27/06/2008 - 00:00

Ce sont les régions les plus poissonneuses du globe : avec moins de 3 % des surfaces océaniques, elles fournissent 20 % à 30 % des captures mondiales de pêche - essentiellement sardines et anchois. Ce sont aussi les écosystèmes parmi les plus sensibles au réchauffement et à la surpêche.

Appelées "écosystèmes d'upwelling de bordure est des océans" (EUBE), ces zones sont situées sur la façade ouest des continents, où alizés et courants marins favorisent des remontées d'eau froide très riches en substances nutritives. Pour évaluer l'impact que peut avoir le réchauffement climatique sur cette manne, l'Institut de recherche pour le développement (IRD) a co-organisé une conférence internationale à Las Palmas de Gran Canaria (Espagne), du 2 au 6 juin.

On recense quatre principaux EUBE, correspondant à de grands courants marins. Dans l'Atlantique nord, on distingue la zone du courant des Canaries (Espagne, Maroc, Mauritanie et nord du Sénégal) et au sud, celle du courant de Benguela (sud de l'Angola, Namibie, Afrique du Sud). Dans le Pacifique sud, il s'agit du courant de Humboldt (Pérou et Chili) et, dans le nord, du courant de Californie (Etats-Unis et nord du Mexique). "Ces écosystèmes sont très violents et impétueux par rapport au reste de l'océan. Et l'imbrication des variabilités décennales, séculaires, voire millénaires, rend difficile l'analyse des tendances à long terme", explique Pierre Fréon, directeur de recherche au Centre de recherche halieutique méditerranéenne et tropicale (IRD/Ifremer/université de Montpellier II) à Sète (Hérault).

Les observations effectuées sur place, les modèles numériques et les images satellites permettent d'avoir un premier aperçu de l'effet de la montée des températures sur la faune océanique. Les modèles relatifs à la physique des océans, couplés à ceux qui traitent des comportements de la vie marine, du plancton aux poissons jusqu'aux prédateurs supérieurs - dont l'homme -, montrent que ces écosystèmes sont moins résistants au réchauffement quand ils sont intensément exploités.

Le réchauffement n'est pas homogène dans les quatre EUBE mais cette augmentation de température a des effets inattendus. Par leur respiration, puis leur décomposition quand ils sont morts, les êtres vivants font baisser la quantité d'oxygène dans l'eau de mer de surface. Dans le même temps, la montée des températures limite le brassage des eaux et augmente la stratification de l'océan. Résultat : dans plusieurs écosystèmes d'upwelling, les scientifiques ont constaté que l'habitat des espèces aux stades larvaire et adulte se retrouve comprimé dans les couches superficielles. Ce qui est le cas au large de la Namibie, du Pérou et du Chili.

"Et dans certains cas extrêmes, comme en Afrique du Sud, ajouté Pierre Fréon, l'écosystème s'emballe. Le manque d'oxygène, associé à la production de toxines, conduit les langoustes à sortir de l'eau et à envahir les plages, où elles meurent de dessication par centaines de tonnes. Ce n'est pas un phénomène nouveau, mais sa fréquence semble s'accentuer". En Namibie, la diminution des alizés, alliée à la surpêche et à la diminution de l'oxygène, s'est traduite par la disparition de la sardine et par la prolifération des méduses et des gobies.

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
20 scientifiques mettent en garde sur l'utilisation abusive des téléphones portables
Vendredi, 27/06/2008 - 00:00

Vingt scientifiques internationaux lancent un appel contre les dangers que représente le téléphone portable, notamment pour les enfants de moins de douze ans. Cet appel, coordonné par David Servan-Schreiber, professeur de psychiatrie à l'université de Pittsburgh, énumère dix recommandations principales. Selon les signataires, il ne faut pas autoriser les enfants de moins de 12 ans à utiliser un téléphone portable sauf en cas d'urgence, il faut maintenir le téléphone à plus d'un mètre du corps lors des communications en utilisant le mode haut-parleur ou un kit mains libres ou une oreillette, et éviter le plus possible de porter un téléphone mobile sur soi, même en veille.

L'appel recommande aussi de communiquer plutôt par SMS, car cela limite la durée d'exposition et la proximité avec l'appareil.Les scientifiques s'accordent sur deux choses : il n'y a pas de preuve formelle de la nocivité du portable, mais un risque existe qu'il favorise l'apparition de cancers en cas d'exposition à long terme. "Nous sommes aujourd'hui dans la même situation qu'il y a cinquante ans pour l'amiante et le tabac. Soit on ne fait rien, et on accepte un risque, soit on admet qu'il y a un faisceau d'arguments scientifiques inquiétants", explique l'un des signataires de l'appel, Thierry Bouillet, cancérologue et directeur de l'Institut de radiothérapie de l'hôpital Avicenne à Bobigny.

Guérir

Une nouvelle molécule doublement efficace contre le cancer
Vendredi, 27/06/2008 - 00:00

Des chercheurs du Centre national de la Recherche Scientifique (CNRS) ont mis au point une molécule synthétique capable de bloquer la croissance des cellules tumorales et de stopper la formation de vaisseaux sanguins autour des tumeurs.

La molécule découverte pourrait bloquer à la fois la multiplication des cellules cancéreuses et la formation des vaisseaux qui nourrissent la tumeur. De nouvelles perspectives sont ainsi ouvertes par une telle découverte. En effet, les qualités de la molécule baptisée HB-19, sont multiples. Cette molécule cible spécifiquement une protéine nécessaire à la croissance des tumeurs appelée "nucléoline de surface", mais s'attaque aussi à l'"angiogénèse", en d'autres termes la formation de nouveaux vaisseaux sanguins indispensables qui apportent de la "nourriture" à la tumeur. Outre cette double-caractéristique très encourageante, elle ne serait pas toxique, contrairement aux traitements utilisés jusqu'alors par la médecine.

Pour parvenir à ces conclusions, les trois directeurs de l'étude, Ara Hovanessian, Jean-Paul Briand et José Courty, tous trois chercheurs au CNRS, ont procédé à des expériences sur des souris et sur plusieurs types de cellules cancéreuses humaines (cancer de la prostate, du sein, du colon ou le mélanome). La molécule a été introduite par injection sous la peau ou dans la cavité abdominale de souris auxquelles avaient été greffées des cellules tumorales d'origine humaine, à 2-3 jours d'intervalle pendant un mois.

Résultat, ce traitement expérimental a entraîné une "inhibition significative de la progression de tumeurs, voire même dans plusieurs cas l'éradication de cellules tumorales", selon les scientifiques. La cellule, efficace, peut enfin être produite à l'échelle industrielle. Le CNRS dispose d'un brevet protégeant cette découverte, et c'est la société ImmuPharma qui a obtenu la licence d'exploitation exclusive. Elle a développé une famille de composés de deuxième génération plus efficaces encore qu'HB-19 (une molécule nommée « NUCANT » (pour NUcléoline ANTagoniste), cinq à dix fois plus puissante que HB-19) et espère pouvoir commencer une étude clinique préliminaire (dite de phase 1) dès 2009.

PLoS

Cancer de la prostate : des progrès dans la prévention et la détection
Vendredi, 27/06/2008 - 00:00

Selon une vaste étude britannique menée auprès de plus de 60 000 patients, il existerait une association entre augmentation de la pression artérielle (PA) et risque de cancer de la prostate. Les participants ayant eu un cancer de la prostate avaient une probabilité accrue d'augmentation de la PA, avec des odds ratios (OR) de 1,26 (intervalle de confiance à 95 % IC95] de 1,13 à 1,40) pour la PA systolique, et de 1,18 (IC95 de 1,06 à 1,31) pour la PA diastolique. Cette étude met aussi en évidence une association entre élévation de la PA et augmentation de l'antigène spécifique de prostate.

Une autre équipe de scientifiques vient de montrer qu'en incluant un gène spécifique favorisant l'expression d'une enzyme clé, la vitamine D protègerait les cellules de la prostate du stress cellulaire et éviterait le développement de tumeurs cancéreuses.Les chercheurs ont utilisé la 1,25-hydroxylvitamin D3, la forme la plus efficace de la vitamine D pour le corps humain, et des cellules épithéliales de prostate humaine non cancéreuses. Le métabolisme normal dans les cellules produit des espèces réactives oxygénées (ROS) telles que les radicaux libres ou différentes formes de peroxydes. Ces substances ont essentiellement pour rôle de signaler les bactéries voire de les tuer. Un niveau élevé de ROS, pouvant être dû à de nombreux facteurs, peut amener à un vieillissement accéléré ou au déclenchement de cancers.

L'équipe a découvert un lien entre la vitamine D et le gène G6PD permettant d'augmenter son activité et la production d'enzymes appelées glucose-6-phosphate déhydrogénase. Et cette augmentation d'activité a permis de diminuer le nombre de ROS dans les cellules. Il n'a par contre pas été détecté d'activité dans les cellules cancéreuses ce qui amène à penser que la prise de vitamine D, sur avis médical, protègerait du développement du cancer de la prostate.

Enfin une dernière étude a porté sur la consommation de graisses en provenance d'huile de maïs. Cette huile est constituée principalement d'acide gras Omega 6 (ou graisse polyinsaturée). On en trouve beaucoup dans les produits cuits et frits. On a nourri les souris avec 40 % de calories provenant de graisses. C'est un pourcentage typique d'un homme occidental. Un autre groupe de souris ne devait absorber que 12 % des calories quotidiennes en graisse (régime très pauvre en graisse). Résultat : les souris qui avaient un régime pauvre en graisse avaient 27 % de moins de cancers de la prostate par rapport aux souris qui avaient suivi le régime constitué de 40 % de graisses.

[JIM

Sclérose en plaques : tous les gênes de prédisposition bientôt identifiés
Vendredi, 27/06/2008 - 00:00

Les progrès faits récemment par la génétique sur la sclérose en plaques devraient aboutir en 2009 à l'identification de tous les gènes de prédisposition à cette grave affection neurologique. La sclérose en plaques (SEP), a rappelé devant la presse le Professeur Catherine Lubetski, neurologue à la Pitié-Salpétrière (Paris) et chercheur à l'institut public français Inserm, est une affection du système nerveux central (cerveau et moëlle épinière).

Maladie à composante auto-immune -le système de défense de l'individu attaque ses propres cellules au lieu de les défendre- elle consiste en une inflammation et une dégradation de la gaine de myéline qui protège les fibres, ce qui ralentit la vitesse de conduction de l'influx nerveux.

Cette maladie chronique, qui touche le plus souvent le jeune adulte, concerne quelque 80.000 personnes en France et 350.000 en Europe. Imprévisible dans ses manifestations, elle concerne deux à trois fois plus de personnes dans le nord de l'Europe que dans le sud, et plus souvent les femmes que les hommes. C'est une maladie qui, sur le plan génétique, a connu "de vraies avancées" au cours des dernières années, après 30 ans de stagnation, a noté le Professeur Bertrand Fontaine, neurologue et directeur à l'Inserm.

Si ses causes ne sont pas encore établies, il est clair que c'est une maladie "multifactorielle", avec un terrain génétique qui va réagir à un environnement donné. Trois facteurs génétiques ont été déjà identifiés dont l'un (HLA) situé sur le chromosome 6, qui multiplie par 4 le risque d'avoir la maladie et récemment, après trente ans sans découverte, deux autres gènes de prédisposition. "Dans un an on aura la liste des gènes impliqués", s'est réjoui le Professeur Fontaine.

Un consortium international s'est mis en place, qui a rassemblé les données sur 10.000 patients. Il vient déjà de valider les données établies sur les trois gènes, selon un article de la revue médicale Lancet Neurology, et poursuit l'identification des autres gènes de prédisposition. Quant au facteur environnemental, "il existe mais on ne l'a pas identifié", a noté le Professeur Fontaine. Parmi les hypothèses les plus largement admises de facteurs déclenchants : des infections, avec plusieurs virus soupçonnés, le manque de soleil associé à un manque de vitamine D...

En revanche il semble "clairement établi" que la vaccination contre l'hépatite B, naguère pointée du doigt, est hors de cause. La SEP -dont les lésions sont visibles sur une IRM- apparaît sous trois formes : rémittente (avec des poussées à intervalles variables), "secondairement progressive", avec des poussées pendant quelques années puis un handicap qui s'installe et s'aggrave, ou "progressive d'emblée", ce qui est souvent le cas quand la maladie commence après 40 ans.

Des traitements sont apparus pour les formes rémittentes : médicaments sans effet secondaire grave qui réduisent de 30 % la fréquence des poussées et semblent réduire le handicap à moyen terme, médicaments deux fois plus efficaces mais très agressifs...

Les formes progressives de la maladie n'ont pas encore de traitement efficace, mais des études sont en cours. Des recherches sont également en cours sur la réparation des lésions du système nerveux central, qui empêcherait la dégénérescence et préviendrait ou améliorerait le handicap.

AFP

Obésité : tout se joue pendant l'enfance
Vendredi, 27/06/2008 - 00:00

Des études épidémiologiques récentes viennent de révéler qu'en France, deux tiers des hommes et la moitié des femmes de 35 à 74 ans seraient en surcharge pondérale, or 15 % des enfants sont déjà en surpoids à la maternelle. La plupart des spécialistes estiment donc que pour prévenir le développement précoce de l'obésité, il est essentiel de comprendre l'impact des premières étapes du développement.

C'est dans ce cadre que Marie-Anne Charles et ses collègues de l'unité Inserm 780 se sont intéressés pour la première fois au rôle des différentes phases de la croissance entre 0 et 5 ans sur la quantité de masse grasse observé à l'adolescence.

Durant une première phase (1992-1997) l'équipe a pesé et mesuré annuellement 468 enfants dans le cadre du suivi d'une éducation nutritionnelle délivrée à l'école par les instituteurs. Les chercheurs ont analysé dans un second temps (1997-2002) les déterminants de l'adiposité et de la prise de poids à l'adolescence et à l'âge adulte. A partir des mesures effectuées lors de la phase 1 de l'étude, complétées par des données issues du carnet de santé, les chercheurs ont ainsi établi un modèle mathématique leur permettant de calculer la vitesse de croissance (en poids et en taille) des enfants.

Les résultats montrent que les périodes de croissance ne présentent pas toutes les mêmes associations avec l'obésité : une prise de poids rapide à 3 mois, puis à partir de 3 ans présente la plus forte association avec le risque de surpoids ultérieur. Ainsi, à 3 mois, chaque augmentation de la vitesse de croissance de 143g/mois accroît le risque d'être en surpoids de 52 %. Par contre, entre 1 et 2 ans la vitesse de prise de poids ne montre pas d'association avec la masse grasse ultérieure.

La même étude montre par ailleurs que filles et garçons ne sont pas logés à la même enseigne. La vitesse de croissance des garçons à 3 mois est corrélée à la fois avec la masse grasse mais aussi la masse musculaire ultérieure. En revanche, une croissance rapide chez les filles à cette période se traduira principalement par une augmentation de la masse grasse. Selon les chercheurs, cette période serait donc plus à risque chez les filles que chez les garçons.

Marie-Anne Charles et ses collaborateurs concluent donc que la petite enfance présente des périodes sensibles contribuant plus au risque de surpoids futur, durant lesquelles une attention particulière doit être apportée à la richesse de l'alimentation. Mais selon eux, il y a aussi des périodes, notamment entre 1 et 2 ans, où les ressources nécessaires au développement de l'enfant sont telles que le risque de stocker un excès d'énergie sous forme de masse grasse est faible. Restreindre les apports énergétiques durant ces périodes pourraient alors être préjudiciable. Les chercheurs doivent maintenant déterminer quels sont les facteurs et les mécanismes responsables d'une croissance trop rapide du poids dans les premiers mois de vie et après 3 ans.

20 minutes

Le risque de diabète relié à une exposition aux pesticides
Vendredi, 27/06/2008 - 00:00

Dans une étude publiée dans l'American journal of epidemiology, des chercheurs des Instituts nationaux de la santé (NIH) ont montré que des personnes en milieu agricole ayant employé des pesticides chlorés pendant plus de 100 jours dans leur vie ont un risque accru de souffrir du diabète par rapport à ceux qui n'en n'ont jamais utilisé. «Les résultats suggèrent que les pesticides pourraient être un facteur qui contribue au diabète, au même titre que d'autres facteurs de risque connus tels que l'obésité, le manque d'exercice physique et le fait d'avoir un historique familial de diabète», explique Dale Sandler, responsable de la branche épidémiologie à l'Institut national des sciences de la santé environnementale (NIEHS) et co-auteur de l'étude.

Les chercheurs se sont intéressés à plus de 30.000 utilisateurs de pesticides en milieu agricole aux Etats-Unis qui participent à une vaste étude appelée «Agricultural health study». Pour 7 substances en particulier (aldrine, chlordane, heptachlore, dichlorvos, trichlorfon, alachlore, and cyanazine), ils concluent que les incidences de diabète augmentent avec la durée d'exposition. Selon Freya Kamel, co-auteure de l'étude, les résultats montrent clairement qu'«une exposition cumulée sur une vie est importante, et pas seulement une exposition récente». Le lien le plus fort a été trouvé avec le trichlorfon : l'augmentation de risque de diabète est proche de 250 % pour les personnes qui l'ont utilisé plus de 10 fois.

JDE6

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top