RTFlash

RTFLASH Recherche & Technologie
NUMERO 497
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Décembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le mobile se transforme en terminal domotique
Carrefour va expérimenter le paiement sans contact avec les opérateurs mobiles
L'élève enseigne le web 2.0 au maître par wiki
Avenir
Les robots deviennent acteurs de théâtre
Matière
Synthèse d'hydrogène à partir d'énergie solaire
L'énergie hydrocinétique expérimentée
Un béton solide comme l'acier et souple comme du caoutchouc!
Espace
D'immenses glaciers cachés sous la surface de Mars
Terre
Climat : la lutte contre le réchauffement pourrait coûter plus de 500 milliards de dollars par an
Vivant
Téléthon : première thérapie génique bientôt sur le marché
Une nouvelle technique de prédiction des AVC
Lupus érythémateux : un traitement à l'essai chez l'homme
Hypertension artérielle : le rôle des gaz mis en évidence
Alzheimer : découverte d'une molécule efficace sur l'animal
Cerveau adulte : une nouvelle source de neurones qui ouvre des perspectives
Edito
La pollution chimique diffuse menace la santé et la reproduction humaine



L'Inserm a exposé le 2-10-2008 les liens avérés ou possibles entre des facteurs environnementaux et une dizaine de cancers en progression, dans un rapport qui fait la synthèse de plus de 1.800 articles ou rapports scientifiques sur le sujet. "Les modifications de l'environnement pourraient être partiellement responsables de l'augmentation constatée de l'incidence de certains cancers", a noté l'Institut national de la santé et de la recherche médicale (Inserm).

A la demande de l'Afsset (Agence française de sécurité sanitaire de l'environnement et du travail), des experts en épidémiologie, toxicologie, clinique, médecine du travail ou quantification des risques ont analysé les données scientifiques disponibles sur neuf cancers dont l'incidence a augmenté depuis une vingtaine d'années : cancer du poumon, de la plèvre, du sein, de l'ovaire, du testicule, de la prostate, de la thyroïde, leucémie et tumeurs cérébrales.

Ils ont pu ainsi mettre en relief des "facteurs cancérogènes avérés ou probables", comme l'amiante, les radiations, le radon ou le tabac passif pour le cancer du poumon, ou des "facteurs débattus", pour lesquels les études sont limitées, comme le tabac passif ou les pesticides pour le cancer du sein.

Depuis trente ans, le développement de nouveaux produits chimiques pour le bâtiment, le mobilier et l'entretien a été très rapide. Mais ce changement n'a été suivi d'aucun contrôle de l'hygiène des bâtiments. Parmi ces nouveaux produits se trouvent les COV, dont les aldéhydes, le formaldéhyde, le benzène, le toluène, les éthers de glycol actuellement fortement présents dans l'air ambiant des maisons.

Les COV - Combinés Organiques Volatils - sont des substances composées de carbone et d'hydrogène présents dans la plupart des matériaux de construction. Ils constituent une nouvelle source de pollution de l'air ambiant des maisons. Ils peuvent s'évaporer pendant des mois et des années. L'un des plus nocifs est actuellement le Formaldéhyde - un combiné chimique dérivé du Formol. Ses émissions varient en fonction du taux d'humidité et de température de la pièce. Plus l'ambiance de la pièce sera chaude et humide et plus les dégagements de formaldéhyde seront importants.

Le formaldéhyde également appelé méthanal ou aldéhyde formique est un gaz incolore fortement irritant et classé cancérogène pour l'homme depuis juin 2004 en France. Selon les résultats d'une enquête de l'INRS, sa consommation française a atteint 126.352 tonnes en 2005. Près de la moitié de ce tonnage est utilisée dans le secteur de la fabrication de résines qui servent par exemple à élaborer des vernis ou des colles. Les secteurs de la fabrication de produits agrochimiques et de la fabrication de produits chimiques à usage industriel consomment plus de 40 % de la quantité annuelle, pour la production de désinfectants, antimycosiques et conservateurs.

De très nombreux secteurs industriels sont donc concernés par l'utilisation de solution de formaldéhyde ou de résines : le tannage des cuirs, la fabrication des panneaux de bois, de colles et gélatine, de caoutchouc synthétique, de produits pharmaceutiques, de moules de fonderie, de colorants, de pigments, d'huiles essentielles, de parfums, de savons, de détergents, de peintures, d'engrais, d'aliments pour animaux... En Juin 2004, le Centre International de Recherche sur le Cancer (Circ) a classé le formaldéhyde en catégorie 1 (cancérogène avéré chez l'homme).

Une campagne de mesure dans les écoles et crèches de Strasbourg a relevé en 2004/2005 des teneurs significatives de formaldéhyde (23 microgrammes/m3 en moyenne sur 48 heures, plus de 50 microgrammes dans 2 crèches, 10 maternelles et 8 élémentaires). Depuis le 1er janvier 2007, les travaux exposant au formaldéhyde sont soumis, en France, à la réglementation prévue pour les agents cancérogènes de catégorie 1 (cancérogènes avérés) et 2 (cancérogènes probables). Une initiative isolée du gouvernement français, qui fait ainsi figure de pionnier. En effet, même si le formaldéhyde a été reconnu cancérogène avéré en juin 2004 par le Centre international de recherche sur le cancer (Circ), la classification européenne continue à le considérer seulement comme un cancérogène possible, de catégorie 3.

De ce fait, il est impossible de l'interdire dans les produits destinés au public et de rendre obligatoire la protection des salariés exposés. Pour mettre fin à cette situation, la France a réclamé son inscription en catégorie 1 ou 2 au niveau communautaire. En France, il n'existe pas de réglementation générale en ce qui concerne les valeurs limites pour le formaldéhyde dans l'air intérieur des maisons. Selon plusieurs études européennes, dont celle de l'Observatoire de la qualité de l'air intérieur pour la France, les enfants respirent un air généralement plus pollué à l'intérieur des écoles qu'à l'extérieur. Les études de terrain anglaises, danoises, néerlandaises et françaises sont formelles : les écoles sont en général mal aérées, et le confinement favorise les concentrations de polluants.

En France, aucune des 11 écoles visitées en 2001 par l'Observatoire de la qualité de l'air intérieur ne respectait les renouvellements d'air réglementaires de 15 m3 par heure et par personne. Le débit maximal observé dans l'échantillon était de 10 m3. La très grande majorité (80 à 90 %) des écoles ne dispose pas de ventilation mécanique, et lorsqu'elle existe, elle n'est pas entretenue (filtres usés etc.)

Quant aux particules fines des moteurs diesel, qui atteignent les alvéoles pulmonaires, leur rôle est avéré pour le cancer du poumon. Selon des études menées à Paris, Grenoble, Rouen et Strasbourg, 10 % des cancers du poumon dans ces villes leur sont attribuables.

Autre problème que l'on commence seulement à appréhender : celui des perturbateurs endocriniens, comme les phtalates et le bisphénol A qui ont un effet avéré sur la reproduction et le développement du foetus ; or le nombre et la qualité des spermatozoïdes ont diminué d'environ 50 % par rapport à 1950. Par ailleurs, l'incidence du cancer des testicules a doublé au cours des trente dernières années. Le nombre de malformations génitales masculines est en hausse.

Le Gouvernement prend très au sérieux cette question et les ministères de l'écologie et la santé, l'Institut de recherche en santé publique (Iresp) et l'Agence française de sécurité sanitaire de l'environnement et du travail (Afsset) ont organisé le colloque "Environnement chimique, reproduction et développement de l'enfant", mardi 25 novembre à Paris.

A l'issue de ce colloque, Madame Bachelot a déclaré qu'elle demanderait à l'Agence française de sécurité sanitaire des produits de santé (AFSSAPS) de lancer une étude sur le risque des cosmétiques pendant la grossesse et chez le jeune enfant, "notamment les cosmétiques distribués dans les maternités". Elle a indiqué qu'elle allait commander à l'Inserm (Institut national de la santé et de la recherche médicale) "une expertise collective sur la mutagenèse et la reprotoxicité de produits chimiques, notamment les produits classés CMR3".

Ces plastifiants s'opposent à l'action des hormones masculines, les androgènes. Les phtalates sont employés comme lubrifiants dans le PVC et se retrouvent dans de nombreux objets de consommation courante : cosmétiques et emballages pour la nourriture. Ce sont des antiandrogènes. Le bisphénol A est un oestrogène de synthèse qui n'a pas été utilisé comme tel car le même chimiste a mis au point un oestrogène plus puissant, le Distilbène... Le bisphénol A est utilisé pour fabriquer des biberons, des bouteilles en plastique et d'autres produits courants. Ana Soto a montré chez la souris des images analogues à une cancérisation après exposition de la glande mammaire à du bisphénol A. Ces perturbateurs endocriniens se retrouvent dans l'organisme, y compris dans le lait de la mère qui nourrit son enfant au sein.

L'action hormonale de ces substances est évitable. La question est donc posée d'éviter les expositions. Il ne faut attendre la preuve de la causalité pour prendre des mesures de protection. Les usines de traitement des eaux ne captent malheureusement pas les produits de dégradation de médicaments ayant des effets oestrogéniques ou antiandrogènes, à commencer par les pilules anticonceptionnelles. Il faut développer des moyens technologiques pour le faire. Le Canada est le premier pays au monde à avoir interdit les biberons pour bébés en plastique rigide fabriqués à partir de bisphénol A (BPA), en raison des « incertitudes » soulevées par de récentes études scientifiques.

En France, une étude scientifique rigoureuse réalisée par une unité de recherche du CEA vient confirmer ces soupçons : le MEHP, un phtalate répandu, nuit à la fertilité masculine en agissant dès le stade foetal. La Commission de la sécurité des consommateurs (CSC) vient pour sa part de demander que les pouvoirs publics français contribuent à l'adoption d'un texte européen interdisant la présence de substances chimiques toxiques et de métaux dans les vêtements pour enfants.

A la lumière de ces récentes et convergentes avancées scientifiques, notre pays doit prendre à bras le corps ce grave problème, totalement négligé depuis des décennies, que constitue la pollution chimique intérieure et diffuse. Il y là un enjeu majeur de santé publique et un défi industriel, scientifique et médical que la France doit relever.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le mobile se transforme en terminal domotique
Jeudi, 04/12/2008 - 00:00

Home Control Center" : tel est le nom de la nouvelle plate-forme mobile que Nokia ajoute à son éventail de solutions communicantes. Dérivée du système d'exploitation GNU / Linux, cette nouvelle solution de domotique ouverte sera compatible avec la plupart des technologies sans fil permettant déjà de contrôler ses appareils domestiques à distance : Z-Wave, ZigBee etc. Ceux qui le souhaitent auront par ailleurs la possibilité de développer leurs propres applications. Elles seront toutes accessibles à partir d'une seule et même interface, consultable sur le Net ou à partir d'un téléphone portable. L'objectif étant d'organiser l'intégration à partir d'un seul et même outil toutes les solutions pour maisons intelligentes existantes et à venir.

"Le marché de la domotique possède un formidable potentiel", déclare Teppo Paavola, le responsable du pôle de développement business de Nokia. "Il est déjà possible de se servir de son téléphone portable comme d'une télécommande pour superviser ses appareils domestiques à distance. Mais un effort d'interopérabilité restait à faire." Il sera ainsi possible de gérer sa consommation d'électricité, d'allumer et d'éteindre divers équipements. Mais aussi de contrôler sa température, une webcam ou un détecteur de mouvements, etc. Parallèlement au développement de ce projet, Nokia annonce avoir conclu un accord avec l'électricien allemand RWE.Ce partenariat permettra d'élaborer des solutions de gestion intelligente de sa consommation d'énergie.

Atelier-20081127]

Carrefour va expérimenter le paiement sans contact avec les opérateurs mobiles
Jeudi, 04/12/2008 - 00:00

Les opérateurs télécoms et les acteurs de la grande distribution ont annoncé mardi 2 décembre le lancement d'un groupe de travail sur le paiement par téléphone mobile. Cette initiative fait suite aux tests entre les opérateurs et les banques. Après les accords entre les opérateurs mobiles et les banques, dans le cadre de l'opération "Payez Mobile", les mêmes opérateurs se tournent vers la grande distribution. Le projet, baptisé Ergosum (Ergonomie des services sur mobile), vise à développer, à travers des tests grandeur nature, les solutions de paiement avec un mobile.

Le paiement par téléphone mobile repose sur la technologie NFC (Near Field Communication). Concrètement, il s'agit d'un téléphone équipé d'une puce NFC et capable d'échanger des données avec un lecteur spécifique. Les achats sont ainsi réglés en approchant le combiné devant la borne de paiement (idéalement en posant le téléphone sur le terminal sans contact). Après confirmation, le montant des achats est ensuite directement débité sur le compte du client.

En France, plusieurs expérimentations ont été conduites depuis novembre 2007 auprès d'usagers des transports publics et de certains commerçants, notamment à Paris, Strasbourg, Caen ainsi qu'en Bretagne. Réalisées sous l'égide du groupement "Payez Mobile", 1.000 personnes et 500 commerçants ont pu essayer cette technologie, dont 90% des clients ont trouvé ce mode de transaction "pratique, rapide et simple à utiliser".

La nouvelle initiative lancée par les trois opérateurs mobiles Orange, SFR et Bouygues Telecom, a suscité la participation des leaders de la grande distribution : Auchan, Castorama, Carrefour, la Fnac, Intermarché, Leroy Merlin, etc, et des organismes bancaires. Elle prévoit une nouvelle série de tests en France, dès 2009 dans les enseignes participantes. Les clients pourront ainsi régler leurs achats en passant simplement un mobile équipé devant un terminal.

R&t

L'élève enseigne le web 2.0 au maître par wiki
Jeudi, 04/12/2008 - 00:00

En matière d'usages Internet, les élèves en savent parfois plus que leurs professeurs. Fort de cette conviction, un professeur en technologies de l'éducation de l'Université de Purduea décidé de mettre ses étudiants à contribution pour expliquer aux enseignants peu rompus à l'innovation quels bénéfices ils pouvaient tirer d'outils web 2.0 tels que Facebook, Google Docs, Flickr, Twitter etc. Résultat de l'opération : un wiki recensant les usages pédagogiques possibles de trente quatre technologies différentes. Pour mener à bien ce projet, les étudiants américains ont collaboré en ligne avec des élèves issus de Turquie et de Corée.

Des équipes composées chacune d'élèves des trois pays ont ainsi pu plancher sur les principaux outils sociaux disponibles. Ils ont collaboré par l'intermédiaire de systèmes divers (forums, réseaux sociaux, vidéo-conférence etc.) pour rédiger les trente-quatre chapitres du wiki dédié. "L'idée était d'immerger les étudiants dans le type de technologie dont ils avaient pour tâche de décrire les vertus éducatives", explique Thimothy Newby, l'enseignant à l'origine du projet. Ce dernier explique qu'un tel travail en équipe et à distance n'a pas toujours été chose aisée mais que les élèves ont en outre acquis des compétences qui leur serviront plus tard.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots deviennent acteurs de théâtre
Jeudi, 04/12/2008 - 00:00

Les robots Thespian montent sur scène au Japon, les inventeurs des petites mécaniques dansantes ayant fait évoluer la race vers celle de robots acteurs. Ces prétendants à la gloire d'Hollywood doivent jouer une pièce appelée Hataraku Watashi (I, Worker: moi l'ouvrier), dont la première a eu lieu à l'Université d'Osaka pour ce qui fût la première pièce de théâtre jouée par des robots au Japon.

Ces acteurs méaniques ne doivent pas se soucier d'avoir un trou de mémoire, chaque machine ayant été programmée pour donner la réplique aux acteurs humains dans le plus pur style Thespian.

Le scénario se déroule dans un futur proche autour d'un couple équipé de robots domestiques. L'un des robots se plaint d'avoir été forcé à accomplir des tâches rabaissantes et ennuyantes, ce qui provoque une discussion sur le rôle des robots dans la société humaine.La pièce dure 20 minutes pour l'instant et d'ici 2010 devrait devenir une performance complète. Le dramaturge Oriza Hirata dit que ce travail permet de se questionner sur les relations entre l'humanité et les technologies. Le robot Wakamaru, haut d'un peu plus de 90 centimètres, est équipé d'un logiciel développé par l'Université d'Osaka et édité par Mitsubushi.

TI

^ Haut
Matière
Matière et Energie
Synthèse d'hydrogène à partir d'énergie solaire
Jeudi, 04/12/2008 - 00:00

Des chercheurs du Centre allemand de recherche aérospatiale (DLR) sont parvenus à synthétiser de l'hydrogène grâce à de l'énergie solaire et sans émission de CO2 dans une installation pilote de 100 kilowatts, située en Espagne.

L'énergie solaire est, de loin, la forme d'énergie la plus largement disponible sur Terre. L'hydrogène est, quant à lui, une source d'énergie particulièrement intéressante, compte tenu de sa densité énergétique, d'autant que sa combustion ne libère que de la chaleur et de l'eau. Le succès des chercheurs du DLR ouvre de nouvelles possibilités de stockage de l'énergie solaire sous forme d'hydrogène.

Le département de recherche solaire de l'Institut de thermodynamique technique du DLR travaille depuis plus de 6 ans au développement de réacteurs innovants pour la décomposition thermochimique solaire de l'eau, dans le cadre des projets européens HYDROSOL I et II. Dans ces réacteurs, l'eau est clivée en hydrogène et oxygène à l'aide d'énergie solaire, sans passer par la production de courant électrique. Les résultats de leurs recherches, obtenus jusqu'à présent dans des installations de 10 kilowatts, ont désormais pu être observés avec succès pour une puissance de 100 kilowatts.

L'installation espagnole Plataforma Solar de Almeria (PSA), équipée d'un réacteur solaire innovant développé par le DLR, constitue, de par sa taille et son automatisation, un prototype important pour les futures installations industrielles. Le réacteur est chauffé jusqu'à 800 à 1.200 degrés Celsius grâce à un rayonnement solaire concentré. A ces températures, il est possible d'obtenir de l'hydrogène à partir d'eau. Après une qualification thermique détaillée de l'installation solaire, celle-ci a été récemment équipée d'absorbeurs solaires, dont le revêtement spécifique leur permet de cliver l'eau et de produire ainsi de l'hydrogène sans libérer de CO2. Les rendements atteints dépassent les attentes des chercheurs.

Dans les mois qui viennent, les tests de production d'hydrogène sur la tour SSPS (Small Solar Power System) de la PSA seront poursuivis et intensifiés. Il s'agit notamment d'optimiser les conditions d'exploitation et l'efficience de l'installation. Des tests complémentaires portant sur d'autres types de revêtements devraient permettre de déterminer quel matériau est le plus approprié.

L'installation de 100 kilowatts est conçue de façon modulaire. Ainsi, un accroissement de sa puissance jusqu'à l'échelle du mégawatt est d'emblée envisageable. Ceci est possible via la multiplication des unités de réacteur existantes et le raccordement à des champs d'héliostat d'une taille adaptée, déjà utilisés commercialement pour la production d'électricité, en Espagne notamment.

Le projet HYDROSOL est porté par un consortium d'acteurs allemands, espagnols, grecs, danois et britanniques. Les travaux de recherche et développement d'HYDROSOL I ont été, compte tenu de leur portée potentielle, récompensés par le Prix européen de la recherche Descartes et le Technical Achievement Award du Partenariat international pour l'économie de l'hydrogène (IPHE).

BE

L'énergie hydrocinétique expérimentée
Jeudi, 04/12/2008 - 00:00

Le professeur Michael BERNISTAS vient de présenter un dispositif révolutionnaire qui permet de transformer chaque mouvement marin en énergie. Entièrement écologique, ce procédé ouvre une nouvelle source d'énergie : “Si nous pouvions tirer 0,1 pour cent de l'énergie de l'océan“, explique le Professeur Michael BERNITSAS de l'Université du Michigan, “nous pourrions soutenir les besoins énergétiques de 15 milliards de personnes.”

Mais des turbines existent me diriez-vous pour transformer les forces marines en électricité. Le Vortex Induced Vibrations aquatiques pour l'énergie propre (VIVACE) permet de tirer de l'énergie des plus petits mouvements. Quand une turbine nécessite un mouvement supérieur à 5-6 noeuds pour produire de l'énergie, il suffit d'un mouvement de 1 noeud pour que le VIVACE le transforme en électricité.

Le VIVACE ne dépend pas des vagues, des marées, des turbines ou des barrages. Il s'agit d'un système d'énergie hydrocinétique qui se nourrit des vibrations des turbulences marines. Les tourbillons poussent et tirent l'objet du haut vers le bas, de gauche à droite, et perpendiculaire au courant. L'énergie cinétique ainsi produite est convertie en électricité. S'il fonctionne à grande échelle, dit BERNITSAS l'énergie coûterait environ 5,5 cents par kilowatt-heure, bien au-dessous du coût de l'énergie éolienne, sans avoir un impact sur la vie marine ».

Greenzer

Un béton solide comme l'acier et souple comme du caoutchouc!
Jeudi, 04/12/2008 - 00:00

Le professeur Surendra Shah, du département d'ingénierie des matériaux de l'université de Northwestern (Illinois, Etats-Unis), s'est taillé un franc succès en pliant un fin morceau de béton souple et expérimental devant un parterre de chercheurs, d'ingénieurs et d'architectes. Il intervenait à l'Université Columbia (New-York) lors de la seconde conférence de dédiée à l'architecture, l'ingénierie et la science des matériaux, consacrée cette année au béton (1). «Nous sommes passés de l'échelle macro à l'échelle micro, maintenant c'est au tour de la nano» a commenté le Pr Shah !

Découvert par les Romains, réinventé au 19ème siècle par l'ingénieur français Louis Vicat, longtemps élaboré de façon empirique, le béton est devenu ces quinze dernières années un matériau de plus en plus high-tech, grâce aux dernières méthodes d'investigation scientifique. Résonance magnétique nucléaire, microscopie électronique, rayonnement synchrotron... «Les chercheurs sont descendus à une échelle très fine, pour identifier et comprendre les phénomènes qui sous-tendent le comportement du béton» raconte le physicien Jacques Lukasik. Directeur scientifique de Lafarge, il a conduit cette révolution méthodologique pour le groupe français, N°3 mondial du béton, qui emploie aujourd'hui 200 chercheurs et multiplie les collaborations avec le CNRS, l'Ecole polytechnique, l'Ecole des Ponts, ou encore le MIT (Massachussets intitute of technology).

«C'est en étudiant sa structure granulaire que nous avons pu enrichir le béton avec des microfibres spécifiques et augmenter ainsi ses qualités» raconte Jacques Lukasik. Résultat ? Le dernier béton fibré renforcé à ultra haute performance (BFUHP ou Befup) de la maison, le Ductal®, un matériau plus proche de l'acier que du béton, serait aujourd'hui six à huit fois plus résistant à la compression et 10 fois plus résistant à la flexion que les bétons traditionnels. Enrichis de microfibres d'acier, les BFUHP nécessitent un moindre recours aux armatures d'acier passif. Enrichis en polypropylène, ils développent une résistance accrue au feu.

D'ordinaire, le béton éclate car l'eau piégée à l'intérieur se transforme en vapeur d'eau et dilate la matière. Là, le polypropylène fond, libérant un espace pour la vapeur d'eau et retardant l'écaillage. Mais c'est leur ductilité, c'est-à-dire leur aptitude à la déformation sous des poids excessifs sans se rompre, qui en fait aujourd'hui des matériaux prisés par les architectes, comme en témoigne la Villa Navarra.

Les trois principaux BFUHP mis au point et utilisés dans le monde l'ont tous été jusqu'à présent par des groupes français. D'autres progrès peuvent encore être réalisés à l'échelle nanométrique, et les chercheurs se bousculent désormais sur ce créneau: "Nous étudions la mise au point de bétons composites dopés avec des nanotubes de carbone, pour prévenir les fissures à échelle nanométrique. C'est un nouveau tissu que nous créons" s'enthousiasme ainsi le Pr Shah. Des tissus ultra-résistants, de plus en plus légers, mais dont on pourrait également améliorer les performances acoustiques, thermiques, esthétiques...jusqu'à imaginer des matériaux lumineux voire transparents.

NO

^ Haut
Espace
Espace et Cosmologie
D'immenses glaciers cachés sous la surface de Mars
Jeudi, 04/12/2008 - 00:00

D'immenses glaciers se cachent sous des couches rocheuses de la planète Mars, non pas aux pôles mais dans des régions centrales de l'hémisphère nord et sud. Il s'agirait des plus grosses réserves d'eau de la planète rouge. La sonde Mars Reconnaissance Orbiter a confirmé que sous les débris de roches observés dans les deux hémisphères de la planète Mars, aux latitudes moyennes, se cachent d'immenses glaciers. Il pourrait s'agit de la plus grosse réserve de glace de la planète, selon John Holt, l'un des signataires de l'article publié dans la revue Science le 21 novembre.

Holt et ses collègues ont sondé les reliefs du bassin d'Hellas, situé dans l'hémisphère sud, à l'aide du radar de la sonde MRO de la Nasa. Le retour des ondes radio indique qu'elles traversent ces reliefs et sont renvoyées par une couche plus profonde sans perdre beaucoup de leur intensité : cela correspond à la rencontre des ondes radar avec une couche de glace, expliquent les chercheurs. Les glaciers enterrés dans le bassin d'Hellas sont épais de 800 mètres et contiennent 28.000 kilomètres cube de glace d'eau.

La présence de ces dépôts de glace n'est pas une surprise. Leur formation a été expliquée par des simulations du climat martien. On sait en effet que l'orientation de la planète Mars par rapport au Soleil a varié au cours de son histoire. L'équipe de François Forget (Laboratoire de météorologie dynamique, Paris 6) a ainsi modélisé les répartitions des dépôts de glace en fonction de l'obliquité de la planète -les variations de l'orientation de son axe. Leurs résultats coïncident avec ce qui est aujourd'hui observé.

Les simulations des chercheurs français expliquaient notamment pourquoi le bassin d'Hellas hébergeait des formations glaciaires très spectaculaires. Il y a 5,5 millions d'années, lorsque l'obliquité de Mars était de 45° (contre 22,5° aujourd'hui), la vapeur d'eau remontant du pôle sud en été passait à l'est du bassin où les masses d'air froid provoquaient une forte condensation et donc des précipitations importantes.

Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : la lutte contre le réchauffement pourrait coûter plus de 500 milliards de dollars par an
Jeudi, 04/12/2008 - 00:00

Le coût annuel de la lutte contre le changement climatique pourrait atteindre plus de 500 milliards de dollars d'ici 2030, plus du double qu'initialement prévu, selon un rapport de l'ONU qui sera présenté à la conférence climat de l'ONU à Poznan, est une mise à jour du rapport publié en août 2007 par le secrétariat de la Convention des Nations unies sur les changements climatiques (CNUCC).

Selon cette nouvelle version, l'ONU aurait en 2007 sous-estimé le coût des mesures d'atténuation du réchauffement: les experts estimaient alors de 200 à 210 milliards de dollars par an les investissements nécessaires pour réduire de 25% les émissions de gaz à effet de serre en 2030 par rapport à 2000.

"Cependant, les investissements et les flux financiers requis sont environ 170% supérieurs, principalement en raison des capitaux nécessaires, surtout dans le secteur de l'énergie", indique ce nouveau rapport.Le contrôle des émissions polluantes "va imposer de profonds changements dans la demande et l'approvisionnement en énergie et des législations ajustées", précise-t-il.

Mais "le rapport 2007 ne concernait que les investissements de départ, sans inclure les coûts de renforcement des capacités et de création d'un environnement adapté à la mise en place de nouvelles technologies", justifie l'ONU.Les auteurs font valoir qu'un grand nombre de technologies propres sont déjà disponibles dans les pays industrialisés ou proches de l'être, comme l'éolien ou l'hydraulique, mais que d'autres comme la pile à combustible ou la capture et le stockage du carbone (CCS) sont encore au stade expérimental.En revanche, notent-ils, le coût des mesures d'adaptation "n'a pas changé et s'établit toujours en dizaines de milliards de dollars par an, voir centaines de milliards".

Yahoo

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Téléthon : première thérapie génique bientôt sur le marché
Jeudi, 04/12/2008 - 00:00

Pour la première fois au monde, une thérapie génétique devrait recevoir dans quelques mois l'aval de l'agence européenne du médicament. En vingt ans, la recherche dans le domaine des maladies génétiques a considérablement progressé. Dans quelques mois, l'agence européenne du médicament devrait "approuver la première thérapie génique au monde pour une maladie génétique", a expliqué Serge Braun, directeur scientifique de l'Association Française des Myopathies (AFM). Dix huit ans après la conduite de premier essai en 1990, c'est un succès.

La maladie génétique en cause est un déficit immunitaire, l'ADA-SCID. "Les enfants naissent sans défenses immunitaires", explique Serge Braun. "Ils sont confinés dans des bulles stériles, l'air ambiant étant rempli de micro-organismes, leur espérance de vie est très courte".

Démarré en 2000, avec le soutien des téléthons français et italien, l'essai de thérapie génique mené par l'équipe du Pr Maria-Grazia Roncarolo du laboratoire Tiget (Telethon Institute for Gene Therapy) à Milan, a permis de traiter, avec succès, douze enfants atteints de ce déficit immunitaire,

La thérapie génique consiste dans ce cas à "prélever des cellules de la moelle osseuse", à "les corriger génétiquement par une thérapie génique", avant "d'administrer le gène sain grâce à un vecteur viral". "Les cellules ainsi corrigées sont réinjectées par voie intraveineuse et après quelques semaines, ces cellules ont fabriqué suffisamment de cellules immunitaires fonctionnelles pour permettre aux enfants de sortir de leur bulle et de vivre une vie normale. Une quinzaine d'enfants vivent normalement qui, sinon, seraient tous décédés", ajoute le scientifique.

"Il faut 25 ans pour émerger", résume-t-il. "Les greffes, la transfusion sanguine, ont mis du temps et la thérapie génique suit la même voie. On arrive à maturité". Thérapie génique, chirurgie génomique, thérapie cellulaire, pharmacologie... L'AFM ne néglige aucune des pistes thérapeutiques qui pourraient apporter une solution à des maladies longtemps considérées comme définitivement incurables. Cette année, l'association apporte son soutien à 34 essais : la moitié de ces maladies sont des maladies neuromusculaires, l'autre moitié d'autres maladies rares et une maladie fréquente, l'infarctus du myocarde.

Yahoo

Une nouvelle technique de prédiction des AVC
Jeudi, 04/12/2008 - 00:00

Une nouvelle technique de prédiction de l'évolution des accidents vasculaires cérébraux (AVC), à partir d'images obtenues par une IRM conventionnelle, a été mise au point par des chercheurs français en collaboration avec des neurologues de l'hôpital Pitié-Salpêtrière.L'AVC est en France la troisième cause de mortalité et la première cause de handicap moteur acquis de l'adulte (paralysies, troubles de l'élocution, perte de la vision).

Cette nouvelle approche pourrait aider les équipes médicales à décider dans l'urgence d'une stratégie de traitement.L'apparition récente de médicaments "à effet thrombolytique" permet, lorsqu'une artère se bouche (accident ischémique, 80% des attaques cérébrales), de résorber le caillot sanguin responsable de l'obstruction.

Si la circulation sanguine n'est pas rétablie très vite, les cellules du cerveau asphyxiées entrent dans un processus de dégénérescence: c'est le mécanisme de l'infarctus. Baptisée NEURiNFARCT, le logiciel mis au point par les chercheurs français permet d'estimer, en quelques minutes à partir d'une IRM (imagerie par résonance magnétique) conventionnelle, l'étendue des tissus exposés au risque d'un infarctus en cours de formation chez un patient victime d'AVC. L'intérêt est de pouvoir sauver la zone qui reste viable, dite "pénombre ischémique", grâce à la thrombolyse, traitement d'urgence de l'AVC qui réduit le risque de handicap, mais comporte un risque d'hémorragie.

Cette technique mise au point par le Laboratoire de neurosciences cognitives et imagerie cérébrale du CNRS et le service des Urgences cérébro-vasculaires de l'hôpital Pitié-Salpêtrière (AP-HP - Paris) a été évaluée sur près de 100 patients.

Les résultats publiés dans la revue spécialisée Radiology "indiquent que les performances obtenues par NEURiNFARCT sont au moins aussi bonnes" que celles des méthodes existantes, qui nécessitent l'injection intraveineuse de produits de contraste, a indiqué le CNRS.Le logiciel permet d'analyser sur les images IRM les altérations de la mobilité des molécules d'eau, très diminuée au coeur de l'infarctus et légèrement perturbée dans la zone de "pénombre". Ces dernières altérations ne sont pas visibles à l'oeil nu.

CNRS

Lupus érythémateux : un traitement à l'essai chez l'homme
Jeudi, 04/12/2008 - 00:00

Le lupus érythémateux touche des millions de patients dans le monde. En France seulement, leur nombre est estimé à 100 000. C'est dire l'importance de cette maladie. L'une de ses caractéristiques principales est de se manifester sous des formes variées. Parmi les signes cliniques les plus fréquents, notons des douleurs articulaires intenses, des lésions cutanées au visage et des atteintes rénales plus ou moins sévères. Certains malades peuvent également présenter des troubles sanguins, ou des inflammations au niveau pulmonaire ou cardiaque.

Il s'agit donc d'une maladie très invalidante, et qui nécessite un suivi au long cours. Des traitements existent, mais aucun n'est spécifique. Ils reposent souvent sur une corticothérapie, les formes sévères pouvant nécessiter l'administration d'immunosuppresseurs.

Les chercheurs du laboratoire CNRS d'Immunologie et de Chimie thérapeutiques, dirigé par Sylviane Muller, ont découvert et breveté en 2001 une molécule capable de restaurer l'état normal du système immunitaire. Traitées avec un fragment d'une protéine nucléaire, le peptide P140, des souris ont vu leur durée de vie se rapprocher de celle de rongeurs indemnes de la maladie. Les troubles rénaux ont été significativement diminué, et les signes inflammatoires articulaires se sont trouvés considérablement réduits. Place aujourd'hui, aux essais chez l'homme...

CNRS

Hypertension artérielle : le rôle des gaz mis en évidence
Jeudi, 04/12/2008 - 00:00

Les causes en sont souvent inconnues, mais les risques pour la santé sont importants : le coeur et les artères produisent trop d'efforts, ce qui augmente le risque d'accident vasculaire cérébral ou d'infarctus du myocarde. Tous les mécanismes impliqués dans la régulation du tonus artériel - la tension des artères elles-mêmes - ne sont pas encore connus ; or la tension artérielle dépend en partie de ce tonus. Guangdong Yang, de l'Université de Saskatchewan au Canada, et ses collègues canadiens et américains montrent que l'hydrogène sulfuré, H2S, à l'odeur d'oeuf pourri, est un vasodilatateur naturel - il diminue le tonus vasculaire et donc la tension artérielle...

On savait que certains gaz, tels l'oxyde nitrique (NO) et le monoxyde de carbone (CO) produits dans la paroi des vaisseaux, jouent un rôle important dans le tonus vasculaire. L'implication de l'hydrogène sulfuré vient d'être mise en évidence grâce à des manipulations génétiques chez la souris. Les biologistes ont conçu une souris transgénique incapable de fabriquer en quantité suffisante l'hydrogène sulfuré, normalement présent dans le coeur et les vaisseaux.

Les souris naissent, se développent et se reproduisent comme les souris normales. En revanche, elles développent en sept semaines une hypertension, même quand la synthèse d'hydrogène sulfuré n'est diminuée que de moitié. Et des analyses approfondies montrent que c'est bien le manque de gaz qui est en cause, notamment au niveau de la paroi interne des artères. C'est la première fois que l'on prouve que l'hydrogène sulfuré est essentiel au maintien d'un tonus vasculaire normal, et donc qu'il régule de façon permanente la tension artérielle.

PLS#

Alzheimer : découverte d'une molécule efficace sur l'animal
Jeudi, 04/12/2008 - 00:00

Une équipe de chercheurs du Centre de recherche de Jülich et de l'Université Heinrich Heine de Düsseldorf a découvert un composé permettant de lutter efficacement contre la maladie d'Alzheimer. L'étude dirigée par le Prof. Dieter Willbold sur cette nouvelle substance a montré de bons résultats lors de la phase d'expérimentation animale et pourrait donc être à l'origine d'une nouvelle thérapie contre cette pathologie neurodégénérative qui reste aujourd'hui encore incurable.

La maladie d'Alzheimer est une affection neurodégénérative chronique. Plus de 20 millions de personnes sont concernées dans le monde, dont 1 million en Allemagne. Cette maladie est jusqu'ici incurable, les scientifiques parviennent seulement à combattre les symptômes liés à cette affection. Le composé développé par les chercheurs de Jülich et Düsseldorf permet, lorsqu'il est testé sur certaines races de souris, de lutter contre les changements cérébraux causés par la maladie.

Le peptide bêta-amyloïde 1] joue un rôle essentiel dans le développement de la maladie d'Alzheimer. Dans les cerveaux atteints, les scientifiques ont repéré des dépôts de protéines, appelés plaques amyloïdes. Il s'agit d'agrégats de protéines extracellulaires, situés dans le cortex ainsi que dans d'autres régions du cerveau. Le composant principal de ces plaques est la protéine Aß. L'inhibition de cette protéine s'avère donc être une thérapie possible contre le développement de la maladie.

Les chercheurs ont développé un peptide composé d'énantiomères D d'acides aminés et qui se lie aux protéines Aß. Ces énantiomères sont, en fait, l'image dans un miroir des acides aminés présents naturellement dans les protéines. Ils sont considérés comme particulièrement stables dans le corps et ne provoquent normalement pas de réponse immunitaire.

Les tests en laboratoire ont montré que le peptide D3 était capable d'enrayer la formation de plaques voire de les faire régresser. Dans des cultures cellulaires, ce peptide a diminué les effets néfastes causés par le développement de protéines Aß. Sur certaines races de souris développant la maladie d'Alzheimer, l'administration de cette protéine a fortement réduit la quantité de plaques amyloïdes ainsi que les inflammations dans le cerveau. Les chercheurs veulent maintenant montrer que l'administration par voie orale sur ces souris peut également amener aux mêmes résultats.

BE [http://www.bulletins-electroniques.com/actualites/56787.htm

Cerveau adulte : une nouvelle source de neurones qui ouvre des perspectives
Jeudi, 04/12/2008 - 00:00

En 2003, Pierre-Marie Lledo et son équipe, à l'Institut Pasteur (unité Perception et Mémoire, CNRS URA 2182), avaient bouleversé le dogme central en neurobiologie en découvrant des cellules souches au coeur du cerveau adulte. Ces chercheurs avaient alors montré que certaines cellules non-neuronales, dites "gliales", pouvaient se transformer en neurones, ces derniers étant capables d'intégrer des réseaux cellulaires existants. L'année suivante, la même équipe allait identifier une molécule chargée d'attirer ces "néo-neurones", depuis leur zone de formation jusque dans une autre région du cerveau, le bulbe olfactif.

Publiés en ligne dans le Journal of Neuroscience, le 23 octobre dernier, les résultats de nouveaux travaux menés par cette équipe, en collaboration avec l'unité de Virologie Moléculaire et Vectorologie, dirigée à l'Institut Pasteur par Pierre Charneau, semblent particulièrement prometteurs. Les chercheurs apportent en effet la preuve que les cellules souches de type glial, capables de se transformer en neurones, sont localisées non seulement dans la zone de formation, identifiée dès 2003, mais également tout au long d'un tunnel à l'intérieur duquel migrent les nouveaux neurones, ainsi que dans le bulbe olfactif.

C'est grâce à la mise au point d'un vecteur viral capable de cibler spécifiquement les cellules gliales et de les rendre fluorescentes que les chercheurs ont pu observer et apporter la preuve de l'existence de ce phénomène. Ainsi, après avoir injecté ce vecteur dans la zone neurogénique déjà connue, puis dans de nouveaux territoires, ils ont constaté que de nombreuses régions du cerveau devenaient fluorescentes, et possédaient donc la capacité unique à produire des neurones. En outre, ces chercheurs ont également observé que l'absence de stimulation olfactive, à la suite d'une lésion de l'organe sensoriel, intensifiait la transformation des cellules gliales en neurones. Preuve que le cerveau possède des propriétés intrinsèques d'autoréparation

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top