RTFlash

RTFLASH Recherche & Technologie
NUMERO 588
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Mars 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet, accélérateur de la croissance française
Comment la Libye coupe l'accès à Internet
Deux ménages sur trois ont accès à l'Internet
Avenir
Des robots miniatures comme auxiliaires médicaux
Une avancée spectaculaire dans la conception de moteurs moléculaires
Matière
A quand les écrans flexibles pour les Readers ?
Du sel fondu comme fluide colporteur
La première cape de silence
800 000 LED pour un écran électroluminescent géant
Conservation des manuscrits anciens : avec ou sans oxygène ?
Espace
Un ascenseur spatial pour remplacer la navette
Record de distance pour un amas de galaxies évolué
Les satellites au secours de la Nouvelle-Zélande
Le mystère de la disparition des taches solaires enfin élucidé
Terre
Les glaces polaires fondent à vitesse accélérée
Vivant
Des neurones de la mémoire fabriqués en laboratoire à partir de cellules souches
Chine : en 2015, plus de 216 millions de personnes auront plus de 60 ans
Les éléphants aussi savent coopérer
Barrer la route au paludisme
L'action inattendue du bisphénol A sur l'oreille interne de certains vertébrés
De puissants mutateurs de l’ADN humain identifiés
Quand l'obèsité rend dépressif
La pollution urbaine réduit l’espérance de vie européenne
Une technologie innovante pour combattre le cancer
CO2 : quels effefs sur le vivant ?
Vers un nouveau traitement de l’ostéoporose
La vitamine D : bonne pour le foie
Des facteurs épigénétiques pour prédire l'évolution tumorale chez les patients
Homme
Le Sud de l'Afrique, berceau de l'humanité ?
Recherche
Au sein de l'UE, la Suède montre l'exemple en terme d'innovation
Recharger intelligemment sa voiture électrique
Edito
Le lien entre inondations catastrophiques et réchauffement climatique est établi



Le réchauffement climatique a accru l'intensité des pluies diluviennes et des inondations dans l'hémisphère Nord au cours de la seconde moitié du 20e siècle, selon deux études récentes publiées par la revue Nature et établissant un lien direct entre le changement climatique et son impact sur des événements météorologiques extrêmes (Voir articles http://www.nature.com/news/2011/110216/full/470316a.html  http://communications.uvic.ca/releases/release.php?display=release&id=1205 et http://www.ox.ac.uk/media/news_releases_for_journalists/110217.html).

Jusque là, ce lien restait théorique, même si des modélisations numériques prédisaient que l'augmentation des gaz à effet de serre dans l'atmosphère aggraverait les épisodes de pluies diluviennes. Mais les données collectées en Europe, Asie et Amérique du Nord montrent, qu'en moyenne, les plus graves pics de précipitations ont eu une intensité accrue au cours de la dernière moitié du 20e siècle. Lorsqu'on compare ces pics annuels avec les simulations des modèles climatiques, l'influence humaine devient évidente, selon M. Zwiers. "Le changement observé ne peut pas s'expliquer par des fluctuations naturelles, internes du seul système climatique", dit-il. Mais malheureusement, les précipitations ne vont pas nécessairement augmenter dans les régions où les pluies sont faibles et certaines régions risquent, au contraire, de devenir plus sèches. En outre, les précipitations vont être plus violentes.

Pour mettre en lumière ce lien de causalité entre changement climatique et événements météorologiques extrêmes, Myles Allen (Université d'Oxford) et Pardeep Hall (ETH, Zurich) se sont servi de la puissance des réseaux sociaux pour réaliser la seconde étude portant sur l'impact du réchauffement climatique en Angleterre, où l'automne 2000 avait été marqué par des pluies diluviennes entraînant de graves dégâts. "Nous avons demandé à des membres du public dans le monde entier de laisser leur propre ordinateur personnel faire les simulations pour nous lorsqu'ils ne s'en servaient pas", relate-t-il. Le projet de calcul distribué climateprediction.net bénéficie actuellement de 50.000 à 60.000 ordinateurs personnels.

Les chercheurs ont pu comparer deux modèles numériques, l'un basé sur des données météorologiques historiques détaillées, l'autre sur une simulation de ce qu'il se serait passé à l'automne 2000 en Angleterre si des gaz à effet de serre n'avaient pas été émis au 20e siècle. Après avoir répété la simulation des milliers de fois, ils ont pu montrer que ces émissions avaient doublé les risques de voir se produire des épisodes de pluies extrêmes. Les pluies dévastatrices qui se sont abattues sur l'Australie dans ces dernières semaines sont sans doute liées à la hausse du thermomètre mondial, elle-même à l’origine d’une intensification du phénomène La Nina, avec également des conséquences dramatiques en Afrique du Sud, au Brésil et au Sri Lanka.

Une de ces études, publiée dans Nature, s'est concentrée sur les inondations survenues en Angleterre et au Pays de Galles durant l’automne 2000 et ses conclusions, fruit du croisement de multiples données et de l’élaboration de milliers de scénarios sur le temps qu’il aurait pu faire à l’époque si l'on exclut volontairement la montée des températures d’origine anthropique. Les résultats sont sans appel : dans neuf cas sur dix, l’augmentation des émissions de gaz à effet de serre (GES) est allée de pair avec celle du risque d’intempéries. La seconde étude, qui cible une zone plus large et a été publiée en 2009, a révélé que l’augmentation de la concentration de rejets de dioxyde de carbone (CO2) dans l’atmosphère s’est traduite par une hausse des précipitations sur les deux tiers des stations de sport d’hiver de l’hémisphère nord.

Il est intéressant de rapprocher ces deux études d'une autre étude de l'ONU qui montre que l'Humanité doit combiner l’efficience énergétique, les énergies renouvelables, les technologies de capture des émissions de dioxyde de carbone (CO2) et la protection des forêts pour ne pas dépasser le seuil dangereux d’une augmentation moyenne des températures de plus de 2°C par rapport aux niveaux préindustriels d’ici 2050. Selon cette étude, les énergies renouvelables, efficaces en termes de coût, pourraient produire 21 % de l’ensemble de l’énergie du secteur industriel d’ici 2050, fournissant ainsi 10 % des réductions nécessaires pour éviter un avenir fait de sécheresses, d’inondations, d’augmentation du niveau des mers, de tempêtes plus puissantes, de fonte des glaciers et d’autres effets possibles du changement climatique.

Selon l'ONU, investir 2 % du PIB mondial chaque année, dans dix secteurs clés, suffirait à développer une économie verte alliant croissance et développement durable. Cet effort représenterait 1.300 milliards de dollars, chaque année, entre 2011 et 2050, investis dans des secteurs clés de la croissance verte tels que l'agriculture, l'énergie, les transports, la forêt ou la construction. Si, à court terme, cette économie aurait pour conséquence de constater une croissance inférieure au modèle économique actuel, cette tendance serait inversée dès 2020, assure le PNUE.

Nous devons donc utiliser simultanément et avec beaucoup plus de force qu’actuellement, tous ces leviers pour réduire globalement de 70 % les émissions humaines de gaz à effet de serre d'ici 2050, ce qui est absolument indispensable pour limiter à 2 degrés le réchauffement climatique planétaire, comme le montrent plusieurs études scientifiques rigoureuses récentes. (Voir http://www2.ucar.edu/news/862/global-warming-cuts-greenhouse-gas-emissions-would... et http://www.nature.com/nature/journal/v458/n7242/full/nature08017.html).

Sachant que nous avons émis en 2010 environ 50 gigatonnes de gaz à effet de serre, cela signifie que nous devons descendre à 15 gigatonnes d'ici 40 ans pour empêcher un dérèglement massif du climat. L'effort est encore plus important si l'on raisonne par terrien : la population mondiale devant passer de 7 à 9 milliards de personnes d'ici 2050, chaque terrien doit diviser par plus de quatre ses émissions de GES, passant de 7 tonnes aujourd'hui à 1,7 tonnes en 2050.

Ce défi de civilisation est immense mais il n'est pas hors de notre portée et nous devons comprendre que le coût de l'inaction serait au moins 10 fois supérieur à celui des mesures à prendre pour limiter drastiquement nos émissions de gaz à effet de serre, comme l'a bien montré le rapport STERN en 2006. L'existence d'un lien avéré entre l'augmentation de nos émissions de gaz à effet de serre et la multiplication des événements météorologiques extrêmes et dévastateurs ne fait que confirmer la nécessité de réorienter et de repenser l'ensemble des activités humaines, de façon à atteindre cet objectif de réduction massive et définitive des émissions humaines de gaz à effet de serre d'ici le milieu de ce siècle.

René  TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet, accélérateur de la croissance française
Jeudi, 10/03/2011 - 15:49

Chaque euro investi par une entreprise dans les technologies du Web "s'est traduit par deux euros de marge opérationnelle". 

Selon une étude du cabinet McKinsey publiée mercredi 9 mars et financée par Google, la filière Internet joue un rôle "considérable" sur l'économie française, de la création d'emplois à la performance des entreprises. Le cabinet estime pourtant que ce potentiel pourrait encore être développé grâce aux politiques publiques.

La "filière Internet" étudiée par les économistes de ce cabinet regroupe les activités de télécommunication "voix" via l'Internet (VoIP), les activités informatiques (matériel et logiciel) liées à Internet, et les activités économiques ayant le Web pour support, telles que l'e-commerce ou la publicité en ligne, quelle que soit l'activité des entreprises. Sa contribution directe au produit intérieur brut (PIB) français est évaluée à 60 milliards d'euros en 2009, soit 3,2 % du total, et 72 milliards d'euros en 2010, soit 3,7 % du PIB annuel, selon cette étude en grande partie financée par le moteur de recherche Google.

A cette contribution de la filière Internet s'ajoutent les effets indirects du Web, c'est-à-dire les achats réalisés dans les réseaux physiques de distribution, mais facilités, préparés ou déclenchés par une recherche préalable en ligne. Ils sont estimés à environ 28 milliards d'euros en 2009, selon l'étude. Côté emploi, Internet peut également être aujourd'hui crédité de 1,15 million d'emplois en France, soit 4 % de la population active, dont près de 700 000 emplois directs créés depuis quinze ans, insiste McKinsey dans son étude.

La Toile est également un "accélérateur de développement", notamment pour les PME. Chaque euro investi par une entreprise dans les technologies du Web (sites, courriels, logiciels) "s'est traduit par deux euros de marge opérationnelle", et" chaque euro dépensé en marketing en ligne a rapporté 2,5 euros de bénéfice", souligne l'étude.

Des "marges de progression" subsistent encore "pour exploiter pleinement le potentiel numérique de la France", selon l'étude, qui prend pour exemple la "politique volontariste de promotion de la filière" de pays comme les Etats-Unis ou le Japon.

Le Monde

Comment la Libye coupe l'accès à Internet
Mercredi, 09/03/2011 - 08:34

Depuis le début de la crise politique, le pouvoir libyen avait semblé hésitant sur la marche à suivre concernant l'accès au réseau, imposant des coupures intermittentes et limitées dans le temps. La tactique a changé depuis jeudi dernier au soir : la coupure est désormais générale et sans interruption depuis le 3 Mars 2011. Générale, mais pas totale : comme le note l'entreprise spécialisée Renesys, la coupure n'est pas complète : "L'Internet libyen est encore actif, même si l'essentiel du trafic est bloqué. [...] Nous avons pu identifier une poignée d'adresses IP (Internet Protocol) qui répondent encore à l'intérieur du pays. (...) Il y a des gens en Libye qui ont encore accès à YouTube, même si le reste du pays est dans le noir."

Contrairement à l'Egypte, qui avait déclenché un blocage total du Web, la Libye a donc maintenu un mince filet d'accès à Internet. Le régime de Hosni Moubarak avait utilisé une technique simple et brutale : le blocage des protocole BGP (Border Gateway Protocol, qui permet aux sites de signaler leur adresse) et DNS (Domain Name Server, qui permet aux navigateurs Internet de s'orienter sur le Réseau). Sans ces protocoles, Internet ne fonctionne plus, et la coupure avait été totale.

La Libye, elle, n'a pas coupé ces deux protocoles clés. Elle s'est contentée de réduire drastiquement la bande passante disponible pour les utilisateurs, provoquant un ralentissement généralisé qui ressemble à une coupure totale du réseau mais permet de conserver certains services actifs. Surtout, cette manipulation est beaucoup plus simplement réversible : la désactivation ou la réactivation du protocole BGP à l'échelle d'un pays peut prendre plusieurs heures, tandis qu'une diminution ou une augmentation de la quantité de bande passante est beaucoup plus rapidement effective. L'utilisation de cette technique était plus simple en Libye, étant donné qu'il n'existe qu'une seul fournisseur d'accès à Internet. "Cette tactique fait parfaitement sens du point de vue du gouvernement. Internet est une ressource précieuse en temps de guerre, comme un pont stratégique qui assure le ravitaillement. Tant que vous pouvez empêcher votre ennemi de l'utiliser, vous n'avez aucun intérêt à le faire sauter - vous le gardez intact pour vos propres besoins", juge Renesys.

Le Monde

Deux ménages sur trois ont accès à l'Internet
Dimanche, 06/03/2011 - 10:23

Un peu plus de 64 % des ménages déclarent avoir un accès à Internet à leur domicile en 2010 contre 56 % en 2008 et seulement 12 % en 2000. Lorsque le ménage a Internet à domicile, son accès est neuf fois sur dix un accès haut débit. Les plus jeunes sont les plus équipés : le taux d’équipement, égal ou supérieur à 75 % jusqu’à 60 ans, tombe sous les 50 % entre  60 et 74 ans et n’est plus que de 8 % à partir de 75 ans.

À âge donné, l’équipement en connexion à Internet varie nettement en fonction du diplôme du répondant. Ainsi, le taux d’équipement des ménages dont le répondant a un niveau d’études inférieur au bac est beaucoup plus faible que celui d’un répondant ayant le bac ou un diplôme supérieur. L’écart entre les bacheliers et les peu diplômés tend cependant à se réduire : tous âges confondus, il est passé de 23 à 14 points au cours des deux dernières années.

Les chômeurs sont moins équipés (73,9 %) que les actifs ayant un emploi (83,4 %). Parmi ces derniers, le taux d’équipement à Internet augmente quand la catégorie socioprofessionnelle des répondants s’élève. Ainsi, 96 % des cadres et professions libérales sont équipés en 2010 contre 73 % des ouvriers. Là encore, cette « fracture numérique » s’estompe : l’écart est ainsi passé de 34 points en 2008 (avec respectivement 93 % et 59 % des ménages équipés en Internet) à 23 points en 2010. Les ménages n’ayant pas Internet invoquent en premier lieu le manque de compétences). Viennent ensuite pour un tiers des ménages : l’inutilité d’Internet, le coût trop élevé du matériel et le coût trop élevé de l’accès. Seuls 10 % déclarent ne pas avoir Internet à domicile car ils y ont accès ailleurs.

Dans leur quasi-totalité, les  ménages accèdent à la toile à partir d’un ordinateur : non portable pour 38 % d’entre eux, portable pour 31 %, l’un ou l’autre pour 29 %. Les taux d’équipement en ordinateurs et en Internet sont donc très proches (respectivement 67 % et 64 %), les profils étant similaires selon l’âge et le diplôme. L’accès à Internet à partir d’autres supports se développe également puisque 13 % des ménages y ont accès via une console de jeux contre 8 % en 2008 et 27 % via un autre support (téléphone, assistant personnel, etc.) contre 21 % en 2008.

En 2010, 71 % des personnes interrogées déclarent avoir utilisé Internet au cours des trois derniers mois contre 62 % en 2008. Seulement un quart des personnes interrogées déclarent ne jamais avoir utilisé Internet (32 % en 2008). Plus de 61 % des internautes ont obtenu des informations administratives ou des formulaires via internet : 63 % ont téléchargé, rempli ou envoyé des documents administratifs sur Internet, contre 58 % en 2008. 53 % des internautes ont effectué au moins un achat en 2010 (35 % en 2008). Sept sur dix ont effectué leur dernier achat lors des trois derniers mois et un quart entre trois mois et un an auparavant. Il s’agit surtout de vêtements (49 %), de billets de transport (46 %) et de séjours à l’hôtel ou en location (42 %).

INSEE

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots miniatures comme auxiliaires médicaux
Dimanche, 06/03/2011 - 21:08

Des robots miniatures pourraient effectuer des interventions ultra-précises au coeur de l'organisme : une équipe de chercheurs soutenue par le Fonds national suisse (FNS) travaille au développement de prototypes et s'apprête à tester une application concrète. Les instruments développés par l'équipe du professeur Brad Nelson de l'EPF de Zurich permettraient en principe d'opérer même une mouche.

Bien que les recherches n'en soient encore qu'à leurs balbutiements, des robots miniatures autonomes pourraient bien se charger un jour de diverses interventions médicales à l'intérieur du corps humain. Ce concept, issu de l'imagination des scénaristes de science-fiction hollywoodiens, deviendrait ainsi une pratique courante dans les hôpitaux. Ces minuscules auxiliaires pourraient en effet transporter des substances actives jusqu'à l'emplacement requis au cœur des tissus, ou peut-être même procéder à des interventions chirurgicales minimes mais ultra-précises et donc d'autant plus efficaces.

Les chercheurs de l'Institut de Robotique et des Systèmes Intelligents sont spécialisés dans les mécanismes de déplacement, qui fonctionnent tous en association avec des champs magnétiques externes, tant pour l'énergie que pour le guidage. L'illustration montre un robot - mesurant environ un tiers de millimètre - capable d'effectuer une sorte de mouvement natatoire sous l'influence de champs magnétiques oscillants. Ce qui ressemble, à première vue, à deux morceaux de sucre sur un petit piège à mouches, est en réalité un système très astucieux conjuguant à la perfection nanotechnologies et champs magnétiques. Le robot réagissant uniquement à des fréquences de résonance, diverses unités peuvent fonctionner sur un même lieu. Celles-ci s'orientent de manière fiable en fonction des gradients de champ magnétique, qui peuvent être modulés individuellement pour chaque unité. En théorie, ce principe permet de diriger très précisément tout un bataillon de chirurgiens miniatures à travers le corps.

L'intérêt principal de cette technique est de permettre à la chirurgie mini-invasive de franchir un nouveau cap : une petite incision dans une zone anodine du corps suffirait pour introduire les robots. En outre, en raison de leurs dimensions extrêmement compactes, les prototypes de robot développés par Brad Nelson et ses collaborateurs peuvent en principe être mis en œuvre dans quasiment toutes les régions du corps. Les chercheurs en font la démonstration avec l'oeil humain, où un robot devrait bientôt servir au transport ciblé de médicaments dans le traitement d'affections rétiniennes. Des discussions sont actuellement en cours avec des sociétés du secteur des techniques médicales.

Enerzine

Une avancée spectaculaire dans la conception de moteurs moléculaires
Dimanche, 06/03/2011 - 20:40

Des chercheurs du CNRS et de l'Université de Bordeaux, en collaboration avec une équipe chinoise du Beijing National Laboratory for Molecular Sciences ont réalisé le premier piston moléculaire capable de s'auto-assembler. Ces recherches représentent une avancée technologique importante dans la conception de moteurs moléculaires. Un tel piston pourrait, par exemple, servir à fabriquer des muscles artificiels ou à créer des polymères à la rigidité contrôlable. Ces résultats ont été  publiés le 4 mars 2011 dans la revue Science.

Les organismes vivants ont largement recours à des moteurs moléculaires pour remplir certaines de leurs fonctions vitales comme stocker l'énergie, permettre le transport cellulaire ou même se propulser dans le cas des bactéries. Les agencements moléculaires de ces moteurs étant extrêmement complexes, les scientifiques cherchent à créer leurs propres versions, plus simples. Le moteur développé par l'équipe internationale emmenée par Ivan Huc , chercheur CNRS au sein de l'Unité « Chimie et biologie des membranes et des nanoobjets » (CNRS/Université de Bordeaux), est un « piston moléculaire ». Comme un véritable piston, il est constitué d'un axe sur lequel glisse une pièce mobile, à la différence près que l'axe et la pièce ne mesurent que quelques nanomètres de long.

Plus précisément, l'axe est formé d'une molécule longiligne, tandis que la pièce mobile est une molécule en forme d'hélice (toutes deux sont des dérivés de molécules organiques spécialement synthétisés pour l'occasion). Comment le mouvement de la molécule hélicoïdale est-il possible le long de l'axe ? C'est l'acidité du milieu dans lequel baigne le moteur moléculaire qui contrôle l'avancée de l'hélice sur l'axe : en augmentant l'acidité, on pousse l'hélice vers une extrémité de l'axe, car elle possède alors une affinité pour cette portion de la molécule filiforme ; en réduisant l'acidité, on inverse le processus et l'hélice fait machine arrière. Ce dispositif offre un avantage essentiel par rapport aux pistons moléculaires déjà existants : l'auto-assemblage. Dans les versions précédentes, qui prennent la forme d'un anneau glissant sur une tige, la pièce mobile passe mécaniquement à travers l'axe avec une extrême difficulté. A l'inverse, le nouveau piston se construit tout seul : les chercheurs ont conçu la molécule hélicoïdale spécifiquement pour qu'elle vienne s'enrouler spontanément autour de l'axe, tout en conservant une certaine liberté de mouvement ensuite pour ses déplacements latéraux.

En permettant une fabrication à grande échelle du piston moléculaire, cette faculté d'auto-assemblage laisse espérer voir fleurir rapidement des applications. Les domaines concernés sont variés : biophysique, électronique, chimie... En greffant bout à bout plusieurs pistons, on pourrait, par exemple, réaliser une version simplifiée d'un muscle artificiel, capable de se contracter sur commande. Une surface hérissée de pistons moléculaires deviendrait, à loisir, un conducteur ou un isolant électrique. Dernière idée : on peut imaginer une version grand format de l'axe sur lequel glisseraient plusieurs hélices, ce qui fournirait un polymère à la rigidité mécanique ajustable. On le voit, les possibilités de ce nouveau piston moléculaire sont (presque) infinies.

CNRS

^ Haut
Matière
Matière et Energie
A quand les écrans flexibles pour les Readers ?
Jeudi, 10/03/2011 - 16:51

Les écrans flexibles sont déjà au point. Mais il faut maintenant trouver des solutions pour les embarquer dans des appareils eux-mêmes plus souples et plus fins.

L'écran flexible fait rêver, et sera sans aucun doute une des prochaines étapes de la mobilité. On ne sait pas bien s'il sera enroulable, repliable, rétractable, et il se pourrait bien qu'il soit tout cela. L'écran souple existe déjà, sous forme de prototypes, pour les écrans e-paper, mais aussi pour les écrans Oled.

LES ECRANS FLEXIBLES EXISTENT DEJA

LG et son écran souple : La photo est parlante mais un peu trompeuse. L'encre électronique restant "fixée" en l'absence de courant électrique, l'image de la page souple autonome est intéressante mais ne peut pas être changée. Une partie rigide est en réalité pour l'instant nécessaire. Mais concernant l'écran, on voit que l'écran à encre électronique souple existe bien, et peut même être produit sur de grandes surfaces. Cet écran numérique mesure 25 x 40 centimètres (surface équivalente à un écran 19 pouces), avec une épaisseur de 0,3 millimètres. Pour parvenir à ce résultat, LG a utilisé une feuille de métal en lieu et place du verre.

D'autres projets sont en cours, utilisant plutôt le plastique que le verre, comme Plastic Logic, qui vient de recevoir pour cela le soutien financier de l'entreprise russe Rusnano, spécialisée dans les nanotechnologies. Cette dernière a investi 700 millions de dollars auprès de Plastic Logic pour fabriquer une usine de production d’écrans plastique qui devrait être la plus importante au monde, et embauchera pas moins de 300 personnes.

Sony et l'écran enroulable : Sony a montré qu'il est possible de proposer des écrans Oled assez fins pour être enroulés. On peut donc ensuite varier la flexibilité de l'écran pour aller de l'écran flexible à l'écran souple et même enroulable, ce qui ouvre une grande variété de possibilités, toujours du moment où on garde un espace rigide où loger processeur, batterie, et le reste des composants électroniques.

Readius et son écran repliable : Ce projet, désormais abandonné, mais dont les plans et brevets ont été rachetés,  pourrait donner de bonne idées à d'autres acteurs. L'idée de proposer un petit appareil permettant de déplier l'écran, voire de le dérouler, est une option intéressante pour concilier les besoins de mobilité avec ceux d'écrans de taille suffisante pour une expérience de lecture à la hauteur. Ce qui n'était qu'un prototype ne verra peut-être jamais le jour sous cette forme. Mais la technologie étant d’ores et déjà opérationnelle, nous pourrions voir rapidement un appareil du même type.

Mais pour proposer un appareil souple, il faut aussi inventer les composants souples sous peine d'avoir des écrans souples dans un cadre rigide, à cause de la place prise par les autres composants : batterie, emplacement des différentes prises, modem wi-fi ou 3G, et processeur, pour ne citer qu'eux

De Nouveaux composants souples …

Batterie souple : c'est en préparation déjà depuis un certain temps. Les développements les plus intéressants récemment ont permis de créer des batteries en polymère et en cellulose. C'est presque une batterie en papier, fine, légère, flexible et peu coûteuse en plus. Quand on voit la taille des batteries dans les tablettes aujourd'hui, nécessaires pour ces appareils très gourmands, il est difficile de croire que des batteries souples, fines et puissantes seront bientôt disponibles. Pour les appareils à encre électronique, c'est une option un peu plus réaliste.

Un processeur souple : C'est ce que viennent de présenter des chercheurs belges. En effet, des chercheurs ont réussi à fabriquer un processeur organique souple. Seul souci pour l'instant, ces processeurs ont une puissance de calcul ridicule, avec 6 opérations à la seconde (le site écrans flexibles donne plus d'infos). On ne risque donc pas d'aider l'encre électronique à accélérer le mouvement avec ce genre de performance.

Et pour les tablettes, à l'heure où apparaissent les premiers processeurs 4 coeurs pour smartphones et tablettes, les processeurs souples semblent peu compatibles avec les besoins de ce genre d'appareils.

En conclusion, on verra certainement pour commencer des écrans souples avec un bord ou un cadre rigide, car les composants souples, bien qu'en préparation, ne sont pas encore prêts à rivaliser avec les performances de leurs équivalents en dur.

Article rédigé par Florent Taillandier pour CNET France

Du sel fondu comme fluide colporteur
Jeudi, 10/03/2011 - 15:41

Grâce à une importante capacité de stockage de la chaleur, les sels fondus pourraient optimiser l’efficacité de certains types de centrales solaires, tout en diminuant leurs coûts d’exploitation.

Pour améliorer l’efficacité des centrales solaires thermiques, Siemens va tester, au Portugal, une installation pilote qui utilise des mélanges de sels fondus comme fluide caloporteur. Habituellement, ce type de centrale à focalisation parabolique utilise une huile synthétique pour récupérer l’énergie thermique reçue au point focal des miroirs. Ce fluide est ensuite pompé à travers des échangeurs conventionnels, afin de produire de la vapeur surchauffée qui fait fonctionner une turbine entrainant un générateur électrique.

Le remplacement de cette huile thermique par des sels fondus permettrait à Siemens de travailler à une température plus haute (> à 500°C au lieu de 400°C), facteur déterminant pour augmenter l’efficacité du process. En effet, ces sels non inflammables présentent une plus haute capacité de stockage de chaleur, tout en rendant le procédé plus sûr. De plus, ces sels sont considérablement moins onéreux que les huiles, ce qui contribue à diminuer les coûts d’exploitation.

Construite sur le site de l’Université d’Evora (Portugal), l’installation pilote servira à optimiser, tout au long des trois années de tests, la composition des mélanges ainsi que leurs propriétés physiques. Mais avant cela, Siemens a déjà dû modifier les composants solaires, le générateur de vapeur, le système de canalisations et les pompes, afin de mieux adapter la centrale à des températures de fonctionnement plus hautes.

Rédigé par Clément Cygler pour Industrie et Technologies

La première cape de silence
Jeudi, 10/03/2011 - 15:16

Les fans de Harry Potter connaissaient la cape d’invisibilité. Voici à présent la cape de silence, sortie du département des sciences mécaniques et d’ingénierie de l’université de l’Illinois, aux États-Unis. Tenant dans la paume de la main, elle fait disparaître de l’environnement sonore n’importe quel objet placé en son centre. Ou plus précisément de l’environnement ultrasonore marin, le dispositif ne fonctionnant - c’est l’une de ses principales limites - que sous l’eau et vis-à-vis des ultrasons. Il pave toutefois la voie vers de futures applications où l’on cherche à manipuler les sons.

Concrètement, la cape de silence a des airs de disque compact. Elle se présente sous la forme d’un disque d’aluminium, dans lequel a été creusé un réseau de minuscules canaux. Parmi ses inventeurs, on compte Nicholas Fang, qui avait déjà inscrit à son palmarès le développement d’une « lentille » capable de focaliser les sons sous l’eau. Comme cette lentille, le principe de la cape de silence peut d’ailleurs se résumer à celui d’un dispositif de guidage d’ondes sonores.

Une fois plongé dans l’eau, le disque agit en effet comme un réflecteur d’ultrasons : il intercepte les ondes avant qu’elles viennent percuter le dispositif et les fait contourner l’objet, avant de les renvoyer dans leur direction originelle. Finalement, tout se passe comme si les ondes avaient traversé l’objet en ligne droite. Fang et son équipe ont testé la cape en camouflant un cylindre d’acier d’un centimètre de diamètre. Les images qu’ils ont publiées du champ sonore, capturé à l’aide d’un micro, montrent clairement qu’elle supprime les réflexions d’ondes qui normalement auraient eu lieu sur le cylindre.

« C’est une jolie réalisation expérimentale », observe Sébastien Guenneau, de l’institut Fresnel, à Marseille, qui lui-même avait dévoilé il y a deux ans un dispositif très proche dans son principe, mais pour les ondes mécaniques (il préservait une région dans un bassin des vagues qui agitaient la surface ailleurs). Le chercheur pointe toutefois une limitation de l’invention de Fang : « Une vraie cape de silence doit fonctionner à trois dimensions et pas seulement dans un plan comme celle de Fang. Avec mon équipe, nous travaillons sur cet objectif. Il y a deux voies possibles pour réaliser une cape tridimensionnelle : concevoir une structure à l’architecture très compliquée ou bien jouer sur la compressibilité des matériaux, c’est-à-dire faire cohabiter dans la cape deux matériaux aux propriétés élastiques différentes ».

L’autre limitation - la restriction aux ultrasons - n’en est pas une d’après Nicholas Fang. « Notre étude expérimentale indique que le design de la cape est transposable à d’autres fréquences », affirme-t-il dans l’article, sans préciser s’il inclut les longueurs d’onde audibles ni, par ailleurs, si sa cape fonctionnera un jour dans l’air. Si ces obstacles tombaient, une cape de silence pourrait, par exemple, rendre indétectables les sous-marins ou améliorer l’acoustique d’une salle de concert en effaçant du champ sonore les piliers de soutènement. En médecine, une cape antiultrasons pourrait servir à affiner les diagnostics réalisés par échographie en effaçant les réflexions parasites de certains tissus biologiques.

Article rédigé par Xavier Müller  pour La Recherche

800 000 LED pour un écran électroluminescent géant
Mercredi, 09/03/2011 - 22:33

Mitsubishi Electric a installé cet écran électroluminescent géant dans un stade japonais. Il mesure plus de 20 m de diagonale et comprend près de 800 000 LED en couleur à haut rendement.

Les écrans électroluminescents à LED envahissent les stades, centres d’expositions et autres lieux publics, avec à chaque fois des afficheurs plus imposants. Le stade de Naruto, au Japon, vient ainsi de s’équiper d’un écran Diamond Vision de Mitsubishi Electric. Il mesure 824 pouces de diagonale (plus de 20 m), soit 18,72 x 9,36 m de côtés. Il réunit près de 800 000 diodes rouges, vertes et bleues au pas de 15 mm, pour offrir une résolution d’image de 1 248 x 624 pixels.

Cet écran figure parmi les plus grands installés par Mitsubishi Electric dans le monde. Au Japon, parmi les écrans Diamond Vision déjà en service dans des stades figuraient déjà des exemplaires de 600, 800 et 802 pouces de diagonale.

Article rédigé par Ridha Loukil pour Industrie et Technologies

Conservation des manuscrits anciens : avec ou sans oxygène ?
Mercredi, 09/03/2011 - 20:51

Il était admis que l'altération des papiers provoquée sur les manuscrits anciens par la présence d'encres ferrogalliques résultait principalement de deux phénomènes : l'hydrolyse et l'oxydation. Des scientifiques du Centre de recherche sur la conservation des collections (Muséum national d'Histoire naturelle/CNRS/ministère de la Culture et de la Communication) et de l'Université d'Anvers en Belgique, viennent de démontrer que l'oxydation est le processus dominant de la dégradation des manuscrits. Ce phénomène pourrait être inhibé par une diminution drastique de la quantité d'oxygène. Menés notamment sur les synchrotrons SOLEIL et HASYLAB, ces travaux viennent d'être publiés dans la revue Analytical Chemistry.

Les encres ferrogalliques sont généralement composées de sels de fer, de gomme arabique et d'extraits aqueux de noix de galle. En Occident, ces encres noires ont été largement utilisées pour l'écriture depuis le Moyen-Âge jusqu'au début du XXe siècle. Dans certaines conditions, elles provoquent une altération importante du support papier, qui devient brun et cassant, jusqu'à parfois tomber en poussière. Les informations portées par les manuscrits, souvent de véritables trésors du patrimoine, sont alors perdues.

La dégradation du papier est généralement présentée comme résultant de deux phénomènes : l'hydrolyse acide de la cellulose, favorisée par l'humidité et l'acidité du papier, et l'oxydation de la cellulose, due à l'oxygène ambiant et exacerbée par la présence d'ions ferreux (Fe2+). Les équipes de Véronique Rouchon au Centre de recherche sur la conservation des collections (CRCC, CNRS/MNHN/ministère de la Culture et de la Communication) et Koen Janssens au département de chimie de l'Université d'Anvers ont cherché à identifier quel est, de l'hydrolyse ou l'oxydation, le processus dominant d'altération des manuscrits écrits avec des encres ferrogalliques.

Des papiers modèles, imprégnés d'encres ferrogalliques, ont été stockés pendant quelques mois dans des environnements plus ou moins humides et avec des concentrations variées en oxygène. Une originalité de cette étude réside dans le fait que la dégradation du papier a été suffisamment rapide pour être observée à température ambiante. Sur les papiers encrés, l'oxydation du fer, à savoir la transformation des ions ferreux (Fe2+) en ions ferriques (Fe3+), a été mesurée en fonction du temps par spectroscopie d'absorption des rayons X sur les lignes de lumière DIFFABS et « L », deux installations expérimentales des synchrotrons SOLEIL (St Aubin, France) et HASYLAB (Hambourg, Allemagne). Il s'agissait d'estimer si un lien direct pouvait être établi entre les teneurs en ions ferreux et la dégradation du papier.

Les résultats montrent que la dégradation de la cellulose est conditionnée par la présence d'oxygène et parfaitement indépendante de l'humidité relative. Ainsi, l'oxydation est le mécanisme dominant d'altération des manuscrits. Cette oxydation de la cellulose est directement liée à la présence de fer dans le papier. En revanche, elle semble peu corrélée à l'état d'oxydation du fer, à savoir aux teneurs en ions ferreux (Fe2+) ou ferriques (Fe3+), lesquelles dépendent directement de la présence conjointe d'oxygène et d'humidité.

Cette recherche envisage également d'utiliser des techniques d'anoxie, c'est-à-dire de diminution de la quantité d'oxygène, pour la conservation des manuscrits. Elle montre aussi l'intérêt d'étudier des méthodes « anti-oxydantes » pour le traitement des manuscrits les plus endommagés.

CNRS

^ Haut
Espace
Espace et Cosmologie
Un ascenseur spatial pour remplacer la navette
Jeudi, 10/03/2011 - 16:26

Un monte-charge qui s'élèverait à 35 000 kilomètres : ce projet vieux d'un siècle pourrait aboutir dans 10 à 20 ans.

C'est une idée ancienne qui refait surface : l'ascenseur spatial. N'y voyez pas une blague d'ingénieur voulant se payer la tête d'un journaliste, mais une idée sérieusement étudiée par la Nasa et par plusieurs instituts de recherche, notamment aux États-Unis et au Japon.

Imaginez un monte-charge s'élevant le long d'un câble de 35 000 kilomètres jusqu'à une plate-forme spatiale placée en orbite géostationnaire. Et pour tendre ce câble, un contrepoids fixé, lui, à 100 000 kilomètres du sol. N'oublions pas qu'en tournant, la Terre crée ce qu'on appelle la force centrifuge. Le câble se tend alors comme les lanières d'une fronde en rotation. Cette idée naît en 1895 dans l'esprit génial du pionnier russe des vols spatiaux, Konstantin Tsiokovsky. Lors d'une visite à la tour Eiffel, il imagine une tour géante reliée à des châteaux célestes par un chemin de fer. Mais, à l'époque, le projet était irréalisable, aussi tomba-t-il dans l'oubli jusqu'en 1979, quand l'écrivain de science-fiction Arthur C. Clarke s'en empara dans son ouvrage Les fontaines du paradis. Depuis, plusieurs scientifiques travaillent sur la question.

En août prochain, l'ISEC (International Space Elevator Consortium) convie toutes les équipes travaillant à cette idée à Washington pour faire un point. On y parlera beaucoup de la conception du câble qui doit allier une immense solidité à un poids plume. Désormais, il semble que ce gigantesque défi pourrait être relevé par les fameux nanotubes en carbone. William Flew, un spécialiste des matériaux au King's College de Londres, affirme que de récents progrès permettent enfin d'envisager la fabrication d'un câble suffisamment solide pour résister à la tension immense, aux vents et aux orages. Soit une résistance d'au moins 180 fois celle de l'acier, selon Yoshio Aokki, professeur d'ingénierie et directeur de la Japan Space Elevator Association. Reste à inventer le rouet capable de filer ces nanotubes. Une équipe de l'université de Cambridge vient d'annoncer la fabrication de premières mini-fibres. Un premier pas.

La propulsion de la cabine, de même que son freinage lors de la descente, est le deuxième gros problème à résoudre. Les Américains imaginent de braquer des rayons laser depuis le sol sur le véhicule ascensionnel pour l'approvisionner en énergie. Les Japonais, eux, réfléchissent à un procédé copié sur la propulsion magnétique de leur train. "Les nanotubes de carbone étant de bons conducteurs d'électricité, nous envisageons la présence d'un second câble qui fournirait l'énergie nécessaire tout au long du trajet", poursuit Aokki. D'autres projets envisagent d'utiliser l'énergie solaire, même nucléaire. Quoi qu'il en soit, les ingénieurs ont calculé qu'un tel monte-charge nécessitera cent fois moins d'énergie qu'un tir de fusée. L'ascension sera aussi plus lente, elle prendra entre quatre et cinq jours. Des premiers essais ont été menés par les Japonais avec un modèle réduit. La cabine s'est élevée le long d'un câble de 28 mètres.

Si les nanotubes en carbone tiennent leurs promesses, l'inauguration du premier ascenseur spatial pourrait théoriquement intervenir dès 2020 ou 2030. Une estimation du coût a déjà été faite : environ 12 milliards de dollars, soit moins cher que le tunnel sous la Manche. Selon l'ISEC, chaque kilo mis en orbite reviendra à quelques dizaines de dollars, contre 20 000 pour un lancement avec une fusée Titan ou Ariane.

Article rédigé par FRÉDÉRIC LEWINO pour Le Point

Record de distance pour un amas de galaxies évolué
Mercredi, 09/03/2011 - 22:12

Une équipe internationale de chercheurs conduite par Raphael Gobat et Emanuele Daddi, du Service d'Astrophysique-AIM du CEA-Irfu, vient de découvrir un amas de galaxies évolué, le plus distant jamais observé, à une distance de plus de dix milliards d'années-lumière. C'est en utilisant les grands télescopes au sol du VLT (Very Large Telescope, ESO), joint aux données des satellites HST (Hubble Space Telescope, NASA-ESA) et XMM-Newton (ESA), que cette distance record a pu être mesurée.

"Nous avons mesuré la distance à l'amas de galaxies évolué le plus éloigné jamais trouvé ", dit Raphael Gobat du laboratoire "Astrophysique, Instrumentation et Modélisation" (CEA, CNRS, Université Paris Diderot), l'auteur principal de l'étude. "La chose surprenante est que, lorsqu'on le regarde attentivement, cet amas de galaxies ne semble pas jeune - de nombreuses galaxies se sont « assagies » et ne ressemblent pas aux galaxies à formation d'étoiles que l'on observe habituellement dans l'Univers primitif."

Les amas de galaxies sont les plus grandes structures de l'Univers. Les astronomes s'attendent à ce que ces amas grandissent au fil du temps et donc que les amas massifs soient rares dans l'Univers primitif. Bien que des amas plus éloignés aient déjà été observés, ils sont toujours apparus comme de jeunes amas en plein processus de formation et non pas comme des systèmes assagis et évolués. Ce groupement, baptisé J1449 CL 0856, avait toutes les caractéristiques indiquant qu'il s'agissait d'un amas de galaxies très éloigné tel qu'il était lorsque l'Univers avait environ trois milliards d'années - moins d'un quart de son âge actuel.

Une fois mesurée la distance de cet objet très rare, ces astronomes ont observé attentivement les galaxies qui le composent en utilisant le télescope spatial Hubble de la NASA et de l'ESA, ainsi que des télescopes au sol, dont le VLT (Very Large Telescope, Observatoire européen austral). Ils ont trouvé des preuves suggérant que la plupart des galaxies de l'amas ne formaient pas d'étoiles, mais étaient composées d'étoiles déjà âgées d'environ un milliard d'années. Cela fait de cet amas un objet évolué d'une masse proche de la masse de l'amas de la Vierge, amas riche en galaxies et le plus proche de la Voie lactée.

Une autre preuve indiquant qu'il s'agit bien d'un amas évolué provient d'observations, réalisées avec XMM-Newton de l'ESA, de l'émission de rayons X provenant de J1449 CL 0856 . L'amas présente une émission de rayons X qui doit venir d'un nuage très chaud de gaz ténu remplissant l'espace entre les galaxies et concentré vers le centre de l'amas. Ceci est un autre signe de maturité pour un amas dont les galaxies sont solidement maintenues ensemble par sa propre gravité, alors que des amas très jeunes n'auraient pas eu le temps de piéger du gaz chaud de cette manière.

Comme Raphael Gobat conclut : "Ces nouveaux résultats renforcent l'idée que des amas évolués existaient quand l'Univers avait moins d'un quart de son âge actuel. De tels amas sont supposés être très rares selon la théorie actuelle et nous avons eu beaucoup de chance d'en repérer un. Mais si de nouvelles observations en trouvaient beaucoup plus, alors cela pourrait signifier que notre compréhension de l'Univers primitif devrait être revue."

CEA

Les satellites au secours de la Nouvelle-Zélande
Lundi, 07/03/2011 - 22:22

Le 21 février 2011, la ville de Christchurch est touchée par un violent tremblement de terre. Rapidement, les satellites de la Charte Internationale « Espace et Catastrophes Majeures » sont mobilisés pour couvrir la catastrophe.

« Le 22 février midi, quelques heures après que le séisme ait frappé la Nouvelle-Zélande, la Charte internationale ‘’Espace et Catastrophe Majeure’’ était déclenchée par la sécurité civile française puis par les Américains pour le compte de la sécurité civile néo-zélandaise », relate Claire Tinel, chef de projet de l’activation pour le CNES. Claire Tinel contacte alors les agences membres de la Charte  pour qu’elles programment leurs satellites en urgence sur la zone impactée. La requête : obtenir des images de haute et très haute résolution du centre-ville de Christchurch afin de cartographier les dégâts. « Le 22 février, le temps était très nuageux. Il a donc fallu attendre le lendemain pour que les satellites Worldview-2 et GeoEye-1 obtiennent des images exploitables avec une résolution de 50 cm, retrace Claire Tinel. Les photo-interprètes du SERTIT ont ensuite produit, en moins de 6 h, une carte sur laquelle il est possible de distinguer clairement les bâtiments effondrés. »

Le séisme, d’une magnitude de 6,3, semble avoir principalement touché les grands édifices et les bâtiments anciens du centre-ville de Chistchurch. C’est là que les secours se concentrent, une cinquantaine de personnes se trouvant encore sous les décombres. Et la mobilisation ne s’arrête pas là. Le 25 février, des scientifiques français obtiennent des images radar du satellite japonais ALOS et réalisent, dans la nuit, un interférogramme.   Autrement dit une carte révélant les déplacements de terrain provoqués par le tremblement de terre.La Nouvelle-Zélande est située à la jonction de 2 plaques tectoniques, la plaque Pacifique et Australienne, et se trouve donc parcourue par de nombreuses failles. L’une de ces failles traverse la ville de Christchurch et engendre, à chaque séisme, des mouvements du sol.

« La sécurité civile néo-zélandaises et les sismologues nous ont fait des retours très positifs sur cet interférogramme, réagit Claire Tinel. Il va leur permettre de visualiser les déplacements de terrain au niveau de la faille, de déterminer l’orientation de ces déplacements – savoir si le sol a bougé plutôt vers l’est ou vers le nord, s’il a été surélevé ou s’il s’est affaissé – et ainsi prévenir d’éventuelles répliques. »

Un tremblement de terre avait déjà eu lieu dans cette région en septembre 2010, sans faire de victime. Et il est en effet très probable que des répliques sismiques viennent à nouveau secouer la Nouvelle-Zélande dans les mois à venir.

CNES

Le mystère de la disparition des taches solaires enfin élucidé
Dimanche, 06/03/2011 - 20:54

Des astrophysiciens américains ont annoncé qu'ils avaient résolu l'énigme de la disparition des taches solaires. Un phénomène connu depuis longtemps mais dont on ignorait encore l'origine.

Après plus de deux siècles de mystère, il semblerait que des astrophysiciens soient enfin parvenus à expliquer la disparition des taches solaires, au cours d'une étude publiée le 3 Mars 2011 dans la revue Nature. En effet, ces régions particulières du Soleil se manifestent normalement par des "points noirs" visibles à sa surface. Mais à plusieurs reprises, les scientifiques se sont aperçus que ces taches disparaissaient et ce, pendant de longues périodes. Un étrange phénomène rapporté pour la première fois en 1810 et qui semble se reproduire régulièrement. Entre 2008 et 2010, la surface du Soleil comptait ainsi très peu de taches voire aucune.

Si l'on savait déjà que le Soleil connaissait des cycles réguliers d'environ 11 ans alternant faible et forte activité, ceci ne suffisait pas à justifier la disparition des taches sur des durées prolongées. Pour en savoir davantage, les astrophysiciens de l'Université du Montana aux Etats-Unis ont donc multiplié les observations et collecté diverses informations sur la surface du Soleil, les taches solaires, les éruptions et la force des champs magnétiques aux pôles nord et sud de l'astre. En modélisant sur ordinateur la surface du Soleil sur une durée de 2.000 ans, ils se sont ainsi aperçus que l'absence de taches coïncidait avec des champs magnétiques faibles. Associés à une activité solaire peu intense, ceux-ci expliqueraient alors la modulation du nombre de taches visibles à la surface.

"Comprendre ces structures est important car les activités solaires influencent la météo spatiale capable d'affecter les technologies dans l'espace et sur Terre", a expliqué à Reuters, Piet Martens, l'un des astrophysiciens qui a conduit l'étude. En 2009, par exemple, l'absence de taches solaires avait provoqué une montée en flèche des radiations cosmiques. Des rayons de haute énergie dangereux pour les astronautes. De même, une faible activité solaire pourrait affecter les systèmes de communication fonctionnant par satellite. Pouvoir prédire la météo spatiale en examinant les champs magnétiques du Soleil permettrait alors de limiter l'impact de ces phénomènes.

Maxisciences

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les glaces polaires fondent à vitesse accélérée
Mercredi, 09/03/2011 - 22:24

Selon une longue étude financée par la Nasa, les glaces du Groenland et de l'Antarctique fondraient de plus en plus vite chaque année. Un rythme qui pourrait accélérer la montée du niveau des océans.

La fonte des glaces du Groenland et de l'Antarctique subit une inquiétante accélération. C'est ce que révèle une étude financée par la Nasa et publiée le 8 Mars 2011 dans la revue Geophysical Research Letters. Pendant 18 ans, les chercheurs ont collecté et comparé des observations et mesures satellitaires pour examiner les changements de masse des glaces polaires. Des recherches dont les résultats laissent penser que celles-ci pourraient devenir le principal contributeur à la montée des océans.

En 2006, le Groenland et l'Antarctique auraient perdu au total près de 475 milliards de tonnes de glace. C'est bien plus que les 402 milliards de tonnes perdues par les glaciers de montagnes cette même année. Depuis 1992, la fonte arctique et antarctique aurait ainsi augmenté d'en moyenne 36,3 milliards de tonnes par an. Une accélération trois fois supérieure à celle des autres glaciers. "Le Groenland et l'Antarctique contiennent beaucoup plus de glace que les montagnes. Il n'est donc pas surprenant que la calotte glaciaire contribue davantage à la future montée des océans", a indiqué le principal auteur de l'étude Eric Rignot, chercheur au Jet Propulsion Laboratory de la Nasa.

En effet si ces rythmes de fonte se maintiennent durant les quatre prochaines décennies, l'augmentation du niveau des mers pourrait être beaucoup plus précoce que ne le projettent les prévisions et celle-ci pourrait atteindre 15 centimètres d'ici 2050. Additionnée à la montée de 8 centimètres prévue par les modèles actuels et aux 9 centimètres issus de la dilatation thermique des eaux, le niveau des océans s'élèveraient alors de 32 centimètres d'ici 40 ans. "Si les tendances actuelles persistent, les niveaux de la mer vont probablement être nettement plus élevés que ceux projetés par le Groupe intergouvernemental d'experts de l'Onu sur l'évolution du climat (Giec) en 2007", a confirmé Eric Rignot.

Maxisciences

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des neurones de la mémoire fabriqués en laboratoire à partir de cellules souches
Jeudi, 10/03/2011 - 16:14

Cette première mondiale pourrait ouvrir la porte à des avancées médicales importantes dans le traitement de la maladie d'Alzheimer.

C'est une prouesse scientifique de nature à susciter de nouveaux espoirs pour la médecine. Après six années de travail, des chercheurs américains de l'université de Chicago aux États-Unis ont, pour la toute première fois, réussi à recréer en laboratoire des neurones cholinergiques à partir de cellules souches embryonnaires. Ces neurones, qui jouent un rôle fondamental dans le fonctionnement de la mémoire, sont ceux principalement affectés dans certaines pathologies dégénératives, telles que la maladie d'Alzheimer ou la démence à corps de Lewy. L'équipe scientifique dirigée par le docteur Jack Kessler et son adjoint Christopher Bissonnette a ensuite réimplanté les neurones cholinergiques "fabriqués" dans l'hippocampe de souris afin de vérifier, avec succès, que ceux-ci étaient bien fonctionnels. De là à imaginer des neurones pouvant remplacer les cellules détruites par la maladie, il n'y a qu'un pas...

"Ces travaux sont porteurs d'espoir pour l'avenir, mais il ne faut tout de même pas s'emballer : l'utilisation de ces neurones chez l'homme n'est sans doute pas pour demain", tempère le neurologue Bernard Croisile, chef du service de neuropsychologie de l'hôpital Pierre-Wertheimer de Lyon.

"Les neurones sont localisés dans une partie du cerveau, le noyau de Meynert, difficilement accessible : on ne peut pas demander à un chirurgien d'ouvrir le cerveau et d'accéder à cette zone", souligne-t-il. "Il faudra donc envisager de recourir à une technique précise, et non invasive, telle que la chirurgie stéréotaxique (technique guidée par l'image) afin d'enfoncer une aiguille pour tenter d'implanter ces neurones dans cette région profonde du cerveau ou bien tenter de les injecter par ponction lombaire, voire par ponction ventriculaire", explique le spécialiste. "Après cela, il faudra encore que ces neurones soient viables et qu'ils puissent effectivement, depuis le noyau de Meynert, recréer des réseaux et effectivement développer leur potentialité cholinergique dans tout le cerveau", insiste-t-il.

En attendant qu'une solution technique de transplantation puisse éventuellement être trouvée, les chercheurs de l'université de Chicago aux États-Unis comptent bien mettre à profit leur découverte pour faire avancer la recherche médicale. Ils envisagent ainsi de tester sur leurs neurones cholinergiques "fabriqués" toute une batterie de médicaments utilisés dans le traitement de la maladie d'Alzheimer. Ils espèrent aussi pouvoir les employer pour comprendre les mécanismes de la dégénérescence qui conduit à leur mort. Des données qui pourraient à terme permettre la mise au point de thérapies préventives. Un enjeu de taille dans des pays occidentaux à la population vieillissante. Rien qu'en France, 860 000 personnes sont touchées par la maladie d'Alzheimer ou par des maladies apparentées.

Article rédigé par CHLOÉ DURAND-PARENTI  POUR Le Point

Etude publiée dans la revue scientifique américaine Stem Cells  (http://onlinelibrary.wiley.com/doi/10.1002/stem.626/abstract)

Le Point

Chine : en 2015, plus de 216 millions de personnes auront plus de 60 ans
Jeudi, 10/03/2011 - 16:02

Dans un récent article de l’agence de presse officielle chinoise Xinhua, on apprend que la Chine comptera plus de 216 millions de personnes âgées de plus de 60 ans en 2015. Avec une augmentation annuelle de plus de huit millions de seniors par an.

« La population chinoise de plus de 60 ans atteindra 216 millions de personnes d'ici 2015 avec une augmentation nette annuelle de plus de 8 millions de seniors », a indiqué dans la dépêche de l’agence Xinhua, le ministre chinois des Affaires civiles Li Liguo. Et de préciser que : «d'ici cinq ans, le problème du vieillissement de la population va s'aggraver ». Par ailleurs, parallèlement, d’ici 2015, les personnes très âgées, de 80 ans et plus, devraient atteindre les 24 millions. Selon les chiffres officiels, le nombre d’octogénaires devrait croitre d’un million par an au cours des prochaines années. 

Inutile de le nier : ce vieillissement de la population chinoise est un véritable casse-tête pour les hommes du gouvernement. Pas un jour sans que les journaux chinois n’abordent le sujet… D’ailleurs, comme le remarque encore cette dépêche : « le problème de la population vieillissante est compliqué par l'élargissement des écarts entre les régions urbaines et rurales (…) ». A part la construction d'institutions de santé pour les seniors, « un mécanisme de santé basé sur la famille a été mis en place dans les régions urbaines et atteindra bientôt la campagne ».

Plus concrètement, la Chine paye les conséquences de la politique de l'enfant unique (un bébé par couple en ville et deux à la campagne) développée dans les années 70 et qui entraîne aujourd'hui ce vieillissement accéléré de la population. En effet, cette mesure n'a pas permis au pays d'assurer correctement le renouvellement des générations. Cette immense nation est donc entrée depuis le début du siècle dans une période de vieillissement de sa population…

Rappelons que fin 2007, les plus de 60 ans totalisaient 153 millions de personnes, soit 11.6 % de la population chinoise… Et ils pourraient être plus de 248 millions d’ici 2020 et 435 millions d'ici 2050 ! Soit un tiers des Chinois qui seraient seniors d’ici le milieu du 21ème siècle.

Senior Actu

Les éléphants aussi savent coopérer
Jeudi, 10/03/2011 - 15:31

Une expérience conduite en Thaïlande révèle que les éléphants sont non seulement capables de coopérer avec un congénère mais également de comprendre les conditions de l’entraide. Ce sens élaboré de la coopération ne serait donc pas l’apanage des seuls primates.

Depuis longtemps, l'homme sait dresser les éléphants pour qu'ils l'aident à accomplir des travaux de force. Mais les pachydermes peuvent aussi coopérer entre eux. Cela vient d’être mis en évidence avec un travail expérimental conduit en Thaïlande par une équipe internationale d’éthologues réunissant notamment Frans de Waal de l’Université Emory et Joshua Plotnik de l’Université de Cambridge.

Cette découverte est d’importance : pour l’instant, ce sens de la coopération, présent chez l’homme, n’avait été identifié clairement que chez certains grands singes, les chimpanzés et les bonobos, mais jamais avec une telle élaboration chez des non primates. Ainsi les études menées récemment chez les corvidés et les hyènes n’ont pas donné le même niveau de résultat.

Pour étudier les capacités de coopération de l’éléphant, l’équipe a travaillé à Lampang en Thaïlande avec douze éléphants d’Asie dans un centre où les animaux sont protégés. Elle a repris et adapté à la taille de l’animal un protocole expérimental initialement développé pour le chimpanzé. La tâche consiste, pour une paire d'éléphants, à faire avancer une table en tirant chacun avec sa trompe l’une des extrémités d’une corde. Ils sont stimulés par la présence sur la table d'un bol de nourriture. Cette tâche nécessite une grande coordination entre les deux partenaires car si une extrémité de la corde est tirée sans l’autre, la table se bloque, et la récompense reste inaccessible.

Pour réaliser cette expérience, les expérimentateurs ont d’abord appris aux éléphants à tirer la table tout seul avec la corde. Puis, ils leur ont donné la possibilité de la tirer à deux en attachant la corde autour de la table. Résultat : les éléphants ont très vite appris à coopérer et lorsqu’un éléphant était introduit un peu avant l’autre, il attendait son partenaire : « Nous avons constaté que l’éléphant pouvait attendre jusqu’à 45 secondes avant de commencer à tirer. Il comprend qu’il a besoin de l’autre pour obtenir une récompense. » remarque Joshua Plotnik.

Dans une deuxième partie de l’expérience, les deux éléphants étaient présents mais un seul pouvait accéder à la corde, dont la seconde extrémité avait été attachée à la table. Résultat : dans ce cas, l’éléphant qui pouvait tirer la table refusait de le faire et même parfois il s’éloignait d’elle. Selon les auteurs, cela signifie que les éléphants savent que non seulement la présence mais aussi un certain comportement de leur partenaire est nécessaire pour coopérer.

Ces résultats indiquent en tout cas pour la première fois chez l’éléphant une capacité de coopération du même niveau que celle du chimpanzé. Et elle encourage à explorer un peu plus l’intelligence de ces pachydermes dont la taille ne rend pas facile la mise au point d’un protocole expérimental.

Article rédigé par  Marie-Laure Théodule pour La Recherche

Barrer la route au paludisme
Mercredi, 09/03/2011 - 21:59

Une nouvelle classe de médicaments utilisés dans le cadre de la chimiothérapie contre le cancer est également active contre le paludisme.

Chaque année, le paludisme affecte 250 millions de personnes dans le monde, et en tue entre 1 et 3 millions. Les efforts pour contrôler cette maladie ont été entravés par la propension du parasite à développer rapidement une résistance aux antipaludiques. Une fois dans le corps, il échappe au système immunitaire en se cachant dans les cellules du foie et du sang. Une classe de médicaments conçus à l’origine pour inhiber les voies de signalisation des cellules cancéreuses tuent également le parasite qui cause le paludisme.

Cette découverte faite par les chercheurs de l’Unité conjointe Inserm-EPFL et publiée dans la revueCellular Microbiology permettrait de mettre en place rapidement une nouvelle stratégie pour combattre cette maladie mortelle.

Pour communiquer entre elles et avec leur environnement, les cellules utilisent différentes voies de signalisation. Des molécules informatives agissent comme des messagers. Les signaux donnent à la cellule une représentation de son milieu et lui indiquent parfois d’ajuster son activité aux besoins de l'organisme. Ces voies de signalisation cellulaires jouent aussi un rôle clé dans le développement et la survie des tumeurs. La recherche publiée en ligne sur le site Cellular Microbiology montre que le parasite du paludisme détourne une voie de signalisation présente chez l’hôte pour proliférer, d’abord dans les cellules de foie, puis dans les globules rouges. Le parasite ne produit pas lui-même les enzymes actives dans les voies de signalisation, mais détourne pour ses propres besoins celles de la cellule humaine qu’il infecte.

Il se trouve que ces mêmes voies de signalisation sont visées par une nouvelle classe de molécules, mises au point pour la chimiothérapie anticancéreuse, appelées inhibiteurs de kinases. Les kinases contrôlent la croissance, la survie et la migration cellulaires et leur dérégulation est une cause bien établie de plusieurs types de cancers. Les chercheurs se sont aperçus que l’évolution du parasite était stoppée après traitement des globules rouges infectés avec des inhibiteurs ciblant des kinases humaines.

Christian Doerig, directeur de recherche à l’Inserm et ses collègues ont testé les globules rouges contaminés par des parasites Plasmodium falciparum (ceux qui causent la forme la plus virulente du paludisme chez l’être humain) et ont montré que la voie de signalisation PAK-MEK était plus fortement activée dans les cellules infectées que dans les cellules non infectées. Quand on désactive cette voie par traitement avec certains de ces inhibiteurs de kinases humaines, le parasite ne parvient plus à proliférer et meurt.

Des collaborateurs de l’équipe Inserm-EPFL, à Glasgow et à Berne, ont montré que ces molécules sont également actives contre une forme de paludisme qui affecte les rongeurs, aussi bien dans les cellules du foie (qui sont la première étape de l’infection) que dans les globules rouges. Ce qui indique que le paludisme utilise la stratégie de détournement des voies de signalisation de la cellule hôte de manière récurrente.

Un avantage du recours à des inhibiteurs de kinases humaines pour traiter le paludisme serait de priver le parasite de la possibilité de résister aux médicaments en modifiant les enzymes-cibles du médicament, puisque dans ce cas-là celles-ci sont produites par la cellule-hôte et non par le parasite lui-même. L’utilisation d’inhibiteurs de kinases humaines pour lutter contre le paludisme nécessiterait en outre une période de traitement plus courte que dans le cas du cancer, ce qui rendrait le problème de la toxicité moins aigu.

Plusieurs médicaments utilisés pour les chimiothérapies ciblent les inhibiteurs de kinases et sont déjà utilisés cliniquement. Beaucoup d’autres ont passé les étapes 1 et 2 des essais cliniques, qui visent à évaluer leur toxicité et leur efficacité. Les auteurs de l’étude suggèrent d’évaluer la possibilité d’utiliser ces médicaments pour leurs propriétés antipaludiques, ce qui permettrait de réduire considérablement le temps et les coûts nécessaires pour mettre en pratique cette nouvelle stratégie de lutte contre le paludisme.

INSERM

L'action inattendue du bisphénol A sur l'oreille interne de certains vertébrés
Mercredi, 09/03/2011 - 20:39

Le bisphénol A, dont l'impact sur la reproduction et le développement fait l'objet de nombreuses études, induit des anomalies sur l'oreille interne d'embryons de certains vertébrés. Ce nouvel effet complètement insoupçonné vient d'être mis en évidence sur le poisson zèbre et le xénope, une sorte de grenouille, par une équipe dirigée par Vincent Laudet de l'Institut de génomique fonctionnelle (CNRS/ENS de Lyon/Université Lyon 1), en collaboration avec des chercheurs de l'Inserm, du Muséum national d'Histoire naturelle et de l'INRA. Publiés dans la revue BMC Developmental Biology, ces résultats illustrent, pour la première fois, la sensibilité de l'oreille interne au bisphénol A chez les vertébrés. Cette étude démontre qu'il conviendrait désormais d'étudier de manière plus approfondie les effets de ce composé chimique sur le développement embryonnaire des animaux, mammifères compris.

Le bisphénol A (BPA) est un composé chimique de synthèse largement utilisé dans la fabrication industrielle des récipients en plastique de type polycarbonates, tels les CD, les lunettes, certaines bouteilles plastiques ou certains biberons. On le retrouve également dans les résines époxy constituant les revêtements intérieurs des boîtes de conserve, les canettes de boissons ou les amalgames dentaires. Or, cette molécule peut modifier les équilibres hormonaux des vertébrés, en interagissant directement avec les récepteurs hormonaux ou bien avec les enzymes qui assurent le métabolisme de ces hormones : c'est un perturbateur endocrinien. En effet, le BPA est capable de se lier aux récepteurs des œstrogènes, les hormones sexuelles féminines, et de mimer leur action dans l'organisme. C'est pourquoi il est aujourd'hui classé reprotoxique de catégorie 3, c'est-à-dire jugé "préoccupant pour la fertilité de l'espèce humaine" en raison "d'effets toxiques possibles" mais non démontrés sur la reproduction. Les évaluations de risque ont conduit à définir une dose journalière tolérable (DJT) de 50 µg de BPA par kg de poids corporel et par jour, soit 2,5 mg par jour pour un individu de 50 kg. Jusqu'à présent, la plupart des études menées pour caractériser et évaluer ses effets dans le corps humain ont concerné la fonction de reproduction et le développement du cerveau.

Les chercheurs se sont intéressés à l'effet de ce composé sur le développement embryonnaire. Pour cela, ils ont exposé des œufs de poissons zèbre (Danio rerio) à des concentrations de plus en plus importantes de BPA (de 1 mg/L à 20 mg/L). Et le résultat n'a pas manqué de les surprendre : la plupart des embryons de poissons zèbre ont, après exposition au BPA, présenté des anomalies au niveau des otolithes, de petites structures de l'oreille interne qui servent à contrôler l'équilibre et jouent aussi un rôle dans l'audition. Pour 60 % des embryons, des agrégats d'otolithes se sont formés. D'autres anomalies de l'oreille interne, moins fréquentes, ont également été relevées. Au-delà d'une concentration de 15mg/L, tous les poissons zèbre ont développé des anomalies. Mais cette dose correspond à une exposition très aigüe, bien plus élevée que la gamme d'exposition possible de l'être humain. Allant plus loin, les scientifiques ont renouvelé leur expérience sur un autre vertébré de la famille des amphibiens, le xénope. Là aussi, ils ont constaté le développement d'anomalies sur l'oreille interne, suggérant que cet effet pourrait exister chez d'autres vertébrés. Les scientifiques ont ainsi mis en évidence un effet inattendu du BPA, jamais observé jusqu'à présent. Bien entendu, rien ne peut être déduit pour l'homme, tant que des mécanismes d'action n'auront pas été totalement élucidés et que des recherches approfondies n'auront pas été menées chez les mammifères et sur l'être humain en particulier.

De plus, les chercheurs ont constaté qu'en bloquant les récepteurs des oestrogènes, la cible classique du bisphénol A, ces anomalies persistaient, supposant que le BPA se fixerait sur un autre récepteur. Ce nouvel effet serait donc totalement indépendant des récepteurs des oestrogènes.

Ces travaux démontrent clairement qu'outre ses effets reprotoxiques, le bisphénol A, à des doses assez élevées, agit aussi sur le développement embryonnaire. Ils révèlent également que les cibles d'action de ce composé sont plus nombreuses que ce que l'on pensait jusqu'à présent. Enfin, ils ouvrent de nouvelles perspectives de recherche afin de caractériser le fonctionnement du bisphénol A et d'évaluer correctement ses effets.

CNRS

De puissants mutateurs de l’ADN humain identifiés
Mercredi, 09/03/2011 - 08:46

Des chercheurs de l’Institut Pasteur, du CNRS et de l’Inserm ont démontré qu’une protéine cellulaire connue pour son activité antivirale, APOBEC3A, peut également avoir une activité mutagène sur l’ADN de cellules humaines. Cette découverte laisse penser que cette protéine joue un rôle dans la dégradation de l’ADN cellulaire qui survient en cas d’apoptose, la mort programmée de la cellule, et dans la genèse des cancers. Ces travaux sont publiés sur le site de PNAS.

Des chercheurs de l’unité de Rétrovirologie moléculaire de l’Institut Pasteur et du CNRS, et leurs collaborateurs de l’Inserm ont mis en évidence un nouveau rôle pour l’APOBEC3A, une protéine chargée de bloquer la réplication virale en cas d’infection. Les équipes ont montré que cette protéine peut induire des mutations de l’ADN de sa propre cellule.

Les protéines cellulaires APOBEC3 sont connues pour leur activité antivirale. Ces protéines bloquent la réplication des virus en provoquant de nombreuses mutations, « mitraillant » ainsi le génome viral. Elles exercent cette action principalement sur les virus du SIDA, de l’hépatite B et les papillomavirus. De plus, des analyses plus approfondies avaient déjà montré que les mutations observées le plus fréquemment dans les cellules cancéreuses portent la même signature que celles effectuées par l’APOBEC3A sur l’ADN nucléaire. Ceci indique l’implication éventuelle de cette protéine dans les mécanismes liés à la genèse des cancers.

Ces travaux pourraient ouvrir de nouvelles perspectives thérapeutiques pour la mise au point de molécules capables de bloquer ce puissant mutateur de l’ADN humain.

Institut Pasteur

Quand l'obèsité rend dépressif
Mercredi, 09/03/2011 - 08:20

L'obésité favoriserait la dépression en réduisant la plasticité cérébrale et la motivation.

L'obésité est une question de santé publique à l'échelle mondiale et cette « épidémie » se développe en même temps que celle de la dépression. Elle suit l'évolution des mœurs alimentaires et l'augmentation de la consommation de nourriture bon marché à base de sucre et de graisse, qui n'apportent pas certains nutriments essentiels. Mathieu Lafourcade et ses collègues de Bordeaux, Dijon et Marseille, viennent de montrer que le manque d'oméga-3 dans l'alimentation perturbe certains circuits cérébraux de régulation de l'humeur, pouvant conduire à des dépressions.

Le cerveau est constitué en grande partie de lipides (des graisses), lesquels produisent des molécules essentielles à son bon fonctionnement, et à l'équilibre des émotions et de l'humeur. Parmi ces molécules, les « endocannabinoïdes », des substances analogues au cannabis produites naturellement par l'organisme à partir de deux types de graisse : les acides gras polyinsaturés de type oméga-3 et oméga-6.

Constatant que le régime des populations occidentales n'a fait que s'enrichir en oméga-6 et s'appauvrir en oméga-3 depuis quelque 150 ans (le rapport des deux passant de 1 à 15), M. Lafourcade et ses collègues ont examiné les effets d'un régime appauvri en oméga-3 sur des souris. Ils ont observé que cette carence entraîne un déséquilibre dans la production de différents types d'endocannabinoïdes dans le cerveau, entraînant une diminution de la plasticité cérébrale au niveau des connexions entre neurones, les synapses. Qui plus est, cette perte de plasticité intervient dans une zone du cerveau, la partie prélimbique du cortex préfrontal, connectée à un centre essentiel de la motivation des comportements, le noyau accumbens. Les dysfonctionnements du noyau accumbens sont associés aux troubles de l'humeur et notamment à la dépression.

On constate effectivement que les souris ne consommant pas assez d'oméga-3 deviennent dépressives (elles abandonnent toute volonté de survivre dans l'adversité) et anxieuses (elles n'osent plus s'aventurer en terrain découvert, et longent les parois de leur cage). Peur et dépression sont les deux volets comportementaux d'un régime carencé en oméga-3. Cette carence serait-elle en partie responsable du fait que les sociétés occidentales sont devenues angoissées et déprimées ? Divers facteurs sociétaux entrent en jeu, mais l'alimentation fast-food porte sa part de responsabilité : une insuffisance d'apport d'oméga-3 favorise la dépression et l'anxiété, que l'on tente de combattre en consommant des aliments gras et sucrés... Pour échapper à ce cercle vicieux, consommons du poisson, des coquillages, ou encore de l'huile de colza, aliments riches en oméga-3.

Article rédigé par Sebastien Bohler Pour la Science

La pollution urbaine réduit l’espérance de vie européenne
Dimanche, 06/03/2011 - 12:21

Aphekom, un nom barbare pour un projet sans précédent. L’étude européenne de la pollution urbaine s’est déroulée de juillet 2008 à mars 2011. Le projet mené dans 12 pays européens et par plus de 60 scientifiques a été coordonnée par l’InVS (Institut national de veille sanitaire). Après plus de trois années de travaux réalisés dans 25 grandes villes européennes, soit 39 millions d’habitants, le rapport a été rendu officiel début Mars 2011. Et déjà il fait grand bruit. Non seulement la pollution urbaine aurait un impact sur la santé mais en plus, le fait d’habiter à proximité du trafic routier réduirait sensiblement, selon cette étude, l’espérance de vie. Près de 19.000 décès chaque année seraient imputables aux concentrations en particules fines (PM 2,5) dépassant les valeurs guide de l’OMS (10µg/m3).

Selon l’étude, la pollution urbaine serait un facteur majorant dans le développement de pathologies chroniques. Dans 10 villes européennes - Barcelone, Valence, Bruxelles, Vienne, Bilbao, Ljubljana, Rome, Séville, Stockholm, Grenade - l’étude souligne que le fait d’habiter à proximité du trafic routier pourrait être responsable d’environ 15 % des cas d'asthme de l’enfant. Des proportions similaires ou plus élevées de pathologies chroniques respiratoires et cardiovasculaires sont fréquentes chez les plus de 65 ans habitant à proximité de la circulation urbaine.

En réussissant à réduire les niveaux de soufre des carburants et donc les concentrations de dioxyde de soufre émis dans l’atmosphère, la législation européenne a permis de prévenir près de 2200 décès prématurés. Les auteurs du rapport appellent donc de tous leurs vœux à «  la promulgation et la mise en œuvre de réglementations efficaces dans le domaine de la pollution atmosphérique qui se concrétisent par des bénéfices sanitaires et monétaires importants».

L’étude réalisée dans 25 grande villes européennes montre qu’il suffirait que les niveaux moyens annuels de particules fines soient ramenés au seuil de 10µg/m3 pour augmenter l’espérance de vie de 22 mois chez les personnes âgées de 30 ans et plus. Aphekom a aussi estimé que le fait de respecter ces valeurs guides se traduirait par un bénéfice d’environ 31,5 milliards d’euros au niveau européen, correspondant à la diminution des dépenses de santé, de l’absentéisme, et des coûts associés à la perte de bien-être, de qualité et d’espérance de vie.

Journal de l'environnement

Une technologie innovante pour combattre le cancer
Dimanche, 06/03/2011 - 12:08

Des chercheurs financés par l'UE poursuivent leur combat contre le cancer. Une équipe néerlandaise a réussi à stimuler le dosage de la chimiothérapie sur les tumeurs avec la possibilité d'apaiser les effets secondaires nuisibles grâce à l'association de l'imagerie par résonance magnétique (IRM) et les ultrasons. Leur recherche est en partie financée par le projet SONODRUGS («Image-controlled ultrasound-induced drug delivery»), qui est soutenu par presque 10,8 millions d'euros au titre du thème Nanosciences, Nanotechnologies, Matériaux et Technologies de la production (NMP) du septième programme-cadre (7e PC).

L'Université de technologie d'Eindhoven a collaboré avec Philips Electronics pour créer une technologie sophistiquée pouvant aider les patients dans le besoin. L'équipe a effectué une démonstration de cette technique pour la toute première fois dans le cadre d'une étude préclinique de validation de principe. Près de la moitié des patients atteints d'un cancer sont soumis à une chimiothérapie pour traiter leur maladie. Les médicaments de chimiothérapie traversent la circulation sanguine, en détruisant rapidement les cellules en mitose telles que les cellules cancéreuses. Mais dans leur quête de la lutte de la maladie, les médicaments de chimiothérapie ne connaissent pas de limites et finissent par attaquer les cellules en mitose saines et normales dans diverses parties du corps dont la moelle osseuse, les poils et cheveux et les muqueuses. Les patients sont donc confrontés à de nombreux effets secondaires, tels que la neutropénie, un taux de leucocytes plus faible, de l'anémie, un taux d'érythrocytes plus faible, ainsi que des hémorragies.

Certains chercheurs affirment que la chimiothérapie est complexe car les médicaments sont dispersés dans le corps entier et ne sont pas absorbés de façon proportionnelle ; certaines régions n'absorbent pas le dosage nécessaire. Sous la direction de Holger Grüll, l'équipe a créé une méthode de livraison pour pallier le problème. Un balayage IRM est d'abord effectué sur des patients atteints de cancer ; cela permet aux médecins de localiser et d'évaluer la taille de la tumeur. Les liposomes, de petites particules sensibles à la température contenant un agent de contraste IRM et un médicament de chimiothérapie, sont injectés dans les patients et traversent le sang jusqu'à ce qu'ils atteignent leur cible, autrement dit la tumeur. Le produit de contraste circule avec le médicament en lui permettant de suivre la voie du médicament à l'intérieur du corps et de le localiser lorsqu'il atteint la tumeur et les tissus environnants. À ce moment, un faisceau à ultrasons focalisés de haute énergie est utilisé pour anéantir les liposomes et libérer le médicament à l'endroit de la tumeur.

Dans le cadre de leur étude, les chercheurs ont évalué l'absorption du produit anticancéreux appelé doxorubicine chez les rats. Ils ont ainsi découvert que l'absorption était deux et cinq fois plus élevée dans les tumeurs induites par rapport à la livraison de chimiothérapie classique.

Cordis

CO2 : quels effefs sur le vivant ?
Dimanche, 06/03/2011 - 11:05

La pollution de l'air, la fumée de cigarette, les produits chimiques, les additifs alimentaires, le stress physique ou l'usage normal d'oxygène par notre organisme contribuent à la production de composés (Formes Réactives de l'Oxygène (FRO) qui sont impliqués dans les dommages oxydatifs cellulaires à des degrés divers : mutations génétiques, cancérisation, oxydation des protéines...

L'équipe « viabilité bactérienne et stress oxydatif » animée par Sam Dukan au sein du Laboratoire de chimie bactérienne (laboratoire CNRS faisant partie de l'Institut de Microbiologie de la Méditerranée -CNRS/Université de la Méditerranée-) travaille sur l'implication des différentes FRO dans le processus de mort cellulaire. Leurs derniers travaux sur la bactérie modèle Escherichia coli mettent en évidence l'importance d'un nouvel acteur impliqué in vivo dans la formation des dommages oxydatifs : le dioxyde de carbone (CO2). Les chercheurs ont demandé à la société Jacomex de développer un prototype de « boite à gants » permettant de contrôler la concentration en CO2 atmosphérique tout en maintenant la concentration en oxygène fixe (20 % comme dans l'atmosphère). A l'aide de cet outil qui permet de reproduire les atmosphères d'hier, d'aujourd'hui et de demain (en oxygène, azote et dioxyde de carbone), les effets sur E. coli d'un stress oxydant (peroxyde d'hydrogène, H2O2) ont été évaluées à différentes concentration en CO2 atmosphérique (40 à 1000 ppm, la concentration atmosphérique actuelle est de 389 ppm). Les résultats montrent que l'augmentation en CO2 s'accompagne de l'augmentation de différents paramètres : mort cellulaire, fréquence des mutations de l'ADN et nombre de lésions au niveau de l'ADN.

Les auteurs de cette étude proposent comme explication à ce phénomène, l'existence de réactions in vivo entre le CO2 et les différentes FRO qui aboutiraient à la formation de différents radicaux libres, notamment le radical carbonate (CO3•-). En effet, cette réaction avait déjà été montrée in vitro. De façon très intéressante, ce radical possède une plus grande spécificité de cible. Par exemple, sur l'ADN il semblerait réagir principalement avec la guanine, cible que les chercheurs ont trouvée affectée par la concentration en CO2. D'autre part, l'équipe a montré que les caractéristiques physiologiques d'E. coli (pH intracellulaire, voies métaboliques, défenses face aux FRO, vitesse de dégradation des protéines…) n'était pas modifiées par la concentration en CO2, excluant ainsi toutes les autres interprétations des dommages observés.

Etant donné la gamme en CO2 étudiée, cette étude laisse supposer que l'augmentation prédite en CO2 atmosphérique (1000 ppm pour 2100) pourrait avoir des effets directs sur des organismes vivants, comme les bactéries (augmentation de certaines lésions sur l'ADN, fréquence des mutations…).

L'équipe du Laboratoire de chimie bactérienne va poursuivre ses travaux sur E. coli pour caractériser les différentes mutations qui lèsent l'ADN. Ils souhaitent également étudier le rôle possible de l'anhydrase carbonique dans la défense face au stress oxydant.  Ils souhaitent également réaliser, en collaboration avec d'autres équipes de recherche, des études chez des organismes plus évolués comme les souris. Leur objectif : étudier le lien entre la concentration en CO2 atmosphérique et la survenue de pathologies pour lesquelles on a déjà identifié un rapport entre leur apparition et le stress oxydant (maladies neurodégénératives, cancers…).

CNRS

Vers un nouveau traitement de l’ostéoporose
Dimanche, 06/03/2011 - 10:53

L’ostéoporose est associée à une morbidité considérable. Les agents disponibles utilisés pour le traitement de la maladie sont des inhibiteurs de la résorption osseuse. Ces dernières années, l'étude de maladies osseuses rares a conduit à l'identification de voies de signalisation qui régulent la formation osseuse, ouvrant la voie à la mise au point de nouveaux agents thérapeutiques pour stimuler la formation osseuse chez les patients ostéoporotiques.

La sclerostéose et la maladie de van Buchem sont deux affections osseuses sclérosantes rares dont les manifestations sont secondaires à une production exagérée de tissu osseux par l’ostéoblaste. Les malades ont un élargissement caractéristique de la mâchoire et des os de la face qui entraînent des distorsions du visage, une augmentation de la pression intracrânienne potentiellement létale et des compressions vasculaires et nerveuses, souvent associées à une paralysie faciale, une perte d'audition et de l’odorat. L'analyse génétique a révélé que les deux maladies correspondent à des anomalies différentes mais localisées sur le même gène appelé SOST, situé sur le chromosome 17q12-21 et codant pour la protéine sclérostine.

Six mutations du gène SOST, trois non-sens, deux altérant l'épissage du gène et un faux-sens, ont été identifiées à ce jour chez les patients atteints de sclérostéose. Aucune des mutations du gène SOST n’est présente dans la maladie de van Buchem mais une délétion en 52 kb en aval du gène SOST a été mise en évidence. Cette région abrite un élément qui entraîne l'expression du gène SOST, expliquant les ressemblances entre les deux affections.

La sclérostine, est une protéine produite exclusivement dans le squelette par les ostéocytes et est un régulateur négatif de l’ostéoformation. Elle se lie à LRP5 / 6 et inhibe la signalisation Wnt. Son expression est modifiée par les charges mécaniques sur le squelette et les traitements par l'hormone parathyroïdienne. Une carence en sclérostine chez la souris reproduit les maladies humaines et un excès en sclérostine conduit à une perte osseuse et une résistance osseuse réduite. Il a été montré qu’un anticorps anti-sclérostine augmente de façon spectaculaire la formation osseuse chez des rats ovariectomisés et des singes sains, sans affecter la résorption osseuse et qu’il augmente la résistance osseuse. Dans des études initiales chez l'homme, une seule injection de l'anticorps anti-sclérostine à des femmes ménopausées a augmenté le P1NP (propeptide N-terminal du procollagène de type 1) sérique et a transitoirement diminué le CTX (crosslaps, produit de dégradation de l’extrémité C terminale du télopeptide du collagène de type 1) sérique. Des études cliniques de phase II avec cet anticorps sont actuellement en cours.

jim

La vitamine D : bonne pour le foie
Dimanche, 06/03/2011 - 10:38

Y a-t-il un déficit en vitamine D au cours des maladies chroniques du foie, et si oui, quel est l’intérêt d’une supplémentation ? Pour répondre à ces questions, une équipe australienne a examiné les taux de vitamine D sérique mesurés chez 158 patients (52 % d’hommes) atteints d’hépatopathie chronique dont 41 % de cirrhoses. Si 36 % ont un taux de vitamine D normal (> 54 nmol/l), 49 % ont un déficit modéré (entre 25 et 54 nmol/l) et 15 % un déficit sévère (moins de 25 nmol/l).

Les patients avec cirrhose sont ceux qui ont le plus souvent un taux insuffisant de vitamine D, 75 % d’entre eux présentant un déficit modéré ou sévère, et ceci quelles que soient l’étiologie et la sévérité de la cirrhose. De manière surprenante, parmi les sujets ayant une cholestase, un déficit n’était observé que dans 40 % des cas. Deux marqueurs de sévérité de la maladie hépatique, la sérum albumine et la bilirubine étaient corrélés au taux de 25OH D3.

Au cours du suivi de 4 mois, le taux sérique de 25OH D3 a augmenté de 60 % en moyenne chez les patients qui ont reçu une supplémentation du fait d’un déficit initial en vitamine D. Pour les malades à vitamine D normale en début d’étude et non supplémentés, le taux sérique de 25OH D3 a baissé de 25 %. Le déficit en vitamine D est donc fréquent et sévère au cours des maladies du foie.

La supplémentation est remarquablement efficace, tandis que les taux de vitaminémie D baissent inexorablement en l’absence d’apport oral, démontrant l’intérêt d’une supplémentation orale systématique chez tous les patients porteurs d’une hépatopathie. Ceci est d’autant plus intéressant que des taux faibles de vitamine D seraient corrélés in vitro au risque fibrosant et à la sévérité de la stéatose des hépatopathies métaboliques, et au résultat du traitement dans les hépatites virales, auto-immunes, les cirrhoses biliaires primitives et le carcinome hépatocellulaire.

jim

Des facteurs épigénétiques pour prédire l'évolution tumorale chez les patients
Vendredi, 04/03/2011 - 01:00

Si les cancers résultent d'une succession d'altérations génétiques, la génétique n'explique pas à elle seule la très grande diversité des cancers. Depuis quelques années, on sait que des modifications épigénétiques sont impliquées dans les mécanismes de cancérogenèse : il peut s'agir de modifications chimiques sur l'ADN et sur les protéines qui lui sont associées, les histones, ou de perturbations de l'organisation de l'ADN au cœur de la cellule. Les facteurs épigénétiques « commandent » l'activation ou la désactivation de gènes dans la cellule. C'est grâce à eux si, à partir d'un même capital génétique, les cellules acquièrent des spécificités et forment par exemple un neurone ou un globule blanc. Comme les facteurs génétiques, leurs dérégulations participent à la transformation des cellules saines en cellules tumorales, en modifiant l'expression de certains gènes.

L'équipe de Geneviève Almouzni, directrice de recherche CNRS à l'Institut Curie, travaille sur la fonction de la protéine Asf1. Elle s'est interrogée sur la valeur pronostique que cette protéine pourrait avoir dans les tumeurs. Elle existe sous deux formes dans les cellules humaines, Asf1a et Asf1b, qui jouent toutes les deux un rôle dans l'organisation de l'ADN. « Ce qui nous a mis la puce à l'oreille, explique Geneviève Almouzni, c'est que, contrairement à Asf1a, l'expression d'Asf1b est directement dépendante de la prolifération des cellules, un processus hautement dérégulé dans les tumeurs. » Les chercheurs ont donc étudié les niveaux d'expression d'Asf1b dans des tissus tumoraux prélevés chez 86 patientes atteintes de cancer du sein, il y a plus de 10 ans et pour lesquelles l'évolution tumorale est parfaitement connue. « Nous avons montré que plus les tumeurs présentent un fort taux d'expression de la protéine Asf1b, plus elles sont agressives et plus le risque d'apparition de métastases est grand » explique Armelle Corpet, doctorante dans l'équipe. « D'ailleurs, cette protéine est fortement exprimée dans les cancers du sein de type Basal-like, un sous-groupe de cancers très agressifs » précise-t-elle. Ces résultats ont été confirmés par l'analyse d'une série supplémentaire de 71 tumeurs du sein. Cette protéine, qui gère la compaction du matériel génétique dans les cellules et donc l'expression des gènes, apparaît comme un marqueur pronostique du risque évolutif dans les cancers du sein, et probablement dans d'autres types de cancers. « Cette étude confirme par ailleurs l'importance des facteurs épigénétiques dans les mécanismes de la cancérogenèse » ajoute Geneviève Almouzni.

L'équipe de François Radvanyi, directeur de recherche CNRS à l'Institut Curie, étudie quant à elle les mécanismes épigénétiques dérégulés dans les cancers de la vessie. Mais à une autre échelle, puisqu'elle s'intéresse à des perturbations à l'échelle de grandes régions chromosomiques. « Jusqu'à très récemment, on pensait que les perturbations épigénétiques ne pouvaient affecter que des régions ponctuelles du génome, voire un seul gène » explique François Radvanyi. Les dernières découvertes, réalisées en collaboration avec l'hôpital Henri Mondor, l'hôpital Foch et l'Université d'York en Angleterre, montrent que dans les cellules tumorales plusieurs gènes voisins, voire toute une région d'un chromosome, peuvent être perturbés — réduits au silence ou surexprimés — par une altération épigénétique.

En analysant une première série de 57 tumeurs de la vessie, l'équipe de François Radvanyi a pu identifier 7 régions où l'expression des gènes est anormalement éteinte par un mécanisme épigénétique. « Les tumeurs dont le génome contient ces 7 régions éteintes simultanément, se caractérisent par un pouvoir agressif et invasif significativement plus élevés que les autres » précise François Radvanyi. « Ces tumeurs possèdent d'ailleurs très rarement une mutation de l'oncogène FGRF3 connue pour être en général une signature de bon pronostic des tumeurs de la vessie. » ajoute-t-il. Ces résultats ont été confirmés par l'analyse d'une série supplémentaire de 40 tumeurs de la vessie. L'inactivation simultanée des 7 régions identifiées forme donc une empreinte épigénétique propre aux tumeurs agressives de la vessie. « L'extinction de ces grandes régions chromosomiques entraîne l'inactivation de plusieurs gènes suppresseurs de tumeurs avec comme conséquence une accélération du développement tumoral » conclut-il.

Qu'il s'agisse d'une quantité élevée de protéine Asf1b dans les cellules de cancers du sein ou de l'extinction de 7 régions chromosomiques précises dans les tumeurs de la vessie, ces facteurs épigénétiques permettent d'identifier les tumeurs les plus agressives. On assiste ainsi à l'émergence de biomarqueurs épigénétiques pouvant prédire l'évolution des tumeurs. Une des caractéristiques des facteurs épigénétiques étant la réversibilité, il est envisageable de modifier, par exemple la méthylation des histones, responsable de l'extinction des régions impliquées dans l'agressivité des tumeurs de la vessie, et donc de contrecarrer leur fort pouvoir invasif. Les facteurs épigénétiques ouvrent de nouvelles perspectives en cancérologie : à l'avenir ils aideront les cliniciens dans la prise en charge quotidienne des patients, soit en apportant des informations sur l'évolution des tumeurs, soit en servant de cible thérapeutique.

CNRS

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Le Sud de l'Afrique, berceau de l'humanité ?
Jeudi, 10/03/2011 - 16:37

Une étude de l'ADN des populations de chasseurs-cueilleurs en Afrique suggère que le Sud du continent est le berceau de l'homme moderne, et non pas l'Est africain, comme le veut la théorie généralement acceptée par la communauté scientifique.

La généticienne Brenna Henn et ses collègues de l'Université de Stanford, aux États-Unis, ont analysé des séquences précises d'ADN extrait d'échantillons de salive de divers peuples de chasseurs-cueilleurs africains. Les chercheurs ont comparé les séquences de groupes tels que les Hadzas et les Sandawes de Tanzanie et les Bochimans d'Afrique du Sud, à celles d'individus d'autres ethnies, comme les Massaïs du Kenya et de Tanzanie et les Yorubas d'Afrique de l'Ouest.

Les analyses ont montré que les groupes d'Afrique australe possèdent la plus grande diversité génétique, et que cette diversité s'estompe à mesure que l'on se déplace vers le nord du continent. Les résultats sont publiés dans la revue Proceedings of the National Academy of Sciences. Or, cette variation de la diversité refléterait l'effet fondateur, une diminution de la diversité génétique qui se produit lorsque des individus issus d'un même groupe migrent et fondent une nouvelle population.

Comme les groupes de chasseurs-cueilleurs du Sud de l'Afrique ont la plus grande diversité génétique, il est raisonnable de penser que ces populations constituent le berceau de l'homme moderne, affirme Mme Henn, en entrevue à la BBC. Toutefois, Chris Stringer, paléontologue au Musée d'histoire naturelle de Londres, au Royaume-Uni, qui n'a pas participé à cette recherche, affirme qu'il est risqué de donner une origine précise à l'homme moderne à partir de cette étude génétique. Selon lui, les populations de chasseurs-cueilleurs occupaient à l'origine des territoires beaucoup plus vastes que ceux qu'elles occupent aujourd'hui. Il est donc difficile d'associer le territoire actuel d'un groupe à son territoire ancestral, affirme-t-il en entrevue à la BBC. Il ajoute que le patrimoine génétique des humains modernes provient probablement de plusieurs anciennes populations africaines distinctes.

Yahoo Canada

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Au sein de l'UE, la Suède montre l'exemple en terme d'innovation
Jeudi, 10/03/2011 - 14:52

Suite à l'adoption de la communication "Une Union de l'innovation" en octobre 2010, le tableau de bord européen de l'innovation (TBEI) - un outil bien établi et reconnu pour évaluer les performances en matière d'innovation des Etats membres de l'UE - a été remanié et rebaptisé "tableau de bord de l'Union de l'innovation" (TBUI). Commandité par la direction générale des entreprises et de l'industrie de la Commission européenne, le tableau de bord de l'Union de l'innovation est élaboré par l'Institut de recherche économique sur l'innovation et la technologie de Maastricht (UNU-MERIT).

Alors que l'UE maintient encore une nette avance sur les économies émergentes de l'Inde et de la Russie, le Brésil fait des progrès constants et la Chine rattrape rapidement son retard. L'UE ne parvient pas à combler l'écart en matière d'innovation avec ses principaux concurrents internationaux, à savoir les Etats-Unis et le Japon. Bien que la tendance soit prometteuse dans la plupart des Etats membres malgré la crise économique, les progrès ne sont pas assez rapides.

Au sein de l'UE, la Suède a les meilleurs résultats, suivie par le Danemark, la Finlande et l'Allemagne. Le Royaume-Uni, la Belgique, l'Autriche, l'Irlande, le Luxembourg, la France, Chypre, la Slovénie et l'Estonie, dans cet ordre, constituent le groupe suivant. Ce sont là quelques-unes des principales conclusions du tableau de bord de l'Union de l'innovation (TBUI) 2010 publié le 1er février 2011 par la Commission européenne.

Bulletins Electroniques

- Le texte intégral du rapport est disponible (en anglais) à l'adresse suivante : http://redirectix.bulletins-electroniques.com/pUWZv

Recharger intelligemment sa voiture électrique
Dimanche, 06/03/2011 - 11:39

Profiter d’une énergie verte et de meilleurs tarifs pour recharger son véhicule électrique, voilà ce que propose la Compagnie Nationale du Rhône (CNR) à travers son boîtier intelligent, le Move In Pure. Développé par la CNR, Move In Pure est un nouveau concept de recharge intelligente pour les véhicules électriques, consistant à mettre en adéquation l’offre et la demande. Avec ce dispositif, la CNR fournit aux utilisateurs une énergie 100 % renouvelable issue de la production hydraulique, éolienne ou photovoltaïque, et surtout en dehors des heures de pointe.

Pour synchroniser les besoins avec ces périodes creuses, un boîtier, embarqué à bord de la voiture, utilise un transmetteur GPRS, un compteur mesurant la consommation et un interrupteur de charge. Adaptable à tous véhicules électriques, le Move In Pure est commandé à distance par un Smartphone ou par un ordinateur. Ainsi, le conducteur peut communiquer ses besoins (nombre de kilomètres, temps maximal de recharge…) à la CNR qui déclenchera, en fonction de la production énergétique, le début de la charge.

En faisant coïncider les moments de charge avec les surplus d’énergie, la filiale de GDF Suez optimise une part aléatoire de sa production, tout en faisant bénéficier le consommateur d’un tarif préférentiel. Après souscription d’un contrat auprès du deuxième producteur français d’énergie, l’utilisateur pourra se brancher directement à partir de n’importe quelle simple prise de courant. Il sera ensuite toujours facturé par la CNR, même si l’électricité a transité par un réseau différent de celui auquel il s’est abonné.

Industries&Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top