RTFlash

RTFLASH Recherche & Technologie
NUMERO 576
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 02 Décembre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'avenir de l'imagerie en relief est-il dans l'holographie ?
Avenir
L'armée israélienne invente un robot-serpent qui se reproduit !
Matière
L'Italie inaugure la plus grande centrale solaire d'Europe
Transistor optique : des scientifiques contrôlent le flux de lumière
Une nouvelle source de lumière voit le jour
Stockage d'énergie : des centrales de pompage-turbinage souterraines
Terre
Les émissions mondiales de CO2 de nouveau en augmentation en 2010
Captage du CO2 : installation d'une usine pilote à Darmstadt
Un hiver froid pourrait suivre le réchauffement climatique
Vivant
Le ribosome eucaryote dévoile enfin sa structure
Afrique : un nouveau vaccin pour enrayer la méningite
De nouveaux espoirs contre l'hépatite C
Premières greffes de trachée reconstruite à partir des tissus du patient
L'Europe interdit les biberons contenant du bisphénol A
Contrôler son cerveau ?
Edito
L'école numérique va changer le rapport au savoir



S'inspirant des recommandations du rapport remis par Jean-Michel Fourgous, Député-Maire d'Élancourt, sur la modernisation de l'école par le numérique en février 2010, le ministre de l'Education nationale, Luc Chatel, a présenté le 25 novembre un plan ambitieux de 60 millions d'euros sur trois ans visant à développer les usages du numérique dans l'éducation.

Ce plan vient compléter celui mis en oeuvre, avec un budget de 50 millions d'euros, depuis 2009 et concernant l'équipement numérique des écoles rurales dans 6 700 communes de moins de 2000 habitants.

Quatre objectifs majeurs ont été annoncés par Luc Chatel dans le cadre de ce plan : premièrement, le lancement, dès la rentrée prochaine, d'un portail ministériel qui réunira toutes les ressources pédagogiques pour les enseignants, qu'il s'agisse des ressources libres de droit et gratuitement accessibles produites par l'Education nationale ou des ressources issues d'éditeurs. Pour ces dernières, le ministère envisage de lancer un système de chèque ressource pour faciliter l'acquisition de ces contenus privés.

Pour optimiser ce plan, qui s'étale sur trois ans, le Ministère financera d'abord les académies qui répondront le mieux à son appel à projet, prévu pour début 2011.

Deuxième objectif : un coup de pouce aux acteurs et industriels du secteur. Dans le cadre du grand emprunt, un appel à projet dans la recherche et développement sera donc lancé début 2011 afin d'accélérer les capacités d'innovation des acteurs industriels de l'e-éducation et d'améliorer la chaîne de production des contenus numériques et de développer de nouveaux usages.

Troisième objectif : la mise en place d'un « plan national de formation disciplinaire au numérique ». Par ailleurs, collèges et lycées seront désormais pourvus d'un responsable du numérique. Il conseillera le chef d'établissement, identifiera les besoins et répondra aux besoins de formation.

Il est prévu de former et d'accompagner les enseignants afin qu'ils aient davantage le réflexe du numérique pour enrichir leurs cours. Un responsable pédagogique sera nommé dans chaque établissement du second degré sur la base du volontariat. Sa mission : informer et former les enseignants sur les nouvelles technologies et les bénéfices qu'ils peuvent en tirer dans leur discipline.

Enfin, le plan veut mettre en place une meilleure coordination entre les collectivités locales (en charge de l'équipement, des bâtiments et du matériel) et l'état (responsable des programmes et de la gestion des personnels). Dans ce but, une convention cadre sera signée le 9 décembre avec l'association des départements de France qui permettra de prendre des engagements respectifs. Elle garantira surtout une meilleure planification des actions.

Ce plan devrait donc enfin permettre une généralisation des services numériques scolaires et éducatifs. Par exemple, le cahier de textes papier va définitivement être remplacé par une version numérique dès la rentrée 2011. Elle permettra aux élèves de télécharger des liens ou des pièces jointes de documents complémentaires à leurs cours de la journée. Les élèves seront aussi formés à l'usage des nouvelles technologies.

Parallèlement à ces plans nationaux, une multitude d'initiatives locales visent à accélérer la mutation numérique de l'école.

Une vingtaine d'études montrent que les TIC soutiennent la motivation et luttent contre l'échec scolaire. Les TIC modifient également en profondeur les pratiques pédagogiques en permettant une véritable individualisation des formations.

Une étude récente réalisée par Jean Heutte mérite d'être soulignée. Elle montre que les élèves habitués à l'usage du numérique en classe comprennent plus vite et mieux ce qu'ils lisent.

La vitesse de lecture des documents au format hypertexte acquise par les élèves habitués à l'usage du numérique est 30 % plus rapide que la lecture « papier ». Fait remarquable, cette vitesse de lecture ne semble pas préjudiciable aux performances des élèves, ce qui montre qu'il s'agit bien d'un nouveau mode de lecture et d'appréhension conceptuelle des contenus.

Cette étude confirme que les connaissances et les résultats scolaires ont sensiblement progressé pour les élèves habitués à l'usage du numérique.

Globalement, le niveau scolaire des élèves habitués à l'usage du numérique en classe a progressé au cours du cycle 3 de l'école primaire, ce qui est favorable à la prédiction d'une bonne réussite scolaire au collège. Cette étude montre en outre que la progression des élèves faibles en début de cycle (entrée au CE2) ayant régulièrement bénéficié d'un environnement numérique est remarquable (+34,3 %).

À l'entrée en 6e, l'amélioration du niveau scolaire des élèves s'observe de façon significative dans tous les domaines du français (+ 18,4 %). Cela confirme bien que l'habituation à l'usage du numérique à l'école primaire améliore globalement la qualité de lecture des élèves dans les activités qui demandent prioritairement de retrouver ou de comprendre de l'information.

La généralisation des nouvelles technologies de l'information à l'école est donc bien un enjeu de société majeur car l'utilisation pertinente de ces outils technologiques, dans un cadre pédagogique adapté et personnalisé, modifie profondément le rapport des élèves au savoir et à la connaissance et leur permet de mieux exploiter toutes leurs potentialités et de mieux se préparer aux défis professionnels qu'ils devront relever tout au long de leur vie. Il s'agit également d'un enjeu politique essentiel qui mérite une véritable mobilisation économique, sociale et culturelle de la collectivité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'avenir de l'imagerie en relief est-il dans l'holographie ?
Vendredi, 03/12/2010 - 00:00

Des chercheurs américains pensent avoir franchi une étape décisive pour mettre cette technologie à la portée d'une foule d'applications temps réel, de la téléprésence à la télévision. L'imagerie 3D par hologramme ne compte pas se cantonner à des films de science-fiction comme Star Wars.

Elle pourrait entrer dans une foule d'applications, de la téléprésence à la télévision, en passant par le médical, la cartographie ou la publicité. Une équipe de chercheurs de l'Université de l'Arizona, aux Etats-Unis, pensent avoir réalisé une percée décisive dans le domaine. Elle a mis au point un système de téléprésence holographique qui projette des images en trois dimensions et en mouvement. Pour percevoir l'effet 3D, pas besoin de porter des lunettes spéciales comme c'est aujourd'hui le cas pour la plupart des téléviseurs 3D sur le marché (excepté ceux de Toshiba, qui viennent d'être lancés au japon).

« Désormais, nous pouvons enregistrer une image en trois dimensions en un seul endroit et la présenter à un autre endroit, en temps réel, partout dans le monde », explique Nasser Peyghambarian, le professeur en charge du projet de recherche.

Jusqu'ici, la stéréographie holographique pouvait fournir des images 3D avec de bonne résolution et profondeur, mais elle n'était pas adaptée à une mise à jour dynamique et rapide. Avec leur écran en matériau polymère photoréfractaire, capable de rafraichir l'hologramme toutes les deux secondes, soit en quasi-temps réel, les chercheurs américains pensent avoir fait sauter cette limite.

Leur technologie est démontrée sur un prototype de 10 pouces. Mais elle a été testée avec succès sur un écran de 17 pouces. L'image est enregistrée en utilisant un réseau de caméras ordinaires, fournissant différents points de vue de l'objet. Plus on utilise de caméras, plus la présentation finale holographique est réaliste. L'information des caméras est codée sur un faisceau laser pulsé, qui interfère avec un autre faisceau laser qui sert de référence. L'interférence résultante apparaît sur l'écran. Chaque impulsion du laser fournit un "Hogel", l'équivalent du pixel de l'image en 2D.

Le système serait une avancée majeure par rapport aux hologrammes traditionnels générés par ordinateur, qui réclament des puissances de calcul importantes et qui ne sont pas adaptés à des applications temps réel.

I-T

^ Haut
Avenir
Nanotechnologies et Robotique
L'armée israélienne invente un robot-serpent qui se reproduit !
Vendredi, 03/12/2010 - 00:00

Forte d'un savoir-faire technologique incontestable, l'armée israélienne vient de mettre au point un robot-serpent d'une intelligence incomparable, capable notamment de se reproduire.

Récemment, l'armée israélienne a présenté au monde entier un robot totalement autonome, qui se déplace en rampant tel un serpent, et qui est capable de se reproduire en cas d'attaque ! Inspiré du corps des reptiles, il possède un cerveau, des capteurs, des moteurs, ainsi que des batteries lui permettant une autonomie totale de mouvement. Il peut donc se faufiler à travers les bois, dans les trous, et dans tous les endroits généralement inatteignables par l'Homme.

Mais la chose la plus étonnante reste que ce robot-serpent est capable de se reproduire après avoir été touché par un impact. Une fois endommagé, il libère en effet de petites répliques de lui-même tout aussi autonomes, qui continuent alors la mission et peuvent également se faufiler à travers les obstacles. Une prouesse technique hallucinante et terriblement efficace qui servira notamment au service des renseignements généraux.

Zigonet

^ Haut
Matière
Matière et Energie
L'Italie inaugure la plus grande centrale solaire d'Europe
Vendredi, 03/12/2010 - 00:00

Installée dans la province de Rovigo, en Vénétie, la centrale a été construite par le groupe américain SunEdison. Elle aura nécessité seulement neuf mois de travaux, et coûté la somme de 250 millions d'euros. S'étendant sur une superficie de 850.000 mètres carrés, la plus grande centrale solaire d'Europe est dotée de quelque 280.000 panneaux photovoltaïques.

Inauguré le 23 novembre, le site de Rovigo devrait couvrir lors de sa première année de fonctionnement les besoins en électricité de 16.500 ménages, permettant ainsi d'éviter le rejet de plus de 40.000 tonnes de CO2 dans l'atmosphère. Pour Carlos Domenech, président de SunEdison, ce projet marque un réel tournant dans l'évolution du secteur photovoltaïque. "Il deviendra une référence pour les futurs grands projets photovoltaïques", espère la société qui dispose d'une part minoritaire de la centrale, et sera chargée de son exploitation et sa maintenance. C'est le fonds d'investissement First Reserve, spécialisé en énergie, qui a acquis la majorité du site.

A noter qu'avec une puissance installée de plus d'un gigawatt, l'Italie se place au deuxième rang en Europe, derrière l'Allemagne, en matière de production d'énergie solaire.

Yahoo

Transistor optique : des scientifiques contrôlent le flux de lumière
Vendredi, 03/12/2010 - 00:00

La propagation de la lumière est une question qui intrigue de nombreux scientifiques. Des chercheurs allemands de l'Institut Max Planck d'optique quantique (MPQ) et suisses de l'Ecole Polytechnique Fédérale de Lausanne (EPFL) ont tenté de résoudre ce problème en essayant de comprendre comment faire passer de la lumière dans une puce au moyen de mesures optiques.

Présentés en ligne dans la revue Science, les résultats démontrent qu'une forme de transparence induite a permis le couplage rayonnement/pression de deux modes : optique et mécanique. Leurs travaux, soutenus par une subvention de démarrage du Conseil européen de la recherche (CER) et une subvention d'excellence Marie Curie, pourraient engendrer plusieurs applications en télécommunications et en technologies de l'information quantique.

Les chercheurs expliquaient qu'une transparence optomécanique peut être utilisée pour la décélération et le stockage sur puce de flux lumineux au travers d'ensembles optomécaniques microfabriqués. Menée par le professeur de l'EPFL, Tobias J. Kippenberg, l'équipe a découvert que l'interaction de la lumière (photons) et des vibrations mécaniques (phonons) permet de contrôler la transmission d'un faisceau lumineux à travers un micro-résonateur en verre par un deuxième rayon laser, plus puissant.

Les études antérieures n'étaient parvenues qu'à faire interagir un faisceau lumineux avec des vapeurs atomiques à travers une transparence électromagnétique (EIT), qui peut contrôler la transmission de la lumière. Malgré certains résultats intéressants, les scientifiques ont découvert que l'EIT possédait plusieurs limites dont la restriction de la lumière à des longueurs d'ondes correspondant aux résonances naturelles des atomes.

Pour les besoins de l'étude, l'équipe suisse-allemande a basé ses principes sur le couplage de photons à des oscillations mécaniques dans un micro-résonateur optique. Ils ont utilisé des méthodes de nanofabrication pour créer les appareils optomécaniques qui ont la capacité de capturer simultanément la lumière en orbite et agissent comme des oscillateurs mécaniques.

La pression de radiation, qui se produit lorsque les phonons exercent leur force, est libérée lorsque la lumière est couplée au résonateur. Les scientifiques utilisent cette force depuis des années pour capturer et refroidir des atomes, mais cela ne fait que cinq ans qu'ils ont commencé à reconnaître son potentiel pour contrôler les vibrations mécaniques à une échelle micro- et nanométrique. Ainsi est née l'optomécanique de cavité, un domaine de recherche qui se concentre sur l'unification de la photonique et de la micro- et de la nanomécanique.

L'équipe a découvert que la force de la pression de radiation est contenue dans le micro-résonateur optique et peut déformer la cavité, associant de manière effective la lumière aux vibrations mécaniques. Un second laser de "contrôle" peut être couplé au résonateur. Les chercheurs ont compris que la rencontre entre deux lasers produit une vibration au niveau de l'oscillateur mécanique, qui, à son tour, empêche le signal lumineux d'entrer dans le résonateur par un effet d'interférence optomécanique, ce qui produit une fenêtre de transparence pour le faisceau de signal.

Le docteur Schliesser de l'EPFL et du MPQ explique : "Nous savions depuis plus de deux ans que ce phénomène existe". Et Stefan Weis, travaillant également dans les deux institutions et l'un des principaux auteurs de l'article, de poursuivre : "Une fois que nous avons compris où regarder, le phénomène était là, limpide".

Ce nouvel effet nommé OMIT (Optomechanical Induced Transparency) par les chercheurs, ouvre de nouvelles voies dans le domaine de la photonique. Selon l'équipe, des développements supplémentaires basés sur OMIT permettraient de transformer un signal de photons en vibrations mécaniques (phonons), créant ainsi des tampons optiques pour augmenter le stockage d'informations optiques - ce qui constituerait un grand avantage pour les systèmes quantiques hybrides.

BE

Une nouvelle source de lumière voit le jour
Vendredi, 03/12/2010 - 00:00

Avec du temps et beaucoup de créativité, Jan Klärs, Julian Schmitt, Frank Vewinger et le Professeur Martin Weitz, de l'université de Bonn sont parvenus à créer une espèce de "superphoton". Une nouvelle lumière en somme, selon leur étude publiée dans la revue Nature. Les physiciens pensaient que cela était impossible mais ils ont réussi à fabriquer un "condensat de Bose-Einstein" avec des photons. Ils se forment lorsque certaines particules se refroidissent. Une manipulation délicate car les photons ont tendance à disparaître lorsqu'on les refroidit.

Le principe consiste à utiliser des miroirs sur lesquels sont projetés des faisceaux lumineux. Les photons qui les composent entrent en collision avec des molécules de colorant dissoutes qui, peu à peu finissent par refroidir la lumière. Les photons atteignent ainsi une température identique à celle de la pièce où ils se trouvent sans qu'il y ait de déperdition énergétique.

Les physiciens ont alors augmenté le nombre de photons en stimulant au laser. C'est comme ça qu'une phénoménale concentration de corpuscules lumineux est apparue, une sorte de "superphoton". Proche du laser, ce condensat offre la particularité de pouvoir produire des ondes courtes (comme les UV), chose impossible avec un laser classique.

Ce nouveau laser offre tout un éventail de possibilités. Les puces informatiques, par exemple, sont taillées au laser. Si la longueur est très courte, la gravure sera plus fine. Théoriquement, il deviendrait même possible de placer sur la même surface de silicium (base des puces électroniques) des circuits encore plus complexe. Cela donnerait alors naissance à des puces high-tech d'une nouvelle génération.

MS

Stockage d'énergie : des centrales de pompage-turbinage souterraines
Vendredi, 03/12/2010 - 00:00

L'irrégularité de la production d'électricité renouvelable menace la stabilité du réseau électrique. Diverses mesures sont envisageables, dont notamment le stockage de l'électricité excédentaire des centrales intermittentes (source éolienne, solaire) pour l'injecter dans le réseau en période de forte consommation et ainsi équilibrer le débit électrique. Une équipe interdisciplinaire de l'Université de Duisbourg-Essen (UDE) et de l'Université de la Ruhr à Bochum (RUB) recherche de nouvelles méthodes de stockage, en se focalisant en particulier sur l'extraction du charbon et l'exploitation des fosses et galeries des mines.

Les professeurs de l'UDE Dr. Ulrich Schreiber (géologie), Dr. Eugen Perau (géotechnique) et Dr. André Niemann (hydraulique), ainsi que le professeur de la RUB Dr. Hermann-Josef Wagner (systèmes énergétiques) développent une technique de stockage d'énergie ayant fait ses preuves : la centrale de pompage-turbinage .

Dans cette centrale hydroélectrique réversible, l'énergie potentielle de l'eau est soit utilisée (turbinage) lorsqu'il n'y a pas de vent ou de rayonnement solaire, soit stockée (pompage) lorsque la production est excédentaire. De telles centrales ne sont cependant rentables qu'en montagne, car elles nécessitent de forts dénivelés et des surfaces étendues. Elles sont ainsi particulièrement développées dans les montagnes de Norvège et dans les Alpes - où les surfaces planes nécessaires pour produire l'électricité éolienne ou solaire sont plutôt rares.

La région Rhin-Ruhr ne manque pas de place ni de clients, mais plutôt de tels reliefs. "Néanmoins, nous possédons ici la pente nécessaire", affirme M. Schreiber, sous-entendant ainsi les sites d'extraction du charbon, qui devraient être transformés en centrales de pompage-turbinage souterraines (UPW). La nouveauté de leur fonctionnement est la présence des bassins non pas en hauteur, mais sous la surface. L'eau est dirigée sous terre le long de vielles galeries ou de tuyaux." Notre concept ne nécessite pas de montagne ni de falaise. Il pourrait être mis en application presque n'importe où", explique M. Perau.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les émissions mondiales de CO2 de nouveau en augmentation en 2010
Vendredi, 03/12/2010 - 00:00

Les émissions mondiales de dioxyde de carbone (CO2) qui contribuent au réchauffement climatique devraient repartir à la hausse en 2010, selon une correspondance à paraitre dans Nature Geoscience du Global carbon project (GCP), une organisation internationale de recherche auquel participe le Laboratoire des sciences du climat et de l'environnement (LSCE, CEA / CNRS / UVSQ). Alors qu'elles avaient diminué de 1,3 % en 2009, elles devraient augmenter de 3 % en 2010 pour atteindre 32 milliards de tonnes (8,7 gigatonnes de carbone).

Les chercheurs du Global carbon project avaient précédemment établi que les émissions mondiales de dioxyde de carbone (CO2) avaient baissé de 1,3 % au cours de l'année 2009, baisse qu'ils avaient attribuée à la crise financière et économique. L'évolution des émissions avait cependant été très variable selon les régions du monde : les émissions avaient nettement diminué en Europe (de 4,9 % en France, 7 % en Allemagne et 8,6 % en Angleterre), au Japon (de 11,8 %), aux États-Unis (de 6,9 %) et en Russie (de 8,4 %), tandis qu'elles augmentaient dans les pays émergents (8 % en Chine, 6,2 % en Inde et 1,4 % en Corée du sud).

S'agissant de l'année 2010, les scientifiques estiment aujourd'hui que si la croissance économique progresse de la manière attendue (+ 4,8 % du PIB mondial), on devrait observer une augmentation des émissions mondiales de CO2 de plus de 3 %, un taux de croissance qui s'approche de ceux observés de 2000 à 2008.

"La diminution globale liée à l'impact de la crise de 2009, devrait être surcompensée en 2010 avec l'augmentation de +3 %", souligne Philippe Ciais, l'un des auteurs de l'étude du GCP et chercheur au LSCE. "S'agissant de la quantité globale de carbone dans l'atmosphère, les stations de mesure indiquent que la concentration atmosphérique du CO2 continue d'augmenter et devrait atteindre 390,5 ppm ou parties par millions (cette concentration exprimée en ppm correspond au nombre de molécules de CO2 divisé par le nombre de millions de molécules de l'air) en fin d'année 2010 contre 387,2 ppm fin 2009."

Toujours selon l'étude du GCP, la bonne nouvelle est que les émissions de CO2 liées à la déforestation et à l'utilisation des sols ont fortement baissé au cours des dix dernières années, de l'ordre de 25 % entre 2009 et la fin des années 1990, grâce à une réduction de la vitesse de déboisement des forêts tropicales et à la repousse de certaines forêts situées en-dehors des Tropiques. La déforestation contribuerait aujourd'hui pour environ 10 % à la totalité des émissions de CO2 dues aux activités humaines.

CNRS

CP

Captage du CO2 : installation d'une usine pilote à Darmstadt
Vendredi, 03/12/2010 - 00:00

L'Université technique (TU) de Darmstadt a mis en place une usine pilote pour tester des méthodes innovantes pour le captage de dioxyde de carbone (CO2) moins consommatrices d'énergie et moins coûteuses que les approches antérieures. Bernd Epple, chef de l'Institut des systèmes et techniques énergétiques (EST) de la TU de Darmstadt, ainsi que ses 26 collaborateurs, explorent les méthodes de "carbonate looping" et de "chemical looping" pour la capture de CO2.

L'Union européenne soutien le projet à hauteur d'1,1 million d'euros au titre du Fonds de recherche du charbon et de l'acier. Le Ministère fédéral allemand de l'économie et de la technologie (BMWi) ainsi que divers partenaires industriels sont aussi impliqués dans le projet, pour une aide totale de plus de 7 millions d'euros.

Le captage et stockage du carbone (CSC) est considéré comme l'une des principales technologies qui permettraient de réduire les émissions libérées par la combustion de carburants fossiles (charbon, pétrole, gaz naturel) et de mener à la construction d'usines écologiques. Néanmoins, les premières approches pour stocker le CO2 nécessitaient beaucoup d'énergie et des frais supplémentaires, soulevant ainsi des questions sur leur efficacité et leur acceptation.

Les deux nouvelles méthodes pour la séquestration du carbone analysées dans l'usine pilote de l'Institut EST de la TU de Darmstadt permettraient d'éliminer la quasi-totalité des émissions de CO2, sans recours à un supplément d'énergie et en entraînant une faible augmentation des coûts de fonctionnement, expliquent les chercheurs. La TU-Darmstadt a construit un nouveau hall expérimental de 20 m de haut sur son campus de Lichtwiese pour abriter son usine pilote, qui a été construite en 20 mois. Lors des premiers essais, la centrale a déjà prouvé son aptitude à capturer du CO2.

Les deux méthodes étudiées utilisent des substances naturelles et réduisent de moitié l'énergie actuellement nécessaire pour le captage du CO2 : La méthode de "carbonate looping" utilise le calcaire pour lier le CO2 provenant des gaz de combustion qui passent dans des cuves de l'usine dans un réacteur. Le CO2 pur en résultant est libéré dans un second réacteur et peut être stocké.

L'avantage de cette méthode est que les usines actuelles peuvent être adaptées à ce nouveau procédé. Pour les nouvelles usines, la méthode permet de séquestrer le CO2 sans perte d'efficacité énergétique. Une combustion à double étape sans émission de flamme génère des gaz d'échappement contenant uniquement du CO2 et de la vapeur d'eau. Ce CO2 peut être capturé et stocké.

La méthode de "chemical looping" permet de capturer le CO2 presque sans perte énergétique. Un courant de gaz de combustion contenant uniquement du CO2 et de la vapeur d'eau est produit par une combustion sans flamme et à deux étages. Cette méthode permet à la fois de capturer et de stocker le CO2.

La technique CSC appliquée à la production d'énergie dans les centrales au charbon pourrait trouver des applications au niveau international, selon Mark Weinmeister, Secrétaire d'Etat du Ministère de l'environnement d'Hesse. En effet en Chine, une centrale au charbon est reliée chaque semaine au réseau, ce qui rend urgent le développement d'une technique de séparation du CO2.

BE

Un hiver froid pourrait suivre le réchauffement climatique
Vendredi, 03/12/2010 - 00:00

Le réchauffement climatique, causé par les gaz à effet de serre, pourrait se traduire par des hivers froids en Europe. Les glaces qui reposent sur les eaux de l'est arctique fondent, ce qui entraîne un réchauffement local des couches d'air inférieures qui pourrait provoquer de fortes interférences dans les courants atmosphériques.

Un éventuel refroidissement des continents du nord pourrait voir le jour. Cette hypothèse est présentée dans la revue "Journal of Geophysical Research". "Cette interférence pourrait tripler le risque d'un hiver très froid en Europe et en Asie du Nord" déclare l'auteur principal de cette étude, Vladimir Petoukhov de l'Institut de recherche climatique de Potsdam (PIK). Il explique que des hivers rudes, comme ceux connus ces dernières années, ne contredisent en rien un réchauffement planétaire, mais au contraire l'attestent.

Les chercheurs fondent leurs déclarations sur des simulations informatiques effectuées à l'aide d'un logiciel modélisant le climat et connu sous le nom de ECHAM5. Le logiciel, développé par l'Institut Max-Planck de météorologie de Hambourg, permet de réaliser des modèles de circulation atmosphérique. Les scientifiques ont concentré leurs études sur la mer de Barents-Kara au nord de la Norvège et de la Russie, où il a été possible d'observer une importante réduction des glaces au cours de l'hiver 2005-2006, qui fut très froid en Europe.

Lorsque la glace disparait de la surface des mers, ces dernières ont tendance à perdre beaucoup de chaleur dans l'atmosphère. Les chercheurs ont donc intégré des scénarios dans lesquels la couverture de glace de l'est arctique ne cesse de diminuer, allant de 100 % à 1 %.

"Nos simulations ont fourni une réponse non-linéaire de la température de l'air et du vent face aux variations que subit la glace au-dessus des mers", explique le physicien Petoukhov. "Nous passons d'un réchauffement à un refroidissement et de nouveau à un réchauffement". Un changement brutal entre les différents mécanismes de circulation atmosphérique, qui ont lieu dans les zones subpolaires, pourrait donc tout à fait être possible. Le réchauffement de l'air au-dessus de la mer de Barents-Kara semble être à l'origine de vents d'hiver froids en Europe.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le ribosome eucaryote dévoile enfin sa structure
Vendredi, 03/12/2010 - 00:00

Le ribosome est une machine essentielle de la cellule qui assure la synthèse protéique à partir de l'information génétique. Il interagit avec de nombreuses protéines et occupe un rôle clé dans divers processus cellulaires. Depuis longtemps, les chercheurs tentent de déterminer sa structure atomique, défi considérable au vu de sa taille et de sa complexité.

Le ribosome bactérien a une structure semblable mais non identique à celle du ribosome eucaryote (non bactérien). Il est plus petit (seulement 2.3 MDa(1) contre 3,3MDa pour le ribosome eucaryote) mais présente la même organisation générale en deux sous-unités. En 2009, le prix Nobel de chimie récompensait les chercheurs qui avaient déterminé pour la première fois la structure du ribosome bactérien. Celle de son homologue eucaryote faisait depuis l'objet d'une course effrénée.

Pour déterminer la structure du ribosome eucaryote, les chercheurs se sont intéressés à celui de la levure, un organisme modèle idéal, déjà connu et largement utilisé en biologie. Avec une masse d'environ 3.3 MDa, le ribosome eucaryote est plus gros de 40 pour cent par rapport à son homologue bactérien.

Après de longs travaux de purification et de stabilisation de la molécule, les chercheurs strasbourgeois ont finalement obtenu sa structure atomique avec une très bonne résolution (de 0,415 nanomètres, soit une résolution à l'échelle de la molécule). L'équipe de l'Institut de génétique et de biologie moléculaire et cellulaire a confirmé l'existence de mouvements au sein des sous-unités du ribosome, mais également l'une par rapport à l'autre, mettant en évidence la dynamique de pivotement à l'origine du mécanisme de la synthèse protéique.

Prochains objectifs pour l'équipe : déterminer la structure du ribosome d'autres eucaryotes mais également améliorer encore la résolution des résultats pour obtenir une description du ribosome et des mécanismes qui s'y déroulent à l'échelle atomique. La connaissance de cette structure facilitera la compréhension des relations structure/fonction à l'échelle atomique et fournira les bases moléculaires pour l'investigation des caractéristiques uniques de la machinerie traductionnelle des eucaryotes.

Une telle description apportera également de précieuses informations pour le développement de nouveaux composés thérapeutiques ciblant les virus, les protozoaires (paludisme, maladie du sommeil, toxoplasmose, etc.), les champignons et les bactéries. En effet, en bloquant le ribosome de ces organismes, on en bloquerait toute activité.

CNRS

Afrique : un nouveau vaccin pour enrayer la méningite
Vendredi, 03/12/2010 - 00:00

À partir du 5 décembre, une campagne massive de vaccination contre la méningite A va être lancée au Burkina Faso, puis au Mali et au Niger. Le tout nouveau vaccin - le MenAfriVacTM - sera injecté à tous les jeunes, âgés de 1 à 29 ans. Si les financements le permettent, les 25 pays de «la ceinture de la méningite» qui couvre toute l'Afrique subsaharienne, du Sénégal à l'Éthiopie, devraient suivre. 450 millions de personnes vivent dans cette région sous la menace de la maladie. L'ensemble de l'opération est estimé à 571 millions de dollars dont 370 millions sont fournis par l'Alliance mondiale pour les vaccins et l'immunisation* (Gavi).

La méningite qui sévit en Afrique est particulièrement redoutable car elle a un caractère épidémique et saisonnier qu'elle n'a pas en Europe. On estime qu'entre 5 % et 10 % des personnes malades en meurent et que 10 % à 20 % des personnes qui en réchappent, gardent des séquelles graves : retard mental ou surdité. La maladie se manifeste par de la fièvre, des maux de tête et un état de somnolence. «Mais les attaques peuvent parfois être foudroyantes et la personne mourir en 24 heures», indique Marc LaForce, qui a piloté le projet à l'origine du nouveau vaccin.

L'épidémie survient durant la saison sèche, souvent après des tempêtes de sable, et elle disparaît vers le mois de mai avec les premières pluies. C'est pourquoi on l'appelle là-bas «la maladie du vent». On estime qu'entre 5 % et 10 % de la population sont des porteurs sains de bactéries qui stationnent dans l'arrière-gorge ou dans le nez. La contamination se fait par les sécrétions nasales ou les postillons.

L'épidémie de 1996 qui avait touché près de 250.000 personnes, causant le décès de 25.000 d'entre elles, a servi de détonateur. C'est cet épisode dramatique qui a poussé plusieurs gouvernements africains à demander à l'OMS de se mobiliser. En effet, le seul vaccin existant alors était trop cher (3,50 $ la dose contre 0,50 $ pour le MenAfriVacTM), peu efficace et les doses en nombre largement insuffisant. Les vaccinations intervenaient souvent trop tard et avaient plutôt un caractère symbolique, jugent les observateurs. Les grands laboratoires privés n'ont jamais investi pour mettre au point un vaccin contre la méningite.

Le MenAfriVacTM appartient à la catégorie des vaccins conjugués qui assurent une meilleure immunité et plus durable que ceux des générations précédentes. Il a été conçu sur le modèle du vaccin utilisé en Grande-Bretagne contre la méningite. «Si on parvient avec le vaccin à casser la ligne de transmission, on peut enrayer l'épidémie», assure Marc LaForce.

LF

De nouveaux espoirs contre l'hépatite C
Vendredi, 03/12/2010 - 00:00

Les prochaines années vont transformer le traitement et le pronostic de l'hépatite C pour les 230.000 personnes qui seraient aujourd'hui atteintes de sa forme chronique en France.

Première étape, l'arrivée imminente de deux nouveaux médicaments antiviraux, le boceprevir et le telaprevir, destinés aux malades par le virus (VHC) dit «de génotype 1» - il y a six variants -, soit environ 50 %. Associés au traitement actuel par interféron pégylé et ribavirine, ils portent leur taux de guérison de 45 % à 70 %. Avant même leur mise sur le marché dans un an, «ils seront d'abord délivrés grâce à une autorisation temporaire d'utilisation à 1500 patients gravement atteints et non répondeurs au traitement actuel», souligne le Pr Stanilas Pol, hépatologue à l'hôpital Cochin (Paris).

L'infection au VHC peut guérir spontanément. Le plus souvent, elle passe presque inaperçue. Mais si la réponse immunitaire est incomplète, le virus continue à se multiplier dans les cellules du foie et l'infection devient chronique. L'inflammation associée à l'infection virale provoque des lésions hépatiques et la formation d'un tissu amorphe, la fibrose, qui remplace peu à peu le foie sain et altère son fonctionnement. «C'est une maladie silencieuse: si on ne la cherche pas, on ne la trouve pas.

Un quart des diagnostics sont encore tardifs, au stade de fibrose avancée ou de cirrhose», explique le Pr Patrick Marcellin, hépatologue à l'hôpital Beaujon (Paris), un des 30 pôles de référence pour l'hépatite C. Or, sur 100 personnes infectées par le VHC, 20 % développeront une cirrhose au bout de vingt ans, avec pour celles-ci un risque de cancer hépatique de 3 % par an. En l'absence de vaccin, la meilleure défense reste le dépistage et le traitement précoce qui guérit aujourd'hui un malade sur deux et divise par 7 le risque de cancer.

Le VHC se transmet essentiellement par voie sanguine. La majorité des contaminations nouvelles est liée à l'usage, ne serait-ce qu'une fois, de drogues intraveineuses. Mais sur les 5000 nouveaux cas dépistés par an, beaucoup résultent aussi de transfusions sanguines avant 1991 - ce risque n'existe plus -, d'infections nosocomiales ou d'actes invasifs pouvant remonter à des décennies. «Une bonne part des 100.000 porteurs chroniques inconnus n'a aucun facteur de risque identifié et n'imagine même pas avoir pu être contaminé», souligne le Pr Marcellin qui, comme ses confrères, souhaite un dépistage plus systématique de l'hépatite C. Car s'il y a aujourd'hui deux fois plus de malades guéris que de cas nouveaux, l'augmentation prochaine de formes graves liées à un diagnostic tardif est à craindre.

Des transaminases élevées peuvent alerter sur l'atteinte hépatique, mais le diagnostic repose sur l'existence d'anticorps anti-VHC et surtout sur l'identification du variant en cause. Quand la fibrose, évaluée par une sorte d'échographie ou par biopsie hépatique, est minime, la surveillance et la réduction des facteurs favorisants - excès de poids, syndrome métabolique, cholestérol et alcool - peuvent suffire. Lorsqu'elle est importante ou a évolué en cirrhose, le traitement s'impose.

Il repose sur la combinaison d'interféron pégylé et de ribavirine, dont les effets indésirables, anémie et troubles de l'humeur, peuvent être contrôlés. L'efficacité moyenne du traitement est de 60 %. L'indétectabilité du virus pendant six mois atteste de la guérison de l'infection, qui est aussi souvent une guérison de la maladie hépatique: «Une fibrose évoluée, et même une cirrhose à un stade précoce peuvent complètement régresser», assure le Pr Jean-Michel Pawlotsky du CHU Henri-Mondor (Créteil).

Récemment identifié, un marqueur génétique de la réponse au traitement, l'IL28B, suscite beaucoup d'intérêt. Des molécules antivirales nouvelles en cours de développement vont suivre l'arrivée prochaine du telaprevir et du boceprevir qui, en améliorant les taux de guérison, donnent un nouvel espoir aux patients et ouvrent aussi la perspective de traitements sans interféron.

Figaro

Premières greffes de trachée reconstruite à partir des tissus du patient
Vendredi, 03/12/2010 - 00:00

C'est une première mondiale. Une équipe de chirurgiens français a utilisé avec succès sur des patients atteints de cancer une technique de reconstruction de la trachée, à partir des propres tissus du malade. Cette opération a été faite au Centre chirurgical Marie Lannelongue, dans les Hauts-de-Seine, où une équipe de chirurgiens a expliqué avoir reconstruit la trachée de plusieurs patients atteints de cancers, et cela à travers des greffes utilisant les propres tissus des malades. Une prouesse médicale qui serait la première du genre dans le monde, associant alors chirurgie plastique et chirurgie thoracique.

Cette nouvelle technique de reconstruction de la trachée a demandé une mise au point de six ans au professeur Philippe Dartevelle et au docteur Frédéric Kolb, respectivement chef du département de chirurgie thoracique et vasculaire au Centre Marie Lannelongue et chef de service de chirurgie plastique et reconstructrice à l'Institut Gustave Roussy.

La mise au point de cette nouvelle technique aurait été opérée sur sept patients atteints de cancers. A l'heure actuelle, cinq sont toujours vivants et en activité tandis que les deux autres patients ont été victimes d'une infection respiratoire. L'AFP précise que l'intérêt d'utiliser les tissus des malades est d'éviter tout rejet, une technique utilisée par les chirurgies réparatrices du nez par exemple. Dans les cas des greffes autologues de la trachée, les chirurgiens ont prélevé un morceau de peau sur le malade ainsi que des morceaux de cartilage, le tout étant positionné ensuite sur une armature prévue afin de composer un tube pouvant ensuite remplacer la trachée.

Pour réaliser cette opération, "on prend un rectangle de peau, de tissu sous-cutané et de fascia, le tissu qui recouvre le muscle, que l'on prélève avec l'artère et la veine radiale, et qui est transformé en un tube de trois centimètres de diamètre", a expliqué à l'Associated Press le Pr Philippe Dartevelle. Pour maintenir la circulation sanguine, "on réimplante les vaisseaux prélevés sur des vaisseaux du cou du patient", précise-t-il.

La respiration entraîne une dépression. Pour éviter que "le tuyau ne s'aplatisse sur lui-même lorsque le patient respire" et éviter que ce dernier "étouffe, il faut trouver un système qui maintienne le tuyau ouvert", poursuit Philippe Dartevelle. "Nous avons prélevé du cartilage et des côtes que nous avons réintroduits entre la graisse sous-cutanée et le derme et avons rendues circulaires en les cousant à chacune des extrémités".

Résultat : "on obtient un tube rigide qui résiste aux pressions de la respiration, et qui est recouvert de peau à l'intérieur, une barrière contre l'infection parfaitement vascularisée". Ce qui permet de renoncer aux stents, ces petits ressorts qui permettent de tenir la trachée ouverte et qui rendent la vie du patient très inconfortable.

Les indications de la transplantation de trachée sont précises : la technique peut s'appliquer aux personnes victimes "d'un cancer de la trachée, ou d'un cancer des organes de voisinage envahissant la trachée, notamment thyroïdien, ou encore aux personnes souffrant de grandes destructions trachéales".

AP

L'Europe interdit les biberons contenant du bisphénol A
Vendredi, 03/12/2010 - 00:00

Les pays de l'UE ont décidé le 25 novembre d'interdire à partir du printemps prochain la production puis la commercialisation de biberons contenant du bisphénol A, un composé chimique controversé utilisé dans la fabrication de plastiques alimentaires, a annoncé la Commission européenne.

Les experts des pays de l'Union européenne chargés du sujet et qui se sont réunis récemment, "sont parvenus à un accord à la majorité qualifiée sur une proposition de la Commission européenne" pour interdire le bisphénol A dans les biberons, a indiqué l'exécutif européen dans un communiqué. La production de ces biberons sera interdite à partir du 1er mars 2011, puis leur commercialisation et leur importation à partir du 1er juin, a-t-il précisé.

"C'est une bonne nouvelle pour les consommateurs" et "pour les parents européens, qui peuvent être sûrs qu'à partir de mi-2011, les biberons en plastique ne contiendront pas de bisphénol A", s'est félicité le commissaire européen chargé de la Santé et de la Consommation, John Dalli. La France et le Danemark ont déjà décidé unilatéralement d'interdire la fabrication et la commercialisation de biberons contenant du bisphénol A. Le bisphénol A est par ailleurs interdit au Canada, en Australie et dans plusieurs Etats américains.

Express

Contrôler son cerveau ?
Vendredi, 03/12/2010 - 00:00

Contrôler l'activité de son cerveau pour maîtriser ses émotions ou décupler ses capacités intellectuelles : ce ne sera peut-être plus longtemps un fantasme. Le procédé se nomme neurofeedback et consiste à observer en temps réel l'activité de son cerveau à l'aide d'un scanner, pour tenter de l'amplifier ou de la réduire.

Par exemple, dans une expérience réalisée à l'Université de Tübingen, une personne voit s'afficher sur un écran l'activité de son insula, une zone clé pour la créativité et la perception des émotions. En s'entraînant à faire baisser l'activité de cette zone émotionnelle, le sujet agit sur son cerveau et sur sa sensibilité aux situations émotionnelles ou stressantes. Les auteurs de cette étude, Andrea Caria et Niels Bribaumer, ont constaté que des personnes ayant subi cinq séances d'entraînement de 30 secondes ressentent ensuite moins d'émotions négatives à la vue d'images pénibles, qu'il s'agisse de visages agressifs ou de photos d'accidents ou d'attentats. La zone du cerveau concernée, après avoir été « calmée » par l'introspection, est moins alarmée par les stimulations pénibles qu'on lui propose.

L'inverse est également vrai. Un court entraînement où le sujet s'efforce de renforcer l'activité de son insula rend le sujet plus sensible aux stimulations hostiles. Le cerveau apparaît comme un miroir de l'activité mentale, et il peut la moduler.

Tout le monde n'exerce pas un contrôle efficace sur ces états émotifs : les psychopathes n'arrivent pas à activer leur insula à la vue de la détresse d'autrui, ce qui entraîne une forme d'insensibilité pouvant favoriser les comportements amoraux. Leur apprendre à restaurer l'activité de cette zone cérébrale par des méthodes de neurofeedback serait d'un grand intérêt. De même, les personnes sujettes à des phobies sociales présentent une hyperactivité de cette zone cérébrale qui les rend d'une émotivité excessive dès qu'elles sont en public.

Des exercices visant à minimiser l'activité de l'insula en temps réel seraient alors bénéfiques. Des exemples similaires sont cités à propos de l'anxiété. De façon générale, le suivi en direct de l'activité du cerveau offre un moyen au sujet lui-même de moduler son fonctionnement, sans implantation d'électrodes ni administration de médicaments. Une forme d'introspection par scanner interposé.

PLS

La vision inconsciente des aveugles

Un homme aveugle se fraye un chemin dans un couloir encombré de boîtes, de chaises et d'autres accessoires de bureau. L'homme ignore la présence des obstacles. Pourtant, il les évite, se faufilant prudemment entre la poubelle et le mur, contournant le trépied d'un appareil photo, sans se rendre compte qu'il a fait des manoeuvres particulières.

Cet homme est l'un de nos patients ; il est aveugle, mais il est doté d'une « vision aveugle ». En d'autres termes, il réagit à ce que ses yeux détectent sans savoir qu'il peut voir.

La cécité de ce patient est d'un type très rare. Elle est la conséquence de deux accidents vasculaires cérébraux dont il a été victime en 2003. Ces accidents ont détruit une région à l'arrière de son cerveau, nommée cortex visuel primaire ; la première lésion concernait l'hémisphère gauche, puis, cinq semaines plus tard, la seconde a touché l'hémisphère droit. Ses yeux sont fonctionnels, mais comme son cortex visuel ne reçoit plus de signaux, il est devenu aveugle.

Cette étude où le patient se déplace dans un couloir est probablement la démonstration la plus spectaculaire de vision aveugle jamais publiée. D'autres patients ayant perdu la vision après des lésions du cortex visuel primaire sont des cas moins impressionnants, mais tout aussi mystérieux ; ils réagissent à des choses qu'ils ne peuvent pas voir consciemment, par exemple de simples formes géométriques ou des images d'un visage humain qui exprime une émotion. Aujourd'hui, on sait provoquer un effet semblable chez des sujets voyant normalement, par exemple en « éteignant » temporairement leur cortex visuel

PLS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top