RTFlash

RTFLASH Recherche & Technologie
NUMERO 614
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Septembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les opérateurs tentent d’instaurer l’Internet à deux vitesses
Rentrée « numérique » dans les collèges du département du Rhône
Le tri sélectif s'applique aussi aux fichiers informatiques
Avenir
Des nanotubes de peptides au diamètre parfaitement contrôlé
Le premier robot humanoïde de l'espace tweet
Matière
Produire du biogaz et absorber du CO2 grâce à des micro-algues
Des cellules photovoltaïques à vaporiser en vente dès 2013 ?
Une mousse qui dure, qui dure, qui dure… et qui s’effondre à volonté !
Terre
La chaleur radioactive de la Terre chiffrée
L'Europe encourage l'innovation dans l'automobile
Vivant
Des origines génétiques à l’infertilité masculine
Un anti-douleur contre le syndrome de l'intestin irritable ?
Un nouvel anticoagulant plus performant contre les AVC
Des lymphocytes impliqués dans la prévention des maladies inflammatoires chroniques de l'intestin
Du sang créé à partir de cellules souches
Dis-moi ce que tu manges, je te dirai quelles bactéries tu abrites
Epilepsie et troubles cognitifs : une cause commune
Femmes : du danger, côté cœur
Schizophrénie : l'espoir d'un traitement au Brésil ?
Une signature moléculaire de la déficience intellectuelle
Recherche
Des simulateurs de vol pour qualifier les pilotes à Saint-Exupéry
Premiers tests sur circuit du véhicule 100 % électrique MUTE
Edito
La préservation des forêts tropicales est vitale dans la lutte contre le réchauffement climatique



On estime, selon les dernières données disponibles, que la déforestation représente entre 20 et 25 % des émissions mondiales de CO2 liées aux activités humaines (plus de 30 milliards de tonnes par an en 2010). Les émissions de carbone liées à l’exploitation agricole et à la déforestation massive et sans contrôle ont augmenté de presque 50 % depuis 40 ans et il est capital, comme le souligne le GIEC et l'ensemble de la communauté scientifique, de réduire massivement les émissions de CO2 issues de la déforestation pour stabiliser le climat d'ici le milieu de ce siècle.

L'ensemble des forêts tropicales, en zone sèche et humide, couvre environ 17 millions de km2, dont environ la moitié en Amérique du Sud, 30 % en Afrique et 20 % en Asie. Les forêts tropicales stockent près de la moitié des 960 milliards de tonnes de carbone présents dans l'ensemble des massif forestiers et on sait à présent, notamment grâce aux travaux remarquables de Philippe CIAIS, qu'un km2 de forêt tropicale permet en moyenne de stocker 35 000 tonnes de carbone en incluant le carbone stocké dans le sol : 12 000 km2 de forêts tropicales peuvent donc stocker l'équivalent des émissions annuelles de CO2 de la France (400 millions de tonnes de CO2) !

Une étude effectuée par le laboratoire américain réputé Lawrence Livermore (LLNL) en Californie et publiée en 2007 dans le PNAS a montré que la préservation de ces forêts tropicales constitue un facteur tout à fait déterminant dans la lutte contre le réchauffement climatique. Cette étude démontre clairement que seules les forêts tropicales jouent un rôle majeur pour  ralentir le réchauffement global car, d'une part, elles constituent d'énormes "puits de carbone" qui piègent le gaz carbonique et, d'autre part, elles provoquent également la formation abondante de nuages qui participent de manière très active au refroidissement du climat.

Selon une autre étude publiée également dans le PNAS en 2008, il est par ailleurs possible, pour un coût modique à l'échelle de la planète (un milliard de dollars), de réduire de 10 % la déforestation tropicale et d'éviter ainsi l'émission de plus d'un demi-milliard de tonnes de CO2 d'ici 2035. Selon cette étude, le rapport coût/efficacité d’une telle mesure de préservation de la forêt tropicale (seulement deux dollars pour chaque tonne de CO2 évitée) est bien supérieure à celui des technologies propres mises en œuvre par les pays développés pour limiter à grand frais leurs émissions de CO2, qu'il s'agisse du développement des énergies renouvelables ou de la séquestration de carbone.

Cette étude confirme donc les conclusions du très sérieux rapport de McKinsey, publié en janvier 2009, qui montrent que les mesures de préservation des forêts tropicales et de restauration des sols coûteraient en moyenne seulement 3 à 4 euros par tonne de CO2 évitée, bien moins en tout cas que le développement des énergies renouvelables ou la séquestration de carbone (de 20 à 60 euros la tonne). Néanmoins, il convient de ne pas opposer ces différents leviers mais de les utiliser de manière complémentaire en commençant toutefois par actionner ceux qui sont les plus efficaces et les moins coûteux pour nos économies, ce qui n'est pas le cas actuellement.

Enfin, une vaste étude publiée le 14 juillet 2011 dans la revue "Science" et portant sur la période 1990-2007 (A Large and Persistent Carbon Sink in the World’s Forests) confirme que les forêts du monde entier absorbent en effet un tiers du CO2 émis par les combustibles fossiles (pétrole, charbon, gaz). Cette étude montre que si on arrêtait la déforestation, les forêts existantes absorberaient alors la moitié des émissions de CO2 issues des combustibles fossiles, soit environ 4 milliards de tonnes de carbone par an, ce qui correspond à l’objectif de réduction des émissions humaines de carbone que nous devons atteindre d’ici 2050 si nous voulons éviter un dérèglement majeur et incontrôlable du climat.

Cette étude confirme que les forêts mais également la replantation d'arbres sur des surfaces auparavant dévolues à l'agriculture ne sont pas seulement des réservoirs immenses de carbone mais qu’elles absorbent également très efficacement le CO2 produit par les activités humaines.

Pour étudier le rôle des arbres dans le cycle du carbone, les chercheurs ont étudié des données datant de 1990 à 2007 puis les ont analysées. Ils ont alors pu montrer que les différents types de forêts, boréales, tropicales et tempérées, absorbent 2,4 milliards de tonnes de carbone par an. L'étude souligne que la densité de carbone stockée dans une forêt tropicale et dans une forêt boréale est similaire mais que ce stockage ne se fait pas de la même façon : environ 60 % du CO2 est retenu dans le bois pour les forêts tropicales et 30 % dans le sol alors que ce stockage est inversé dans les forêts boréales (un majorité du carbone est stocké dans le sol et une minorité dans le bois).

Ces études scientifiques récentes montrent que les économies rendues possibles par une meilleure gestion de la forêt, en exploitant notamment les bénéfices de la réduction de la déforestation, sont bien plus importantes qu’on ne l’imaginait et que la préservation des forêts tropicales est bien le moyen le plus efficace et le moins onéreux de lutte contre le réchauffement climatique. Il faut en outre rappeler le rôle essentiel des forêts tropicales, et plus particulièrement des forêts denses humides, dans la préservation de la biodiversité : ces forêts abritent plus de 80 % de la diversité spécifique terrestre. Aujourd’hui, cette richesse est menacée et selon la FAO, le quart de la diversité biologique de la planète risque de disparaître d’ici à 2020.

Dans son fameux rapport de 2006, qui fait toujours référence en la matière, Nicolas Stern avait évalué à moins de 10 milliards d'euros par an à l'échelle de la planète le coût mondial nécessaire pour réduire de moitié la déforestation d’ici à 2030. Enfin le GIEC, dans son dernier rapport, souligne que : « 65 % du potentiel d’atténuation globale du carbone se situe sous les tropiques et 50 % de l’ensemble pourrait être réalisé en réduisant les émissions de déforestation ».

Depuis 5 ans, l’idée d’émettre des REDD (réduction d’émissions issues de la déforestation et de la dégradation tropicale) sur les marchés du carbone fait lentement mais sûrement son chemin. La Bolivie a été la première à présenter des résultats mesurables et certifiés, dans le cadre des MDP (Mécanismes de développement propre du protocole de Kyoto) sur le projet pilote du Parc Noël Kempff.

Depuis le sommet mondial de Bali sur le climat, le principe de la Réduction des Emissions liée à la Déforestation et la Dégradation des forêts tropicales (REDD) a été enfin admis et intégré dans les difficiles négociations sur la réduction mondiale des émissions de gaz à effet de serre qui préparent "l'après Kyoto". Ce concept des REDD est très novateur car il permet simultanément, et de manière synergique, de lutter contre le changement climatique, de réduire la pauvreté des populations locales et de sauvegarder la biodiversité tout à fait remarquable de ces écosystèmes très anciens. Il s'agit de persuader les pays concernés, souvent pauvres ou en voie de développement, que les compensations financières qu'ils peuvent espérer, s'ils acceptent de s'engager sur la préservation à long terme de leurs forêts tropicales, peuvent compenser largement le manque à gagner à court et moyen terme lié à l’exploitation de ces précieuses forêts.

On voit donc que, peu à peu, la mise en place de mécanismes internationaux pour fournir une compensation aux pays qui protégeraient leurs forêts devient une réalité. Mais un long chemin reste à parcourir pour que ce principe "gagnant-gagnant" de préservation des forêts tropicales devienne prioritaire au niveau mondial et soit, au même titre que le développement des énergies renouvelables et des technologies propres, un des axes majeurs de la politique européenne en matière d’environnement et d’aide au développement.

Corrélativement à la mise en œuvre de cette nouvelle vision stratégique mondiale globale qui lie la lutte contre le réchauffement climatique et le développement local, Il est également nécessaire de poursuivre le travail d’évaluation de la valeur économique de la nature, en stock et en flux, pour intégrer dans l’ensemble des documents comptables et budgétaires publics et privés, les valeurs financières correspondant aux biens et services économiques et écologiques irremplaçables rendus par la nature.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les opérateurs tentent d’instaurer l’Internet à deux vitesses
Mercredi, 07/09/2011 - 10:19

D'ici à 2020, Bruxelles souhaite que la moitié des Européens ait un accès à Internet de 100 Mbit/s. A l’invitation de Neelie Kroes, commissaire en charge du numérique, les opérateurs ont été invités à réfléchir sur les moyens à mettre en œuvre pour atteindre cet objectif. Les patrons de Vivendi, Deustche Telekom et Alcatel Lucent, ainsi qu’une quarantaine de dirigeants du secteur, ont saisi l’aubaine pour faire la promotion d’un Internet à plusieurs vitesses.

Parmi la liste de 11 recommandations présentées, les professionnels estiment que « l’Europe doit encourager la différenciation en matière de gestion du trafic pour promouvoir l’innovation et les nouveaux services, et répondre à la demande de niveaux de qualité différents. » Leur idée étant de demander une contribution financière aux gros consommateurs de bande passante, tels que YouTube, qui souhaitent bénéficier d’une qualité d’accès supérieure. Les internautes pourraient eux aussi être invités à mettre la main à la poche s’ils souhaitent accéder aux vidéos dans le cadre d’un service « premium », c’est-à-dire sans coupure d’images.

Une suggestion qui met clairement à mal le principe de la neutralité du Net, et qui n’a pas rencontré l’adhésion de Bruxelles. A l’issue de la réunion de présentation, Neelie Kroes a déclaré dans un communiqué : « Cette catharsis parfois douloureuse n'a pas débouché sur un consensus ». Elle a promis d'étudier dans le détail chaque proposition. La commissaire a, par ailleurs, rappelé la volonté de l’Union européenne de participer aux investissements nécessaires au déploiement du haut-débit. Une enveloppe de 9,2 milliards pourrait être allouée à cette mission.

01Net

Rentrée « numérique » dans les collèges du département du Rhône
Mercredi, 07/09/2011 - 01:00

Le Département du Rhône continue d’investir dans l’équipement des établissements. Les professeurs qui expérimentent les nouvelles technologies sont satisfaits mais des freins demeurent.

« Les élèves peuvent davantage travailler en autonomie, pour écrire faire des exercices ou utiliser le dictionnaire. Ils sont plus performants, plus concentrés. Ils peuvent aussi s’autocorriger », apprécie Christiane Chyderiotis. Cette professeur de français au collège Charcot (Lyon 5 e) utilise depuis le mois de mars des iPad avec une classe de cinquième. « Nous gagnons du temps par rapport à une connexion avec un ordinateur, nous pouvons partager des documents, économiser des photocopies… ». L’enseignante remarque que des élèves en difficulté, ou qui n’aiment pas écrire, obtiennent de meilleurs résultats.

Cet aspect est aussi souligné par Luc Ruivard. « On arrive à récupérer des élèves qui décrochent ». Ce professeur de mathématiques au collège de Sainte-Foy-l’Argentière utilise une classe « ultramobile », à savoir trente PC portables. « Cela leur permet d’avancer à leur rythme. C’est un outil formidable pour gérer l’hétérogénéité ».

Il y a dix ans, Yves-Armel Martin, directeur du centre Erasme, a initié la classe.com. Ce site de référence a signé le début d’une politique « numérique » volontariste du Département. « Sur la classe.com, le cahier de textes peut être consulté par les parents séparés, les professeurs de langues peuvent mettre en pièce jointe des documents audio. Internet devient une sorte de trait d’union entre l’école et chez soi » note-t-il.

Petit à petit, les nouveaux outils informatiques modifient la vie des classes. Danielle Chuzeville, vice-présidente du conseil général chargée des collèges est très optimiste. « D’ici quatre ou cinq ans, l’élève arrivera avec son propre PC, comme les calculatrices ».

Il y a tout de même des bémols. Ainsi les deux enseignants évoquent l’aspect « chronophage » de la technique. Chacun d’eux dispose seulement d’une heure supplémentaire pour gérer l’aspect numérique dans leur collège. Plus largement, un bilan de l’expérimentation classe mobile au collège Victor-Grignard reste en demi-teinte. Certes, les enseignants ont conscience de grands potentiels en termes de partage, d’animation, d’attractivité, de stimulation des élèves. Mais ils expriment aussi le sentiment d’une remise en cause profonde des méthodes d’enseignement, l’ouverture de l’école sur le monde numérique les déstabilise. Ils craignent une perte de contrôle sur l’activité des élèves. La représentante du Conseil général ne nie pas le frein. « On se heurte actuellement à une demande peu importante de la part des enseignants. L’éducation n’a pas les moyens de les former », dit-elle en assurant que sa collectivité peut équiper bien plus de classes si on lui demande.

Le Progrès

Le tri sélectif s'applique aussi aux fichiers informatiques
Mardi, 06/09/2011 - 01:10

Les données inutilisées ralentissent le fonctionnement des ordinateurs. Pour repérer et trier ces dernières de manière optimale, il est intéressant de s'inspirer du tri des déchets réalisé dans la vie réelle.

Les ordinateurs contiennent pour la plupart d'importantes masses de données inutilisées, qui ralentissent leur fonctionnement, et provoquent par là même une augmentation de la consommation en électricité. Pour parvenir à régler ce problème, Ragib Hasan and Randal Burns, chercheurs à l'université John Hopkins, proposent plusieurs méthodes d'identification et de tri de ces dossiers inutilisés. En s'inspirant des méthodes de la vie réelle, ils dressent une sorte de pyramide des priorités, depuis la méthode la plus intéressante, jusqu'à celle qui ne doit être utilisée qu'en dernier recours.

  • Réduire la quantité de fichiers en privilégiant une action auprès des développeurs

La première de ces solutions est d'agir à la base. Il faudrait ainsi inciter les éditeurs de logiciel à optimiser la taille et le nombre de fichiers créés via l'installation des logiciels en question. Autre solution, qui doit là encore être à l'initiative des éditeurs : subdiviser les données de fonctionnement des logiciels en groupes de données plus restreints. Ces groupes pourraient ensuite être réutilisés par d'autres logiciels, de manière indépendante, permettant ainsi de limiter la démultiplication d'un même fichier. Le processus porte le nom de "déduplication des données". De même, le recyclage et la récupération des données d'un logiciel voué à être supprimé sont des pistes explorées, même si moins recommandées.

  • Ne supprimer les dossiers qu'en dernier recours

Etonnamment, la suppression pure et simple des données en question constitue le dernier recours, du fait de la quantité d'énergie qu'elle nécessite. A défaut de pouvoir l'éviter, celle-ci pourrait prendre la forme d'un "enfouissement automatique". Le stockage des données inutilisées se ferait dans un dossier spécifique, qui les effacerait automatiquement au bout d'un certain laps de temps. La question qui émerge est la suivante: étant donné la capacité toujours croissante des périphériques de stockage, pourquoi ne pas simplement transférer les données sur ceux-ci, pour ensuite faire du tri lorsque nécessaire ? Pour les chercheurs une telle méthode réduit l'espérance de vie des périphériques en question, en plus de n'être pas viable à long terme pour peu que la quantité de données soit trop importante pour le périphérique lui-même.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanotubes de peptides au diamètre parfaitement contrôlé
Mercredi, 07/09/2011 - 10:38

Pouvoir contrôler la taille des nano-objets dans le domaine des nanotechnologies est d'une importance capitale. Cette taille module en effet les propriétés physiques de ces matériaux. Mais jusqu'à présent, les tentatives de contrôle de la taille des architectures par modification de la brique unitaire se sont souvent soldées par des échecs. C'est dans ce contexte que des chercheurs du CEA-iBiTec-S (Institut de Biologie et de Technologies de Saclay), du CNRS et d'Ipsen se sont intéressés à une petite molécule, le Lanréotide, qui est un octapeptide cyclique, c'est-à-dire un peptide composé de 8 acides aminés liés successivement et formant un anneau. Analogue de l'hormone naturelle qu'est la Somatostatine, le Lanréotide, classiquement utilisé comme médicament, possède la propriété de s'assembler dans l'eau en dimères, c'est-à-dire en molécules composées de deux sous-unités. Or ce type de structures auto-assemblées constitue une approche intéressante pour la synthèse de nanomatériaux, la forme et la taille de ces systèmes étant principalement conditionnées par la structure des briques de bases.

Supposant que les acides aminés assurant les contacts entre peptides régissent le rayon de courbure des nanotubes, les chercheurs ont alors conçu un modèle géométrique qui explique dans quelle mesure une modification de quelques angströms sur la structure de base du peptide peut influer sur la taille du nanotube. En utilisant ce modèle, ils peuvent ainsi rationaliser, voire prédire, les diamètres des nanotubes générés. Restait alors à procéder à une vérification expérimentale qui a consisté à synthétiser des analogues du Lanréotide en substituant de manière ciblée un acide aminé par un autre.

Il s'agissait en effet pour les chercheurs de démontrer que la modification d'un acide aminé impliqué dans un contact entre peptides entraîne une variation du diamètre des nanotubes de manière contrôlée. Ils ont obtenu ainsi une gamme de 17 nanotubes allant de 10 à 36 nm de diamètre en fonction de l'acide aminé incorporé. La caractérisation de ces différentes architectures, réalisée par microscopie électronique et diffusion de rayons X au synchrotron SOLEIL, a permis de démontrer que le diamètre de ces nanotubes est effectivement corrélé à la taille de l'acide aminé introduit et qu'un peptide donné forme spontanément des nanotubes d'un seul diamètre.A terme, ces systèmes auto-assemblés biomimétiques pourraient être utilisés comme moules. Les chercheurs ont montré que l'utilisation de ces moules permet de maîtriser la production de nanotubes de silice de diamètre spécifique, ce qui ouvre la voie à un large panel d'applications dans le domaine des nanotechnologies.

Bulletins Electroniques

Le premier robot humanoïde de l'espace tweet
Samedi, 03/09/2011 - 01:00

Le premier robot-astronaute humanoïde a été mis sous tension dans la station spatiale internationale et a même commencé à tweeter, rapporte BBC News.

Robonaut 2, ou simplement R2, ressemble à un astronaute dépourvu de jambe. Il se compose d’un torse, de deux bras et deux mains à forme humaine, ainsi que d’un casque doré avec visière en guise de tête. Son poids est de 136 kilogrammes. «L’homme de fer» devrait toutefois recevoir ultérieurement des membres inférieurs afin de pouvoir se mouvoir dans les coursives de l’ISS. R2 peut aussi être fixé sur un module d’exploration appelé Centaur 2 afin d’explorer la surface de la Lune ou de mars. Mais pour l’instant, il reste fixé sur une base statique.

«R2 est le premier robot humanoïde dans l’espace», affirme la Nasa. Il a fallu 15 ans à la Nasa et à General Motors pour développer un tel système conçu pour travailler avec les humains, les aider à l’intérieur et à l’extérieur de la station. Il existe actuellement quatre Robonauts sur Terre, des modèles R1, mais R2 est encore «plus avancé».

Selon la Nasa, «le robot est capable d’effectuer des mouvements quatre fois plus rapide que les R1, il est plus compact, a plus de dextérité, et dispose de meilleurs capteurs». Le but principal de l’expérimentation est d’évaluer les capacités du robot en apesanteur. «La Nasa espère qu’il effectuera bientôt une sortie dans l’espace pour assister ses collègue humaine», ajoute BBC News.

A peine activé, R2 a rédigé son premier tweet après activation en référence à un autre moment historique de la conquête spatiale : «Ces électrons font du bien ! Un petit pas pour l’Homme, un saut de géant pour l’homme de fer.»

Le compte Twitter du robot (@astrorobonaut), déjà actif avant qu’il ne «se réveille», est maintenant suivi par plus de 45.000 followers. Robonaut 2 «tweet activement» et «il répond aux questions et souhaite même des joyeux anniversaires», constate le site d’information britannique.

Selon le site ComputerWorld, après une année d’évaluation, R2 pourrait être chargé d’effectuer des tâches ingrates telles que «le ménage et la maintenance de base dans la station», en plus d’aider les astronautes durant leurs sorties. Si l’expérimentation s’avère un succès, d’autres robots du même type devraient être envoyés dans l’espace pour effectuer de la maintenance sur les satellites. Ils pourraient être aussi transportés sur Mars pour préparer l’arrivée des humains sur la planète rouge.

L’agence spatiale américaine assure que le projet ne vise pas à remplacer un jour les humains pour explorer l’espace, mais plutôt à les accompagner et les soutenir. R2 a déjà un avantage, il peut rester éternellement dans l’espace. D’ailleurs, «il n’est pas prévu de ramener un jour le robot sur Terre», conclut BBC News.

SLATE

^ Haut
Matière
Matière et Energie
Produire du biogaz et absorber du CO2 grâce à des micro-algues
Jeudi, 08/09/2011 - 07:44

Utiliser la digestion de micro-algues par des bactéries pour produire du biométhane biocarburant apparaît comme une solution prometteuse pour l'avenir. Avec une croissance plus rapide que les autres végétaux et une utilisation plus efficace de la lumière, les micro-algues présentent en effet un bon rendement énergétique. Depuis plusieurs années, l'équipe projet Biocore de l'Inria Sophia Antipolis-Méditerranée travaille sur le sujet en collaboration avec ses partenaires de l'Inra et de l'Ifremer.

Et visiblement, les résultats sont au rendez-vous puisque deux brevets ont déjà été déposés, en 2006 puis en 2009. Ils concernent un procédé de méthanisation des micro-algues qui permet d'utiliser des résidus de la digestion, comme l'ammoniac et les engrais phosphatés, pour nourrir les algues elles-mêmes. Le couplage "production culture" permet ainsi de limiter les rejets dans l'environnement. De plus, le gaz carbonique fixé par les micro-algues au cours de la photosynthèse est valorisé.

Aujourd'hui, l'Inria est ses partenaires entament une seconde phase d'optimisation de ce procédé dans le cadre du projet ANR (Agence Nationale de la Recherche) Symbiose auquel participent également Ecosym, qui est un laboratoire du CNRS, et l'entreprise Naskéo Environnement, spécialisée dans la valorisation des déchets. Cela passe notamment par la modélisation de la croissance et du comportement des populations d'algues et de bactéries. Ainsi l'équipe Biocore de l'Inria a conçu des modèles du comportement des micro-algues et des bactéries, modèles qui, dans un second temps, ont été implantés dans des simulateurs numériques.

Grâce à ces derniers, il est alors possible de réaliser des expérimentations in silico à moindre coût, par exemple estimer les meilleures conditions d'exposition au soleil ou d'alimentation des algues pour la production d'une quantité élevée de biogaz. La mise en place d'un premier système pilote, en extérieur, composé d'un bassin de culture ovoïde et d'un méthaniseur va permettre ainsi de valider en conditions réelles les résultats obtenus en laboratoire.

Restera ensuite à franchir une nouvelle étape, celle du pilote industriel. Pour l'heure, une autre piste est également explorée dans le cadre du projet Symbiose. Il s'agit d'utiliser les micro-algues pour "nettoyer" les fumées d'usines. Les micro-algues peuvent en effet ingérer une proportion de CO2 pour leur croissance. Aussi pourrait-on les utiliser dans une première étape comme une sorte de filtre, avant de les réutiliser dans une seconde pour produire du biogaz ou du biocarburant.

Bulletins Electroniques

Des cellules photovoltaïques à vaporiser en vente dès 2013 ?
Jeudi, 08/09/2011 - 07:35

Mitsubishi Chemical a développé une technologie permettant de vaporiser, à l'instar des bombes de peinture, des cellules photovoltaïques sur des supports tels que des bâtiments ou des châssis de voitures. Ces cellules photovoltaïques pourraient en outre fonctionner sur les structures arrondies, comme par exemple sur les cheminées d'usines ou les murs anti-bruit encadrant les autoroutes, ainsi que sur des surfaces flexibles, comme les vêtements.

Ces nouvelles cellules photovoltaïques utilisent des composés de carbone, alors que la plupart des produits actuels utilisent du silicium cristallin emprisonné entre des couches de verre. Ces composés de carbone fonctionnent, une fois séchés et solidifiés, comme des semiconducteurs. Ils génèrent alors de l'électricité en réaction à la lumière.

De nombreux chercheurs essaient d'augmenter au maximum le rendement de la conversion d'électricité des cellules photovoltaïques en spray. Mitsubishi a ainsi développé le premier prototype au monde capable de convertir la lumière en électricité avec un rendement pratique de 10,1 % (un chercheur de l'Université du Texas travaillant sur un projet similaire estimait le seuil de viabilité commerciale à 10 %. Même si ce niveau de conversion reste en-deçà des 20 % obtenus par les cellules conventionnelles au silicium, il est comparable à celui des cellules photovoltaïques à couche mince qui sont, elles, déjà sur le marché. En revanche, les couches de cellules photovoltaïques "en bombe" mesurent moins d'un millimètre de large, à comparer aux cellules conventionnelles qui ont une largeur de plusieurs centimètres. Cette couche pèse donc plus de dix fois moins qu'un panneau à silicium cristallin de même taille.

Mitsubishi Chemical va travailler avec des fabricants automobiles afin de développer des cellules photovoltaïques qui permettront à une voiture électrique de rouler 10 kilomètres avec une charge de 2 heures. Le procédé de fabrication de ces cellules étant très simple, la production en série du produit ne devrait pas être un obstacle et permettrait de diviser par dix le coût actuel de fabrication. L'entreprise souhaite commercialiser des produits basés sur cette technologie au printemps 2013, avec pour cibles principales les fabricants automobiles et les producteurs de matériaux de construction.

Bulletins Electroniques

Une mousse qui dure, qui dure, qui dure… et qui s’effondre à volonté !
Lundi, 05/09/2011 - 01:00

Des solutions savonneuses qui moussent, cela n’est pas extraordinaire ; une mousse de savon stable pendant plusieurs mois, même à 60°C, cela l’est davantage. D’autant plus si cette mousse est produite à partir d’une substance naturelle et peut être rapidement détruite en modifiant seulement son environnement thermique, et ceci de façon réversible. C’est en résumé le travail réalisé par des équipes de l’INRA, du CEA et du CNRS, qui ouvre de nouvelles applications susceptibles d’intéresser les fabricants de cosmétiques ou de détergents. Les résultats de ces recherches sont publiés dans la revue "Angewandte Chemie" du 29 août 2011.

Du fait de leur texture particulière et des molécules qui les constituent, les mousses ont souvent des vertus détergentes. En physico-chimie, les molécules, qu’il faut absolument disperser dans l’eau pour faire une mousse, sont dites « tensioactives ». Elles se placent spontanément entre l’eau et l’air, ce qui permet de stabiliser des films d’eau très fins autour des bulles d’air de la mousse, selon une architecture particulière. De par leurs propriétés, les mousses ont de nombreuses applications dans des secteurs comme le nettoyage, la décontamination, la cosmétique, la lutte contre la pollution ou les incendies, l’agroalimentaire, ou l’extraction de ressources naturelles.

Les chercheurs de l’INRA, du CEA et du CNRS ont étudié ici une molécule tensioactive particulière, l’acide gras 12-hydroxy stéarique, issue de l’huile de ricin. Pour disperser cette molécule initialement insoluble dans l’eau, ils lui ont ajouté un sel. Ils ont ensuite démontré les propriétés très avantageuses de ce tensioactif : même en faible quantité, il produit une mousse abondante et, surtout, stable pendant plus de 6 mois, contrairement aux tensioactifs classiques qui ne stabilisent les mousses que quelques heures. Les chercheurs ont observé et expliqué ce phénomène par microscopie et diffusion de neutrons, permettant de suivre in situ l'évolution de la structure à l'échelle nanométrique.

Ainsi, ils ont montré que dans une gamme de températures moyennes, entre 20 et 60°C, l’acide gras 12-hydroxy stéarique, mélangé avec le « bon » sel, se disperse dans l’eau sous forme de tubes de quelques microns. Ces tubes forment alors une structure parfaitement stable et rigide dans les films d’eau très minces placés entre les bulles d’air, ce qui explique la tenue de la mousse.

Au-delà de 60°C, ces tubes fusionnent sous la forme d’assemblages sphériques mille fois plus petits (quelques nanomètres), que les chercheurs appellent des « micelles ». La mousse auparavant stable s’effondre alors car la structure rigide disparaît. Les chercheurs ont montré que cette transition d’un assemblage de tubes à un assemblage de micelles est « réversible ». En effet, si on augmente la température d’une mousse, son volume va diminuer dès la formation de micelles, et si on rabaisse la température entre 20 et 60°C, les tubes se reforment et la mousse se stabilise à nouveau (pour retrouver le volume de mousse initial, il faudrait tout de même réinjecter de l’air).

La constitution d’une mousse aussi stable avec une molécule tensioactive aussi simple et d’origine naturelle est une première. La température de transition entre l'état où la mousse contient des tubes, et l'état « micelles », dépend du sel choisi pour disperser la molécule dans l’eau, ce qui accroît son potentiel d’utilisation.

Cette chimie verte, puisqu’elle est issue d’une bio-molécule, ouvre des perspectives intéressantes car les mousses sont amplement utilisées dans l’industrie. Il serait par exemple possible de produire des détergents ou des shampoings dont on peut contrôler la quantité de mousse par simple effet de la température et ainsi en faciliter l’évacuation. Certains produits cosmétiques nécessitent de nombreux éléments chimiques afin d’obtenir une mousse stable ; l’utilisation de l’acide gras 12-hydroxy stéarique permettrait de limiter la quantité d’éléments synthétiques tout en conservant les propriétés « moussantes »  plus longtemps.

INRA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La chaleur radioactive de la Terre chiffrée
Jeudi, 08/09/2011 - 07:51

Depuis sa formation il y a 4,5 milliards d'années, la Terre évacue peu à peu sa chaleur résiduelle et se refroidit. Néanmoins, de la chaleur continue d'être produite dans ses entrailles, le manteau terrestre en particulier, par la radioactivité d'isotopes instables – principalement l'uranium 238, le thorium 232 et le potassium 40. Quelle part représente aujourd'hui cette chaleur engendrée par radioactivité dans le flux de chaleur relâché vers l'espace ? La collaboration KamLAND, qui regroupe plus de 60 chercheurs japonais et américains autour du détecteur d'antineutrinos Kamioka, au Japon, apporte pour la première fois une estimation quelque peu précise de cette contribution calorique.

On sait que la Terre évacue vers l'espace une puissance totale de 44,2 térawatts, à 1 térawatt près. La part due à la radioactivité était mal connue, car son calcul nécessitait de faire des hypothèses précises sur la composition interne du globe (proportions des différents éléments et de leurs isotopes, leur répartition spatiale, etc.). Le comptage des neutrinos émis dans les chaînes de désintégrations radioactives constitue un moyen un peu plus direct et moins théorique de mesurer la chaleur terrestre produite par radioactivité. En effet, les neutrinos interagissent très peu avec la matière et traversent donc la planète de part en part sans pertes ou presque. La difficulté est de les détecter, condition sine qua non pour les dénombrer et ainsi évaluer l'énergie totale dégagée par la radioactivité terrestre.

La collaboration KamLAND a utilisé les données de son détecteur recueillies entre 2002 et 2009 (un total d'environ 110 « géoneutrinos » détectés), ainsi que les mesures effectuées par un autre détecteur de neutrinos, Borexino, en Italie. Elle en a déduit que les désintégrations de l'uranium et du thorium produisent 20 térawatts, à environ 9 térawatts près. Si l'on ajoute la radioactivité due au potassium 40, dont on sait par ailleurs qu'elle produit 4 térawatts (les neutrinos qu'elle émet sont hors du domaine de sensibilité des détecteurs Kamioka et Borexino), on arrive à un total de 24 térawatts de chaleur radioactive (à 9 térawatts près). Ces résultats montrent avec certitude que la radioactivité ne rend pas compte à elle seule de la chaleur terrestre, et que la Terre n'a pas fini d'évacuer la chaleur acquise lors de sa formation.

Pour La Science

L'Europe encourage l'innovation dans l'automobile
Dimanche, 04/09/2011 - 01:00

A qui pourrait penser que l’automobile du futur pâtit d’une certaine inertie en Europe, voici de quoi évoluer sur le sujet. Bruxelles vient de nouveau de se prononcer pour une voiture plus neutre pour l’environnement. Elle pousse notamment les constructeurs à innover en conséquence. Le point sur les principales orientations en cours.

"L’Union européenne entend encourager les constructeurs automobiles à investir dans les technologies de réduction des émissions de CO2", a annoncé clairement la Commission européenne, le mardi 30 août. Même si elle l'a déjà fait par le passé, elle réaffirme ainsi sa volonté de lutter contre le changement climatique avec trois objectifs à atteindre d’ici 2020 : réduire ses émissions de gaz à effet de serre de 20 %, produire 20 % de son énergie à partir de sources renouvelables et réduire sa consommation énergétique de 20 %.

Et pour y parvenir, l’Europe pousse les industriels de l’automobile à évoluer en ce sens. Ils sont une cible privilégiée. Aujourd’hui, la circulation automobile est responsable de 12 % des émissions européennes de CO2. Pour respecter le plan Europe 2020, les voitures immatriculées dans les pays membres devront dégager moins de 95g/km en 2020 et 130g en 2013.

Pour motiver les industriels, la Commission use de la carotte et du bâton. Le fabricant devra payer un malus pour chaque gramme au kilomètre au dessus des normes. Ce malus s'élève à 5 euros pour le premier gramme de dépassement, 15 euros pour le second, 25 euros pour le troisième, et 95 euros pour chaque gramme en plus. À partir de 2019, dès le premier gramme de dépassement, il leur en coûtera 95 €.

  • Des innovations certifiées

Côté incitation positive, c’est l’innovation qui est favorisée. Une nouvelle directive votée le 25 juillet 2011 encourage les constructeurs à investir dans de nouvelles technologies de réduction des émissions. Si un industriel parvient à obtenir une "éco-innovation de plus de 7 grammes de CO2 au kilomètre". Par exemple, les panneaux solaires convertissant la lumière du soleil en énergie électrique peuvent être considérés comme une éco-innovation. En revanche, un gain énergétique pour le système embarqué de musique ne pourra pas être reconnu comme telle.

Les innovations reconnues seront certifiées et des encouragements financiers seront mis en œuvre, même si on ignore encore le montant. Les constructeurs pourront bénéficier des prêts préférentiels pour financer leur recherche et développement. Et l'Association des constructeurs automobiles européens souligne que déjà des projets automobiles électriques et hybrides ont été financés par l'Europe.

En parallèle, le programme européen LIFE+ est doté d’un budget total de 2,143 milliards d’euros. Cet instrument financier a pour but de soutenir des innovations environnementales. Dans ce cadre, les constructeurs pourront être aidés dans leur démarche. Aujourd’hui, 244 millions d’euros ont été apportés à 183 projets en Europe. Renault, par exemple, en bénéficie déjà pour son projet ICARRE 95 qui vise à recycler 95 % des véhicules usagers.

L’autre mesure réitérée dans le communiqué du mardi 30 août est la réduction des quotas d’émissions de CO2 par les industriels. Les quotas ont été lancés en 2005 et diminuent progressivement jusqu’à 2020. Une baisse de 21 % est prévue.  Le plafond descend et les entreprises pourront moins acheter de quotas. Et pour ne pas débourser pour acheter des crédits à d’autres entreprises, l’éco-innovation devient indispensable dans toutes les filières.

L'Usine Nouvelle

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des origines génétiques à l’infertilité masculine
Jeudi, 08/09/2011 - 07:59

Chaque année en France, faute de pouvoir concevoir naturellement, 500 000 couples consultent pour être aidés dans cette démarche. S’il existe de nombreuses causes qui expliquent l’infertilité dans un couple, ces dernières années, l'augmentation régulière du nombre de cas est en grande partie due à l'âge plus tardif de la première grossesse. Selon les experts, 40 % environ des causes d'infertilité sont dues aux femmes, 30 % aux hommes et 15 % aux deux partenaires.

Afin d’étudier la fertilité masculine, Gary Cherr et ses collègues de l’université de Californie en collaboration avec l’Université Simon Fraser au Canada, l'Université de Leicester, l’Université médicale de l'Anhui en Chine et l'Université de l'Illinois, ont étudié 500 couples de jeunes mariés chinois. Ils ont constaté que les hommes ayant hérité du gène muté DEFB126 à la fois de leur père et de leur mère avaient plus de mal à procréer. En effet, ce dernier code pour une protéine de surface qui aide le spermatozoïde à franchir le col de l’utérus. Ainsi, chez ceux qui possèdent une double copie du gène altéré, les gamètes meurent avant d’avoir pu atteindre le lieu de la fécondation (trompes de Fallope).

En extrapolant leurs résultats, les chercheurs ont estimé que 20 % de la population masculine mondiale était porteuse de cette mutation génétique qui fragilise les spermatozoïdes. Toutefois, cela signifie que ces derniers sont infertiles, mais leurs gamètes ont 20 % moins de chance d’atteindre l’ovule. Suite à ces travaux, il serait tout à fait envisageable de mettre en place un test pour détecter les mutations sur ce gène. Ainsi, en diagnostiquant plus rapidement les hommes porteurs, on pourrait plus rapidement conseiller au couple d’avoir recours à une fécondation in vitro (FIV)…

Information Hospitalière

Un anti-douleur contre le syndrome de l'intestin irritable ?
Mercredi, 07/09/2011 - 10:59

Maux de ventre, constipation, diarrhée, ballonnements : si vous souffrez souvent de ces symptômes, peut-être êtes-vous atteint du syndrome de l'intestin irritable ou colopathie fonctionnelle. Or les douleurs abdominales qui l'accompagnent sont désagréables, souvent handicapantes. Aucun traitement n'est vraiment efficace, car on ignore en partie les causes de la maladie. Mais des chercheurs de l'Institut de génomique fonctionnelle à Montpellier et de l'Unité Pharmacologie fondamentale et clinique de la douleur à Clermont-Ferrand auraient découvert l'origine des douleurs abdominales, et espèrent contribuer ainsi au développement d'un nouveau médicament.

Plus de dix pour cent des Français, surtout les femmes, souffriraient de cette maladie, et l'on estime que seules 10 à 15 pour cent des personnes atteintes consultent un médecin pour cela. Si ce syndrome n'entraîne pas de pathologie grave ou d'altérations des intestins, il peut être associé à d'autres troubles : migraine, fatigue chronique ou anxiété. Une modification de la vitesse de transit des aliments dans le côlon – engendrant soit une constipation soit une diarrhée – et une sensibilité excessive de la paroi intestinale couplée aux ballonnements sont en cause, ce qui entraîne des douleurs du côlon.

Les physiologistes français se sont intéressés aux mécanismes de la douleur dans ce syndrome et ont donc étudié les neurones qui innervent la muqueuse du côlon. On ressent en effet une douleur quand les « centres de la douleur » dans le système nerveux central (cerveau et moelle épinière) sont stimulés par des neurones dits sensoriels. Pour ce faire, les chercheurs ont identifié les neurones sensoriels qui innervent le côlon de rats, en injectant des molécules fluorescentes dans la paroi intestinale. Les terminaisons nerveuses connectées au côlon captent ces molécules qui remontent jusqu'à la moelle épinière via les axones des neurones sensoriels.

Les biologistes ont ensuite analysé ces neurones et constaté qu'ils contenaient un grand nombre de canaux ioniques Cav3.2, comparé à d'autres neurones non impliqués dans ce mécanisme. Or ces canaux participent à la douleur dans autres régions de l'organisme, par exemple les articulations et les muscles. Ces canaux permettent aux ions calcium de passer à travers la membrane des neurones : quand ils s'ouvrent, ils augmentent l'excitabilité des neurones.

En outre, les chercheurs ont testé leur hypothèse sur un modèle animal mimant le syndrome de l'intestin irritable : du butyrate, une molécule perturbant le transit, est administré par voie orale dans le côlon de rats qui souffrent alors de crampes abdominales. En bloquant l'ouverture des canaux calciques avec une substance pharmacologique injectée dans le sang ou en empêchant leur synthèse par une modification du gène correspondant, les rats avaient moins de crampes douloureuses.

Pour La Science

Un nouvel anticoagulant plus performant contre les AVC
Mercredi, 07/09/2011 - 10:26

A l'occasion du Congrès de la société européenne de cardiologie à Villepinte, une équipe américano-suédoise de chercheurs a démontré que l'Apixaban (Eliquis), un anticoagulant expérimental, serait plus efficace pour réduire le risque d'accidents vasculaires cérébraux (AVC) chez les personnes atteintes de fibrillation auriculaire que les traitements standard utilisés actuellement pour ce type de pathologie.

La fibrillation auriculaire, aussi appelée arythmie, est un trouble du rythme cardiaque caractérisée par des battements irréguliers et une contraction inefficace du cœur. Cette pathologie peut entraîner la formation de caillots dans le cœur. Ceux-ci peuvent atteindre le cerveau et provoquer des AVC. Selon de récentes études épidémiologiques, les personnes atteintes de cette maladie ont cinq fois plus de risques d’être victime d'un AVC. Depuis les années 50, le traitement standard repose sur la prescription de warfarine, un médicament qui fluidifie le sang.

Les chercheurs américains et suédois ont testé chez l'homme, sur 18 201 patients dans 39 pays différents, l’efficacité de l'Apixaban, une nouvelle molécule qui agit sur une des enzymes à l’origine de la formation de caillots sanguins, pour déterminer s'il était au moins aussi efficace que les médicaments traditionnels. Pendant 2 ans, ces patients ont reçu (selon une procédure en "double aveugle") de l’Apixaban ou de la Warfarine. Après analyses des données obtenues en fonction des traitements, les chercheurs ont observé que la nouvelle molécule était plus efficace. Elle permet de réduire de 21 % les risques d’AVC et d’embolie pulmonaire par rapport aux résultats obtenus avec la warfarine, et de 11 % le taux de mortalité. En outre, ce nouveau traitement nécessite un suivi médical allégé et est mieux toléré par l’organisme.

NEJM

Des lymphocytes impliqués dans la prévention des maladies inflammatoires chroniques de l'intestin
Mardi, 06/09/2011 - 20:50

L'appareil digestif pose un problème particulier pour le système immunitaire : comment tolérer les constituants inoffensifs du tube digestif (la flore et les nutriments) tout en protégeant l'organisme contre des infections par des micro-organismes pathogènes ? En absence d'une telle tolérance, une inflammation chronique de l'intestin, trouvée chez les patients atteints de MICI, se développe. En 2006, l'équipe avait montré le rôle important d'une population de lymphocytes régulateurs relativement peu étudiée (lymphocytes T CD8+) dans la prévention de l'inflammation intestinale (Gastroenterology 131, 1775-1785).

La publication parue cette semaine met en évidence le rôle majeur du facteur de transcription « AIRE » dans la prévention, par les lymphocytes T régulateurs CD8+, de l'inflammation intestinale dans un modèle expérimental. Ce facteur active l'expression des antigènes des tissus (intestin, pancréas, foie, etc.) dans le thymus, lieu de développement et de différenciation des lympocytes T. Dans le thymus, les lymphocytes « apprennent » à  reconnaître et différencier  différents antigènes : les antigènes synonymes de dangers pour l'organisme (agents infectieux, virus, etc) et les antigènes spécifiques de nos tissus, qui ne doivent pas être considérés, eux, comme des éléments à « combattre ».

Pour parvenir à montrer l'implication du facteur AIRE, les chercheurs ont d'abord isolé des lymphocytes T régulateurs chez des souris n'exprimant pas le gène AIRE (souris « knock out »). Ils ont testé leur fonction in vitro et ont observé que ces cellules agissaient de la même façon que les lymphocytes  de souris normales ; elles « régulaient » des réponses immunitaires. En absence du facteur AIRE, les lymphocytes T régulateurs d'intérêt conservent donc leur fonction immunosuppressive. En revanche, in vivo ces cellules étaient incapables de prévenir l'inflammation intestinale. En absence d'AIRE, les lymphocytes T régulateurs censés reconnaitre spécifiquement les antigènes intestinaux et réguler par conséquent l'inflammation dans le tube digestif, ne se développent donc pas dans le thymus.

AIRE joue donc un rôle fondamental dans la sélection des lymphocytes T régulateurs pendant leur développement dans le thymus, protégeant ainsi l'organisme contre des pathologies causées par le système immunitaire. L'équipe a donc établi un lien entre la sélection de ces lymphocytes dans le thymus et leur fonction dans l'intestin. Une piste thérapeutique serait de trouver, sur la base de cette information importante, des moyens d'activer les cellules régulatrices CD8+ et de réduire ainsi l'inflammation dans l'intestin. L'identification du rôle d'AIRE dans la prévention de l'inflammation chronique de l'intestin pourrait donc concourir au développement de nouvelles approches cliniques pour traiter les MICI.

CNRS

Du sang créé à partir de cellules souches
Mardi, 06/09/2011 - 01:00

Des Français ont réussi à fabriquer des globules rouges humains à partir de cellules souches et à les transfuser.

C'est une étape décisive dans la recherche de substituts sanguins. Transfusés pour la première fois chez l'homme, des globules rouges fabriqués en laboratoire à partir de cellules souches se sont montrés aussi performants que des globules naturels. Ces résultats, obtenus par l'équipe du Professeur Luc Douay (hôpital Saint-Antoine, Université Pierre et Marie Curie, Paris) dans le cadre d'un partenariat avec l'Établissement français du sang, viennent d’être publiés dans la revue spécialisée Blood, organe de la société américaine d'hématologie.

Avec les progrès de la médecine et le vieillissement de la population, les besoins transfusionnels sont en constante augmentation dans la plupart des pays. Actuellement, chaque année, 90 millions de culots globulaires sont nécessaires dans le monde, et 500 000 personnes sont transfusées en France. Pour prévenir les inévitables pénuries des années à venir, de nombreux chercheurs se sont lancés dans le défi du sang artificiel. Mais jusqu'ici, les diverses tentatives se sont soldées par des échecs. Ainsi des hémoglobines artificielles, qui après avoir été testées sur des milliers de patients, se sont révélées toxiques pour le cœur, avec un risque accru de 30 % de décès par infarctus. La publication de ces données, en 2008, a sonné le glas de cette génération de molécules, dont certaines étaient déjà en cours de commercialisation.

  • Une première mondiale chez l'homme

C'est une toute autre approche, utilisant des cellules souches, qu'a choisi le Professeur Douay. Ces dernières années, les travaux préliminaires de son équipe, pionnière sur le sujet, ont montré que plusieurs types de précurseurs pouvaient être cultivés et différenciés en laboratoire pour obtenir des globules rouges : cellules issues de sang de cordon, de la moelle osseuse, du sang périphérique ou cellules embryonnaires, voire cellules IPÉS - ou cellules souches adultes pluripotentes, qui offrent d'aussi riches possibilités que les cellules souches embryonnaires.

Pour cette première mondiale chez l'homme, les chercheurs français ont fait appel à des cellules souches adultes provenant d'un donneur de cellules souches pour une greffe de moelle osseuse. Celles-ci ont été cultivées dans un milieu adapté (avec un cocktail de facteurs de croissance) pour favoriser leur multiplication et les diriger vers un destin de globule rouge. En trois semaines, 100 milliards de réticulocytes -ultime étape avant les globules rouges- ont ainsi été obtenus. Marquées avec du chrome radioactif (pour que les chercheurs puissent suivre leur devenir), ces précieuses cellules ont été injectées au volontaire. Là, elles ont terminé leur maturation et ont survécu aussi longtemps que des globules rouges naturels.

  • Les avantages du sang de cordon

«Avec cette expérience, nous avons établi la preuve de concept, se réjouit le Professeur Douay. Le défi est maintenant de passer à une phase industrielle». De fait, ce premier test a été réalisé avec un échantillon de 2 millilitres soit 100 milliards de globules rouges, quand une poche de sang représente un volume de 400 ml et 2000 milliards de cellules.

En vue d'une production à grande échelle, les chercheurs français envisagent plusieurs possibilités, dont celle de se tourner vers les cellules de sang de cordon, dont la capacité de prolifération est bien supérieure à celle des cellules souches adultes. «D'après nos résultats en laboratoire, un sang de cordon pourrait générer 50 à 100 culots globulaires» précise le Professeur Douay.

L'équipe planche aussi sur l'optimisation des systèmes de compatibilités entre donneurs et receveurs. «Il n'y a pas seulement les groupes ABO, poursuit l'hématologue. Il existe au total plus de 300 antigènes, mais en les choisissant astucieusement, on peut couvrir 99 % des besoins avec seulement trois types de sang. Ceci sera possible en partant de cellules souches pluripotentes adultes (iPS). C'est la voie en laquelle nous mettons le plus d'espoir». Si cette stratégie confirme ses promesses devant les années à venir, elle sera, selon le Professeur Douay, d'abord proposée chez les polyimmunisés, ces patients qui ont reçu tant de transfusions qu'ils ont développé de multiples anticorps et rejettent tous les globules qui leur sont injectés. En France, ils représentent 1 à 3 % des transfusés, soit 25.000 transfusions par an. D'ici là, les dons de sangs restent toujours indispensables.

Le Figaro

Dis-moi ce que tu manges, je te dirai quelles bactéries tu abrites
Lundi, 05/09/2011 - 01:10

De nouvelles recherches montrent que suivant le régime alimentaire, des bactéries spécifiques se développeront fortement ou pas dans l'intestin humain.

  • Des groupes comme pour le sang

Récemment, des chercheurs du Laboratoire européen de biologie moléculaire (EMBL) ont découvert que les bactéries qui colonisent nos intestins constituent trois écosystèmes (entérotypes) différents nommés d’après le nom du microbe le plus représenté : Bacteroides, Prevotella ou Ruminococcus.

Il n’y avait pas jusqu’ici d’explications sur pourquoi tel ou tel groupe de bactéries intestinales prédominait chez un individu plutôt qu’un autre. Deux études, publiées dans la revue Science, apportent des premières indications.

Dans la première, des chercheurs de l'Université de Pennsylvanie mettent en évidence que les Bacteroïdes préfère l'intestin des personnes ayant un régime carné et riche en graisses saturées, contrairement à Ruminococcus qui apprécie plus l'alcool et les graisses polyinsaturées tandis que Prevotella se régale avec un régime riche en sucres.

  • Un rôle encore méconnu

Ces bactéries sélectionnent donc leur hôte, en partie, en fonction de son régime alimentaire, sur le long terme. Dans la seconde étude, une expérience sur dix sujets, les auteurs ont montré que les communautés bactériennes peuvent évoluer 24 heures après un changement de régime mais qu’il s’agit de modifications mineures puisque les entérotypes sont restés stables pendant les dix jours de l’étude.

Ces résultats préliminaires permettent de caractériser un peu plus ces groupes bactériens intestinaux. La compréhension des mécanismes en jeu est importante car un nombre croissant de travaux montre que ces bactéries jouent un rôle dans l’apparition de certaines pathologies comme l’obésité, les maladies chroniques inflammatoires du tube digestif ou auto-immunes.

Sciences et Avenir

Epilepsie et troubles cognitifs : une cause commune
Dimanche, 04/09/2011 - 01:10

Une équipe de l’Inserm vient de comprendre pourquoi certains patients atteints d’épilepsie du lobe temporal présentent des troubles cognitifs. La maladie entraîne la dégénérescence de quelques neurones dans cette région de l’hippocampe. Il s’ensuit une réorganisation des connexions entre les neurones, brouillant les messages transmis au cerveau. L’équipe a identifié une protéine impliquée dans ces perturbations qui se présente comme une cible thérapeutique intéressante pour traiter cette forme d’épilepsie et les troubles cognitifs associés.

  • L’épilepsie du lobe temporal, forme grave et fréquente

L'épilepsie affecte 1 à 2 % de la population. Elle se manifeste par des crises de natures variées (pertes de connaissance brusques, troubles du comportement, difficultés à s’exprimer troubles de la vision, mouvements anormaux, etc) liées à une hyperactivité anormale du cerveau. Les symptômes dépendent de la région du cerveau touchée par la maladie. Il n’y a donc pas une épilepsie mais des épilepsies. Parmi elles, l'épilepsie du lobe temporal est la forme la plus grave et la plus résistante aux traitements. Elle représente environ 30 % des cas chez l’adulte et peut se développer assez tardivement chez l’adolescent ou le jeune adulte suite à un choc traumatique ou encore une infection. En plus des crises, les patients souffrent parfois d’altérations cognitives qui peuvent être extrêmement invalidantes au quotidien. Afin de comprendre l’origine de ces troubles, l'équipe de Valérie Crépel (unité Inserm 901, INMED, Aix-Marseille Université) a étudié un modèle animal qui reproduit l’épilepsie humaine.

  • Remodelage aberrant des connexions inter neuronales

Le premier modèle animal de ce type d’épilepsie a été créé dans les années 80 par le même laboratoire. Il a déjà permis de montrer que les crises s’accompagnent de la dégénérescence de quelques neurones et que cela induit la réorganisation aberrante des réseaux neuronaux, notamment dans le gyrus denté. Située dans l'hippocampe, cette zone joue un rôle essentiel dans la mémoire spatiale et l’apprentissage. « La conséquence fonctionnelle de ces changements et une hyperexcitabilité neuronale et l’apparition de décharges qui favorisent les activités épileptiques », explique Valérie Crépel.

  • Des messages neuronaux brouillés

Les chercheurs ont donc essayé de comprendre les mécanismes conduisant aux troubles cognitifs observés chez certains patients atteints d’épilepsie temporale. En observant les activités électriques des cellules neuronales du gyrus denté des animaux modèles, ils ont constaté qu’elles émettaient des signaux aberrants pendant les crises mais également en dehors des crises. « Le patron de l'activité neuronale est très fortement perturbé. La réorganisation du réseau neuronal dans cette zone brouille le codage de l’information et la nature des messages par rapport à un cerveau sein », clarifie Valérie Crépel. En fait, un sous type de récepteur glutamatergique présent à la surface de ces cellules serait la cause de ces problèmes. « La réorganisation aberrante entraîne l’expression tout aussi aberrante de ce récepteur », précise Valérie Crépel. En inhibant ce récepteur chez l’animal, les chercheurs ont réussi à rétablir des fonctions nerveuses normales.

Coup double donc pour ces travaux ; ils ont permis de comprendre les mécanismes impliqués dans les troubles cognitifs et d’identifier une cible thérapeutique potentielle.

INSERM

Femmes : du danger, côté cœur
Samedi, 03/09/2011 - 01:10

En adoptant les mêmes comportements à risque que les hommes, les femmes présentent les mêmes risques d'infarctus précoces.

Contrairement à une idée reçue, ce ne sont pas les cancers, mais les maladies cardio-vasculaires qui sont la première cause de mortalité chez les femmes : ces pathologies sont à l'origine de 54 % des décès, dont 22 % sont de cause coronarienne (infarctus du myocarde) et 12 à 15 % des accidents vasculaires cérébraux. C'est pourquoi le thème "femmes et maladies cardio-vasculaires" a été l'un des fils rouges du congrès de l'European Society of Cardiology (ESC), à Villepinte (26-30 août). Et ce qui inquiète le plus les spécialistes, c'est la nette augmentation du nombre des infarctus survenant chez les femmes de moins de 50 ans.

Traditionnellement, les maladies coronariennes apparaissaient en moyenne chez la femme dix ans plus tard que chez l'homme. Ce décalage est lié à la protection conférée par les hormones (les oestrogènes) jusqu'au moment de la ménopause. Mais les choses sont en train de changer : en raison de l'augmentation très nette du nombre de femmes qui fument alors qu'elles prennent une pilule contraceptive, le risque de maladie cardio-vasculaire augmente très nettement chez les jeunes. Pour le professeur Bertrand, cardiologue au CHU de Lille et ancien président de l'ESC, "cette conjonction pilule et tabac est très cher payée, car elle multiplie par 20 le risque de développer une maladie cardio-vasculaire. La pilule seule n'est pas dangereuse, c'est l'association avec le tabac qui est inconsciente."

  • Temps précieux

Son cri d'alarme est relayé par le professeur Nicolas Danchin, cardiologue à l'hôpital européen Georges-Pompidou (Paris) et membre de l'ESC. "L'association tabac et pilule augmente le risque de thrombose et de phlébite", explique-t-il. Il faut ajouter les effets délétères pour la santé cardio-vasculaire du surpoids et du stress notamment professionnel, qui n'ont cessé d'augmenter au fil du temps. Les conséquences sont évidentes : la proportion de femmes victimes d'un infarctus avant l'âge de 50 ans est passée de 3,7 % en 1995 à 11,2 % en 2005. Et elle continue à progresser puisqu'elle serait aujourd'hui aux alentours de 11,6 %.

Un autre sujet préoccupe les spécialistes : la moins bonne prise en charge des accidents cardio-vasculaires chez les femmes que chez les hommes. "Nous devons nous interroger sur notre pratique au quotidien, insiste le professeur Danchin, et ce, d'autant plus que pour une même pathologie une femme a 20 % de chances en moins par rapport à un homme de se voir proposer un test d'effort et 40 % en moins de bénéficier d'une angiographie". Or, ce dernier examen, qui permet de visualiser les cavités cardiaques et les vaisseaux sanguins, apporte de précieux renseignements au cardiologue. Enfin, les spécialistes regrettent qu'en cas de douleurs faisant évoquer un infarctus, les femmes tardent toujours plus que les hommes à appeler un médecin. Elles perdent alors un temps précieux pendant lequel les lésions risquent de s'étendre.

Le Point

Schizophrénie : l'espoir d'un traitement au Brésil ?
Vendredi, 02/09/2011 - 07:15

Une équipe de chercheurs brésiliens a réussi à transformer des cellules de la peau de schizophrènes en neurones. Cette première mondiale pourrait ouvrir la voie à de nouveaux médicaments contre cette maladie incurable.

"Avoir accès à un matériel de cerveau, sans ouvrir la tête du patient". C'est ce que va permettre l'expérience menée par une équipe de chercheurs brésiliens sur des patients schizophrènes, maladie incurable qui touche 1 % de la population mondiale. Les scientifiques sont parvenus à une première mondiale, en reprogrammant des cellules de la peau de patients schizophrènes et en les transformant en neurones, a déclaré récemment à l'AFP le scientifique Stevens Rehen qui a coordonné la recherche.

"Nous avons utilisé une biopsie de peau (de la nuque) d'une patiente schizophrène, avons reprogrammé ces cellules et les avons transformées en neurones", a déclaré M. Rehen peu avant de présenter sa recherche à l'Académie  brésilienne des Sciences à Rio de Janeiro. "Cela facilitera la possibilité d'identification de nouveaux médicaments pour les troubles mentaux", a souligné le chercheur de l'Université fédérale de Rio (UFRJ) dont l'étude 100 % brésilienne sera publiée dans la revue américaine Cell Transplantation. "Nous pourrons tester des centaines de traitements pour les troubles mentaux en même temps", a-t-il ajouté.

"Il y a trois recherches dans le monde sur ce sujet, mais la nôtre est la première qui ait réussi à reconvertir une marque biochimique (une caractéristique de cellule qui n'apparaît que chez les schizophrènes) d'une cellule", a précisé le scientifique. M. Rehen, directeur du Laboratoire national de cellules souches, et son équipe ont isolé les cellules de onze schizophrènes. En deux mois, les cellules ont été isolées et multipliées en laboratoire. Ensuite, elles ont été reprogrammées avec l'utilisation d'un virus qui contenait les gênes spécifiques de cellules embryonnaires. Leur conversion en neurones, en à peine 40 jours, a permis d'identifier une anomalie dans le métabolisme des cellules des schizophrènes.

TF1

Une signature moléculaire de la déficience intellectuelle
Vendredi, 02/09/2011 - 06:00

La déficience intellectuelle (DI) est un handicap fréquent qui concerne près de 3 % de la population générale mais dont les causes sont encore peu connues. Aujourd'hui, les équipes de Laurence Colleaux de l'unité de recherche "génétique et épigénétique des maladies métaboliques, neurosensorielles et du développement”1 et de Jean Marc Egly de l'"Institut de génétique et de biologie moléculaire et cellulaire"2 ont identifié une mutation sur un gène impliqué dans la transcription de l'ADN en ARN messager, 1ère étape d’un processus complexe aboutissant à la synthèse des protéines. Cette mutation bouleverse l'expression de gènes essentiels à la plasticité cérébrale, l’ensemble des mécanismes par lesquels le cerveau modifie l'organisation de ses réseaux de neurones en fonction des expériences vécues. Selon l'étude, l'anomalie de ces gènes, dits "précoces", serait une des "signatures moléculaires" de la déficience intellectuelle. Ces résultats sont publiés dans la revue Science datée du 26 aout.

La déficience intellectuelle (DI) est définie comme un « fonctionnement intellectuel général inférieur à la moyenne, qui s’accompagne de limitations significatives du fonctionnement adaptatif». Parmi les DI, les formes dites "non syndromiques" sont caractérisées par une diminution isolée et non progressive des performances intellectuelles. Les chercheurs se sont penchés sur ces formes de déficits car les gènes responsables participent directement aux processus liés aux fonctions cognitives : mémorisation, apprentissage, comportement, etc.

Les équipes de recherche de Laurence Colleaux et Jean Marc Egly, ont identifié une mutation du gène MED23 qui est liée à une DI isolée. MED23 code une des sous-unités d’un large complexe multiprotéique : le Médiateur.  Ce complexe est connu pour son rôle dans une étape clé de la régulation de l'expression des gènes : la transcription. Il permet aux facteurs de transcription spécifiques d'un gène de s'assembler pour interagir avec l’ARN polymérase, l'enzyme clé de cette étape.

Au cours de ces travaux, les chercheurs ont démontré que les cellules de patients atteints de DI présentent un défaut d’expression de certains gènes parmi lesquels les gènes "précoces" JUN et FOS. Ces derniers sont impliqués dans l'expression d'une cascade de gènes liés à diverses fonctions cellulaires, notamment au niveau du système nerveux central. Leur activation rapide et transitoire est une étape clé dans le développement et la plasticité cérébrale.

La mutation identifiée conduit à la synthèse d’une protéine MED23 modifiée devenue incapable d’interagir correctement avec les facteurs spécifiques des deux gènes considérés. Par exemple, dans le cas du gène JUN, l’assemblage permettant la transcription est défectueux suite à un mauvais contact entre la protéine MED23 mutée et le facteur TCF4.

"L'étude de patients DI porteurs de mutations modifiant d’autres protéines impliquées dans la transcription, suggère que cette anomalie d’expression des gènes "précoces" puisse être une "signature moléculaire" de ce trouble", explique Laurence Colleaux. Ces résultats apportent donc un nouvel argument en faveur du rôle majeur des anomalies de l’expression génique dans la recherche des causes de déficiences intellectuelles.

INSERM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Des simulateurs de vol pour qualifier les pilotes à Saint-Exupéry
Jeudi, 08/09/2011 - 08:05

Les deux premiers simulateurs d’Air Campus permettent de valider la formation au pilotage de l’Airbus A 320 et du Boeing 737. Le concept doit se développer.

Tout pilote de ligne, outre sa formation initiale, doit recevoir une qualification pour piloter un appareil spécifique. Une qualification délivrée après environ six semaines de formation sur un simulateur et nécessitant un renouvellement obligatoire tous les six mois qui demande sur deux jours quatre heures de stage et quatre autres d’examen.

Actuellement en France, seuls existent à Paris les simulateurs de la compagnie Air France et plus récemment d’un centre privé, ceux d’Airbus à Toulouse. La création sur la plate-forme de Saint-Exupéry du centre de simulateurs Air Campus constitue donc un véritable événement dans le monde aéronautique.

Le projet lancé dans le cadre plus large du programme Air Parc, nouveau centre d’affaires de l’aéroport, a vu le jour en l’espace de deux ans seulement. Porté par Laurent Japhet, pilote et instructeur lui-même et conduit par CFA Rhône-Alpes, maître d’ouvrage d’Air Parc, Air Campus compte trente-deux actionnaires et a reçu le soutien de la Caisse d’Epargne Rhône-Alpes et de la Caisse des Dépôts.

Récemment Inauguré, il dispose d’ores et déjà de deux simulateurs : l’un pour Airbus A 320 et l’autre pour Boeing 737, les deux avions les plus vendus au monde. Ces simulateurs fabriqués par le constructeur hollandais ont un coût de l’ordre de 8 à 10 millions d’euros chacun suivant les options souhaitées par les clients. La qualification pour voler sur un appareil a un coût oscillant entre 27 000 et 33 000 euros payés par les compagnies ou les pilotes eux-mêmes. « Nos simulateurs permettent de délivrer le niveau D, le plus élevé », souligne Laurent Japhet qui confie que des contrats ont déjà été passés avec Lufthansa, XL Airways ainsi que des Philippins. « Nous avions prévu au départ quarante formations annuelles, nous en aurons le double. Nous pouvons satisfaire les demandes de la quasi-totalité des compagnies au monde. »

Pour Air Campus qui emploie directement une dizaine de personnes et une trentaine au total plus indirectement, cette première mise en service n’est qu’un début. Deux autres simulateurs peuvent prendre place dans le bâtiment construit. Une seconde aile devrait voir le jour pour accueillir quatre simulateurs supplémentaires. Le concept prévoit aussi d’assurer la formation des hôtesses et stewards, de se doter d’un hôtel-restaurant pour ses stagiaires mais aussi d’un centre médical où ils pourront aussi passer les visites périodiques.

Le Progrès

Premiers tests sur circuit du véhicule 100 % électrique MUTE
Mercredi, 07/09/2011 - 10:48

Le prototype d'un véhicule biplace 100 % électrique dénommé MUTE, issu d'une collaboration entre 20 chaires universitaires de l'Université technique de Munich (Bavière), a été testé pour la première fois sur circuit le 10 juin 2011. Le modèle final, avec le design complet, sera dévoilé au salon international de l'automobile de Francfort en septembre 2011. Le prix de MUTE ne doit pas être supérieur à celui d'un petit véhicule de type Smart. Parmi les partenaires du projet sont en particuliers présents les groupes BMW, Daimler, Michelin et Thyssenkrupp.

La voiture électrique MUTE possède des pneus étroits qui minimisent sa résistance au roulement et augmentent ainsi son autonomie. Afin de garantir une bonne tenue dans les virages, la dynamique transversale du véhicule a été optimisée en utilisant des suspensions à ressorts et des amortisseurs spécifiques. Le prototype a réussi le test du double changement de voie (ISO Lane Change) en obtenant des résultats meilleurs que certaines voitures conventionnelles de classe moyenne.

Le châssis de MUTE est en aluminium, tandis que sa carrosserie est en plastique renforcé de fibres. Ainsi, la masse totale du véhicule vide s'élève à seulement 500 kg, dont 100 kg pour l'ensemble des batteries. Le moteur électrique possède une puissance de 16,5 kW et permet une accélération de 0 à 60 km/h en 6,8 secondes. Un système actif de vectorisation du couple permet de répartir idéalement la force de propulsion fournie par l'électromoteur sur les deux roues arrière motrices du véhicule. Ce système permet par ailleurs de multiplier par deux l'énergie récupérée dans les batteries lors des phases de freinage dans les virages.

D'une capacité totale de 10 kWh, les batteries principales de MUTE utilisent la technologie lithium-ion. Une batterie supplémentaire cuivre-air recyclable installée dans le véhicule permet de prolonger l'autonomie de celui-ci. Ainsi, l'autonomie de MUTE est supérieure à 100 km, quel que soit le mode de conduite. Sa vitesse maximale s'élève à 120 km/h.

En hiver, le réchauffement de l'habitacle est assuré par un chauffage auxiliaire d'une puissance de 2 kW fonctionnant au bioéthanol, intégré au système de distribution de l'air (HVAC). L'utilisation du dispositif du chauffage n'influence pas l'autonomie du véhicule électrique.

Bulletins Electroniques

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top