RTFlash

RTFLASH Recherche & Technologie
NUMERO 596
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Mai 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La théorie du chaos au service de la sécurité informatique
Avenir
Un virus améliore l'efficacité des cellules solaires !
Nano-objets biomimétiques : vers la maîtrise des assemblages
Des nanotubes de carbone pour détecter le cancer
Matière
Recharger son mobile à l'énergie solaire ?
Energies renouvelables : la France en retard sur les objectifs du Grenelle
Une nouvelle génération de mini-éoliennes plus performantes
Du papier graphène plus résistant que l'acier
Un quart de carburants verts en 2050 ?
Espace
Fukushima : prévoir la dispersion de la radioactivité en mer
Vivant
Les maladies non transmissibles principales causes de décès dans le monde
Une combinaison médicamenteuse surprenante pour lutter contre les bactéries multirésistantes
Thérapie génique : une nouvelle maladie à l'essai
Une molécule prometteuse contre l'hépatite C
Pas d'affinité, pas de volonté à collaborer
Comment le cerveau mémorise notre environnement pour nous permettre de nous orienter
Un nouveau cap franchi dans la recherche contre le VIH
Une analyse de sang pour dépister les risques d'accouchement prématuré
Homme
Des actifs plus nombreux et plus âgés
Recherche
Voitures électriques : quel coût pour les infrastructures de recharge ?
Edito
Demain, chaque foyer sera à la fois producteur et consommateur d'énergie



Le secteur du bâtiment représente 40 % de la consommation d’énergie totale de l’Union européenne et au moins le quart de ses émissions de GES (plus d'un milliard de tonnes par an). C'est pourquoi, dans le cadre du "paquet énergie-climat" adopté en décembre 2009 et prévoyant l'objectif des "trois fois vingt" (20 % d'énergies renouvelables, diminution de 20 % des émissions de GES et amélioration de 20 % de l'efficacité énergétique d'ici 2020), la directive européenne du 19 mai 2010 sur la performance énergétique des bâtiments constitue une véritable révolution dont les conséquences dépassent largement le secteur du bâtiment, pourquoi ?

Cette directive très ambitieuse prévoit la généralisation des bâtiments « passifs » ou producteurs d'énergie à l'horizon 2020, avec une obligation anticipée pour les bâtiments publics dès 2018. Dans 25 ans, au moins un quart de nos bâtiments seront donc non seulement neutres sur le plan énergétique mais pourront produire de l'énergie excédentaire en combinant différentes technologies (films solaires souples sur les murs, pompes à chaleur, récupération des calories liées à l'activité du bâtiment, micro-éolien, piles à combustibles "domestiques").

Cette production souple, hybride, diffuse et décentralisée d'énergie s'intégrera dans une approche systémique articulant quatre composantes essentielles : d'abord la réduction "à la source" de notre consommation globale d'énergie qui sera obtenue en repensant toutes nos activités et en imaginant un nouvel urbanisme privilégiant l'efficience énergétique et optimisant massivement l'offre et la demande de déplacements.

Le second facteur est l'efficacité énergétique : il s'agit de mieux utiliser l'énergie que nous produisons et, dans ce domaine, les gisements de progression sont immenses, notamment en combinant les nouvelles technologies de stockage massif ou individuel de l'énergie : stockage sous forme de gaz, d'hydrogène, de sel fondu ou d'air comprimé, notamment, qui permettent de compenser de manière très efficace la nature diffuse et intermittente des principales énergies renouvelables (vent, soleil).

Le troisième facteur est bien entendu lié aux progrès intrinsèques des énergies renouvelables elles-mêmes, en terme de rendement et de capacité de production d'énergie : un exemple, Vesta a annoncé pour 2015 une éolienne marine géante de 7 MW. Une seule de ces machines pourra produire, en moyenne annuelle, plus de 20 millions de kWh, soit l'équivalent de la consommation hors chauffage de 8 400 foyers ! Les cellules solaires, grâce aux nanotechnologies, vont également faire des pas de géant en matière de rendement mais aussi de facilité d'utilisation et de coût de production. Devenues fines, souples et résistantes, elles pourront tapisser les murs de nos bâtiments et s'intégrer partout.

Enfin, le dernier facteur est constitué par le réseau intelligent de transport et de régulation de l'électricité (RITE) qui saura, en temps réel, anticiper et ajuster l'offre et la demande d'énergie. Ce réseau sera en outre capable d'absorber la production massive mais variable d'électricité issue des énergies renouvelables. Mais la véritable révolution sera la gestion par ce réseau des productions et consommations d'énergie propre liées aux transports électriques. Nos véhicules propres pourront en effet, lorsqu'ils ne sont pas utilisés, produire de l'énergie qui sera injectée dans le réseau.

En juin 2008, une remarquable étude réalisée par une équipe d'EDF-R&D et publiée par "Futuribles" a imaginé un scénario d'évolution vers des bâtiments (des secteurs résidentiel et tertiaire) ne faisant pas appel aux énergies fossiles, à l'horizon 2050. Partant d'un état des lieux de la situation actuelle des bâtiments en France, dans le domaine énergétique, les auteurs ont montré que, même sans rupture technologique majeure, en améliorant l'isolation et l'efficacité énergétique et en intégrant massivement les énergies renouvelables dans le bâti neuf et en rénovation, il était possible pour notre pays de ne plus recourir aux énergies fossiles dans le bâtiment sans augmenter de façon significative la demande d'électricité et en réduisant, de surcroît, ses émissions de CO2 de 90 millions de tonnes par an (une réduction qui représente plus de 20 % de nos émissions de CO2 en 2010).

Parmi les énergies mobilisables, il faut bien sûr citer l'éolien marin de prochaine génération. Si la France voulait produire 20 % de sa production électrique totale (550 Twh en 2010) à l'aide de l'éolien marin, il faudrait installer en mer environ 5 500 machines de 7 MW, ce qui n'est nullement hors de portée d'un pays comme la France. On peut également développer considérablement le chauffage au bois ; il est aujourd’hui la première énergie renouvelable en France, grâce à 6 millions de logements équipés, avec une production de 7,4 Mtep (millions de tonnes équivalent pétrole).

Selon une étude prospective de l’ADEME, l’objectif fixé par le Grenelle de 9 millions de logements dotés d’appareils au bois en 2020, soit le quart du parc résidentiel, est tout à fait atteignable et notre pays, qui possède le quart de son territoire en forêt, est un gisement de bois exploitable de 20 millions de tonnes par an. Autre énergie mobilisable sans révolution technologique, la géothermie qui devrait être multipliée par six d'ici 2020 (par 10 en Ile-de-France) et représenter 1,2 million Tep à cet horizon. Notre pays a également la chance de disposer d'un excellent gisement solaire et pourtant il n'a que 100.000 chauffe-eau solaires installés, dix fois moins qu'en l'Allemagne.

Face à l'épuisement inéluctable et accéléré des énergies fossiles qui représentent encore, au niveau mondial, plus des trois quarts des 12 Gigateps que le monde consomme désormais chaque année, nous n'avons pas le choix, nous devons anticiper la fin de l'utilisation de ces énergies dont les prix ne vont cesser de grimper et dont l'utilisation massive va tout simplement devenir intenable socialement, économiquement et écologiquement.

Avec un baril de pétrole qui dépassera rapidement les 200 dollars, l'argument du coût de production trop élevé des énergies renouvelables et de leur manque de compétitivité ne tient plus, surtout si l'on intègre dans l'équation énergétique la valeur fortement croissante des émissions de carbone évitées par un développement massif des énergies propres et la nécessité absolue de réduire de moitié, au niveau mondial, nos émissions de GES d'ici 40 ans. Dans un tel scénario, seule la production décentralisée d'énergie propre, au plus près de l'utilisateur final, et une rupture majeure en termes de sobriété et d'efficacité énergétique pourront nous permettre, sans remettre en cause notre confort et notre qualité de vie, de surmonter le défi écologique et énergétique sans précédent qui attend l'humanité.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La théorie du chaos au service de la sécurité informatique
Lundi, 02/05/2011 - 11:25

Le renforcement de la sécurité des mots de passe renvoie à un paradoxe : les humains ont une mémoire limitée et les ordinateurs ont la capacité de déchiffrer de nombreux mots de passe automatiquement. Pour renforcer la sécurité des codes secrets, Sergej Flach, chercheur à l'Institut Max Planck en Allemagne propose d'en rendre une partie indéchiffrable pour un ordinateur, pendant que l'autre partie - la plus simple - restera mémorisée par l'utilisateur. Pour ce faire, il propose d'utiliser les Captchas, des images uniquement lisibles par les individus, en renforçant leur sécurité grâce à un cryptage basé sur un système dynamique inspiré de la physique.

Interrogé par l'Atelier, Sergej Flach explique que "le processus est simple pour l'utilisateur.  Dans un premier temps il définit son mot de passe et le sépare en deux. Il rentre ensuite la seconde partie dans un logiciel hébergé localement ou sur la Toile, et cette seconde partie sera transformée en Captcha". Mais ce n'est pas tout, car même l'image est cryptée. "En effet le logiciel va simuler dans l'image un processus chaotique basé sur un système dynamique, ou plus simplement, une sorte de champ magnétique qui va désolidariser les pixels", poursuit Sergej Flach. Pour accéder à la seconde partie de son mot de passe, l'utilisateur devra ainsi rentrer la première partie dans le programme qui désactivera ce "champ magnétique", ce qui lui permettra de lire la seconde partie de son code, dans une image Captcha.

Une fois ce processus enclenché, il est impossible pour quiconque d'accéder à une partie d'un mot de passe, et donc de le pirater. En effet, l'image qui la contient est stockée sous sa forme altérée, empêchant tout humain ou machine de pouvoir la décrypter. Enfin, comme un utilisateur doit rentrer deux mots de passe en deux étapes, le double processus renforce la sécurité quant à l'accès à un espace personnel. "Nous espérons que cette approche ouvrira de nombreuses voies aux processus de cryptage, puisque c'est une des rares fois où un ordinateur n'est pas capable de reconstituer un code". Conclut Sergej Flach.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Un virus améliore l'efficacité des cellules solaires !
Mercredi, 04/05/2011 - 10:54

Des chercheurs du MIT ont découvert un moyen de rendre les cellules solaires encore plus efficaces dans le processus de conversion énergétique en ayant recours aux services de virus capables d'effectuer des travaux d'assemblage à un niveau microscopique. Lorsque les rayons du soleil frappent le matériau composant une cellule solaire, des électrons se libèrent et pourront être exploités pour produire un courant électrique.

Les nouvelles recherches du MIT, publiées en ligne dans la revue "Nature Nanotechnology", sont basées sur les conclusions que les nanotubes de carbone - microscopiques cylindres creux en carbone pur - peuvent améliorer l'efficacité de la collecte d'électrons à la surface des cellules solaires.

Les précédentes tentatives dans l'utilisation des nanotubes ont échoué à cause principalement de 2 problèmes majeurs. Tout d'abord, la fabrication de nanotubes de carbone produit généralement un mélange de 2 éléments, dont certains agissent comme des semi-conducteurs (parfois permettant le passage d'un courant électrique, parfois non) ou comme des métaux (agissent comme des fils, permettant au courant de circuler facilement). Pour la 1ère fois, ces nouvelles recherches ont montré que les effets de ces 2 types ont tendance à être différents, parce que les nanotubes semi-conducteurs peuvent améliorer les performances des cellules solaires, alors que l'on obtient l'effet inverse avec l'élément métallique. Deuxièmement, les nanotubes ont tendance à s'agglomérer, ce qui réduit leur efficacité.

C'est à ce niveau qu'interviennent les virus. Des étudiants et plusieurs autres chercheurs du MIT ont constaté qu'une version génétiquement modifiée d'un virus appelé M13, - qui infecte habituellement les bactéries -, pouvait être utilisé pour contrôler la disposition des nanotubes sur une surface, gardant les tubes séparés (pas de court-circuit), et à distance (pas d'agglomération possible).

Le système utilisé par les chercheurs a été testé sur un type de cellule solaire bien connu sous le nom de cellule solaire à colorant, un matériau léger et peu coûteux, où la couche active est composée de dioxyde de titane, à la place du silicium. Mais selon les chercheurs, "la même technique pourrait être appliquée à d'autres types de cellules, comme les points quantiques et les cellules solaires organiques." Dans leurs essais, rien qu'en ajoutant les virus assembleurs de structures, la conversion d'énergie a été améliorée de presque 1 tiers, en passant de 8 % à 10.6 % !

Cette amélioration spectaculaire a lieu même si les virus et les nanotubes ne représentent que 0,1 % du poids total de la cellule. Ces virus sont utilisés pour aider à améliorer une étape particulière dans le processus de conversion d'énergie solaire en électricité. Dans une cellule solaire, la première étape consiste à récupérer l'énergie de la lumière grâce aux électrons qui viennent frapper la cellule solaire (souvent du silicium). Ensuite, ces mêmes électrons doivent être canalisés vers un collecteur, créant au final un courant électrique. Le nouveau système est destiné à améliorer l'efficacité de la deuxième étape, en aidant les électrons à trouver leur chemin : l'ajout de nanotubes de carbone à la cellule "offre une voie plus directe pour le collecteur de courant", précise le professeur Angela Belcher du MIT.

Les virus remplissent deux fonctions différentes dans ce processus. D'abord, ils possèdent des protéines appelées peptides courts qui peuvent se lier étroitement aux nanotubes de carbone, les maintenant en place et les gardant à distance les uns des autres. Chaque virus peut s'occuper de 5 à 10 nanotubes, dont chacun est fermement maintenu en place par environ 300 molécules peptidiques. En outre, ce virus a été conçu pour produire un revêtement en dioxyde de titane (TiO2), (un ingrédient clé des cellules à pigment photosensible), sur chacun des nanotubes, mettant le dioxyde de titane à proximité des nanotubes filiformes transportant les électrons.

Les 2 fonctions sont réalisées successivement par le même virus, dont l'activité est "sous tension" d'une fonction à l'autre en changeant l'acidité de son environnement. "Cette fonction de commutation est une nouvelle capacité cruciale qui a été démontrée pour la première fois dans cette recherche", a indiqué le Pr. Belcher. Par ailleurs, le virus rend les nanotubes solubles dans l'eau, ce qui permet de les incorporer dans les cellules solaires en utilisant un procédé à base d'eau qui fonctionne à température ambiante.

Enerzine

Nano-objets biomimétiques : vers la maîtrise des assemblages
Mardi, 03/05/2011 - 10:34

Dans le domaine des nanotechnologies, il est important de contrôler la taille des nano-objets, puisque cette taille module les propriétés physiques de ces matériaux. Cependant, les tentatives de contrôle de la taille des architectures par modification de la brique unitaire, rapportées dans la littérature, ont souvent échoué. Adoptant une approche biomimétique, des chercheurs du CEA-iBiTec-S, du CNRS et d'Ipsen se sont intéressés à une petite molécule, le Lanréotide, un octapeptide cyclique. Cet analogue d'une hormone naturelle, la Somatostatine, est classiquement utilisé comme médicament. Composé de huit acides aminés, ce peptide possède la propriété de s'assembler dans l'eau en dimères, qui s'associent à leur tour pour former des nanotubes de diamètre défini. Ce type de structures auto-assemblées constitue une approche intéressante pour la synthèse de nanomatériaux car dans ces systèmes, la forme et la taille sont principalement conditionnées par la structure des briques de base.

Les chercheurs ont alors supposé que les acides aminés assurant les contacts entre peptides régissaient le rayon de courbure des nanotubes. Ils ont conçu un modèle géométrique qui explique dans quelle mesure une modification de quelques angströms sur la structure de base du peptide influe sur la taille du nanotube. Ce modèle leur permet de rationaliser, voire de prédire, les diamètres des nanotubes ainsi générés. La vérification expérimentale de ce modèle a été faite grâce à la synthèse d'analogues du Lanréotide. Toute la stratégie de cette étude a reposé sur la modification d'un acide aminé impliqué dans un contact entre peptides et sur la démonstration que ce changement entraîne une variation du diamètre des nanotubes de manière contrôlée.

Les chercheurs ont donc synthétisé des analogues du Lanréotide en substituant de manière ciblée un acide aminé par un autre. Ces peptides conservent des propriétés d'assemblage similaires à celles du Lanréotide et forment des nanotubes. La caractérisation de ces architectures, faite par microscopie électronique et diffusion de rayons X au synchrotron SOLEIL, démontre que le diamètre de ces nanotubes est effectivement corrélé à la taille de l'acide aminé introduit et qu'un peptide donné forme spontanément des nanotubes d'un seul diamètre. Une gamme de 17 nanotubes allant de 10 à 36 nm de diamètre a ainsi été obtenue en fonction de l'acide aminé incorporé.

L'utilisation en nanotechnologie de ces systèmes auto-assemblés biomimétiques s'appuie sur la possibilité de les utiliser comme moules. En effet, on trouve dans la nature de nombreux exemples dans lesquels des gabarits organiques sont utilisés pour contrôler la croissance de phases inorganiques (os, dent, carapaces, diatomées, etc.). Ainsi, en utilisant ces nanotubes de peptides comme des moules, les chercheurs ont montré qu'il est possible de maîtriser la production de nanotubes de silice de diamètre spécifique, ce qui ouvre la voie à un large panel d'applications en nanotechnologies, comme par exemple les fibres optiques ou la nano-filtration.

CNRS

Des nanotubes de carbone pour détecter le cancer
Lundi, 02/05/2011 - 11:34

Un dispositif qui tient dans la main détecte les cellules cancéreuses du sang grâce à des nanotubes de carbone. Il pourrait aussi bien identifier les tumeurs que les infections bactérienne ou virale. Une des applications majeures de la microfluidique, science d'étude des liquides à l'échelle micrométrique, concerne le diagnostic. La plupart des microsystèmes emploient des matériaux rigides tels que le verre, des polymères ou du silicium.

C’est ce dernier qu’a choisi initialement Mehmet Toner, ingénieur au Massachusetts Institute of Technology (MIT), pour construire son détecteur de cellules cancéreuses. Dans celui-ci, le sang passe à travers plusieurs dizaines de milliers de cylindres en silicium recouverts d’un anticorps qui capture spécifiquement les cellules exprimant une protéine tumorale.

Mais le caractère rigide du matériau empêchait la bonne diffusion du fluide. Les chercheurs ont donc opté pour des nanotubes de carbone, jugeant le matériau poreux plus apte à laisser passer les cellules cancéreuses, rarement plus nombreuses qu'une poignée par millilitre de sang. C’est maintenant une véritable nanoforêt de carbone qui tapisse l’intérieur du dispositif, à raison de 10 à 100 milliards de nanotubes par centimètre carré. Il reste pourtant au liquide 99 % de vide pour circuler.

Le nouveau dispositif s’est avéré huit fois plus efficace que l’ancien. Le dispositif du MIT, déjà testé à l’hôpital, ne pourra malheureusement détecter les cancers qu’au stade de métastases, lorsque les cellules tumorales ont commencé à diffuser dans le sang. Mais, en modifiant l’anticorps présent à la surface des nanotubes de carbone, il serait en théorie possible de détecter des particules plus petites que les cellules, comme des bactéries ou des virus. Les chercheurs développent actuellement leur système pour l'adapter au dépistage du VIH.

Industrie&Technologies

^ Haut
Matière
Matière et Energie
Recharger son mobile à l'énergie solaire ?
Mardi, 03/05/2011 - 10:13

Ludovic Deblois en est certain : « dans quelques années, nous n’aurons plus besoin de chargeur pour notre téléphone. » Ce jeune entrepreneur, ingénieur de formation, est pourtant loin d’être un rêveur.  En 2009, il cofonde Wysips, une entreprise basée à Aix-en-Provence, dont le projet est ni plus ni moins un « téléphone mobile solaire autonome », rechargé uniquement grâce à des cellules photovoltaïques.

Pour parvenir à cela, Wysips dispose d’une technologie unique au monde : des « panneaux solaires » fins et transparents, que l’on peut parfaitement adapter aux écrans de nos appareils mobiles. Epais d’un dixième de millimètre, ils ne gênent en rien une utilisation tactile.

Comment ça marche ? Un peu à la manière des fameuses images lenticulaires qui présentent des formes différentes ou un effet de relief selon l’angle sous lequel on les regarde. C’est Joël Gilbert, l’autre cofondateur de Wysips, qui a eu l’idée de s'inspirer de ces effets d'optique pour les appliquer aux cellules photovoltaïques. De cette manière, il est possible de voir ce qui est affiché à l’écran tout en absorbant une partie de la lumière qui sera convertie en électricité.

Le film lenticulaire de Wysips est ainsi constitué d’une couche de lentilles semi-cylindriques, qui orientent les faisceaux lumineux, doublée d’une couche de bandes de cellules photovoltaïques. Le tout est simplement « posé » par la suite sur un écran traditionnel. Soyons clairs : dans sa version actuelle, la technologie de Wysips ne permettra pas de se passer de chargeur. « Sur les téléphones mobiles, on apporte un complément d’énergie, indique M. Deblois qui permettra d’empêcher d’augmenter la taille des batteries et de ne plus jamais tomber en panne ». En revanche, les livres électroniques, bien moins gourmands - merci l’encre électronique - pourraient être dispensés de chargeur grâce à Wysips.

Concernant les mobiles, M. Deblois précise « qu’avec une heure d’ensoleillement extérieur, on peut fournir une demi-heure de communication », mais n’a pour l’instant pas de chiffre plus explicite à donner quant au gain d’autonomie que sa technologie offrira à terme, car il dépendra largement des utilisateurs et de leurs habitudes. Il détaille cependant qu’il faudrait réunir 600 smartphones dotés de la technologie pour subvenir aux besoins électriques d’une maison individuelle, chauffage exclus.

D’après M. Deblois, les premiers téléphones dotés de sa technologie verront le jour au deuxième semestre 2012. Une unité de fabrication des films, qui sera située dans le Sud de la France, sera construite au préalable, entre la fin d’année et le début 2012. Wysips est "en discussion » avec les cinq plus grands fabricants de mobiles…

01net

Energies renouvelables : la France en retard sur les objectifs du Grenelle
Lundi, 02/05/2011 - 11:49

La France s'est fixé comme objectif de disposer de 23 % d'énergie renouvelable en 2020, ce qui suppose de passer de 16 millions de tonnes équivalent pétrole de produits verts (éolien, solaire, etc.) par an aujourd'hui, à 36 millions en 2020.

Pour le SER, si le cadre législatif actuel et le rythme d'investissement actuel sont maintenus, il manquera au total 7 millions de tonnes équivalent pétrole en 2020, soit 35 % de l'objectif (20 millions de Tep). Les professionnels préparent un livre blanc qu'ils comptent présenter aux futurs candidats à l'élection présidentielle.

Dans l'immédiat, ils demandent au gouvernement de respecter la promesse de doublement du fonds finançant des projets de chaleur à partir de biomasse en 2011, alors qu'il vient d'être décidé de le maintenir à 250 millions d'euros. « Ces projets sont compétitifs à 16 euros par tonne de CO2 évitée  », plaide Jean-Louis Bal. Le président du syndicat pointe par ailleurs l'inefficacité des appels d'offre de production d'électricité à partir de la biomasse : seuls 102 mégawatts sur les 569 attribués ont été réellement mis en service.

Quant aux ventes d'appareils de chauffage au bois, l'objectif de 600.000 unités par an n'est pas atteint. Le rythme de vente plafonne à 450.000.  Mêmes bilans peu satisfaisants pour les pompes à chaleur (63.000 ventes en 2010 contre 140.000 en 2008) et le solaire thermique (27.000 équipements de production d'eau chaude commercialisés en 2010 contre 35.000 en 2008). Le Grenelle prévoyait notamment 4 millions de logements à équiper en 12 ans pour le solaire thermique et 180.000 pompes à chaleur en rythme annuel. Le syndicat appelle les pouvoirs publics à ne modifier le crédit d'impôt qu'avec la plus grande prudence.

En revanche, malgré les débats acharnés sur les nouvelles règles imposées à l'éolien, 2011 n'a pas été une mauvaise année, 1.100 Mw ont été installés contre 1.000 en moyenne précédemment. Les 3.500 éoliennes représentent 2 % de la production d'électricité en France.

SER

Une nouvelle génération de mini-éoliennes plus performantes
Lundi, 02/05/2011 - 11:40

Incubée au Centre européen des entreprises de l’innovation de Navarre (CEIN), la Start-up Spirowind a développé une technologie qui accroît l’efficacité des éoliennes à axe vertical. Elle a pour cela inséré sur la base de l’éolienne un multiplicateur qui fonctionne à l'aide d'un système d’engrenages planétaires. Très compact, ce dispositif multiplie ainsi par trois ou quatre la puissance de l’éolienne à taille équivalente, favorisant une réduction du coût de production Watt par heure.

Ce système permet également de concevoir des éoliennes de puissance de 1 kW de la taille d’une éolienne de type Savonius de 250 W. Pour le moment, Spirowind souhaite couvrir le marché domestique avec des éoliennes de 1 ou 1,5 kW et celui des équipements urbains avec des unités plus petites (350 à 500 W). Selon l’exposition au vent, le retour sur investissement peut être compris entre 1 et 3 ans. Même si cette jeune société souhaite commercialiser sa propre gamme Savonius, elle est aussi prête à mettre en place des partenariats avec des fabricants pour intégrer sa technologie dans des éoliennes déjà sur le marché.

Spirowind

Du papier graphène plus résistant que l'acier
Dimanche, 01/05/2011 - 11:27

Léger, peu dense mais dur et résistant : le matériau conçu par les chercheurs de l'Université de Technologie de Sydney en Australie présente des propriétés exceptionnelles. Sous forme de papier, celui-ci est constitué de graphène, des cristaux de carbone qui forment, lorsqu'ils sont empilés, une couche de graphite. Depuis sa découverte en 2004, de nombreuses recherches se sont intéressées au graphène mais les scientifiques ont ici employé une nouvelle technique pour créer leur matériau.

En effet, ceux-ci ont moulu du graphite brut qu'ils ont ensuite filtré et purifié à l'aide de produits chimiques pour le refondre et le reformer en configurations microscopiques. Des nano-structures à partir desquelles ils ont créé des feuilles aussi fines que du papier. Enfin, ils ont testé les propriétés mécaniques et physiques du matériau en utilisant une méthode synthétique et un traitement par la chaleur. "Personne n'a utilisé une telle méthode de production et de tests par la chaleur. Et personne n'a exécuté des propriétés mécaniques aussi exceptionnelles pour le papier graphène", a expliqué dans le communiqué de l'UTS Ali Reza Ranjbartoreh, principal auteur des travaux.

Selon les résultats publiés dans Journal of Applied Physics, les tests effectués se sont avéré très prometteurs. "Comparé à l'acier, le papier graphène préparé est six fois plus léger, cinq à six fois moins dense, deux fois plus dur, 10 fois plus extensible et 13 fois plus rigide au pliage", ont expliqué les chercheurs, ajoutant que le matériau était aussi un "produit durable et recyclable à la fois respectueux de l'environnement et rentable". Avec de tels avantages, ce papier graphène pourrait alors avoir de nombreuses utilisations dans l'industrie aéronautique ou automobile, domaines toujours à la recherche de matériaux plus légers et plus économiques.

JAP

Un quart de carburants verts en 2050 ?
Dimanche, 01/05/2011 - 11:19

Les biocarburants pourraient représenter 27 % des besoins mondiaux en carburants du secteur du transport en 2050 contre 2 % aujourd'hui, sans compromettre pour autant la sécurité alimentaire de la planète, estime l'Agence internationale de l'énergie (Aie).

En passant de 55 millions de tonnes équivalent pétrole (Mtep) aujourd'hui à 750 Mtep en 2050, la production de biocarburants contribuerait à réduire de 2,1 milliards de tonnes les émissions de CO2 du secteur du transport, qu'il soit routier, aérien ou maritime, estime l'Aie. Cependant, « avec une population mondiale en croissance de plus de 30 % d'ici à 2050 », le problème de la concurrence entre les biocarburants et les besoins alimentaires pour l'utilisation des terres agricoles « doit être abordé avec précaution pour éviter tout impact négatif d'une expansion des biocarburants sur la sécurité alimentaire », souligne Bo Diczfalusy, directeur des politiques énergétiques durables à l'Aie, cité dans le communiqué.

Selon l'Aie, le rendement des biocarburants pourrait être multiplié par 10 grâce à l'utilisation des déchets et résidus de biomasse ainsi que par le recours à des cultures et des processus de production plus efficaces. La plupart des biocarburants actuels, issus de graines oléagineuses, de féculents, ou de sucres, doivent être améliorés en terme de productivité agricole et de transformation, estime l'Aie. En outre, de nouveaux types de biocarburants, produits à partir de paille ou de bois et actuellement en voie de développement, doivent être commercialisés dans les 10 prochaines années et représenteront la majeure partie des biocarburants utilisés en 2050.

« Une action gouvernementale est nécessaire pour fournir un cadre politique stable à long-terme et permettre des investissements durables dans le développement des biocarburants », estime M. Diczfalusy. Les investissements nécessaires se situent entre 11.000 et 13.000 milliards de dollars sur les 40 prochaines années, selon le rapport.

AIE

^ Haut
Espace
Espace et Cosmologie
Fukushima : prévoir la dispersion de la radioactivité en mer
Mercredi, 04/05/2011 - 11:05

Depuis les débuts de l’accident nucléaire japonais, le groupe SIROCCO à Toulouse, sous tutelle du CNES, simule la dispersion de la contamination en mer grâce aux images des satellites Jason et Envisat.

Modélisation 3D et mesures in situ

« Il faut tous les jours confronter les nouvelles données à notre modèle pour corriger notre scénario », explique Claude Estournel, responsable de l’équipe Océanographie côtière au Laboratoire d’Aérologie à Toulouse. Des chercheurs de son équipe forment avec des scientifiques du LEGOS le groupe SIROCCO, spécialisé dans les outils numériques appliqués à des problématiques océaniques.

A la demande de l’IAEA , le groupe produit, depuis les premiers jours de l’accident à la centrale nucléaire japonaise de Fukushima-Daiichi, un modèle prévisionnel de dispersion en mer des radioéléments, tel le Césium 137.

« Le cœur de notre outil repose sur la modélisation 3D de la circulation océanique. » rappelle Florent Lyard, responsable d’équipe au LEGOS et membre du groupe SIROCCO. Cette modélisation implique notamment les bulletins de paramètres océaniques (température, salinité…) fournis par le système français de prévision océanique Mercator Océan. Les chercheurs y injectent ensuite la seule information disponible actuellement : la concentration en radioéléments mesurée en mer devant la centrale. Les quantités de radioéléments présents dans les rejets d’eau de refroidissement des réacteurs, les retombées atmosphériques ou les dépôts radioactifs terrestres drainés par les rivières demeurent effectivement inconnues. « Au final, on valide notre simulation avec les mesures effectuées à distance » complète Claude Estournel.

Une situation océanique complexe qui joue sur la dispersion

« Pour ne rien arranger, la région étudiée se situe à la frontière entre 2 grands systèmes océaniques » rappelle la scientifique. Les eaux chaudes du Kuroshio, homologue pacifique du Gulf Stream, y côtoient des eaux plus froides. « Les écarts de température, de l’ordre de 12 à 15°C créent de gros tourbillons, qui participent à la dispersion des radioéléments vers le nord ou vers le sud » souligne Claude Estournel.

Les images satellites des régions où la circulation océanique est particulièrement intense permettent d'anticiper à plus long terme les trajectoires.

CNES

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les maladies non transmissibles principales causes de décès dans le monde
Jeudi, 05/05/2011 - 08:22

Les maladies non transmissibles sont les principales causes de décès aujourd’hui et sont en augmentation : c’est ce que confirme le premier rapport sur la situation mondiale des maladies non transmissibles (MNT) publié par l’Organisation mondiale de la Santé (OMS). En 2008, 36,1 millions de personnes sont décédées d’affections telles que les cardiopathies, les accidents vasculaires cérébraux, les pneumopathies chroniques, les cancers et le diabète. Plus de 80 % de ces décès sont survenus dans les pays à revenu faible ou moyen.

Pour le Directeur général de l’OMS, le Docteur Margaret Chan, qui a annoncé la publication du rapport au cours du Forum mondial de l’OMS sur les maladies non transmissibles qui s'est tenu à Moscou, en Fédération de Russie : «l’augmentation des maladies chroniques non transmissibles représente un énorme défi. Pour certains pays, il n’est pas exagéré de décrire la situation comme une catastrophe imminente, une catastrophe pour la santé, pour la société et surtout pour les économies nationales. » Le Docteur Chan a ajouté : «les maladies non transmissibles chroniques portent un double coup au développement. Elles provoquent des milliards de dollars de pertes pour le revenu national et entraînent chaque année des millions de personnes au-dessous du seuil de pauvreté.»

Mais des millions de décès pourraient être évités si l’on appliquait de façon plus stricte les mesures qui existent aujourd’hui. Il s’agit de politiques visant à promouvoir une action gouvernementale contre les MNT, une réglementation antitabac plus stricte, une alimentation saine et de l’exercice physique, tout en réduisant l’usage nocif de l’alcool et en améliorant l’accès aux soins de santé essentiels.

Le rapport sur la situation mondiale des MNT contient des statistiques mondiales, régionales et par pays ainsi que les données factuelles et d’expérience nécessaires pour mettre en place une riposte plus énergique face à la menace croissante que représentent les maladies non transmissibles chroniques. Il constitue un point de départ pour prévoir les tendances futures des MNT et les solutions à apporter dans les pays, notamment sur le plan socio-économique. Le rapport contient des conseils et des recommandations à tous les pays et accorde une attention particulière à la situation des pays à revenu faible ou moyen, qui sont les plus durement frappés par les maladies non transmissibles.

Les maladies cardio-vasculaires sont responsables de la plupart des décès par MNT, à savoir 17 millions de personnes chaque année ; elles sont suivies par le cancer (7,6 millions), les maladies respiratoires (4,2 millions) et le diabète (1,3 million). Ces quatre groupes de maladies représentent près de 80 % de l’ensemble des décès par MNT et ont en commun quatre facteurs de risque :

  • le tabagisme ;
  • la sédentarité ;
  • l’usage nocif de l’alcool ;
  • une alimentation déséquilibrée.

«Près de 30 % des personnes qui meurent de maladies non transmissibles dans les pays à revenu faible ou moyen sont âgées de moins de 60 ans et sont dans leurs années les plus productives. Ces décès prématurés sont d’autant plus tragiques qu’ils sont en grande partie évitables», a déclaré le Docteur Ala Alwan, Sous-Directeur général de l’OMS chargé des maladies non transmissibles et de la santé mentale. «Cela représente d’énormes pertes, non seulement au niveau individuel, mais aussi au niveau familial et au niveau de la population active d’un pays. Pour les millions de personnes qui luttent pour sortir de la pauvreté s’ensuit un cercle vicieux. La pauvreté contribue aux MNT et les MNT contribuent à la pauvreté. À moins de combattre énergiquement l’épidémie de maladies non transmissibles, l’objectif mondial de réduction de la pauvreté sera très difficile à atteindre.»

Les maladies non transmissibles ont été responsables de 63 % de la mortalité mondiale en 2008. Cela équivaut à 36 millions de personnes et près de 80 % de ces décès par MNT – soit 29 millions – sont survenus dans des pays à revenu faible ou moyen, ce qui dissipe le mythe selon lequel ces affections seraient principalement un problème de pays riches. Faute de mesures, on prévoit que l’épidémie des MNT tuera 52 millions de personnes chaque année d’ici 2030.

OMS

Une combinaison médicamenteuse surprenante pour lutter contre les bactéries multirésistantes
Jeudi, 05/05/2011 - 08:01

Pour lutter contre les bactéries multirésistantes, tous les coups sont permis. Alors que l'arsenal thérapeutique habituel ne suffit plus, des chercheurs canadiens se sont intéressés à un moyen de « booster » les antibiotiques connus. Leurs travaux, publiés dans la revue Nature Chimical Biology, montrent qu'en combinant un antidiarrhéique, le lopéramide, avec la minocycline, on obtient un effet amplificateur qui permet de combattre certaines bactéries connues notamment pour être à l'origine de maladies nosocomiales.

Pseudomonas aeruginosa, ce nom ne vous dit rien. Pourtant, cette bactérie gram-négatif est de plus en plus souvent responsable d'infections nosocomiales et est particulièrement difficile à traiter cliniquement en raison de ses multirésistances. Elle affecte surtout les personnes vulnérables (chimiothérapie, sida, etc.), et est responsable de complications fréquentes chez les patients atteints de mucoviscidose.

Devant ce constat, Eric Brown et ses collègues biochimistes de l'Université de McMaster (Ontario, Canada) ont tenté une démarche originale pour lutter contre cette bactérie. Ils ont effet cherché dans la pharmacopée déjà existante, s'il n'y avait pas des molécules susceptibles d'augmenter l'activité de certains antibiotiques comme la minocycline, qui inhibe la synthèse des protéines bactériennes.

Pour cela, il ont fait un criblage de différents produits pharmaceutiques en combinaison avec l'antibiotique sur des souches multirésistantes de P. aeruginosa, d'Escherichia coli, mais aussi du staphylocoque doré. Après différentes étapes et des criblages de plus en plus fins, les chercheurs ont constaté que l'Imodium® (lopéramide), connu pour ses activités antidiarrhéiques, était le médicament qui permettait de booster le mieux la minocycline dans la lutte contre les bactéries.

Cette découverte pourrait permettre d'enrayer les infections nosocomiales qui touchent encore un peu plus de 5 % des personnes hospitalisées en France et seraient à l’origine de 4 200 décès par an, selon les chiffres publiés dans le Bulletin épidémiologique hebdomadaire (BEH).

Information Hospitalière

Thérapie génique : une nouvelle maladie à l'essai
Jeudi, 05/05/2011 - 07:50

Quatre patients atteints d'une maladie lysosomale rare et très grave pourraient bientôt être les prochains à bénéficier d'une thérapie génique. L'hôpital Necker, principal lieu en France des dernières avancées importantes dans ce type de traitement, n'attend plus que le feu vert imminent de l'Afssaps pour lancer l'essai clinique. La maladie de Sanfillipo est une maladie génétique rare qui atteint le système nerveux. Elle est due à un mauvais fonctionnement d'une enzyme lysosomiale. Les métabolites s’accumulent progressivement dans les cellules et dans l'organisme du patient, entraînant un dysfonctionnement. Ce dernier se traduit par une dégénérescence nerveuse très importante aboutissant à un état grabataire vers l'âge de 20 ans et un décès entre 20 et 30 ans. Aucun traitement connu n'existe pour enrayer le processus qui touche 150 jeunes en France.

Dans les années 90, des espoirs étaient nés pour les patients et leur famille suite à la découverte du gène défaillant responsable de cette pathologie. En remplaçant ce dernier au cœur de l'organisme par un gène parfaitement fonctionnel, les chercheurs avaient donc espoir de trouver un traitement adapté. Surtout que les essais de thérapie génique sur la souris avaient été concluants. Depuis, deux freins n'avaient pas permis de passer chez l'homme : la maitrise des techniques de thérapie génique et les moyens financiers. Pour ce qui est du premier, les succès rencontrés ces derniers années (enfants bulles, bêta thalassémie, …) par les chercheurs montrent clairement que les principales barrières à un essai chez l'homme ont pu être contournées (tolérance, effets secondaires minimes, etc.). Quant au second, pour éviter cet écueil, une famille dont la fille est atteinte par cette maladie à créé en mai 2009 une société de biotechnologies, baptisée Lysogène. C'est cette dernière qui est porteuse du projet.

L'approche scientifique et l'établissement du protocole en vue de l'essai clinique ont été conçu en collaboration avec plusieurs experts de renommée internationale dans le domaine du transfert de gènes et de la thérapie génique. Dès 2010, ce traitement a obtenu le statut de médicament orphelin.

Information Hospitalière

Une molécule prometteuse contre l'hépatite C
Mercredi, 04/05/2011 - 10:31

Une molécule prometteuse contre l'hépatite C a fait l'objet d'un examen par des experts indépendants à l'agence américaine des médicaments (FDA), ce qui devrait ouvrir la voie à sa commercialisation rapide. Cette nouvelle molécule, le bocéprévir, produite par le laboratoire américain Merck, s'est avérée beaucoup plus efficace que les thérapies actuelles contre cette infection chronique grave du foie, montrent les résultats d'un essai clinique publié fin mars dans le New England Journal of Medicine.

Cette nouvelle classe d'antiviraux neutralise une enzyme permettant au virus de l'hépatite C (VHC) de se multiplier. Son efficacité a conduit la Food and Drug Administration (FDA) à lancer une procédure prioritaire d'approbation de mise sur le marché. Les traitements actuels ne sont efficaces que chez 50 % des patients. Selon les médecins ayant mené cette étude clinique, il y a de bonnes chances que le comité d'experts indépendants recommande la mise sur le marché du bocéprévir.

"Cette étude représente une avancée remarquable. Elle peut potentiellement aboutir à une guérison des personnes souffrant d'hépatite C et ne réagissant pas aux thérapies existantes", soulignait le Docteur Stuart Gordon, du service d'hépatologie de l'hôpital Henry Ford à Detroit, en présentant les résultats de l'étude dont il est le co-auteur. "Nous allons bientôt disposer d'un nouveau traitement standard pour les malades souffrant d'hépatite C", ajoutait-il, observant que l'essai clinique ouvrait la voie "à une nouvelle ère de développement d'antiviraux pour traiter l'hépatite C" contre laquelle il n'existe pas de vaccin.

Le Figaro

Pas d'affinité, pas de volonté à collaborer
Mardi, 03/05/2011 - 10:48

Des scientifiques de l'Institut Max Planck (MPI) de recherche sur les biens collectifs en Allemagne ont découvert qu'un individu aidera son prochain en fonction de l'altruisme des autres. Pour résumer, les premières impressions jouent un rôle essentiel dans l'attente que nous avons des personnes que nous rencontrons, et il est difficile de changer ces premières impressions. Commentant les résultats de l'étude, Michael Kurschilgen du MPI de recherche sur les biens collectifs à Bonn s'explique : «Cela est particulièrement vrai lorsqu'il s'agit d'impressions négatives.» Le Dr Kurschilgen, aux côtés de ses collègues Christoph Engel et Sebastian Kube, ont évalué les résultats des «bons joueurs». Selon l'équipe, les personnes qui s'attendaient à ce que d'autres réagissent égoïstement sont celles qui sont sujettes à un comportement non coopératif de la part des autres.

En utilisant des études antérieures comme modèle, les scientifiques ont mis en évidence le dilemme social qui pourrait intéresser les décideurs politiques sociaux et les gestionnaires urbains. «Nous voulions voir si la théorie des 'fenêtres cassées' se vérifiait même en laboratoire», explique le Dr Kurschilgen. Les chercheurs expliquent que cette théorie des fenêtres cassées, «les petits détails», dont les bâtiments abandonnés et les immondices, pourraient entraîner des conditions délabrées similaires dans n'importe quel district. «Ces signes de négligence donnent l'impression que les normes sociales ne s'appliquent pas à cet endroit», explique le Dr Kurschilgen, mettant en lumière l'idée à l'origine de la théorie née de la décision du maire de New York, Rudy Giulani, de lancer une stratégie «zéro tolérance» pour nettoyer la ville il y a 20 ans.

Pour tester sa théorie, les chercheurs ont utilisé des bons jeux, généralement appliqués en économique expérimentale. Ils voulaient déterminer comment les premières impressions influencent le comportement des personnes tout comme les informations sélectives. Selon l'équipe, les jeux étaient basés sur le dilemme classique de l'intérêt personnel et de l'altruisme. Un groupe de quatre joueurs a reçu 20 jetons, qu'ils pouvaient garder ou donner pour un projet communautaire. Chaque joueur reçoit un quart de jeton en retour pour chaque jeton investi dans un projet communautaire. Si tous les joueurs du groupe donnent leurs 20 jetons, ils en reçoivent 32. Ainsi, le gain est de 12 jetons s'ils investissent dans des projets communautaires. Si seuls 3 des 4 investissent leurs jetons dans un projet communautaire, le joueur «égoïste» obtient 44 jetons. Il gagne ce que les autres joueurs ont investi dans le projet.

«Ce jeu dans sa version publique engendre un dilemme social», fait remarquer le Dr Kurschilgen. Il est évident que la communauté entière bénéficierait si tous investissaient dans un projet commun. Mais d'un point de vue individuel, l'égoïsme paie au final. Examinant l'expérience menée à Bonn et celle menée à Londres, au Royaume-Uni, l'équipe a pu remarquer des différences entre les deux villes. À Bonn, l'investissement était de 82 % comparé à Londres, où il n'était que de 43 %. «Cela serait dû aux attentes différentes de ce qui constitue un comportement normal», avance le Dr Kurschilgen. Les gens s'imaginent que les autres seront égoïstes, et sont moins disposés à agir avec altruisme. «De ce point de vue, les Londoniens ont une vision pessimiste de l'homme par rapport aux participants de Bonn», commente-il. Mais une personne peut se comporter avec altruisme sans se demander comment les autres se comporteront aussi.

Pour rendre les choses plus intéressantes, les chercheurs ont publié les résultats de l'étude de Londres au groupe de Bonn. Le groupe a réagit négativement à ces informations, investissant seulement 51 % dans le projet commun comparé au 82 % à l'origine. Mais cela n'a pas fonctionné de la sorte pour l'autre groupe; les bons exemples n'ont pas influencé les «égoïstes». «Nos résultats démontrent que l'essentiel de la théorie des 'fenêtres cassées' est vrai», commente le Dr Kurschilgen. «Confrontés à un dilemme social, chaque individu est fortement guidé par ses attentes originelles de ce que les autres feront, mais est également fortement sensible aux impressions négatives.»

Cordis

Comment le cerveau mémorise notre environnement pour nous permettre de nous orienter
Mardi, 03/05/2011 - 10:24

Connaître sa localisation dans son environnement est une fonction essentielle à la survie de l’individu. Que se passe-t-il réellement dans notre cerveau lorsque nous devons mémoriser les informations essentielles à notre orientation dans l’espace ? L'hippocampe chez l’homme comme chez l’animal joue un rôle central dans plusieurs formes de mémoire et notamment celle des lieux. En effet, on a découvert chez l’animal des neurones dans cette structure qui ne sont activés que lorsque l’animal se trouve dans un lieu donné de son environnement d’où le terme de "cellules de lieu".

Malgré la découverte des cellules de lieu il y a plus de 40 ans, on ne savait toujours pas pourquoi certains neurones de l’hippocampe sont actifs dans un environnement donné alors que la majorité d’entres eux reste silencieuse dans ce même environnement. Comment se fait la sélection des cellules qui participent à la cartographie d’un environnement donné (et potentiellement à sa mémorisation) ? C’est ce que Jérôme Epsztein à l’Inserm (Unité 901 "Inmed") et ses collègues, le Pr. Michael Brecht de l’Université Humboldt de Berlin et le Dr. Albert Lee de l’Institut Médical Howard Hugues en Virginie (USA), ont voulu comprendre en développant une nouvelle technique permettant d’enregistrer in vivo l’activité intracellulaire des cellules de lieu chez le rat pendant l’exploration de son espace environnant.

Contrairement aux techniques d’enregistrement classiquement utilisées chez l’animal en exploration, qui ne permettent d’enregistrer que les messages envoyés par les cellules, cette technique très sensible permet d’enregistrer également les messages reçus par les neurones ainsi que des propriétés intrinsèques fondamentales des neurones. En utilisant cette technique, les chercheurs ont pu comparer très précisément les propriétés des cellules dites "de lieu" et dites "silencieuses" alors que l’animal explorait un environnement pour la première fois (et donc apprenait à s’y repérer).

Les enregistrements effectués par Jérôme Epsztein et ses collègues ont permis de mettre en évidence que, comme on le supposait, les cellules de lieu reçoivent plus de messages excitateurs que les cellules silencieuses dans un environnement donné. Cependant, ils ont également observé que les cellules de lieu ont des propriétés intrinsèques différentes des cellules silencieuses qui facilitent leur réponse à un stimulus donné. De façon surprenante, des différences de propriétés intrinsèques ont pu être observées avant même que l’animal ne soit confronté à une nouvelle expérience à mémoriser. "Ainsi, certaines cellules de l’hippocampe seraient prédisposées à cartographier et potentiellement à mémoriser le prochain environnement exploré" déclare Jérome Epsztein, principal auteur de cette étude.

Cependant, le cerveau est complexe et plastique, c'est-à-dire qu’il se réorganise à chaque instant en fonction des différentes sollicitations qu’il reçoit. "Nos travaux s’appliquent à l’étude du cerveau de ces animaux à un instant donné, explique Jérôme Epsztein. Il se peut qu’à un autre moment, pour appréhender un environnement différent, les cellules silencieuses deviennent cellules de lieu suite à une modification de leurs propriétés intrinsèques". Ces travaux renforcent les connaissances du mécanisme complexe de la mise en mémoire de ce type d’information dans le cerveau, en montrant un rôle potentiellement déterminant des propriétés intrinsèques dans la sélection des neurones qui participent à la formation des souvenirs.

Inserm

Un nouveau cap franchi dans la recherche contre le VIH
Dimanche, 01/05/2011 - 11:40

A la Faculté de médecine de l’Université de Genève (UNIGE), le professeur Jeremy Luban et son équipe viennent de franchir une étape importante vers ce qui, dans plusieurs années, pourrait déboucher sur un vaccin contre le virus du sida. Les scientifiques sont parvenus à cerner le fonctionnement de la protéine TRIM-5 et le blocage temporaire qu’elle induit de la propagation du rétrovirus chez l’humain. Si on savait jusqu’ici que cette protéine joue bien un rôle décisif dans l’inhibition du VIH, les recherches du professeur Luban révèlent aujourd’hui avec précision comment elle opère. Publiés dans la revue Nature, ces résultats revêtent une importance capitale pour la recherche d’une solution thérapeutique efficace au problème du VIH.

Lorsqu’une personne est infectée par le VIH, dans un grand nombre de cas, le virus met plusieurs années avant de se propager dans ses cellules et de prendre la forme de la maladie qui lui est associée : le sida ou syndrome de l'immunodéficience acquise. Pour le professeur Jeremy Luban, du Département de microbiologie et de médecine moléculaire de l’UNIGE, ce « délai », qui dure en moyenne dix ans, pourrait bien résulter de la réponse immunitaire innée du corps humain à l’intrusion du virus et, plus particulièrement, du rôle joué par la protéine TRIM-5 dans ce cadre.

Le chercheur et son groupe viennent ainsi de porter au jour le fait que TRIM-5 fonctionne à la manière d’un récepteur qui reconnaît le comportement spécifique du rétrovirus VIH. Capable, grâce à ses mécanismes moléculaires propres, d’identifier la structure singulière du VIH, TRIM-5 donne immédiatement l’alerte au système immunitaire inné quand la molécule étrangère est présente dans l’organisme.

Pour saisir les implications de cette découverte, il est nécessaire de l’inscrire dans la continuité des recherches sur le VIH et de s’arrêter sur la part que Jeremy Luban y a prise. En effet, c’est en 2004 qu’un doctorant de son laboratoire, alors situé à l’Université Columbia de New York, a identifié la protéine cellulaire qui, chez la plupart des singes, empêche l'infection par rétrovirus. Le laboratoire a isolé ce gène et l’a testé sur des cultures de cellules humaines, puis chez des souris transgéniques présentant les mêmes caractéristiques immunitaires qu’un être humain préalablement infecté par le sida. Ce gène s’est montré aussi actif que son équivalent simiesque en tant qu’inhibiteur de la reproduction du virus. Dès lors, cette protéine a passionné de très nombreux chercheurs (elle a fait l’objet de 300 publications dans des revues scientifiques importantes en moins de deux ans) sans qu’on connaisse toutefois son mode de fonctionnement.

Les résultats des recherches de Jeremy Luban soulèvent beaucoup de nouvelles questions, à commencer par la différence d’« efficacité » de TRIM-5 entre le singe et l’humain. En effet, là où la protéine bloque de façon durable la progression du virus chez le singe, elle ne parvient pas à le faire aussi longtemps chez l’humain.

« On peut présumer que, chez l’humain, TRIM-5 bloque de façon trop faible l’avancée du virus vers le noyau de la cellule en raison du manque de force de sa liaison avec le coeur du VIH. Une voie d’investigation privilégiée actuellement, pour la conception d’un vaccin, est donc la recherche des possibilités de renforcement de cette liaison » déclare Jeremy Luban. Cependant, comme le précise aussitôt le scientifique, cet objectif est encore distant et réclame la poursuite des investigations sur le fonctionnement du VIH en général et de TRIM-5 en particulier.

UNIGE

Une analyse de sang pour dépister les risques d'accouchement prématuré
Dimanche, 01/05/2011 - 11:09

Les naissances avant terme sont responsables de 75 % de la mortalité infantile et des complications médicales chez les nourrissons. Les chercheurs espèrent donc que leur nouvel outil aura un impact important sur les bilans de santé des femmes enceintes. Le plus tôt est le mieux pour la détection des risques de naissance prématurée, car cela permet aux médecins d'intervenir plus rapidement pour prolonger la grossesse, si nécessaire.

Annoncée le 18 avril, cette simple analyse de sang développée par des chercheurs de l'Université Brigham Young et l'Université d'Utah (toutes deux situées dans l'Utah) serait la première à permettre de dépister trois protéines découvertes récemment et six protéines connues depuis plus longtemps. Les femmes qui présentent un risque plus élevé de grossesse prématurée ont des taux plus élevés de ces protéines dans le sang que les femmes dont la grossesse est saine, d'après les chercheurs, qui ont découvert que plus de 80 % des naissances avant terme pouvaient être dépistées à l'avance à l'aide d'une analyse sanguine effectuée lors du deuxième trimestre.

"Si nous pouvions seulement prolonger la grossesse d'une à deux semaines, cela pourrait avoir un énorme impact sur le nombre de bébés qui survivraient, et permettrait de s'assurer que les bébés qui survivent sont en bonne santé", affirme dans un communiqué le Docteur Sean Esplin, qui fait partie de l'équipe de chercheurs. "Une seule intervention suffirait à avoir un énorme impact." Les recherches doivent se poursuivre avant que ce test de dépistage ne soit proposé aux femmes par leurs médecins, mais les chercheurs se disent "optimistes". Ils espèrent que le test sera disponible à l'essai vers la fin de l'année et largement répandu d'ici 2012.

Top Santé

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Des actifs plus nombreux et plus âgés
Jeudi, 05/05/2011 - 08:08

La population active continue de croître à un rythme soutenu. Selon le scénario central des nouvelles projections, le nombre d’actifs augmenterait encore fortement jusqu’en 2025, pour ensuite se stabiliser avant de repartir légèrement à la hausse à partir de 2035 sous l’effet de la fécondité élevée de ces dernières années. En France métropolitaine, le nombre d'actifs serait de 30,1 millions en 2030 et atteindrait 31,2 millions en 2060, soit 2,85 millions de plus qu’en 2010.

Ces projections prennent en compte les nouvelles projections de population totale, les dernières informations sur le marché du travail ainsi que l’impact de la réforme des retraites de 2010. Une remontée de l’activité des seniors induite par les réformes des retraites et une population totale légèrement plus dynamique du fait d’une hypothèse de fécondité plus forte expliquent en grande partie ce nouveau profil.

Du fait de la croissance de la population âgée, il n’y aurait tout de même plus que 1,5 actif pour un inactif de plus de 60 ans en 2060, contre 2,1 en 2010. Une variation du solde migratoire aurait un effet immédiat sur le nombre d’actifs alors qu’une remontée ou une baisse de la fécondité ne jouerait qu’après 2030. Ces variantes n’auraient cependant que peu d’impact sur le rapport entre actifs et inactifs de plus de 60 ans.

Insee

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voitures électriques : quel coût pour les infrastructures de recharge ?
Mercredi, 04/05/2011 - 10:41

Développer les véhicules électriques, soit, mais comment ? C'est aux multiples questions que soulève cette problématique que tente de répondre le Livre vert sur les infrastructures de recharge des véhicules électriques qu'a remis son auteur, le sénateur des Alpes-Maritimes, Louis Nègre, à la ministre de l'Écologie, Nathalie Kosciusko-Morizet. Le déploiement d'un tel chantier est primordial. Car bien qu'ayant de grandes qualités comme celle de n'être pas (ou peu) polluants, les véhicules électriques ont également un gros défaut : leur faible autonomie. Le déploiement d'infrastructures de recharge et leur dissémination sur l'ensemble du territoire, le respect de normes techniques afin d'assurer l'accessibilité de tous les véhicules aux stations de recharge, comptent parmi les données incontournables à respecter si on espère faire circuler correctement 2 millions de voitures électriques et hybrides rechargeables en 2020, comme le prévoit le plan national véhicules électriques adopté par le gouvernement en octobre 2009.

Le Livre vert cible spécifiquement les collectivités locales qui « ont un rôle important à jouer dans le déploiement de l'infrastructure de recharge ». Il présente quelques évaluations permettant d'éclairer très concrètement l'ampleur de la tâche. Sur la base du plan national pour les véhicules décarbonés, « la pénétration des véhicules rechargeables dans le parc automobile devrait être de l'ordre de 1,2 % en 2015 et 5 % en 2020. Pour une agglomération de 500.000 habitants et un parc d'environ 275.000 véhicules, cela représente un parc de 3.300 véhicules rechargeables à l'horizon 2015 et environ 15.000 en 2020, dont il faudra satisfaire les besoins de recharge ».

Autrement dit, combien de bornes de recharge faut-il installer pour satisfaire cette évolution ? « Pour les 25 plus grandes agglomérations de France, ces principes impliquent le déploiement de 7.000 points de charge ouverts au public en 2011 et 44.000 points de charge ouverts au public en 2014, dont 50 % sont destinés à la charge principale en espace public (en charge normale à 3 kVA) », répond le document.

Les collectivités territoriales qui superviseront le déploiement de ces infrastructures auront également à s'inquiéter de leur coût. Et la facture sera salée. Le Livre vert rappelle en effet que l'ensemble des frais inhérents à l'installation d'une borne de recharge « normale », c'est-à-dire une borne qui implique un branchement d'environ 6 à 8 heures pour recharger une voiture électrique, coûte environ 4.000 euros pièce. Et jusqu'à 9.000 euros pour sa cousine qui permet le branchement simultané de 12 véhicules. Au total, « à l'échelle des 25 plus grandes agglomérations de France, cela implique un flux de coûts de l'ordre de 45 millions en 2011 et 300 millions en 2014 ». Et pour les automobilistes ? « Si les frais d'infrastructure de recharge devaient être supportés intégralement par le client final, il faudrait alors leur faire payer (pour chaque plein de 25 kWh) des prix compris entre 13 euros pour une charge normale et 36 euros pour une borne de charge rapide, auxquels pourrait s'ajouter le coût de l'électricité estimé à environ 2 euros pour ce même plein ». Pour un trajet d'environ 100 km...

La Tribune

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top