RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 642
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Mars 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
GREE vise un milliard d'adeptes à ses jeux vidéo
Avenir
Nanotechnologie : les images moléculaires d'IBM aident à la miniaturisation
Vers des robots fantassins !
Matière
Imperméabiliser les textiles sans eau ni solvant !
L'Europe rend contraignant l'objectif de réduction de 20 % de sa consommation globale d'énergie
L'armée américaine dispose d'un canon électromagnétique
Une cellule solaire souple et organique
Stockage de l'hydrogène : une avancée majeure
Produire du plastique à partir de la biomasse
L'avenir de l'électricité est dans le réseau intelligent
De l'énergie solaire bon marché grâce à des nanocristaux
Intel veut intégrer le WiFi dans ses puces
L'hydroélectricité : une énergie d'avenir
Terre
Depuis 300 millions d'années, jamais les océans n’ont été aussi acides
Vivant
Cancer : la mortalité continue de reculer en Europe
Cancer de la prostate : la détection dans l'urine est possible
Une bactérie génétiquement modifiée pour lutter contre le changement climatique
Un vaccin universel contre la grippe d'ici 2017
Régénération cardiaque : un nouveau pas en avant
Une hyperactivité cérébrale à l’origine des multiples symptômes de la dépression
Somnifères : une consommation même faible, augmente le risque de décès
Vers un vaccin contre la dépendance à l'héroïne
Thérapie génique de l’amaurose congénitale de Leber : il est possible de traiter les deux yeux !
Polyarthrite rhumatoïde : un traitement de fond par voie orale très prometteur
Lithium : un nouvel espoir pour remyéliniser les nerfs lésés
Découverte d'une nouvelle famille de molécules anti-cancéreuses
La maltraitance dans le cerveau
Une meilleure compréhension du lien entre mémoire et stress
Un séquenceur d'ADN révolutionnaire
Existe-t-il dans les profondeurs du cerveau un centre général de la motivation ?
Homme
Le troisième âge, avenir de l'économie française ?
Ötzi était-il cardiaque ?
Recherche
Un nouveau concept de véhicule électrique biplace
Mazda : un nouveau système anti-crash
Edito
Avant 2020 : Une cartographie complète de notre ADN en moins d'une heure !



Il y a exactement un siècle, le grand scientifique américain Thomas Morgan (prix nobel de médecine en 1933) qui ne croyait pourtant pas aux lois de l'hérédité découverte empiriquement par Mendel en 1865, démontrait magistralement l'existence des mutations génétiques dans ses célèbres expériences sur les mouches drosophiles. Il montrait peu de temps après que les chromosomes étaient bien les supports des gènes et en 1913, Morgan et Strutevant réussirent à établir la première carte génétique du chromosome X de la mouche drosophile en repérant l'emplacement des gènes sur ce chromosome.

Quarante ans plus tard, en 1953, l'américain James Watson et l'anglais Francis Crick découvraient la structure en double hélice de l'ADN et faisaient entrer la génétique et l'ensemble des sciences de la vie dans une nouvelle ère. Début 2001, à l'issue de 15 ans d'efforts, les deux équipes scientifiques en compétition, le Human Genomic Program et le groupe privé Celera Genomic, dirigé par Craig Venter, publiaient une première carte de 95 % du génome humain, composé, comme on le sait, de 3 milliards de paires de bases qui constituent nos 23 paires de chromosomes. Fin 2004, une nouvelle étape était franchie avec la publication de la cartographie complète du génome humain mais réalisé à partir de plusieurs personnes. Enfin, en 2007, les scientifiques publiaient la première "carte" complète du génome d'un seul individu. 

La plus grande surprise révélée par cette entreprise titanesque fut le faible nombre de gènes composant notre génome : environ 22 000, selon les dernières estimations alors que la plupart des scientifiques prévoyaient au moins 120 000 gènes au début des années 90 ! Ce nombre réduit de gènes montrait que la complexité de notre génome résidait essentiellement dans l'action combinée de nos gènes et dans leurs modes d'expression.

Dés 1990, alors que le séquençage de notre code génétique commençait à peine, des scientifiques américains réalisaient les premières tentatives de thérapie génique. Il s'agissait alors de traiter un enfant atteint d'une maladie héréditaire liée à un déficit en adénosine désaminase. En France, les essais de thérapie génique commencèrent en 1993 et fin 2010, une équipe française dirigée par Philippe Leboulch parvenait à traiter un patient atteint d’une maladie génétique grave du sang, la ß -thalassémie, grâce à une nouvelle forme de thérapie génique.

En octobre 2007, une équipe française dirigée par Patrick Aubourg - neuropédiatre à l'hôpital Saint-Vincent de Paul à Paris, franchissait une nouvelle étape en réussissant la première thérapie génique au monde contre l'adrénoleucodystrophie, une maladie génétique très grave qui provoque une démyélinisation du système nerveux central. En utilisant une forme désactivée du virus du sida comme vecteur, les chercheurs parvenaient à transférer le gène manquant dans les cellules de la moelle osseuse et les cellules sanguines de deux malades. Grâce à cette correction génétique, les cellules nerveuses se sont mises à produire la protéine qui faisait défaut, ce qui s'est traduit par une amélioration durable de l'état de santé des patients.

En août 2011, une équipe américaine dirigée par le docteur Carl June (Université de la Pennsylvanie) a annoncé avoir obtenu des résultats très encourageants contre certaines formes de leucémie (leucémie lymphoïde chronique). Ces chercheurs ont réussi à modifier les lymphocytes T en y introduisant un gène et les cellules ainsi modifiées se sont mises à détruire les cellules cancéreuses de manière particulièrement efficace. Forts de ce succès, ces chercheurs veulent à présent tester cette thérapie sur d'autres cancers graves comme le cancer du cerveau, du pancréas et des ovaires.

Il y a quelques semaines, une équipe américaine dirigée par le Docteur Jean Bennett, professeur d'Ophtalmologie à l'Université de Pennsylvanie, annonçait le succès d'une thérapie génétique expérimentale dans le traitement de l’amaurose congénitale de Leber (ACL), une dégénérescence incurable des récepteurs lumineux de la rétine qui finit par provoquer à terme une cécité complète. Ces chercheurs sont parvenus à utiliser un virus comme vecteur pour corriger la mutation du gène RPE65, responsable de cette maladie grave. Ils peuvent à présent traiter les deux yeux des malades atteints par cette grave affection de la vue.

Enfin, il y a quelques jours, des chercheurs britanniques du University College London (Grande Bretagne) et du St. Jude Children's Research Hospital (USA) ont réussi à traiter par thérapie génique six patients atteints d'hémophilie B en introduisant à l'aide d'un virus le gène manquant dans les cellules qui normalement produisent le Facteur IX assurant la coagulation. Ces résultats remarquables ouvrent une nouvelle voie thérapeutique dans le traitement de l'hémophilie B.

Parallèlement à ces avancées spectaculaires en matière de cartographie du génome humain et de thérapie génique, des progrès considérables ont été accomplis au cours de ces dernières années en matière de séquençage des gènes. Le grand scientifique Frederick Sanger qui a reçu deux prix Nobel de chimie, en 1958 et 1980, a mis au point en 1977 la première technologie de séquençage de l'ADN. Cette méthode qui porte son nom repose sur la séparation par électrophorèse des fragments d'ADN. Elle est efficace mais n'a pas un très bon rendement et nécessite une préparation de l'ADN relativement onéreuse. La méthode Sanger a néanmoins permis de décoder le génome de nombreux organismes et animaux, dont le rat.

A partir de 2005, sont apparues les technologies par séquençage de nouvelle génération (ou NGS pour next generation sequencing) qui reposent sur le décodage simultané de millions de fragments d'ADN. Enfin, depuis 2009, une troisième génération technologique est apparue, le séquençage en temps réel qui repose sur les nanotechnologies et permet le séquençage de brins de plus de 1000 bases à une vitesse de 10 bases par seconde.

Mais une nouvelle révolution technologique se profile et, à l'occasion du congrès consacré aux avancées dans le domaine de la génétique et de la génomique qui vient d'avoir lieu à Marco Island (Floride), la société Oxford Nanopore Technology (ONT) a fait sensation en présentant deux nouveaux outils de séquençage : le MinIon et le GridIon.

Ces outils utilisent  des nanopores d'un diamètre variant de 1 et 100 nm. Lorsqu'une molécule d'ADN traverse l'un de ces nanopores, ce dernier produit un signal électrique spécifique correspondant au type de nucléotides concerné. Cette technologie simple et peu coûteuse devrait permettre de diminuer considérablement le temps de séquençage des brins d'ADN et le coût de cette opération. Autre innovation remarquable présentée par Oxford Nanopore : le "MinIon". Il s'agit d'un petit terminal, vendu 700 euros, qui ressemble à une clé USB et peut lire directement l'ADN contenu dans un échantillon de sang. Il a été testé sur des génomes simples de microorganismes (bactéries et virus) et a pu séquencer leur ADN en moins d'une minute !

Théoriquement, cet appareil est capable de décoder un génome humain entier en une demi-journée, ce qui est stupéfiant si l'on se rappelle que le décodage du génome humain achevé en 2001 a pris 10 ans et coûté deux milliards d'euros ! A un tel rythme d'innovations technologiques, on considère à présent qu'il sera possible d'ici 3 à 5 ans, de disposer d'une cartographie complète et fiable de son ADN en moins d'une heure chez son médecin pour quelques centaines d'euros.

Cette révolution technologique en matière de séquençage de l'ADN va avoir des retombées majeures en matière scientifique et médicale, pourquoi ? Parcequ'en disposant, dès la naissance, d'une cartographie compète du génome de chaque individu, la médecine va changer de nature et entrer dans l'ère prédictive. En connaissant les risques et prédispositions génétiques, pour chacun, de développer telle ou telle maladie, les médecins pourront mettre en œuvre des stratégies personnalisées de prévention active extrêmement efficaces car on sait aujourd'hui, grâce à des découvertes récentes, qu'un changement durable dans notre mode de vie peut modifier profondément en retour les mécanismes et modes d'expression de nos gènes.

Il est donc permis d'espérer qu'il sera possible, en combinant l'utilisation de thérapies géniques de plus en plus efficaces, la mise en œuvre, dans certains cas, d'une prévention chimiothérapique et l'adoption de préventions personnalisées axées sur le mode de vie (changements alimentaires et exercice physique), de déjouer les risques inscrits dans notre génome et d'éviter ou de retarder sensiblement l'apparition des pathologies auxquelles nous étions pourtant génétiquement prédisposés.

Mais l'avènement rapide et inéluctable de cette médecine prédictive, si elle est porteuse d'immenses espoirs, pose néanmoins des problèmes éthiques et politiques redoutables. Que dire en effet aux patients adultes chez lesquels le séquençage du génome révélera un fort risque de maladie incurable à relativement court terme ? Comment évaluer avec précision le rapport coût/bénéfice entre une intervention préventive pouvant être lourde pour le patient et coûteuse pour la collectivité et la réalité du risque de développer telle ou telle maladie grave dans un futur lointain ? Enfin, et ce n'est pas le moins important, comment s'assurer que les informations sensibles concernant notre génome seront parfaitement protégées et ne seront jamais diffusées sans notre consentement à des tiers qui pourraient être tentés de les utiliser à des fins commerciales ou utilisées à des fins politiques peu recommandables ?

On voit donc à quel point il est important que nos concitoyens et les responsables politiques se saisissent de ces questions éthiques fondamentales et mettent en œuvre des instances et des procédures de réflexions et de concertations démocratiques qui puissent fixer un cadre juridique, moral et social à ces extraordinaires progrès scientifiques et technologiques qui vont bouleverser à court terme notre société.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le jeu vidéo Gree vise 1 milliard d'adeptes
Jeudi, 08/03/2012 - 00:30

L'éditeur de jeux vidéo en ligne a conclu un accord avec les français Gameloft et Ubisoft.

À mi-chemin entre l'éditeur américain de jeux vidéo Zynga et le réseau social Facebook, le japonais Gree est en­core méconnu en France. Son président et fondateur, Yoshikazu Tanaka, est venu expliquer ses ambitions à Paris à l'occasion de la signature d'un partenariat avec l'éditeur de jeux vidéo Ubisoft et Gameloft, spécialisée dans l'adaptation de jeux pour les téléphones mobiles et les tablettes Internet. «Nous avons près de 200 millions d'utilisateurs de nos jeux. Mais dans trois à cinq ans nous devrions compter un milliard de joueurs en ligne sur notre prochaine plate-forme sociale de jeux», a expliqué le patron de Gree. L'entreprise attire de nombreux nouveaux utilisateurs chaque jour au moyen de l'un des 8000 titres qu'il propose. Pour tirer sa croissance, Gree compte surfer sur les tendances du moment : les réseaux sociaux et les jeux pour mobile. Dans ce but, l'entreprise japonaise va lancer sa propre plate-forme de jeux en ligne, accessible via iPhone, iPad, smartphones et tablettes qui utilisent Android de Google, en quatorze langues au deuxième trimestre.

Une capitalisation boursière de 5,2 milliards

Comme Mark Pincus, le président et fondateur de l'éditeur américain Zynga, Yoshikazu Tanaka veut disposer de sa «propre plate-forme et de son propre réseau social», sans passer par Facebook. Il veut uniformiser ses deux plates-formes de jeux vidéo, celle de Gree et d'OpenFeint, acquise en avril dernier. De plus, l'entreprise veut se développer à l'international et multiplie les partenariats, à l'instar de celui tissé avec le chinois Tencent. En France, Ubisoft s'est engagé à fournir un nouveau jeu de la série Assassin's Creed «exclusivement dédié à la plate-forme Gree», a précisé Déborah Papiernik, responsable des partenariats d'Ubisoft. Et le studio japonais de Gameloft, l'un des 25 que compte l'entreprise dans le monde, va concevoir un jeu spécifique de cartes, très prisé au Japon, pour la prochaine plate-forme sociale de l'entreprise nippone.

L'offensive de Gree ne doit pas être prise à la légère. Fondée en 2004, cotée à Tokyo, l'entreprise a une capitalisation boursière de 5,2 milliards d'euros. La société devrait réaliser un chiffre d'affaires d'environ 1,65 milliard d'euros pour l'exercice fiscal 2012, clos fin juin, pour une marge opérationnelle de 50 %. Elle ne propose pourtant que des jeux gratuits. L'entreprise se rémunère avec la publicité, la vente de compléments pour les jeux et de SMS surtaxés destinés à envoyer certains jeux sur un téléphone mobile.

Pour conduire sa croissance internationale, l'entreprise, qui compte «un millier de salariés, nombre qui a triplé en un an, a ouvert un bureau à San Francisco et dans sept autres pays l'an dernier», raconte Yoshikazu Tanaka.

Le Figaro

^ Haut
Avenir
Nanotechnologies et Robotique
Nanotechnologie : les images moléculaires d'IBM aident à la miniaturisation
Jeudi, 08/03/2012 - 00:20

Pour la première fois, des chercheurs d'IBM ont réussi à voir comment une charge éléctrique était distribuée à l'intérieur d'une molécule. C'est une avancée capitale pour la recherche fondamentale au moment où les scientifiques cherchent à miniaturiser des circuits à l'échelle du nanomètre.

IBM a étudié le comportement de structures moléculaires placées sur des surfaces artificielles. « L'objectif est de rendre ces molécules fonctionnelles dans le futur, pour les utiliser comme des interrupteurs ou des transistors par exemple », a déclaré Fabian Mohn, chercheur chez IBM. Ce sont des techniques de microscopie et d'imagerie avancées qui ont été utilisées pour voir comment se répartissait et se distribuait la charge de liaisons chimiques formées entre atomes et molécules placés sur ces surfaces.

« Cette percée de la recherche est un pas en avant dans la compréhension, le contrôle et le peaufinage des structures moléculaires des systèmes électriques », a déclaré le chercheur. Par exemple, une molécule qui aurait des propriétés intéressantes pour séparer des photons en charges positives et négatives dans chaque direction pourrait faciliter et rendre plus efficace la transformation de la lumière en électricité par les cellules solaires.

« Cette découverte permet aussi de mieux comprendre l'efficacité d'une structure moléculaire comme interrupteur, diode ou transistor », a déclaré Michael Crommie, professeur de physique à l'Université Berkeley de Californie, et chercheur auprès du Lawrence Berkeley National Laboratory. « Certaines personnes pensent qu'il serait intéressant d'utiliser les molécules comme des blocs de construction pour les systèmes électriques », a déclaré le chercheur qui n'a pas participé à la recherche d'IBM. « L'un des problèmes est de trouver comment organiser les molécules sur ces surfaces pour faire ce que nous voulons qu'elles fassent. Beaucoup de chercheurs travaillent sur le sujet. »

« La technique d'IBM repose sur un outil de diagnostic qui permet aux chercheurs de mieux caractériser les petites structures », a déclaré Michael Crommie. Les molécules sont des assemblages d'atomes ayant des configurations particulières et reliées entre elles par des liaisons chimiques. Elles se comportent différemment selon l'environnement. Les électrons maintiennent les atomes ensemble et donnent aux molécules toutes leurs propriétés. La façon dont les systèmes moléculaires peuvent se comporter est infini. « Les chercheurs aimeraient prédire le comportement moléculaire sur les surfaces et affiner les structures en conséquence », a expliqué l'universitaire. Par exemple, l'outil d'IBM pourrait aider les chercheurs du Lawrence Berkeley National Laboratory à créer des dispositifs de graphène plus efficaces en leur appliquant des modifications au niveau atomique. Michael Crommie voudrait modifier le graphène en ajoutant ou en supprimant une charge, ou encore voir comment le graphène influe sur le comportement d'une molécule.

Le Monde Informatique

Vers des robots fantassins !
Vendredi, 02/03/2012 - 05:30

L'armée américaine travaille actuellement sur le «projet Avatar» visant, de la même manière que les drones, à contrôler à distance des robots-soldats pour les missions de terrain. Les robots sont-ils le futur de la guerre ? Après les drones, permettant d'éloigner les pilotes des zones de conflit, l'armée américaine développe un projet de soldat robot, révèle le blog Danger Room du site américain Wired. L'Agence américaine des programmes de recherche avancée de défense (DARPA) vient ainsi d'allouer 7 millions de dollars (5 millions d'euros) sur son budget 2013 pour le «projet Avatar».

Ce dernier prévoit de «développer des interfaces et des algorithmes permettant à un soldat de faire équipe avec une machine bipède semi-autonome, et d'en faire son alter-ego» sur le champ de bataille. Le robot, qui se devra d'être intelligent et habile, pourra «inspecter une pièce à sécuriser, faire une ronde de garde et récupérer des blessés sur le terrain», et ce sur ordre de son «maître». Le nom du projet n'est évidemment pas sans rappeler le film éponyme de James Cameron, où des soldats contrôlent par leur esprit des créatures situées sur une autre planète.

Si cela paraît encore bien lointain - le robot devrait vraisemblablement fonctionner de la même manière qu'un drone grâce à des commandes activées à distance -, Wired note que le Darpa a déjà subventionné il y a quelques années des recherches visant à contrôler un bras mécanique grâce... au cerveau d'un singe. Depuis deux ans, les ingénieurs du Darpa tentent de réaliser la même prouesse avec un esprit humain. Le but de cette recherche est d'améliorer grandement le quotidien de personnes handicapées grâce à des prothèses intelligentes. Mais ces avancées pourraient être utilisées à terme pour contrôler des robots via l'esprit.

Avatar n'est pas la seule machine intelligente à bientôt se retrouver sur le champ de bataille. Le Darpa travaille aussi sur le projet AlphaDog, un robot à quatre pattes capable de porter jusqu'à 400 kg de matériel. Si AlphaDog peut reconnaître le terrain et éviter les obstacles comme des arbres ou des fosses, le robot devrait aussi pouvoir «interagir de manière naturelle avec les soldats, comme un animal dressé avec son maître». Wired note que le robot sera également capable de suivre un humain grâce à des capteurs visuels et de comprendre des ordres oraux.

Le Figaro

^ Haut
Matière
Matière et Energie
Imperméabiliser les textiles sans eau ni solvant !
Jeudi, 08/03/2012 - 00:40

Pour conférer de nouvelles propriétés aux textiles, une société rhodanienne, Fibroline, a développé l’imprégnation électrostatique. C’est une technique dite ''par voie sèche'' : plutôt que de diluer un revêtement dans un solvant et d’en imprégner le matériau à traiter, la société le réduit sous forme de poudres. Elle emploie ensuite un champ électrique alternatif pour mettre ces poudres en mouvement. Les fines particules ainsi agitées viennent se loger au creux des fibres des textiles poreux. Suivant la nature du matériau et la fonction recherchée, Fibroline conçoit une formulation de poudre adéquate et ajuste le champ électrostatique pour garantir une pénétration optimale.

L’avantage du procédé est d’abord environnemental puisqu’il abolit tout recours à des solvants ou à de l’eau. Il offre aussi une alternative aux additifs classiques. Grâce à ces poudres, l’industriel Beaulieu a ainsi pu remplacer le revêtement latex de ses moquettes d’exposition et améliorer leur recyclabilité. La ligne en service chez Beaulieu traitera jusqu’à 25 millions de mètres carrés de moquette par an. Fibroline a également reçu le prix de l’innovation Techtextil à Francfort pour un procédé de fabrication de tapis de voiture non  latexés.

Industrie & Technologies

L'Europe rend contraignant l'objectif de réduction de 20 % de sa consommation globale d'énergie
Jeudi, 08/03/2012 - 00:00

Le Parlement européen a décidé, le 28 février, de fixer des objectifs contraignants de baisse de consommation d'énergie dans le cadre de la directive sur l’efficacité énergétique qui oblige les pays membres de l’Union-Européenne à réduire leur consommation énergétique de 20 % d’ici 2020. Le but final est que la consommation énergétique européenne soit de 1.474 Mtep en 2020, ce qui représente une baisse de la consommation européenne d'énergie de 368 Mteps d'équivalent-pétrole d'ici 2020 et une diminution de la facture d’énergie de 200 milliards d'euros par an. Cette économie de 368 Mteps d'ici 2020 est un objectif très ambitieux puisque cette quantité d'énergie représente environ une fois et demi la consommation totale d'énergie de la France en 2010 et 3 % de la consommation mondiale d'énergie (12 gigatonnes en 2010).

Cette directive vient compléter et durcir le "Paquet énergie-Climat", adopté en décembre 2008, sous présidence française par l'UE et qui fixe l'objectif des "trois fois 20" : améliorer l'efficacité énergétique de 20 %, porter à 20 % la part de renouvelable dans la consommation finale d'énergie et réduire de 20 % les émissions de CO2 par rapport à leur niveau de 1990). Deuxième volet de cette directive : les entreprises et le public devront eux aussi faire des économies d’énergie ; ainsi, les fournisseurs d’énergie devront réaliser 1,5 % d’économies d’énergie tous les ans. En France, cela se traduit notamment par le dispositif des certificats d’économies d’énergie.

Avant 2014, il devra également être fait 2,5 % d’économies d’énergie dans les bâtiments « occupés ou détenus par le public » excédant 250 mètres carrés. Cela devrait permettre de faire 24 Mtep d’économies d’énergie d'ici 2020.

Une obligation concerne notamment les grandes entreprises qui devront faire un audit énergétique tous les 4 ans par des experts agréés. En France, il existe déjà le Diagnostic de Performance Énergétique (DPE) qui est un bilan énergétique effectué lors des transactions immobilières. Ces types de bilans énergétiques permettent de comprendre quels sont les travaux possibles pour réaliser des économies d’énergie.

Vos économies d'énergie

L'armée américaine dispose d'un canon électromagnétique
Mercredi, 07/03/2012 - 00:30

Cette arme fonctionne sans poudre, ni produit chimique : un courant électrique variable très intense envoyé le long de deux rails parallèles crée une force électromagnétique qui permet de propulser un projectile métallique à une très grande vitesse. La marine de guerre des Etats-Unis travaille sur cette nouvelle arme depuis 2005 et avait déjà réalisé des tests en 2010 sur un prototype expérimental.

Fabriqué par le géant de l'armement BAE Systems, le premier prototype industriel a été livré le 30 janvier dernier à la Navy qui a pu effectuer ses premiers tests fin février. Ce "canon" a une capacité de 32 mégajoules (le joule étant une unité quantifiant l'énergie), sachant qu'un mégajoule correspond à une voiture d'une tonne propulsée à 160 km/h.

Le potentiel destructeur de cette arme dépend de la masse du projectile et de la vitesse à laquelle il est projeté. Les Américains assurent pouvoir atteindre des vitesses comprises entre 7000 et 9000 km/h, et espèrent pouvoir atteindre rapidement des cibles à 185 km. L'objectif est maintenant d'optimiser les dispositifs de refroidissement de ces canons pour atteindre la cadence de dix tirs à la minute nécessaire au combat réel. Parallèlement, la Navy réfléchit déjà à des supports pour embarquer ces armes du futur. La premièr force aéronavale au monde affirme que cette arme va lui permettre de diversifier ses missions (attaque au sol précise et lointaine, destruction de missiles balistiques ennemis ou de bateaux croiseurs...).

Le Monde

Une cellule solaire souple et organique
Mardi, 06/03/2012 - 00:00

La firme japonaise Nippon Kayaku Co. a mis au point une cellule solaire à colorant sans ruthénium. Elle cherche maintenant à améliorer le rendement de cette cellule souple 100 % organique. Les cellules solaires à colorant pourraient bien incarner la nouvelle génération du photovoltaïque. Aussi appelées cellules de Graëtzel en hommage au chercheur de l’École Polytechnique Fédérale de Lausanne (EPFL) qui les a mises au point, elles sont constituées d’un substrat organique abondant. Leur production ''low cost'' basée sur des procédés d’impression classiques, pourrait en faire un concurrent très sérieux aux technologies traditionnelles recourant au silicium cristallin ou aux couches minces de type CIGS ou CdTe. Flexibles, ultra légères et transparentes, elles présentent par ailleurs un intérêt certain pour l’intégration du photovoltaïque dans une diversité d’applications.

A moyen terme, la filière photovoltaïque organique pourrait cependant se heurter à l’épuisement du ruthénium, un métal rare entrant à faibles doses dans la composition des cellules de Graëtzel. L’annonce de Nippon Kayaku Co, qui aurait élaboré une formulation sans ruthénium, semble donc aller dans le bon sens. Selon l'entreprise japonaise, la nouvelle formulation serait 100 % organique – basée uniquement sur les quatre éléments hydrogène, oxygène, azote et du carbone.

Revers de la médaille,  ces nouvelles cellules affichent un rendement de 5 à 6 %, soit la moitié de leurs cousines dopées au ruthénium, et le tiers des cellules standard au silicium cristallin. Moyennant une amélioration de ces performances, Nippon Kayaku annonce une possible commercialisation à l'horizon 2014-2015 via une collaboration avec Toppan Forms Co.

Industrie & Technologies

Stockage de l'hydrogène : une avancée majeure
Lundi, 05/03/2012 - 00:20

Le programme de recherche piloté par l’entreprise coréenne de matériaux Insilicotech, partiellement financé par le ministère de l’éducation, des sciences et technologies, a permis de créer un nouveau type de stockage de l’hydrogène. Peut-être la réponse à un des défis majeurs du 21ème siècle. Si la propulsion par pile à combustible semble une des manières les plus propres pour propulser les transports, le stockage du carburant reste le principal problème à son adoption. Dans des conditions normales, l’hydrogène a une masse volumique de 0,09 g/l. Avec une telle densité, il faudrait un réservoir de 45 000 litres pour assurer une autonomie de 400 kilomètres à un véhicule particulier. Un peu encombrant. C’est pourquoi les véhicules expérimentaux de transport à l’hydrogène utilisent des solutions de stockage allant jusqu’à 700 bars, avec les dangers et la consommation énergétique pour mettre le gaz sous pression que cela comporte. Une autre solution consiste en un stockage par ‘adsorption sur composé solide’ dans des pores nanométriques.

La technologie présentée par l’équipe coréenne permet d’augmenter la taille de ces pores de 0,321 nanomètres pour les solutions classiques à 0,8 nanomètres tout en conservant l’effet d’adsorption qui permet le stockage. Moins de structures solides et plus d’espace conduisent à un meilleur rendement, qui peut atteindre 61,7 grammes par litres. Tout près des 70 grammes par litre considérés par le département de l’énergie américain comme viable pour l’utilisation dans les véhicules particuliers. Choi Seung-hoon, l’un des responsables du projet de recherche, est optimiste : "Les résultats de ce programme ont fait progresser de manière considérable l’étude sur le stockage de l’hydrogène. C’est une technologie qui peut être utilisée dans les piles à combustible."

Green et Vert

Produire du plastique à partir de la biomasse
Dimanche, 04/03/2012 - 00:00

Hirsa Maria Torres Galvis et son équipe de chimistes ont mis au point un moyen efficace de produire du plastique depuis la biomasse. Ils ont découvert une nouvelle classe de catalyseur, agent influençant la modification chimique des matières végétales. Cette découverte pourrait permettre de développer une alternative plus verte à la production de pétrole actuelle.

En amont de la production de plastique, les combustibles fossiles (pétrole, gaz naturel, charbon) sont traditionnellement traités afin d’extraire les substances composant la résine propre au plastique. Ces substances (éthylène, propylène, benzène, etc.) peuvent également être extraites après traitement de la biomasse végétale, via l’usage d’un catalyseur chimique avec fer, permettant de transformer la matière.

Ce procédé, déjà connu, ne pouvait jusqu’alors pas être appliqué aux chaînes de production plastique, en raison de la libération de méthane que provoquait l’action du catalyseur – l’effet du méthane nuisant au fonctionnement des appareils de traitement biomassique.

D’où le tour de force de l’équipe de Hirsa Torres Galvis, dont les résultats d’étude ont permis l’élaboration d’une nouvelle classe de catalyseur avec fer ne générant plus de méthane. Cette découverte rend envisageable l’invention d’un procédé industriel dans le domaine de la production plastique. Un procédé plus « propre » et dans lequel n’entrerait pas en jeu le pétrole.

Enerzine

L'avenir de l'électricité est dans le réseau intelligent
Samedi, 03/03/2012 - 00:10

L'avenir de l'énergie,  notamment électrique, est le réseau intelligent, dit smart grid. Mais ce système de réseau ne fonctionnera vraiment que lorsque l'électricité qui y circule pourra être réutilisée par d'autres objets. C'est sur un tel  projet, véritable défi pour l'avenir, que travaille Endesa, producteur et distributeur d'électricité en Espagne et en Amérique Latine, propriété du groupe italien Enel. En effet, l'entreprise, en collaboration avec le centre CITCEA de l'Université Polytechnique de Catalogne et l'Institut pour la recherche en énergie de Catalogne, a développé un prototype de chargeur de type V2G (Vehicle-to-grid) permettant de réutiliser de l'énergie à partir d'une voiture.

Endesa compte se servir de son prototype pour recharger les batteries d'une voiture électrique en stationnement. Une fois les batteries pleines, le chargeur, relié au réseau électrique, servira à alimenter d'autres objets fonctionnant à l'électricité. Une des principales sources d'énergie renouvelable est en effet l'éolien. Or, c'est la nuit que les éoliennes produisent le plus d'énergie. Mais comme il n'est pas possible de la stocker, celle-ci est produite...et perdue. En attendant de trouver le Graal énergétique de la pile de stockage à grande échelle, les acteurs du secteur de l'énergie misent donc sur le réseau intelligent. Ce réseau permettrait d'améliorer l'utilisation qui est faite de l'énergie produite, et notamment d'équilibrer l'offre et la demande en permettant à l'énergie produite d'être utilisée pour pourvoir aux besoins  d'une maison, par exemple.

Le prototype de chargeur est actuellement en phase de validation. Cette étape bouclée, l'appareil sera testé pour le projet de ville intelligente SmartCity Malaga mené par Endesa. Il sera installé sur des voitures électriques Mitsubishi i-MiEV. A l'avenir, le chargeur devrait permettre d'alimenter d'autres objets donc, mais pas seulement. En effet, il servira également au propriétaire de revendre l'électricité ainsi distribuée. Et ce n'est pas de la science fiction : cette technologie devrait être une réalité à horizon 2020.

L'Atelier

De l'énergie solaire bon marché grâce à des nanocristaux
Samedi, 03/03/2012 - 00:00

Les panneaux solaires actuels, faits de silicium, sont onéreux. En plus, ils ont un gros défaut : ils ne transforment en électricité que la lumière visible du Soleil, pas les rayons infrarouges. Or, ces rayons chauds et invisibles représentent près de la moitié de l’énergie solaire qui atteint la Terre. Quel gaspillage ! Des scientifiques de partout dans le monde tentent donc de créer des panneaux capables d’absorber les infrarouges. Dongling Ma vient de surmonter le défi grâce à des nanomatériaux créés de toutes pièces dans son laboratoire ! Les nanomatériaux sont construits avec des « briques » infiniment petites, qui leur donnent des propriétés fabuleuses. Dongling Ma est tombée sous leur charme pendant son doctorat aux États-Unis : « Ces matériaux sont tellement fascinants ! Ils permettent de faire des choses incroyables ! ». À partir de sulfure de plomb — un minerai très abondant — la chercheuse a fabriqué de minuscules cristaux qui ne renferment que quelques centaines d’atomes. À cette échelle, on entre dans un nouveau monde qui ne répond plus aux lois de la physique classique. Ici, c’est la physique quantique qui règne en maître.

Dans notre monde, pour le sulfure de plomb par exemple, ce phénomène n’est possible que pour la lumière d’une certaine « couleur ». Mais à l’échelle nanométrique, le sulfure de plomb devient changeant. Plus on rapetisse la taille du cristal — qu’on appelle « boîte quantique » — plus la lumière qu’il absorbe tire vers le bleu. Au contraire, plus le cristal grossit, plus il « boit » de la lumière rouge. Attention : les rayons ne sont vraiment ni rouges ni bleus puisque nous sommes dans l’infrarouge et non le visible. Mais le principe est le même… Dongling Ma a créé un nanocristal capable d’absorber des rayons solaires de différentes fréquences simplement en changeant sa taille. Comme si le cristal était le bouton d’un poste de radio permettant de syntoniser différentes fréquences !

Dans son laboratoire, Dongling Ma montre la « boîte à gants » dans laquelle elle fabrique ses petites merveilles. Cet instrument très populaire chez les chimistes est une enceinte vitrée percée de deux trous dans lesquels passent deux longs gants caoutchoutés. Les scientifiques manipulent avec ces gants des cristaux d’une pureté extrême. Pour éviter toute contamination, l’air de l’enceinte a été remplacé par un gaz inerte : l’azote ! Dongling Ma explique qu’en empilant des boîtes quantiques de différentes tailles les unes sur les autres, on obtient un matériau capable d’absorber toute une gamme de rayons infrarouges. Fini le gaspillage !

Mais quelques nanocristaux ne suffisent pas pour avoir une cellule solaire. Il reste encore à acheminer les électrons arrachés jusqu’à une électrode... Pour y arriver, Dongling a collé ses cristaux sur des nanotubes de carbone, les structures-vedettes de la nanotechnologie. Ces longs spaghettis vides à l’intérieur agissent ici comme des mini fils électriques qui aspirent les électrons libérés et les envoient vers une des électrodes de la cellule solaire, créant ainsi le courant électrique tant recherché.

Dongling Ma est bien fière de ses cellules solaires qui absorbent les rayons infrarouges. Pour l’instant, il ne s’agit que d’un prototype dont les performances ne sont pas encore optimisées. Mais quand elles le seront, ses cellules solaires pourraient devenir une alternative intéressante aux panneaux de silicium. Bien qu’elles ne convertiront pas autant d’énergie solaire en électricité que ces derniers — qui sont difficiles à battre avec leur taux de conversion de 15 à 20 % — leur bas prix jouerait en leur faveur. Autre avantage : alors que les panneaux de silicium sont rigides, ceux faits de ces nanomatériaux seraient flexibles. On pourrait donc les utiliser sur toutes sortes de surfaces : carrosserie de voiture, vêtements, lampadaires, toiture, etc.

Enerzine

Intel veut intégrer le WiFi dans ses puces
Vendredi, 02/03/2012 - 05:20

Intel travaille à un meilleur support du WiFi et au renforcement d'autres fonctionnalités, dans ses processeurs, ce qui pourrait conduire à une baisse de prix des appareils mobiles. Il vient de présenter sa puce Atom double coeur avec WiFi intégré connue sous le nom de code Rosepoint, à l'occasion de la manifestation International Solid State Circuits Conference qui s'est tenue à San Francisco du 19 au 23 février. La puce est encore au stade du développement, mais l'intégration d'un émetteur-récepteur sans fil dans le silicium des processeurs Atom pourrait améliorer l'autonomie des PC portables qui pourraient travailler encore plus longtemps avec le WiFi activé, a déclaré Justin Rattner, CTO d'Intel. Les processeurs avec WiFi intégré ne seront toutefois pas disponibles avant le milieu de cette décennie, a précisé Intel.

La société de Santa Clara a également déclaré qu'elle souhaite intégrer les interfaces radios WiFi, 3G et 4G sur les puces Atom à venir, qui seront utilisées dans les netbooks, les smartphones et les tablettes. Rappelons que l'année dernière, le fabricant de puces a finalisé l'acquisition de la division sans fil US d'Infineon Technologies pour un montant de 1,4 milliard de dollars. Une opération qui a été considérée par beaucoup comme un moyen, pour Intel, de développer sur les marchés des smartphones et tablettes. Le plus grand rival d'Intel sur le marché mobile est aujourd'hui ARM, dont les processeurs équipent la  plupart des terminaux mobiles. Les premiers smartphones Intel Inside sont attendus un plus tard dans l'année chez Motorola et Lenovo, et les puces Intel Clover Trail vont  équiper les premières tablettes Windows 8 à l'automne.

De fabricants de puces concurrents, tels que Qualcomm avec son processeur S4, basé sur l'architecture ARM et intégrant WiFi et 3G/4G,  livrent déjà des échantillons de leurs produits. En mesure d'exécuter Windows 8, les puces S4 sont également destinées aux marchés des smartphones, des tablettes et des PC. L'intégration d'un émetteur-récepteur WiFi supprime l'ajout d'une puce de communication supplémentaire dans un appareil, a expliqué Dean McCarron, analyste principal chez Mercury Research. L'intégration permet aux appareils d'être plus petits, et la suppression d'une puce supplémentaire réduit le coût de fabrication, a poursuivi l'analyste. Cela conduit à une baisse des prix et à des économies pour les acheteurs de smartphones, de tablettes et même d'ultrabooks.

Le Monde Informatique

L'hydroélectricité : une énergie d'avenir
Vendredi, 02/03/2012 - 05:10

L'hydroélectricité est une énergie renouvelable intéressante : le coût moyen de l'électricité issue d'une centrale hydraulique de plus de 10 megawatts est compris entre 3 à 5 centimes de dollar/kilowatt-heure. L'hydroélectricité est également une option flexible, la production se régulant facilement en fonction de la demande. Mais elle présente aussi de sérieux inconvénients : les barrages bloquent l'écoulement fluvial au détriment des écosystèmes voisins ; plus ils sont massifs, plus les déplacements humains et d'animaux sauvages sont conséquents. De plus, ils sont gourmands en ciment, matériau dont la fabrication a un lourd bilan carbone. Cinq pays : la Chine, le Brésil, les Etats-Unis, le Canada et la Russie, concentrent en 2010 environ 52 % de la capacité hydroélectrique mondiale installée.

La Chine est et restera à moyen terme le plus gros producteur d'hydroélectricité. Elle a produit 721 TW·h en 2010, soit environ 17 % de sa consommation intérieure. Avec 213 gigawatts (GW) installés, elle possède fin 2010 la plus grosse capacité hydroélectrique au monde. Le pays a fait une priorité du renforcement de sa capacité hydroélectrique (16 GW supplémentaires en 2010), et table sur une nouvelle augmentation de 140 GW d'ici 2015. Un tel objectif suppose la construction d'au moins sept nouveaux barrages de la taille de celui des Trois Gorges, le plus grand au monde ! On recense aujourd'hui trois centrales hydroélectriques de plus de 10 GW : le barrage des Trois Gorges en Chine, la centrale d'Itaipu au Brésil, et le barrage de Guri au Venezuela.

"Si l'hydroélectricité permet de réduire le recours aux énergies fossiles et donc les émissions de dioxyde de carbone, elle est rarement exempte de coûts et risques sociaux et environnementaux," souligne Robert Engelman, Président de Worldwatch. "L'hydroélectricité est certes renouvelable et propre en termes d'émissions carboniques, mais les nouvelles installations hydro-électriques doivent satisfaire des tests d'impact environnemental et social très rigoureux."

Si 150 pays produisent de l'hydroélectricité, cette production apparaît comme très concentrée au plan géographique. La zone Asie pacifique représente environ 32 % de la production hydroélectrique mondiale en 2010 alors que l'Afrique, avec un maigre 3 %, recèle le plus gros potentiel d'augmentation. Fin 2010, la consommation hydroélectrique mondiale atteignait un pic historique de 3 427 TW·h, soit plus de sept fois la consommation électrique totale de la France ou encore 16 % de la consommation mondiale d'électricité. 45 milliards de dollars ont été investis dans des grands projets hydroélectriques dans le monde en 2010.

Dans le domaine de la micro hydroélectricité (centrales d'une capacité de 100 kilowatt-heure (kW-h) ou moins, on observe une montée en puissance depuis une décennie car elle se révèle un outil efficace pour répondre à des besoins locaux dans des zones faiblement industrialisées. Dès 2009, on estime à 60 GW la capacité micro hydroélectrique installée dans le monde, soit moins de 6 % de la production hydroélectrique totale. Cette part est vouée à une augmentation substantielle du fait de la poursuite de l'électrification rurale de pays densément peuplés comme l'Inde.

Notre Planète

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Depuis 300 millions d'années, jamais les océans n’ont été aussi acides
Mercredi, 07/03/2012 - 00:00

Les océans deviennent de plus en plus acides, à cause surtout de l'absorption de quantités grandissantes de gaz carbonique (CO2) émis dans l'atmosphère par les activités humaines, à un rythme sans précédent depuis 300 millions d'années, selon une étude publiée dans la revue américaine Science du 2 mars.

«L'histoire géologique laisse penser que le rythme actuel d'acidification océanique est potentiellement sans parallèle au cours des dernières 300 millions d'années», indique Andy Ridgwell, professeur à l'Université de Bristol, au Royaume-Uni, un des co-auteurs de cette étude. «Bien que des similarités existent, jamais au cours de cette période les taux d'acidification n'ont représenté, dans leur évolution, un tel impact potentiel sur la chimie organique des océans, conséquence des émissions sans précédent de CO2 dans l'atmosphère», ajoute ce scientifique.

L'acidification est une menace importante pour l'écosystème marin avec un risque de disparition des massifs coralliens et d'espèces comme le saumon ou les huîtres, préviennent les chercheurs dont l'étude est publiée dans la revue américaine Science du 2 mars.

Au cours des cent dernières années, le CO2 a augmenté de 30 % dans l'atmosphère pour atteindre 393 parts par million (ppm) tandis que son pH a diminué de 0,1 unité à 8,1, signe d'une plus grande acidité. Cela représente un rythme au moins dix fois plus rapide que depuis 56 millions d'années, souligne Bärbel Hönisch, une paléocéanographe de l'Université Columbia (New York, Nord-Est des États-Unis) et principal auteur de ces travaux.

Selon le Groupe d'experts sur l'évolution du climat (GIEC), le pH des océans pourrait baisser de 0,3 unité de plus d'ici la fin du siècle pour s'établir à 7,8.

«Une telle acidification accroît la possibilité que les océans subissent bientôt des bouleversements comparables à ceux observés durant le Maximum thermique du passage du Paléocène à l'Éocène», il y a 56 millions d'années, estiment ces chercheurs.

À la suite d'un doublement inexpliqué des taux de CO2 dans l'atmosphère, les températures mondiales avaient alors augmenté de 6°C en 5000 ans, avec une montée correspondante des océans.

Cyberpresse

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer : la mortalité continue de reculer en Europe
Jeudi, 08/03/2012 - 00:10

En Europe, le taux de mortalité par cancer en 2012 va continuer à baisser. Cette étude italo-suisse, réalisée par le Centre hospitalier universitaire vaudois de Lausanne, souligne qu'il y aura en Europe près de 1,3 millions de décès liés au cancer en 2012, soit 717.398 décès d’hommes et 565.703 décès de femmes. Un point très positif est la baisse des décès par cancer du sein, en France, comme dans l’ensemble de l’UE et jusqu’à 13 % chez les femmes jeunes, âgées de 35 à 49 ans.

L'étude a examiné les taux de cancer sur l’ensemble des 27 Etats membres en 2007 et séparément pour 6 pays : France, Allemagne, Italie, Pologne, Espagne et au Royaume-Uni, pour l’ensemble des cancers, et, individuellement, pour le cancer de l’estomac, de l'intestin, du pancréas, du poumon, de la prostate, du sein, de l’utérus et pour les leucémies. Les chercheurs prévoient une baisse des taux globaux de mortalité par cancer soit 139/ 100.000 chez les hommes et 85 /100.000, chez les femmes pour 2012, des taux en baisse de 10 % chez les hommes et 7 % chez les femmes par rapport à 2007.

Chez les hommes, le taux de décès devrait baisser dans toutes les catégories de cancer et chez les femmes également, sauf pour le cancer du poumon, où les chercheurs s'attendent à une progression de 7 % par rapport à 2007. Cette hausse montre une exposition plus forte des femmes à la fumée des cigarettes ces dernières années, relèvent les chercheurs.

Une réduction substantielle des décès liés au cancer du sein, à tous les âges, jeune, milieu de vie et chez les femmes plus âgées, sont le résultat le plus remarquable de l’étude. Les chercheurs prévoient une baisse de 9 % des décès par cancer du sein, correspondant à un taux de 14,9/ 100.000 femmes. Parmi les jeunes femmes, âgées de 20 à 49 ans, la baisse des taux de mortalité du cancer du sein atteint ainsi plus de 13 %.

L’auteur principal de ce bilan, le Docteur Carlo La Vecchia (MD), chef du service Epidémiologie à l'Institut Mario Negri et professeur à l’Université de Milan confirme et explique ce résultat très positif : « Cette baisse du taux de mortalité par cancer du sein est significative des progrès réalisés dans le traitement et la prise en charge, plutôt que liée au dépistage par mammographie, habituellement réservé aux femmes de 50 à 70 ans dans la plupart des pays européens. D’autres facteurs de risque importants comme l'activité physique et l'obésité, n'ont pas évolué favorablement donc l’incidence de ces cancers n’a pas évolué, seul le taux de décès est en baisse ».

ACJ

 

Cancer de la prostate : la détection dans l'urine est possible
Mercredi, 07/03/2012 - 00:20

Plus de la moitié des cancers prostatiques contiennent le gène de fusion TMPRSS:ERG. Cette étude a été réalisée chez 88 patients ayant un PSA élevé et/ou une anomalie au toucher rectal. La biopsie a mis en évidence un adénocarcinome (n = 42), des lésions HGPIN (high-grade prostatic intraepithelial neoplasia) (n = 16), des lésions ASAP (atypical small acinar proliferation ; n =3) ou une histologie bénigne (n = 27).

Les résultats montrent que la présence dans les cellules prostatiques urinaires, après massage prostatique, du gène de fusion TMPRSS:ERG détecté par immunocytochimie (anticorps anti-ERG), permet d'identifier le cancer de la prostate et les cancers qui sont agressifs.

L’immunocytochimie ERG était positive dans 21 % des cas d’adénocarcinome (n = 9/42) alors que seulement un cas d’immunocytochimie positive a été rapporté chez les patients HGPIN et aucun cas chez les patients ASAP ou dont l’histologie était bénigne (p = 0,003). Par ailleurs, il existe une association significative entre la positivité du gène ERG et un score de Gleason élevé (p = 0,04) et entre la positivité du gène ERG et le stade de la tumeur (p = 0,03).

JIM

Une bactérie génétiquement modifiée pour lutter contre le changement climatique
Mercredi, 07/03/2012 - 00:10

Lorsque le CO2 est injecté sous terre dans des roches poreuses, il se combine avec des ions de métal dans l’eau salée qui remplit les pores des rochers et se minéralise en carbonates minéraux, tels que le carbonate de calcium (CaCO3). Ce processus peut prendre plusieurs milliers d’années.

Pour voir s’ils pouvaient accélérer les choses, la biochimiste Jenny Cappuccio et ses collègues du Lawrence Berkeley National Laboratory's Center for Nanoscale Control of Geologic CO2 ont placé un mélange divers d’espèces communes de bactéries dans une solution au chloride de calcium en laboratoire et l’ont ensuite injecté dans le CO2.

Ils ont découvert que le carbionate de calcium se formait plus vite dans les flacons où vivaient les bactéries plutôt que dans les solutions stériles. Le CaCO3 avait également une structure minérale différente lorsque la bactérie était présente. Le CaCO3 avait tendance à se transformer en calcite blanc de cristaux sous l’effet de la bactéries, qui permettaient la formation de calcite, même lorsque ces dernières ne se multipliaient pas.

Intriguée, l’équipe a supposé que les surfaces de la bactérie aidaient le CO2 à se rapprocher des ions calcium. Pour tester cette idée, les scientifiques ont décidé de modifier l’une des espèces de bactérie, Caulobacter vibrioides, de façon à ce que sa surface attire les ions calciums et ont observé ce qu’il se passait.

Jenny Cappuccio et ses collègues ont inséré une courte séquence ADN dans la bactérie afin qu’elle attire les ions de calcium et les incite à former du CaCO3. Cela a fonctionné. Lorsque les chercheurs ont injecté du CO2 dans les réservoirs où la bactérie modifiée génétiquement vivait, encore davantage de CaCO3 s’est solidifié dans les réservoirs où vivaient des bactéries non modifiées.

Par ailleurs, une plus grande partie de ce CaCO3 était sous la forme de calcite cristalline, qui est plus stable et peut séquestrer le CO2 sur une période géologique de temps plus longue, que le CaCO3 amorphe.

Jenny Cappuccio a communiqué les résultats de son étude lors d’un sommet de la Biophysical Society à San Diego en Californie.

Robin Gerlach, un ingénieur biologique à l’Université du Montana à Bozeman, qui n’a pas été impliqué dans l’étude, a qualifié ce travail de « fondamental ». Il pense que cette étude pourra déboucher sur des applications larges, comme la stabilisation des sols dans les zones inondables, l’isolation d’isotopes radioactifs, et l’identification de formes de vie dans les fossiles en étudiant les changements intervenus dans la minéralisation carbonée.

News Environnement

Un vaccin universel contre la grippe d'ici 2017
Mardi, 06/03/2012 - 00:30

L'Université de Princeton vient de réaliser une modélisation qui montre, pour la première fois, qu’un vaccin universel pourrait permettre la prévention de la grippe à grande échelle en limitant à la fois la capacité du virus de la grippe à diffuser et à muter. C’est un encouragement à cette recherche de longue haleine, en cours dans de nombreux laboratoires du monde entier, dont les NIH, vers ce vaccin presque idéal. Des informations utiles pour les institutions de recherche et de Santé publique. A découvrir dans les Comptes-rendus de l’Académie des Sciences américaine (PNAS).

L’objectif du vaccin universel est de cibler les parties relativement immuables du virus et d’entraver sa capacité à évoluer et à échapper à l'immunité, les vaccins actuels ciblant, quant à eux, les composants les plus adaptables de l'agent pathogène.

Cette équipe de Princeton montre qu’un vaccin universel permettrait d’atteindre un contrôle sans précédent non seulement des épidémies de grippe saisonnière mais contribuerait à réduire fortement les flambées liées à de nouvelles souches. Le vaccin universel apporterait même une « protection croisée », disent les chercheurs, qui viendrait renforcer et s’ajouter à l'efficacité des vaccins actuels.

Ce vaccin universel nous permettrait de passer du stade de réponse à l’épidémie au stade de prévention généralisée, résume, Nimalan Arinaminpathy, chercheur au Département d'Ecologie et de biologie évolutive de Princeton, auteur principal de l’étude. « Notre modèle fournit une base conceptuelle solide des objectifs qu’un tel vaccin nous permettrait d'atteindre ».

Les chercheurs ont simulé l'effet d'une protection croisée du vaccin sur une pandémie de grippe et sur une proportion vaccinée de la population. Ils ont combiné les dernières données sur les essais de candidats-vaccins, les modèles les plus récents de propagation, les données d’évolution du virus et les données épidémiologiques. Ils ont créé 3 niveaux de réduction possible de la contagiosité permise par le vaccin, -25 % (rouge), -50 % (bleu) et -75 % (vert). Avec sa plus grande efficacité, le vaccin entraîne une «immunité collective» ou une résistance générale élevée contre le virus, même si seule une partie de la population est vaccinée. La propagation de l’infection est réduite à néant, même si la population n’est vaccinée qu’à 70 %.

« Cette étude est la première à se pencher sur les conséquences de la prochaine génération de vaccins, tant en termes d'impact épidémiologique que d’impact sur l’évolution du virus », explique Lloyd-Smith, du même Département de Princeton, co-auteur de l’étude. C’est aussi une incitation forte pour les laboratoires à poursuivre leurs recherches comme des indications précieuses pour les institutions de santé publique.

Enfin, ils constatent qu’en mettant un frein à la transmission de la grippe, ils mettraient aussi un frein à l’évolution du virus.  La lutte contre la grippe s’est toujours heurtée à l’évolution du virus, mais avec la protection croisée apportée par le vaccin « saisonnier » et le vaccin universel, les chercheurs suggèrent un ralentissement brutal de la transmission du virus et de son évolution.

Santé Log

PNAS

Régénération cardiaque : un nouveau pas en avant
Mardi, 06/03/2012 - 00:20

La thérapie cellulaire dans le post-infarctus est un rêve qu’ont caressé de nombreuses équipes au cours de la dernière décennie. Mais si les premiers essais publiés, qui utilisaient des cellules médullaires mononuclées ou des cellules musculaires squelettiques, ont montré la faisabilité de cette technique, leurs résultats ont été globalement décevants.

Fin 2011, par l’étude SCIPIO, une équipe américaine ouvrait une nouvelle voie avec l’utilisation autologue d’une catégorie de cellules souches cardiaques (CSC) isolées du myocarde humain et exprimant à leur surface un récepteur tyrosine kinase c-kit. Après injection intra-coronaire de ces cellules, R Bolli et coll. ont pu constater au 4ème mois une amélioration de la fraction d’éjection ventriculaire gauche (FEVG) d’environ 8 % chez 16 patients traités après un infarctus du myocarde (IDM).

Une autre équipe américaine, regroupant des chercheurs du Cedars-Sinaï Institute de Los Angeles et de l’Université Johns Hopkins à Baltimore, présente des données allant dans le même sens avec un autre type de cellules progénitrices cardiaques, appelées cardiosphere-derived cells ou CDCs. Le protocole de cette étude randomisée de phase 1 baptisée CADUCEUS est proche de celui de l’essai SCIPIO.

Vingt-cinq patients ont été retenus pour l'analyse en per protocole de cette étude. Elle a inclus des malades 2 à 4 semaines après un IDM ayant eu comme conséquence une baisse de la FEVG entre 25 et 45 % (moyenne 39 %). 17 patients ont été assignés à un traitement par CDCs et 8 à une prise en charge standard. Schématiquement, la thérapie par CDCs a consisté à prélever des cellules myocardiques par biopsie endomyocardique (276 mg en moyenne), à isoler ces cellules précurseurs, à les mettre en culture selon un protocole complexe favorisant la formation d'agrégats cellulaires en forme de sphères et à les réinjecter dans l’artère coronaire dont l’atteinte était responsable de l’IDM, 1,5 à 3 mois après celui-ci (entre 12,5 et 25 millions de cellules étaient injectées à chaque patient).

La tolérance du traitement a semblé satisfaisante sur cette courte série. Un seul événement défavorable sérieux a été considéré comme possiblement en rapport avec le traitement (un cas d’IDM survenu 7 mois après l’injection) et aucune prolifération tumorale cardiaque n’a été dépistée en IRM.

En termes d’efficacité les IRM répétées ont montré au 6ème mois :

- une réduction de la masse de myocarde cicatricielle chez les sujets traités par rapport au groupe contrôle (- 8,4 g contre une absence de changement dans le groupe contrôle ; p=0,001) ;

- une augmentation de la masse de myocarde viable (+ 13 g contre une absence de changement dans le groupe contrôle; p=0,01) ;

- une amélioration significative de la contractilité régionale (p=0,02) et de l’épaississement systolique de la paroi ventriculaire (p=0,015).

Il semble donc que CADUCEUS, qui confirme SCIPIO, marque bien le début d'une nouvelle ère dans la prise en charge à moyen et long terme des infarctus du myocarde.

JIM

Une hyperactivité cérébrale à l’origine des multiples symptômes de la dépression
Lundi, 05/03/2012 - 00:40

Reconnaître un état dépressif ne signifie pas comprendre les mécanismes biologiques qui entrent en jeu dans l’installation progressive de la dépression. C’est en essayant d’élucider ces mystères que des chercheurs américains ont découvert que l’hyperactivité du cerveau, incapable de mettre fin à certaines connexions nerveuses temporaires, pourrait être à l’origine des différents symptômes afférents à un état dépressif. C’est ce que révèle une étude publiée dans la revue PLoS ONE.

Trouble de l’humeur entraînant perte de motivation ou élan vital, la dépression touche chaque année en France plus de 3 millions de personnes âgées de 15 à 75 ans, soit 8 % de la population vivant dans l’hexagone. Si la plupart des spécialistes s’accordent sur le fait que la dépression clinique regroupe un certain nombre de symptômes (inquiétude, perte d’attention, troubles de la mémoire et du sommeil, etc.), les causes sont multiples et les mécanismes peu connus.

Le plus souvent, pour étudier l’origine biologique de l’état dépressif, les chercheurs cherchaient à identifier une par une les zones du cerveau qui pouvaient être responsables de tel ou tel symptôme : sans grand succès. Andrew Leuchter et ses collègues de l’Université de Californie à Los Angeles (UCLA) ont préféré une nouvelle approche. En effet, pour eux, la combinaison de différents symptômes cliniques pourrait signifier que le problème est plus global.

Afin de vérifier leur théorie, les chercheurs ont analysé, grâce à une nouvelle méthode, les ondes cérébrales de 121 patients atteints par une dépression majeure. Ils ont ainsi constaté que le cerveau des participants avait certes la capacité, comme celui des personnes témoins, de créer des connexions neuronales, notamment pour tempérer l’humeur. Mais en revanche, alors que la plupart de ces connexions disparaissent une fois le problème réglé, le cerveau des patients dépressifs n’en est plus capable : il n’est plus en mesure de s’adapter aux stimuli extérieurs, d’autant moins que certaines régions du cerveau sont plus affectées que d’autres. Ainsi, le cortex préfrontal, impliqué dans la régulation de l'humeur, est particulièrement affecté par ce problème, avec un nombre anormal de connexions neuronales.

En permettant de redonner au cerveau sa flexibilité, c’est-à-dire en lui permettant à nouveau de réguler le nombre de connexions neuronales, il serait possible de soigner plus efficacement les patients dépressifs. D’après les chercheurs, une partie des médicaments anti-dépresseurs pourraient, dans une certaine mesure, restaurer les capacités d’adaptation du cerveau.

Information Hospitalière

Somnifères : une consommation même faible, augmente le risque de décès
Lundi, 05/03/2012 - 00:30

Une étude américaine vient de montrer que la consommation de somnifère est associée à un risque de mort quatre fois plus élevé chez leurs utilisateurs que chez des personnes qui n'en prennent pas. Chez leurs plus gros consommateurs, ces divers somnifères sont également associés à un risque de cancer significativement plus élevé (35 %), notent les auteurs. Les médicament en cause incluent la famille des benzodiazépines, comme le témazepam, les non-benzodiazépines, comme le zolpidem, les barbituriques et les sédatifs antihistaminiques.

L'étude du Docteur Daniel Kripke et de ses collègues du Scripps Clinic Viterbi Family Sleep Center (La Jolla, Californie) porte sur 10 529 adultes âgés de 54 ans en moyenne et ayant eu des ordonnances d'"hypnotiques" (médicaments pour dormir) entre janvier 2002 et janvier 2007. Ils ont été comparés à un groupe de 23 676 personnes n'utilisant pas d'aide médicamenteuse pour dormir, suivis deux ans et demi en moyenne. Les patients qui prennent du zolpidem, du temazépam ou d'autres hypnotiques ont un risque de mortalité plus de quatre fois supérieur (4,6) à celui des personnes qui ne prennent aucun de ces médicaments.

Même chez les petits consommateurs (dix-huit cachets ou moins par an), le risque de mort reste trois fois plus élevé, ajoute l'étude. Les auteurs reconnaissent que l'association entre ces médicaments et le risque de mort n'implique pas forcément un lien de cause à effet, même si leurs travaux viennent conforter d'autres études. Néanmoins, ils donnent l'alarme vu la consommation de ces médicaments. "Nous estimons qu'approximativement six à dix pour cent des adultes américains prenaient ces médicaments en 2010 et ces proportions pourraient être plus élevées dans certaines parties de l'Europe", écrivent-ils.

Selon une estimation, les hypnotiques pourraient en 2010 avoir été associés de 320 000 à 507 000 morts en excès aux seuls Etats-Unis, et même s'il ne s'agissait que de 10 000 morts annuels en excès, ce serait trop, notent les auteurs. Selon l'étude, il y a eu 265 morts parmi les 4 336 patients passés en revue prenant du zolpidem, très prescrit, contre 295 parmi les plus de 23 000 personnes qui n'avaient pris ni sédatifs ni comprimés pour dormir. Des études antérieures avaient établi un lien entre les somnifères et les accidents de voiture et les chutes, ainsi qu'avec des problèmes de régurgitations dans l'œsophage et d'ulcères.

Le Monde

BMJ Open

Vers un vaccin contre la dépendance à l'héroïne
Lundi, 05/03/2012 - 00:10

Des chercheurs mexicains travaillent sur la mise au point d’un vaccin qui rendrait l’organisme imperméable aux effets de la drogue. chaque individu réagit différemment en fonction des types de drogues consommées, la dépendance s’installe quand il est impossible à la personne de se passer du produit. Le manque entraîne le plus souvent des souffrances physiques, voire des souffrances psychiques que seule la prise de drogue permet de calmer.

Afin de trouver un autre moyen que la cure de désintoxication pour lutter contre l’addiction à l’héroïne (opioïde obtenu par acétylation de la morphine- le principal alcaloïde issu du pavot à opium), des chercheurs de l’Institut national de psychiatrie du Mexique ont étudié la possibilité de développer un vaccin.

Après des résultats encourageants chez la souris, montrant que le traitement rend l’organisme insensible aux effets euphorisants de la drogue, le vaccin vient d’être breveté par les autorités sanitaires des États-Unis, pour mettre en place dans les plus brefs délais un essai clinique chez l’homme. Par ailleurs, le quotidien The Guardian rappelle que de nombreuses équipes de recherche à travers le monde travaillent sur la mise au point de traitements pour lutter contre l’addiction aux drogues. Des scientifiques américains de l'Institut américain national sur l'abus de drogue sont d’ailleurs en train de développer un vaccin contre la dépendance à la cocaïne. En France, l’héroïne est peu consommée. Moins de 1 % de la population s’y adonne. En tout, on estime à 360 000 le nombre de consommateurs de ce dérivé de l’opium.

The Guardian

Thérapie génique de l’amaurose congénitale de Leber : il est possible de traiter les deux yeux !
Lundi, 05/03/2012 - 00:00

Le terme d’amaurose congénitale de Leber (ACL) désigne un groupe de dystrophies rétiniennes précoces qui sont l’une des principales causes de cécité infantile. L’ACL est généralement transmise selon le mode autosomique récessif, et des mutations de 15 gènes différents ont été mises en évidence.

Une des formes les plus courantes, l’ACL2, est due à des mutations du gène RPE65, qui code pour une protéine du même nom spécifique de l’épithélium pigmentaire (RPE pour retinal pigment epithelium), essentielle à la synthèse de la rhodopsine.

Albert Maguire (Hôpital des enfants de Philadelphie), son épouse Jean Bennett et leurs collègues ont rendu public en 2008 le succès, à l’époque préliminaire encore, d’un premier essai de thérapie génique de l’ACL2, de phase 1/2, qui a conduit au fil du temps à des améliorations stables de la vision chez 12 patients traités par injections sous-rétiniennes, dans leur œil le plus atteint, d’un vecteur adéno-associé (AAV) porteur du gène RPE65. Cinq d’entre eux, dont tous les enfants, ont même développé la capacité de naviguer dans un parcours d’obstacles.

Avec un recul de maintenant 4 ans pour les premiers sujets, la même équipe américano-italienne explore la possibilité d’une amélioration supplémentaire en administrant le vecteur et le transgène thérapeutique dans l'oeil controlatéral. Une préoccupation importante est de savoir si la première injection du gène thérapeutique a amorcé chez les patients une réponse immunitaire contre le virus AAV ou le produit du transgène.

Dans un premier temps, l’innocuité et l’efficacité de cette deuxième administration ont été testées chez l’animal, et c’est maintenant au tour du passage à l’homme avec trois des sujets adultes ayant déjà satisfait à l’essai précédent, et pour lesquels l’injection initiale date de 2,1 à 3,7 années. Ils reçoivent tous la même dose de 1,5 X 1011 génomes viraux dans 300 µl. L’innocuité, la fonction visuelle/rétinienne, et l’imagerie IRM fonctionnelle sont examinées jusqu’à 6 mois.

JIM

Polyarthrite rhumatoïde : un traitement de fond par voie orale très prometteur
Dimanche, 04/03/2012 - 00:30

Des perturbations de la production des cytokines ont été rapportées au cours de la polyarthrite rhumatoïde (PR), et des traitements ciblés contre ces cytokines (IL-1, TNF, IL-6), ou certaines populations cellulaires (anti-CD20 par exemple), ont ainsi été développés.

Pour inhiber l’action de ces cytokines, il est possible de neutraliser différentes voies de signalisation intracellulaire. Rappelons que la fixation de la cytokine sur son récepteur membranaire induit un signal par une voie de signalisation intracellulaire et permet ainsi la transmission d’une information vers le noyau qui va modifier le comportement de la cellule. Plus précisément, cette interaction ligand/récepteur entraîne l’activation en cascade de protéines kinases (PK) qui catalysent les réactions de phosphorylation. Les PK activent les facteurs de transcription, lesquels régulent la synthèse protéique en agissant sur le promoteur des gènes cibles, aboutissant à la production de cytokines, à la prolifération cellulaire ou à l’apoptose.

Les voies de signalisation intracellulaire sont nombreuses, le plus souvent ubiquitaires, et identiques dans la majorité des cellules. Différentes voies contrôlent la synthèse des protéines participant à l’inflammation et à la destruction articulaire au cours de la PR. Il a en particulier été mis en évidence une augmentation de l’expression de molécules de signalisation intracellulaire dans la synovite rhumatoïde.

Les voies impliquées dans la PR, les mieux connues, sont celles des MAP-kinases, qui comporte 3 sous-familles principales : ERK, JNK et P38, des SYK-kinases, de PI3K, de NF-kB et des JAK (janus kinases). L’inhibition de ces voies, en interférant avec la phosphorylation par blocage des kinases, représente une nouvelle piste thérapeutique dans la PR. Plusieurs études visant à un tel blocage ont été récemment mises en place et les résultats sont variables selon la voie de signalisation inhibée. L’inhibition de la voie des MAP-kinases par les inhibiteurs du P38 donne des résultats décevants. Quant à l’inhibition de la SYK-kinase, un travail a montré l’efficacité clinique potentielle du fostamatinib au prix cependant de nombreux effets indésirables (troubles digestifs à type de diarrhée et hypertension artérielle), probablement en raison du caractère ubiquitaire de cette voie de signalisation intracellulaire. De plus, une publication récente n’a pas démontré d’efficacité significative de l’inhibition de cette voie dans une population de patients ne répondant pas aux anti-TNFα.

Les principales avancées concernent la voie JAK. La cytokine ligand se fixe à un dimère de chaînes JAK. La fixation ligand-récepteur conduit à la phosphorylation de Stat, puis à la translocation protéinique (transport de la protéine à travers la membrane cellulaire), et à l’activation de la transcription. Cette voie de signalisation intracellulaire joue un rôle majeur dans la prolifération cellulaire, la différenciation cellulaire et l’apoptose. Les résultats encourageants obtenus avec ces inhibiteurs de la voie JAK dont le tofacitinib justifient la poursuite des études. D’autant plus qu’il s’agit de molécules biochimiques de petite taille administrées par voie orale, moins immunogènes, et de coûts, a priori moindre que les biothérapies.

Information Hospitalière

Lithium : un nouvel espoir pour remyéliniser les nerfs lésés
Dimanche, 04/03/2012 - 00:20

Des chercheurs français et allemands viennent de montrer, chez la souris, que le chlorure de lithium (un sel utilisé comme régulateur de l'humeur chez les patients atteints d’un trouble bipolaire) pourrait favoriser la remyélinisation des nerfs périphériques. Après avoir provoqué, chez des souris, des lésions au niveau des nerfs périphériques, en endommageant la gaine de myéline qui les protège, et en recréant ainsi les symptômes de maladies telles que le diabète ou la sclérose en plaques, Charbel Massaad de l'université Paris-Descartes (CNRS, Inserm) et ses collègues du Max Planck Institut (Allemagne) ont tenté d'évaluer l’impact que pouvait avoir le chlorure de lithium sur les rongeurs. Des études précédentes avaient montré que ce dernier avait, dans certaines conditions, un rôle neuroprotecteur. Après une huitaine de jours, les chercheurs ont constaté que les souris qui avaient reçu des injections de lithium retrouvaient l’usage de leurs moustaches et pouvaient de nouveau les mouvoir à leur guise.

A contrario, celles qui avaient pris un placebo n’avaient retrouvé qu’une faible capacité de mouvement, même après une vingtaine de jours. Après avoir observé les neurones des deux groupes de souris, les chercheurs ont constaté que celles sous lithium avaient une gaine de myéline renforcée par rapport à celle des autres. Ainsi, le chlorure de lithium stimulerait la remyélinisation des neurones et permettrait ainsi de rétablir un influx nerveux quasiment normal.

Forts de ces résultats encourageants, les chercheurs espèrent mettre en place un essai clinique chez l’homme afin de vérifier si les bienfaits du lithium sont comparables. Si c’est le cas, ce traitement pourrait permettre à terme d’améliorer la qualité de vie de patients atteints de maladies neurodégénératives du système nerveux périphérique. En parallèle à ces travaux, des scientifiques du Department of Veterans Affairs américain sont sur le point de démarrer un essai clinique afin d’étudier les effets du carbonate de lithium sur la sclérose en plaques…

Information Hospitalière

Découverte d'une nouvelle famille de molécules anti-cancéreuses
Dimanche, 04/03/2012 - 00:10

Une équipe franco-italienne menée par des chercheurs du CNRS et de l'Inserm vient de découvrir une nouvelle famille de composés qui pourrait permettre de traiter de nombreux cancers, notamment des tumeurs cérébrales et des cancers de la peau. Brevetées par le CNRS, ces molécules bloquent la voie de signalisation Hedgehog, une chaîne de réactions moléculaires dont le dérèglement serait impliqué dans plusieurs cancers. Ces composés pourraient à terme constituer de nouveaux médicaments, mais, dans un premier temps, ils devraient s'avérer de précieux outils pour mieux comprendre le rôle de la voie Hedgehog dans le développement de ces tumeurs et la résistance aux traitements de celles-ci. Effectués en collaboration avec le Laboratoire d'innovations thérapeutiques (CNRS / Université de Strasbourg), ces travaux sont publiés dans le Journal of Medicinal Chemistry.

La voie de signalisation Hedgehog est une cascade de réactions biochimiques complexes. Très active lors de l'embryogenèse, elle participe à la prolifération et à la différenciation des cellules, ainsi qu'à la mise en place de nombreux tissus. Chez l'adulte, elle joue notamment un rôle clé dans le maintien de cellules souches dans le cerveau. Le dérèglement de cette voie participerait au développement de nombreux cancers, notamment de tumeurs cérébrales très agressives chez l'enfant.

A l'origine des dysfonctionnements affectant la voie Hedgehog, on trouve notamment des mutations d'un récepteur membranaire appelé Smoothened, maillon essentiel permettant l'activation de cette voie. Plusieurs laboratoires pharmaceutiques ont développé des molécules capables de bloquer Smoothened. Grâce à ces composés antagonistes du récepteur, ils sont parvenus à enrayer le développement de certaines tumeurs. Cependant, les expériences menées sur des modèles animaux et chez l'Homme font état de l'apparition de résistances à ces traitements. De nouvelles mutations de Smoothened dans les cellules tumorales rendent inefficaces les antagonistes chargés de l'inactiver. Voilà pourquoi il est important d'en trouver de nouveaux et de mieux comprendre les mécanismes liés à ces résistances.

Pour découvrir de nouveaux composés antagonistes de Smoothened, l'équipe de chercheurs coordonnée par Martial Ruat a adopté une stratégie originale : un criblage virtuel de banques de molécules informatisées. Parmi quelque 500 000 molécules répertoriées dans ces banques, ils ont recherché celles dont la structure serait susceptible de produire le même effet que les molécules connues pour bloquer Smoothened. Sur une vingtaine de molécules candidates, les chercheurs en ont sélectionné une. Puis, en modifiant légèrement sa structure afin de l'optimiser, ils ont découvert une famille de composés, appelés MRT. Ils ont ensuite testé leur activité biologique sur des cellules de souris en culture. Résultat : les composés MRT, et plus particulièrement l'un d'entre eux, l'acylguanidine MRT83, bloquent la prolifération des cellules suspectées d'être à l'origine de tumeurs cérébrales. De plus, ces nouveaux composés inhibent Smoothened avec une activité égale ou supérieure à celle de composés déjà connus.

Plusieurs années de tests sont nécessaires avant que de nouvelles molécules prometteuses telles que les composés MRT puissent être commercialisées comme médicaments. Néanmoins, leurs propriétés pourraient permettre d'en savoir plus sur le fonctionnement, la structure tridimensionnelle et la localisation des récepteurs Smoothened. Ces composés MRT aideraient ainsi à comprendre l'origine des résistances que développent les tumeurs. Ces travaux pourraient déboucher sur la découverte de nouvelles cibles et stratégies thérapeutiques pour combattre certains cancers.

CNRS

La maltraitance dans le cerveau
Samedi, 03/03/2012 - 00:40

L'hippocampe cérébral de jeunes adultes maltraités durant leur enfance est plus petit que celui d'adultes non maltraités. Cette réduction du volume serait un facteur de risque d'apparition de maladies mentales.

Les personnes ayant été maltraitées ont plus de risques de développer des troubles de l'humeur, de l'anxiété et de la personnalité, de consommer des drogues, de souffrir de maladies psychiatriques et de se suicider. Et souvent, leur hippocampe – une région cérébrale impliquée dans la mémoire et les émotions – est plus petit que celui des personnes n'ayant pas souffert. Cette particularité cérébrale est-elle la conséquence de la maltraitance ou résulte-t-elle du trouble mental qui en découle ? Martin Teicher et ses collègues du Département de psychiatrie de l'Université Harvard, à Boston, apportent un élément de réponse : trois « couches » de l'hippocampe gauche de jeunes adultes maltraités pendant leur enfance, mais ne prenant pas de médicaments contre une maladie psychiatrique, sont moins volumineuses (d'environ cinq pour cent) que celles d'adultes non maltraités.

On sait depuis de nombreuses années que le stress provoque des ravages dans le cerveau. Chez l'animal, on a montré que des quantités importantes de glucocorticoïdes, tel le cortisol, une hormone du stress, diminuent le nombre de neurones et de prolongements neuronaux dans l'hippocampe, ainsi que la neurogénèse, c'est-à-dire la formation de nouveaux neurones. Et chez l'homme, grâce à la neuro-imagerie, on sait que les personnes ayant subi un stress post-traumatique ou souffrant de maladies psychiatriques, telle la dépression ou la schizophrénie, ont un hippocampe plus petit.

Quelques études se sont intéressées à la maltraitance pendant l'enfance. Toutefois, elles ne considéraient qu'un nombre limité de jeunes sujets qui présentaient tous une maladie psychiatrique. Et celles où les participants ne souffraient pas d'une maladie mentale et ne prenaient pas de médicaments portaient sur des adultes ayant des antécédents de maltraitance, mais pas forcément pendant l'enfance. Or l'hippocampe est une structure cérébrale cruciale pour la mémoire et les émotions qui se développent dans les premières années de la vie (avant cinq ou six ans).

Les neurobiologistes américains ont évalué le volume de l'hippocampe de 193 adultes âgés de 18 à 25 ans et ayant subi des maltraitances dans leur enfance (avant quatre ou cinq ans). Les sévices étaient plus ou moins bien décrits et variés : punitions corporelles violentes, abus physiques ou sexuels, agressions verbales ou observation de scènes domestiques très violentes. Ces adultes étaient issus de milieux sociaux moyens et élevés, et la plupart suivaient des études supérieures. Aucun ne prenait de traitements au moment de l'étude. Toutefois, dans leur vie, un tiers de ces sujets avait souffert de dépression, un tiers d'un trouble de l'humeur et un autre tiers d'un trouble de l'anxiété. Enfin, tous ces sujets étaient droitiers.

Tous les participants présentaient une diminution du volume de trois couches de l'hippocampe – le CA3, le gyrus denté et le subiculum –, mais uniquement dans l'hippocampe gauche. C'est la première fois que l'on observe une telle variation dans le subiculum, la région de l'hippocampe d'où partent les informations et qui inhibe notamment l'axe du stress (l'axe cérébral et hormonal de réaction au stress dont l'activation engendre la libération des hormones du stress).

Pourquoi une telle asymétrie ? L'hippocampe est particulièrement sensible aux hormones du stress, car ses neurones possèdent à leur surface de nombreux récepteurs aux glucocorticoïdes. En général, la répartition de ces récepteurs et d'autres molécules impliquées dans les effets du stress est latéralisée (on ignore pourquoi). Les effets du stress, suite à la maltraitance, concerneraient donc davantage l'hippocampe gauche que le droit.

En outre, les neuroscientifiques ont montré que le stress est directement responsable de cette particularité structurale de l'hippocampe, indépendamment d'un stress post-traumatique ou d'un autre trouble mental. Ils suggèrent donc que la diminution de volume de l'hippocampe serait un facteur de risque d'apparition des troubles de l'humeur, de la personnalité, de l'anxiété et des maladies psychiatriques.

Pour La Science

Une meilleure compréhension du lien entre mémoire et stress
Samedi, 03/03/2012 - 00:30

Nous mémorisons plus facilement un événement stressant qu’un événement agréable. Cette mémorisation des événements négatifs est partagée par pratiquement toutes les espèces capables de comportements, preuve qu’il s’agit probablement d’une capacité sélectionnée au cours de l’évolution : elle permet la survie dans un environnement hostile.

Toutefois, l’exposition à des événements très stressants peut entraîner chez certains individus un état pathologique dont l’état de stress post-traumatique (ESPT) est l’exemple le plus emblématique. Aux Etats-Unis, on estime ainsi que ce syndrome touche 6,8 % de la population générale et que 30 % des vétérans de la guerre du Vietnam en sont atteints et 12 % des vétérans de la guerre du Golfe.

Dans cet état de stress, la mémoire de la personne est perturbée : elle n’est plus capable d’adapter sa réaction de peur au "bon" contexte et aux "bons" éléments prédictifs. Elle prend peur dans des situations qui ne présentent aucune menace. Les peurs deviennent alors de plus en plus envahissantes jusqu’à empêcher une vie normale. "Si vous êtes attaqué par un lion dans la savane alors qu’une nuée d’oiseaux vole dans le ciel, il sera normal d’éprouver un sentiment de peur lorsque vous reviendrez flâner dans la savane, la fois suivante, détaille Pier-Vincenzo Piazza. En revanche, vous ne devriez pas être apeuré si, en vous baladant sur un green de golf, un autre espace naturel ouvert, vous apercevez ou entendez des oiseaux à l’horizon.", précise le Directeur de recherche de l’Inserm. Si c’est le cas, vous avez peut-être développé un état de stress post-traumatique, conséquence de votre attaque par de lion.

Les groupes de Pier-Vincenzo Piazza et Aline Desmedt montrent que ces difficultés de mémorisation associées à l’ESPT ne sont pas spécifiques à l’être humain et sont retrouvées chez la souris. Pour cela, les chercheurs ont conditionné des souris à anticiper une menace (un choc électrique) plus ou moins forte par un contexte spécifique (un environnement annonciateur), et à distinguer ce contexte spécifique de stimuli présents lors du conditionnement mais qui ne prédisent pas la menace (un son). En condition normale, les souris montrent une réaction de peur quand elles sont exposées au contexte spécifique (l’environnement annonciateur) de la menace mais ne réagissent pas au son qui ne la prédit pas.

Les chercheurs ont alors administré, après la session de conditionnement, des concentrations croissantes d’hormones glucocorticoïdes, la principale réponse biologique au stress chez les mammifères. Si l’administration de glucorticoïdes suit une menace intense, comme les personnes en état de stress post traumatique, les souris ne parviennent plus à restreindre la réponse de peur au "bon" contexte, et aux bons indices annonçant l’éventuelle menace. Les animaux commencent à montrer de la peur en s’immobilisant en réponse à des indices qui étaient présents pendant la situation stressante mais qui ne prédisent en rien la menace. Ces résultats montrent donc que l’ESPT résulte probablement d’une surproduction de glucocorticoïdes chez certains sujets au moment de l’événement traumatique.

Ces difficultés de mémorisation induites par les glucocorticïdes sont accompagnées par une réorganisation de l’activité du cerveau, et en particulier du circuit hippocampe-amygdale, un des circuits essentiels à l’encodage des souvenirs associés à la peur. Dans les conditions normales, quand une personne associe une menace à un contexte, on observe une forte activité dans l’hippocampe, la structure du cerveau nécessaire pour tous les apprentissages qui associent un contexte spécifique, un espace, à un événement. En revanche, l’activité de l’amygdale est faible. L’amygdale est une zone du cerveau aussi impliquée dans la mémoire émotionnelle, mais elle mémorise les indices spécifiques, comme des sons, qui prédisent la menace.

Quand les sujets sont soumis à une augmentation des glucocorticoïdes et que des déficits de mémoire qui caractérisent l’ESPT sont observés, l’activité dans l’hippocampe baisse, celle relevée dans l’amygdale augmente. En état de stress post traumatique, les chercheurs notent donc une inversion de l’activité normale du cerveau. L’activité anormale dans l’amygdale peut expliquer le fait que le sujet commence à "sur-répondre" à des prétendus indices, présents au moment de l’événement traumatisant mais qui ne sont pas, en eux-mêmes, prédictifs d’un quelconque danger. L’activité faible dans l’hippocampe peut expliquer que le sujet ne reconnaît plus le bon contexte : il est donc incapable de d’avoir une réaction de peur uniquement face à une situation appropriée.

"L’ESPT n’est pas seulement un souvenir excessif de la situation traumatisante mais surtout un déficit de mémoire qui empêche la personne atteinte de restreindre sa réaction de peur au contexte qui prédit la menace", expliquent les chercheurs. Dans le syndrome de stress post traumatique, un fort souvenir de l’événement traumatisant est associé à l’amnésie du contexte environnant cet événement. Certains éléments du contexte, présents lors de l’événement traumatisant, sont considérés, à tort comme prédictifs de l’événement.

En conclusion, les auteurs expliquent que les problèmes de mémorisation dus à l’ESPT semblent être causés par une réponse biologique au stress anormale chez certains individus : une production excessive de glucocorticoïdes simultanée à une exposition à un stress intense provoque, chez ces individus, une inversion de l’activité normale des structures du cerveau qui encodent les souvenirs liés à la peur.

Inserm

Un séquenceur d'ADN révolutionnaire
Samedi, 03/03/2012 - 00:20

Après 20 ans de recherche, Oxford Nanopore a dévoilé deux produits qui pourraient révolutionner le marché du séquençage des gènes dans les domaines de la recherche fondamentale et de la médecine : un noeud de séquenceurs d'ADN capable de traiter un génome humain complet en un peu moins de 15 minutes, contre plusieurs semaines aujourd'hui, et une grosse clé USB capable de lire directement l'ADN dans du sang et, dans certains cas, sans préparation d'échantillon.

Les deux produits ont été présentés récemment lors d'une conférence en Floride. La société affirme que sa technique de séquençage ADN nanopore (un nanopore est un pore d'un diamètre compris entre 1 et 100 nm) peut lire plus rapidement et à moindre coût les brins biochimiques de l'ADN. Le premier produit de la firme, le Gridion, est de la taille d'un serveur rack, et se compose d'une matrice propriétaire de protéines nanopores noyées dans une solide membrane en polymère. Les brins d'ADN individuels passent à travers la maille de la membrane capable de filtrer 400 nanopores. Chaque noeud d'un Gridion est capable de traiter les dizaines de gigaoctets de données de séquençage par période de 24 heures.

Les noeuds peuvent être regroupés pour augmenter le nombre d'expériences menées à un moment donné, si un traitement plus rapide est nécessaire. Dans le cas d'une enquête criminelle par exemple. Une installation avec 20 noeuds, soit une configuration capable de traiter 8 000 nanopores simultanément, peut livrer un génome humain complet en 15 minutes. D'un autre côté, le dispositif miniaturisé Minion a été conçu pour l'analyse portable de molécules uniques. Oxford Nanopore indique que cet appareil bon marché et facile à utiliser est censé rendre plus accessible le séquençage d'ADN pour identifier des virus pathogènes ou observer les mutations génétiques d'une maladie.

Le Monde Informatique

Existe-t-il dans les profondeurs du cerveau un centre général de la motivation ?
Vendredi, 02/03/2012 - 05:00

L'équipe de Mathias Pessiglione, chargé de recherche Inserm du « Centre de recherche en neurosciences de la Pitié-Salpêtrière » (Inserm/UPMC-Université Pierre et Marie Curie/CNRS) a identifié la partie du cerveau impliquée dans la motivation lors d'une action mêlant effort physique et mental : le striatum ventral.

Les résultats de leur étude sont publiés dans PLoS Biology le 21 février 2012. Les résultats d'une activité (physique ou mentale) dépendent en partie des efforts consacrés à cette activité qui peuvent être motivés par une récompense. Par exemple, le sportif est susceptible de s'entraîner « plus intensément » si le résultat lui apporte un prestige social ou monétaire. Il en va de même pour l'étudiant qui prépare ses examens dans l'objectif de réussir sa carrière professionnelle. Que se passe-t-il lorsque des efforts physiques et mentaux sont nécessaires pour atteindre un objectif ?

L'équipe de Mathias Pessiglione de l'unité Inserm 975 « Centre de recherche en neurosciences de la Pitié-Salpêtrière » a cherché à savoir si des efforts mentaux et physiques sont conduits par un centre de motivation commun ou s'ils sont menés par des parties distinctes du cerveau. Les chercheurs ont donc étudié les mécanismes neuronaux qui découlent d'une activité mêlant l'action et la cognition. Pour ce faire, un test de 360 essais, conjuguant effort mental et physique, a été réalisé sous l'œil d'un scanner. Les 20 participants volontaires allongés la tête dans un appareil d'IRM fonctionnelle doivent exécuter plusieurs séries de tâches leur permettant d'accumuler des gains qu'ils peuvent remporter mais qui sont plafonnés pour chaque série à partir de la première réponse fausse de la série. Ces tâches mêlent une action cognitive et une action motrice. Les participants doivent trouver le chiffre le plus grand numériquement parmi des chiffres de tailles différentes et le sélectionner en serrant la poignée située au niveau de leur main gauche ou de leur main droite en fonction de là où se trouve ce dit chiffre. A la fin de l'essai, un récapitulatif des gains est projeté de manière à motiver le participant.

Grâce aux images obtenues à partir des clichés des IRM effectués lors du test, l'équipe de Mathias Pessiglione a identifié dans la profondeur du cerveau un système motivationnel général, c'est-à-dire une structure capable d'activer n'importe quel type d'effort, qu'il soit mental (comme se concentrer sur ce qu'on fait) ou physique (comme soulever une charge). En effet, les chercheurs ont constaté que le striatum ventral s'activait en proportion de la somme en jeu et que plus le degré de motivation était fort, plus l'activation était importante. De plus, le striatum ventral se connecte à la partie médiane du striatum (le noyau caudé) lorsque la tâche à réaliser est difficile sur le plan cognitif (lorsque la taille physique et la grandeur numérique des chiffres ne correspondent pas). Réciproquement, cette région ventrale sollicite la partie latérale du striatum (le putamen) lorsque la difficulté se situe sur le plan moteur (lorsqu'une forte pression doit être exercée sur les poignées).

Les chercheurs suggèrent donc que la motivation peut être codée par le striatum ventral. Ce dernier conduisant soit la partie motrice soit la partie cognitive du striatum selon l'action à mener pour l'amplifier. « Le striatum ventral pourrait commuter les connexions en fonction de la demande, c'est-à-dire amplifier l'activité neuronale dans le noyau caudé pour une opération cognitive et dans le putamen pour une action physique » explique Mathias Pessiglione.

CNRS

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Le troisième âge, avenir de l'économie française ?
Mardi, 06/03/2012 - 00:40

C'est en tout cas ce sur quoi misent les différents acteurs du Gérontopôle des Pays de la Loire. Entreprises, chercheurs, collectivités locales de la région ont planché sur la façon de tirer profit du vieillissement de la population. Et comptent bien séduire les touristes du troisième âge.

Profiter du vieillissement de la population pour en faire un gisement de croissance économique: entreprises, chercheurs et collectivités locales associés au sein du Gérontopôle des Pays de la Loire multiplient les initiatives pour en tirer parti. Cette structure unique en France, qui a déjà financé une étude pour un produit de prévention des escarres ou encore un projet de détecteur de chutes pour personnes âgées dépendantes, va ainsi aider prochainement Saint-Jean-de-Monts (Vendée) à imaginer "la station balnéaire de demain", en concevant des produits et services adaptés à ses touristes vieillissants. "Pendant trente ans, nous nous sommes présentés comme la destination la moins chère", justifie Xavier Druhen, directeur de la politique touristique de Saint-Jean-de-Monts. "Or, ce n'est plus vrai aujourd'hui: vous pouvez aller à Djerba ou sur la Costa Brava pour un prix inférieur."

  • De la terre battue pour ne pas avoir mal aux genoux

Les actions envisagées dans les cinq ans à venir sont diverses. L'idée d'une application informatique qui pourrait proposer des "services de remise en forme adaptés" à chaque touriste, après qu'il aura configuré ses paramètres de santé (surpoids, diabète, problèmes d'articulations) en fait partie. Les hôteliers et restaurateurs pourraient également être incités à proposer "des cartes de menus écrites en gros caractères" ou installer "des rampes d'accès à leurs toilettes", après y avoir été sensibilisés au cours de programmes de formation dédiés. Saint-Jean-de-Monts n'a par ailleurs pas attendu pour faire réapparaître des courts de tennis en terre battue sur son territoire. Bien que plus contraignants en entretien que ceux en macadam, ils permettent de "continuer à jouer sans se faire mal aux genoux", observe Xavier Druhen.

  • Sans oublier les jeunes

L'enjeu économique de ce programme d'actions est d'autant plus crucial que la "mono-industrie" touristique fait travailler 4.500 permanents et saisonniers dans cette station balnéaire populaire, dont la capacité de 130.000 lits est la plus grosse de France après celle du Cap d'Agde (Hérault). Paradoxalement, la nouvelle politique devra aussi faire de Saint-Jean-de-Monts "une destination séduisante" pour les jeunes, qui demeurent malgré tout ses "clients de demain". "Le risque serait d'apparaître comme un lieu où les seniors sont privilégiés, comme l'ont été Nice ou Cannes il y a quelques années", fait valoir Xavier Druhen. "Même si le vieillissement de la population est un gisement de croissance à court terme, il faut veiller à le renouveler."

La Tribune

Ötzi était-il cardiaque ?
Dimanche, 04/03/2012 - 00:40

L’homme des glaces, vieux de 5000 ans, était prédisposé aux maladies cardiovasculaires et souffrait peut-être déjà d’artériosclérose.

Ötzi, la momie de cet homme d'environ 45 ans, vieille de 5000 ans retrouvée en 1991 dans les montagnes entre l’Italie et l’Autriche, était génétiquement prédisposé aux maladies cardiovasculaires révèle une étude de l'université de Tübingen. Pourtant, il n’a pas été exposé aux facteurs de risques communément associés aux troubles cardiaques : surpoids, sédentarité ou déséquilibre alimentaire.

« La preuve que cette prédisposition génétique existait déjà dans la vie Ötzi est d'un intérêt énorme pour nous. Cela indique que les maladies cardiovasculaires ne sont pas principalement associées aux modes de vie modernes. Nous sommes maintenant impatients d'utiliser ces données pour nous aider à comprendre comment ces maladies se sont développées », explique l'anthropologue Albert Zink dans la revue Nature Communications.

En dehors de cette prédisposition génétique, les scientifiques ont pu identifier des traces de bactéries du genre Borrelia, responsables de la maladie de Lyme et transmises par les tiques. C’est la plus ancienne trace d’infection par cette bactérie.

Ils ont également confirmé qu’il appartenait à une lignée qui s’est éteinte ou qui est trop rare pour avoir été repérée dans la population européenne continentale. On en trouve encore des traces dans des zones géographiquement isolées et des îles comme la Sardaigne et la Corse. Il avait les yeux et les cheveux bruns, était du groupe sanguin 0 et souffrait d’intolérance au lactose, une incapacité à digérer le sucre du lait à l’âge adulte.

Sciences et Avenir

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un nouveau concept de véhicule électrique biplace
Mercredi, 07/03/2012 - 00:40

Le Centre de recherche allemand en intelligence artificielle (DFKI) présente un nouveau concept de véhicule électrique biplace, lors de l'édition 2012 du salon international de l'informatique (CeBit) se tenant du 6 au 10 mars à Hanovre. Dénommé "EO smart connecting car", ce véhicule est doté de roues capables d'être tournées à 90°, facilitant son stationnement en créneau. D'une masse de 600kg, il possède une vitesse maximale actuelle de 55km/h.

Sur la route, ce véhicule peut être raccordé à d'autres du même type à l'avant et à l'arrière pour former une chaîne de voitures. Ainsi, des trajets identiques peuvent être réalisés de manière plus efficace, sur le modèle des trains routiers. Pour réaliser cette fonction, le châssis de chaque véhicule doit être rétracté sur une longueur d'un mètre, pour atteindre une longueur totale de 1,5m. La voiture gagne alors 50cm de hauteur, pour atteindre deux mètres. Cette opération peut être réalisée pendant que le véhicule est en phase de circulation.

Lorsque les véhicules "EO smart connecting car" se trouvent raccordés les uns à la suite des autres, ils peuvent échanger des informations et de l'énergie entre eux. De plus, ils sont commandés de manière homogène en s'adaptant au trafic. L'ajout de modules de porte-bagages est par ailleurs possible. A plus long terme, il est prévu que ces véhicules roulent de manière autonome, sans action directe des passagers.

Le projet de conception de la "EO smart connecting car" a pour cadre la poursuite d'un programme de la région-pilote "Oldenbourg / Brême". Il bénéficie d'un financement du Ministère fédéral des transports, de la construction et du développement urbain (BMVBS) jusqu'en 2014.

Bulletins Electroniques

Mazda : un nouveau système anti-crash
Mardi, 06/03/2012 - 00:10

La compagnie automobile Mazda Motor Corp. a mis au point un système permettant au conducteur d'éviter un choc frontal à faible vitesse. Ce système, baptisé "Smart City Brake Support (SCBS)" repose sur l'utilisation d'un détecteur utilisant un laser qui repère les véhicules ou obstacles situés à l'avant de la voiture en mouvement. Lorsqu'un obstacle est repéré et le freinage est automatiquement anticipé par le système qui diminue la distance entre les plaquettes et le disque de freinage. Dans le cas où le conducteur n'effectue aucune action pour éviter la collision, le système freinera automatiquement.

SCBS s'applique pour des vitesses comprises entre 4 et 30km/h ainsi que lorsque la différence entre la vitesse du véhicule équipé de SCBS et celle du véhicule situé à l'avant de ce dernier ne dépasse pas 30km/h. Selon le constructeur, le système SCBS permettra de diminuer le nombre d'accidents de la route par collision frontale à faible vitesse, qui représente le type d'accident le plus fréquent dans l'archipel.

SCBS est renforcé par l'apport d'un système d'avertissement du contrôleur en cas d'accélération du véhicule en présence d'un obstacle frontal. Ce dispositif, présenté sous le nom d'ACTS "Acceleration Control for Automatic Transmission", utilise le détecteur laser de SCBS pour repérer les obstacles et enregistre en même temps les accélérations du véhicule. Lors d'une accélération, si un obstacle est repéré devant la voiture, l'activité du moteur est automatiquement réduite pour stopper l'accélération et le conducteur est averti du danger par une sonnerie qui retentit dans l'habitacle.

Ces développements technologiques découlent de la priorité que le constructeur japonais accorde à la sécurité. Mazda prévoit d'intégrer ces dispositifs dans le fonctionnement de son futur modèle, la Mazda CX-5, qui sera commercialisée au printemps 2012. Cependant, il est à noter que le système ACTS ne sera disponible que sur le marché japonais.

Bulletins Electroniques

Mazda

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top