RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 854
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Juillet 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La prédiction informatique à l’aide de la médecine régénérative
Une nouvelle dimension pour tester les constructions en métal
Un atome d'antimoine dans du silicium pour obtenir un ordinateur quantique
Avenir
L'Australie se lance dans la course du bras bionique
Une visière intelligente pour les pompiers
Matière
Une photosynthèse artificielle à l’aide d’une feuille synthétique
Espace
Sur la Terre comme sur la Lune, l'eau viendrait d'astéroïdes
Vivant
Une perte d'étanchéité du cerveau impliquée dans la maladie d'Alzheimer ?
Quand le cerveau souffre, le coeur aussi...
Cancer du sein : l’hygiène de vie peut réduire le risque génétique
Un nouveau traitement contre la dépendance à l’héroïne
Les bases génétiques de la douleur mieux comprises
La pollution, troisième cause de mortalité en France
Vers un antidépresseur sans effet secondaire
La reprogrammation des cellules pour réparer le cerveau malade
Edito
Capture et recyclage du CO2 : enfin du nouveau !



Cette semaine, nous revenons sur un sujet capital pour l’avenir de la planète : celui de la capture à la source, du stockage et de la valorisation du CO2, un gaz émis en énormes quantités par l’homme (35,7 gigatonnes en 2015, ce qui représente une hausse de 58 % des émissions mondiales depuis 1990) et qui contribue de manière décisive, nous en avons à présent les preuves scientifiques, au réchauffement accéléré du climat et à la montée de plus en plus rapide du niveau des mers sur l’ensemble de la Terre.

Il y a 3 semaines, une nouvelle étude du Laboratoire des sciences du climat et de l'environnement est encore venue confirmer l’augmentation sans précédent depuis plus de 800 000 ans de la concentration de CO2 dans l’atmosphère. Ces travaux, qui s’appuient sur des analyses réalisées sur l’ile isolée d’Amsterdam, située dans l’hémisphère Sud, montre sans contestation possible que, depuis 1981, la concentration de dioxyde de carbone est ainsi passée de 339 à 400 ppm (+ 18 %), soit une augmentation moyenne de 1,75 ppm par an. Par ailleurs, les chercheurs ont relevé des taux de croissance plus élevés ces dernières années : l'augmentation du CO2 dans l'atmosphère s'accélère puisque le taux de croissance annuel observé, d'une valeur de 1,30 ppm par an dans les années 1980, atteint plus de 2 ppm par an depuis 2012 (Voir CNRS).

Si nous voulons tenir les objectifs de la COP 21 et parvenir à réduire de moitié les émissions humaines de CO2 d’ici 2050 (en dépit de l’augmentation de la population mondiale d’environ deux milliards d’habitants), il faudra, selon une vaste étude publiée dans Nature, fin 2015 (Voir Nature) non seulement réduire sensiblement à la source nos émissions de CO2 et doubler l’efficacité énergétique de nos systèmes industriels et économiques mais également augmenter la surface mondiale des forêts (4 milliards d’hectares en 2015) de 970 millions d’hectares, soit ¼ de surfaces supplémentaires. Cette surface boisée supplémentaire devrait permettre de capter environ 12 gigatonnes de CO2 par an d’ici la fin de ce siècle. 

Mais nous allons devoir accomplir un effort de réduction globale de nos émissions de CO2 si important et si rapide que ces différents leviers (y compris la montée en puissance considérable des énergies renouvelables que j’ai encore évoquée la semaine dernière dans mon éditorial sur les énergies marines) risquent de ne pas suffire pour respecter nos nouveaux engagements internationaux très contraignants et atteindre nos objectifs de décarbonisation globale massive de l’économie mondiale. 

Il va donc être nécessaire de mettre en œuvre, en plus des mesures évoquées, des outils de capture et de stockage qui permettront de piéger une partie du CO2 que nous devrons continuer à émettre pour faire tourner nos économies. Mais le développement massif de ces techniques de capture et de stockage du CO2 se heurte depuis plus de 20 ans à un obstacle rédhibitoire : son coût trop élevé. Le coût moyen de la capture et du stockage du CO2 est en effet évalué à environ 60 euros la tonne par la majorité des études sur ce sujet. Or, le prix actuel de la tonne de CO2 sur les marchés internationaux du carbone est dix fois inférieur à ce coût, c’est-à-dire de l’ordre de 6 euros. Avec une telle équation économique, on voit bien que seules des ruptures technologiques majeures dans la récupération, la neutralisation et la valorisation du CO2 permettront de diminuer plus rapidement nos émissions de carbone, à un coût économique et social supportable pour nos sociétés.

Heureusement, plusieurs avancées scientifiques et techniques majeures sont intervenues récemment dans ce domaine de la capture et de la transformation du CO2 et elles pourraient bien bouleverser le nouveau paysage énergétique mondial qui émerge. Fin 2013, NCF a dévoilé un procédé qui permet de transformer le CO2 industriel en un hydrocarbure, baptisé syngas, composé de monoxyde de carbone et d’hydrogène. Le processus de transformation se fait dans une centrale solaire. Le principe est de récupérer à la source le CO2 produit par l’industrie. Il est envoyé dans le réacteur avec de l’eau. Au bout du processus chimique, à plus de 1000°C grâce à la focalisation de la lumière solaire sur un miroir, on obtient une production de syngas et de l’oxygène. Le syngas peut alors être directement utilisé comme source d’énergie et comme carburant. 

Le réacteur de NCF transformant le CO2 pourra être installé en bout de chaîne de production dans certaines usines qui produisent à la fois une grande quantité de chaleur et de dioxyde de carbone, comme les industries métallurgiques et gazières. En recyclant une partie de leurs émissions de CO2 en carburant, ces industries réduiront sensiblement leur empreinte carbone. Le procédé de NCF pourrait être  commercialisé d'ici à 2018 sur un marché mondial potentiel estimé à 24 milliards de dollars (22,5 milliards d'euros) par an.

Fin 2015, une équipe de recherche de Siemens a annoncé la mise au point de modules de photosynthèse artificielle qui utilisent les excédents d’électricité produits par des sources d'énergies renouvelables. Ces modules, de la taille d’une boite à chaussures, pourraient être pleinement opérationnels d’ici deux ans. Dans un premier temps, ils pourraient être utilisés pour capter et recycler le CO2 émis par l’industrie et les centrales électriques. Mais Siemens voit plus loin et imagine déjà recouvrir les bâtiments à l’aide de ses modules, ce qui permettrait de capter le CO2 directement dans l’atmosphère et de le transformer, à partir d’énergie éolienne ou solaire, en composants chimiques à haute valeur ajoutée, comme l’éthylène ou le méthanol (Voir Innovations Report).

En mai 2015, le constructeur automobile Audi s'est associé à la firme Sunfire pour explorer une voie révolutionnaire et non polluante, baptisée Blue Crude. Ce nouveau carburant s'appuie sur deux matières premières seulement : de l'eau et du dioxyde de carbone. Ce procédé qui permet de s'appuyer sur ces deux éléments extrêmement présents sur Terre se compose de trois étapes : la première consiste à réaliser une électrolyse réversible pour décomposer l'eau en oxygène et hydrogène pur, via le recours à des énergies renouvelables (éolien, photovoltaïque, hydroélectrique) permettant d'atteindre une température de plus de 800°C (Voir Science Alert).

Dans un deuxième temps, l'hydrogène pur est mixé avec du monoxyde de carbone obtenu à partir du dioxyde de carbone présent dans l'atmosphère ou fourni par des installations de production de biogaz. Quand la température s'élève et que la pression est adéquate, le mélange devient liquide et chargé en potentiel énergétique. C'est ce fluide composé d'éléments hydrocarbonés à longue chaîne que Sunfire et Audi ont baptisé Blue Crude.

Ce dernier peut, dans un troisième temps, être raffiné et utilisé en carburant (ou être mélangé avec du diesel traditionnel) pour les véhicules roulant au gazole. Selon les premiers essais réalisés par Audi et Sunfire, le Blue Crude serait non seulement plus propre que le diesel traditionnel mais aussi plus efficace, avec une efficience énergétique de 70 %. Ce nouveau carburant pourrait donc faciliter « la mobilité longue distance sans aucun impact sur le climat », explique pour sa part Reiner Mangold, directeur du développement de produits durables chez Audi.

En octobre 2015, la société canadienne Carbon Engineering, fondée en 2009 par David Keith, un climatologue de l’Université de Harvard, a inauguré son usine pilote de décarbonisation de l’air à Squamish, en Colombie-Britannique. Cette entreprise, qui a obtenu le soutien financier de Bill Gates, a mis au point une technologie qui consiste en premier lieu à capturer le CO2 directement dans l’atmosphère à l’aide de ventilateurs géants. Une fois filtré et purifié, le composant est transformé en boulettes de combustible synthétique, qui peuvent ensuite servir de carburant. « Il est maintenant possible de prendre le CO2 de l’atmosphère et de l’utiliser comme un combustible qui, combiné à l’hydrogène, produit une énergie zéro émission », souligne le PDG de cette société, Adrian Cordless qui espère commercialiser en 2018 son carburant synthétique issu du CO2 ainsi extrait. Il est vrai que cette technique présente un avantage remarquable : elle pourrait être utilisée dans des systèmes de production d’énergie déjà existants. Amorcé en juin 2015, ce procédé de capture de CO2 a déjà permis d’aspirer 10 tonnes de dioxyde de carbone. 

En avril 2016, General Electric a, pour sa part, dévoilé un projet de turbine fonctionnant spécifiquement avec du CO2, lui-même mis sous phase supercritique avec de la chaleur stockée dans des sels fondus. Cette turbine révolutionnaire vise à franchir un pas décisif en matière de stockage d’énergie. GE s’appuie sur deux idées complémentaires : d’une part, sur une technologie existante, le stockage de la chaleur dans des sels fondus, notamment utilisée pour le solaire à concentration, où des miroirs concentrent l’énergie solaire pour chauffer un fluide. La chaleur est ainsi stockée assez longtemps pour être ensuite réutilisée pendant les heures sans soleil. D’autre part, les chercheurs de GE ont utilisé du CO2 en lieu et place de l’eau pour faire tourner la turbine (Voir MIT Technology Review).

Sous l’effet de la chaleur libérée par les sels fondus, le CO2 sous forme de glace carbonique passe sous haute pression en phase supercritique à 700°C. Cette phase supercritique n’est ni liquide ni gazeuse mais est aussi dense qu’un liquide tout en possédant des propriétés de circulation, comme la viscosité, proches de celles d’un gaz. GE a ensuite créé un nouveau type de turbine à haut rendement pour exploiter spécifiquement les propriétés de ce CO2 supercritique.

Ces turbines dites "Sunrotors" pourraient ainsi convertir jusqu’à 68 % de l’énergie stockée sous forme de chaleur en électricité, alors que les centrales à gaz les plus efficaces aujourd’hui ont un rendement de 61 %. Cela grâce aux bonnes propriétés caloportrices du CO2 et grâce aux besoins diminués de compression du CO2 supercritique par rapport à la vapeur. Enfin, la technologie des sels fondus répond également mieux aux besoins de flexibilité des réseaux d’électricité, qu’elle soit produite par l’énergie solaire, nucléaire ou de combustion : la chaleur peut être stockée puis utilisée dans un second temps, selon les besoins, pour produire l’électricité. Tandis qu’une turbine fonctionnant à la vapeur d’eau nécessitera une demi-heure pour se mettre en marche, celle au CO2 prendra une ou deux minutes. En outre, le dioxyde de carbone utilisé pour faire tourner cette turbine ne produit pas de déchets. La substance est simplement refroidie, repressurisée et réinjectée dans la turbine pour un nouveau cycle.

General Electric se donne cinq ans pour proposer un système fiable capable de stocker 100 MWh (soit assez pour alimenter une ville de 100 000 habitations selon GE) produits avec une turbine de 33 MW. En outre, la turbine ne ferait qu’un dixième de la taille d’une turbine à vapeur de puissance équivalente et permettrait de réduire significativement les coûts de production d’électricité (100 $/MWh contre 250 $/MWh pour des centrales à gaz). Selon le porteur du projet Doug Hofer, le système est aussi un concurrent plus rentable économiquement que le stockage par batteries.

Autre innovation très prometteuse en cours d’expérimentation : l’association sur une même installation industrielle de la production d’énergie géothermique et du stockage du CO2, actuellement testée dans le cadre du projet ANR CO2-Dissolved, coordonné par le Bureau de recherches géologiques et minières (BRGM).

Ce système repose sur l’utilisation de deux puits, un puits producteur et un puits injecteur. Le premier puits permet de pomper la saumure chaude d’un aquifère salin profond. La chaleur en est extraite. Puis elle est réinjectée à plus basse température via le second puits. Mais l’originalité de ce projet réside dans le fait que le CO2 y est injecté jusqu’à ce que la saumure soit saturée en CO2. Une installation expérimentale reproduisant un puits à échelle décimétrique a permis d’effectuer des tests avec des minéraux gréseux et carbonatés, caractéristiques des principaux aquifères profonds ciblés en France. L’étude a montré que les réactions chimiques induites par l’injection du CO² dans de la saumure acidifiée n’avait que des conséquences négligeables sur le puits d’injection et le réservoir, étant donné les profondeurs où elles avaient lieu.

Une étude de faisabilité technico-économique a montré que la mise en œuvre de cette technologie est bien adaptée aux installations industrielles « moyennes » émettant de 10 à 150 000 tonnes par an. Pour ce type d’unité, cette nouvelle technologie est bien plus intéressante que l’utilisation d’une technologie de captage-stockage de CO2 habituelle. Un inventaire des sites industriels potentiellement compatibles, émettant moins de 150 000 t/an de CO2, a été mené sur la France, l’Allemagne et les Etats-Unis. Plus de 650 sites ont été identifiés rien qu’en France, soit l’équivalent de 20 % des émissions industrielles nationales de CO2.

Enfin, il y a quelques jours, des scientifiques sont parvenus, pour la première fois, à obtenir une solidification rapide du dioxyde de carbone (CO2) injecté dans des sols basaltiques, offrant une solution prometteuse pour un stockage sûr de ce gaz lié au réchauffement planétaire. Les résultats de cette expérience pourraient apporter une réponse aux inquiétudes suscitées par l'idée de stocker le CO2 dans le sous-sol, certains craignant que ce gaz carbonique s'échappe dans l'atmosphère, estiment ces chercheurs (Voir Eurekalert).

Dans le cadre d'un projet pilote appelé Carbfix lancé en 2012 dans la centrale géothermique de Hellisheidi, en Islande, la plus grande au monde, une équipe de scientifiques et d'ingénieurs a commencé à mélanger le CO2 et d'autres gaz à de l'eau pompée dans le sol pour réinjecter la solution dans le basalte volcanique. La centrale de Hellisheidi, qui alimente Reykjavik, pompe dans le sol l'eau bouillante chauffée par la géothermie pour faire fonctionner ses turbines. Mais ce processus n'est pas totalement propre car il fait remonter également des gaz volcaniques, comme le CO2 et du sulfure d'hydrogène.

Dans la nature, quand le basalte est en contact avec de l'eau mélangée à du CO2, une réaction chimique se produit et le carbone se transforme en un minéral crayeux. Mais personne ne savait jusqu'à présent combien de temps cette réaction prenait : de précédentes études estimaient qu'une solidification du CO2 prendrait au moins plusieurs centaines d'années, voire des millénaires. Mais dans le basalte sous la centrale de Hellisheidi, 95 % du CO2 injecté se sont solidifiés en moins de deux ans. "Cela indique qu'il est possible de pomper de grandes quantité de CO2 dans le sol et de le stocker de manière très sûre en peu de temps", relève Martin Stute, hydrologue à l'Université Columbia à New York et co-auteur de cette étude. Cette étude précise qu’il est envisageable d'utiliser cette technique dans les centrales au charbon situées dans des zones où il y a beaucoup de basalte et précise que cette roche est très répandue, que ce soit dans les océans ou sur les continents.

Autre avantages décisifs de cette technique, son coût de mise en œuvre est bien moins élevé que celui des méthodes actuelles car, d’une part, le gaz n’a pas à être injecté sous de très hautes pressions et, d’autre part, le stockage peut s’effectuer sans surveillance car il n’y a pas de risques de fuites. Mais pour être utilisée à grande échelle, cette technique très innovante devra encore surmonter deux obstacles de taille : elle devra d’abord réduire ses besoins considérables en eau et faire la preuve que la roche de basalte ainsi produite rapidement ne risque pas d’accroître les risques de séismes dans certaines zones géologiques particulières…

Signalons enfin la nouvelle invention de Daniel G. Nocera, célèbre professeur et chercheur en Chimie à Harvard (États-Unis). En 2011, ce scientifique très imaginatif avait déjà fait sensation en présentant une feuille artificielle capable de séparer l’eau en hydrogène et en oxygène. Cette fois, son équipe a réussi à modifier une bactérie, appelée Ralston eutropha, qui absorbe le dioxyde de carbone et l’hydrogène de l’air et de l’eau (combinés à sa feuille artificielle) pour les transformer en carburants alcooliques. « Pour le moment, nous produisons de l’isopropanol, de l’isobutanol et de l’isopentanol », a expliqué Nocera lors d’une conférence à Chicago (Voir Inhabitat).

Si le processus se trouve à l’état naturel chez les plantes et les végétaux, celui-ci est traditionnellement efficace à environ 1 % (ce qui signifie que 1 % de l’énergie solaire est convertie en biomasse). La bactérie de Daniel Nocera, elle, est dix fois plus efficace. Cette technologie, sans être une panacée, fait sauter un verrou important vers le « carbone neutre » : le CO2 converti en carburant retourne dans l’atmosphère après combustion mais peut à nouveau être extrait de l’air grâce à ce processus biochimique bactérien très efficace.

Mais cette invention de Daniel Nocera peut également permettre d’implanter des centrales d’énergie dans des régions dénuées de ressources naturelles, comme l’Inde, où 300 millions de personnes n’ont pas encore d’accès à l’électricité. Selon Forbes, un réacteur d’un litre de liquide rempli des bactéries de Nocera peut capturer 500 litres de CO2 par jour, et faire disparaître 237 litres de CO2 pour chaque kilowatt-heure produit.

Ce rapide tour d’horizon des ruptures technologiques en cours en matière de captage, de stockage et de valorisation du CO2, montre à quel point nous devons modifier et enrichir notre approche conceptuelle concernant le défi majeur que représente la diminution mondiale drastique de nos émissions de dioxyde de carbone. Si nous devons toujours nous assigner comme priorité absolue la réduction « à la source » des émissions de CO2, nous devons également considérer à présent que ce gaz, que nous continuerons à produire longtemps en quantité, quels que soient nos efforts, peut constituer une véritable ressource énergétique et économique que nous devons apprendre à transformer et à exploiter dans l’intérêt de tous.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La prédiction informatique à l’aide de la médecine régénérative
Mercredi, 29/06/2016 - 18:29

Une collaboration internationale de scientifiques, dirigée par l’Université de Bristol, a montré qu'il était possible de re-programmer tout type de cellules humaines en un autre type cellulaire sans passer par la "case" cellule souche.

Le système créé, connu sous le nom de Mogrify, est une ressource bioinformatique qui permet de prédire le meilleur procédé de re-programmation, selon le type cellulaire de départ et le type cellulaire que l’on souhaite obtenir. Le processus biologique, appelé transdifférentiation, est en grande partie à l’origine des espoirs et des avancées de la médecine régénérative.

Actuellement, le remplacement d’un organe endommagé ou défectueux nécessite une transplantation de l’organe en question à partir d’un donneur immunologiquement compatible. Ce système pourrait accélérer et améliorer l’efficacité de la production de cellules de remplacement sans avoir recours à un greffon.

La recherche, qui a duré cinq ans, a porté sur l’élaboration d’un algorithme informatique permettant de prédire les facteurs cellulaires impliqués dans la transformation des cellules. C’est en effet la difficulté d’identification de ces facteurs de transcription, spécifiques à chaque type cellulaire, qui résulte en un goulot d’étranglement et ralentit les avancées de recherche dans ce secteur. Les raisons principales proviennent des coûts engendrés par les tests expérimentaux qui sont effectués selon des schémas de répétition essais-erreurs, une approche ne facilitant pas le passage à l’échelle lors de succès.

"Mogrify" combine pour un type cellulaire donné, d’une part des données d’expression génétique, et, d’autre part, les systèmes régulateurs parallèles, pour prédire les facteurs cellulaires indispensables à l’induction de la transdifférentiation. Les premiers essais, faits en étroite collaboration avec l’université de Monash en Australie, ont été extrêmement encourageants et les auteurs ont ainsi créé un atlas de reprogrammation cellulaire.

Le système bioinformatique permet par ailleurs un mécanisme pratique et efficace pour l’implémentation de nouvelles transdifférentiations encore non répertoriées. "Mogrify" est disponible en ligne pour être utilisé par la communauté scientifique, dans le but d’accélérer les développements scientifiques et médicaux.

Article rédigé par Georges Simmonds pour RT Flash

Bristol

Une nouvelle dimension pour tester les constructions en métal
Mardi, 28/06/2016 - 14:13

Un nouveau logiciel permet de tester les points faibles des gros ouvrages en métal tels que des grues, des ponts ou des machines de minage en quelques minutes, contre plusieurs jours jusqu’à présent. En combinant 1D et 3D, cet outil mis au point par Akselos, entreprise du parc de l’innovation de l’EPFL (Ecole Polytechnique Fédérale de Lausanne), permet également de gagner en fiabilité. Combinant 3D et 1D, le logiciel mis au point par l’entreprise Akselos, basée à l’EPFL Innovation Park, est d’une rapidité et d’une fiabilité sans précédent pour tester les points faibles de gros ouvrages en métal tels que des bâtiments, des grues ou des plates-formes pétrolières.

“Le test de 100 cas de charges différentes d’une grue comportant plus de 5 millions de degrés de liberté a par exemple pris 8 min et 20 secondes avec notre logiciel contre plus de trois jours avec une méthode traditionnelle”, explique Thomas Leurent, CEO de l’Entreprise. Ce nouvel outil constitue en effet un mariage attendu entre la rapidité d’une représentation sous forme d’élément poutres (unidimensionnels) et la nécessité d’une simulation en trois dimensions. Longue et fastidieuse, cette dernière est toutefois indispensable au test fiable des zones plus sensibles telles que les soudures par exemple.

L’outil devrait simplifier le travail de bien des ingénieurs. Pour représenter d’énormes engins comme une machine d’exploitation minière composée de plus de 14.000 tonnes d’acier -soit deux fois la tour Eiffel-, passer de la 1D à la 3D s’apparente à un cauchemar. Pour éviter une laborieuse simulation 3D de toute la structure, les concepteurs de ce genre de structure utilisent un modèle global unidimensionnel, puis des sous-modèles en 3D.

Les outils développés par Akselos sont basés sur une technologie issue du MIT et développée notamment en collaboration avec des laboratoires de l’EPFL. Cette méthode permet d’accélérer certains types de calculs nécessaires aux réalisations 3D. Ces dernières deviennent presque aussi rapides qu’un modèle en éléments poutres.“Il s’agit d’une méthode étudiée par les mathématiciens depuis 2000, et commercialisée récemment par Akselos pour des applications industrielles”, souligne Marco Picasso, dont le laboratoire collabore au développement du logiciel à travers deux projets CTI. Le programme décompose une géométrie complexe en éléments plus simples, sur lesquels les calculs sont faits à l'avance. Le tout est réorganisé en un temps record. Il est ensuite facile d’appliquer diverses charges sur le modèle complet assemblé à partir de ces éléments.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Un atome d'antimoine dans du silicium pour obtenir un ordinateur quantique
Dimanche, 26/06/2016 - 11:54

Des chercheurs du Sandia National Laboratories ont réussi à utiliser un générateur de faisceau d'ions pour insérer un atome d’antimoine dans un substrat de silicium courant. Le processus n’a pris que quelques microsecondes. L’atome d’antimoine compte cinq électrons, soit un de plus que l’atome de silicium. Comme les électrons s’apparient, l'électron d'antimoine impair reste libre.

Ensuite, les chercheurs ont soumis cet électron libre à la pression d'un champ électromagnétique et ils ont pu contrôler son « spin » et le positionner vers le haut ou vers le bas. Car, dans l'informatique quantique, c’est le spin qui permet aux électrons de servir de bits quantiques, ou « qubits ». Contrairement aux ordinateurs traditionnels dont les bits peuvent prendre la valeur 0 ou 1, un qubit peut prendre simultanément la valeur 0 et 1. Cet état est connu sous le nom de superposition.

Maintenant qu'ils ont réussi à insérer un atome libre dans le silicium, les chercheurs pensent qu'ils peuvent en insérer un deuxième à bonne distance pour qu’ils communiquent entre eux. À ce moment-là, ils auront créé un circuit informatique quantique. Les équipes du Sandia National Laboratories comptent réaliser ce nouvel exploit plus tard cette année. « Notre méthode est prometteuse parce qu’elle consiste à lire le spin de l'électron plutôt que sa charge électrique. Cela signifie que l’information n’est pas avalée par l’arrière-plan statique et qu’elle reste à une place cohérente pendant un temps relativement long », souligne le physicien Meenakshi Singhl.

Autre avantage : la fabrication en masse du substrat est bien rodée et le silicium coûte beaucoup moins cher que les matériaux supraconducteurs spécialisés. « La précision de cette nouvelle technique pourrait permettre aux fabricants de créer des structures multi-qubits plus complexes », ont déclaré les chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

Phys

^ Haut
Avenir
Nanotechnologies et Robotique
L'Australie se lance dans la course du bras bionique
Mercredi, 29/06/2016 - 19:15

Des chercheurs australiens travaillent à la mise au point d’un bras robotisé véritablement biomécanique. Cette équipe, basée à l’université de Melbourne, a mis au point des puces électroniques capables de servir d’interface entre les nerfs et les muscles. Cette avancée pourrait permettre de connecter les nerfs sensorimoteurs et une prothèse robotique d’une façon qui se rapproche du mouvement physiologique.

"Nous disposons d’un système d’électrodes sur lequel nous avons fait pousser des cellules, et nous sommes capables de décoder la fonction musculaire en sortie, explique le Professeur Rob Kapsa, de l’université de Melbourne. Nous avons créé un cocktail qui produit des connexions neuromusculaires, et qui pourra améliorer la connexion entre le signal musculaire et un mouvement mécanique robotisé". Ces recherches ont permis de créer une forme de jonctions neuromusculaires biomécaniques.

A terme, les chercheurs espèrent parvenir au Graal de la robotique prosthétique : un bras robotisé contrôlé par la pensée – ce qui existe déjà –, mais surtout d’offrir une sensation de feedback analogue à celle d’un membre biologique, le tout dans une prothèse en forme de bras normal.

"Pour l’instant, on peut seulement obtenir un feedback visuel, en regardant sa prothèse", explique le Professeur Denny Oetomo, du département d’ingénierie mécanique de l’université de Melbourne. Ce projet australien ambitieux doit donner lieu à la création d’un centre de recherche spécialement dédié à Melbourne, le Aikenhead Centre for Medical Discoverty (AKMD).

Article rédigé par Georges Simmonds pour RT Flash

Herald Sun

Une visière intelligente pour les pompiers
Mardi, 28/06/2016 - 12:47

Des chercheurs suisses de l'EPFL ont mis au point une visière intelligente qui, couplée à une caméra thermique, permet aux pompiers de voir ce qui les entoure en temps réel, même la nuit et dans la fumée.

Pour les solats du feu, la fumée opaque, toxique et l’obscurité rendent la progression dangereuse et précaire. Protégés dans des tenues pesant plus de 20 kilos, les pompiers doivent aussi parfois traîner avec eux une lance à incendie et tenir dans leur main une caméra thermique qui leur permet d’inspecter les lieux, de s’orienter et de découvrir de possibles victimes.

« Cette caméra thermique est un outil indispensable, mais elle entrave leurs mouvements et les oblige à s’arrêter pour analyser la pièce avant de pouvoir reprendre leurs recherches », expliquent Adrien Birbaumer et Martijn Bosch, qui développent le projet VIZIR au Laboratoire d'images et représentation visuelle. En tenant compte de ce handicap, les deux ingénieurs ont mis au point un outil de vision permettant aux pompiers de travailler avec les mains libres. Ils ont eu l’idée de positionner une mini caméra infrarouge sur le casque et d’intégrer un écran transparent à la vitre du masque respiratoire.

Ainsi, le pompier a continuellement deux images superposées dans son champ visuel : ce que ses yeux voient réellement et ce que la caméra thermique filme et restitue en temps réel. Il peut se mouvoir facilement et éviter les obstacles sans stopper ses investigations. "Nous avons travaillé sur le meilleur moyen de représenter les zones chaudes et froides", précise Adrien Birbaumer, "bien entendu nous avons opté pour le rouge et le bleu, mais nous avons dû utiliser des tonalités spécifiques pour qu’elles soient visibles sur un support transparent".

En étroite collaboration avec l'Établissement d'assurance contre l'incendie et les éléments naturels du canton de Vaud (ECA), les ingénieurs procèdent aux essais de leur prototype qui se compose, pour l’heure, d’une paire de lunettes augmentées. Elles sont portées lors des séances d’entraînement afin de vérifier l’efficacité de la méthode et recueillir les témoignages des professionnels. 

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Matière
Matière et Energie
Une photosynthèse artificielle à l’aide d’une feuille synthétique
Mercredi, 29/06/2016 - 18:44

Des chercheurs des instituts d’électrochimie et de chimie inorganique de l’Université d’Ulm (Bade-Wurtemberg) ont conçu une feuille synthétique sensible à la lumière permettant de décomposer l’eau en dihydrogène et en dioxygène sur le modèle de la photosynthèse des plantes.

La photosynthèse naturelle a été modélisée afin d’identifier les agents responsables de la transformation de l’eau en oxygène. La photosynthèse est un processus permettant aux plantes de faire réagir de l’eau et du dioxyde de carbone pour produire de la matière organique (souvent des sucres) nécessaire à leur croissance. Le dioxygène n’est qu’un sous-produit de cette réaction.

Cette dernière s’effectue au sein d’un complexe enzymatique dont le cœur de la réaction est un composé de manganèse et d’oxygène. Par biomimétisme, les chercheurs ont conçu un cube d’oxyde de manganèse-vanadium qui catalyse la décomposition de l’eau en dioxygène et en dihydrogène.

Par ailleurs, une antenne moléculaire absorbant la lumière permet de collecter l’énergie pour la réaction. Les chercheurs souhaitent désormais s’intéresser au fonctionnement du transfert d’électrons dans leur système et à la formation du dioxygène à sa surface. En effet, jusque-là, la plupart des systèmes fonctionnaient avec un apport d’électricité supplémentaire (électrolyse) et/ou via des métaux nobles.

Article rédigé par Georges Simmonds pour RT Flash

ULM

^ Haut
Espace
Espace et Cosmologie
Sur la Terre comme sur la Lune, l'eau viendrait d'astéroïdes
Mercredi, 29/06/2016 - 18:52

Selon une étude britannique, l'eau présente aujourd'hui dans les profondeurs de la Lune aurait été apportée par des astéroïdes il y a environ 4,4 milliards d'années. "Nos travaux suggèrent que des astéroïdes riches en eau ont contribué à l'apport de la majorité de l'eau du système Terre/Lune entre 4,5 et 4,3 milliards d'années", a expliqué Romain Tartèse, de l'Université de Milton Keynes au Royaume-Uni et coauteur de l'étude publiée récemment.

Le système solaire s'est formé il y a 4,5 milliards d'années. Selon le modèle aujourd'hui couramment admis, la Lune est née lorsque la Terre, elle-même à peine formée, a subi une collision massive avec une autre planète de la taille de Mars. Les débris alors éjectés par la collision se sont ré-accumulés pour former la Lune.

A l'origine, l'astre était une énorme boule de magma qui s'est ensuite refroidie et a cristallisé progressivement. "Pour que l'eau, apportée par des impacts de projectiles, soit incorporée et homogénéisée à l'intérieur de la Lune, la Lune devait encore être un océan de magma", a précisé le chercheur. "Une période allant de dix à 200 millions d'années après sa naissance."

Selon Jessica Barnes de l'Université ouverte de Milton Keynes et ses collègues qui se basent sur la composition en hydrogène et en azote d'échantillons lunaires, les astéroïdes, dites chondrites carbonées, riches en eau sont, pour une grande part, à l'origine de cette eau.

Des traces que l'on ne peut pas retrouver sur la terre. "L'enregistrement géologique de cette époque a largement été effacé sur Terre du fait notamment de la tectonique des plaques et de l'érosion des continents au cours du temps", a expliqué Romain Tartèse. Mais les deux astres sont voisins -- la Lune se trouvait à "seulement" quelque 24.000 km de la Terre il y a 4,5 milliards d'années -- et l'eau terrienne et l'eau lunaire pourraient avoir une origine commune.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une perte d'étanchéité du cerveau impliquée dans la maladie d'Alzheimer ?
Jeudi, 30/06/2016 - 14:41

Selon une étude néerlandaise, la perte d’étanchéité de la barrière hémato-encéphalique serait l’un des mécanismes clés des premiers stades de la maladie d’Alzheimer. Les chercheurs de l’université de Maastricht et Leiden ont en effet identifié cette porosité chez des malades grâce à l’imagerie par résonance magnétique. La barrière hémato-encéphalique est une structure cellulaire séparant le cerveau de la circulation sanguine. Cet obstacle anatomique joue un rôle de filtre en laissant passer des nutriments essentiels au bon fonctionnement du cerveau et bloque le passage aux neurotoxines, et autres molécules nocives.

Les scientifiques néerlandais ont étudié par IRM le cerveau de 16 malades et 17 personnes en bonne santé. Grâce à des produits de contraste, ils ont pu mesurer le nombre de brèches dans la barrière hémato-encéphalique. Résultat : elles étaient plus nombreuses chez les personnes souffrant de la maladie d’Alzheimer que chez les autres participants. Les fuites étaient particulièrement importantes au niveau de la matière grise, notamment dans la partie superficielle du cerveau, le cortex. Des lésions ont également été observées dans la matière blanche.

"Ces fuites dans la barrière hémato-encéphalique signifient que le cerveau a perdu son moyen de protection", explique Walter Backes, chercheur à l’université de Maastricht. "La stabilité des neurones est perturbée et l’environnement dans lequel ils vivent commence à devenir nocif. Ce mécanisme pourrait éventuellement mener au dysfonctionnement du cerveau". En effet, les chercheurs ont découvert un lien entre ces fuites et le déclin cognitif, suggérant qu’une barrière hémato-encéphalique affaiblie contribue au développement de la maladie d’Alzheimer. Elle pourrait également faire partie d’une cascade d’événements menant à la démence.

Article rédigé par Georges Simmonds pour RT Flash

Radiology

Quand le cerveau souffre, le coeur aussi...
Jeudi, 30/06/2016 - 14:34

Selon une étude américaine, les femmes migraineuses présenteraient un risque accru de maladies cardiovasculaires. Cette étude s’appuie sur le suivi d’une cohorte d’infirmières américaines recrutées en 1989. Au total, 115 500 femmes, âgées de 25 à 42 ans et en bonne santé, ont été interrogées jusqu’en 2011. Parmi elles, 15 % ont signalé une migraine diagnostiquée.

C’est environ la part de la population mondiale qui est touchée. Au cours de cette période, 1 300 cas de maladies cardiovasculaires – dont 223 mortelles – ont été signalés. Par rapport aux femmes qui ne souffrent pas de migraines, celle qui ont reçu un diagnostic sont légèrement plus exposées aux complications cardiovasculaires. Le risque relatif de mortalité est accru de 50 %, celui d’infarctus de 39 % et celui d’AVC de 62 %. Des conclusions qui ne peuvent pas être étendues aux hommes. Pour les auteurs de l’étude, la migraine pourrait constituer un marqueur de risque, même si elle n’est pas pour autant un facteur de risque.

Article rédigé par Georges Simmonds pour RT Flash

BMJ

Cancer du sein : l’hygiène de vie peut réduire le risque génétique
Mercredi, 29/06/2016 - 19:06

Une étude réalisée par des chercheurs de l’Ecole de santé publique de l’Université Johns-Hopkins (Baltimore, Maryland, Etats-Unis), montre que, même avec des facteurs de risque familiaux ou génétiques, les femmes peuvent agir pour prévenir une tumeur du sein. Elle rappelle que toutes les mutations n’ont pas la même influence que BRCA1 ou BRCA2, mis sur le devant de la scène par Angelina Jolie.

17 000 femmes atteintes de cancer du sein, 20 000 femmes en bonne santé ont pris part à cette étude. Au total, 100 variations génétiques courantes, associées de façon modérée avec le cancer du sein, ont été passées en revue. Malgré la présence d’un tel facteur, une intervention sur le mode de vie semble bénéfique.

Ainsi, les femmes porteuses d’une mutation, mais de poids normal, qui ne buvaient pas, ne fumaient pas et ne prenaient pas de thérapie hormonale de la ménopause avaient le même risque que celui de la population générale. Cela signifie qu’à 30 ans, la probabilité de développer un cancer à 80 ans est de 11 %.

Selon ces travaux, 30 % des cas de cancer du sein pourraient être évités en agissant sur les facteurs de risque modifiables. A l’heure où les coûts des tests génétiques chutent, cela pourrait s’avérer précieux pour trier les patients qui bénéficieraient le plus d’une mammographie régulière. Nilanjan Chatterjee propose que les examens soient prescrits de manière plus ciblée et souligne qu'il n'y a pas de "fatalité génétique" et qu'une bonne hygiène de vie peut contrer les prédispositions familiales ou génétiques.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Un nouveau traitement contre la dépendance à l’héroïne
Mardi, 28/06/2016 - 14:19

Les résultats de l’étude SALOME (Study to Assess Longer-term Opioid Medication Effectiveness) montrent que la dépendance à l’héroïne chronique peut être traitée efficacement grâce à l’hydromorphone. Selon ces travaux, cette molécule serait aussi efficace que la diacétylmorphine pour les personnes n’ayant pas bénéficié de traitements antérieurs, tels que la méthadone ou le suboxone.

Dirigé par des chercheurs de Providence Health Care (PHC), le Centre d’évaluation de la santé et des sciences de résultats (CHÉOS) à l’hôpital St. Paul et l’École de la population et de la santé publique de l’Université de Colombie-Britannique (UBC), il s’agit du seul essai clinique du genre dans le monde. « Avant SALOME, l’hydromorphone n’avait jamais été évalué en tant que traitement de substitution pour la dépendance aux opioïdes », indique le Docteur Eugenia Oviedo-Joekes, Professeur à l’École UBC de la population et la santé publique et auteur principal de cette étude.

"L’Hydromorphone est un médicament contre la douleur largement disponible. Notre étude montre que l’hydromorphone est aussi efficace que la diacétylmorphine, fournissant une alternative autorisée pour traiter l’utilisation sévère des troubles opioïdes".

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Les bases génétiques de la douleur mieux comprises
Mardi, 28/06/2016 - 14:00

Une équipe de recherche américaine a identifié trente-six gènes impliqués dans les mécanismes de la douleur en travaillant sur la mouche des fruits. Parmi ces gènes, vingt sont communs à l'espèce humaine. Ces travaux sont les premiers, selon leurs auteurs, à mettre en évidence le rôle d'un aussi large panel de gènes surexprimés dans les neurones nociceptifs, récepteurs sensoriels de la douleur.

Le Professeur Daniel Tracey et son équipe du Centre de science biomoléculaire Linda et jack Gill de l'université de l'Indiana ont pour ce faire passé au crible 275 gènes, chez ces mouches, dont l'expression était supérieure à la moyenne au sein des nocicepteurs et en ont identifié 36 associés à la sensation de douleur.

Pour réaliser cette expérience, les chercheurs ont produit des lignées de mouches des fruits chacune respectivement porteuse de l'un des 275 gènes étudiés. Ils ont ensuite observé les réactions de ces diptères sous deux températures : 42°C et 46°C. Celles qui se mouvaient rapidement à 42°C ont constitué la catégorie des « hypersensibles ». Celles qui restaient immobiles à 46°C ont été qualifiées d'« insensibles ».

En conclusion, 22 des 36 gènes étudiés sont impliqués dans l'hypersensibilité, 14 dans l'insensibilité. Le premier groupe intéresse tout particulièrement la recherche « car on peut imaginer concevoir des médicaments qui activent un inhibiteur de ces gènes et bloque la sensation de douleur », explique le Professeur Tracey.

L'étude souligne que la douleur n'est pas toujours associée à une stimulation externe, comme en témoignent les quelque 1,5 milliard de personnes souffrant de douleurs neuropathiques ou chroniques. Les scientifiques ont par ailleurs observé que 9 des gènes associés à l'insensibilité induisaient un nombre plus réduit de dendrites dans les neurones nociceptifs. Alors que deux des gènes liés à l'hypersensibilité semblaient favoriser le développement des dendrites. Reste à présent à comprendre par quels mécanismes biochimiques ces gènes modifient la sensibilité des cellules nerveuses. 

Article rédigé par Georges Simmonds pour RT Flash

Laboratory Equipment

La pollution, troisième cause de mortalité en France
Mardi, 28/06/2016 - 12:56

Selon une étude publiée par Santé Publique France, la pollution de l’air serait responsable de 48 000 morts chaque année en France, ce qui ferait de ce phénomène la troisième cause de mortalité en France, derrière le tabac (78 000 décès) et l’alcool (49 000 décès). A l’origine de 9 % des morts annuelles en France, les particules fines d’un diamètre inférieur à 2,5 micromètres – les PM2,5, qui pénètrent profondément dans le système respiratoire et provoquent de nombreuses pathologies – entraînent une perte d’espérance de vie à 30 ans pouvant dépasser deux ans dans les villes les plus polluées.

Selon Sylvia Médina, coordinatrice du programme Air et santé, « Nous utilisons dans notre étude les PM2,5 comme traceur, car il s’agit de l’indicateur de pollution le plus étudié en termes d’effets sur la santé, mais la pollution atmosphérique est un mélange complexe de milliers de polluants qui interagissent », rappelle-t-elle.

Effectuée durant la période 2007-2008, cette évaluation confirme l’ordre de grandeur de la dernière estimation publiée en 2005 dans l’étude européenne « Clean Air for Europe » (« Air pur pour l’Europe »), menée en 2000 par la Commission européenne. Cette étude avait estimé à 42 000 morts prématurées l’impact de la pollution de l’air en France. A la différence de cette dernière, qui croisait les niveaux de concentration de PM2,5 avec des études épidémiologiques américaines, l’évaluation faite par Santé publique France s’appuie entièrement sur des données épidémiologiques françaises.

Cette étude montre que, dans les zones urbaines de plus de 100 000 habitants, la perte d’espérance de vie à 30 ans du fait des PM2,5 atteint quinze mois en moyenne, ce qui correspond à 26 000 morts annuelles. Néanmoins, les villes moyennes et petites, de même que les zones rurales, ne sont pas épargnées, souligne l’étude, qui a porté sur la totalité des 36 219 communes de l’Hexagone. Ainsi, 800 000 personnes résidant dans des communes rurales sont exposées à des valeurs dépassant en moyenne 14 µg/m3.

Globalement, plus de 47 millions de personnes en France sont soumises à une concentration moyenne annuelle de PM2,5 dépassant la valeur guide de l’Organisation mondiale de la santé (OMS), soit 10 µg/m3. Si cette valeur était respectée partout en France, 17 700 morts pourraient être évitées chaque année, souligne l’étude, qui s’est intéressée aux bénéfices attendus d’une amélioration de la qualité de l’air selon plusieurs scénarios. Cela correspondrait à une baisse de la mortalité en France de l’ordre de 4 %.

L'étude précise que « Les effets de la pollution atmosphérique résultent surtout de l’exposition quotidienne aux polluants. Même à des niveaux peu élevés, les particules fines ont des effets inflammatoires et contribuent au développement de maladies chroniques ». Plus de 80 % des morts et des hospitalisations pour cause cardiaque attribuables à la pollution de l’air sont ainsi associées à des niveaux journaliers de PM10 inférieurs au seuil réglementaire d’alerte, durant les pics de pollution, de 80 µg/m3 d’air.

Article rédigé par Georges Simmonds pour RT Flash

SPF

Vers un antidépresseur sans effet secondaire
Dimanche, 26/06/2016 - 12:10

Des chercheurs de l'Ecole de Médecine de l'Université du Maryland, dirigés par Todd Gould, ont mis au point un antidépresseur très efficace et sans effet secondaire, l' hydroxynorketamine. Cette molécule est un dérivé de la kétamine, dont les effets antidépresseurs avaient déjà été identifiés.

Cette fois, pour contourner l'obstacle des effets secondaires propres à la kétamine, parmi ces métabolites, l'hydroxynorketamine est celui qui a intéressé les chercheurs. Ils ont remarqué que les souris à qui l'on injectait cette substance ne montraient aucune modification dans leur comportement moteur et leur coordination, à l'inverse de celles soumises à la kétamine. Et malgré l'absence de ces effets secondaires, l'hydroxynorketamine a été efficace en tant qu'antidépresseur.

"Cette découverte constitue une vraie percée dans la compréhension des mécanismes biochimiques liés à la dépression et devrait déboucher sur de nouveaux traitements, à la fois plus efficaces et mieux tolérés", souligne Carlos Zarate, chercheur à l'Institut National Pour la Santé Mentale.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La reprogrammation des cellules pour réparer le cerveau malade
Dimanche, 26/06/2016 - 12:04

Les scientifiques commencent à savoir, chez la souris de laboratoire, changer l'identité d'une cellule du cerveau pour la transformer en neurone, en y introduisant des gènes à l'aide de virus inactifs. Ce processus de « reprogrammation cellulaire » représente une voie prometteuse pour réparer le cerveau.

La plupart des maladies neurologiques s'accompagnent de pertes de neurones qui peuvent être très spécifiques d'une région ou d'un type neuronal particulier. Depuis plusieurs années, de nombreux travaux ont essayé de remplacer ces neurones manquants par des neurones greffés, en espérant qu'ils pourraient s'intégrer dans les circuits lésés et rétablir ainsi les fonctions déficientes. Les premières tentatives firent appel à des cellules embryonnaires, plus ou moins efficaces et très contestées sur le plan éthique.

Très récemment, l’équipe de Magdalena Goetz et Benedikt Berninger à Munich, et en particulier les travaux de Christophe Heinrich (actuellement chercheur CNRS au Grenoble Institut des Neurosciences) ont montré qu'il est possible de reprogrammer des cellules gliales pour générer de nouveaux neurones. Par l'introduction, à l'aide de virus rendus inactifs, de gènes de différenciation capables de reprogrammer ces cellules, les chercheurs peuvent changer ainsi leur identité. De façon très encourageante, des cellules de cerveau humain, isolées in vitro à partir de pièces de résection chirurgicale provenant de patients, ont pu également être reprogrammées en neurones induits.

Les cellules gliales sont généralement en abondance dans les régions atteintes par la maladie, et prolifèrent dans la plupart des maladies du cerveau associées à des morts neuronales (maladie de Parkinson, maladie d'Alzheimer, certaines formes d'épilepsie, etc...). Il semble même qu'elles participent à l'émergence des symptomes de certaines de ces maladies. Leur reprogrammation en neurones "in vivo" permet d'envisager de nouvelles solutions thérapeutiques qui éviteraient de greffer des cellules. Les premiers résultats montrent que ces nouveaux neurones s'intègrent plutôt bien dans leur environnement.

Suite à ces travaux pionniers dans le domaine, de nombreux laboratoires européens et américains étudient actuellement les mécanismes qui sous-tendent cette reprogrammation cellulaire glie-neurone. Reste à savoir si ces neurones "induits" sont capables de corriger les troubles neurologiques qui résultent de la perte de leurs prédécesseurs... Pour répondre à cette question, le groupe de Christophe Heinrich étudie à Grenoble la possibilité que ces neurones dérivés de cellules gliales puissent contrecarrer le développement des crises d’épilepsie dans un cerveau malade.

Article rédigé par Georges Simmonds pour RT Flash

Echosciences

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top