RTFlash

RTFLASH Recherche & Technologie
NUMERO 592
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Avril 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des chercheurs démontrent la fiabilité de la cryptologie quantique
Google veut faire de votre mobile un terminal de paiement
Avenir
Chirurgie : révolution robotique à la clinique du Tonkin
Matière
Produire de l'hydrogène à température ambiante
Vestas présente son éolienne marine de prochaine génération
Record historique pour l'éolien : le vent, première source d'électricité en Espagne en mars
La Led entre dans l'ère du silicium
Une feuille artificielle qui peut chauffer une maison
Terre
Analyse des émissions de CO2 quotidiennes des Français
Des arbres artificiels pour capter le CO2
Vivant
Des cellules graisseuses associées aux cancers
Nouvelle piste de traitement antidiabétique
Déclencher l'apoptose de manière contrôlée : une voie prometteuse contre le cancer
Une interface cérébrale pour les handicapés
Recherche
"Transports 2050": un plan ambitieux pour accroître la mobilité et réduire les émissions liées aux transports
Edito
Cellules-souches : ne fermons aucune voie de recherche !



Marc Peschanski, directeur de recherche Inserm et de l'Institut des cellules souches pour le traitement et l'étude des maladies monogéniques (Istem), a annoncé le 31 mars les résultats remarquables obtenus par son équipe dans une forme de myopathie, la maladie de Steinert, grâce à l'emploi de cellules souches embryonnaires humaines (Voir communiqué de l’INSERM).

La dystrophie de Steinert est la plus fréquente des myopathies de l'adulte. Elle touche quelques milliers de personnes en France. Elle est caractérisée par une fonte ainsi qu'une lenteur anormale de la décontraction des muscles, ce qui désorganise les mouvements, et par une atteinte de très nombreux autres organes. Les patients souffrent de troubles du rythme cardiaque, de cataracte, d'anomalies endocriniennes, de troubles cognitifs et du sommeil... À ce jour, il n'existe pas de traitement.

"En comparant tous les gènes qui s'exprimaient dans ces cellules et en les comparant aux gènes de cellules identiques mais non atteintes, nous avons réussi à identifier 15 gènes anormaux", explique le chercheur. "Puis nous en avons sélectionné un qui intervenait particulièrement dans la croissance des prolongements des neurones moteurs en direction des muscles. C'est ainsi que nous avons découvert que les cellules malades faisaient pousser à profusion et de façon anarchique des prolongements alors que ceux des cellules saines étaient beaucoup moins nombreux, bien organisés et donc capables d'établir des connexions fonctionnelles avec les muscles."

Au niveau moléculaire, les chercheurs ont identifié deux gènes de la même famille, SLITRK 2 et 4, dont l’expression était très faible du fait de la maladie. La correction de ces défauts moléculaires jusqu’alors inconnus mais, depuis, confirmés chez les patients, induisait celle des anomalies neuro-musculaires, et démontrant le lien direct entre les deux phénomènes.

Aucune autre approche expérimentale n’aurait permis aujourd’hui d’élucider ces mécanismes, en particulier parce qu’il n’existait pas de moyen d’accéder à des neurones moteurs humains porteurs de la maladie, explique Cécile Martinat, chargée de recherche à l’Inserm. Il n’existait pas a fortiori de moyen de produire de telles cellules en quantité, alors que cela est essentiel aux approches qui ont permis ici de déchiffrer les mécanismes en jeu."

Aujourd’hui, ces travaux ouvrent un champ d’exploration considérable. Des dizaines de lignées cellulaires issues d’embryons porteurs d’autres maladies génétiques diverses sont disponibles dans les banques de cellules des laboratoires. Parmi ces maladies, les équipes d’I-Stem sont déjà lancées, par exemple, sur la maladie de Huntington ou la neurofibromatose de type 1… Ces multiples lignées sont autant de programmes de modélisation pathologique à venir.

Les équipes d’I-Stem ont déjà entrepris d’utiliser les cellules porteuses de la dystrophie myotonique de Steinert qu’elles ont caractérisées pour chercher des médicaments susceptibles de corriger les anomalies en laboratoire, premier pas vers la découverte éventuelle de traitements applicables chez les patients. Cette étape, dite de "criblage de médicaments", ouvre sur l’analyse parallèle de plusieurs dizaines de milliers de composés pharmacologiques par semaine.

S'appuyant sur cette avancée majeure qui aurait été impossible dans l'utilisation de cellules-souches embryonnaires, Marc Peschanski a souligné avec force la nécessité de légaliser, dans la future loi de bioéthique actuellement examinée par le Parlement, l'usage des cellules souches embryonnaires humaines lorsqu'il est établi, et c'est ici le cas, que seule l'utilisation de ces cellules souches embryonnaires peut permettre des percées majeures en matière de nouveaux traitements. Ce chercheur de renommée mondiale a rappelé à juste titre que trois essais avec des cellules souches embryonnaires ont déjà commencé chez l'homme aux États-Unis (le premier concerne les victimes de traumatismes de la moelle épinière, les deux autres des maladies de la rétine). "Il serait vraiment dommage de se priver, en France, d'un outil scientifique et potentiellement thérapeutique si prometteur pour des raisons purement idéologiques", a conclu Marc Peschanski.

Les réticences de nature éthique liées à l'utilisation des cellules-souches embryonnaires sont tout à fait respectables et compréhensibles et il faut souhaiter que les progrès de la biologie permettent, comme cela est déjà le cas pour certaines recherches, de se passer de plus en plus de ce type de cellules issus d'embryons humains. Mais aujourd'hui, l'honnêteté intellectuelle et scientifique doit nous conduire à admettre le fait qu'il est impossible, pour l'instant, de se passer totalement des cellules-souches embryonnaires si nous voulons opérer de véritables ruptures thérapeutiques pour traiter certaines affections graves qui restent à ce jour incurables et souvent mortelles. En outre, rendre pratiquement impossible l'utilisation des cellules souches embryonnaires en maintenant un régime général d'interdiction, tout en restreignant de manière excessive les possibilités de dérogation permettant l'utilisation de ce type de cellules, aboutirait à pénaliser de manière dramatique et durable la recherche française dans des domaines tout à fait stratégiques où notre pays en en pointe.

Comme l'ont rappelé dans un communiqué commun il y peu de temps plusieurs chercheurs de haut niveau, ne confondons pas rigueur éthique et aveuglement idéologique et espérons que cette remarquable avancée scientifique et biologique, saluée par l'ensemble de la communauté scientifique internationale, permettra d'infléchir la réflexion et d'éclairer le débat en cours et débouchera sur la définition d'un cadre légal et éthique largement consensuel qui ne ferme a priori aucune voie de recherche et permette de nouvelles avancées rapides et décisives en matière de thérapie cellulaire.

René Trégouët

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Des chercheurs démontrent la fiabilité de la cryptologie quantique
Jeudi, 07/04/2011 - 09:21

Des scientifiques belges et espagnols ont démontré pour la première fois que les nouveaux systèmes de cryptologie quantiques sont plus sûrs que les systèmes de sécurité actuels. Le soutien de l'UE provient du projet Q-ESSENCE («Quantum interfaces, sensors and communication based on entanglement»), qui a reçu près de 5 millions d'euros au titre du thème Technologies de l'information et de la communication (TIC) du septième programme-cadre (7e PC), et du projet PERCENT («Percolating entanglement and quantum information resources through quantum networks»), soutenu à hauteur de 700 000 euros dans le cadre d'une subvention de démarrage du CER (Conseil européen de la recherche) au titre du 7e PC également. L'étude a été récemment publiée dans la revue scientifique Nature Communications.

En utilisant des clés générées par des particules quantiques, la transmission de données est garantie par les lois de la physique, selon les chercheurs de l'Université libre de Bruxelles (ULB) en Belgique et l'Institut de sciences photoniques de Barcelona, en Espagne. Les lois de mécanique quantique établissent que l'observation d'une particule dans son état quantique modifie cet état, ce qui signifie que dans les cas où les particules quantiques sont utilisées en tant que clés de transmission de données, toute forme d'espionnage peut être facilement et immédiatement détectée.

Comme les chercheurs l'ont fait remarquer dans leur article, un «problème central en cryptographie est la distribution entre utilisateurs distants de clés secrètes pouvant être utilisées, par exemple, pour le cryptage de messages». Ils expliquent que «cette tâche est impossible en cryptographie classique à moins d'émettre des hypothèses sur la puissance informatique des espions. La distribution quantique de clés (ou cryptographie quantique), offre une sécurité contre les adversaires disposant d'une puissance informatique illimitée».

C'est le principe à l'origine de tous les systèmes de cryptographie quantique sur le marché, mais les failles dans la mise en oeuvre de ces systèmes constatées dans le passé les laissent vulnérables aux attaques des pirates quantiques, forçant les chercheurs à découvrir de meilleurs moyens de sécuriser les données. Selon les travaux menés par le post-doctorant Jonathan Barrett, des chercheurs de l'ULB ont développé une méthodologie qui n'était pas basée sur l'identification des changements de l'état quantique des particules.

Au contraire, les appareils quantiques étaient utilisés comme des boîtes noires pour recevoir et transmettre des données ; si l'émetteur et le récepteur pouvaient détecter certaines corrélations entre les données produites par leurs boîtes respectives, la sécurité des clés quantiques était garantie. Ainsi, toute tentative d'espionnage de données devient complètement inutile et la sécurité de la transmission de données se place aux limites de notre compréhension actuelle des lois de physique.

Ce qui restait à prouver, néanmoins, était la fiabilité de cette nouvelle approche étant donné que les tests s'étaient concentrés sur quelques attaques limitées. Stefano Pironio de la faculté de sciences de l'ULB et Lluis Masanes et Antonio Acín de l'Institut de sciences photoniques à Barcelone ont démontré que cette nouvelle approche permettait de générer des clés à une vitesse raisonnable, comparables à celles utilisées dans les systèmes actuels, assurant ainsi la sécurité complète du système.

Les chercheurs ont écrit dans Nature Communications que leurs travaux offrent «un formalisme général de confirmation de sécurité» des protocoles de cryptographie quantique. «Cela est possible en termes de forte notion de sécurité, de sécurité universelle de composabilité, selon laquelle la clé secrète générée par le protocole est impossible à distinguer de la clé secrète idéale», expliquent-ils.

Bien que leurs preuves se basent sur une supposition mineure sur le fonctionnement des appareils quantiques, les résultats de cette recherche montrent clairement que cette nouvelle approche est possible en principe, ouvrant ainsi la voie à des formes plus sûres de cryptographie quantique. Les auteurs concluent: «Nos travaux contribuent à combler l'écart entre les preuves de sécurité théoriques et les réalisations pratique de cryptographie quantique».

Cordis

Google veut faire de votre mobile un terminal de paiement
Jeudi, 07/04/2011 - 07:47

Le Nexus S sera-t-il transformé bientôt en portefeuille électronique ? Le Wall Street Journal en est convaincu. D’après ses informations, Google a conclu un partenariat avec le spécialiste de la carte Mastercard et le géant de la finance Citigroup, afin d’intégrer des solutions de paiement mobile à Android. Une fois concrétisé, cet accord permettrait aux clients de Citigroup d’effectuer des paiements avec leur smartphone, à l'aide d'une application spécifique.

Le journal précise que cette application, en développement, ne fonctionne que pour un seul modèle en vente actuellement – sans doute le Nexus S-, doté d’un module NFC, mais qu’elle serait disponible par la suite sur de nombreux téléphones Android.

Selon le WSJ, ce projet serait aussi un moyen pour Google de proposer une nouvelle forme de publicité ciblée locale : en obtenant des informations plus précises sur leurs clients – grâce à leur téléphone -, les commerçants seraient à même de leur proposer des publicités et des bons de réduction adaptés à leurs désirs... En revanche, Google ne prendrait pas de commission sur les transactions. Le système de paiement de Google et ses partenaires devrait être dévoilé cette année, mais rien n’indique qu’il sera disponible en Europe… En France, rappelons que plusieurs opérateurs de téléphonie mobile et banques testent déjà le paiement par mobile, notamment à Nice.

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
Chirurgie : révolution robotique à la clinique du Tonkin
Jeudi, 07/04/2011 - 07:34

Décidément, les chirurgiens doivent beaucoup aux militaires. On sait que, jadis, ils ont forgé leur art sur les champs de bataille. On sait moins qu’aujourd’hui cette tradition demeure. Ainsi, si l’armée américaine n’avait pas ressenti le besoin d’une meilleure protection pour ses chirurgiens et si les marins de la même nation n’avaient pas travaillé sur le problème des interventions chirurgicales à distance, le robot chirurgical n’aurait, sans doute, pas été si rapidement mis au point. Et l’on ignorerait encore les progrès qu’il nous offre, autant en ce qui concerne les performances des chirurgiens que le confort des patients.

Après l’hôpital Lyon Sud, c’est au tour de la clinique du Tonkin (Villeurbanne - Rhône) de s’être équipée d’un de ces appareils. Entré en service au mois de septembre dernier, il a déjà été utilisé à 150 reprises pour traiter des patients dans pas moins de six spécialités (chirurgies urologique, digestive, vasculaire, gynécologique, cardiaque et de la main). Ce qui fait la fierté du directeur de la clinique, Eric Calderon : « Nous sommes le seul établissement au monde à opérer de la sorte dans six spécialités ».

Formés à Strasbourg au maniement du robot chirurgical Da Vinci, les chirurgiens du Tonkin, ils sont douze à être concernés, en ont vite maîtrisé la technique. Aujourd’hui, ils sont d’ardents militants de cette technologie, à l’image du docteur Marwan Dawarha, urologue : « Nous sommes là dans le domaine de la chirurgie peu invasive. D’où un avantage pour le patient qui souffre moins et voit réduire le temps de sa convalescence ». Et l’homme de l’art de rajouter : « Pour le chirurgien aussi le progrès est considérable. Il peut travailler dans d’excellentes conditions de confort et donc plus longtemps. Sa vision est améliorée et, grâce à la machine, son geste est beaucoup plus précis. Il s’agit là d’une véritable révolution ».

Une révolution qui, de surcroît, ne coûte rien. Du moins au patient. Car si l’investissement se chiffre à 1, 5 million d’euros pour l’établissement, tous les médecins se sont mis d’accord pour payer une redevance en partant du principe qu’une telle technologie devrait améliorer encore les résultats et l’image de la clinique du Tonkin. Le surcoût est ainsi assuré, sans que la note finale du patient soit augmentée. Les premiers robots chirurgicaux ont fait leur apparition en 1999 aux États-Unis. Aujourd’hui, rien que dans ce seul pays, ils sont 2 000 en activité. Pour sa part, la France en compte déjà quarante. Et ce n’est qu’un début. Déjà, toujours aux États-Unis, 90 % des cancers de la prostate sont opérés de la sorte.

Le Progrès

^ Haut
Matière
Matière et Energie
Produire de l'hydrogène à température ambiante
Jeudi, 07/04/2011 - 09:06

Des chercheurs de l’Institut technologique d’Harbin (HIT) ont développé un procédé qui permet, à une température inférieure à 25°C, de fabriquer de l’hydrogène à partir de matériaux organiques et de bactéries. Habituellement, la production d’hydrogène est diminuée à de basses températures en raison du ralentissement de l’activité enzymatique qui catalyse les réactions. En utilisant une cellule d’électrolyse microbienne (MEC), l’équipe de chercheurs de Defeng Xing du HIT a réussi à optimiser cette production entre 4 et 9°C.

Cette MEC spécifique génère directement de l’hydrogène après application d’un courant électrique sur les bactéries. Ces dernières vont alors consommer l’acide acétique provenant de la fermentation des plantes et relâcher des photons, des électrons et du CO2. L’addition d’un autre courant électrique aidera ensuite le rapprochement des photons et électrons pour créer de l’hydrogène sous forme gazeuse. Par ailleurs, plus l’intensité du courant est forte, plus la production d’hydrogène sera importante.

Présentant plusieurs avantages, cette nouvelle méthode de production d’hydrogène élimine ainsi le coût d’un éventuel chauffage et pourrait être mise en œuvre dans des régions montagneuses où la température est inférieure à 10°C.  De plus, aucune formation de méthane, résultant de la respiration anaérobique des bactéries, n’est observée à ce niveau de température. Un problème fréquemment rencontré dans les MEC traditionnels.

Industrie&Technologies

Vestas présente son éolienne marine de prochaine génération
Jeudi, 07/04/2011 - 08:21

Vestas a révélé le 30 mars des détails sur sa nouvelle génération d'éolienne offshore,  la V164-7.0 MW, d'une puisance de 7 MW avec un rotor de 164 mètres de diamètre. Ce niveau d'envergure et de puissance permet d'après le fabricant danois d'éoliennes d'assurer le coût de l'énergie le plus faible possible. Baisser le coût de l'énergie de l'éolien offshore est essentiel pour l'industrie. Pour atteindre cet objectif, il faut miser sur une éolienne de plus grande taille permettant de capturer davantage d'énergie. Nous avons donc besoin de développer des machines encore plus grandes, spécialement conçues pour les enjeux propres à l'environnement offshore. Avec l'introduction de la V164-7.0 MW, Vestas franchit une étape majeure pour répondre à ces besoins.

Selon Anders Søe-Jensen, Président de Vestas Offshore, le marché éolien offshore va considérablement se développer dans les années à venir, mais davantage dans certaines parties du monde que d'autres : « D'après nos prévisions, le développement du marché éolien offshore aura surtout lieu en Europe du Nord où les conditions maritimes sont particulièrement dures. Forts de notre vaste et réelle expérience offshore et de la longue période durant laquelle Vestas a fait figure de pionnier dans l'industrie éolienne offshore, nous avons spécialement conçu la V164-7.0 MW dans le but de capturer la plus grande quantité d'énergie possible et d'offrir une fiabilité hors pair dans un environnement rude et plein de défis. Cela fait de cette nouvelle éolienne le choix idéal pour, et à titre d'exemple, les nombreux projets du « Round 3 » au Royaume-Uni. »

Compte tenu du rendement moyen d'une éolienne marine, plus élevé que sur terre, chacune de ces machines pourra produire, en moyenne, 24 millions de kWh par an, de quoi alimenter 9 600 foyers hors chauffage. Sur les bases de la consommation électrique moyenne actuelle (2500kWh par foyer hors chauffage), 2 700 de ces éoliennes géantes pourraient produire, en association avec un réseau en "grille" adapté à la gestion des énergies intermittentes et des moyens de stockage suffisants de l'énergie (air comprimé, hydrogène, gaz), la totalité de l'électricité consommée par les 26 millions de foyers français.

Vestas

Record historique pour l'éolien : le vent, première source d'électricité en Espagne en mars
Jeudi, 07/04/2011 - 08:09

"Les parcs éoliens ont couvert 21 % de la demande et ont atteint un record mensuel, avec la production de 4.738 gigawatts, 5 % de plus qu'en mars 2010", a indiqué récemment le gestionnaire du réseau de transport d'électricité REE dans un communiqué. L'ensemble des énergies renouvelables ont fourni 42,2 % de la demande d'électricité, un chiffre toutefois en recul par rapport à mars 2010 (48,5 %), mois qui avait profité d'une forte production hydraulique.

Cette dernière a représenté 17,3 % de la demande en mars 2011, tandis que le solaire en a apporté 2,6 %. Le nucléaire a lui fourni 19 % de l'électricité et le charbon 12,9 %. Sur l'ensemble du premier trimestre, les énergies renouvelables apportent 40,5 % de la demande, dont 21 % via l'éolien. "Avec la production d'énergie éolienne de mars, on pourrait couvrir la consommation électrique mensuelle d'un pays comme le Portugal", s'est réjoui dans un communiqué l'Association des entreprises éoliennes (AEE).

"Ce jalon historique atteint par l'éolien démontre que cette énergie, en plus d'être autochtone, propre et de plus en plus compétitive, est déjà capable d'approvisionner trois millions de foyers espagnols", a souligné son président José Donoso. Selon l'AEE, cette forte progression de l'énergie éolienne est "la principale raison pour laquelle 2010 a été la première année où l'Espagne a été exportatrice (nette) d'électricité avec la France". L'Espagne était en 2009 le quatrième producteur mondial d'énergie éolienne grâce à une politique de soutien actif menée ces dernières années. Madrid vise une puissance installée de 40.000 mégawatts en 2020, contre près de 21.000 actuellement.

Red Eléctrica

La Led entre dans l'ère du silicium
Lundi, 04/04/2011 - 07:48

Les Led vont-elles bientôt entrer dans l’ère du silicium pour devenir des composants aussi faciles à fabriquer que les microprocesseurs, les circuits logiques programmables ou encore les mémoires flash ? En tout cas, les chercheurs l’espèrent.

Ainsi la société américaine Bridgelux vient de faire la démonstration d’une technologie LED à base de nitrure de gallium (GaN) sur silicium offrant un rendement lumineux de 135 lumens par watt. Elle est présentée comme la première percée de ce type proche du marché puisque la commercialisation est prévue dans les deux à trois années à venir.

Aujourd’hui, les LED sont réalisées avec des semiconducteurs exotiques comme le nitrure de gallium que l’on fait croitre par épitaxie sur un substrat de saphir ou de carbure de silicium. En passant à un substrat de silicium, il devient possible d’utiliser les procédés de fabrication banalisés dans la production des puces électroniques.  A la clé une réduction des coûts de 75 % en comparaison avec les approches actuelles, selon Bridgelux.

Le rendement de 135 lumens par watt a été atteint à une température de couleur corrélée de 4 730 K et pour un courant de 350 mA. Les tensions de service se situent entre 2,90 V à 350 mA et 3,25 V à 1 A. Selon Bridgelux, cette technologie est idéale pour des applications d’éclairage général. La société espère utiliser des tranches de silicium de 200 mm (8 pouces), courantes dans la fabrication de semi-conducteurs.

Industrie&Technologies

Une feuille artificielle qui peut chauffer une maison
Vendredi, 01/04/2011 - 12:07

Des chercheurs du Massachusetts Institute of Technology (MIT) dirigés par Daniel NOCERA ont développé une feuille artificielle qui produit de l’énergie dix fois plus vite que la photosynthèse naturelle, et qui pourrait créer assez d’énergie pour chauffer une maison pendant un jour. Un scientifique avait déjà créé la première feuille artificielle il y a plus d’une décennie, mais celle des chercheurs du MIT est plus petite, plus puissante et moins chère que celle de Turner.

Le professeur Daniel Nocera a récemment présenté son modèle en Californie. Il s’agit d’un appareil solaire sophistiqué de la taille d’une carte à jouer que l’on laisse flotter dans un récipient d’eau. Un peu à la manière de la photosynthèse réalisée par une feuille naturelle, la feuille utilise la lumière du soleil pour séparer les deux composants essentiels de l’eau, l’oxygène et l’hydrogène, qui sont ensuite utilisés pour produire de l’électricité.

La conception de ce nouveau prototype, qui contient également de la silicone et des circuits électroniques, a été possible grâce à la découverte de nouveaux catalyseurs puissants et bon marché en nickel et en cobalt. La feuille a fonctionné pendant au moins 45 heures d’affilée sans s’arrêter au cours des tests préliminaires. Nocera estime qu’avec quatre litres d’eau, une feuille pourrait produire assez d’électricité pour une maison dans un pays en développement pendant un jour. Il n’en fallait pas plus pour que certains tabloïds britanniques s’extasient : «Des scientifiques prétendent avoir trouvé le “Saint Graal” de la science avec une feuille artificielle qui pourrait transformer chaque maison britannique en sa propre centrale».

Cette invention est sur le point d’être commercialisée par le géant indien Tata Group qui a deja passé un accord avec le chercheur du MIT pour construire une centrale électrique de la taille d’un réfrigérateur au cours des prochains 18 mois. Pour le moment, Nocera vise principalement les pays en développement.

Daily Mail

Free Energy Times

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Analyse des émissions de CO2 quotidiennes des Français
Jeudi, 07/04/2011 - 08:57

Mis en place par le cabinet de conseil en développement durable Green Inside et Ipsos, l’Observatoire du Bilan Carbone des Ménages a analysé, du 26 mai au 3 juin 2010, l’impact carbone du quotidien de plus de 2000 Français. Publiées courant mars 2011, les conclusions de cette étude ont ciblé les trois grands postes d’émissions sur lesquels il est possible de recueillir des données fiables, à savoir les transports, le logement et l’alimentation.

L’impact désormais important des voyages en avion sur le bilan carbone des foyers

Le bilan carbone global moyen des ménages mesuré par l’Observatoire se situe aujourd’hui à environ 7 388Kg Co2 par individu. Le poste transport constitue à lui seul plus de la moitié des émissions des foyers (54 %, soit 3 972 Kg Co2 par individu), loin devant le logement (30 %) et l’alimentation (16 %). L’usage des véhicules personnels est à l’origine de la très grande majorité des émissions de C02 au sein du poste transports (79 %). Les transports en commun ne comptent que pour 1 % d’entre elles. La grande surprise réside dans l’importance des émissions liées à l’avion : elles pèsent aujourd’hui 19 % des émissions totales du poste transport. Elles sont cependant très inégalement réparties au sein de la population.

Les 18-24 ans et les plus de 65 ans ont les bilans carbones les plus élevés

Le niveau d’émission des plus jeunes est de 8373 Kg Co2. Le niveau d’émission atteint son plus bas niveau sur la tranche d’âge 35-44 ans (6028 Kg Co2). Entre la tranche d’âge des 45-54 ans et celle des 55-65 ans, le niveau d’émission augmente en moyenne de 2171 Kg Co2. Auprès des 65 ans et plus, il augmente encore pour atteindre 9092 Kg Co2. L’usage du véhicule individuel chez les plus jeunes et la dimension des logements et des transports loisirs (avion) chez les plus âgés en sont les premières causes.

Une personne vivant seule émet trois fois plus de Co2 qu’une famille nombreuse

Les foyers d’une personne affichent aujourd’hui un bilan carbone très élevé de 10 685 Kg Co2 par individu (contre 7388 Kg Co2 pour l’ensemble de la population) alors qu’il est bien plus bas pour les foyers de 3 et 4 personnes (respectivement 5436 et 4612 Kg Co2 par individu), voire de 5 personnes et plus (3221 Kg Co2). Le fameux troisième enfant n’entraîne ainsi pas une hausse sensible des émissions des ménages.. A l’inverse, les personnes seules représentent 55 % des mauvais bilans carbone (11849 Kg Co2 et plus).

Le type d’agglomération où le bilan carbone est le moins fort : entre 100 000 et 200 000 habitants

Plus la taille de l’agglomération est faible, plus le niveau des émissions de Co2 tend à augmenter : L’impact des usages liés à l’automobile y est légèrement plus important (84 % pour les individus habitant dans les agglomérations de moins de 20 000 habitants contre 82 % pour celles de 20 000 à 99 999, 81 % pour celles de 100 000 à 199 999 habitants et seulement 72 % pour les plus grosses, celles de 200 000 habitants et plus). Le bilan carbone des foyers habitant dans les plus petites catégories d’agglomérations (moins de 20 000 habitants) est le plus élevé : 4352 Kg Co2 contre 3495 Kg Co2 pour celles comprises entre 100 000 et 199 999 habitants. Malgré un impact moindre des usages liés à l’automobile, les plus grosses catégories d’agglomérations affichent aujourd’hui un bilan carbone très légèrement supérieur à celui des agglomérations comprises entre 100 000 et 200 000 habitants, principalement dû à l’usage accru de l’avion dans les plus grosses agglomérations.

Les foyers disposant des niveaux de revenus les plus élevés affichent en moyenne les bilans carbones les plus mauvais

La quantité de CO2 est clairement croissante avec le niveau de vie et plus spécifiquement avec la capacité à consommer des loisirs. Le bilan carbone par individu est notablement plus élevé au sein des foyers des cadres supérieurs (8580 Kg Co2 par individu contre 7388 Kg Co2 pour l’ensemble). Ils affichent notamment une nette différence dans le domaine des transports avec des niveaux d’émissions sensiblement plus élevés (5249 Kg Co2 par individu contre 3972 Kg Co2 pour l’ensemble). Les cadres supérieurs et les retraités alourdissent leur bilan carbone par l’usage fréquent de l’avion pour leurs loisirs : 59 % des cadres supérieurs et 40 % des retraités font au moins 1 voyage en avion au cours de l’année. L’avion pèse ainsi 38 % des émissions transport des cadres supérieurs et 31 % de celui des 65 ans et plus.

Précarité énergétique : les retraités et les cadres supérieurs à l’abri, les ouvriers et les ménages modestes surexposés

Les  ménages les plus modestes (moins de 1250 euros nets mensuels) ont les bilans carbones les plus faibles par rapport aux autres catégories de revenu. Les ouvriers sont aussi les plus exposés à la hausse du prix de l’énergie : leur indice de précarité énergétique s’élève à 1089 KgCo2/K€ (ouvriers) contre 704 KgCo2/K€ pour les cadres supérieurs et 663 KgCo2/K€ pour les retraités. On peut lire ici une source d’inégalité carbone majeure : les populations ayant les bilans carbone les plus élevés sont aussi les moins sensibles à l’augmentation du coût de l’énergie.

La sensibilité environnementale individuelle a aujourd’hui encore un impact modéré sur le bilan carbone des foyers

Sur les 16 affirmations qui leur étaient proposées afin de mesurer leur sensibilité aux problématiques environnementales (portant sur l’état de la planète, le réchauffement climatique, l’impact environnemental des produits de consommation, le tri,..), 13 d’entre elles recueillent un assentiment majoritaire. Le lien entre sensibilité environnementale et niveau d’émissions de CO2 est avéré mais reste aujourd’hui encore très modéré. Il y a très peu de différences entre les niveaux d’émissions des personnes ayant une sensibilité « médiocre » et celles ayant une sensibilité « moyenne » (respectivement 7555 et 7479, soit seulement 76 KgCo2 de différences). Les personnes affichant un « bon » niveau de sensibilité environnementale ont certes un meilleur bilan carbone que celles ayant une sensibilité « moyenne » mais là encore, la différence est peu importante (7066 Kg Co2 par individu).

Les actions dans lesquelles les ménages sont les plus prêts à s’investir pour diminuer leur niveau d’émissions de Co2 : d’abord le poste logement

D’abord des gestes et des investissements au sein du poste logement (équipements et énergie). Ils citent en priorité ceux permettant de réduire l’impact environnemental des équipements comme par exemple éteindre les appareils plutôt que de les laisser en veille (39 % pourraient s’engager à le faire systématiquement ou presque) ou encore acheter des produits en fonction de leur étiquette énergie (38 %). Le potentiel des gestes permettant de diminuer la consommation d’énergie et d’eau est aussi relativement important. Ils sont plutôt bien connus des personnes interrogées. Ils citent en priorité le fait d’éteindre les lumières dès qu’ils quittent une pièce (39 % pourraient s’engager à le faire systématiquement ou presque – 56 % disent déjà le faire) et l’utilisation des ampoules basse consommation (34 % - 46 % disent déjà le faire) ou de réducteurs de débit pour l’eau ou encore la diminution de la taille de la chasse d’eau (30 %).

Ipsos

Des arbres artificiels pour capter le CO2
Vendredi, 01/04/2011 - 12:24

Un grand nombre de voies technologiques sont explorées pour tenter de capturer le CO2 et diminuer ainsi la concentration de gaz à effet de serre. Parmi celles-ci, l'une des plus prometteuses est celle des arbres synthétiques, conçue par Klaus Lackner, géophysicien et professeur à l’université de Columbia (États-Unis). Encore au stade de prototype, cet épurateur de CO2 devrait filtrer l’air à la manière d’un arbre naturel, mais avec une capacité bien plus importante. « Un épurateur de CO2 de la même taille qu’un moulin à vent peut retirer de l’air beaucoup plus de CO2 qu’un moulin ne peut éviter d’en produire », explique l’inventeur de la méthode.

L’idée lui a été inspirée par sa fille : « C’était en 1998. Claire avait travaillé à un projet qui lui a permis de démontrer qu’on pouvait retirer le dioxyde de carbone de l'atmosphère ». En effet, au cours d’une nuit, elle a réussi à récupérer la moitié du CO2 contenu dans l’air. En prolongeant cette expérience, Klaus Lackner a construit un « aspirateur » qui, placé dans des zones de vent, absorbe l’air chargé en CO2 et le filtre, avant de le relâcher purifié. La soude caustique est la clé du succès de cette méthode car c’est à son contact que le dioxyde de carbone se transforme en solution liquide de bicarbonate de sodium. Ce liquide est ensuite comprimé jusqu’à se transformer en gaz très concentré pouvant être stocké dans la roche poreuse des fonds marins. Sa densité étant plus importante que celle de l’eau, le gaz ne peut pas s’en échapper et y demeure séquestré durant des millions d’années. Selon le professeur Lackner, cette approche technologique devrait permettre progressivement d'extraire une quantité croissante de CO2 de l’air pour un coût décroissant.

Cet arbre artificiel a une capacité de fixation du carbone 1000 fois plus grande que celle d'un arbre naturel : il serait capable de capter 90 000 tonnes de CO2 par an (soit l'équivalent des émissions de CO2 d'environ 20 000 voitures). Pour l'instant, chaque tonne de CO2 fixée par cet arbre artificiel revient à environ 130 euros. Le procédé n'est pas encore compétitif si l'on se réfère au prix moyen de tonne de CO2 sur le marché du carbone (autour de 13 Euros la tonne) mais il pourrait le devenir d'ici une dizaine d'années avec la hausse prévisible du prix de la tonne de CO2. Cette technique, combinée à d’autres technologies semblables, pourrait contribuer à stabiliser puis à faire décroître l’augmentation des taux de CO2 dans l'atmosphère.

Les géo-ingénieurs ne nient pas l'importance des mesures politiques visant à réduire nos émissions de CO2 mais soulignent que ces efforts doivent être complétés par ces nouvelles technologies de capture et de séquestration de CO2, si nous voulons suffisamment réduire nos émissions de CO2 pour atteindre les objectifs internationaux de limitation du réchauffement climatique définis lors des sommet des Copenhague et Cancun. Rappelons que, selon l'AIE, les émissions humaines de GES devraient passer de 50 à 60 Gtonnes d'ici 2030 et les émissions anthropiques de CO2 liées à l'utilisation des énergies fossiles de 30 à 41 Gtonnes d'ici 2030, soit une augmentation de 37 %.

La plupart des spécialistes estiment que l'ensemble des technologies de capture et de séquestration de CO2 pourraient permettre de piéger au moins 10 % des émissions humaines de CO2 d'ici 2030 (soit environ 4 Gtonnes par an, ce qui représente la totalité des émissions actuelles de CO2 de l'Union européenne), ce qui fait de cette voie technologique un levier indispensable qui doit être mobilisé en association avec les cinq autres grands leviers d'action contre le changement climatique : réduction à la source de notre consommation globale d'énergie en modifiant nos modes de vie et notre organisation économique, amélioration de l'efficacité énergétique à tous les niveaux, protection des forêts et réorientation de l'agriculture, redéfinition de l'urbanisme et développement massif et synergique des énergies renouvelables.

Article rédigé par Mark Furness pour RT Flash

Columbia Magazine

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules graisseuses associées aux cancers
Jeudi, 07/04/2011 - 09:31

Le cancer du sein est le plus fréquent chez les femmes : il concerne environ une femme sur 1000 chaque année. Tous les cancers n'évoluent pas de la même façon, selon les caractéristiques propres à la tumeur et les facteurs de risque. On a récemment montré que l'obésité était un facteur négatif, les femmes obèses ayant plus de risques de dissémination des cellules cancéreuses. Quel est le lien entre l'évolution d'un cancer et l'obésité ? Les équipes de Catherine Muller et de Philippe Valet, à l'Université Paul Sabatier de Toulouse, ont montré que les cellules graisseuses, ou adipocytes, présentes autour des tumeurs dans le sein favorisent la dissémination des cellules cancéreuses.

Le cancer du sein est une tumeur maligne de la glande mammaire. Celle-ci comprend 15 à 20 lobes qui sécrètent le lait, séparés par du tissu adipeux. Le cancer naît dans ces lobes entourés de cellules graisseuses. En mettant en culture, au laboratoire, des cellules tumorales avec des adipocytes, les biologistes ont montré que les cellules cancéreuses ont des caractéristiques invasives quand elles ont été en présence des adipocytes. En d'autres termes, elles forment des métastases. En outre, dans ces conditions, les adipocytes présentent des phénotypes (aspects) particuliers et sécrètent notamment des facteurs pro-inflammatoires, telle l'interleukine 6. D'ailleurs, in vitro, cette molécule seule suffit à rendre métastatiques les cellules cancéreuses.

Les biologistes ont vérifié ces résultats chez l'être humain. Ils ont montré que les adipocytes au phénotype particulier (différent de celui des autres cellules graisseuses du sein) se retrouvent aussi chez les femmes autour de la tumeur. Chez les patientes ayant les plus grosses tumeurs et des métastases (avec invasion des ganglions), les quantités d'interleukine 6 exprimées par les adipocytes sont aussi plus importantes.

Ainsi, les adipocytes acquièrent des caractéristiques spécifiques à proximité d'une tumeur mammaire et favorisent sa dissémination. Or la quantité de cellules graisseuses autour des lobes du sein dépend de facteurs génétiques et de la corpulence de la femme… Bien que l'on ignore les déterminants du « dialogue » entre les adipocytes péritumoraux et les cellules cancéreuses, il semble clair que la masse graisseuse amplifie le risque de dissémination des cancers.

Pour la Science

Nouvelle piste de traitement antidiabétique
Jeudi, 07/04/2011 - 07:58

Des chercheurs de l'Institut Max Planck de recherche neurologique de Cologne et du cluster d'excellence CECAD de l'Université de Cologne ont découvert un nouveau mécanisme entraînant l'apparition de diabète de type 2 chez les personnes en surpoids. Celui-ci pourrait être le point de départ du développement d'un nouveau médicament antidiabétique.

L'hormone insuline joue un rôle clé dans la régulation du taux de sucre dans le sang. Si celui-ci est trop élevé, l'insuline entraîne l'ouverture de canaux de transport du glucose dans la membrane des cellules musculaires et adipeuses. Le glucose entre alors dans ces cellules, ceci permettant la diminution du taux de sucre sanguin. L'insuline inhibe de plus la glycogénolyse dans le foie. Chez les diabétiques de type 2, même si l'insuline est produite en grande quantité, les cellules ne répondent pas et l'hormone ne peut donc pas réaliser sa fonction. La maladie peut conduire à des dommages au niveau des vaisseaux sanguins et ainsi à des crises cardiaques ou des accidents vasculaires cérébraux.

Les mécanismes moléculaires impliqués dans la relation entre surpoids et diabète sont très peu connus. 80 à 90 % des patients atteints de diabète de type 2 sont cependant en surpoids. Dans tous les tissus qui réagissent à l'insuline, la présence de micro-acide ribonucléique (miARN) est avérée. L'équipe de chercheurs de Jens Brüning, directeur de l'Institut Max Planck de recherche neurologique et du cluster d'excellence CECAD ("Cellular Stress Responses in Aging-Associated Diseases") a donc soupçonné les micro-ARN d'être impliqués dans ce type de diabète. Ces petites molécules d'ARN, peuvent en effet réguler l'expression des gènes et ainsi contrôler la production de protéine.

Les chercheurs ont ainsi découvert que le foie des souris en surpoids produisait le miARN 143 de façon accrue. Celui-ci inhibe l'expression des gènes responsables de l'activation de l'enzyme AKT, et empêche donc l'insuline d'activer AKT. Ainsi, la protéine ORP8, permettant l'activation d'AKT par l'insuline, est presque inexistante chez les souris en surpoids. Il est alors impossible pour l'insuline de faire diminuer le taux de sucre dans le sang, d'où l'apparition de diabète. "AKT est importante pour le transport du glucose dans les cellules et pour le blocage de la synthèse de sucre dans le foie. Si l'enzyme est inhibée, l'insuline ne peut intervenir. Le taux de sucre dans le sang reste donc élevé.", explique Jens Brüning.

Les chercheurs ne savent pas encore pourquoi les souris en surpoids produisent plus de miARN-143 que les souris témoins. "Si nous parvenons à comprendre la voie de signalisation cellulaire conduisant à la production de miARN-143, nous pourrons peut-être développer un nouveau médicament contre le diabète de type 2.", conclut Jens Brüning.

BE

Déclencher l'apoptose de manière contrôlée : une voie prometteuse contre le cancer
Lundi, 04/04/2011 - 08:14

L’apoptose intervient dans de nombreux processus physiologiques comme le développement embryonnaire, la prolifération / l’homéostasie, la différenciation, la régulation et le fonctionnement du système immunitaire. L’apoptose est l’orchestration précise à laquelle recourt l’organisme pour se débarrasser de cellules inutilisables, indésirables ou potentiellement nocives : «better dead than wrong». Les cellules endommagées ou indésirables sont éliminées par les cellules voisines sans entraîner d’inflammation due à la fuite du contenu cellulaire dans l’environnement cellulaire. Les anomalies dans la régulation de l’apoptose contribuent à divers états pathologiques, parmi lesquels le cancer. Le cancer apparaît lorsque l’équilibre entre la prolifération et la mort cellulaires est perturbé, par une prolifération cellulaire accrue ou par une apoptose moindre ou déficiente. L’objectif d’un traitement anticancéreux est de déclencher l’apoptose dans les cellules tumorales sans affecter les cellules saines.

L’apoptose, ou mort cellulaire programmée, joue un rôle crucial non seulement lors du développement embryonnaire normal et dans l’homéostasie des organismes pluricellulaires, mais également pendant le développement tumoral et dans la réaction des cellules tumorales à un traitement anticancéreux.

L’apoptose est un processus génétique strictement régulé, contrôlé par l’équilibre entre protéines pro- et anti-apoptotiques. Il apparaît également que la résistance à une chimiothérapie standard est un processus lié à l’apoptose du fait de l’échec de l’activation de l’apoptose dans ces cellules tumorales. Voilà pourquoi les voies moléculaires (intrinsèques et extrinsèques) qui régulent l’apoptose sont des objectifs intéressants pour une intervention thérapeutique potentielle. L’objectif d’un traitement pro-apoptotique est de déclencher sélectivement l’apoptose dans les cellules tumorales sans affecter les cellules saines.

Plusieurs agonistes de récepteurs pro-apoptotiques qui activent sélectivement la voie extrinsèque ont déjà été développés. Parmi les nombreuses cibles potentielles pour la voie intrinsèque, citons les protéines de la famille Bcl-2 et les protéines inhibitrices de l’apoptose (IAP). Plusieurs études ont démontré qu’une monothérapie sera probablement insuffisante pour sensibiliser les cellules tumorales à l’apoptose ou pour déclencher l’apoptose.

La meilleure compréhension des voies apoptotiques a permis de découvrir de nouvelles thérapies anticancéreuses fondées sur l’apoptose, dont l’unique objectif est la destruction des cellules tumorales nocives sans affecter les cellules saines. L’apoptose est contrôlée à différents niveaux moléculaires, chacun de ces niveaux étant influencé par différentes protéines pro- et anti-apoptotiques. Etant donné que l’apoptose peut être déclenchée dans les cellules tumorales et les cellules normales, un déclenchement sélectif de l’apoptose peut s’avérer complexe.

Par ailleurs, une tumeur est constituée d’un mélange de cellules hétérogènes, qui ont probablement acquis divers mécanismes de résistance à l’apoptose au cours du développement de la tumeur. La surexpression de plusieurs membres des IAP a déjà été observée. Une monothérapie sera vraisemblablement insuffisante pour sensibiliser les cellules tumorales ou pour déclencher l’apoptose, mais des combinaisons de différentes stratégies thérapeutiques seront probablement plus efficaces. On a déjà observé que des agonistes de récepteurs pro-apototiques comme le TRAIL ont un effet synergique en combinaison avec d’autres thérapies conventionnelles.

Ce sont les combinaisons de différentes stratégies thérapeutiques qui conduiront vraisemblablement aux meilleurs résultats. Les nouveaux médicaments déjà en phase d’études cliniques et la progression rapide de la compréhension du processus apoptotique au niveau moléculaire nous donnent des raisons d’être optimistes.

JIM

Une interface cérébrale pour les handicapés
Lundi, 04/04/2011 - 07:58

L’Ecole d’informatique Epitech, en partenariat avec l’Inria, a développé une interface qui permet de commander un ordinateur par la simple pensée. L’interface IOT, développée par l’école d’informatique Epitech en partenariat avec l’Inria, en est un bel exemple. Elle est le résultat d’un projet d’études dénommé " I Only Think " (IOT , je ne fais que penser). Destiné principalement aux personnes à mobilité réduite, elle permet de transformer à l’aide d’un casque spécial les impulsions électriques du cerveau en instructions compréhensibles par un logiciel. Il suffit de regarder un menu pour le voir s’ouvrir ou de se concentrer sur une application pour la lancer.

Pas besoin d’une méthode intrusive pour fonctionner : le casque OpenEEG se pose sur la tête et s’adapte à la tête de la personne pour recueillir à l’aide d’électrodes les impulsions électriques créées par la pensée. Le logiciel traite ensuite les signaux et les traduit en commandes. Basée sur la technologie OpenViBE, cette interface s’inscrit dans le cadre des logiciels libres. Elle est compatible avec les multiplates-formes Windows, Linux et Mac OS.

Industrie&Technologies

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
"Transports 2050": un plan ambitieux pour accroître la mobilité et réduire les émissions liées aux transports
Jeudi, 07/04/2011 - 08:38

La Commission européenne a adopté le 28 mars 2011 une statégie globale («Transports 2050») visant à mettre en place un système de transport compétitif qui favorisera la mobilité, éliminera les principaux obstacles qui subsistent dans des domaines clés et alimentera la croissance et l'emploi. Par ailleurs, ces propositions réduiront considérablement la dépendance de l'Europe à l'égard des importations de pétrole et feront baisser de 60 % ses émissions de carbone liées aux transports d'ici à 2050.

Pour y parvenir, l'Europe devra transformer son système de transport actuel. Les principaux objectifs à atteindre d'ici à 2050 sont les suivants :

- Supprimer les véhicules à carburant traditionnel dans les villes ;

- Porter à 40 % la part des carburants durables à faible teneur en carbone dans l'aviation et réduire d'au moins 40 % les émissions dues au transport maritime ;

- Faire en sorte que 50 % du transport routier de passagers et de fret sur moyenne distance s'effectue par voir férrée et par voie navigable ;

- Obtenir, grâce à ces mesures notamment, une réduction de 60 % des émissions liées aux transports d'ici le milieu du siècle ;

- D'ici à 2050, la majeure partie du transport de passagers sur moyenne distance (plus de 300 km) devrait s'effectuer par le train ;

- Une partie du transport routier de fret sur plus de 300 km devrait se reporter sur d'autres modes de transport (tels que le train ou le bateau), à hauteur de 30 % d'ici à 2030 et au-delà de 50 % d'ici à 2050 ;

- L'UE prévoit de se doter d'ici à 2030 d'un réseau de base parfaitement fonctionnel et d'envergure européenne qui permette de passer de façon optimale d'un mode de transport à l'autre («réseau de base RTE-T»), afin d'obtenir d'ici à 2050 un réseau de haute qualité et de grande capacité et d'assurer la prestation des services d'information qui s'y rattachent ;

- L'UE prévoit aussi de mettre en place d'ici à 2020 le cadre nécessaire à un système européen d'information, de gestion et de paiement pour le transport multimodal, tant pour les passagers que pour le fret ;

- Il s'agit enfin de progresser vers la pleine application des principes de «l'utilisateur payeur» et du «pollueur payeur» et d'impliquer le secteur privé, afin d'éliminer les distorsions, de générer des recettes et d'assurer le financement de futurs investissements dans les transports ;

- Il est prévu de réduire de moitié le nombre de véhicules de transport urbain fonctionnant aux carburants classiques d'ici à 2030, et de les faire progressivement disparaître des villes d'ici à 2050 ; l'essentiel du transport urbain de marcahndises dans les grands centres urbains devrait se faire sans émission de CO2 d'ici à 2030.

l'UE souhaite également se rapprocher de l'objectif «zéro décès» dans les transports routiers d'ici à 2050 ; dans cette perspective, elle s'est donné pour but de réduire de moitié le nombre d'accidents mortels sur les routes d'ici à 2020 ; plus généralement, elle s'attachera à montrer la voie au niveau mondial en matière de sûreté et de sécurité des transports, aussi bien aériens et ferroviaires que maritimes.

European Commission

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top