RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 469
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Mars 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les Etats-Unis ont testé une cyberattaque grandeur nature
La RFID prend le bus avec les élèves
Le papier électronique de Nemoptic présenté au Salon du Livre de Paris
Avenir
Les robots sont plus intelligents ensemble
Matière
Un nouvel alliage pour stocker l'hydrogène
Espace
Une molécule organique détectée sur une planète extra-solaire
Terre
Climat : les États-Unis acceptent le principe d'un accord contraignant sur le climat
Les glaciers fondent plus vite que prévu
Le Gulf Stream influence jusqu'aux couches les plus hautes de l'atmosphère
Vivant
Cancer du sein : l'aspirine peut réduire le risque
La nanomedecine contre le cancer
Nouvel espoir contre le mélanome malin
Découverte d'un gène décisif du cancer du sein
Essai prometteur d'un vaccin contre l'hypertension
Une bactérie mangeuse de cholestérol identifiée chez l'homme
Découverte d'un gène qui détermine la forme des fruits et légumes
Les Français ne dorment pas assez
Edito
L'énergie des mers : l'or bleu du XXIème siècle



Si les vagues de la façade atlantique de la France pouvaient être entièrement converties en électricité, elles fourniraient 420 térawattheures par an, soit 90 % de notre consommation électrique annuelle. Actuellement, avec l'envolée irréversible du prix des énergies fossiles, une quarantaine d'organismes et laboratoires de recherche dans le monde travaillent au développement de technologies permettant de récupérer l'énergie des vagues.

Une quinzaine d'entre eux auront dès cette année des prototypes ou des machines définitives en fonctionnement dans des zones d'essai éparpillées de Portland, en Oregon, sur la côte ouest des Etats-Unis, à la Namibie, en passant par les îles Orcades, en Ecosse, les Cornouailles, en Angleterre, ou Porto, au Portugal.

L'idée d'exploiter l'énergie des mers n'est pas nouvelle : l'usine marémotrice de la Rance, près de Saint-Malo, en Bretagne, par exemple, fut inaugurée dès 1966 par le général de Gaulle.

Aujourd'hui, les contraintes environnementales ne permettraient plus de construire une telle installation et les chercheurs s'orientent donc vers de petites unités de production pouvant être installées à quelques kilomètres des côtes. De nombreuses options technologiques sont à l'étude mais les machines houlomotrices (transformant la houle en électricité) semblent les plus prometteuses.

Jason Bak, président de Finavera Renewables, à Vancouver, au Canada, souligne le faible impact de ces systèmes sur l'environnement et précise que les bouées devraient produire de l'électricité au large de la Californie à partir de 2012. « En termes de ressources disponibles, les vagues représentent le plus gros potentiel de production », explique Hakim Mouslim, ingénieur de recherche au Laboratoire de mécanique des fluides, rattaché à l'Ecole centrale de Nantes et au CNRS ; il appartient à l'équipe qui élabore le Searev (système électrique autonome de récupération des vagues).

Il s'agit d'un système dit « flottant », l'un des quatre types de machines existants. Un cylindre semi-immergé de 1.000 tonnes contient un énorme pendule dont les oscillations alimenteront, via des moteurs hydrauliques, des générateurs. Il sera testé en 2009 ou 2010, sans doute au large du banc de Guérande, en face du Croisic.

Depuis le début des années 2000, les hausses successives du coût des énergies fossiles et les inquiétudes pour l'environnement ont donné un coup d'accélérateur aux travaux sur la houle.

Surtout, les nouvelles technologies - informatiques ou autres - ont permis de mettre au point des machines beaucoup plus performantes et résistantes. « Grâce aux logiciels de simulation, l'université de Munich, en Allemagne, a pu mettre au point pour nous des turbines beaucoup plus efficaces, capables de travailler avec moins de 5 mètres d'eau dans le réservoir », s'enthousiasme Hans Christian Soerensen, président de Wave Dragon, une société danoise dont le premier prototype à l'échelle 1 de machine à déferlement devrait être mis à l'eau l'année prochaine dans le comté de Pembroke, au sud-ouest du pays de Galles, sur les rives de la mer d'Irlande.

« Pour notre part, nous nous inspirons des dernières techniques mises au point par l'industrie pétrolière, les chantiers navals et la pêche », détaille Ted K. A. Brekken, professeur en systèmes d'énergie à l'université de l'Oregon, aux Etats-Unis, qui a testé à l'automne dernier une bouée avec un générateur linéaire. « Tous les éléments de notre bouée en contact avec la mer sont en fibres de verre. Et la connectivité provient de l'exploitation offshore. » Malgré toutes ces avancées, la production d'électricité en grande quantité à partir des vagues n'est pas pour demain. « Nous avons plus de vingt ans de retard sur l'énergie éolienne », avoue Ted K. A. Brekken.

Aujourd'hui, le prix de revient de l'électricité produite par une turbine éolienne de 1 mégawatt peut tomber à 4,1 centimes d'euro le kilowattheure. L'énergie houlomotrice en est très loin... Par exemple, l'objectif du Searev est d'arriver à un coût de production inférieur à 15 centimes d'euro le kilowattheure, tarif auquel EDF rachètera vraisemblablement l'électricité produite en mer.

Pour devenir rentable, la filière vagues devra faire le ménage. Trop de concepts se partagent en effet les financements publics, alors que l'industrie éolienne a depuis longtemps concentré son choix sur les turbines à trois pâles. Autre souci : le raccordement électrique aux installations à terre. « Nous devons utiliser des câbles enfouis à plus de 1,20 mètre, explique Hakim Mouslim. Soit plus de 200.000 euros le kilomètre de câble ensouillé ! »

Actuellement, l'exploitation de l'énergie cinétique des mers utilise deux grands types de technologie : des turbines immergées, ou "hydroliennes", qui utilisent l'énergie des courants marins et des convertisseurs d'énergie, qui sont des machines flottantes utilisant l'énergie de la houle.

la France dispose ainsi, au large des côtes bretonnes et normandes, d'un potentiel important grâce aux courants marins. Par ailleurs, à dimension égale, une hydrolienne produit plus d'énergie qu'une éolienne puisque la densité de l'eau est 800 fois plus élevée que celle du vent.

La société Hydrohelix Energies, leader français de la construction d'hydroliennes, assure qu'il est possible de produire, à l'aide de parcs hydroliens au large de la Bretagne et du Cotentin, 25.000 gigawattheures par an (GWh), soit 5 % de la production électrique française.

Les coûts de production sont estimés par la société à environ 3,5 centimes d'euro le watt installé, avec un retour sur investissement au bout de sept ans compte tenu d'un coût d'installation de 1 à 1,3 euros le watt.

L'autre voie, plus avancée, est celle du convertisseur d'énergie des vagues, de type Searev. Cette voie est dominée par des machines baptisées "Pelamis", développées par la société écossaise Ocean Power Delivery.

Un convertisseur Pelamis génère 750 kW, ce qui représente la consommation de 500 foyers et un parc machine d'une surface de 1 km2 devrait délivrer assez d'énergie pour 20.000 foyers.

Le Portugal vient de commencer la première exploitation commerciale de ces “turbines à vagues” au large des côtes d'Agucadoura, dans le Nord du pays. Le projet portugais fournira à ses débuts 2,25 mégawatts (MW) d'énergie propre, de quoi fournir l'équivalent énergétique de 1 500 foyers. A terme, le projet sera capable de générer l'énergie de 15 000 maisons, économisant ainsi l'émission de 60 000 tonnes de CO2 par an. en théorie, 125 km2 de surface maritime recouverts de machines Pelamis pourraient produire assez d'énergie pour alimenter 2,5 millions de foyers, 10 % des foyers français.

Il reste que l'utilisation industrielle de l'énergie des mers doit surmonter encore de nombreux défis, parmi lesquels la longévité des équipements dans un milieu hostile, la maîtrise des coûts d'entretien et, bien entendu, l'impact réel sur la navigation. Mais la France, riche de ses trois grandes façades maritimes, se doit d'être à la pointe de la recherche dans ce domaine d'avenir qui commence à sortir des laboratoires et pourrait bien, à l'horizon 2030, prendre une place significative dans notre bouquet énergétique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les Etats-Unis ont testé une cyberattaque grandeur nature
Vendredi, 28/03/2008 - 00:00

Des dizaines d'experts en sécurité des systèmes informatiques, une quarantaine d'entreprises privées et de nombreuses agences gouvernementales, voici le gros des troupes qui se sont retrouvées mobilisées pour « Cyber Storm II », la dernière simulation de cyberattaque organisée par le gouvernement américain.

Pour cet exercice, les participants sont restés cloîtrés pendant cinq jours dans une pièce remplie d'ordinateurs et située au siège des services secrets à Washington, rapporte l'AFP. Les autorités ont dû faire face à quelque 1800 attaques simulées, allant de l'incursion de hackers à une attaque informatique de très grande ampleur. L'information a été rendue publique jeudi 13 mars, après la fin des hostilités, mais il faut dire que le sujet est sensible.

- Garder un oeil sur la Chine et la Russie

Selon les derniers chiffres du ministère de la Sécurité intérieure, cités par USA Today, le nombre d'incidents impliquant des systèmes de sécurité informatique officiels aux Etats-Unis a augmenté de 152 % l'an passé, pour atteindre 13 000. Un chiffre inquiétant même si cette hausse est aussi liée à une meilleure remontée d'informations auprès des autorités concernées. De son côté, le président George Bush vient de se prononcer en faveur d'une augmentation de 10 % du budget consacré à la cybersécurité.

Pour contrer les futures attaques, les autorités américaines ont opté pour des principes de défense élémentaires : une réduction des connexions externes à Internet, la détection des intrusions - en interne et en externe - sur les systèmes informatiques fédéraux et une résorption plus rapide des failles de sécurité mises en évidence. Selon le Government Accountability Office (chargé d'auditer les politiques du gouvernement), 20 des 24 agences fédérales américaines serait aujourd'hui vulnérables aux cyberattaques. Et celles-ci viennent désormais d'horizons très variés, qui vont du simple hacker au crime organisé, voire à la tentative d'intrusion dirigée par des gouvernements étrangers.

OINet

La RFID prend le bus avec les élèves
Vendredi, 28/03/2008 - 00:00

Le fournisseur de solutions d'inspections Zonar Systems permet désormais de connaître le moment précis où un élève entre et sort du bus scolaire. Ce, via le système de radio-identification ZPass?. Celui-ci comprend dans un premier temps une carte RFID que le jeune voyageur doit porter sur lui, dans son cartable ou sa trousse. Lorsque l'enfant pénètre ou descend du car, un lecteur dédié enregistre son passage. L'heure, la date et le lieu sont alors envoyés vers une base de données centralisée, à laquelle chaque rectorat peut accéder depuis n'importe quel navigateur web utilisant l'application de gestion des données Zonar Ground Traffic Control?.

En cas de problèmes, les responsables scolaires peuvent alors avertir directement les parents. Le but étant évidemment d'assurer aux parents que leur enfant ne court pas de risque sur le chemin qui le sépare de son domicile. "Nous avons réalisé une première phase de test qui s'est révélée un succès", souligne John Harris, responsable des services de transport pour le rectorat de la ville de Quincy (Etat de Washington). Et d'ajouter : "Ce dispositif est une véritable assurance pour les parents, qui l'apprécient beaucoup". A noter : les enfants ne sont pas les seuls à être pistés. Le ZPass, combiné à une autre technologie estampillée Zonar et qui permet de capturer des données en quatre dimensions (latitude, longitude, heure et vitesse), donne également la possibilité de suivre l'itinéraire complet des bus scolaires.

Le système soulève cependant quelques interrogations au niveau du respect de la vie privée. Des soupçons que Bill Brinton, responsable du marketing pour Zonar, s'empresse de dissiper : "la localisation de l'élève n'est effective que lorsque celui-ci entre dans le bus. Quant aux données personnelles inscrites dans la carte, elles sont verrouillées et contrôlées par les districts scolaires". La localisation par RFID des biens et des personnes est de plus en plus sollicitée. La ville italienne de Laveno a ainsi déployé un réseau de transpondeurs RFID capables de transmettre des informations de navigation aux personnes malvoyantes qui disposent d'un récepteur dédié.

Atelier

Le papier électronique de Nemoptic présenté au Salon du Livre de Paris
Vendredi, 28/03/2008 - 00:00

L'écran A4 BiNem noir et blanc conçu par Nemoptic, une entreprise spécialisée dans le papier électronique (e-paper) pour applications portables grand public et professionnelles, présente la particularité de pouvoir conserver une image sans consommer aucune énergie, en dehors des mises à jour effectuées en moins d'une seconde, et offre un confort de lecture exceptionnel, comparable à la lecture sur papier. Avec 200 dpi, cet écran, dont l'épaisseur est inférieure à 2 mm et la luminosité dépasse les 30 %, possède à ce jour la meilleure résolution du marché des écrans e-paper passifs de ce format (1650 x 2340 pixels). Il vient d'être présenté dans la cadre de l'atelier "Lectures de demain" lors du Salon du Livre de Paris qui s'est déroulé du 14 au 19 mars. Cet atelier s'articulait autour d'un parcours initiatique constitué de quatre pôles : E-book et encre électronique, supports nomades, savoir, numérisation.

"Cette présentation des nouvelles technologies de papier électronique au Salon du Livre montre bien le poids croissant des nouvelles formes de lecture dans le domaine de l'écrit", explique Jacques Noels, le PDG de cette entreprise qui fêtera ses dix ans l'année prochaine. Rappelons que Nemoptic, basée à Paris, a déjà levé plus de 35 millions d'euros. Aujourd'hui, elle dispose d'une unité de production pilote en Suède et produit en grande série dans l'usine de Seiko Instruments Inc, au Japon. Précisons que la technologie de rupture BiNem (Bistable Nematic) qu'elle a développé peut être appliquée non seulement aux étiquettes électroniques, aux solutions points de vente et à la domotique mais aussi à de nombreux produits portables comme les livres et les journaux électroniques, les PC ultra-portables et les téléphones mobiles.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots sont plus intelligents ensemble
Vendredi, 28/03/2008 - 00:00

La collaboration est aussi une histoire de robot. Individuellement, chacun de ces dispositifs mécaniques - surtout s'il est de très petite taille - dispose de capacités mais également d'une faculté à agir de manière autonome faibles. Réunis en essaim, les robots pourraient former un organisme capable de gérer lui-même ses besoins matériels et logiciels et de prendre des décisions. Voilà la thèse des responsables du projet d'envergure européenne Symbrion (Symbiotic Robot Organisms' Project), qui étudient les principes permettant à ce type d'organismes artificiels de se former. La technique, loin d'être anodine, permettrait de créer des systèmes robotiques autonomes et évolutifs. Des entités qui, capables de se reprogrammer sans une intervention humaine, pourraient développer de nouvelles aptitudes en fonction de la tâche à accomplir.

Le projet semble être du domaine de la science-fiction. D'ailleurs, ses fondateurs avouent eux-mêmes n'en être encore qu'au stade de la théorie. Le premier but poursuivi étant de permettre aux systèmes créés d'interagir, même sommairement, avec le monde physique. Une fois cette étape passée, les applications sont nombreuses. Parmi elles, la possibilité de profiter de l'autonomie des robots pour les envoyer en mission de secours dans des endroits inaccessibles à l'homme : zones saccagées par un tremblement de terre ou par une attaque chimique. "Les robots seraient alors capables de former des équipes pour soulever des obstacles ou chercher des survivants", explique Jon Timmis, co-responsable du projet à l'université de York. Il estime que cette première phase de travaux, prévue pour courir jusqu'en janvier 2013, donnera la possibilité à son équipe "de commencer à construire les robots du futur".

Pour y parvenir, les responsables du projet développent des algorithmes et logiciels permettant de reproduire un dispositif biologique : celui de la création d'un organisme multicellulaire. Ils travaillent également sur des moyens de rendre les micro-robots qu'ils ont développés dans le cadre d'un précédent projet, et dont la taille ne dépasse pas celle d'un morceau de sucre, capables de se créer un véritable système immunitaire. Ce, afin de leur permettre de s'auto-protéger et de s'auto-réguler. L'organisme robotique pourra en effet détecter la présence de tout problème interne et envoyer vers un système de contrôle central un rapport comprenant la nature du problème et les moyens de le résoudre. D'autres expériences étudient également la mise en place d'entités artificielles intelligentes et autonomes. L'institut Polytechnique du Rensselaer travaille ainsi sur des avatars capables d'anticiper et de prédire le comportement des humains avec lesquels il sera en contact.

Atelier

^ Haut
Matière
Matière et Energie
Un nouvel alliage pour stocker l'hydrogène
Vendredi, 28/03/2008 - 00:00

Biocoke Lab. a développé en collaboration avec le professeur Tomohiro AKIYAMA de l'université de Hokkaido une méthode de production à l'échelle industrielle de MgH2, alliage de stockage de l'hydrogène. Un gramme de cet alliage peut libérer 1,9 litres d'hydrogène, ce qui est presque dix fois supérieur aux autres alliages. Les hydrures métalliques présentent un grand intérêt dans le stockage et le transport de l'hydrogène car ils sont plus stables et plus légers que les formes de stockage pressurisé actuellement utilisées.

Le processus de production de MgH2 consiste à réduire le magnésium en poudre puis d'appliquer un traitement thermique (400-500°C) en présence de H2. Le magnésium étant le 8e élément le plus abondant sur Terre, son coût est peu élevé, ce qui permet d'obtenir un dérivé de faible coût également. Une production de 5 kg en 2 jours a été réalisée dans un dispositif expérimental de Biocoke Lab.. Selon les estimations du groupe, une production à l'échelle de la dizaine de kg permettrait d'avoir du MgH2 à 30 yens le gramme (0,18 euros/g) et une production à l'échelle de la tonne donnerait un prix au gramme de 10 yens (0,06 euros/g).

Le MgH2 possède en effet un fort pourcentage massique de H2 (7,6%). Etant très stable, la libération de H2 nécessite beaucoup d'énergie : la réaction se fait en général à plus de 290°C. Pour pallier à cet inconvénient, Biocoke Lab. emploie la réaction d'hydrolyse du MgH2 qui nécessite moins d'énergie : MgH2 + 2 H2O --> Mg(OH)2 + 2 H2. D'après l'équation, on obtient 2 moles de H2 pour 1 mole de MgH2, ce qui donne un % massique final de 15,2 % expliquant le fort volume de H2 libéré (1,9 L H2 / g MgH2). Cette réaction peut avoir lieu à une température relativement basse (75°C) et cette valeur peut encore être baissée par ajout d'un catalyseur spécifique. Le co-produit de la réaction, l'hydroxyde de magnésium Mg(OH)2 est un élément non toxique pouvant être réutilisé dans d'autres industries.

L'entreprise a développé en collaboration avec FC-R&D un système de pile à combustible (PAC) pouvant utiliser directement le MgH2, d'une puissance de 100 W et pouvant fonctionner 8h avec 20 g de MgH2. Un modèle de ce dispositif a été présenté à FC-Expo (Fuel Cell Expo 2008, Tokyo) et a attiré l'attention de nombreux visiteurs. Le groupe pense tout d'abord proposer cette PAC comme générateur électrique de secours transportable en cas d'urgence avec une recharge de 10 kg de MgH2. L'équipe travaille également avec l'université Waseda à l'adaptabilité du système pour l'alimentation de fauteuils roulants ou de petits véhicules électriques. Enfin, dans une voiture à PAC, une recharge de 25 kg suffirait à produire suffisamment de H2 pour rouler 400 km.

BE

^ Haut
Espace
Espace et Cosmologie
Une molécule organique détectée sur une planète extra-solaire
Vendredi, 28/03/2008 - 00:00

Une molécule organique a été découverte pour la première fois dans l'atmosphère d'une planète située en dehors de notre système solaire, ont annoncé des chercheurs. Grâce au télescope spatial Hubble, des astronomes ont distingué du méthane dans l'atmosphère de la planète HD189733b, qui est approximativement de la taille de Jupiter et se situe à 63 années lumière de la Terre, peut-on lire dans un article publié dans la revue Nature. Les molécules organiques, comme le méthane, contiennent des liaisons carbone-hydrogène et sont très fréquentes chez les êtres vivants, mais ne leurs sont pas propres. Selon les auteurs de l'étude, la planète qu'ils ont observée est pourvue de températures atmosphériques avoisinant les 1.000°C et est par conséquent peu propice à la vie.

"Le méthane ne peut pas être produit de façon biologique sur la planète que nous avons observée", a assuré Giovanna Tinetti, de l'University College de Londres, contactée par courriel. "L'idée est de répéter à l'avenir ce type d'observations vers des planètes moins hostiles au développement et à l'évolution de la vie", a-t-elle ajouté.

Le méthane a été détecté sur plusieurs planètes de notre système solaire. "Dans des conditions favorables, le méthane peut contribuer à la formation d'acides aminés", éléments essentiels de la vie, a indiqué un autre membre de l'équipe de recherche, Mark Swain, de la Nasa. L'observation a été effectuée lors d'un transit : le passage de la planète étudiée entre son étoile et le télescope. Les scientifiques ont alors recours à la spectroscopie, qui fragmente la lumière en ses différentes composantes de couleur.

"On peut penser à un prisme, qui produit un spectre d'arc-en-ciel quand on fait passer de la lumière au travers. C'est ce que nous faisons quand une planète passe devant son étoile. Ce que nous voyons alors, c'est la lumière de l'étoile filtrée par l'atmosphère de la planète. Les molécules qui se trouvent dans l'atmosphère laissent une trace spécifique dans le spectre", a expliqué Swain, contacté par téléphone.

HD189733b fait partie des plus de 270 planètes extra-solaires découvertes à ce jour et de la catégorie des géantes gazeuses, comme Jupiter ou Saturne dans notre système solaire.

Yahoo

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : les États-Unis acceptent le principe d'un accord contraignant sur le climat
Vendredi, 28/03/2008 - 00:00

«Les États-Unis sont prêts à intégrer un accord international contraignant de réduction des émissions de gaz à effet de serre dans lequel toutes les grandes économies prendraient des engagements similaires», a déclaré le 25 février Daniel Price, conseiller du président George W. Bush pour les affaires économiques internationales.

Ce dernier a même laissé entendre qu'un tel accord sur un objectif de réduction à long terme pourrait aboutir «en marge» du G8, qui aura lieu début juillet à Hokkaïdo, au Japon. «C'est très frustrant d'entendre en permanence que les États-Unis préfèrent des engagements volontaires. Je veux le dire clairement : ce n'est tout simplement pas vrai» , a poursuivi Daniel Price.

Il s'agit d'une véritable inflexion dans la position américaine, les États-Unis s'étant toujours refusés à signer un engagement contraignant. Il reste que Washington n'affiche toujours aucun objectif chiffré. Et pose toujours la même condition : «L'engagement des seuls pays industrialisés est insuffisant. Pour être économiquement soutenable, un tel accord doit être soutenu par tout le monde» , en faisant allusion aux pays émergents. Et James Connaughton, conseiller environnement de George W. Bush, de rappeler le rôle de la Chine dans la pollution.

Aussi la Maison-Blanche privilégie-t-elle deux axes : la recherche sur les technologies propres et les accords sectoriels de réduction d'émission. Et de citer en exemple l'accord conclu en septembre entre les États-Unis, la Chine et l'Inde pour réduire les fluides frigorigènes (HCFC). Ou encore la proposition conjointe de l'Europe et des États-Unis pour réduire les tarifs douaniers sur 43 technologies propres.

Ce changement de position des Etats-Unis a été révélé à l'occasion d'une réunion du Major Economic Meetings ( MEM), lancé au sommet du G8 de Heiligendamm en juin dernier par George W. Bush. Ce processus, qui s'inscrit en complément des négociations de l'ONU, vise à faciliter un accord mondial sur la lutte contre le changement climatique, en réunissant autour d'une même table les seize plus grands pollueurs de la planète (G8 plus Chine, Inde, Brésil...), qui représentent 80 % des émissions mondiales de gaz à effet de serre.

Daniel Price a par ailleurs souligné que les Etats-Unis allaient accentuer leurs efforts contre le réchauffement climatique en réduisant globalement de 15 % la consommation américaine d'énergie fossile et en multipliant par 5 la production d'énergies renouvelables d'ici 2022.

Physorg

Les glaciers fondent plus vite que prévu
Vendredi, 28/03/2008 - 00:00

Un vaste glacier qui sert de repère pour évaluer l'impact du réchauffement de la planète sur l'Antarctique a fondu plus rapidement que d'habitude durant l'année passée, selon un glaciologue argentin.

Selon des données publiées par les Nations unies, l'ensemble de l'Antarctique contient suffisamment de glace et de neige pour, si elles fondaient, élever le niveau des océans de 57 mètres en quelques milliers d'années.

Selon Skvarca, qui dirige le département de Glaciologie à l'Institut antarctique argentin, le glacier de la Baie du Diable s'est aminci en moyenne d'un mètre par an depuis le début de ses recherches. Le phénomène a toutefois été particulièrement marqué au cours de l'année écoulée.

"Nous avons observé une énorme ablation (durant l'année écoulée), ce qui est vraiment inhabituel", a noté Skvarca lors d'une interview à Reuters à la base de Marambio, principal lieu d'étude argentin sur le continent.

L'ablation désigne la fonte et la chute de glace au pied d'un glacier. "(L'an dernier), j'avais placé une boîte contenant un thermomètre tout près d'un repère situé à hauteur du sommet de la glace. Je l'ai retrouvée pendue à un fil à cinquante centimètres au-dessus de la glace", a-t-il rapporté récemment.

Selon Skvarca, le glacier de la Baie du Diable est le seul en Antarctique dont le bilan glaciaire a été régulièrement étudié ces dernières années.

Le bilan glaciaire est la différence entre les gains d'un glacier en neige et en glace durant l'hiver et ses pertes en été.

"Si l'on ajoute les bilans glaciaires de l'ensemble des glaciers du monde, on voit très clairement que nous sommes dans une période de réchauffement atmosphérique et de recul des glaciers", a ajouté Skvarca.

De grandes banquises de la péninsule antarctique, qui prolonge le continent vers la pointe sud de l'Amérique, se sont détachées pour flotter librement dans l'océan.

Les banquises, reposant sur la mer mais reliées au continent, s'étendent sur 40 % de la côte antarctique. Elles sont fondamentales pour la stabilité des glaciers, qu'elles empêchent de glisser dans la mer.

Skvarca s'attache désormais à l'observation attentive des glaciers qui alimentaient autrefois la banquise de Larsen. "Nous observons pour la première fois comment la rupture des banquises affecte les glaciers qui les alimentaient."

Cette fonte accélérée des glaciers se confirme également au niveau mondial, selon les dernières mesures publiées par le Programme des Nations Unies pour l'environnement (PNUE).

"Le taux moyen de fonte a fait plus que doubler entre les années 2004-2005 et 2005-2006", selon des données recueillies sur 30 glaciers de référence dans neuf chaînes de montagnes par le Service mondial de suivi des glaciers (SMSG) dont le siège se trouve à Zurich (Suisse).

Cet organisme, soutenu par le PNUE, surveille des glaciers depuis plus d'un siècle et dispose d'informations précises sur 30 glaciers de référence depuis 1980. Le SMSG a calculé que les glaciers ont perdu en moyenne 11,5 mètres d'épaisseur depuis 1980. Sur les 30 glaciers de référence, seulement 4 % ont vu leur épaisseur augmenter, tous les autres ont fondu.

La fonte la plus élevée a été subie par le glacier norvégien du Breidalblikkbrea, qui a perdu près de 3,1 mètres d'épaisseur durant la seule année 2006, alors que la perte n'avait été que de 30 centimètres l'année précédente.

"Il semble qu'il y a une tendance à l'accélération (de la fonte des glaciers) sans qu'on puisse en voir la fin", a commenté le professeur Wilfried Haeberli, directeur du SMSG.

"Des millions, si ce ne sont pas des milliards de personnes dépendent directement ou indirectement de ces réserves naturelles d'eau pour l'eau potable, l'agriculture, l'industrie et la production d'énergie électrique durant des périodes clés de l'année", a averti Achim Steiner, secrétaire général adjoint de l'ONU et directeur du PNUE.

Reuters

Le Gulf Stream influence jusqu'aux couches les plus hautes de l'atmosphère
Vendredi, 28/03/2008 - 00:00

Le Gulf Stream, courant chaud venu des Caraïbes qui adoucit le climat de l'Europe occidentale, affecte jusqu'aux plus hautes couches de l'atmosphère, a démontré une équipe de chercheurs dont les travaux sont publiés dans la revue britannique Nature.

En combinant des images satellitaires à haute définition et des analyses du Centre européen de prévisions météorologiques à moyen terme (ECMWF), Shoshiro Minobe de l'université d'Hokkaido au Japon et ses collègues ont prouvé que "le Gulf Stream affecte l'ensemble de la troposphère", qui s'étend de 8 à 15 km au-dessus du niveau de la mer.

Ils ont en effet constaté que le courant chaud est bordé par une bande étroite de précipitations au sein de laquelle "les mouvements ascendants et la formation des nuages s'étendent jusque dans la troposphère supérieure".

Le Gulf Stream "a varié en intensité par le passé et devrait s'affaiblir à l'avenir en réponse au réchauffement climatique d'origine humaine", car le courant est lié aux différences de salinité et de température, donc de densité, entre les eaux tropicales et polaires, rappellent les scientifiques.

La circulation océanique dont fait partie le Gulf Stream devrait se ralentir au cours du 21ème siècle, selon le Groupe intergouvernemental sur l'évolution du climat (Giec), qui met en garde contre les conséquences pour l'écosystème marin et la capacité des océans à absorber du CO2.

Les effets d'un affaiblissement du Gulf Stream sur les phénomènes atmosphériques restent encore mal connus, mais il est possible qu'il induise "des anomalies au niveau des précipitations le long du courant chaud ainsi que des changements de circulation atmosphérique", relèvent les chercheurs dans Nature.

AFP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du sein : l'aspirine peut réduire le risque
Vendredi, 28/03/2008 - 00:00

Certains anti-inflammatoires comme l'aspirine peuvent réduire jusqu'à 20 % le risque de cancer du sein, selon une étude britannique. Les anti-inflammatoires non stéroïdiens (AINS) pourraient également jouer un rôle dans le traitement des femmes souffrant d'un cancer du sein, selon cette synthèse de 21 études menées auprès de 37.000 femmes depuis 27 ans.

Les auteurs soulignent toutefois qu'avant de conseiller aux femmes de prendre de l'aspirine régulièrement, d'autres études seront nécessaires pour déterminer si les risques d'effets secondaires ne sont pas plus élevés que les bénéfices attendus en matière de prévention. "Après avoir évalué les résultats de plus de 20 études, nous avons conclu que les AINS pourraient bien apporter une protection importante contre les cancers du sein ainsi qu'un complément au traitement déjà disponible pour les femmes souffrant de cette maladie", relève Ian Fentiman, professeur à l'hôpital Guy's and St-Thomas de Londres.

"Les anti-inflammatoires non stéroïdiens peuvent réduire le risque de cancer de 20 % mais le dosage et la durée ne sont pas fixés, pas plus que la faisabilité d'un tel programme pour la population à risque", prévient toutefois le professeur Fentiman. De plus, cette réduction des risques d'environ 20 % "est peut-être due à la seule aspirine et pas aux autres AINS", ajoute le spécialiste.

IJCP

La nanomedecine contre le cancer
Vendredi, 28/03/2008 - 00:00

Une equipe pluridisciplinaire de chercheurs du MD Anderson Cancer Center et de Rice University à Houston au Texas vient de publier une étude sur un nouveau système d'administration multi-niveaux (Multistage Delivery System, MDS) de nanoparticules qui permettent de renforcer le contraste en imagerie medicale et de servir à des fins thérapeutiques.

L'intérêt pour l'utilisation des nanoparticules en médecine, et notamment pour le traitement du cancer, ne cesse de se développer dans la communauté scientifique. Les premiers travaux étaient relatifs à l'encapsulation de nanoparticules dans des liposomes qui sont ensuite injectés dans le corps par intraveineuse, et cette technique est maintenant largement utilisée dans le monde. L'étape suivante a été le ciblage des liposomes par fonctionnalisation de leur surface pour qu'ils puissent s'accrocher sélectivement aux cellules malades.

Il s'agit d'une étape clé quand on sait que seulement une nanoparticule thérapeutique sur 100.000 atteint sa cible à cause des défenses naturelles qui font obstacle à tout corps étranger injecté dans le corps humain, alors qu'il n'est pas question par ailleurs d'augmenter les doses d'agents thérapeutiques qui peuvent entraîner des effets secondaires néfastes.

L'approche proposée par l'étude développée par l'équipe du Professeur Mauro Ferrari du MD Anderson Cancer Center vise simultanément à contourner les défenses naturelles du corps, cibler la tumeur ou les cellules malades, et délivrer in situ les agents thérapeutiques. Elle s'appuie sur l'utilisation de particules de silicium mésoporeux de forme, de taille et de pores bien contrôlés qui sont biocompatibles et biodégradables. L'idée est d'introduire dans les pores des particules de silicium poreux les nanoparticules actives qui seront ainsi protégées dans leurs parcours après injection.

Leur libération se fait dans une échelle de temps bien contrôlée correspondant à la cinétique de dissolution chimique des particules de silicium poreux dans les conditions physiologiques (température de 37°C et pH de 7,3), qui se dégradent en acide orthosilicique en 24 ou 48 heures et ne laissent aucune trace dans le corps.

Cette approche a été validée in vitro en choisissant comme nanoparticules des quantum dots et des nanotubes de carbone (que l'on peut localiser par microscopie de fluorescence), qui ont pu ainsi être délivrés dans des cellules vasculaires humaines dans une échelle de temps bien contrôlée. L'équipe annonce qu'elle va maintenant s'intéresser au transport et à la libération dans les cellules de liposomes, de nanoparticules d'or et d'oxyde de fer.

BE

Nouvel espoir contre le mélanome malin
Vendredi, 28/03/2008 - 00:00

Après deux décennies de très forte progression, le nombre de nouveaux cas annuels du cancer de la peau le plus grave, le mélanome, s'est stabilisé ces dernières années selon les derniers chiffres publiés par l'Institut national du cancer (Inca) et l'Institut de veille sanitaire (InVS). Le principal outil de lutte contre ce cancer reste encore le dépistage précoce car, comme le reconnaît le professeur Marie-Françoise Avril, de l'hôpital Cochin à Paris, «au stade avancé des métastases, cette maladie résiste à toutes les chimiothérapies».

En 2003, des chercheurs américains ont pourtant réussi à percer le secret de cette résistance au traitement : Markus Frank et son équipe de la Harvard Medical School ont découvert que certaines cellules de ce cancer pouvaient se débarrasser de bon nombre des molécules toxiques utilisées contre elles, grâce à un transporteur jusqu'alors inconnu à leur surface, l'ABCB5.

Ils ont montré récemment dans la revue Nature que ces cellules résistantes sont aussi les seules à pouvoir donner la maladie, une fois transférées chez l'animal. «Notre travail est le premier à démontrer l'existence de cellules souches pour le mélanome, précise Markus Frank au Figaro, c'est-à-dire des cellules issues des tumeurs capables de s'autorenouveler, de transmettre la maladie et dotées d'un marqueur caractéristique, l'ABCB5. Celui-ci était présent dans tous nos échantillons cliniques. Et plus la maladie était à un stade avancé, plus il était abondant.» Mieux, en injectant un anticorps dirigé contre l'ABCB5, les chercheurs ont pu supprimer l'apparition de tumeurs chez des souris porteuses de ces cellules cancéreuses.

Pourtant, avec l'ABCB5 les chercheurs disposent pour la première fois d'une cible précise contre le mélanome, portée de surcroît par ses cellules les plus dangereuses, celles responsables des métastases. De plus, ces mêmes chercheurs ont montré que l'anticorps antiABCB5 bloque l'expulsion par ces cellules de la doxorubicine, un produit classique de chimiothérapie, qui retrouve alors toute sa toxicité. «L'utilisation de l'anticorps antiABCB5 a été brevetée et nous cherchons maintenant à le commercialiser en vue d'un traitement anticancéreux», conclut Markus Frank.

Parallèlement, des chercheurs chinois ont annoncé dans la revue Cancer Cell avoir identifié les cellules souches du cancer du foie. Utilisant la même démarche que l'équipe américaine, Zhen Fan Yang et ses collègues de l'université de Hongkong ont montré que seules des cellules de carcinome hépatocellulaire caractérisées par un marqueur, le CD90, étaient susceptibles de s'autorenouveler et de donner de nouvelles tumeurs du foie chez l'animal. Tous leurs patients présentaient ce type de cellule, qui pouvait en outre être détruit par un anticorps dirigé contre un autre marqueur de leur surface, le CD44.

Ces découvertes complètent le nombre déjà élevé de cancers pour lesquels des cellules souches ont été identifiées ces dernières années. Elles offrent enfin la perspective de mieux cibler les cellules cancéreuses à éliminer, notamment celles qui résistent encore aux traitements actuels.

Figaro

Découverte d'un gène décisif du cancer du sein
Vendredi, 28/03/2008 - 00:00

Des chercheurs ont identifié un gène "maître" qui provoque des métastases du cancer du sein, ces redoutables envahissements d'autres organes par la tumeur. Le gène, appelé "SATB1", déjà connu pour son expression dans les tumeurs mammaires, est un facteur-clé dans le processus de formation des métastases, rapportent Terumi Kohwi-Shigematsu (Berkeley, Etats-Unis) et ses collègues.

Les chercheurs montrent, sur des souris ayant subi la greffe de cellules cancéreuses humaines, que neutraliser le gène SATB1 --et par conséquent, la protéine dont il commande la fabrication-- stoppe la croissance de la tumeur et la migration des cellules cancéreuses vers d'autres organes.

Le nombre de métastases du poumon était spectaculairement inférieur parmi les rongeurs débarrassés du gène comparés aux autres (cinq métastases ou moins par poumon contre 125 à 160).

Quand ce gène est hyperactif, la tumeur devient très agressive et envahissante. L'étude démontre que "SATB1 est à la fois nécessaire et suffisant pour que le cancer du sein métastase", explique Mme Kohwi-Shigematsu.

Cependant, le SATB1 joue normalement un rôle d'organisation sur d'autres gènes, en particulier sur ceux concernant des cellules du système de défense immunitaire, les lymphocytes T.

Dans une optique thérapeutique, il ne faudrait cibler que la seule tumeur dans laquelle le SATB1 est hyperactif, car bloquer ce gène dans l'ensemble de l'organisme aboutirait à compromettre le système immunitaire.

Les chercheurs admettent ne pas savoir pourquoi ce gène régulateur devient délétère.

Mme Kohwi-Shigematsu travaille sur un moyen de délivrer un inhibiteur directement dans la tumeur via de microscopiques nanocapsules.

Selon elle, des outils pronostiques pourraient être disponibles dans un an (test de détection du gène ou de sa protéine dans des prélèvements de tumeur afin de prédire si le cancer a de grands risques de provoquer des métastases).

Eurekalert

Essai prometteur d'un vaccin contre l'hypertension
Vendredi, 28/03/2008 - 00:00

Un candidat-vaccin contre l'hypertension, de la société suisse Cytos Biotechnology, s'est révélé bien toléré et prometteur, lors d'un essai clinique. Ce vaccin thérapeutique (CYT006-AngQb) est destiné à ordonner au système immunitaire du patient de produire des anticorps contre l'angiotensine II, une hormone qui augmente la pression sanguine en rétrécissant les artères. Cette hormone fait partie d'un système régulateur dit "SRAA" (système rénine-angiotensine-aldostérone).

Ce système est déjà ciblé par deux classes de médicaments contre l'hypertension (inhibiteurs de l'enzyme de conversion de l'angiotensine et antagonistes du récepteur de l'angiotensine II).

Ces médicaments ont prouvé leur efficacité, mais ont l'inconvénient de devoir être pris quotidiennement, et le traitement est souvent mal observé par les patients. Un vaccin thérapeutique pourrait simplifier le traitement, avec un nombre limité d'injections par an.

L'étude exploratoire (de phase I et II) menée pour Cytos Biotechnology a inclu 72 patients, avec une hypertension légère à modérée. Ses objectifs étaient d'évaluer l'innocuité et la tolérance du vaccin, ainsi que son efficacité éventuelle. 24 patients ont reçu un vaccin dosé à 300 microgrammes, 24 un vaccin dosé à 100 microgrammes, et 24 un placebo. Trois injections ont été administrées (à 0, 4 et 12 semaines).

Les chercheurs ont observé une diminution significative de la pression artérielle diurne dans le groupe recevant la dose de 300 microgrammes. La baisse était particulièrement prononcée au petit matin, moment propice aux accidents cardio-vasculaires.

La plupart des effets secondaires observés étaient des réactions bénignes et passagères, sur le site de l'injection. Trois patients du groupe 100 microgrammes et 7 du groupe 300 microgrammes ont éprouvé des symptômes de type grippal bénins, indice d'une "réponse" au vaccin, selon les chercheurs.

"Les résultats de cette nouvelle biothérapie sont surprenants et prometteurs, et la vaccination pour l'hypertension pourrait se montrer très utile pour de nombreux patients", indiquent les Dr Ola Samuelsson et Hans Herlitz (hôpital Sahlgrenska, Göteborg,Suède), dans un commentaire.

Lancet

Une bactérie mangeuse de cholestérol identifiée chez l'homme
Vendredi, 28/03/2008 - 00:00

Pour la première fois chez l'humain, des chercheurs français ont identifié une bactérie du tube digestif qui dégrade le cholestérol en un produit éliminé par les voies naturelles.

Une telle bactérie -baptisée Bacteroides dorei Strain D8- pourrait être à terme utilisée pour diminuer le cholestérol trop élevé chez des personnes à risques, selon l'Institut national de la recherche agronomique (INRA) à l'origine de ces travaux parus récemment dans une revue spécialisée Applied and Environmental Microbiology.

"Quelques bactéries présentant ces propriétés avaient déjà été identifiées chez le rat, le cochon et le babouin, mais jusqu'alors aucun laboratoire n'avait réussi à isoler chez l'Homme des bactéries responsables de la transformation du cholestérol en coprostanol éliminé dans les fèces", relève Philippe Gerard, responsable de cette recherche.

Chez l'animal ce sont des bactéries d'un genre différent appelé Eubacterium qui assurent ce rôle de transformation. "On pensait jusque là que c'était le seul genre de bactéries capables de le faire", dit-il.

On connaissait depuis les années 1930, le rôle de la flore intestinale humaine dans cette transformation, sans savoir pour autant quel genre de bactéries parmi les 100 milliards présentes dans un gramme de matière contenue dans le colon, en était responsables.

Une fois cette bactérie identifiée, à partir de l'étude d'une quinzaine de sujets, les chercheurs ont constaté que selon le niveau de bactéries, les personnes transformaient plus ou moins le cholestérol au niveau du colon.

Ainsi, celles qui ont plus de 100 millions de ces bactéries par gramme de matière, transforment totalement le cholestérol. Avec une concentration entre 1 et 100 millions/gramme, la transformation est partielle et avec moins d'un million, elle ne se produit pas, résume le chercheur.

La densité augmente au fur et à mesure que l'on descend dans le tube digestif, pour devenir maximale dans le colon (gros intestin).

Cependant chez l'homme, le cholestérol est absorbé plus haut dans l'intestin grêle. De plus, la bactérie est active sur le cholestérol présent dans les aliments, alors que chez l'humain la source principale de cholestérol (les 2/3) est fabriquée par le corps à partir des graisses saturées ingérées, remarque le Docteur ès Sciences et nutritionniste Patrick Borel.

AEM

Découverte d'un gène qui détermine la forme des fruits et légumes
Vendredi, 28/03/2008 - 00:00

Des scientifiques américains ont cloné un gène qui contrôle la forme des tomates, une découverte qui pourrait permettre de percer le mystère des énormes différences morphologiques entre les fruits ou les légumes.

Ce gène baptisé SUN est le second mis au jour jouant un rôle déterminant dans la forme oblongue de différentes variétés de tomates, explique Esther van der Knaap, professeur adjointe d'horticulture à l'université de l'Etat d'Ohio (nord), principal auteur de cette étude parue dans la revue Science.

Les tomates comptent parmi les légumes aux formes et tailles les plus variées. A l'origine les tomates étaient très petites et toutes rondes avant d'évoluer dans la grande variété de tailles et formes cultivées aujourd'hui.

Toutefois, on connaît peu la mécanique génétique derrière ces métamorphoses et virtuellement rien concernant les changements morphologiques des autres fruits et légumes.

"Nous nous efforçons de comprendre quels types de gènes sont responsables de cet énorme accroissement de la taille et de leurs variations parmi les tomates cultivées", ajoute-t-elle.

"Une fois que l'on connaîtra tous les gènes jouant un rôle dans ce processus nous pourrons déterminer comment la domestication et la culture des tomates ont déterminé leurs différentes formes et tailles", poursuit cette scientifique.

Cette horticultrice indique également que l'activation de ce gène est absolument essentielle pour que la tomate soit oblongue. Reste à de savoir si le même gène ou un gène similaire ou proche en termes de séquences, détermine aussi la morphologie d'autres cultures de légumes et de fruits.

Eurekalert

Les Français ne dorment pas assez
Vendredi, 28/03/2008 - 00:00

Les Français dorment en moyenne sept heures et demie, soit une heure de moins que dans les années 1960, selon les résultats d'une enquête de l'Institut national de prévention et d'éducation pour la santé (INPES) rendue publique et présentée à l'occasion de la huitième journée nationale du sommeil.

Au total, 45 % des personnes interrogées considèrent ne pas dormir assez : 12 % déclarent souffrir d'insomnie et 17 % accumuler une dette chronique de sommeil.

Les raisons incriminées sont nombreuses : le travail (52,5 %), les facteurs psychologiques comme le stress ou l'anxiété (40 %), les enfants (27 %), les loisirs (21 %)et le temps de transport (17 %).

Un adulte a besoin de six à dix heures de sommeil par nuit. Les personnes interrogées semblent avoir intégré cette donnée. En effet, plus de la moitié des répondants (58,6 %)pense qu'il faut dormir entre huit heures et huit heures et demie pour être en forme le lendemain et 44,6 %, au minimum six à sept heures.

Par ailleurs, la quasi-totalité (99,8 %) estime que dormir est important pour la santé et une grande majorité (86,3 %) perçoit le sommeil comme un plaisir. En revanche, ils sont 4,8 % à juger que dormir est angoissant et près de 10 % à penser que c'est contraignant. Treize pour-cent considèrent que c'est une perte de temps et 6 % perçoivent le sommeil comme un signe de paresse. Le lever matinal reste un signe de dynamisme pour 60 % des personnes interrogées.

Les conséquences d'un mauvais sommeil sont nombreuses : impacts sur les mécanismes d'apprentissage et de mémorisation, sur la régulation de l'humeur et du stress mais aussi de la glycémie. Les trois quarts des personnes interrogées ont identifié la dépression (79 %) et les problèmes de mémoire (74 %) comme des conséquences possibles d'un manque régulier de sommeil. Mais moins du tiers savent qu'il peut favoriser la prise de poids et moins de la moitié qu'il peut entraîner de l'hypertension artérielle.

Pendant la semaine, les trois quarts des personnes interrogées ont des horaires de sommeil réguliers et 30 % font la sieste deux fois en moyenne. Près de 80 % se couchent avant minuit et le temps d'endormissement moyen est de 19 minutes.

Les vacances sont plus propices au relâchement : seuls 48 % conservent des rythmes réguliers et 50 % en profitent pour pratiquer la sieste. Par ailleurs, la télévision est assez présente au moment du coucher : elle est allumée au moment de l'endormissement dans 14 % des cas.

Près de deux tiers des Français ont l'habitude de la regarder le soir avant de dormir et 24 % la regardent au lit. Plus de la moitié (56 %) pense même qu'elle les aide à trouver le sommeil. Eviter de regarder la télévision au lit est pourtant un des conseils donnés par les spécialistes pour mieux dormir. Les insomniaques et les personnes en dette de sommeil sont plus nombreux à surfer sur Internet ou à jouer à des jeux vidéo (respectivement 40 % et 42 %) alors qu'ils pensent, en majorité, que cela les empêche de dormir (respectivement 56 % et 54 %).

AP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top