RTFlash

RTFLASH Recherche & Technologie
NUMERO 420
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Mars 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Siemens augmente les performances de la fibre optique
Très haut débit optique à 100 Mbits : c'est parti !
Adoption de la loi sur la TV du futur
Matière
La géothermie : une énergie inépuisable
Retournement temporel : un saut technologique majeur enfin reconnu par la communauté scientifique internationale
Espace
Les astronomes surpris par l'absence d'eau sur deux exoplanètes
Terre
Climat : le rôle de l'évaporation dans l'Atlantique tropical révélé
Vivant
Détecter presque instantanément bactéries et virus grâce à la microfluidique
Diagnostic du cancer : un nano-dispositif en cours de validation
Traiter les métastases osseuses associées au cancer du sein
La consommation de poisson gras diminuerait l'incidence...du carcinome rénal
Des yeux bioniques expérimentés sur des chats
Les télomères pour évaluer le risque cardiovasculaire
Autisme : la voie génétique ouvre de nouvelles pistes
Anorexie mentale : la piste génétique
Un programme d'entraînement cognitif bon contre la maladie d'Alzheimer
Edito
Edito : La géothermie, grande oubliée des énergies renouvelables



La géothermie à très grande profondeur ouvre des perspectives nouvelles dans le domaine des énergies renouvelables. L'expérience menée à Soultz-sous-Forêts, près de Strasbourg, sera à cet égard décisive. La nouvelle technologie utilisée pour récupérer la chaleur naturellement stockée dans le sous-sol n'a jamais été mise en oeuvre. Elle consiste à injecter de l'eau froide à haut débit sous forte pression (100 bars) dans la roche granitique dont la température dépasse 200° à 5000 mètres de profondeur. L'eau circule dans les fractures naturelles de la roche et se réchauffe à son contact.

L'injection d'eau se fait par un puit central creusé jusqu'à 5000 mètres. L'eau ainsi réchauffée est extraite par deux autres puits de production. En surface, l'eau est récupérée à une température de 200°. Après un passage dans un échangeur thermique, l'eau est transformée en vapeur qui entraîne une turbine et un alternateur qui devraient produire 5 mégawatts d'ici 2006.

L'ensemble du système est conçu pour fonctionner en continu 8000 heures par an et devrait produire un kWh à un coût compris entre 0,004 et 0,008 euros. Si cette installation-pilote donne satisfaction, deux prototypes d'une puissance de 25 mégawatts chacun pourraient être construits, de quoi alimenter en électricité une ville de 50000 habitants. Le projet de Soultz est évalué à 50 millions d'euros, et est financé à 80 % par l'Europe.

Le potentiel offert par les sites favorables à la production d'énergie par géothermie profonde est considérable, de l'ordre de 110 000 mégawatts, soit la puissance actuelle du parc français de production d'électricité. Mais cette géothermie profonde, qui peut être exploitée sur un même site pendant au moins 20 ans, ne sera compétitive que lorsqu'une dizaine de sites existeront en France et totaliseront une capacité de plus de 300 mégawatts.

Le projet de Soultz-sous-Forêts est véritablement pionnier car il met en oeuvre une technologie propre à la géothermie des roches chaudes fracturées (HFR). Ce projet constitue une rupture technologique importante et confère à notre pays une avance technique certaine dans cette filière énergétique d'avenir.

La France aurait donc tort de se priver de cette énergie qui ne pollue pas et qui permet, à un coût d'exploitation minime, de lutter contre l'effet de serre. Ainsi, on estime à 78 Euros le prix d'une tonne de CO2 évitée par la réalisation et l'exploitation d'une installation géothermique, contre 810 Euros par le solaire thermique par exemple.

En France, plus de 200 000 équivalents-logements sont actuellement raccordés à des réseaux de chaleur utilisant prioritairement l'énergie géothermique. La chaleur géothermique produite annuellement dans notre pays est de l'ordre de 1 380 GWh (119 ktep), ce qui place la France au 10ème rang mondial pour l'utilisation de cette filière.

Au niveau mondial, la production d'électricité par géothermie est de l'ordre de 50 TWh, ce qui place cette source d'énergie propre au 3ème rang après l'hydraulique (2 600 TWh) et la biomasse (157 TWh).

Dans un récent rapport (Voir notre article détaillé "La géothermie : une énergie inépuisable" plus bas, dans la rubrique "Matière&Energie), le Massachusetts Institute of Technology insiste sur le fait que la géothermie peut répondre aux besoins actuels et à venir à un prix sans comparaison avec celui du pétrole et aussi sans aucune pollution atmosphérique. Les auteurs de cette étude sont persuadés que cette ressource énergétique peut être exploitée à plus grande échelle. Ils soulignent le faible impact sur l'environnement de la géothermie et, autre avantage, le caractère régulier et prévisible de l'énergie géothermique.

Nos voisins allemands parient également sur la géothermie. En novembre 2003, ils ont inauguré la première centrale géothermique d'Allemagne dans la commune de Neustadt-Glewe (Mecklenbourg). L'installation, qui doit approvisionner en courant environ 500 habitations, a une puissance de 2100 kilowatts. Le potentiel géothermique de l'Allemagne est également énorme. Avec les techniques actuelles, la géothermie a un potentiel de production capable de couvrir 600 fois les besoins en électricité annuels de l'Allemagne.

Mais la géothermie ne se limite pas aux ressources à grande profondeur. Il faut également évoquer la géothermie dite "de basse intensité" qui ouvre également de grandes perspectives grâce aux progrès technologiques. La géothermie basse et très basse énergie de faible profondeur (de 100 à 200 mètres) permet de se chauffer à l'aide d'échangeur thermique (pompes à chaleur à présent parfaitement fiables et d'un très bon rendement énergétique). La géothermie basse énergie s'appuie principalement sur des aquifères à des températures comprises entre 30° et 100° C.

Cette technologie très bien maîtrisée et peu coûteuse permet de récupérer de manière très efficace les calories stockées dans le sous-sol à l'aide d'un forage de production et d'un forage de réinjection.

Un forage de ce type fournit en moyenne une énergie thermique de 50 Watts par mètre, soit 5 kWh pour un forage de 100 mètres de profondeur. Le grand avantage de la pompe à chaleur est qu'elle ne nécessite aucune autre énergie que celle nécessaire au puisage des calories dans l'environnement : en utilisant 1 kWh pour faire fonctionner la pompe à chaleur, il est possible de récupérer gratuitement jusqu'à 3 kWh naturellement présents dans l'environnement tout en le préservant. La chaleur nécessaire pour chauffer un bâtiment provient alors pour les deux tiers de l'environnement et pour un tiers de l'énergie électrique pour faire fonctionner la pompe à chaleur.

Les équipements géothermiques sont plus onéreux à l'installation que les systèmes traditionnels : il faut compter environ 9 200 ? pour une maison de 120 m2. En revanche, ces systèmes sont d'un entretien limité et sont plus vite rentables : 75 % d'économie d'énergie par an par rapport au chauffage électrique, 60 % par rapport au gaz Propane, 50 % par rapport au fuel ou au gaz naturel. A titre d'exemple, pour chauffer une maison de 75 à 100 m² habitables, dotée de planchers chauffants, cela revient chaque année à environ 185 ? (pour l'essentiel, l'électricité qui alimente la pompe), trois fois moins cher qu'avec le fioul. La géothermie basse et très basse énergie (forages de faibles profondeurs et pompes à chaleur) est déjà utilisée à grande échelle en Suisse et en Allemagne et pourrait permettre à notre pays de réaliser rapidement, et sans investissements trop coûteux (amortissement moyen en 5 ans), d'importantes économies d'énergies fossiles dans le chauffage des bâtiments publics et des habitations privées.

Dans le cadre de la promotion des énergies renouvelables prévue par la nouvelle politique énergétique du Gouvernement, il serait souhaitable que la France, qui dispose à la fois d'un fort potentiel d'exploitation géothermique et d'une avance technologique remarquable, dans le domaine de la géothermie à grande profondeur, accorde à la géothermie une place plus importante dans les années à venir et conforte son excellence technologique dans ce domaine d'avenir.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Siemens augmente les performances de la fibre optique
Vendredi, 02/03/2007 - 00:00

Une équipe de chercheurs de Siemens a testé avec succès un procédé qui accroît la vitesse de transmission ainsi que la zone de couverture d'une fibre optique passive (PON). L'équipe, dont les travaux sont financés en grande partie par des fonds européens, a réussi à transférer des données à la vitesse de 10 Gigabits par seconde (Gbps) en flux descendant et à 2,5 Gigabits par seconde en flux montant sur un réseau passif.

C'est un beau résultat quand on sait que dans le meilleur des cas ces transmissions affichent respectivement des débits de 2,5 et 1,2 Gbps. Les chercheurs affirment également pouvoir desservir sans perte de qualité des utilisateurs situés à 100 Km du point d'émission. Le nombre de ces utilisateurs passerait quant à lui de 64 à 512 par splitter, ce qui évite dans la plupart des cas l'installation de systèmes d'agrégation destinés à collecter et à diffuser le trafic localement.

Les chercheurs ont mis en place un amplificateur optique, appelé amplificateur à fibre dopé à l'erbium. Les fibres optiques dopées à l'élément erbium amplifient le signal optique du système et permettent d'obtenir de plus longues portées de transmission avec une bande passante plus large. Ce dispositif a été mis au point de façon à rendre possible une amplification bidirectionnelle purement optique. Cela résulte en un dispositif compact unique pouvant stimuler les signaux optiques du client final au standard et du standard à l'abonné.

De plus, les chercheurs ont également pu étendre la distance entre le concentrateur (hub) et les abonnés de 20 à 100 kilomètres. Le nombre de lignes d'abonnés par séparateur (splitter), lorsque le signal optique est partagé afin de desservir plus de destinations, a également été augmenté de 64 à 512.

En décembre dernier, Siemens annonçait avoir transmis des données à la vitesse de 107 Gigabits par seconde sur un seul canal de fibre optique. L'expérience avait eu lieu aux Etats-Unis sur une distance de 161 kilomètres. L'équipementier allemand expérimentait à cette occasion un procédé de transmission et de réception purement électrique capable d'augmenter les performances de la fibre. C'est cette même technologie qui a été utilisée lors des derniers essais. Siemens espère ainsi faire baisser fortement le prix de la fibre optique, appelée à remplacer les actuels réseaux en cuivre.

Selon le groupe Siemens, de nombreux opérateurs tiennent à utiliser les systèmes d'accès haut débit à large bande offrant un plus haut débit que la technologie DSL, laquelle utilise des paires torsadées en cuivre existantes pour fournir des taux de transfert de données allant jusqu'à 50 Mbits par seconde. Les services tels que la Vidéo sur Demande (VSD), la voix sur protocole internet (VoIP) et la télévision haute définition (TVHD), devraient bien mieux fonctionner lorsqu'ils seront distribués par le biais de lignes d'abonnés en fibre optique.

R&T

Cordis

Très haut débit optique à 100 Mbits : c'est parti !
Vendredi, 02/03/2007 - 00:00

Après le haut débit, voici maintenant le très haut débit. Votre connexion ADSL plafonne à quelques mégabits par seconde ? Ce sera bientôt un débit allant de 50 à 100 Mbit/s que vous proposeront les fournisseurs d'accès à Internet. Le secret de cette petite révolution tient dans l'emploi généralisé de la fibre optique, déjà utilisée pour transporter des informations sur de longues distances (plusieurs centaines, voire milliers de kilomètres). Pourquoi la fibre optique ? Parce que comparée à d'autres moyens existants, elle offre une très faible atténuation du signal transporté, tout en autorisant des débits très élevés. La fibre optique est ainsi capable de fournir des débits de plusieurs térabits (soit des millions de mégabits !) par seconde.

Si les opérateurs plébiscitent tous la fibre, ils misent en revanche sur des technologies différentes. Deux grands principes se dégagent. Le premier consiste à déployer la fibre optique jusqu'au pied des immeubles, ce qu'on appelle le FTTB (Fiber To The Building). Dans ce cas, la fin du trajet est assurée par un autre moyen (câble coaxial ou fils de cuivre) : c'est une solution mixte. L'autre grand principe adopté par les opérateurs est le FTTH (Fiber to The Home), où la fibre optique est tirée jusqu'au domicile de l'abonné : c'est le tout-optique !

Du point de vue de l'opérateur, le choix d'une technique par rapport à une autre dépend surtout du réseau qu'il a déjà construit et des investissements que cela va engendrer. Déployer la fibre optique coûte en effet cher en matériel, mais aussi en travaux de génie civil, car il faut trouver comment acheminer la fibre optique, ce qui signifie, au besoin, de casser trottoirs et routes. Les opérateurs estiment ainsi le coût d'un nouvel abonné entre 700 et 2 000 euros, en fonction de la solution retenue - le FTTB étant moins onéreux que le FTTH - et de l'endroit de résidence.

Conséquence directe : ce sont les zones densément peuplées (grandes villes et immeubles), plus rentables, que ciblent les opérateurs. Paris sera d'ailleurs la première grande étape du chantier, le vaste réseau d'égouts de la capitale facilitant le passage des fibres. Pour les autres, il faudra attendre plusieurs années : le fossé lentement comblé entre les villes et les champs pour l'ADSL risque d'être encore plus profond pour la fibre optique. A moins que les collectivités ne suivent l'exemple de Pau : la ville et son agglomération ont déployé leur propre réseau public de fibres optiques loué ensuite aux opérateurs.

Voici donc en cours de réalisation la promesse d'un débit dix fois supérieur à ce que l'on connaît actuellement. Mais à quoi employer ce mirifique débit de 100 Mbit/s ? Il va vraisemblablement profiter au développement des offres vidéo par Internet : réception simultanée de plusieurs chaînes télévisées, programmes en haute définition, vidéo à la demande.

On s'oriente également vers une démultiplication des usages d'Internet au sein du foyer. Chaque membre de la famille possédant son ordinateur individuel pourra mener une existence indépendante sur Internet sans nuire à la qualité de la connexion des autres. D'autres emplois restent à inventer. On peut ainsi imaginer la généralisation des logiciels disponibles exclusivement en ligne, sans rien installer sur son PC, et accessibles de manière totalement transparente pour l'utilisateur via le navigateur Internet.

OINet

Adoption de la loi sur la TV du futur
Vendredi, 02/03/2007 - 00:00

Le projet de loi sur la « modernisation de la diffusion audiovisuelle et à la télévision du futur » a été définitivement adopté par le Parlement jeudi 22 février. Après les sénateurs, les députés ont entériné le texte mis au point par une commission mixte paritaire Assemblée-Sénat. Le projet de loi est donc définitivement adopté, mais il fait l'objet de recours devant le Conseil constitutionnel.

Ce texte prévoit, à partir de mars 2008 et jusqu'au 30 novembre 2011, l'extinction du signal hertzien analogique et l'avènement de la télévision numérique terrestre (TNT). Un projet ambitieux, qui sera accompagné par le déploiement de la télévision haute définition (TVHD) et de la télévision mobile personnelle (TMP). Pour les portions du territoire qui échapperaient au signal hertzien numérique de la TNT, une offre satellitaire gratuite, hors équipement, sera proposée. Un fonds d'aide sera créé pour les foyers les plus démunis souhaitant s'équiper. Dès l'été prochain, tous les programmes du service public, en particulier ceux de France 3, seront diffusés par satellite.

Cette révolution technologique bénéficiera au pluralisme de l'information comme à la création. Au pluralisme, parce qu'elle multiplie les sources d'information avec une offre élargie : en plus des chaînes historiques, les téléspectateurs auront accès à deux chaînes d'information en continu et aux chaînes parlementaires ; à la création, parce que la loi fait désormais participer l'ensemble des distributeurs de télévision au financement du compte de soutien à l'industrie de programmes (Cosip) et impose des obligations de production d'oeuvres aux chaînes.

A cet égard, les trois canaux supplémentaires attribués aux éditeurs des chaînes historiques seront assujettis à des obligations renforcées en matière de production audiovisuelle et cinématographique. Ces nouveaux canaux ont été accordés dans la mesure où les chaînes historiques devront renoncer définitivement à la diffusion analogique et verront la portée de leur autorisation pour ce type de diffusion progressivement réduite avant son échéance normale.

De leur côté, les télévisions locales, qui contribuent également au pluralisme des courants d'expression, pourront diffuser leur programme à tout moment et simultanément en mode numérique et analogique. Cela, sans appel à candidature grâce à la prorogation de leurs autorisations.

Le développement du numérique permettra également d'apporter des services innovants répondant aux demandes des opérateurs et du public : la télévision haute définition et la télévision mobile personnelle qui correspond à un mode de consommation nomade sur des supports dédiés ou par téléphone.

A partir du 1er décembre 2008, tous les téléviseurs commercialisés devront intégrer un adaptateur TNT permettant la réception numérique. Un label « Prêt pour la haute-définition » sera utilisé pour aider le consommateur à faire le bon choix.

Répondant aux protestations des « nouveaux entrants » de la TNT (AB, Direct 8, BFM TV, NT1 et NRJ 12), des députés et des sénateurs de gauche ont déposé un recours en annulation devant le Conseil constitutionnel. Ils contestent en particulier l'attribution par les pouvoirs publics de trois canaux de diffusion TNT supplémentaires à TF1, M6, et Canal+, à l'occasion du passage au tout numérique. Cette mesure s'accompagne d'une prorogation de cinq ans de leur autorisation de diffusion. Ce recours étant suspensif, la loi ne sera promulguée qu'après l'avis du conseil constitutionnel.

Par ailleurs, les parlementaires ont retenu le principe d'une taxe pour les FAI. Ceux-ci, en tant que distributeurs de services de télévision, auront désormais l'obligation, comme c'est déjà le cas pour les chaînes de télévision, de contribuer au financement du Cosip (Compte de soutien à l'industrie audiovisuelle). En contrepartie, ils devraient pouvoir bénéficier de subventions s'ils produisent des oeuvres audiovisuelles.

AN

^ Haut
Matière
Matière et Energie
La géothermie : une énergie inépuisable
Vendredi, 02/03/2007 - 00:00

La géothermie c'est l'inépuisable ressource énergétique stockée dans l'écorce terrestre. L'énergie thermique emmagasinée dans la croûte terrestre présente un grand potentiel. Dans un récent rapport de 372 pages : " Le futur de l'énergie géothermique « le Massachusetts Institute of Technology, se livre à une étude approfondie des ressources géothermiques de diverses régions du globe. Le rapport souligne notamment les importantes potentialités des îles Hawaï. Lorsqu'on sait que ces îles offrent bien plus que des ressemblances avec La Réunion, on se trouve conforté dans l'issue prochaine des recherches en cours pour localiser le meilleur site géothermique possible. Le rapport du MIT insiste sur le fait que la géothermie peut répondre aux besoins actuels et à venir à un prix sans comparaison avec celui du pétrole et aussi sans aucune pollution atmosphérique.

Plus grand producteur mondial d'énergie géothermique, les États-Unis concentrent actuellement la majorité de leurs installations dans l'ouest du pays. L'électricité ainsi produite en Californie, à Hawaï, dans l'Utah et dans le Nevada est déjà comparable à ce que la combinaison de l'énergie éolienne et solaire fournit. Les auteurs de cette étude sont persuadés que cette ressource énergétique peut être exploitée à plus grande échelle. Même s'il est nécessaire de forer dans la croûte terrestre jusqu'à des profondeurs de plus de 1500 m dans les zones les plus prometteuses, et bien plus profondément encore dans l'est du pays, Nafi Toksöz, professeur de géophysique au MIT, affirme que « forer dans ces roches, les fracturer et y injecter de l'eau pour produire de la vapeur s'est déjà avéré faisable ». On peut noter que les techniques employées sont assez similaires à celles que demande l'extraction de pétrole et de gaz ; la demande croissante d'avancées technologiques dans ces deux domaines pourrait donc accélérer le développement de systèmes géothermiques améliorés.

Notre consommation de carburants fossiles est en perpétuelle augmentation. Au vu de ce rapport du MIT, il est clair que la géothermie, bien moins polluante, représente plus que jamais une source d'énergie avec laquelle il faudra compter pour le futur. Et contrairement aux systèmes solaires et éoliens, une centrale géothermique fonctionne jour et nuit, qu'il y ait ou non du vent.

Retournement temporel : un saut technologique majeur enfin reconnu par la communauté scientifique internationale
Vendredi, 02/03/2007 - 00:00

Dans la revue Science du 23 février, Mathias Fink et ses collègues(CNRS, ESPCI, Paris-VII), dont nous avons souvent eu l'occasion d'évoquer les travaux dans @RTFlash, ont montré que leurs "miroirs à retournement temporel" permettent de s'affranchir de la limite intrinsèque de la physique - correspondant à la moitié de la longueur d'onde de la lumière éclairant l'objet que l'on veut regarder - qui constitue un obstacle jusqu'à présent infranchissable à la résolution des observations au microscope.

Ces miroirs sont des dispositifs qui, après avoir capté un son - ou une onde électromagnétique - le renvoient vers son lieu d'émission mais inversé après traitement numérique. Ils peuvent refocaliser précisément une onde vers son origine. Nous avons évoqué dans un récent éditorial) les nombreuses et prometteuses applications de cette technologie. Parmi celles-ci, les télécommunications sont au premier rang. C'est en effet sur le domaine des micro-ondes que portent les derniers travaux de l'équipe de Mathias Fink. Elle a utilisé une rangée de huit antennes émettrices et réceptrices espacées de quelques millimètres, une distance bien inférieure à la longueur d'onde (12 cm) d'un signal diffusé à 2,45 gigaHertz, la fréquence de la norme Wifi. Ils ont surmonté ces antennes d'un curieux réseau aléatoire de fins fils de cuivre.

Par la technique du "retournement temporel", les chercheurs ont été capables de refocaliser à volonté sur chacune de ces antennes des signaux qui, en théorie, auraient dû être brouillés à cause de la limite de diffraction. Ils attribuent cette super-résolution à ce réseau aléatoire, enchevêtré, de "spaghettis" de cuivre. La "preuve" du pouvoir discriminant du dispositif est apportée par le transfert d'une photo couleur, décomposée en trois fichiers numériques correspondant aux couleurs rouge, vert et bleu. Chaque couleur est envoyée à une antenne distincte. Sans les "spaghettis" de cuivre, les signaux sont brouillés et la photo reconstituée est grise, alors qu'avec les "spaghettis", ses couleurs d'origine sont parfaitement restituées.

Fink et ses collègues ont donc montré qu'on peut désormais focaliser un signal sur quelques centimètres, ce qui ouvre la voie à des applications très discrètes de la téléphonie ou des communications itinérantes. Cette précision permettrait aussi d'ouvrir le spectre des fréquences, l'engorgement des canaux freinant actuellement l'essor des réseaux haut débit. Mathias Fink est intarissable sur les multiples applications envisageables dans les télécommunications de cette refocalisation fine, qui fonctionne précisément de point à point. "Avec ces miroirs particuliers, on obtient une sorte de fibre optique virtuelle : les communications n'ont pas besoin d'être codées, puisqu'elles ne se reconstituent qu'au point focal, sur l'antenne, précise t-il.

Science

^ Haut
Espace
Espace et Cosmologie
Les astronomes surpris par l'absence d'eau sur deux exoplanètes
Vendredi, 02/03/2007 - 00:00

Des astronomes américains étudiant deux lointaines planètes situées hors du système solaire ont été surpris de ne pas découvrir d'eau dans leur atmosphère, montre une nouvelle étude. Les recherches ont porté sur deux astres gazeux et chauds : l'exoplanète la plus proche découverte à ce jour, HD 189733b, située à 360.000 milliards de kilomètres de la Terre, et une autre baptisée HD209458b, distante de 900.000 milliards de kilomètres. Selon les astronomes, les deux corps célestes devraient théoriquement contenir de l'eau dans leur atmosphère. Mais deux équipes d'astronomes utilisant le télescope spatial Spitzer de la NASA pour les examiner n'en n'ont pas trouvé, selon l'étude publiée dans la revue "Nature" et l'édition en ligne de l'"Astrophysical Journal Letters".

Aucune trace chimique des molécules cherchées par les astronomes n'a été trouvée sur la première planète. L'étude de la seconde a mis en évidence des nuages de fines particules de silicate. "Nous nous attendions à trouver" les signes d'une présence d'eau, mais "ils n'étaient pas là", a souligné Carl Grillmair, de l'Institut de technologie de Californie et du Centre spatial Sptizer, qui a dirigé une des deux équipes. "Ce sont des astres très différents", note son collègue David Charbonneau, professeur d'astronomie à l'Université de Harvard. "Ils ne sont pas comme les autres planètes de notre système solaire."

Celui-ci possède deux planètes sans eau dans leur atmosphère : Mercure, qui n'a pas d'atmosphère, et Vénus, d'une nature différente de ses homologues gazeuses censées abriter les composants de l'eau dans leur air, note M. Grillmair. Jusqu'ici, les astronomes ont découvert 213 planètes en dehors du système solaire, mais seulement 14 possèdent une orbite rendant possible ce genre d'étude. Les astronomes avancent deux hypothèses pour expliquer la non découverte d'eau dans les deux cas : elle pourrait se cacher sous des nuages de poussières ou alors toutes les molécules d'eau ont la même température, ce qui rend impossible leur détection avec un spectrographe à infrarouge.

Une autre possibilité serait qu'il n'y a tout simplement pas d'eau, ce qui signifierait que les astronomes devront revoir leurs théories concernant les exoplanètes. Sur l'astre le plus lointain, les chercheurs ont découvert ce qui pourrait être des nuages de particules de silicate, qui ont peut-être empêché le télescope spatial de détecter de l'eau éventuellement présente en-dessous.

Physorg

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : le rôle de l'évaporation dans l'Atlantique tropical révélé
Vendredi, 02/03/2007 - 00:00

L'évaporation dans les zones tropicales de l'océan Atlantique joue un rôle jusqu'ici sous-estimé sur le climat d'une grande partie de la planète, notamment de l'Europe, montre une étude française publiée dans la revue Nature. « Il existe un lien étroit entre l'hydrologie tropicale et la circulation océanique de l'Atlantique nord, qui garantit au Vieux continent ses températures douces », souligne Guillaume Leduc, paléoclimatologue au CEREGE (CNRS, Université d'Aix-Marseille).

M. Leduc et ses collègues expliquent avoir étudié des échantillons de sédiments prélevés de part et d'autre de l'isthme de Panama, qui leur ont permis de retracer l'évolution de la salinité des eaux de surface dans ces deux régions océaniques au cours des 90.000 dernières années. l'évaporation est intense en zone Caraïbe et la teneur en sel de l'eau de mer s'y accroît. Transportée par les alizés, cette vapeur d'eau retombe sous forme de pluies dans le Pacifique oriental, diluant ainsi sa salinité. Cet échange d'eau entre les deux océans porte sur des volumes tout à fait considérables : plusieurs centaines de milliers de mètres cubes par seconde.

Plus une eau est chargée en sel, plus elle tend à s'enfoncer dans les couches profondes de l'océan. Les courants marins ne peuvent donc plus évacuer vers le nord l'excès de chaleur accumulé dans les régions équatoriales, ce qui entraîne un refroidissement du climat des zones tempérées. les travaux de M. Leduc ont mis en évidence que les périodes d'atténuation du transfert de vapeur d'eau de l'Atlantique vers le Pacifique correspondaient à des phases de refroidissement intenses de la planète.

De surcroît, explique le scientifique à l'AFP, "dès que l'on perturbe la circulation océanique en Atlantique nord, on voit les moussons migrer vers le sud". Avec pour corollaire une augmentation des pluies dans la zone équatoriale et une réduction dans la zone tropicale. Mais aussi une accumulation d'eau douce et légère à l'embouchure de l'Amazone, qui réduit le débit du système de courants qui remonte normalement vers le nord-ouest de l'Europe. Ces travaux devraient conduire les climatologues à revoir leurs modèles qui expliquent les ralentissements du Gulf Stream constatés dans le passé exclusivement par l'arrivée d'un excès d'eau douce aux hautes latitudes, liée à la fonte des calottes glaciaires.

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Détecter presque instantanément bactéries et virus grâce à la microfluidique
Vendredi, 02/03/2007 - 00:00

Combien de maladies, génétiques, bactériologiques, virales ou autres, peut-on diagnostiquer à partir d'une seule goutte de sang ? «Des centaines», répond Michel G. Bergeron, professeur à l'Université Laval et directeur du centre de recherche en infectiologie (CRI). Le malheur, s'indigne l'infectiologue, c'est que le diagnostic est la forme de prévention la plus méconnue et la plus négligée par les gouvernements. «Ça n'a aucun sens ! Nous avons besoin d'une nouvelle médecine préventive», s'exclame-t-il. Cette nouvelle médecine, Michel G. Bergeron est d'ailleurs en train de l'inventer avec un projet révolutionnaire : utiliser la microfluidique pour diagnostiquer rapidement des infections bactériennes.

La technologie, conçue au sein de son groupe de recherche, est astucieusement simple : des microcanaux sont fabriqués sur un disque compact et orientés du centre vers l'extérieur, comme les rayons d'une roue de vélo. Il suffit de déposer une goutte de sang (ou d'autres fluides corporels) au centre du disque, d'appuyer sur «Play» et la force centrifuge se charge de faire glisser le liquide d'une extrémité du tube à l'autre. Dans les capillaires en rotation, les échantillons sont préparés chimiquement, puis exposés à des microbilles magnétiques dont la surface est conçue pour agripper exclusivement l'ADN des bactéries.

Le reste du sang (plasma, globules rouges et blancs, plaquettes, etc.) est évacué. En quelques minutes, l'analyse de cet ADN permet de connaître avec précision le nombre et le type de bactéries en présence. Soixante-dix types de bactéries sont responsables de 99 % des septicémies (infections du sang) et une cinquantaine de bactéries différentes causent la pneumonie, explique l'infectiologue. Sa technologie, qui possède une capacité de distinguer 150 types de microbes simultanément, permet donc de détecter toutes les bactéries se rapportant à une maladie sur un seul disque.

Désormais, les médecins qui soupçonnent leurs patients d'être atteints de septicémie pourront utiliser le CD correspondant à cette maladie pour en avoir le coeur net et prescrire les antibiotiques appropriés sur-le-champ. «Jusqu'à présent, il faut prélever un échantillon, l'envoyer au labo et les résultats n'arrivent que deux à trois jours plus tard, souligne-t-il. Le médecin doit donc choisir entre prescrire un antibiotique potentiellement inutile ou attendre les résultats des tests et risquer des complications.»

D'ici environ six mois, les premiers prototypes de «diagno-disques» du Dr Bergeron seront prêts à l'essai. Dès 2009, sa technologie devrait être disponible commercialement. Les diagnostics de maladies infectieuses pourront alors se faire sur-le-champ dans le bureau du médecin, en pharmacie, ou même chez les patients. «Ce sera une révolution culturelle médicale, explique-t-il. On passe d'une médecine d'hôpital à une médecine qui se fait au point de service. Imaginez le potentiel pour réduire les temps d'attente aux urgences !»

CP

Diagnostic du cancer : un nano-dispositif en cours de validation
Vendredi, 02/03/2007 - 00:00

Si la miniaturisation des composants électroniques a entraîné des développements technologiques qui ont considérablement bouleversé la vie quotidienne des populations des pays industrialisés, en particulier dans leur manière de communiquer et d'accéder à l'information, la miniaturisation des capteurs biologiques sur une puce et leur intégration en plusieurs millions d'exemplaires vont provoquer une nouvelle fois de profonds changements au sein de cette société moderne. Les travaux, particulièrement prometteurs, menés actuellement par l'équipe de Christophe Vieu au sein du Laboratoire d'Analyse et d'Architecture des Systèmes (LAAS) de Toulouse en sont un parfait exemple.

L'objectif de ces chercheurs est de parvenir à intégrer le laboratoire d'analyse actuel sur une puce. Cela permettra de réaliser les analyses biologiques plus rapidement, à meilleur marché et de les rendre ainsi accessibles au plus grand nombre. Prenons l'exemple d'une tumeur qui secrète des marqueurs biologiques en quantité si faible que les diagnostics actuellement disponibles sur le marché sont incapables de les détecter. Dans ce cas, cette tumeur n'existe pas aux yeux du médecin. En revanche, les nano-dispositifs au développement desquels nous travaillons aujourd'hui permettront de détecter d'infimes quantités de marqueurs biologiques et, par conséquent, la tumeur. D'ou la possibilité de diagnostiquer de façon plus précoce et avec une précision accrue l'émergence d'une maladie chez un patient et prévenir ainsi son développement, en particulier en adaptant une thérapie spécifique au patient, c'est-à-dire en lui prescrivant un "traitement à la carte". Ces nano-dispositifs en développement sont capables de détecter des concentrations de l'ordre du femtomole, c'est-à-dire 10 puissance -15 moles. Ainsi il leur suffit d'analyser de l'eau d'une piscine olympique dans laquelle a été diluée une seule goutte de lait pour qu'ils y détectent des protéines constituant ce dernier !...

L'équipe toulousaine a mis au point un nano-dispositif ultra-sensible, intégrable sur une puce, capable de convertir l'affinité spécifique entre deux protéines en un signal électrique, ce qui permet de détecter de très faibles quantités de marqueurs cancéreux. Pour y parvenir, les chercheurs ont réalisé une véritable prouesse technologique qui a consisté à fabriquer des nanoélectrodes de 30 nanomètres de large, soit d'une taille comparable à celle des biomolécules que l'on cherche à détecter, dont la capacité à conduire le courant électrique est modifiée par la présence des protéines. Ce dispositif est en cours de validation au sein du cancéropôle de Toulouse.

BE

Traiter les métastases osseuses associées au cancer du sein
Vendredi, 02/03/2007 - 00:00

Les chercheurs de l'Unité Inserm 664 « Mécanismes et traitements des métastases osseuses des tumeurs solides », dirigée par Philippe Clézardin, ont montré que les bisphosphonates, actuellement utilisés pour réduire le risque de fracture, chez des patientes, bloquent également la croissance des cellules cancéreuses au site métastatique osseux.

Chez un certain nombre de patientes atteintes d'un cancer du sein, la dissémination des cellules tumorales par voie lymphatique ou par voie sanguine provoque l'apparition de métastases au niveau des os. En temps normal, le remodelage osseux est assuré par un processus naturel qui assure un équilibre permanent entre les cellules osseuses qui dégradent (les ostéoclastes) et celles qui renouvellent l'os (les ostéoblastes). Lorsque ces métastases osseuses apparaissent, les cellules cancéreuses stimulent anormalement l'activité des ostéoclastes conduisant à l'apparition de fractures chez ces patients.

Pour pallier ces dérèglements, les médecins réduisent le risque de fractures en administrant des bisphosphonates, traitement couramment utilisé dans l'ostéoporose. Les bisphosphonates sont des agents pharmacologiques qui se fixent avec une très forte affinité à l'os. Ils sont capables de bloquer l'activité des ostéoclastes et par conséquent de réduire les effets des cellules tumorales. Les études précliniques menées par différents laboratoires, dont celui de Philippe Clézardin, montrent que ces mêmes bisphosphonates sont également capables d'avoir une activité anti-tumorale directe, c'est-à-dire d'agir sur les cellules cancéreuses elles-mêmes, soulevant un vif intérêt quant à l'utilisation de ces médicaments en oncologie.

Toutefois, les doses nécessaires pour obtenir cet effet direct sont 10 à 40 fois supérieures à celles administrées aux patients qui développent des métastases osseuses. De telles doses provoqueraient de graves complications rénales. Philippe Clézardin et ses collaborateurs ont étudié, sur des modèles animaux présentant des métastases osseuses, l'activité anti-tumorale de divers bisphosphonates avec des doses et fréquences d'administration différentes.

Les chercheurs ont observé qu'une injection journalière de zolédronate (un bisphosphonate) était la méthode la plus efficace pour bloquer la croissance des tumeurs, avec une diminution de taille de 88 % d'entres elles par rapport au groupe contrôle. L'ensemble de ces résultats s'explique vraisemblablement par le fait que l'administration fréquente de faibles doses de bisphosphonates permet de maintenir dans la circulation sanguine des concentrations suffisamment élevées pour agir directement sur les cellules tumorales.

Inserm-

La consommation de poisson gras diminuerait l'incidence...du carcinome rénal
Vendredi, 02/03/2007 - 00:00

Le carcinome rénal à cellules claires (CRCC) représente plus de 80 % de toutes les tumeurs malignes du rein, dont la majorité sont des adénocarcinomes. Sur le plan pathogénique, ces lésions malignes seraient en partie provoquées par des facteurs alimentaires. Certaines études suggèrent que la consommation de graisses de poisson pourrait diminuer le risque de certains cancers, mais force est de constater que cette hypothèse ne fait pas l'unanimité.

Les données épidémiologiques sur ce sujet sont à la fois peu nombreuses et volontiers contradictoires, d'autant plus qu'elles émanent d'études cas-témoins, peu propices aux résultats incontestables et reproductibles. Rares sont, de surcroît, les études qui ont pris le soin de séparer les poissons maigres des poissons gras, dont le contenu en vitamine D et en acides oméga-3 diffère pourtant largement. ainsi, les acides gras polyinsaturés de type oméga-3, de type acide eicosapentaénoïque et docosahexanéoïque seraient à même d'inhiber la promotion et la progression de la carcinogenèse rénale.

Une étude de cohorte prospective, en l'occurrence la Swedish Mammography Cohort, a inclus 61 433 femmes âgées de 40 à 76 ans, sans antécédent de cancer à l'état basal (mars 1987- 14 décembre 1990). En 1997, les participantes ont rempli un questionnaire alimentaire spécifique qui a permis d'évaluer la consommation des divers types de poissons. Au terme d'un suivi moyen de 15,3 années (940 357 sujets-années) (1987-2004), 150 cas de CRCC ont été diagnostiqués.

Après ajustement en fonction des facteurs de confusion potentiels, une relation inverse significative a été mise en évidence entre la consommation de poisson gras et le risque de cancer rénal. Comparativement à l'absence de consommation de cette variété de poisson, en analyse multivariée, le risque relatif (RR) de CRCC a été estimé à 0,56, sous réserve d'une consommation au moins hebdomadaire. Comparativement à la non consommation confirmée, le RR multivarié de ce cancer chez les femmes qui consommaient très régulièrement ce type de poisson, à l'état basal et en 1997, a été estimé à 0,26. La consommation régulière de poisson gras pourrait réduire le risque de carcinome rénal à cellules claires chez les sujets de sexe féminin, selon des mécanismes qui restent cependant à élucider.

JIM

Des yeux bioniques expérimentés sur des chats
Vendredi, 02/03/2007 - 00:00

Les chats de Kristina Narfstrom ont des yeux bioniques. Cette vétérinaire implante en effet des puces électroniques sur des abyssins partiellement aveugles. Un traitement à la Steve Austin qui pourrait peut-être à terme aider à réparer les rétines humaines abîmées. Actuellement, la rétinopathie pigmentaire est incurable. Cette maladie héréditaire, qui peut rendre aveugle, touche un Américain sur 3.500 et on estime que 30.000 Français en sont atteints. Elle affecte les cellules réceptrices de la lumière (cônes et bâtonnets). D'abord, le patient voit moins bien lorsqu'il fait sombre, puis son champ visuel rétrécit au fil des ans, son acuité visuelle diminue, il ne peut plus lire. Il devient malvoyant, souvent aveugle.

Or, les chats abyssins sont atteints de la version féline de ce mal. C'est ce qu'a découvert le Docteur Narfstrom dans sa Suède natale. Dans son laboratoire américain, l'ophtalmologue vétérinaire implante donc des puces - électroniques - à ses matous à tête triangulaire. "Nous les plaçons exactement à l'endroit des photorécepteurs et s'il en manque, c'est censé remplacer ce qu'ils font", explique Kristina Narfstrom, dans son cabinet de l'Université du Missouri-Columbia. "A cette étape, ce sont des impulsions de lumière qu'ils voient (et non des images), mais le but des recherches est d'obtenir plus d'informations de la puce". Les microprocesseurs de 2mm de large sont fabriqués par Optobionics, une firme de Naperville (Illinois). Ils sont couverts de 5.000 photodiodes microscopiques, des composants qui réagissent à la lumière en envoyant des signaux électriques au cerveau via le nerf optique.

D'après le Docteur Narfstrom, des puces de ce type ont déjà été implantées sur 30 patients humains. Ces essais cliniques ont donné des résultats encourageants, améliorant la vue de certains ou du moins ralentissant la progression de la rétinopathie pigmentaire. La vétérinaire espère que ses chats bioniques aideront les concepteurs de la puce à effectuer les derniers réglages. Les chirurgiens pourront aussi s'entraîner à implanter cet instrument car la structure de l'oeil félin est semblable à celle de l'oeil humain. Les puces pourraient avoir aussi d'autres vertus. Certaines études suggèrent que leur courant électrique régénérerait les photorécepteurs endommagés situés autour de l'implant. Le Docteur Narfstrom estime qu'il lui faudra environ deux ans pour voir si les cellules rétiniennes de ses chats se renouvellent effectivement.

SD

Les télomères pour évaluer le risque cardiovasculaire
Vendredi, 02/03/2007 - 00:00

L'extrémité des chromosomes serait un marqueur du risque cardiovasculaire. En effet, une réduction de la longueur des télomères est associée à une augmentation du risque cardiovasculaire chez des hommes d'âge moyen et considérés à risque. "Nos résultats montrent que l'association entre des télomères plus courts et la maladie coronarienne n'est pas une conséquence de la maladie. Cependant, il reste à savoir si la longueur des télomères est simplement un biomarqueur de plus ou si cette association a un fondement fonctionnel", écrivent Brouillette et ses collaborateurs dans leur article publié dans le Lancet.

Cette étude nommée WOSCOPS reposait sur la mesure de la longueur des télomères des leucocytes de personnes qui allaient par la suite développer ou non une maladie coronarienne. Ce groupe était constitué d'hommes de 45 à 64 ans qui ont éventuellement reçu un traitement par statines.

Au total, 484 ont développé une maladie coronarienne et 1058 non. Une augmentation de ce risque a été mise en évidence chez ceux dont les télomères étaient les plus courts. Par ailleurs, l'étude a montré que cet effet était atténué chez les patients qui avaient bénéficié d'un traitement par pravastatine comparé à ceux qui avaient reçu un placebo, expliquent les auteurs.

MN

Autisme : la voie génétique ouvre de nouvelles pistes
Vendredi, 02/03/2007 - 00:00

Alors que l'autisme touche de plus en plus d'enfants (L'autisme toucherait un enfant sur 150 selon le CDD), deux découvertes suscitent de nouveaux espoirs. Des chercheurs écossais ont obtenu chez la souris, à leur grande surprise, une « régression complète » du syndrome de Rett. Une maladie génétique appartenant au « spectre autistique ». Le Professeur Adrian Bird et ses collègues des Universités d'Edimbourg et de Glasgow, ont mené leurs travaux sur un modèle expérimental du syndrome de Rett chez la souris. Ce trouble envahissant du développement, est dû à une mutation génétique également retrouvée dans l'autisme.

Pour la première fois et à l'aide d'un composé chimique, les chercheurs seraient parvenus à supprimer l'effet de cette mutation. Résultat, le gène est redevenu fonctionnel et les symptômes - notamment ceux affectant la mobilité - ont été fortement atténués voire supprimés. En réactivant ce gène, l'équipe de Bird a ainsi démontré que les cellules nerveuses n'étaient pas irréversiblement endommagées, contrairement à ce que l'on pensait jusqu'ici.

Cette percée survient alors qu'une autre équipe internationale de chercheurs a identifié de nouveaux marqueurs ADN pour l'autisme dans le cadre d'une des plus ambitieuses études portant sur les origines génétiques de ce trouble envahissant du développement de l'enfant. Ces nouvelles données apportent une preuve supplémentaire du rôle, dans l'autisme, de gènes liés au système de neurotransmission via un messager chimique, le glutamate, dans le cerveau. L'étude suggère aussi qu'une région du chromosome 11, jusqu'alors non répertoriée comme telle, pourrait renfermer certains des gènes impliqués dans ce trouble mal compris.

Les résultats s'appuient sur l'analyse de l'ADN de 1.200 familles ayant au moins deux enfants autistes, ce qui en fait la plus vaste étude génétique sur l'autisme jamais entreprise, selon les chercheurs. L'étude montre en particulier le rôle des gènes codant pour des neurexines, des protéines intervenant dans la mise en place des synapses, les connexions permettant aux cellules du cerveau de communiquer entre elles.

Article @RTFlash

RSRF

SD

BBC

Erekalert

Anorexie mentale : la piste génétique
Vendredi, 02/03/2007 - 00:00

Le seul contexte culturel ne suffirait pas à expliquer la survenue d'une anorexie mentale, un trouble fréquent du comportement alimentaire : le risque pour un ou une adolescent(e) d'en être atteint serait multiplié par douze lorsqu'un membre de la famille en a déjà souffert, selon une étude menée aux Etats-Unis et en Europe. "La génétique charge le pistolet. L'environnement appuie sur la gâchette", a résumé Craig Johnson, responsable de l'étude et directeur de l'unité des troubles du comportement alimentaire, à l'hôpital psychiatrique Laureate de Tulsa.

Selon lui, ces quarante dernières années, les chercheurs ont essentiellement cherché à comprendre le rôle joué par la culture du régime dans la survenue de troubles du comportement alimentaire. "Nous savons maintenant que cette maladie survient lorsqu'il existe un enchaînement d'événements qui vont de la prédisposition génétique à une culture avide de minceur par le régime et l'exercice."

Les gens qui souffrent d'anorexie mentale, des jeunes femmes en majorité, développent un dégoût de la nourriture et une perception faussée de l'image du corps. Or cette nouvelle étude, explique Craig Johnson, a permis d'identifier les groupes les plus à risque, notamment les jeunes filles âgées de 11 à 14 ans. "Les filles sont supposées prendre le tiers de leur poids d'adulte pendant cette période", soit environ 18 kilos, précise-t-il. "Si une jeune femme ne supporte pas bien cette prise de poids et qu'un proche, un professeur d'activité physique ou un petit ami fait des commentaires, cela peut provoquer une période de régime", "voie royale vers les troubles alimentaires".

Outre Tulsa, l'étude concerne les villes de Pittsburgh, New York, Philadelphie, Baltimore, Los Angeles, Toronto et Fargo, dans le Dakota du Nord. En Europe, Londres et Munich ont participé à ces travaux financés par les Instituts nationaux américains de santé.

AP

Un programme d'entraînement cognitif bon contre la maladie d'Alzheimer
Vendredi, 02/03/2007 - 00:00

C'est en septembre 2000 que trois Lyonnais - le Dr Bernard Croisile, neurologue aux HCL, Franck Tarpin-Barnard, maître de conférence en informatique à l'Insa, et l'ancien ministre et maire Michel Noir, titulaire d'un DEA en psychologie cognitive - ont créé, via la société STB (Scientific Brain Training), un programme d'entraînement des capacités mentales et cognitives baptisé Happyneuron. Depuis, ce programme s'est développé sur internet (par abonnement), sur CD-Rom, sur support papier et s'est décliné en plusieurs versions. L'une s'adresse au grand public, l'autre, plus simple, est utilisée par les professionnels de santé pour entraîner des personnes souffrant de pathologies mentales notamment des malades souffrant d'un début d'Alzheimer. C'est à cette version, accessible aux États-Unis sur Internet, que s'est intéressée une équipe de chercheurs américains.

Ces scientifiques et médecins de la ville de Des Moines (Iowa) ont étudié dix patients atteints d'un Alzheimer léger qui suivaient un traitement médicamenteux, un programme social et des séances régulières d'entraînement cognitif grâce aux exercices d'Happyneuron. Les résultats de cette étude, qui viennent d'être publiés, ont montré « une amélioration des capacités cognitives chez certains des patients », explique le Dr Croisile. Ces améliorations ont été constatées par imagerie cérébrale (Pet-Scan) et par examens neuropsychologiques. Chez l'un des patients, « un progrès significatif de l'activité cérébrale » a été constaté par imagerie cérébrale et par examen clinique.

L'équipe de recherche a privilégié une approche holistique incluant à la fois des échanges sociaux réguliers, des exercices physiques, un régime faible en graisse avec un supplément anti-oxydant et un entraînement cognitif reposant sur les jeux HAPPYneuron à raison de 3 fois par semaine durant 6 mois. Cette étude démontre la plasticité du cerveau humain ainsi que le potentiel énorme de la pratique d'exercices mentaux pour accroître les chances de conserver toute la vivacité de son cerveau en avançant en âge.

Décideurs en gérontologie

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top