RTFlash

RTFLASH Recherche & Technologie
NUMERO 601
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Juin 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Test mondial pour la nouvelle génération d'adresses IP
La réalité virtuelle, une technologie de plus en plus accessible
Avenir
Quand une molécule joue à la bascule…
De l'eau plus propre grâce aux nanotechnologies
Des nanoparticules biodégradables comme arme bactériologique
Matière
La sortie du nucléaire entraîne une hausse des émissions de CO2
Espace
Des pyramides égyptiennes découvertes depuis l'espace
Une gigantesque tempête observée en profondeur sur Saturne
Mars : une planète qui ne fait pas son âge
La Lune contient cent fois plus d'eau que prévu !
Terre
Emissions de CO2 : la France deuxième en Europe pour les voitures propres
Comment se nourissent les plantes ?
Vivant
Un nouveau staphylocoque doré résistant à l’antibiotique
Les rides prédiraient les risques de fracture osseuse chez les femmes
Découverte de l’ultra-mauvais cholestérol
Première thérapie ciblée pour le mélanome
Un destin de reine grâce à la royalactine
Les derniers échantillons du virus de la variole ne seront pas détruits
Les intuitions en géométrie sont universelles !
Une nouvelle avancée contre le VIH
Recherche
Le X3 d'Eurocopter aussi rapide qu'un avion à hélices
L'avion personnel à l'horizon 2030 : une réalité ?
Des boîtes noires dans toutes les voitures aux USA ?
Edito
Fukushima, acte 2



A Fukushima, les ingénieurs de Tepco ont découvert une situation bien plus grave que prévue : en mesurant les importants niveaux d'eau au sol, ils ont compris que l'enceinte de confinement du réacteur numéro 1 avait été percée et que les milliers de tonnes d'eau qu'ils déversent depuis des semaines sur le coeur du réacteur pour tenter de le refroidir s'échappaient en fait continuellement de la cuve. Cela signifie que le combustible situé au coeur du réacteur aurait fondu et une partie de ce magma, appelé corium, aurait même pu s'échapper de la cuve par les failles et se retrouver au contact du radier, un socle de béton de 8 mètres d'épaisseur sur lequel repose la structure.

Dans les numéros 2 et 3, la fonte du combustible ne se serait pas accompagnée, selon les constatations actuelles, de fuites de corium hors des cuves. L'étanchéité de ces deux réacteurs aurait toutefois aussi été compromise. A la lumière de cette situation alarmante, il faudra encore des mois de travail et d'efforts pour stabiliser et sécuriser tous les réacteurs de la centrale et 70 000 personnes supplémentaires vont devoir être évacuées au-delà de la zone des 20 km autour de la centrale pour tenir compte des niveaux de radioactivité très élevés enregistrés autour de la centrale. Par ailleurs, des niveaux de radioactivité plusieurs centaines de fois supérieurs à la normale ont été relevés début mai sur une bande de 300 kilomètres de fond marin au large de la centrale de Fukushima.

C'est dans ce contexte, qui confirme que la catastrophe nucléaire de Fukushima est de très grande ampleur et aura des conséquences majeures et durables pour la santé de plusieurs centaines de milliers ou de plusieurs millions de japonais, que plusieurs états européens viennent d'annoncer qu'ils renonçaient au nucléaire civil.

Le gouvernement suisse a annoncé que la totalité des réacteurs nucléaires actuellement en service en Suisse ne sera pas remplacée. Concrètement, les cinq réacteurs verront leur fonctionnement stopper d'ici 25 à 35 ans, "seulement", dans la mesure où ils satisferont aux critères de sécurité, à indiqué le gouvernement suisse. Entre-temps, la Suisse devra assurer son approvisionnement en développant davantage les énergies alternatives comme l'hydro-électricité, le solaire et l'éolien. Elle pourrait aussi compter sur les centrales de cogénération à gaz (chaleur / électricité) ou encore en optimisant l'énergie, par la mise en place de plans d'économie d'énergie.

Selon le gouvernement, cette sortie progressive du nucléaire devrait permettre à la Suisse d'assumer sa nouvelle politique énergétique. On mesure le défi énergétique qui attend la Suisse quand on sait que l'énergie hydraulique fournit plus de la moitié de l'électricité produite dans le pays, soit environ 56 %, contre 39 % pour le nucléaire. 80 % des Suisses soutiennent la décision du Conseil fédéral de sortir progressivement du nucléaire.

En Allemagne, la chancelière allemande Angela Merkel a confirmé le 30 mai son intention de renoncer à l’atome civil, qui assure actuellement 22 % des besoins en électricité du pays. Une « décision irréversible », selon le ministre de l’environnement Norbert Röttgen. Le parc des 17 réacteurs nucléaires du pays sera arrêté progressivement d’ici à 2022. Enfin le 25 mai, le Parlement italien a voté la suspension du programme nucléaire envisagé.

A toute chose malheur est bon et le Premier ministre japonais Naoto Kan a annoncé que son pays entendait porter à 20 % la part des énergies renouvelables dans sa production d'électricité d'ici aux années 2020, tirant la leçon de la catastrophe nucléaire de Fukushima. Pour y parvenir, le Japon entend réduire les coûts de production de l'énergie solaire à un tiers de son niveau actuel, d'ici à 2020, et à un sixième, d'ici à 2030. Selon le journal économique japonais Nikkei, le Japon envisage notamment de rendre obligatoire l'installation de panneaux solaires sur toutes les nouvelles constructions d'ici à 2030.

L'Allemagne, pour sa part, a développé une filière d'énergies renouvelables de plus de 36 milliards d'euros en 2009 (contre 13 mds en France). Ce pays a opté massivement pour l'éolien avec 26 gigawatts installés contre 4,5 GW en France en 2009 et, le photovoltaïque (10 GW contre 0,3 GW en France). La filière des énergies renouvelables emploie 2,5 fois plus de personnes qu'en France.

Dans un tel contexte et en dépit de l'audit européen sur la sûreté de nos centrales nucléaires, il semble peu probable que la France échappe, dans les mois et les années à venir, à ce débat démocratique nécessaire sur une éventuelle sortie du nucléaire. Dans le cas singulier de la France qui produit 75 % de son électricité (plus de 400 TWh par an) grâce au nucléaire, une telle sortie aurait un coût très élevé (200 à 300 milliards d'euros) et ne pourrait se concevoir que sur une très longue période, sans doute 30 ou 40 ans, mais elle n'en reste pas moins possible si notre nation, à l'issue d'un vrai débat, le décide.

Il faut cependant que nos concitoyens sachent qu'en supposant que la France parvienne à stabiliser sa consommation électrique à son niveau actuel (490 TWH par an), sortir du nucléaire sur 40 ans implique une production supplémentaire d'électricité renouvelable de 10 TWH par an jusqu'en 2050. Ce chiffre peut sembler abstrait mais il représente quand même, chaque année, la mise en service de 300 éoliennes marines et de 50 km2 de panneaux solaires photovoltaïques auxquels il faut ajouter l'adaptation de notre réseau et plusieurs dizaines de centrales thermiques combinées de nouvelle génération pour pouvoir pallier une chute de production solaire ou éolienne de grande ampleur. Techniquement, il est toutefois possible d’intégrer une grande quantité d’électricité provenant de sources renouvelables variables selon une nouvelle étude de l’Agence internationale de l’énergie (AIE) rendue publique à Bruxelles le 24 mai 2011.

Le Prochain Président de la République devra ouvrir ce débat difficile mais nécessaire et exposer clairement à nos concitoyens les enjeux mais aussi le coût économique et social très élevé d'un tel choix de société.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Test mondial pour la nouvelle génération d'adresses IP
Jeudi, 09/06/2011 - 14:17

Près de 400 entreprises et organisations dont Google, Facebook et Yahoo! participent ces jours-ci à un test de 24 heures visant à introduire une nouvelle génération d'adresses IP, ces numéros d'identification des appareils branchés à Internet qui sont en rupture de stock dans le monde. Ce test ne devrait pas avoir d'impact sur la majorité des utilisateurs. «Selon toute probabilité, vous n'allez même pas remarquer qu'il y a un test», indique Google sur son blog. Selon son ingénieur Lorenzo Colitti, seuls 0,05 % des utilisateurs pourraient avoir du mal à accéder aux sites participant aux tests.

Une adresse IP est un numéro attribué à chaque appareil branché à Internet qui permet d'identifier les destinations du trafic Internet à travers le monde. Il existe des adresses IP de version 4 (IPv4) et 6 (IPv6). Les adresses IPv4 étant bientôt en rupture de stock, il s'agit de recourir aux adresses IPv6.

L'objectif du test, explique l'Internet Society à l'origine de cette journée, «est de pousser les acteurs de l'Internet à se préparer» au nouveau standard «IPv6 pour assurer le succès de la transition», peut-on lire sur le site internet de cette association dédiée au développement d'Internet. Le test de 24 heures a commencé dans la nuit de mardi à mercredi à 00H00 GMT.

L'ingénieur réseau de Facebook Donn Lee a déclaré que cette journée test («IPv6 day») allait «permettre à l'industrie Internet d'avoir un bon aperçu des éventuels problèmes que les adresses IPv6 pourraient soulever, de trouver des solutions et d'accélérer l'adoption mondial du standard IPv6». Selon lui, 99,97 % des utilisateurs de Facebook ne seront pas touchés par la journée de test.

Le standard actuel IPv4 permet l'existence de «seulement» 4 milliards d'adresses IP. Cela fait plusieurs années que l'organisme chargé de réglementer les noms de domaine de l'Internet, l'Icann, demande l'adoption du nouveau standard IPv6, qui permet l'existence d'environ 340 sextillions d'adresses, suffisamment pour que mille milliards de gens disposent chacun de mille milliards d'adresses IP.

L'organisme avait annoncé en février qu'il avait distribué ses cinq derniers lots d'adresses IP soit un réservoir de plus de quatre milliards d'adresses Internet. Les adresses au standard IPv4 devaient commencer par être épuisées en Asie, où la demande connaît la plus forte expansion.

Cyberpresse

La réalité virtuelle, une technologie de plus en plus accessible
Vendredi, 03/06/2011 - 07:44

Le périphérique Kinect de Microsoft était omniprésent cette année sur les stands des rencontres Laval Virtual. Le rendez-vous annuel de la réalité virtuelle a marqué la stratégie claire des professionnels du secteur : ils souhaitent abaisser les coûts d’entrée de la technologie en s’appuyant ouvertement sur les outils issus du grand public et des jeux vidéo. Avant même que Microsoft ne publie le kit de développement officiel de Kinect pour Windows, les éditeurs se sont saisis du système, mais avec plus ou moins de succès. Car si le périphérique destiné à la console xBox 360 fonctionne bien dans un salon, il a montré ses limites en termes de fiabilité et de précision dans un univers aussi saturé d’infrarouges que la manifestation Laval Virtual.

Qu’à cela ne tienne, le système de Microsoft a démontré sa pertinence dans des applications de serious game. Ainsi, le projet V3S (Virtual Reality for Safe Seveso Substractors) a prouvé son intérêt pour simuler la connexion d’un tuyau sur une vanne de camion citerne. Les chercheurs du List (Laboratoire d’intégration des systèmes et des technologies – CEA) et de Renault ont présenté un prototype de réalité virtuelle à faible coût : un simple PC, un périphérique Kinect et une TV 3D plasma suffisent désormais à monter une application de réalité virtuelle. Si la manipulation d’un modèle 3D de véhicule s’avérait plutôt ludique, l’autre application, où l’opérateur emboîtait des pièces les unes dans les autres, était bien plus complexe et aléatoire, l’opérateur gesticulant en tous sens pour réaliser une opération ne posant finalement aucune difficulté en situation réelle.

Cette voie n’est pas suivie seulement par les équipes de recherche. Ainsi, Gilles Houdent, responsable des ventes France de la gamme 3Dvia, appuie la position de Dassault Systèmes : « Nous travaillons sur une application développée sur 3Dvia Studio, avec Kinect pour suivre les mouvements de l’utilisateur, afin d’organiser des formations sur des métiers à risque. » Ce type d’application met habituellement en œuvre des capteurs infrarouges plus performants mais bien plus coûteux que l’extension de la Xbox : « Le périphérique Kinect est une solution grand public, stable et simple à mettre en œuvre. Le prix d’entrée des serious games baisse pour l’industrie », ajoute Gilles Houdent. Cette poussée vers les technologies grand public ne concerne pas seulement le système Kinect et les TV 3D.

Quand Kinect devient « serious », la Wiimote et le logiciel poursuivent l’offensive. Ainsi, l’éditeur Play All propose son moteur 3D, jusqu’alors exploité par les éditeurs de jeux Darkworks et Kylotonn. « Notre technologie est adaptée aux professionnels spécialisés dans le serious game, la réalité augmentée, la mise en avant de produit », explique Hubert Sarret, directeur technique de Play All. Pour assurer le passage entre CAO et réalité virtuelle, l’éditeur français Deltacad démontrait les capacités de GPure, un logiciel qui allège les modèles 3D d’Airbus, d’EADS ou de Renault, les clients de l’éditeur, pour les charger dans ces applications de réalité virtuelle.

01net

^ Haut
Avenir
Nanotechnologies et Robotique
Quand une molécule joue à la bascule…
Lundi, 06/06/2011 - 19:37

Charger et décharger une molécule à la demande et changer sa forme : voici un atout de choix dans la course à la miniaturisation dont se sont dotés les chercheurs du Centre d'élaboration de matériaux et d'études structurales (Cemes) du CNRS. En plus de charger une molécule unique, à volonté et de manière absolument réversible, ces derniers ont su démontrer le lien entre cette charge et la forme géométrique de la molécule. La molécule peut donc être vue comme un bit d'information ou un système électromécanique de taille nanométrique. Ce jeu de bascule moléculaire parfaitement maîtrisé s'avère très intéressant pour la réalisation de mémoires ultra-denses ou de nano moteurs. Ces résultats sont publiés dans la revue Physical Review Letters.

Ce qu'ont réalisé les chercheurs du Centre d'élaboration de matériaux et d'études structurales du CNRS (Cemes) à Toulouse est appelé un commutateur moléculaire. Il s'agit d'une molécule qui peut indifféremment adopter un état A ou un état B par l'action d'un stimulus extérieur. Dans cette expérience, les états correspondent à deux géométries différentes de la molécule : elle conserve sa composition mais change simplement de forme. Pour induire ce changement, il faut ici ajouter un électron à la molécule (stimulus extérieur). En ajoutant un électron à la molécule, on introduit une force de répulsion supplémentaire. Certains atomes vont donc s'éloigner les uns les autres et la molécule changera de forme, passant d'une configuration plane et carrée à une configuration pyramidale plus volumineuse.

D'un point de vue technique, l'opération est rendue possible grâce à l'utilisation d'un microscope à effet tunnel. Il sert à la fois de caméra pour mettre en évidence la forme de la molécule et aussi d'outil permettant l'injection d'électrons : avec une tension électrique appliquée par la pointe du microscope, la molécule acquiert un électron et change de forme pour devenir pyramidale. Le processus est complètement réversible : en appliquant une tension opposée, l'électron est retiré de la molécule et celle-ci retrouve sa forme plane et une charge neutre. Les chercheurs du CNRS ont effectué des mesures de l'état de charge de la molécule dans ces deux configurations en utilisant un microscope à force atomique et démontré ce lien étroit entre état de charge et forme géométrique de la molécule.

Ce commutateur ouvre la voie à de nombreuses applications dont la synthèse d'unités de mémoire élémentaires à l'échelle d'une molécule. Cette capacité de la molécule à piéger une charge et la restituer à la demande permet d'envisager le codage d'informations binaires. En plus de ces applications en électronique moléculaire, il est possible d'exploiter la transformation géométrique de la molécule pour fabriquer une machine moléculaire. Le contrôle du transfert de charge qui pilote la transformation géométrique permettrait par exemple la réalisation d'un moteur pas à pas.

CNRS

De l'eau plus propre grâce aux nanotechnologies
Samedi, 04/06/2011 - 01:10

L'agriculture consomme plus de 70 % de l'eau utilisée dans le monde. La plus grande partie est utilisée pour l'irrigation et la pulvérisation de fertilisants, pesticides et autres produits chimiques conçus pour protéger les cultures et augmenter la récolte. La protection des cultures joue un rôle vital dans la chaîne alimentaire mondiale. Sans elle, on estime que 40 % de la population mondiale mourrait de faim.

Le fait que la majorité des herbicides et des pesticides contiennent des produits chimiques pouvant s'infiltrer dans les nappes phréatiques est au cœur de la question de la protection des cultures. Ces produits chimiques sont nécessaires pour aider le principe actif à se dissoudre dans l'eau pour pouvoir être absorbé par les cultures. Un nouveau processus créé par Vive Inc, basée en Ontario, élimine simplement et proprement le besoin de cette soupe chimique.

Le processus de Vive Nano emballe le principe actif de l'herbicide ou du pesticide d'une « nano-cage » en polymère biodégradable à l'échelle du nanomètre, ce qui lui permet de se dissoudre dans l'eau. Le résultat est un potentiel d'eau de ruissellement plus propre et une contamination des nappes phréatiques réduite, ce qui signifie plus d'eau propre sûre disponible pour un monde de plus en plus assoiffé. « Nous avons une technologie révolutionnaire qui est verte du début à la fin. Nous protégeons ainsi efficacement et écologiquement les cultures », indique Keith Thomas, Pdg de Vive Nano. « La beauté de notre procédé est qu'il est industriellement solide. Au début, nous l'avons même testé en fabriquant des composants dans des bennes à ordures. Maintenant, nous utilisons des cuves venant d'une vieille brasserie », poursuit Thomas.

Enerzine

Des nanoparticules biodégradables comme arme bactériologique
Samedi, 04/06/2011 - 01:00

Des chercheurs issus de l'Institute of Bioengineering and Nanotechnology (IBN), un institut singapourien du BMRC de l'Agence singapourienne pour la Science, la Technologie et la Recherche (A*STAR) et de IBM Research - Almaden, situé près de San José en Californie (USA), ont développé des nanoparticules à base de polymères biodégradables, afin de combattre des super bactéries résistantes aux antibiotiques conventionnels, telle que la "Methicillin-Resistant Staphylococcus aureus" (MRSA). Ces bactéries sont très présentes sur la peau et peuvent être contractées dans de nombreux lieux publics tels que les écoles ou les hôpitaux.

Ces polymères synthétiques, qui transportent donc des charges de médicaments, possèdent des propriétés antimicrobiennes très intéressantes et un mode d'interaction aux cellules infectées particulier dont voici le mécanisme :

1) Dans l'organisme, ils s'auto-assemblent d'abord en nanoparticules quand ils se dissolvent dans l'eau. Avant d'interagir avec la membrane bactérienne, contrairement à d'autres polymères, ces nanoparticules créent donc de nouvelles structures qui sont attirées vers la membrane des cellules infectées par le biais d'interactions électrostatiques. La structure cible ainsi sélectivement.

2) Avec précision, les antibiotiques peuvent ainsi pénétrer dans la cellule et la détruire de l'intérieur après avoir été déposés par les nanoparticules.

3) Les nanoparticules, étant biodégradables, sont ensuite éliminées naturellement par le corps.

A noter que ces nanoparticules ont la capacité d'éliminer des bactéries sans provoquer d'hémolyse, c'est-à-dire sans détruire de globules rouges sains, et, étant biodégradables, elles ont un grand potentiel pour traiter des maladies infectieuses in-vivo. Comme seule une faible concentration est requise, leur toxicité pour l'organisme humain est limitée.

Cette découverte de première importance a été conçue en 2007 et les polymères antimicrobiens ont été testés sur des échantillons cliniques microbiens par le State Key Laboratory for Diagnosis and Treatment of Infectious Diseases, First Affiliated Hospital, College of Medicine lié à l'université de Zhejiang en Chine.

Bulletins Electroniques

^ Haut
Matière
Matière et Energie
La sortie du nucléaire entraîne une hausse des émissions de CO2
Mardi, 07/06/2011 - 07:26

En décidant de sortir du nucléaire, l'Allemagne va devoir réorienter sa politique énergétique. Un choix qui pourrait conduire à l'émission de jusqu'à 480 millions de tonnes de dioxyde de carbone supplémentaires d'ici 2020.

Lundi 30 mai, l'Allemagne a décidé d’abandonner progressivement l’énergie nucléaire. Sept réacteurs, mis à l’arrêt en mars pour un audit, ne seront pas reconnectés. Les dix autres fermeront d’ici 2022. Pour subvenir à ses besoins énergétiques, la quatrième puissance économique mondiale devra compenser avec d'autres sources énergétiques. Nicolas Berghmans, chargé de recherche à CDC climat, filiale de la Caisse des dépôts créée pour lutter contre le changement climatique, analyse les conséquences de ce changement de politique en terme d'émissions de carbone.

Sept réacteurs nucléaires ont déjà été déconnectés du réseau électrique. Quelles sont les solutions immédiates de remplacement pour l'Allemagne ?

N.B. Les centrales thermiques à combustion sont les seules à pouvoir prendre le relais immédiatement. La mise en oeuvre de nouveaux moyens de production prend du temps. L’Allemagne doit donc faire avec les systèmes existants. Actuellement, l’électricité du pays provient pour 61 % des centrales thermiques à combustion (gaz et charbon), pour 23 % du nucléaire et pour 16 % des énergies renouvelables (hydraulique, éolien, solaire, etc.). La part de ces dernières ne peut guère augmenter du fait des contraintes naturelles (les réservoirs d’eau ne peuvent se remplir plus qu’ils ne le sont, les vents ne souffleront pas davantage...). C'est donc vers les centrales thermiques que va se tourner l'Allemagne. Or, ce sont elles qui émettent le plus de dioxyde de carbone.

À combien s’élèvera le surplus de CO2 émis ?

N.B. Selon les calculs préliminaires que nous venons de réaliser, environ 40 millions de tonnes de CO2 supplémentaires seront émises en 2012 par le secteur électrique allemand. Nous avons supposé que le déficit d'énergie produite par les sept réacteurs fermés sera compensé par les centrales thermiques à combustion existantes, et qu’aucune importation ne se fera depuis les pays voisins. Ces émissions s’ajouteront aux quelque 300 millions de tonnes de CO2 rejetées chaque année par le secteur électrique allemand. Un chiffre qui est déjà, du fait de la prédominance des centrales thermiques à combustion, parmi les plus élevés d’Europe : environ 500 grammes de CO2 sont émis par kilowattheure produit (kWh) en Allemagne, contre 359 g/kWh sur l’ensemble des pays européens et moins de 100 g/kWh en France.

Qu’en sera-t-il à plus long terme ?

N.B. Tout dépendra des choix énergétiques que fera l’Allemagne dans les mois qui viennent. Plusieurs scénarios sont possibles, plus ou moins polluants. Mais plus le pays tardera à prendre une décision quant au remplacement de son parc de production nucléaire, plus sa facture carbone risque d’être lourde. Car ce sera autant de temps où les centrales à charbon et à gaz continueront de fonctionner à plein régime.

Au final, avec la fermeture des dix autres réacteurs, quelle quantité de CO2 supplémentaire sera émise par le secteur électrique allemand ?

N.B. En prenant en compte l'arrêt échelonné de tous les réacteurs, on estime qu'il pourrait émettre entre 320 et 480 millions de tonnes de CO2 supplémentaires d’ici 2020, en fonction de la part respective des nouvelles centrales à charbon et à gaz (moins émettrices de CO2) et des énergies renouvelables. D’où l’importance, dans l’hypothèse d’une sortie du nucléaire, de repenser dès à présent les politiques énergétiques, et pas seulement en Allemagne.

Propos recueillis par Fabienne Lemarchand et Fabien Goube pour la Revue La Recherche

La Recherche

^ Haut
Espace
Espace et Cosmologie
Des pyramides égyptiennes découvertes depuis l'espace
Mercredi, 08/06/2011 - 07:45

L'utilisation d'images satellites infrarouges a permis de révéler la présence de dix-sept pyramides, de plus de mille tombeaux et de trois mille petits villages dans le sous-sol égyptien.

En 2007, l'égyptologue américaine Sarah Parcak tire la sonnette d'alarme : l'urbanisation galopante menace le patrimoine archéologique égyptien. Le sous-sol regorgerait en effet, selon elle, de trésors détruits avant même d'avoir été découverts. Seule la «pointe de l'iceberg» archéologique serait visible : les temples d'Abou-Simbel, de Louxor, les pyramides de Giseh - Kheops, Kephren et Mykérinos -, etc. Elle est alors la première à utiliser les images satellites infrarouges que lui fournit la Nasa pour repérer les restes encore enfouis de l'ancienne civilisation égyptienne. Dans un documentaire diffusé par la BBC, la chercheuse de l'université américaine d'Alabama à Birmingham révèle l'ampleur de ses découvertes à ce jour : plus de 1000 tombeaux, 3000 hameaux et 17 pyramides.

La technique employée est relativement simple. Des satellites situés à 700 kilomètres d'altitude récupèrent le rayonnement infrarouge émis par la terre. Ces gammes d'ondes, invisibles à l'œil nu, permettent de repérer les différences de densité du sous-sol. Or «les Égyptiens utilisaient pour leurs constructions des briques de terre beaucoup plus denses que le sol», explique Sarah Parcak. L'analyse du rayonnement infrarouge révèle ainsi l'existence de véritables villes en pleine campagne ou à la périphérie de villes existantes.

La méthode infrarouge validée depuis plusieurs années

Des fouilles ont déjà permis de confirmer l'existence d'une partie de ces sites. Deux pyramides ont ainsi été mises au jour. «Découvrir une pyramide est le rêve de tout archéologue», se souvient l'égyptologue. Les deux monuments se trouvaient tout près du site très connu de Saqqarah, au nord de la vallée du Nil, mais dans une zone qui n'avait jamais intéressé les autorités égyptiennes. L'excavation quelques années plus tôt, sur les indications de Sarah Parcak, d'une maison vieille de 5000 ans à Tanis, un site archéologique au nord du pays, les ont toutefois convaincus de faire confiance à la chercheuse. Depuis, ils utilisent eux-mêmes cette méthode afin de protéger le patrimoine archéologique encore enseveli.

De nombreuses pyramides, au moins 15, et des villes entières doivent d'ailleurs encore faire l'objet de fouilles. «Tout cela montre à quel point la taille et le nombre des zones urbanisées ont pu être sous-estimés», souligne la chercheuse. Et il ne s'agit là que des sites situés proches de la surface. Le Nil pourrait bien avoir recouvert de sa vase de nombreux autres sites situés aujourd'hui à des profondeurs plus importantes. «Les satellites nous permettent désormais de voir les choses en grand», se félicite Sarah Parcak.

Le Figaro

Une gigantesque tempête observée en profondeur sur Saturne
Lundi, 06/06/2011 - 19:06

Le très grand télescope de l’ESO (VLT) a fait équipe avec la sonde Cassini de la NASA pour étudier de manière bien plus détaillée que jamais une rare tempête située dans l’atmosphère de la planète Saturne. Cette nouvelle étude, réalisée par une équipe internationale, est publiée dans le journal Science.

L’atmosphère de Saturne apparait habituellement tranquille et calme. Toutefois, une fois par « année saturnienne » (trente années terrestres), alors que le printemps arrive sur l’hémisphère nord de la planète géante, quelque chose s’agite profondément en dessous des nuages et conduit à une spectaculaire et importante perturbation de la planète.

La dernière tempête de ce type a tout d’abord été détectée en décembre 2010 par les instruments radio et plasma de la sonde Cassini de la NASA, en orbite autour de la planète, et a également été suivie par des astronomes amateurs. Elle a maintenant été étudiée en détail avec la caméra infrarouge VISIR du VLT (Very Large Telescope) de l’ESO conjointement avec des observations de l’instrument CIRS de la sonde Cassini. C’est seulement la sixième de ces gigantesques tempêtes à avoir été repérée depuis 1876. C’est la toute première à avoir été étudiée dans l’infrarouge thermique -pour observer les variations de température dans cette tempête saturnienne- et la première à avoir été observée par une sonde en orbite.

« Cette perturbation située dans l’hémisphère nord de Saturne a engendré une gigantesque, violente et complexe éruption de nuages brillants, qui s’est propagée pour encercler la planète dans son ensemble, » explique Leigh Fletcher (Université d’Oxford, Royaume-Uni), premier auteur de cette nouvelle étude. « Avec le VLT et Cassini en train d’étudier cette tempête en même temps, nous avons eu la chance exceptionnelle de pouvoir resituer les observations de Cassini dans leur contexte. Les précédentes études de ces tempêtes ont juste pu utiliser la réflexion de la lumière solaire, mais cette fois, en observant le rayonnement infrarouge thermique pour la première fois, nous avons pu dévoiler des régions cachées de l’atmosphère et mesurer les changements réellement substantiels de températures ainsi que des vents liés à cet événement. »

La tempête a dû se former en profondeur dans des nuages d’eau où un phénomène semblable à un orage a conduit à la création d’un panache de vapeur : exactement comme l’air chaud monte dans une pièce chauffée, cette masse de gaz s’est développée vers le haut et a transpercé la haute atmosphère de Saturne habituellement sereine. Ces énormes perturbations interagissent avec les vents qui se déplacent d’est en ouest et provoquent d’importants changements de température très haut dans l’atmosphère.

« Nos nouvelles observations montrent que la tempête a un effet important sur l’atmosphère, en transportant de l’énergie et de la matière sur de grandes distances. Elle modifie les vents atmosphériques - créant des courants sinueux et formant des tourbillons géants - et perturbe la lente évolution des saisons de Saturne, » ajoute Glenn Orton (Jet Propulsion Laboratory, Pasadena, USA), un autre membre de l’équipe.

Quelques unes de ces structures inattendues que l’on voit sur cette nouvelle image de VISIR ont été appelées balises stratosphériques. Ce sont de forts changements de température, hauts dans l’atmosphère de Saturne (250-300 km au dessus des nuages de la basse atmosphère) qui montrent à quel point les effets de la tempête s’étendent haut dans l’atmosphère. La température dans la stratosphère de Saturne se situe normalement autour de -130 degrés Celsius à cette saison, mais les mesures au niveau des balises sont de 15 à 20 degrés Celsius supérieures. Les balises sont totalement invisibles dans la lumière réfléchie du Soleil, mais elles peuvent éclipser l’émission du reste de la planète dans l’infrarouge thermique détectée par VISIR. Elles n’ont jamais été détectées avant et de ce fait, les astronomes ne sont pas sûrs qu’il s’agisse de structures habituelles dans les tempêtes de ce type.

« Nous avons eu la chance d’avoir du temps d’observation programmé au début de l’année 2011, que l’ESO nous a permis d’avancer, de telle sorte que nous avons pu observer la tempête aussitôt que possible. Nous avons également eu la chance que l’instrument CIRS de Cassini ait pu observer la tempête au même moment. Nous avons ainsi des images du VLT et de la spectroscopie de Cassini pour comparer, » conclut Leigh Fletcher. « Nous allons continuer à observer cet événement qui se produit une fois par génération. »

Science.gouv

Mars : une planète qui ne fait pas son âge
Samedi, 04/06/2011 - 01:30

Selon une étude publiée dans la revue Nature, la planète Mars se serait formée dans un temps extrêmement court après la formation du système solaire. Les scientifiques croyaient jusqu'alors que la planète rouge s'était formée en 15 millions d'années. Toutefois, en analysant la composition des météorites d'origine martienne, des géophysiciens en sont arrivés à la conclusion que Mars aurait pris seulement de 2 à 4 millions d'années pour se former. En comparaison, la Terre a mis entre 50 et 100 millions d'années à atteindre sa taille actuelle.

On peut entre autres expliquer cette différence par le fait que Mars, qui a 6800 kilomètres de diamètre, est beaucoup plus petite que la Terre, qui en a 12 700. Ainsi, la Terre aurait progressivement grossi en s'agglomérant pendant des dizaines de millions d'années avec tous les petits corps rocheux avec lesquels elle entrait en collision, ce qui n'aurait pas été le cas de Mars.

Pour découvrir l'âge de Mars, les scientifiques se sont basés sur le temps de désintégration radioactive du hafnium 182. Neuf millions d'années sont nécessaires pour qu'une moitié de cet élément devienne du tungstène 182, alors que 50 millions d'années doivent passer pour que le hafnium 182 disparaisse totalement.

Radio-Canada

La Lune contient cent fois plus d'eau que prévu !
Samedi, 04/06/2011 - 01:20

L'intérieur de la Lune contient, toutes proportions gardées, autant d'eau que les profondeurs du globe terrestre, selon des travaux publiés jeudi 26 mai, qui remettent en question la théorie de la formation du seul satellite naturel de la Terre. Cette découverte montre aussi que la Lune renferme cent fois plus d'eau qu'on ne le pensait jusqu'ici. Les auteurs de l'étude sont parvenus à ces conclusions après avoir trouvé des molécules d'eau ainsi que d'autres éléments volatils à l'intérieur de magma prisonnier dans des obsidiennes, des petites billes de cristal volcanique, ramenées par des astronautes d'Apollo 17, dernière mission sur la Lune en décembre 1972.

"Ces échantillons de magma (éjectés des grandes profondeurs lunaires par l'activité volcanique il y a plusieurs milliards d'années, ndlr) sont la meilleure mesure dont nous disposions pour évaluer la quantité d'eau à l'intérieur de la Lune", explique James Van Orman, professeur de géologie à la Case Western Reserve University (Ohio, nord), un des auteurs de cette recherche.

"L'intérieur lunaire semble être assez similaire à l'intérieur de la Terre quant à ce que nous savons sur l'abondance d'eau", ajoute-t-il dans cette communication parue dans Science Express, la version en ligne de la revue scientifique américaine Science. En fait, ces chercheurs ont trouvé dans le magma lunaire des concentrations d'eau et d'éléments volatils comme du fluor, du chlore et du soufre, quasiment identiques à ce qui a été mesuré dans du magma solidifié provenant des dorsales océaniques terrestres.

"Cette étude prouve l'hypothèse avancée par une précédente recherche (parue dans la revue britannique Nature en 2008, ndlr) selon laquelle la quantité d'eau primitive contenue dans le magma lunaire est similaire à celle qui se trouve dans la lave volcanique provenant de la partie supérieure du manteau terrestre", souligne Alberto Saal, un géologue de l'Université Brown (Rhode Island, nord-est), un des auteurs.

"L'eau joue un rôle essentiel pour déterminer l'activité tectonique à la surface des planètes, les endroits où la roche est en fusion dans les profondeurs de la planète ainsi que l'emplacement et le type d'éruptions volcaniques", explique Erik Hauri, un géochimiste de la Carnegie Institution à Washington, qui a dirigé l'équipe de recherche. "Ces échantillons de plasma préservés dans ces billes de cristal volcanique éjectés par des éruptions volcaniques devraient être les matériaux les plus importants à ramener sur la Terre pour analyse dans le cadre de missions d'exploration car ils sont présents non seulement sur la Lune mais dans tout le système solaire", poursuit-il.

Cette découverte conforte la théorie selon laquelle la Terre et la Lune ont bien une origine commune mais force aussi les scientifiques à reconsidérer le processus de formation du seul satellite naturel de notre planète. Jusqu'à cette avancée, ils supputaient qu'une énorme collision d'un astéroïde avec la Terre avait éjecté suffisamment de matériaux sur orbite qui, en s'agglutinant, auraient formé la Lune. Mais la nouvelle découverte semble infirmer cette hypothèse en montrant que l'intérieur de la Lune ressemble beaucoup à celui de la Terre.

Cette découverte pourrait aussi changer la théorie qui prévaut concernant l'origine de l'eau gelée détectée dans des cratères situés près des deux pôles lunaires lors de plusieurs missions récentes de la Nasa. Les scientifiques pensaient que cette eau provenait de comètes et de météorites qui se sont écrasées sur le sol lunaire au cours du temps. Désormais, il est très possible d'imaginer que cette glace provienne de l'eau libérée par des éruptions de magma lunaire, relèvent les auteurs de l'étude.

Le Nouvel Observateur

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Emissions de CO2 : la France deuxième en Europe pour les voitures propres
Jeudi, 09/06/2011 - 14:05

La prime à la casse, le bonus-malus et l’arrivée de véhicules hybrides sur le marché ont permis à la France de se hisser en 2010 au 2e rang du marché des voitures neuves les moins émettrices de CO2 de l’UE, selon le classement présenté récemment par l’Ademe. La moyenne européenne des émissions de CO2 des véhicules neufs a baissé de 45 g en 15 ans pour s’établir en 2010 à 141 g, soit 5 g de moins qu’en 2009, selon la 10e édition de ce palmarès établi par l’Agence de l’environnement et de la maîtrise de l’énergie. La France arrive au 2e rang avec 130 g de CO2 par kilomètre parcouru, ex-aequo avec le Danemark et derrière le Portugal à 129 g.

« Mais il y a encore des pays en Europe avec des taux de 150 g CO2/km et plus, le Luxembourg (150), l’Allemagne (152) et la Suède (153) », a souligné Patrick Coroller, chef du département transports de l’Ademe. « Ce sont des pays qui ont une culture des grosses berlines comparé à ce qu’on connaît en France et en Italie par exemple », a-t-il ajouté.

« En France, note l’Ademe, le dispositif bonus-malus, première mesure du Grenelle de l’environnement, a eu un fort impact sur l’évolution du marché et les bons résultats en matière d’émission moyenne de CO2 des voitures particulières ». « Six constructeurs automobiles remplissent déjà les objectifs d’émission fixés par l’UE pour 2015 (émission inférieure ou égale à 130 g CO2/km), et les Français PSA et Renault sont dans le peloton de tête », s’est réjoui M. Coroller.

Le Progrès

Comment se nourissent les plantes ?
Vendredi, 03/06/2011 - 07:34

Selon une nouvelle étude publiée dans la revue Nature, une équipe européenne de recherche est parvenue à révéler comment une famille de protéines fonctionne, ce qui avait été un mystère jusqu'à présent. En utilisant la plante modèle Arabidopsis thaliana, l'équipe a été capable de montrer comment ces protéines étaient essentielles pour la construction des micro-filets étanches au niveau des racines d'une plante. Ces filets permettent à la plante de filtrer les nutriments du sol et de la protéger des micro-organismes dangereux.

Des chercheurs de Belgique, d'Allemagne, des Pays-Bas et de Suisse ont uni leurs forces dans le cadre de l'étude, soutenue partiellement dans le cadre du projet PLANT-MEMB-TRAFF («Plant endomembrane trafficking in physiology and development»), qui a reçu une subvention de démarrage du CER (Conseil européen de recherche) d'une valeur de 1 199 889 euros au titre du domaine thématique «Idées» du septième programme-cadre (7e PC).

Les protéines découvertes par les scientifiques sont un groupe de protéines transmembranaires que l'équipe a appelé CASP (Casparian strip membrane domain proteins) en raison de leur emplacement sur les bandes caspariennes, des bandes de matériel membranaire cellulaire spécialisé présent dans l'endoderme des racines qui génèrent un obstacle de diffusion extracellulaire. Le rôle principal de l'endoderme radical est de gérer la consommation de nutriments et la résistance au stress. L'équipe a pu identifier les CASP grâce à une technique de marcation fluorescente. Ils ont découvert que ces protéines étaient codées par cinq gènes différents et jouaient un rôle essentiel dans la formation des bandes caspariennes.

«Ces structures sont comparables à des articulations qui contribuent à l'étanchéité des espaces entre l'endoderme radical», explique Niko Geldner, l'un des chercheurs du projet. «Les CASP forment une sorte de treillis sur lequel les autres protéines viennent se fixer pour former une séquence qui mène à la création d'un barrage routier tridimensionnel efficace.» Cette découverte fascinante nous permettra de mieux comprendre comment les racines parviennent à sélectionner les bons nutriments et à éliminer les mauvais. En d'autres termes, nous comprendrons comment les plantes se nourrissent. Étant donné que la majorité des plantes fonctionnent de manière relativement similaire, ces résultats ont des implications pour la recherche en agriculture durable dans le contexte de la manière dont le riz, le maïs, le blé et même les tomates se nourrissent quotidiennement.

Les chercheurs du projet PLANT-MEMB-TRAFF expliquent également que les comparaisons actuelles entre la levure et les animaux ne nous offrent pas d'idée cohérente ou fiable sur les bases fondamentales ou les dérives de l'organisation des membranes eucaryotiques. Ainsi, la recherche impartiale sur le trafic au sein des membranes végétales est nécessaire et peut apporter des informations sur un type supplémentaire de cellules eucaryotiques et offrir une meilleure appréciation de l'évolution de l'organisation de la membrane eucaryotique. «Enfin, l'idée serait d'améliorer l'absorption de nutriments en développant des plantes nécessitant moins d'eau et d'engrais, pour une meilleure agriculture plus durable», commente Niko Geldner.

Cette recherche est particulièrement intéressante car elle marque une véritable percée dans les connaissances scientifiques. La première description des bandes caspariennes avait été faite il y a plus de 150 ans par le botaniste Robert Caspary en 1865, mais les mécanismes et fonctionnements internes de leurs protéines étaient restés inconnus jusqu'à présent.

CORDIS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouveau staphylocoque doré résistant à l’antibiotique
Jeudi, 09/06/2011 - 07:38

Une nouvelle souche de staphylocoque doré résistant à la méticilline a été découverte chez des vaches laitières et chez l’homme au Royaume-Uni et au Danemark.

Selon une étude publiée récemment dans la revue britannique The Lancet Infectious Diseases, cette nouvelle souche de SARM (Staphylococcus aureus résistant à la méticilline) « pose potentiellement un problème de santé publique », a souligné Mark Holmes, spécialiste en médecine vétérinaire à l’Université de Cambridge, lors d’une conférence de presse à Londres. « Non pas parce qu’elle a été détectée dans du lait de vache : la pasteurisation tue la bactérie et il n’y a quasiment aucun risque de contamination humaine par la nourriture. Boire du lait ou manger de la viande ne présente pas de risques en termes de santé, a-t-il assuré à condition que le lait soit pasteurisé ».

La véritable inquiétude provient du fait que le test génétique de dépistage couramment utilisé (PCR ou réaction en chaîne par polymérase) ne permet pas d’identifier que la nouvelle souche est résistante à la méticilline. Ce qui veut dire que si un laboratoire s’en tenait à ce seul test, la résistance à la méticilline pourrait passer inaperçue, conduisant à un traitement antibiotique inapproprié, et à une aggravation de l’état du malade. Mark Holmes a appelé à conduire systématiquement le test classique de mise en culture, et à adapter les tests PCR à la nouvelle souche (mecA – LGA251).

Autre enseignement de l’étude : les bovins sont soupçonnés d’être à la source de l’apparition de la bactérie, motivant une vigilance accrue pour les personnes travaillant à leur contact dans les fermes. La nouvelle souche a en effet été détectée dans du lait de vaches souffrant de mammite, ou mastite, une inflammation des mamelles. Les chercheurs ont étudié 940 échantillons provenant de 465 troupeaux. Aucun n’était porteur du SARM classique, mais 13 d’entre eux se sont révélés porteurs de la nouvelle souche.

Parallèlement, des tests menés sur des échantillons humains (Danemark et Royaume-Uni) ont montré la présence de la nouvelle souche dans 51 échantillons. Plusieurs éléments, comme la proximité géographique des cas humains et animaux, laissent soupçonner que les bovins pourraient être à l’origine de la contamination humaine, relève l’étude.

Le Soir

Les rides prédiraient les risques de fracture osseuse chez les femmes
Jeudi, 09/06/2011 - 07:28

L'abondance et la profondeur des rides sur le visage et le cou peuvent aider à prédire les risques de fracture osseuse chez les femmes, selon une étude américaine publiée récemment. L'explication tiendrait au fait que le niveau de protéines contenues dans la peau est lié à celui de protéines contenues dans les os, selon les auteurs de cette étude, qui en déduisent que si le visage et le cou d'une femme sont marqués par des rides profondes, elle présente un plus grand risque de fracture pour cause de perte de densité osseuse.

Les chercheurs de l'université Yale ont examiné 114 femmes ménopausées, dont la date des dernières règles remontait à moins de trois ans, dans le cadre d'un essai clinique toujours en cours aux États-Unis. Ils ont étudié la peau des patientes en 11 points du visage et du cou, à la fois visuellement et en utilisant un appareil permettant de mesurer l'élasticité de la peau du front et des joues. La masse et la densité osseuses ont été mesurées par échographie et rayons X. "Nous avons découvert que, lorsque les rides devenaient plus nombreuses et plus profondes, c'était lié à une perte de densité osseuse chez les participantes à l'étude", a expliqué Lubna Pal, professeur d'obstétrique, de gynécologie et fertilité à la faculté de médecine de Yale. "Plus les rides sont nombreuses, plus la densité osseuse diminue, indépendamment de l'âge ou d'autres facteurs influençant la masse osseuse", selon cette chercheuse.

Pour elle, cette découverte est importante, car "elle pourrait permettre aux cliniciens d'identifier les risques de fracture chez des femmes ménopausées par simple observation visuelle, sans passer par des tests coûteux". Ces travaux ont été présentés à l'occasion d'un colloque de la Société d'endocrinologie américaine à Boston (Massachusetts, nord-est).

Le Point

Découverte de l’ultra-mauvais cholestérol
Mercredi, 08/06/2011 - 08:02

Cette forme de cholestérol découverte chez certains patients augmente fortement le risque de maladies cardiovasculaires notamment chez les diabétiques de type 2 et les personnes âgées.

Des chercheurs de NYU Medical Center ont découvert une nouvelle forme de cholestérol qui serait bien plus dangereuse que ce qu’on appelle aujourd’hui le « mauvais cholestérol ». Nommé ultra-mauvais cholestérol ou en encore MGmin-LDL, il aurait un pouvoir adhérent plus fort que le mauvais cholestérol (LDL) et favoriserait donc l’oblitération des artères  par accumulation de plaque graisseuse dans leur lumière.

Cette étude, financée par la British Heart Foundation (BHF) et publiée par la revue Diabetes, a permis d’identifier ce MGmin-LDL chez les personnes atteintes de diabète de type 2 et les personnes âgées. Ils ont constaté que cet ultra-mauvais cholestérol se formait par l’ajout de groupes de sucres (glycation) à du cholestérol LDL « normal ». Une opération qui modifie la forme de la molécule et expose de nouvelles régions à la surface du LDL.

Ces régions exposées sont plus susceptibles d’adhérer aux parois des artères, favorisant la croissance des plaques graisseuses. Cette découverte pourrait également expliquer pourquoi la metformine, un médicament largement prescrit dans le traitement du diabète de type 2, semble conduire à une réduction du risque de maladie cardiaque. La metformine est connue pour abaisser les niveaux de sucres dans le sang et cette nouvelle recherche montre qu'elle peut réduire le risque de maladie coronarienne en bloquant la transformation du LDL normal en MGmin-LDL.

Le Dr Shannon Amoils, conseiller en recherche à la BHF, qui a financé l'étude, conclut : « Nous savons depuis longtemps que les personnes atteintes de diabète ont plus de risque de développer une maladie cardiaque ou un accident vasculaire cérébral. Il y a encore du travail à faire pour démêler pourquoi c'est le cas, mais cette étude est une étape importante dans la bonne direction ».

Sciences & Avenir

Première thérapie ciblée pour le mélanome
Mardi, 07/06/2011 - 08:02

Pour la première fois un traitement s'avère efficace contre un cancer de la peau très sévère, le mélanome métastatique. Ces résultats ont été présentés au congrès de la société américaine d’oncologie (ASCO) qui se tient à Chicago.

«Un fait unique dans l’histoire du mélanome». C’est ainsi que le Dr Caroline Robert, responsable du service de dermatologie à l’institut Gustave Roussy (Villejuif) commente, très enthousiaste, un travail international très attendu auquel elle a participé et qui sans nul doute va rapidement faire reculer le nombre de morts dus à cette pathologie mortelle et sournoise. Car face au mélanome métastatique, les armes thérapeutiques sont bien maigres. Or, ces nouveaux résultats, «permettent grâce à un nouveau traitement très rapidement actif de repousser l’échéance et d’augmenter la survie globale de patients qui étaient jusqu’à présent condamnés», poursuit la spécialiste. Présenté très solennellement en session dite plénière, devant des milliers de spécialistes, par le Dr Paul Chapman, cancérologue au centre Memorial Sloan-Kettering à New York, lors du congrès international sur le cancer qui se tient actuellement à Chicago, ce travail international a été vivement applaudi par ses pairs. Il est en effet assez exemplaire.

Progression ralentie de la maladie

Les équipes réparties dans 12 pays et 104 centres ont suivi plus de 600 malades tous atteints de mélanome métastatique et ont comparé la chimiothérapie actuelle, la dacarbazine, à une molécule expérimentale, le vémurafénib, un inhibiteur de BRAF. Ce nouveau médicament a été spécialement conçu par les laboratoires Roche-Genentech pour inhiber l'activité d’une protéine mutante, BRAF, intervenant dans la croissance et la survie normale des cellules. Or, dans la moitié des cas de mélanome, on retrouve une mutation de BRAF, V600 BRAF, tout particulièrement impliquée dans les mécanismes de prolifération cellulaire cancéreuse. Les résultats de BRIM3 sont très impressionnants : un risque de décès réduit de 63 % chez les personnes ayant reçu le vémurafénib et une diminution de 74 % du risque de voir la maladie progresser. Des résultats qui ouvrent la voie au premier traitement personnalisé du mélanome. Car parallèlement à la mise au point de la molécule, un test de génétique moléculaire, dit compagnon, a aussi été développé par le laboratoire. Il détecte, à partir d’une biopsie de la tumeur, la présence ou pas de la mutation et rend désormais possible l’identification de manière fiable et rapide des personnes admissibles au traitement.

Tests disponibles en France

L’aventure du vemurafénib va donc commencer. Et même s’il n’est encore commercialisé dans aucun pays, tout va aller très vite. D’ailleurs, «En Francele test peut déjà être pratiqué dans les plates-formes de génétique moléculaire avec le soutien de l’institut National du Cancer (Inca) et des autorisations temporaires d’utilisation de la molécule sont disponibles depuis quelques mois, ce qui va permettre de proposer rapidement le traitement aux patients présentant la mutation », assure le Dr Robert. De bonnes nouvelles donc pour les malades, condamnés à très court terme et qui pourront ainsi espérer quelques mois de survie supplémentaires bien précieux. Rappelons que pris à temps, le mélanome peut dans 80 % des cas être heureusement guéri. Mais dans 20 % des cas, il est découvert trop tardivement et a déjà essaimé des métastases. L’espérance de vie est alors limitée à quelques mois. «Ce premier traitement réussi du mélanome ciblant des patients porteurs de mutations génétiques spécifiques dans leur tumeur pourrait devenir l'une des deux seules thérapies permettant de prolonger la survie de patients atteints d'un mélanome avancé», a relevé le Dr Chapman.

Deux fois plus de cas en 10 ans

La seconde, c’est l’ipilimubab (Yervoy, laboratoires Bristol Myers Squib) dont les premiers résultats avaient été présentés l’an dernier, toujours ici à l’Asco. Dans ce cas, il ne s’agit pas d’une thérapie ciblée mais d’une immunothérapie car le médicament stimule le système immunitaire. Un nouvel essai présenté cette année montre qu’en association avec une chimiothérapie, la dacarbazine, il prolonge aussi la vie des patients. « Mais au prix d’une toxicité, surtout hépatique non négligeable,  qui doit rendre son usage prudent », modère le Dr Willy Lescaut, cancérologue à l’hôpital Princesse Grace à Monaco. Et, bien sûr, un nouvel essai clinique associant vemurafenib et ipilimumab a déjà démarré. Premiers résultats au prochain congrès de l’Asco en 2012. En attendant, rappelons que les mélanomes sont en forte progression, avec un doublement du nombre de cas tous les 10 ans. Chaque année en France, 8.000 nouveaux cas de mélanome sont enregistrés et 1.500 personnes en décèdent.

Sciences & Avenir

Un destin de reine grâce à la royalactine
Mardi, 07/06/2011 - 07:46

Découverte de l'ingrédient de la gelée royale qui fait d'une abeille une reine.

Notre alimentation influe sur notre vie, notre santé, notre longévité... C'est particulièrement vrai chez les abeilles où la nourriture fait d'une larve soit une ouvrière pour la plupart des membres de la colonie, soit une reine pour les « élues », la reine étant celle qui donne naissance à toutes les abeilles de la ruche. L'aliment qui fait la différence est la gelée royale : la larve à qui les nourrices en donnent plus longtemps qu'aux autres devient reine et ce, alors que toutes les abeilles de la colonie ont le même patrimoine génétique. Maski Kamakura, de l'Université de Toyama, à Imizu, au Japon, a découvert l'ingrédient qui décide d'un destin royal.

Sécrétée par les glandes hypopharyngiennes et mandibulaires des abeilles ouvrières, la gelée royale est une substance gélatineuse et blanchâtre aux reflets nacrés. Il s'agit d'un mélange d'eau, de protéines, de sucres, de lipides, de vitamines, d'antibiotiques et de sels minéraux qui est fourni à toutes les larves de la colonie dès leur éclosion et jusqu'au troisième jour pour les ouvrières, les futures reines en bénéficiant deux jours de plus. La reine de la colonie s'en nourrit également toute sa vie à partir du moment où elle quitte la cellule royale, une fois son stade adulte atteint. Cette différence de nutrition conduit à des distinctions importantes : par exemple, la reine vit 20 fois plus longtemps que les ouvrières. Comment détecter le constituant clef de cette recette complexe ?

Une première série d'expériences a consisté à étudier l'évolution de la gelée en fonction du temps : au bout de 30 jours, à une température de 30°C, la mixture perdait tout pouvoir sur le devenir d'une larve. L'analyse de la gelée à différentes étapes du processus de dégradation mit en évidence une protéine (de 57 kilodaltons) dont l'évolution coïncide avec celle de la gelée. Elle fut nommée royalactine. Purifiée en laboratoire, elle entraîne bien les modifications dues à la gelée royale. Et testée sur des larves, elle induit les trois modifications observées chez une reine : un développement accéléré, une augmentation de la masse corporelle et celle du volume des ovaires. Plus étonnant, la royalactine déclenche les mêmes changements chez la mouche du vinaigre, la drosophile. Or chez ces insectes, on ne connaît aucune reine !

M. Kamakura a élucidé le mode d'action de la molécule clef. La royalactine active une enzyme, la kinase p70 S6, qui favorise la croissance du corps et l'accélération de son développement, mais aussi la production d'hormone juvénile, un composé qui participe à l'augmentation du volume des ovaires. D'autres expériences ont révélé le rôle du récepteur au facteur de croissance épidermique (EGFR), un récepteur à la surface des cellules, dans le contrôle de ces différentes manifestations. Ce récepteur a été découvert par Stanley Cohen et Rita Levi-Montalcini, qui reçurent pour ces travaux le prix Nobel en 1986. En influant sur l'expression de plusieurs gènes via diverses enzymes, dont la kinase p70 S6, ce récepteur EGFR est au cœur de nombreuses fonctions cellulaires. La royalactine activerait ce récepteur.

Ces résultats éclairent ainsi la détermination des castes chez les abeilles, mais aussi les liens qui unissent diptères (les mouches) et hyménoptères (les abeilles), des insectes dont l'ancêtre commun vivait il y a 300 millions d'années. Royal jelly (and god) save the queen !

Article rédigé par Loïc Mangin,  rédacteur en chef adjoint à Pour la Science.

Pour la Science

Les bactéries communiquent grâce à des nanotubes
Mardi, 07/06/2011 - 07:36

Des bactéries d’espèces différentes échangent des protéines et de l’ADN via des nanotubes. La découverte pourrait bouleverser l’approche des interactions bactériennes.

Les bactéries ne cessent d’interagir les unes avec les autres. Par exemple, en libérant des molécules qui agissent comme des signaux sur les bactéries voisines. Ou encore, en entrant en contact grâce à un pilus, un tube protéique très fin qui permet le passage d’ADN. Mais le mode de communication que viennent de découvrir Sigal Ben-Yehuda et Gyanendra Dubey, de l’université hébraïque de Jérusalem, est très différent : il s’agit de larges tubes membranaires capables de véhiculer non seulement de l’ADN, mais aussi de grosses protéines. Une découverte qui, si elle est confirmée par d’autres équipes, constituerait une forme de communication totalement nouvelle.

« C’était accidentel », raconte Sigal Ben-Yehuda. En scrutant des bactéries Bacillus subtilis placées sur son microscope à fluorescence, la chercheuse fait une observation surprenante : certaines bactéries, modifiées génétiquement pour exprimer une protéine fluorescente nommée GFP, semblent transmettre leur brillance à leurs voisines, qui, elles, ne possèdent pas le gène de la GFP. Intriguée, elle met au point une série d’expériences destinées à comprendre ce phénomène. Elle constate que des bactéries fixées sur des supports solides construisent entre elles des nanotubes capables de transférer de grosses protéines comme la GFP, ainsi que de l’ADN. Qui plus est, ce type d’échange a lieu même entre bactéries d’espèces différentes, par exemple Bacillus subtilis et Staphylococcus aureus. Les images en microscopie électronique montrent de multiples connexions tubulaires entre bactéries voisines, de 30 à 130 nanomètres de large et d’environ un micromètre de long. Des connexions à l’intérieur desquelles on peut même détecter des molécules de GFP préalablement marquées.

La chercheuse s’interroge : ces tunnels peuvent-ils véhiculer des protéines de résistance aux antibiotiques ? Avec Gyanendra Dubey, elle cultive deux lignées bactériennes, l’une résistante à l’antibiotique chloramphenicol, l’autre à la lyncomycine. Mises en présence des deux antibiotiques, les deux lignées survivent si elles sont cultivées ensemble, alors que séparément, elles s’éteignent.

Molécules de résistance

C’est la preuve qu’elles se transmettent l’une l’autre des molécules leur permettant de résister de façon transitoire. Pour Philippe Noirot, spécialiste de génétique microbienne à l’Institut national de la recherche agronomique : « Si ce phénomène est aussi général que les auteurs le suggèrent, il expliquerait des résistances aux antibiotiques observées chez des bactéries qui n’ont pourtant pas le matériel génétique nécessaire. C’est une découverte stimulante. »

La publication, accueillie avec un enthousiasme teinté de prudence, suscite de nombreuses questions. Le transport de protéine est-il passif ou actif ? Unidirectionnel ou bidirectionnel ? Les bactéries choisissent-elles leur partenaire ? Quelles substances sont véhiculées ? À Jérusalem, Sigal Ben-Yehuda tente désormais de déterminer les bases génétiques des nanotubes et de visualiser en temps réel le transfert de protéines d’une bactérie à l’autre.

Auteur de l’article :  Anne Debroise de la Revue La Recherche

La Recherche

Les derniers échantillons du virus de la variole ne seront pas détruits
Lundi, 06/06/2011 - 20:07

Les pays membres de l’Organisation mondiale de la Santé (OMS) ont décidé la conservation des échantillons du virus de la variole à la 64ème Assemblée mondiale de la santé, qui vient de tenir à Genève.

Depuis l'éradication de la variole en 1979, ces échantillons sont conservés dans deux laboratoires de type P4, de très haute sécurité, aux États-Unis et en Russie. Le choix de ces deux pays répondait alors à un besoin d’équilibre entre les deux puissances, en pleine guerre froide. A partir de 1996, les pays membres de l’OMS ont commencé à se poser la question de la destruction de ces souches, par peur d’une nouvelle propagation de la maladie. Il fut décidé que les échantillons devaient être détruits avant 1999. Mais au dernier moment, l’Assemblée mondiale de la santé, composée des délégations des 193 pays membres, a revu ses recommandations en mettant en avant des doutes : certains scientifiques pensent que l’on devrait garder ces souches pour améliorer le vaccin et les traitements existants. Ainsi, si des terroristes s'emparaient du virus et contaminaient une population, l'OMS aurait les armes pour répondre. D’autres estiment que les fragments clonés d’ADN viral et les séquences de gènes du virus de la variole suffiront aux fins de la recherche ou du diagnostic. Depuis, aucun consensus n’a été trouvé et la date de destruction a toujours été reportée. (Télécharger un rapport de l'OMS sur les dix dernières années de recherche sur le virus de la variole).

«Garder le virus vivant représente plus de risques que de bénéfices» estime Jean-Claude Manuguerra de l’Institut Pasteur, qui siège en tant que conseiller scientifique au Comité consultatif de l’OMS sur la recherche de la variole. «La variole, qui se présente sous forme de pustules partout sur le corps, est probablement le plus grand fléau infectieux qui a frappé l’homme», ajoute le chercheur. Un rapport de l’OMS estime ainsi qu’en 1841, la moitié du peuple amérindien aurait succombé à l’épidémie. En 1958, elle faisait encore 2 millions de victimes par an dans le monde.

Les pays membres de l’Assemblée mondiale de la santé se sont difficilement mis d’accord sur la conservation de ces virus. La discussion s’est vite retrouvée dans la même impasse que les fois précédentes. Les États-Unis ont maîtrisé les débats. «Ils ont été trop confiants dans leurs déclarations devant l’Assemblée mondiale de la santé. La Russie a très peu plaidé pour la conservation des virus, parce que les États-Unis ont fait tout le travail pour eux», raconte Edward Hammond, chercheur sur la politique américaine et qui a dirigé jusqu’en 2007 le Sunshine Project (ONG qui a pour mission de faire respecter les interdictions en matière de guerre biologique). Il était présent tout le long des débats.

L’OMS assure pouvoir réagir dans le cas du scénario catastrophe où le virus sortirait du laboratoire. Elle conserve en sécurité en Suisse 32,6 millions de doses de vaccin antivariolique. La France en détient 5 millions. Mais, selon le livre Le risque biologique de Michel Curé, secrétaire général du Haut comité français pour la défense civile et directeur du Centre de recherche du service de santé des armées à Grenoble, ces vaccins ne suffiraient pas, si une nouvelle pandémie se déclarait.

A terme, l’OMS réaffirme le besoin de se débarrasser de ces échantillons. La décision sera de nouveau discutée en 2014. «En trois ans, quoi qu’il arrive, la science sera probablement encore plus forte pour conclure qu’il n’y a plus aucune nécessité de garder le virus variolique vivant. Je suis optimiste quant au processus concernant la destruction», estime Edward Hammond.

La Recherche

Les intuitions en géométrie sont universelles !
Vendredi, 03/06/2011 - 07:53

La géométrie euclidienne permet de décrire l’espace en utilisant des plans, des sphères, des droites, des points, etc. Des « intuitions géométriques » peuvent-elles émerger chez tous les êtres humains, même en l’absence d’un apprentissage en géométrie ? Pour répondre à cette question, les chercheurs en sciences cognitives ont élaboré deux expériences permettant d’évaluer les performances en géométrie, quel que soit le niveau d’instruction. Le premier test consiste à répondre à des questions sur les propriétés abstraites des droites, en particulier leur caractère infini et leurs propriétés de parallélisme. Dans le second, il s’agit de compléter un triangle, en indiquant la position de son sommet ainsi que l’angle au niveau de ce sommet.

Pour mener à bien cette étude, il faut des participants n’ayant jamais étudié la géométrie à l’école, l’objectif étant de comparer leurs aptitudes à ces tests avec des personnes ayant appris cette discipline. Les chercheurs se sont intéressés à des Indiens Mundurucus, vivant en Amazonie dans un territoire isolé : 22 adultes et 8 enfants âgés de 7 à 13 ans. Certains participants n’avaient jamais été scolarisés, d’autres avaient été scolarisés pendant quelques années, mais aucun n’avait reçu d’instruction en géométrie. Afin d’introduire la géométrie auprès des Mundurucus, les scientifiques leur ont demandé d’imaginer deux mondes, l’un plat (« plan ») et le second rond (« sphère »), sur lesquels se trouvaient des villages (correspondant aux « points » en géométrie euclidienne) et des chemins (« droites »). Ils leur ont ensuite posé un ensemble de questions illustrées par des figures géométriques présentées sur un écran d’ordinateur. Les mêmes tests ont été soumis à une trentaine d’adultes et d’enfants originaires de France et des Etats-Unis, qui, contrairement aux Mundurucus, avaient étudié la géométrie à l’école.

Résultat : les Indiens Mundurucus se sont montrés tout à fait capables de résoudre les problèmes de géométrie, en particulier sur le plan. Par exemple, à la question « est-ce que deux chemins peuvent ne jamais se croiser ? », une très grande majorité a répondu « oui ». Leurs réponses au second test, celui du triangle, mettent en évidence le caractère « intuitif » d’une propriété essentielle en géométrie plane, à savoir le fait que la somme des angles des sommets d’un triangle est constante (égale à 180°). Et, dans un univers sphérique, il s’avère que les Indiens d’Amazonie répondent mieux que les Français ou les Nord-américains. Ces derniers auraient, de par l’apprentissage de la géométrie à l’école, acquis une plus grande familiarité avec la géométrie plane qu’avec la géométrie sphérique. Autre constat intéressant : de jeunes enfants nord-américains âgés entre 5 et 6 ans (n’ayant pas encore appris la géométrie à l’école) ont des résultats mitigés aux tests. Ce qui signifierait que l’appréhension de la géométrie s’acquiert à partir de 6-7 ans.

Les chercheurs suggèrent ainsi que tous les êtres humains sont disposés à comprendre la géométrie euclidienne, indépendamment de leur culture ou leur niveau d’éducation. Des personnes n’ayant pas ou peu reçu d’instruction pourraient donc appréhender des notions de géométrie comme le point ou les droites parallèles. Ces intuitions pourraient être innées (elles émergeraient alors à partir d’un certain âge, en l’occurrence 6-7 ans). Si, au contraire, ces intuitions résultent d’un apprentissage (réalisé entre la naissance et l’âge de 6-7 ans), celui-ci doit être basé sur des expériences communes à tous les êtres humains.

CEA

Une nouvelle avancée contre le VIH
Vendredi, 03/06/2011 - 07:25

Les cellules dendritiques sont les sentinelles du système immunitaire. Présentes dans la peau, les muqueuses et les tissus lymphoïdes, elles détectent la présence de microbes et déclenchent une réponse immunitaire coordonnée. D'une part, elles émettent des signaux permettant de déclencher la réponse immunitaire de première ligne (innée). Elles capturent d'autre part l'intrus et le modifient pour en présenter des morceaux (les antigènes) aux cellules impliquées dans la réponse immunitaire spécifique. Dans le cas de l'infection par le VIH-1, ces fonctions ne sont qu'imparfaitement remplies.

Si le virus est bien capturé par les cellules dendritiques, il ne les infecte qu'incomplètement et diminue ainsi probablement une réponse immunitaire optimale, innée et spécifique, dirigée contre le virus. En revanche, les cellules dendritiques peuvent être infectées plus « efficacement » par d'autres virus apparentés au VIH-1 : le VIH2 et le virus simien SIV. Ceci est dû à la présence d'une protéine virale particulière, Vpx, qui n'existe pas dans le VIH-1.

L'un des enjeux de la recherche est d'identifier les facteurs intracellulaires qui permettent aux cellules dendritiques de diminuer leur sensibilité à l'infection par le VIH-1. C'est l'identité d'un de ces facteurs que révèlent dans la revue Nature, Monsef Benkirane et ses collègues de l'Institut de génétique humaine du CNRS à Montpellier, en collaboration avec une équipe de l'Institut Pasteur (Unité virus et immunité/CNRS URA 3015), de l'Institut Cochin (U567 Inserm / UMR 8104 du CNRS / Université Paris Descartes) et avec le soutien de l'ANRS, du SIDACTION, de la FRM et du Conseil Européen de la Recherche.

Monsef Benkirane et ses collègues ont basé leurs travaux sur l'observation que les cellules dendritiques sont beaucoup plus sensibles à l'infection par le VIH-1 quand elles sont manipulées pour exprimer la protéine Vpx spécifique du VIH2 et du SIV. En isolant les protéines cellulaires interagissant avec Vpx, les chercheurs ont identifié SAMHD1. Cette protéine se révèle être le facteur qui limite la capacité du VIH-1 à infecter les cellules dendritiques. Elle inhibe en effet les toutes premières étapes du cycle viral, empêchant ainsi la réplication du virus.

SAMHD1 rejoint la famille des « facteurs de restriction intracellulaires » du VIH, qui comprend par exemple APOBEC3, Trim-5-alpha et Tetherin. Ces facteurs sont connus pour leur rôle dans le contrôle de la multiplication de certains virus. Mais contrairement à ce que l'on observe avec ces trois facteurs, le VIH-1 n'a probablement pas développé de mécanisme lui permettant de contrecarrer SAMHD1. Cette protéine cellulaire connue pour jouer un rôle dans la régulation de la réponse innée pourrait permettre au VIH-1 d'échapper à la réponse immunitaire. Cette découverte ouvre des perspectives nouvelles en recherche fondamentale et également pour les équipes qui travaillent à l'élaboration d'un vaccin thérapeutique et préventif ciblant les cellules dendritiques.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le X3 d'Eurocopter aussi rapide qu'un avion à hélices
Mercredi, 08/06/2011 - 08:11

Le "X cube" a volé à plus de 220 noeuds, la vitesse généralement considérée comme limite pour les hélicoptères.

Une des vedettes du Salon du Bourget fin juin a rempli son contrat. L'hybride X3 d'Eurocopter (on dit X cube) a volé à plus de 220 noeuds, la vitesse généralement considérée comme limite pour les hélicoptères. Au troisième jour de sa deuxième campagne d'essais au départ de Marseille-Marignane, le X3 a atteint 232 noeuds (430 km/h) pendant plusieurs minutes. L'an dernier, il avait atteint 180 noeuds. Cette vitesse correspond sensiblement à celle d'avions d'affaires à hélices, comme le Beechcraft 200. Différence importante, l'hélicoptère décolle et atterrit depuis une pelouse de jardin, alors que l'avion demande un millier de mètres de piste.

Le X3, dérivé d'une cellule de Dauphin, équipé des moteurs du NH90 militaire, ne sera pas commercialisé. C'est un démonstrateur. Le constructeur franco-allemand teste ici la faisabilité de la formule hybride, engrange des millions de données sur les performances, les vibrations, la consommation, le bruit, etc. pour développer plus tard un appareil produit en série, probablement un peu plus cher à l'achat qu'un hélicoptère classique, mais d'un coût horaire intéressant car plus rapide.

Le Point

L'avion personnel à l'horizon 2030 : une réalité ?
Lundi, 06/06/2011 - 19:49

Les 30 mars et 1 avril dernier, à Madrid, étaient réunis tous les acteurs de l'aéronautique à l'occasion des Aerodays 2011. Rappelons qu'il s'agit là d'un rendez-vous majeur organisé par la Commission Européenne. L'opportunité pour le centre français de recherche aéronautique et spatiale qu'est l'Onera de faire un point d'étape concernant "Personal Plane" (PPlane), un projet européen qu'il coordonne depuis octobre 2009 et dont la durée est de 30 mois. Regroupant 13 partenaires au sein d'un consortium, ce projet a pour ambition d'évaluer la viabilité d'un système de transport aérien personnel à l'horizon 2030 et d'identifier les pistes de recherche à suivre.

S'inscrivant dans le 7ème Programme cadre (PCRD) de la Commission Européenne, PPlane apparaît comme l'un des projets les plus prospectifs en matière d'aéronautique puisqu'il étudie la faisabilité et la pertinence d'un ensemble de véhicules gérés par un pilote au sol et en contact avec le contrôle aérien, via des liaisons de données. Pour ce faire, différents paramètres ont été pris en compte : la sécurité, l'impact sur l'environnement, l'acceptabilité sociale et les facteurs humains, enfin les technologies d'automatisation et de contrôle. Pour confirmer leur pertinence et étudier le poids de chacun d'eux, le consortium a donc mené une enquête auprès des futurs clients potentiels (grand public) de PPlane tout en recueillant aussi les avis de différents experts de domaines variés (aéronautique, réglementation, sécurité, pilotes, acceptabilité sociale).

Les résultats de cette enquête ont montré qu'il existait des attentes fortes en matière de sécurité, de responsabilité vis-à-vis de de l'environnement, de rentabilité, d'accessibilité ou encore de performance, et que l'acceptabilité d'une telle évolution par la société apparaissait comme un véritable challenge. Les différents paramètres étudiés ont permis d'aboutir à différents concepts d'aéronefs parmi lesquels : un bi-turbo propulseur, un engin biplace doté de 6 moteurs électriques, un engin prévu pour un décollage vertical, enfin un bimoteur à piston diesel.

Bulletins Electroniques

Des boîtes noires dans toutes les voitures aux USA ?
Dimanche, 05/06/2011 - 01:00

Les autorités fédérales américaines sont sur le point d'annoncer, le mois prochain, que toutes les voitures devront désormais contenir une boîte noire, similaire dans l'idée et le concept à celles déjà présentes à bord des avions depuis les années 1960.

Voilà une nouvelle qui risque de consolider les nombreux clivages présents entre les partisans de l'utilisation des données « personnelles » à des fins de sécurité publique et de justice équitable, et les réfractaires voyant (parfois à juste titre) Big Brother s'immiscer dans nos vies un peu plus chaque jour : le National Highway Traffic Safety Administration (NHTSA), agence fédérale américaine chargée de la sécurité routière, impliquée dans la définition et l'application des normes de construction des infrastructures routières et des véhicules, doit mettre en place, courant juin, de nouvelles consignes de sécurité, impliquant notamment la présence d'un dispositif d'enregistrement de données de type « boîte noire » à bord de tous les nouveaux véhicules.

Plus ou moins identique aux désormais familières boîtes noires embarquées à bord des avions depuis les années 1960, elle devrait, plus précisément, avoir de nombreuses ressemblances avec le « Flight Data Recorder » (FDR), l'enregistreur des paramètres de vol, car elle ne prendrait pas en charge l'enregistrement des voix, comme le fait l'autre boîte noire embarquée, le « Cockpit Voice Recorder » (CVR).

Il semblerait que les données qui devraient être enregistrées par cette simili boîte noire, d'après les informations affleurant ici et là sur la Toile, ne concerneraient que les quelques secondes précédant un accident de la route, et qu'elles soient les suivantes : la vitesse du véhicule au moment et juste avant l'accident, l'utilisation des freins, l'allumage ou non des phares, l'utilisation des ceintures de sécurité... les données, constituant un instantané du moment précédant l'accident, pouvant être retrouvées afin d'être analysées.

On parle évidemment et en premier lieu des autorités publiques et de la police, dans le cas d'un accident, afin d'en établir la chronologie, et d'établir quelles sont les éventuelles responsabilités en cas de délit ou de poursuites pénales. Les données pourraient aussi servir et être rendues disponibles aux compagnies d'assurance, qui pourraient elles-aussi établir le partage des responsabilités lors d'un accident, à des fins « d'équité », avec tous les guillemets que vous voudrez. Elles pourraient enfin servir aux constructeurs automobiles, leur permettant d'établir si un accident est dû à une erreur de conduite, un événement extérieur ou un problème mécanique, et peut-être y remédier plus aisément, ou alors... se couvrir. Les conducteurs pourront aussi prouver qu'ils n'étaient pas en excès de vitesse au moment de l'accident.

Techniques de l'Ingénieur

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top