RTFlash

RTFLASH Recherche & Technologie
NUMERO 621
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Octobre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Création d'une unité mixte internationale franco-canadienne en mathématiques
L'information passe avant tout par la gestuelle
Le déluge de données va-t-il rendre la méthode scientifique obsolète ?
Avenir
Un robot testé pour l'inspection des lignes à haute tension
La Commission européenne propose une définition du nanomatériau
L'exosquelette français fait ses premiers pas
Matière
Pour être adopté, le smart grid doit s'insérer dans le quotidien
Vers un procédé de production durable des polysulfures
Des éoliennes au large de Fos ?
Lancement de l’appareil photo à 360°
Les ondes radio pour surveiller les bâtiments
Energies propres : la France mise sur la biomasse
Ganil : lancement officiel de la construction de Spiral2
Première installation française de réfrigération au CO2 transcritique
La recharge rapide de véhicules électriques à l'essai à Grenoble
Espace
L'eau des océans pourrait venir des comètes
Terre
Comment Genève se climatise et se chauffe à l'eau du Léman
Les glaciers pyrénéens fondent à vue d'oeil
Vivant
Prévenir les résistances aux traitements ciblés dans le cancer du sein
Protection du cerveau contre le mercure
Arthrose : des pistes pour réparer le cartilage
Les bébés ressentent la douleur in utero
Découverte d’un gène de prédisposition commun au mélanome et au cancer du rein
Le teriflunomide, nouvelle option dans la sclérose en plaques
Une prise de sang pour détecter précocement les hypertendus à risque d’insuffisance cardiaque diastolique
Le lien entre un vieillissement sain et les troubles neurodégénératifs
Contrôler les neurones par la lumière !
Découverte d'un mécanisme génétique lié à l'autisme
Découverte d'un gène de prédisposition à l'ostéoporose
Développement d'un nouveau coeur artificiel à sustentation magnétique
Greffe : première transplantation d'un utérus réussie
Recherche
Air liquide fait rouler des voitures à hydrogène
L'hélicoptère hybride prend son envol
Edito
Conquête de l'espace : les Etats-Unis et l'Europe doivent unir leurs forces pour conquérir Mars



Il y a un an et demi, en avril 2010, Barack Obama, à l'occasion d'une visite au célèbre centre spatial Kennedy, près de Cap Canaveral, en Floride, a relancé la conquête spatiale en fixant à son pays un objectif très ambitieux, envoyer des hommes sur Mars vers 2035. La première étape de ce plan américain a été annoncée par le Directeur de la NASA, Charles Bolden, le 14 septembre. Il s'agit de la mise au point et de la construction d'un nouveau lanceur lourd, le "Space Launch System", capable emmener des astronautes sur Mars.

Ce lanceur de nouvelle génération emmènera les astronautes dans une capsule baptisée "Orion Multi-Purpose Crew Vehicle", qui ressemble étrangement aux légendaires capsules "Apollo" qui ont permis la conquête de la Lune en juillet 1969. D'un coût d'environ 25 milliards d'euros, le lanceur sera propulsé par des moteurs cryogéniques fonctionnant avec un mélange d'hydrogène et d'oxygène liquide. Ceux-ci seront complétés par deux accélérateurs à poudre similaires à ceux déjà utilisés par la navette spatiale. Plusieurs versions de ce lanceur sont prévues et celui-ci sera, à terme, capable d'emmener dans l'espace une charge utile de 130 tonnes.

De son côté, la Chine poursuit son ambitieux programme spatial. Après avoir lancé sa sonde lunaire en 2010, elle vient de lancer, le 29 septembre dernier, de Jiuquan, dans le désert de Gobi, une fusée Longue Marche 2F qui a mis en orbite le module spatial laboratoire Tiangong 1, le «Palais céleste». Ce module comprend un laboratoire qui a pour but la maîtrise du rendez-vous en orbite, une opération complexe et délicate que seuls savent réaliser l'Europe, la Russie et les États-Unis. Le "Palais céleste" doit avoir dans quelques semaines un premier rendez-vous avec un vaisseau inhabité, "Shenzhou VIII" puis, en cas de succès de cette première opération, deux autres rendez-vous spatiaux avec des vaisseaux habités cette fois.

Ne sous-estimons pas les Chinois : même si leur retard reste important en matière de technologies spatiales, ce qu'il ont déjà accompli est remarquable et soyons assurés qu'ils se donneront les moyens de devenir des concurrents redoutables dans cette compétition dont ils ont bien perçu l'importance stratégique et politique.

L'Europe, quant à elle, vient de réussir le 21 octobre, à l'aide d'une fusée russe, la mise en orbite des deux premiers satellites de l'ambitieux projet européen Galileo qui prévoit à terme pas moins de 30 satellites géostationnaires, 6 de plus que son concurrent américain déjà en service. Si tout va bien, Galileo qui a besoin d'au moins 18 satellites pour commencer à fonctionner, sera opérationnel dès 2014. Sur un marché mondial d'au moins 60 milliards d'euros en 2030, les applications de Galileo seront innombrables et toucheront une multitude d'activités et de services, télécommunications, transports, surveillance, recherche scientifique...

L'Europe, à travers Arianespace, est également en train de franchir une nouvelle étape dans la maîtrise des technologies spatiales puisqu'elle disposera à partir de 2012 de trois lanceurs opérationnels, Ariane bien sûr mais aussi, avec le succès du 21 octobre, Soyouz et l'année prochaine du lanceur italien "Vega".

En disposant de son propre système GPS, l'Europe s'affirme comme une grande puissance spatiale et conforte son poids géopolitique dans le Monde mais notre continent doit à présent voir plus loin et s'associer aux Etats-Unis, dans le cadre d'un partenariat équitable qui reste à définir, pour participer à la conquête de Mars, pourquoi ?

Parce que le fantastique défi technologique, scientifique et humain que représente un voyage habité vers Mars et au-delà, une présence humaine permanente sur la planète rouge, sera le moteur de sauts technologiques majeurs. L'exploration humaine de Mars va en effet nécessiter des avancées considérables dans plusieurs domaines stratégiques.

  • Premier de ces domaines, la robotique et l'intelligence artificielle. La conquête de Mars suppose que les astronautes et scientifiques qui participeront à cette aventure soient assistés par des robots et des systèmes informatiques non seulement très fiables et très puissants, en terme de calcul, mais également dotés d'une véritable capacité d'analyse et de compréhension de leur environnement, afin d'être capables de prendre les décisions adéquates dans des situations urgentes et complexes. Ces systèmes devront être dotés d'une réelle capacité d'apprentissage et devront intégrer les grands principes de la psychologie humaine car ils seront plus que de simples auxiliaires et deviendront des partenaires indispensables au bon déroulement de ces missions très longues et risquées.
  • Le second domaine est celui des matériaux : concevoir un vaisseau spatial capable d'emmener des hommes sur Mars ne pourra se faire qu'en inventant et en combinant de nouveaux matériaux dotés de propriétés nouvelles, comme l'autodiagnostic et l'autoréparation.
  • Troisième domaine : les sciences de la vie. Les voyages vers Mars et la perspective de bases martiennes permanentes dans la seconde moitié de notre siècle, permettront de réaliser des expériences sur le vivant impossibles à effectuer sur Terre et feront considérablement progresser la connaissance médicale et biologique.
  • Enfin, dernier domaine qui sera révolutionné par l'aventure martienne : les transports. Pour l'instant, aller sur Mars en utilisant les modes de propulsion classiques nécessite 6 à 8 mois de voyage, suivi d'un an et demi sur la planète rouge (pour retrouver une conjonction planétaire favorable) puis du retour, ce qui représente une durée totale de plus de trois ans avec tous les risques et problèmes qu'entraîne un voyage aussi long : exposition aux radiations, problèmes de santé, équilibre psychique, fiabilité du matériel, réserves aliments, d'eau et d'énergie à prévoir ....

Les Etats-Unis sont bien conscients de ces verrous technologiques et la NASA travaille depuis 2005, en collaboration avec les autres organismes de recherche et le secteur privé, à la mise au point d'un moteur de conception radicalement nouvelle : le moteur ionique.

Ce nouveau type de propulsion, encore appelé moteur à plasma, a été baptisé VASIMR (Variable Specific Impulse Magnetoplasma Rocket) ou, en français "Fusée à impulsion ionique contrôlée". Ce moteur n'utilise plus de carburants chimiques mais l'énergie électrique, produite par une source nucléaire, pour transformer en plasma, par ionisation, de l’hydrogène ou de l’hélium.

Lorsqu'il atteint plus de 10 millions de degrés, ce plasma est accéléré et guidé par des champs magnétiques et peut alors propulser à très grande vitesse le vaisseau spatial. On remarque immédiatement que la mise au point de ce type de moteur révolutionnaire est liée aux progrès faits dans la maîtrise de la fusion thermonucléaire contrôlée qui passe, elle aussi, par la production et le contrôle de plasma très chauds dans des enceintes de confinement magnétique appelés "Tokamaks".

Pour propulser un vaisseau spatial vers Mars, le moteur ionique accélérera de manière progressive pendant la première moitié du voyage, jusqu'à atteindre la vitesse considérable de 55 km par seconde (198.000 km/h). Ensuite, le vaisseau commencera une lente décélération de manière à pouvoir approcher Mars à la vitesse requise pour le débarquement. Au total, il ne faudrait qu'un mois et demi pour accomplir le long trajet qui sépare la Terre de Mars (entre 56 millions et 400 millions de km, selon les positions respectives des deux planètes).

On pourrait croire qu'un tel moteur relève encore de la science-fiction, il n'en est rien : ce moteur ionique a été testé sur Terre avec succès en mai 2009 et un nouvelle version du moteur VASIMR, d'une puissance de 200 kilowatts, doit faire l'objet d'un expérimentation dans l'espace en 2013.

On voit donc à quel point, compte tenu des immenses retombées scientifiques technologiques et industrielles qui en découleront, il est vital que l'Europe devienne un partenaire à part entière des Etats-Unis pour participer à la conquête de Mars, prendre toute sa part dans ce défi exaltant et ouvrir un nouveau chapitre de l'aventure humaine.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Création d'une unité mixte internationale franco-canadienne en mathématiques
Lundi, 24/10/2011 - 01:40

Le CNRS et l'Université de Montréal viennent de créer l'unité mixte internationale CNRS-CRM (Centre de recherches mathématiques), fruit d'une solide collaboration de plus de trente ans entre mathématiciens français et québécois.

CNRS-CRM est la 4e unité mixte internationale (UMI) implantée au Canada et la 3e localisée au Québec. Elle est complémentaire de l'autre UMI franco-canadienne en mathématiques, CNRS-PIMS (Pacific Institute for the Mathematical Sciences), implantée à Vancouver.

L'UMI CNRS-CRM servira de plate-forme visant à mobiliser des chercheurs et enseignants-chercheurs des deux communautés scientifiques autour d'un ambitieux programme de recherche et de formation regroupant les thématiques des laboratoires du CRM :

-    analyse mathématique,
-    calcul mathématique algébrique,
-    géométrie et topologie,
-    éléments finis,
-    informatique quantique,
-    informatique mathématique,
-    mathématiques appliquées,
-    imagerie médicale et pharmacocinétique (PhysNum),
-    physique mathématique, et statistique.

En donnant un cadre institutionnel à la coopération France-Québec en sciences mathématiques, l'UMI CNRS-CRM permettra de structurer et accroître les collaborations entre les mathématiciens français et québécois et de stimuler la mobilité des chercheurs.

Le CRM, créé en 1968, a pour objectif de servir de centre national pour la recherche fondamentale en mathématiques et leurs applications au Canada. Il reçoit l'appui d'universités canadiennes partenaires : l'Université de Montréal, l'Université McGill, l'Université du Québec à Montréal (UQAM), l'Université Concordia, l'Université Laval, l'Université de Sherbrooke et l'Université d'Ottawa.

La convention de création de l'UMI CNRS-CRM a été signée le 4 octobre 2011 à l'Université de Montréal par Joseph Hubert, vice-recteur à la recherche et aux relations internationales de l'Université de Montréal, et Alain Fuchs, président du Centre national de la recherche scientifique (CNRS), en présence de Guy Métivier, directeur de l'Institut national des sciences mathématiques et de leurs interactions (INSMI) du CNRS, de Laurent Habsieger, directeur de recherche au CNRS, et de François Lalonde, directeur du Centre de recherches mathématiques (CRM) de Montréal.

CNRS

L'information passe avant tout par la gestuelle
Vendredi, 21/10/2011 - 06:40

Lors d'une discussion entre individus, le langage du corps compte presque autant que le contenu échangé. D'où la nécessité de ne pas occulter l'aspect visuel lors des conversations virtuelles.

La gestuelle qui accompagne les discussions entre deux ou plusieurs personnes est essentielle pour éviter toute incompréhension ou malentendu. Du coup, son absence lors des échanges virtuels, peut être problématique. Trevor Dodds, chercheur à l'Institut Max Planck, a conduit une recherche sur le sujet, dans laquelle il constate que les discours qui se font sans support visuel restent dans tous les cas moins explicites que les autres. Et même un haut niveau de détails dans chaque description n'influe pas sur ce constat. Les gestes contiennent en fait une signification cachée, qui donne un sens au contenu oral.

  • Des tests via un avatar évolutif ou non

Pour arriver à cette conclusion, l'équipe a utilisé un système de discussion en ligne couplé à l'utilisation d'un avatar virtuel. Un premier groupe test discutait via l'avatar, celui-ci restant immobile, tandis que le second disposait d'un avatar personnalisé singeant l'ensemble de la gestuelle des deux interlocuteurs. Et selon le docteur Trevor Dodds, les résultats sont sans équivoque: "nous nous sommes rendu compte que les mouvements effectués à la fois par la personne en train de parler et celle en train d'écouter contribuaient à une bonne compréhension du sens des mots et de leur contexte. Bref, à une communication claire et précise".

  • Le virtuel, un facteur inhibant majeur

Toutefois, de manière générale, les chercheurs ont noté que les participants avaient une forte tendance à limiter leurs mouvements dans le cas d'une discussion virtuelle. Selon eux, du coup, une communication n'est pleinement efficace que lorsqu'elle est menée en face à face, ou via une caméra interposée. Pour les chercheurs, les applications possibles à ces résultats sont nombreuses, que ce soit dans le domaine des télécommunications ou celui de la mise au point de mondes virtuels réalistes.

L'Atelier

Le déluge de données va-t-il rendre la méthode scientifique obsolète ?
Vendredi, 21/10/2011 - 06:00

Nous voici entrés dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'informations doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir.

Selon Chris Anderson, nous sommes à la fin de la science, de la science telle que nous la connaissons. "À l'échelle du pétaoctet, l'information n'est pas une question de simples dimensions en matière de taxonomie et d'ordre, mais de statistiques agnostiques en termes de dimensions. Cela nécessite une approche totalement différente, qui nous oblige à concevoir la donnée comme quelque chose qui ne peut être visualisée dans sa totalité. Cela nous oblige à regarder d'abord les données mathématiquement et établir leur contexte ensuite.

Par exemple, Google a conquis le monde de la publicité avec rien de plus que des mathématiques appliquées. Google n'a pas la prétention de savoir tout sur la culture des hommes et les conventions de la publicité - il a juste supposé que des données de meilleure qualité, avec de meilleurs outils d'analyses, l'emporteraient. Et Google avait raison.

La philosophie fondatrice de Google est que nous ne savons pas pourquoi cette page est mieux que celle-ci : mais si les statistiques des liens entrants disent qu'elle l'est, c'est bien suffisant. Aucune analyse sémantique ou de causalité n'est nécessaire. C'est la raison pour laquelle Google peut traduire toutes les langues sans les connaître (avec les mêmes corpus de données, Google peut traduire le klingon en farsi aussi facilement qu'il peut traduire du français en allemand)."

Pour Chris Anderson, l'analyse mathématique appliquée aux énormes quantités de données qui vont provenir de nos capteurs, de nos outils qui collectent tous nos comportements, de nos possibilités infinies de stockage, de nos nuages de processeurs, vont transformer les sciences. "Avec suffisamment de données, les chiffres parlent d'eux-mêmes."

Alors que la méthode scientifique est construite autour d'hypothèses que l'on teste, de modèles et d'expérimentations qui confirment ou infirment les hypothèses théoriques, les données, sans modèles, ne risquent-elles pas de n'être rien d'autre que du bruit ? Pas si sûr, répond Anderson : avec l'arrivée de données massives, cette approche de la science risque de devenir obsolète. "L'ère du Pétaoctet nous permet de dire : "la corrélation va suffire". Nous pouvons désormais analyser les données sans faire des hypothèses sur ce qu'elles vont produire.

Nous pouvons jeter les nombres dans le plus grand réseau d'ordinateurs que le monde ait jamais vu et laisser les algorithmes trouver les modèles que la science n'arrivait pas à trouver." Et d'évoquer l'exemple du séquençage des gènes par Craig Venter, qui est passé de l'organisme humain au séquençage de l'océan, au séquençage de l'air. Un procédé qui lui permet de trouver des centaines de nouvelles espèces, de nouvelles bactéries dont Venter ne sait rien : il ne dispose que d'une alerte statistique, une séquence, qui parce qu'elle n'est pas comme les autres séquences d'ADN qu'il a dans sa base, doit représenter une nouvelle espèce.

Pour Kevin Kelly, beaucoup de domaines scientifiques (l'astronomie, la physique ou la géologie par exemple) utilisent déjà des flux de données extrêmement vastes, dont seuls les ordinateurs peuvent dégager des tendances invisibles à l'échelle de l'oeil humain. Selon lui, ces nouvelles méthodes ne viennent pas remplacer l'ancienne, mais viendront en complément de la science orientée par la théorie.

Le Monde

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot testé pour l'inspection des lignes à haute tension
Jeudi, 27/10/2011 - 01:10

Des tests d'utilisation d'un robot, conçu en Amérique du Nord, ont été réalisés en matière d'inspection des câbles de leurs lignes aériennes entre Elia et RTE, afin de détecter avec plus de rapidité et de fiabilité les zones où des travaux de maintenance sont nécessaires sur leurs réseaux.

Le robot qui fait l'objet d'une expérimentation commune par les gestionnaires de réseau de transport d'électricité belge et français est un outil d'inspection des câbles. Le dispositif, qui pèse quelque 35 kg et mesure un mètre de longueur, est acheminé depuis le sol jusqu'à la hauteur des câbles par les lignards, habilités et formés pour intervenir sur les pylônes.

Le robot dispose d'un moteur téléguidé permettant à l'opérateur de le faire circuler sur toute la longueur de la portée entre deux pylônes. Les informations sur l'état des câbles recueillies de cette manière constituent un outil supplémentaire et peuvent être combinées aux autres techniques d'inspection – inspection visuelle par des patrouilles à pied, inspection visuelle par hélicoptère, inspection à l'aide d'une caméra thermographique héliportée, etc.

L'expérimentation réalisée sur la ligne à 63 000 volts entre Logelbach et Sélestat en Alsace, et sur des lignes 150 000 volts en Belgique, dans la région de Namur et les environs de Genk, vise tout particulièrement à évaluer la pertinence de la méthode en comparant les données ainsi recueillies aux informations obtenues à partir des méthodes plus traditionnelles.

En cas de test concluant, la méthode pourrait être déployée et contribuer à fournir une image précise de l'état des câbles. Ceci faciliterait la définition des ordres de priorité des travaux de maintenance et de remplacement pour les réseaux d'Elia et de RTE.

Le gestionnaire du réseau belge de transport d'électricité, Elia, a pour mission de transporter l'électricité fournie par les producteurs vers les gestionnaires de réseau de distribution et les grands utilisateurs industriels et d'importer et d'exporter l'énergie électrique depuis et vers les pays voisins. Elia possède la totalité du réseau à très haute tension (150 à 380 kV) et quelque 94 % (propriété et droits d’utilisation) de l’infrastructure à haute tension belge de 30 à 70 kV. Le réseau d'Elia se compose de 5 608 kilomètres de lignes aériennes et 2 775 kilomètres de câbles souterrains et est un maillon essentiel entre les marchés de l'électricité d'Europe du sud et d'Europe du Nord.

RTE est l'opérateur du réseau de transport d'électricité français. L'Entreprise de service public a pour mission l'exploitation, la maintenance et le développement du réseau haute et très haute tension. RTE achemine l’électricité entre les fournisseurs d’électricité (français et européens) et les consommateurs, qu’ils soient distributeurs d’électricité (ERDF et les entreprises locales de distribution) ou industriels directement raccordés au réseau de transport.

Avec 100 000 km de lignes comprises entre 63 000 et 400 000 volts et 46 lignes transfrontalières, le réseau géré par RTE est le plus important d'Europe. RTE a réalisé un chiffre d'affaires de € 4 396 millions en 2010 et emploie 8500 salariés.

Enerzine

La Commission européenne propose une définition du nanomatériau
Mercredi, 26/10/2011 - 01:10

Les «nanomatériaux» sont des matériaux dont les constituants principaux ont des dimensions comprises entre 1 et 100 milliardièmes de mètre : telle est la teneur de la recommandation adoptée récemment par la Commission européenne.

Cette dernière estime que cela marque un progrès important dans la protection des citoyens, puisqu'il s'agit de "définir clairement les matériaux qui doivent recevoir une attention particulière dans le cadre d'une réglementation spécifique."

Les nanomatériaux sont déjà utilisés dans des centaines d'applications et de produits de consommation, depuis les pâtes dentifrices jusqu'aux batteries, aux peintures et aux vêtements. Le développement de ces substances novatrices, qui présentent aussi un potentiel prometteur dans des domaines tels que la médecine, la protection de l'environnement et le rendement énergétique, représente un enjeu important pour la compétitivité européenne.

Étant donné, toutefois, que des incertitudes demeurent sur les risques qu'ils posent, il est nécessaire de disposer d'une définition claire pour s'assurer que toutes les règles de sécurité chimique appropriées sont appliquées. La définition sera utile à toutes les parties prenantes, et notamment aux associations professionnelles, car elle apporte de la cohérence dans un contexte où les divers secteurs utilisent aujourd'hui toute une série de définitions différentes. La définition sera revue en 2014 à la lumière des progrès techniques et scientifiques.

« Je suis heureux de pouvoir dire que l'UE est la première à proposer une désignation universelle des nanomatériaux qui devra être utilisée à toutes fins de réglementation. Nous présentons une définition solide fondée sur des avis scientifiques et les conclusions d'une vaste consultation. Les entreprises ont besoin, dans cet important secteur économique, d'un cadre réglementaire clair et cohérent, et les consommateurs ont droit à une information précise sur ces substances. Notre démarche est un grand pas en avant dans la prise en charge d'éventuels risques pour l'environnement et la santé publique, qui vise aussi à faire en sorte que cette nouvelle technologie réalise pleinement son potentiel » a déclaré Janez Potocnik, membre de la Commission chargé de l'environnement.

La recommandation concrétise en outre la promesse faite en 2009 au Parlement européen de formuler une définition unique applicable sans distinction dans tous les actes législatifs en rapport avec les nanomatériaux.

La définition adoptée se fonde sur une démarche prenant en compte les dimensions des particules constitutives des matériaux, plutôt que des considérations de risque ou de danger. Elle décrit le nanomatériau comme «un matériau naturel, formé accidentellement ou manufacturé contenant des particules libres, sous forme d'agrégat ou sous forme d'agglomérat, dont au moins 50 % des particules, dans la répartition numérique par taille, présentent une ou plusieurs dimensions externes se situant entre 1 nm et 100 nm».

Cette définition se fonde sur des avis scientifiques du Comité scientifique des risques sanitaires émergents et nouveaux (CSRSEN/SCENIHR) et du Centre commun de recherche (CCR). Le projet de définition a fait l'objet d'une consultation publique.

Enerzine

L'exosquelette français fait ses premiers pas
Samedi, 22/10/2011 - 01:30

Hercule accompagne les mouvements de l'utilisateur en supportant les efforts à sa place. Les usages militaires et civils sont multiples. Ce prototype de robot collaboratif, présenté au salon Milipol à Paris, est développé par la PME RB3D en partenariat avec la DGA et le CEA.

Les Américains et les Japonais ne sont pas les seuls à concevoir des exosquelettes, ces structures qui épousent le corps humain et permettent de décupler la force de son utilisateur. L'étonnant "robot collaboratif" Hercule a été présenté pour la première fois au grand public au salon Milipol, dédié à la sécurité, à Paris du 18 au 21 octobre.

Ce prototype français est le fruit de la collaboration entre trois acteurs motivés par cette nouvelle forme de robotique, le CEA-Leti, la DGA (Délégation générale de l'armement) et une petite PME bourguignonne RB 3D. "Depuis 2001 nous développons des bras robotisés qui servent à aider les ouvriers pour des tâches pénibles ou délicates. Nous cherchons à nous diversifier dans le secteur prometteur des exosquelettes dont les débouchés tant militaires que civils sont importantes", explique Serge Grygorowicz, PDG de l'entreprise. "Grâce à l'expertise scientifique du CEA-Leti et à l'aide financière de la DGA, ce prototype a pu voir le jour en seulement deux ans", poursuit-il.

  • Porter 100 kilos à la vitesse de 4 km/h

L'utilisateur s'harnache avec cette étonnante armure pesant une vingtaine de kilos et c'est parti pour une marche forcée à la vitesse de 4 km/h avec la possibilité de porter sur le dos une charge maximale de 100 kg, la batterie offrant une autonomie de cinq heures. Hercule détecte lui-même les mouvements de l'utilisateur et ne fait que les accompagner en supportant les efforts à la place de l'homme. Pour la sécurité de l'utilisateur, une centrale inertielle supervise l'équilibre de l'exosquelette.

Ce projet a nécessité un investissement de 2,7 millions d'euros, financé à 75 % par la DGA dans le cadre de son dispositif "Rapid" d'aide aux PME. Dès 2012, les premiers tests de qualification vont être engagés et le robot Hercule pourrait équiper les fantassins à partir de 2015. Un second prototype sera développé avec des bras robotisé permettant de porter la charge devant soi et non dans le dos.

En dehors des militaires, cet équipement de pointe pourrait être utilisé par les services de secours pour transporter des équipements lourds sur les sites d'intervention, par le personnel médical pour des patients handicapés ou incapables de se déplacer, et par les ouvriers du BTP pour manipuler des charges lourdes sur des chantiers. Hercule sera commercialisé à partir de 2014-2015 au prix de 20.000 euros l'exemplaire.

La Tribune

^ Haut
Matière
Matière et Energie
Pour être adopté, le smart grid doit s'insérer dans le quotidien
Jeudi, 27/10/2011 - 06:59

Pour que le smart grid soit efficace, les consommateurs doivent pouvoir gérer librement leur consommation d’énergie. C’est dans cette optique que l’Union européenne et un consortium d'entreprises ont lancé le projet EcoGrid, qui consiste à mettre en place un réseau énergétique intelligent fonctionnant à partir d'un minimum de 50 % d'énergie renouvelable. Et que les individus peuvent gérer depuis leur ordinateur ou leur mobile. Pour démontrer l'efficacité du système, une expérience grandeur nature va être mise en place pendant 48 mois sur l'île danoise de Bornholm, qui impliquera plus de 2 000 foyers sur les 28 000 qui peuplent le territoire insulaire. Le but est en fait de pousser ces derniers à gérer de manière plus responsable leur consommation d'électricité, en fonction de l'heure et des tarifs.

Lisser cette dernière permet, outre une réduction des tarifs (par disparition des pics de consommation), une baisse de la consommation globale de par une diminution mécanique du gaspillage. Pour mener à bien l'expérience, les responsables du projet ont mis en place un logiciel capable de calculer quasi-instantanément le prix de l'électricité, afin que ce dernier reflète précisément l'offre et la demande. Ils ont aussi dû mettre à disposition de ces foyers des logiciels intelligents de gestion de l'électricité (via des applications smartphones ou des logiciels d'ordinateurs connectés aux appareils de la maison). Ceux-ci permettent de programmer les heures de fonctionnement de certains appareils (chauffage, machine à laver) en fonction du prix prévu de l'électricité.

A noter que certains des habitants seront même dotés d'équipements capables de déterminer eux-mêmes l'heure à laquelle se mettre en marche ou stocker l'énergie (via des périphériques de stockage). Dans ce dernier cas, l'utilisateur choisit à l'avance ses critères de fonctionnement (heure, prix précis de l'électricité à un instant donné...), et la machine s'active lorsque ces derniers sont remplis). A partir du verdict de cette expérience (viabilité ou non), les chercheurs espèrent pouvoir identifier les freins à la mise en place à grande échelle du système.

L'Atelier

Vers un procédé de production durable des polysulfures
Jeudi, 27/10/2011 - 06:16

Les polysulfures sont introduits partout où des matières plastiques doivent affronter des écarts de température importants, que ce soit dans les joints utilisés pour les vitrages feuilletés ou bien pour les réservoirs de carburant dans les voilures d'avions. "Ces plastiques sont très résistants aussi bien face aux variations de température qu'envers de très nombreux produits chimiques", affirme Wolfgang Imhof, de l'Institut de chimie anorganique et analytique de l'Université Friedrich Schiller d'Iéna (Thuringe). Néanmoins, les liaisons soufrées entrant dans la composition des polysulfures possèdent un inconvénient de taille : "Dans les techniques de production conventionnelles apparaissent de grandes quantités de sous-produits nocifs qui nécessitent d'être éliminées", d'après Wolfgang Imhof. Ainsi, ces procédés d'obtention posent à la fois des problèmes d'ordre économique et écologique.

Au cours du projet "POLYS", financé par le Fonds européen de développement régional (FEDER) ainsi que l'Etat libre de Thuringe, l'équipe autour de Wolfgang Imhof en collaboration avec l'entreprise AkzoNobel Functional Chemicals de Graz (Autriche) a développé une méthode de production durable des éléments constitutifs des polysulfures, ne rejetant pas de sous-produits nocifs. De plus, cette méthode possède un haut rendement et ne nécessite que peu d'étapes de réaction.

Cette synthèse des liaisons soufrées des polysulfures repose sur l'emploi de catalyseurs issus des métaux de transition tels que le ruthénium, le palladium et le cuivre. Les catalyseurs accélèrent la réaction chimique sans être consommés, et se retrouvent inchangés à la fin de celle-ci. "Contrairement à un préjugé largement répandu chez les chimistes, les substrats soufrés réagissent efficacement grâce à des catalyseurs appropriés", souligne Wolfgang Imhof. Les chercheurs ont notamment montré que les liaisons soufrées organiques se lient de manière réversible au ruthénium. Les deux partenaires du projet POLYS veulent à présent déposer un brevet sur une méthode de synthèse catalytique de liaisons soufrées cycliques.

Bulletins Electroniques

Des éoliennes au large de Fos ?
Mercredi, 26/10/2011 - 01:30

Provence Grand Large, le premier parc éolien flottant de Méditerranée pourrait voir le jour d'ici à la fin 2016.

C'est une étrange machine bâtie comme un immense étendoir à linge le long d'un mât interminable. Posé sur quatre flotteurs en béton armé, l'engin occupe dans l'espace le même volume qu'un stade de foot suspendu à la verticale. Pour y sécher la pelouse après un violent orage ? Non, pour produire de l'électricité avec le vent qui souffle en mer. Car ce monstre d'acier, qui n'existe actuellement qu'à l'état de maquette, est une éolienne dernier cri imaginée par Nénuphar, une start-up du Nord créée par deux ingénieurs de chez Alstom.

Associée à Technip, qui a conçu les flotteurs, et à EDF Énergies Nouvelles, qui en serait l'opérateur, la petite entreprise ambitionne d'installer une douzaine de ces machines à une vingtaine de kilomètres au large de la zone portuaire de Fos-sur-Mer. Une fois en place, ce champ éolien serait en théorie capable de produire assez d'électricité pour couvrir les besoins d'une ville d'environ 20.000 habitants. Rien n'est encore fermement décidé, mais ce projet ultra-novateur pourrait voir le jour d'ici à la fin 2016, si aucun obstacle ne vient lui barrer la route.

Soutenu par le Pôle Mer Paca, Provence Grand Large -c'est son nom- devrait être présenté aux élus locaux et à la population du golfe de Fos dans les toutes prochaines semaines. Son principal atout, c'est de contourner l'obstacle qui a tué dans l'oeuf tous les projets éoliens offshore imaginés ces dernières années au large de nos côtes : la profondeur du plancher méditerranéen, qui dépasse aisément les 50 m à moins de 5 km des plages. Or, c'est à 50 m que les experts estiment la limite actuelle pour construire une éolienne offshore sur fondations dans des conditions économiquement viables.

Au-delà, la seule solution, c'est un support flottant fixé sur le fond par des lignes d'amarrage, comme un bateau à l'ancre. Une dizaine d'entreprises dans le monde travaillent actuellement sur des projets de même nature, afin d'étendre les possibilités d'implantation de fermes éoliennes en mer. Mais seul Provence Grand Large s'appuie sur une technologie à axe vertical, l'immense majorité des éoliennes installées ou en cours d'installation étant de technologie classique, avec pales et rotor à axe horizontal. L'intérêt, c'est un moindre encombrement - 50 m de diamètre pour l'engin de Nénuphar contre 130 m pour les grandes éoliennes offshore actuellement en service - pour une puissance nominale inférieure d'un tiers.

Pour l'heure, le trio Nénuphar-Technip-EDF Énergies Nouvelles n'en est pas encore là. Dans un premier temps, c'est un site d'essais, à la fois à terre et en mer, que les ingénieurs recherchent pour valider leur technologie et vérifier la faisabilité technique d'un champ d'éoliennes flottant à plus de 20 kilomètres des côtes, sur des fonds immergés à près de 100m sous la surface. Deux zones ont été identifiées, à Salin-de-Giraud (pour le prototype terrestre) et à 5 kilomètres des plages de Port-Saint-Louis- du-Rhône (pour le prototype flottant), mais les demandes d'autorisations déposées auprès des autorités civile et de la zone aérienne de défense sont encore à l'instruction et nul ne sait quand, ni dans quel sens, elles seront tranchées.

Si tout se passe comme prévu, les essais à terre pourraient débuter au 2e trimestre 2012, pour une validation avant la fin du printemps 2013. Dans la foulée, la mise en place du prototype flottant pourrait débuter, afin de d'entamer la phase d'essais en mer -qui s'étalerait sur deux années pleines- avant l'été 2014. La construction du projet pilote, Provence Grand Large, pourrait ainsi être lancée dans le courant de l'été 2015, pour une mise en service début 2017. Un calendrier qui devra être tenu si la France souhaite enfin tenir ses promesses en produisant un peu de son électricité avec le vent marin.

La Provence

Lancement de l’appareil photo à 360°
Mercredi, 26/10/2011 - 01:20

Des chercheurs de l’université technique de Berlin ont créé un appareil photo capable de prendre d'un bond des clichés panoramiques à 360° en une seule prise.

Sur votre appareil photo numérique, vous disposez certainement du mode ''Panorama''. Il vous permet de prendre successivement des images que vous collerez ensuite côte à côte pour rendre ce que vous avez vu.

Avec l’invention de Jonas Pfeil, ingénieur informatique de l’Université Technique de Berlin, plus besoin de s’échiner à recoller les morceaux à l'aide d'un logiciel.

Sa Ballcamera dotée de 36 objectifs de 2 megapixels fait le travail, il suffit de la lancer. Cet appareil photo d’un nouveau genre prend 36 clichés d’un coup tout autour de lui lorsqu’il atteint son apogée (calculé grâce à un accéléromètre intégré). Une fois la balle, réalisée en impression 3D retombée - et rattrapée – la photo panoramique à 360° peut-être téléchargée toute faite sur un ordinateur via USB.

Industrie & Technologies

Ball camera

Les ondes radio pour surveiller les bâtiments
Mardi, 25/10/2011 - 01:20

Dans le but de réaliser des surveillances de lieux sans caméras, deux scientifiques de l'université de l'Utah cherchent à déterminer avec précision les mouvements de personnes dans une certaine zone en passant par les ondes radio. En fait, ils tentent d'améliorer un procédé déjà existant, appelé VRTI (Variance-based Radio Tomographic Imaging), qui permet, grâce à des émetteurs-récepteurs radio disposés autour d'un bâtiment par exemple, de détecter la variation des ondes radio de tout objet en mouvement à l'intérieur de ce périmètre. "C'est comme une technologie pour voir à travers les murs", explique pour L'Atelier, Neal Patwari, directeur du SPAN Lab et co-auteur du projet. Malheureusement, le système initié en 2009 souffre de limites, d'où la nécessité de l'améliorer.

"Nous nous sommes aperçus que le VRTI ne distinguait pas les mouvements humains de celui d'autres éléments comme des arbres ou des drapeaux, que nous appelons 'mouvement intrinsèque' et qui ne bougent que dans un espace délimité", ajoute le chercheur. Qui précise que pour l'ancien système, l'effet du vent dans les branches des arbres autour d'un bâtiment est similaire aux pas d'une personne marchant à l'intérieur. Les chercheurs ont donc développé deux nouveaux algorithmes, capables de trouver la signature spatiale d'un mouvement intrinsèque dans une certaine zone et de l'occulter, soit totalement (SubVRT), soit partiellement (LS-VRT).  Ainsi, il sera possible de repérer les variations des ondes des objets qui n'affectent toujours qu'un endroit précis et de les diminuer afin de faire ressortir uniquement les mouvements d'une personne.

Les performances de ces nouveaux systèmes en termes de reconnaissance et de précision seraient augmentées de 60 % par rapport au VRTI classique. Un calibrage sans déplacement humain est pour l'instant nécessaire. Lorsque ce ne sera plus le cas, le procédé pourrait être utile dans toutes les situations où localiser des personnes est une nécessité. "On peut penser aux incendies ou aux prises d'otages par exemple. Il suffira aux policiers ou aux pompiers de déployer les capteurs autour du bâtiment pour observer les allées et venues des personnes à l'intérieur", prévoit Neal Patwari. Cela pourrait également à terme remplacer des caméras de surveillance dans certains secteurs sensibles ou sécurisés, permettant le déclenchement des alarmes ou l'arrêt des machines si un humain s'introduit sans autorisation dans la zone.

L'Atelier

Energies propres : la France mise sur la biomasse
Mardi, 25/10/2011 - 01:10

La France qui possède une des plus grandes forêts d'Europe (150 000 km2) veut produire plus l'énergie à partir de sa biomasse (bois, déchets végétaux et agricoles, etc.). 15 projets d'une puissance totale de 420 mégawatts (MW) ont été sélectionnés par les ministères de l'Ecologie et de l'Industrie, le 4 octobre dernier.

L'objectif initial il y a un an était de 200 MW, mais le gouvernement a décidé d'aller deux fois plus loin que ce qui était prévu, soulignent les deux ministères, qui ont sélectionné la totalité des projets jugés recevables par la Commission de régulation de l'énergie (CRE). Ce relèvement de l'objectif devrait permettre d'accélérer le développement de la filière biomasse-énergie pour tenir les objectifs du Grenelle de l'environnement.

L'examen des projets a été réalisé à l'aune de plusieurs critères fixés dans le cahier des charges : prix de vente de l'électricité, efficacité énergétique, approvisionnement en biomasse, localisation de l'installation. Une attention particulière a été portée à la qualité de l'approvisionnement et au respect des normes sur la pollution atmosphérique.

« Les 15 projets sélectionnés permettront de contribuer de manière très significative au développement des énergies renouvelables, mais aussi à la structuration de la filière et à la mobilisation de nos ressources forestières. Ils vont générer 1,4 milliards d'euros d'investissements et créer de nouveaux emplois verts », observe la ministre de l'Ecoogie, Nathalie Kosciusko-Morizet. Le projet le plus important est celui de la Centrale biomasse de Provence, à Meyreuil, qui prévoit une puissance électrique de 150 MW.

En France, la consommation d’énergie primaire de biomasse représente 125 TWh et la valorisation énergétique de la biomasse (principalement le bois) représente environ 10 Mtep et 16 millions de tonnes de CO2 évitées chaque année.

Hors biocarburants, la biomasse représente plus du tiers du potentiel de développement des énergies renouvelables en France à l'horizon 2020 (7,5 sur 20 mégatonnes d'équivalent pétrole). Un nouvel appel à projets de production d'énergie à partir de la biomasse sera lancé d'ici mi-2012 après concertation.

Compte tenu des disponibilités en biomasse importantes en Europe, la production d'énergie à partir de cette ressource est en très forte augmentation. De 90 TWh/an en 2006, cette production devrait atteindre 450 TWh en 2030 selon l'AEE, soit l'équivalent de la consommation électrique de la France. Un point également positif : plus de 80 % de cette augmentation proviendra de la cogénération qui produit à la fois de la chaleur et de l'électricité.

Développement Durable

Ganil : lancement officiel de la construction de Spiral2
Dimanche, 23/10/2011 - 01:30

Le chantier du futur accélérateur linéaire Spiral2 a démarré officiellement lundi 17 octobre au Ganil (CEA/CNRS) à Caen. Cette installation, destinée à produire en abondance des noyaux dits exotiques, devrait doubler à terme le potentiel de recherche du Ganil. Elle permettra d’étudier la structure du noyau atomique et de mieux comprendre certaines réactions nucléaires qui se déroulent au sein des étoiles.

L’installation Spiral2 est destinée à produire en abondance des noyaux qui n’existent pas à l’état naturel sur Terre et qui sont appelés noyaux exotiques. Au cœur de la future installation, un accélérateur linéaire supraconducteur délivrant des faisceaux d’ions parmi les plus intenses au monde bombarde une cible de matière. Les réactions induites (fissions, transferts, fusions…) engendrent des milliards de noyaux nouveaux. Extraits, triés, accélérés, les noyaux les plus intéressants sont assemblés en faisceaux qui permettent des expériences inédites, ouvrant ainsi de nouveaux horizons à la physique et à l’astrophysique nucléaires.

La construction de ce nouvel accélérateur de particules au Ganil doublera à terme le potentiel de cette Très Grande Infrastructure de Recherche européenne commune au CEA et au CNRS, destinée à étudier le noyau atomique. Le Ganil est actuellement l’un des quatre plus grands centres internationaux dédiés à ces recherches, avec le GSI en Allemagne, MSU aux Etats-Unis et RIKEN au Japon. Spiral2 le placera au tout premier rang.

Spiral2 est le projet de priorité nationale du CEA et du CNRS en physique nucléaire. Il est le fruit de collaborations à la fois techniques et scientifiques entre de nombreux laboratoires français, européens et internationaux. Les collectivités territoriales sont particulièrement impliquées dans le développement du Ganil, dont la place d’excellence au niveau international sera confortée par la réalisation de Spiral2.

CEA

Première installation française de réfrigération au CO2 transcritique
Vendredi, 21/10/2011 - 06:20

L'entreprise Leonard Volailles, négociant de volailles installé à Verdun (55), a mis en exploitation pour la première fois en France, une installation de réfrigération réalisée par Axima Réfrigération, fonctionnant avec la technologie du CO2 transcritique. Cette technologie, qui rencontre un réel succès en Europe du nord, ainsi qu’en Allemagne, en Suisse et en Grande-Bretagne, utilise un fluide ‘‘naturel’’, le CO2, à la place des fluides frigorigènes issus de l’industrie chimique. Ceux-ci possèdent des potentiels de réchauffement climatique plusieurs milliers de fois supérieurs au CO2. Par exemple, le R404a, fluide couramment utilisé en réfrigération, a un potentiel de réchauffement climatique 3 800 fois supérieur à celui du CO2.

Mais les performances de ces systèmes transcritiques sont fortement liées à la situation géographique de l’installation. Plus le climat est froid, plus l’écart de performances au regard d’une solution classique est élevé, ce qui explique le développement important de cette technologie en Europe du nord.

L’installation de Leonard Volailles, mise en service fin 2010, a une capacité de 75 kW de froid positif et 5 kW de froid négatif. Elle est de type booster, comprenant un étage de compression pour le froid positif et un étage de compression pour le froid négatif, le tout installé dans une seule machine monobloc.

La particularité de la technologie CO2 transcritique réside dans l’impossibilité à condenser le CO2 lorsque sa température dépasse 31°C, en moyenne 21°C au-dessus de la température ambiante, mais aussi dans les pressions élevées supérieures à 100 bar du côté haute pression du circuit frigorifique. Malgré ces contraintes l’ensemble des composants (compresseur, tuyauterie, vanne…) se révèle nettement plus compact qu’une installation à base de fluides frigorigènes classiques, grâce aux propriétés physiques du CO2.

L’utilisation de la technologie CO2 transcritique sur cette installation fait qu’elle est moins vorace en énergie, de l’ordre de 10 %, qu’une installation de réfrigération traditionnelle. On évite ainsi un rejet annuel de l’ordre de 100 tonnes de CO2, ce qui lui a valu d’être subventionnée en partie par l’ADEME.

De plus, ces installations sont également propices à la récupération de chaleur. Elles atteignent des températures élevées, vue la température de refoulement supérieure à 100°C, aspect intéressant notamment pour l’industrie agroalimentaire, forte consommatrice d’eau chaude sanitaire. Axima Réfrigération estime que cette technologie basée sur le CO2 transcritique est bien adaptée à des puissances allant jusqu’à 250 kW en froid positif pour divers secteurs comme l’industrie agroalimentaire ou la grande distribution.

Industrie & Technologies

La recharge rapide de véhicules électriques à l'essai à Grenoble
Vendredi, 21/10/2011 - 06:10

Schneider Electric et ses partenaires au sein du projet VELCRI (Véhicule Electrique à Charge Rapide Intégrée) passent aux choses concrètes. Ils viennent d’inaugurer, sur le site d'Electropole de Schneider Electric à Eybens (proche de Grenoble – Isère), la station de recharge EVLink, destinée à la mise au point et aux tests grandeur nature de solutions de recharge ultra-rapide de véhicules électriques.

Lancé dans le cadre des Investissements d’avenir et soutenu à ce titre par l'Ademe, le projet VELCRI associe Apojée, le CEA-Ines, le CNRS, EDF, Eurecom, l'Institut Telecom, JC-Saft, Radiall, Renault, Schneider Electric et Valéo. « Cette nouvelle station d'essai va nous permettre de valider en conditions réelles d'utilisation les options prises dans le cadre du projet », explique Daniel Doimo, Directeur Général du Business Power Schneider Electric. « Si l'objectif est bien de développer la recharge ultra-rapide, nous allons également tester concrètement les problématiques liées au Smart Grid, comme par exemple l’utilisation de la batterie de sa voiture comme générateur de secours pour sa maison ».

La station EVLink abrite plusieurs espaces de recherche, de test et de démonstration pour les différents types d’infrastructures de recharge : domestiques ; voirie ; parkings publics ou privés et enfin celles concernant la recharge ultra-rapide. La rapidité de recharge et la gestion de l’énergie au cours de cette opération constituent deux enjeux majeurs autour de la recharge des batteries des véhicules électriques. Le projet VELCRI vise à développer des solutions techniquement sûres, intelligentes et économiquement viables. L'objectif est de proposer des solutions pour des temps de recharge de l’ordre de 5 à 10 minutes en mode "station service" à travers un système complet : batterie ; chargeur intégré ; gestion de la batterie ; gestionnaire d’énergie ; dispositif de communication avec la borne de recharge.

Industrie & Technologies

^ Haut
Espace
Espace et Cosmologie
L'eau des océans pourrait venir des comètes
Samedi, 22/10/2011 - 01:10

D'où vient l''eau des océans qui recouvre 70 % de notre planète ? Selon plusieurs études récentes, cette eau aurait été apportée sur Terre sous forme de glace par des astéroïdes et des comètes. Des scientifiques de l'ASE (Agence spatiale européenne), ont montré pour la première fois que l'eau présente et sur Terre et sur une comète, Hartley 2, a une composition chimique similaire." Cette découverte remet en cause les hypothèses actuelles qui avancent que 10 % de l'eau terrestre a pour origine des comètes" souligne Paul Hartogh, de l'institut Max-Planck de recherches sur le système solaire (MPS).

Pour démontrer cette "filiation chimique " entre l'eau terrestre et l'eau spatiale, les chercheurs ont utilisé un isotope de l'hydrogène, le deutérium, également appelé "eau lourde". Sur Terre, la proportion de deutérium est d'un atome pour 6 400 d'hydrogène et "les petits corps célestes qui ont apporté l'eau sur Terre devraient avoir une proportion similaire entre les deux isotopes", selon le MPS. Jusqu'à présent, les astronomes n'avaient observé cette proportion que chez les astéroïdes, composés de roches, de métaux et de glace, provenant de la ceinture d'astéroïdes située entre Mars et Jupiter.

Mais en analysant l'eau contenue dans la comète Hartley 2 qui est passée à proximité de la Terre en 2010, ils ont constaté que celle-ci contenait un atome de deuterium pour 6 200 atomes d'hydrogène, un taux très proche de celui de la Terre, ce qui voudrait dire que dans le passé de grandes quantité d'eau ont pu être amenées sur Terre par ce type de comète.

Nature

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Comment Genève se climatise et se chauffe à l'eau du Léman
Lundi, 24/10/2011 - 01:20

Dans certains domaines, la proximité de la Suisse a du bon : c’est le cas en matière écologique. Les Services Industriels de Genève (SIG) ont en effet récemment présenté à des élus et des techniciens travaillant dans les collectivités des lacs d’Annecy et Léman un dispositif de climatisation/chauffage grâce aux eaux lacustres. Le projet fonctionne depuis 2009 dans le quartier des Nations, et touchera demain le centre-ville et l’aéroport. Dans nos régions, il s’agit même de la plus prometteuse source d’énergie renouvelable, loin devant le solaire, l’hydro-électrique ou l’éolien.

Aujourd’hui, l’eau du lac Léman climatise environ 800 000 m² de bâtiments. Ce sont principalement des institutions internationales : l’Onu, le Bureau International du Travail mais aussi un hôtel comme l’InterContinental. « Ces bâtiments ont pu éliminer leurs machines à froid » explique Jean Brasier, responsable du projet aux SIG. L’avantage est double : le coût énergétique baisse de 20 %. Et le remplacement de machines qui fonctionnaient souvent au fioul a permis d’éviter le rejet de 6900 tonnes de CO² dans l’atmosphère.

Mieux encore, avec cette même technologie, les eaux du lac peuvent aussi servir de chauffage. « Cela ne peut marcher que sur les bâtiments neufs basse consommation tempère toutefois Jean Brasier. L’eau du lac ne peut être montée qu’à 50 degrés quand un bâtiment normal réclame de l’eau à 80 degrés pour être chauffé. » N’empêche qu’une nouvelle résidence étudiante ou des bureaux vont être chauffés par ce biais à Genève.

Comment ça marche ? L’eau est pompée à 35 mètres de fond, là où la température est sensiblement constante. Elle circule via des canalisations de 6 kilomètres sous terre, avant d’être rejetée un peu plus chaude dans les couches supérieures du lac, elles aussi plus chaudes. Mais entre-temps, elles ont refroidi les bâtiments par un simple système d’échangeurs ou les ont chauffés via des pompes à chaleur.

Le Dauphiné

Les glaciers pyrénéens fondent à vue d'oeil
Vendredi, 21/10/2011 - 06:30

Depuis 1850, les glaciers pyrénéens ont perdu 80 % de leur surface. Soixante-cinq pourcent d'entre eux ont carrément disparu en un siècle. C'est ce que révèlent les études publiées par l'Observatoire pyrénéen du changement climatique ou l'Agence régionale pour l'environnement (Arpe).

L'exposition du Muséum intitulée "Sur les traces d'Eugène Trutat" (du 4 octobre au  31 décembre), présente ce phénomène grâce à des clichés pris par Pierre René, président de l'association, qui a accumulé une collection de photographies des paysages pyrénéens à la fin du XIXème siècle. A leur côté figurent des photos prises récemment, qui montrent sans ambiguïté le recul des glaciers. Leur épaisseur diminue : de 1,5 m par an pour celui d'Ossoue, de 63 cm pour celui de la Maladetta, qui n'a qu'une quarantaine de mètres d'épaisseur. "Ils régressent très vite, et plus ils sont petits, plus ils sont vulnérables", explique Pierre René.

Le réchauffement a dramatiquement changé la donne climatique, et une perte de 10 à 15 jours d'enneigement a été enregistrée dans le massif de 1971 à 2008, selon Météo-France. Les glaciers se rechargent donc moins pendant l'hiver. Le climatologue de Météo-France Jean-Michel Soubeyroux souligne qu'ils sont "les meilleurs témoins de l'évolution du climat en haute montagne, et ils ne sont pas sujets à caution".  Aujourd'hui, le recul est patent et "la première décennie de 2000 a été beaucoup plus défavorable que les années 1990" pour les glaciers, constate Pierre René, qui voit leur disparition dans les décennies à venir.

France 2

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Prévenir les résistances aux traitements ciblés dans le cancer du sein
Jeudi, 27/10/2011 - 06:46

Il pourrait devenir possible de contrer l’apparition d’une résistance aux médicaments inhibiteurs de la phosphatidyl inositol 3-kinase (PI3K) dans la thérapie ciblée du cancer du sein. Une première étape est aujourd’hui franchie par la mise en évidence d’un nouveau mécanisme de résistance à ces anticancéreux qui font leur chemin à travers des essais cliniques.

La voie PI3K-AKT-mTOR est une voie essentielle dans la transduction du signal au sein de la cellule cancéreuse. Son inhibition représente une approche thérapeutique prometteuse. Des mutations activatrices de cette voie surviennent dans nombre de cancers, en particulier du sein, contribuant à la croissance maligne des tissus. Des inhibiteurs de PI3K sont en cours de développement. Malgré les promesses de ces thérapies ciblées, demeure l’écueil de l’apparition d’une résistance.

Utilisant une démarche à la fois génétique et chimique, une équipe autrichienne effectue une analyse systématique de l’effet de gènes cancéreux individuels sur la réponse cellulaire à des médicaments existants ou expérimentaux. Dans un premier temps, pour mimer les altérations génétiques liées au cancer du sein, elle met au point 89 lignées de cellules épithéliales humaines du sein, transfectées par un seul gène clairement lié à ce cancer (HER2, BRCA1, BRCA2 etc…).

Le criblage de leur aptitude à répondre à une collection de médicaments révèle différentes interactions et des mécanismes de résistance, dont certains connus, validant ainsi leur méthode. De façon intéressante, les chercheurs observent que l'activation de la voie NOTCH1 dans les cellules, via l’induction du gène c-MYC, peut conférer une résistance à des inhibiteurs de la PI3K en essais cliniques dans cette indication. La voie NOTCH n'avait pas été reliée à la PI3K dans le cancer du sein auparavant. Elle semble l’être dans plusieurs types de cellules épithéliales humaines de cancer du sein.

En addition, cette voie est impliquée dans d’autres cellules tumorales, des cellules de mélanome et de carcinome hépatocellulaire, d’après d’autres expérimentations in vitro poursuivies par les chercheurs, et paraît représenter un phénomène plus général.

En conclusion, les données révèlent un nouveau mécanisme de résistance aux inhibiteurs de PI3K, l'activation de la voie NOTCH1 et l’induction du gène c-MYC, dont les implications cliniques sont directes. Les chercheurs pensent que par la compréhension des types de changements qui peuvent survenir dans ces tumeurs au cours du traitement, il est possible de développer des stratégies pour contrer la résistance aux inhibiteurs de la PI3K avant qu'elle n’apparaisse, et ainsi améliorer les résultats de la chimiothérapie pour les patients.

JIM

Protection du cerveau contre le mercure
Jeudi, 27/10/2011 - 01:00

Des chercheurs de l'Inserm (Unité 968 « Institut de la Vision ») et du CNRS (laboratoire « Environnements et paléoenvironnements océaniques et continentaux (CNRS/Universités Bordeaux 1 et 4) viennent d'identifier des agents protecteurs contre la neurotoxicité du mercure. Ces agents, appelés chimiokines, déjà connus pour leur rôle dans l'infection et dans l'inflammation, démontrent leur efficacité à protéger le cerveau des souris dont l'alimentation est contaminée par du mercure. Les résultats obtenus démontrent que le mercure peut provoquer une neuroinflammation, et que la chimiokine CCL2 agit comme un système d'alarme neuroprotecteur dans les déficits neuronaux induits par le mercure. Ces résultats viennent d'être publiés dans la revue Toxicological Sciences.

Les pollutions chimiques et industrielles restent présentes dans notre environnement et sont une inquiétude pour la santé humaine. Les métaux lourds représentent les agents les plus polluants, et parmi eux le mercure. Son dérivé, le méthylmercure (MeHg) agit sur différents organes (fonction rénale et de reproduction) et sur le cerveau.

Des chercheurs français menés par William Rostène, directeur de recherche Inserm en collaboration avec des équipes japonaises ont étudié les effets neurotoxiques du MeHg et le blocage possible de cette toxicité via un système physiologique, celui des chimiokines. La première originalité de ce travail repose sur le modèle expérimental utilisé qui a pu reproduire chez la souris l'intoxication alimentaire des amérindiens Wayanas vivant en Guyane. Une perte d'environ 30 % des cellules nerveuses dans le cortex des souris contaminées par le MeHg a été observée dès 3 mois de traitement avec des croquettes contenant de la chair de poisson Aimara Hoplias contaminé péché en Guyane.

Le second aspect original de cette étude a porté sur le fait qu'une chimiokine, le CCL2, a un effet protecteur vis-à-vis de la neurotoxicité au mercure. Les chimiokines sont de petites protéines connues initialement pour participer, dans le système immunitaire, à la maturation et à la migration des leucocytes, en particulier au cours de l'infection et de l'inflammation. Cependant les auteurs de cette étude ont récemment montré que les cellules nerveuses (neurones et cellules gliales) pouvaient également fabriquer et libérer ces chimiokines, dont le CCL2, et jouer ainsi un rôle de neuromédiateur dans le cerveau. Les chercheurs ont observé que le MeHg induisait une diminution des concentrations en CCL2 dans le cortex ainsi qu'une activation des microglies. D'une manière intéressante, les souris dépourvues du gène CCL2 présentent déjà une perte des neurones de 30 %, perte qui est exacerbée par le MeHg. Cela suggère que la présence de CCL2 est nécessaire à la survie neuronale dans des conditions normales. En complément de ces expériences in vivo, des études réalisées sur des cultures de neurones ont montré que le blocage de la transmission de CCL2 augmentait la mort neuronale induite par le MeHg via un mécanisme faisant intervenir le système d'oxydoréduction (gènes SOD et glutathion).

L'ensemble de ces résultats démontre que le MeHg peut provoquer une neuroinflammation et que la chimiokine CCL2 agit comme un système d'alarme neuroprotecteur dans les déficits neuronaux induits par le MeHg. Ils viennent compléter et confirmer d'autres études récentes montrant les effets toxiques du mercure sur le métabolisme énergique et ses effets neurotoxiques.

CNRS

Arthrose : des pistes pour réparer le cartilage
Mercredi, 26/10/2011 - 01:00

Reconstitution de l'articulation avec des biomatériaux et greffes de cellules sont des solutions à l'étude.

Si la recherche fondamentale a permis de comprendre que le cartilage n'est pas le seul tissu impliqué dans l'arthrose, il reste au centre des phénomènes qui se produisent dans l'articulation arthrosique. De nombreuses équipes cherchent donc à élucider les raisons de la dégradation du cartilage et à identifier des cibles thérapeu­tiques. D'autres chercheurs étudient diverses approches visant à le réparer ou même à le régénérer.

Dans une articulation adulte normale, le cartilage est composé de cellules, les chondrocytes, entourées d'une matrice essentiellement faite de fibres de collagène et de polysaccharides capables de retenir l'eau. Le cartilage adulte ne contient pas de vaisseaux sanguins, les éléments nécessaires aux chondrocytes sont transmis par capillarité dans ce tissu qui se comporte un peu comme une éponge.

  • Cercle vicieux

Dans l'arthrose, le fonctionnement des chondrocytes semble se dérégler et entrer dans un cercle vicieux où la dégradation du cartilage provoque la production de molécules qui accélèrent encore plus cette dégradation. En comparant le cartilage des plaques de croissance au cartilage de l'articulation arthrosique, les chercheurs ont trouvé des points communs. «Il semble que les chondrocytes s'hypertrophient et provoquent une calcification de l'articulation, comme lorsque la plaque de croissance des os se referme», explique Jérôme Guicheux, directeur de recherche Inserm au CHU de Nantes.

Ainsi, des vaisseaux sanguins colonisent peu à peu le cartilage, amenant avec eux de nombreuses molécules qui dégradent la matrice extracellulaire du cartilage, qui se fissure et se dégrade peu à peu alors que la calcification s'enclenche. Les travaux de recherche dans ce domaine pourraient permettre d'identifier plusieurs cibles thérapeutiques visant l'angiogenèse, les facteurs qui conduisent les chondrocytes à reprendre une fonction qu'ils avaient abandonnée ou encore les microcristaux de calcium qui apparaissent dans l'articulation arthrosique.

Des greffes de chondrocytes ont également été envisagées, mais les premiers essais montrent que la réponse des patients est très variable et que le nouveau cartilage ne permet pas toujours une réparation efficace.

Le cartilage ayant essentiellement une fonction mécanique d'absorption des chocs, plusieurs équipes étudient diverses méthodes pour le reconstituer avec l'aide de biomatériaux pour fabriquer un cartilage semi-artificiel. Il s'agit alors de concevoir un échafaudage solide dans un matériau compatible avec l'organisme, sur lequel peuvent se fixer des cellules capables de remplir, peu à peu, tout l'espace au sein de l'échafaudage.

  • Essais de thérapie cellulaire

Plusieurs matériaux sont en cours d'évaluation, mais il est également important de bien choisir les cellules à implanter. Elles doivent être capables de se multiplier vite mais aussi de remplir les fonctions du tissu d'origine. Les chondrocytes, pourtant apparemment adaptés, ne se multiplient pas facilement en culture et tendent à perdre leurs fonctionnalités après plusieurs générations.

L'équipe Inserm dirigée par le Professeur Christian Jorgensen, à Montpellier, explore aujourd'hui la piste des cellules souches et notamment des cellules souches mésenchymateuses qui peuvent se multiplier avant de se différencier en chondrocytes lorsqu'elles sont orientées, par divers facteurs, dans la bonne direction. Les essais de thérapie cellulaire sur l'animal semblent prometteurs, mais les essais sur l'homme, limités à de très petits nombres, n'en sont encore qu'à un stade très préliminaire.

Le Figaro

Les bébés ressentent la douleur in utero
Mardi, 25/10/2011 - 01:40

Les circuits neuronaux permettant de percevoir la douleur commencent à se former deux semaines avant la naissance, selon des neurologues britanniques.

Longtemps, on a pensé que le nouveau-né ne ressentait pas la douleur, parce que son cerveau n’était pas assez mature. Jusque dans les années 1960 l’anesthésie des nouveau-nés pour certaines interventions médicales était même jugée inutile. Depuis, plusieurs études ont prouvé que les bébés sont sensibles à la douleur dès leur première semaine de vie. Et les pratiques médicales ont changé en conséquence. Une étude britannique va encore plus loin : elle démontre que les réseaux neuronaux permettant de distinguer la douleur d’une stimulation tactile « normale » commencent à émerger vers 35 semaines de grossesse, soit deux semaines avant la naissance à terme.

Lorenzo Fabrizi, de l’université de Londres, et ses collègues ont sélectionné 46 bébés : 25 bébés nés à terme, entre 37 et 41 semaines de grossesse, et 21 bébés nés prématurément entre 28 et 36 semaines de grossesse. Ils ont réalisé un électroencéphalogramme de ces bébés afin d’enregistrer l’activité de leur cerveau lors de deux stimulations tactiles différentes. La première stimulation, non douloureuse, consistait en un toucher du talon avec un marteau à réflexe. La seconde, douloureuse, était une piqûre sur le talon couramment pratiquée chez les nouveau-nés pour effectuer des prélèvements sanguins. Les neurologues ont constaté que, selon l’âge des bébés, la réponse cérébrale à ces deux stimulations variait.

  • Stimulation électrique

Chez la plupart des bébés nés à terme, chaque stimulation a provoqué une activité cérébrale spécifique, preuve que les circuits neuronaux propres au toucher et à la douleur s’étaient différenciés. Au contraire, chez les prématurés, les deux stimulations ont provoqué le plus souvent les mêmes bouffées d’activité neuronale, autrement dit une réponse cérébrale non spécifique. Cependant, dans 7 % des cas, une activité spécifique a été enregistrée en réponse à la stimulation tactile, et cette proportion a été de 33 % pour la stimulation douloureuse. Surtout, les neurologues ont constaté que la probabilité que le cerveau produise une réponse spécifique augmentait avec l’âge des bébés, alors que la probabilité qu’il produise des bouffées non spécifiques diminuait : les proportions commencent à s’inverser vers 35 semaines de grossesse.  Ces résultats suggèrent que les circuits neuronaux permettant de distinguer une stimulation douloureuse d’une stimulation tactile normale se mettent en place deux semaines avant la naissance.

« En 2010, cette équipe avait montré que, chez les bébés nés à 36 semaines de grossesse, une stimulation douloureuse provoque une réponse neuronale spécifique, précise Édouard Gentaz, de l’université de Grenoble. Cette nouvelle étude, qui porte sur des bébés nés à des âges très différents, apporte des résultats plus précis, en montrant que la signature neuronale de la douleur émerge entre 35 et 37 semaines de grossesse. Ces résultats encouragent à être encore plus vigilants sur la nature des soins et le contrôle de l’environnement, stressant, des services de néonatalogie : un défaut de prise en charge de la douleur chez les prématurés pourrait avoir un impact à long terme sur leur développement . »

La Recherche

Découverte d’un gène de prédisposition commun au mélanome et au cancer du rein
Mardi, 25/10/2011 - 01:30

Une étude, réalisée par l’Inserm et l’Institut de cancérologie Gustave Roussy (IGR) de Villejuif et coordonnée par le Docteur Brigitte Bressac-de Paillerets, chef du Service de Génétique de l’IGR, a permis d’identifier une mutation génétique responsable d’une prédisposition commune au mélanome (cancer de la peau) et au carcinome rénal (cancer du rein). La mutation concernée est appelée Mi-E318K, elle apparaît sur le gène codant pour une protéine appelée MITF (Facteur de Transcription associé à la Microphthalmie) et confère à ce gène muté une suractivité entraînant une augmentation de risque de mélanome et de cancer du rein chez les individus porteurs de cette mutation. Les résultats de cette étude viennent d’être publiés sous forme de lettre dans la revue scientifique Nature, en ligne sur leur site Internet.

Une étude récente a montré la coexistence de mélanome et de carcinome rénal chez certains patients. Le cancer du rein est fréquemment découvert après un diagnostic de mélanome, lors du bilan d’extension. A ce jour, aucun facteur de risque environnemental commun au mélanome et au cancer du rein n’a été mis en évidence. Cela suggère l’existence d’une prédisposition génétique commune à ces deux types de cancer.

Un groupe multicentrique rassemblant des cliniciens, généticiens, biologistes, pathologistes, biostatisticiens,… a émis l’hypothèse que le gène MITF pouvait être impliqué dans ce phénomène car il a été décrit comme oncogène (accélérateur de cancer) dans le mélanome et qu’il est également connu pour intervenir dans une voie d’activation cellulaire impliquée dans le développement de cancer du rein. L’équipe a réussi à identifier une anomalie dans la séquence de l’ADN, sur le codon 318, du gène MITF. Cette anomalie a été retrouvée chez 8 % des patients atteints à la fois de mélanome et de cancer du rein. "L’anomalie, appelée Mi-E318K, quand elle est présente chez les individus, multiplie par 5 le risque de développer un mélanome, un cancer du rein ou les deux. Cette anomalie génétique, héritée et transmissible, empêche une modification, appelée "sumoylation", de la protéine MITF en réponse à un stress, ce qui lui confère un caractère oncogénique", explique le Docteur Brigitte Bressac-de Paillerets de l’Institut Gustave Roussy.

"L’hypothèse résultant de nos travaux est qu’une voie de signalisation cellulaire impliquant MITF serait normalement activée en réponse à un stress oxydant de la cellule causée par les ultraviolets (UV) ou par un manque d’oxygène. Quand MITF est normal, cette voie permettrait la réparation de la cellule ou la mort de la cellule si elle n’est pas réparable. La mutation du gène MITF, quand elle est présente, déséquilibrerait cette voie de signalisation cellulaire et aboutirait à un risque plus élevé de développer un mélanome et/ou un carcinome rénal", précisent les Docteurs Corine Bertolotto et Robert Ballotti, chercheurs au sein de l’Unité Inserm 895 à Nice.

Ces résultats ouvrent de nombreuses perspectives de développement en applications cliniques et en recherche. "En clinique, un test de dépistage pourrait être développé afin de rechercher cette mutation chez les personnes atteintes soit de mélanome soit de cancer du rein. La mutation deviendrait un bio-marqueur de risque, qui, si elle est présente, indiquerait la nécessité d’une surveillance particulière au niveau du rein et de la peau. Des conseils de prévention solaire pourraient aussi être donnés aux personnes atteintes de carcinome rénal, ayant une peau claire et/ou étant porteurs de nombreux grains de beauté", explique le Professeur Marie-Françoise Avril (Hôpital Cochin-Tarnier, AP-HP, Paris). En recherche, ces travaux apportent un éclairage nouveau, à approfondir, sur les voies de signalisations impliquées dans le stress oxydant (UV et/ou hypoxie) et le développement de cancer. "Nos travaux démontrent la puissance de l’approche utilisée qui a permis d’identifier des variants génétiques rares conférant un risque modéré de cancer, ce qui représente actuellement un des défis majeurs de la recherche en génétique de maladies multifactorielles comme le cancer. Il convient maintenant d’identifier les co-facteurs génétiques et/ou environnementaux impliqués dans la coexistence du mélanome et du cancer du rein et, potentiellement, d’autres cancers", souligne le Docteur Florence Demenais, directrice de l’Unité 946 Inserm-Université Paris Diderot.

Ce travail est un bel exemple de recherche translationnelle : le point de départ est une observation clinique, suscitant une question que vont résoudre les équipes de recherche, aboutissant à un retour à plus ou moins long terme vers une meilleure prise en charge des patients. Cette découverte en laboratoire pourra être exploitée en clinique par la mise au point d’un test de dépistage pour une prise en charge personnalisée d’une population maintenant définie. A moyen terme, elle conduira peut-être à l’identification de nouvelles cibles thérapeutiques. Enfin cette découverte peut aussi être exploitée en recherche puisqu’elle met en lumière de nouveaux mécanismes d’action cellulaire et participe à une meilleure compréhension de la cancérogenèse.

INSERM

Le teriflunomide, nouvelle option dans la sclérose en plaques
Mardi, 25/10/2011 - 01:00

Le teriflunomide est un inhibiteur réversible de la déhydro-orotate déhydrogénase, enzyme clé impliquée dans la synthèse des pyrimidines lors de la réplication de l’ADN. Cette propriété entraîne une diminution de l’activation des lymphocytes B et T, de leur prolifération et de leurs réponses aux autos antigènes. Cependant cette substance préserve la réplication et la fonction des cellules d’indivision lente utilisant les sources exogènes de nucléotides pyrimidines. Des études préliminaires de phase II avaient déjà montré qu’une dose quotidienne de 7 ou 14 mg de teriflunomide diminuait l’activité de la maladie.

Cependant, dans le New England journal  of Medecine viennent d’être publiés les résultats de  l’étude TEMSO (The Teriflunomide Multiple Sclerosis Oral trial). Cet essai thérapeutique de  phase 3, randomisé, en double aveugle, contre placebo a été développé  afin  d’évaluer l’efficacité et la sécurité du teriflunomide dans la sclérose en plaques rémittente. Au total, 1 088 patients avec sclérose en plaques rémittente, ayant eu au moins une poussée dans l’année ou au moins 2 poussées dans les deux dernières années ont été inclus dans cette étude comparant l’effet du placebo et du teriflunomide à la dose de 7 ou de 14 mg par jour pendant 108 semaines. Ces patients avaient un handicap léger à modéré (EDSS<5). Le score EDSS (Expanded Disability Status Scale) moyen à l’inclusion était de 2,7.

Le traitement par teriflunomide a réduit significativement le taux annuel de poussée (critère majeur d’évaluation) de 31,2 %  pour la dose de 7 mg et de 31,5 % pour la dose de 14 mg (p<0,00 1). Le pourcentage de patients dont le handicap continuait à progresser était plus important dans le groupe placebo (27,3 %) que dans le groupe 7 mg (21,7 %, p=0,03)  et le groupe 14 mg (20,2 %, p=0,08). L’IRM a retrouvé des résultats similaires avec une diminution de la charge lésionnelle et du nombre des lésions rehaussées après injection de gadolinium.

Par contre, il n’a pas été observé d’effet sur l’atrophie. La fatigue faisait également partie des paramètres d’évaluation mais il n’a pas été noté de différence entre les trois groupes en ce qui concerne le score à la Fatigue Impact Scale. Dans le groupe traité par teriflunomide, davantage de diarrhées, de nausées et de complications capillaires (cheveux plus fins) ont été constatées.

Des infections sérieuses ont été reportées  chez 1,6 % des patients sous placebo et 2,5 et 2,2 % des patients sous produit actif. Il a été noté une augmentation discrète des transaminases chez 54 à 57,3 % des patients sous teriflunomide (35,9 % dans le groupe placebo). Toutefois, les taux d’augmentations significatives à trois fois la valeur normale ont été similaires dans les différents groupes (entre 6 et 7 %). Les auteurs considèrent dans leur conclusion que le teriflunomide diminue de manière significative la progression de la maladie sur le plan clinique et en  IRM.

JIM

Une prise de sang pour détecter précocement les hypertendus à risque d’insuffisance cardiaque diastolique
Lundi, 24/10/2011 - 01:30

L’hypertension artérielle (HTA) est une des causes principales d’insuffisance cardiaque. Elle est en effet susceptible d’induire une inflammation et une fibrose du tissu myocardique pouvant conduire à une dysfonction ventriculaire gauche après un certain temps d’évolution. Mesurer les nouveaux bio-marqueurs de ces processus devrait donc permettre de détecter les patients à risque.

Pour tester cette hypothèse, une étude observationnelle a inclus 275 patients hypertendus stables qui ont été divisés en deux groupes : groupe 1, HTA asymptomatique (n=94) et groupe 2, patients insuffisants cardiaque à fraction d’éjection préservée (n= 181). Les malades du groupe 1 ont été également distingués en deux groupes selon que leur oreillette gauche était dilatée (n=30) ou non (n=64). Différents marqueurs ont été mesurés : de l’inflammation (interleukine 6 et 8, protéine 1 d’attraction des monocytes MCP-1, tumor necrosis factor alpha TNF), de fibrose (marqueurs métaboliques du collagène 1 et 3), du turnover de la matrice extra cellulaire [matrix metalloproteinase 2 (MMP2), matrix metalloproteinase 9 (MMP9), et tissue inhibitor of metalloproteinase 1 (TIMP1)], ainsi que le BNP (brain natriuretic peptide).

Les données ont été ajustées selon l’âge, le sexe, la pression systolique et la créatinine. La présence d’une insuffisance cardiaque à fraction d’éjection préservée était associée avec une augmentation du taux des différents marqueurs qu’ils soient inflammatoires, de la fibrose ou du turnover de la matrice. Ces données préliminaires semblent donc indiquer qu’il serait possible de discriminer parmi les hypertendus à l’aide du dosage de ces marqueurs (en particulier MMP2, MMP9, TIMP1) les patients les plus à risque de présenter une insuffisance diastolique et ainsi peut-être de mieux cibler les traitements.

JIM

Le lien entre un vieillissement sain et les troubles neurodégénératifs
Lundi, 24/10/2011 - 01:10

Une équipe internationale de chercheurs partiellement financée par l'UE a découvert de nouvelles informations associant le vieillissement sain et les troubles neurodégénératifs dont la maladie d'Alzheimer. La recherche était partiellement soutenue par le projet CLIP («Mapping functional protein-RNA (ribonucleic acid) interactions to identify new targets for oligonucleotide-based therapy»), lequel bénéficie d'une subvention de démarrage du Conseil européen de la recherche (CER) d'une valeur de 900 000 euros au titre du septième programme-cadre (7e PC). La subvention dure 5 ans, jusqu'à 2013. L'étude est présentée dans la revue Genome Research.

Deux des maladies neurodégénératives les plus répandues sont la maladie d'Alzheimer et la dégénérescence lobaire fronto-temporale (DLFT). Dans cette étude, des chercheurs menés par le conseil de recherche médicale (MRC) du laboratoire de biologie moléculaire au Royaume-Uni ont étudié les changements dans l'expression génétique du vieillissement et le cerveau malade, éclairant d'un jour nouveau la biologie du vieillissement et des maladies neurologiques.

Des chercheurs ont déjà découvert dans des études antérieures que les gènes sont lus ou exprimés dans le cerveau lorsque le vieillissement ou une maladie neurologique apparaît, mais personne n'avait jamais comparé dans une étude les changements d'expression génétique dans le vieillissement sain et pour les personnes malades.

Pour les besoins de l'étude, l'équipe a évalué et comparé des changements au niveau de l'expression génétique associée au vieillissement et aux maladies dans une région du cerveau que les experts expliquent être affectée dans la maladie d'Alzheimer et la DLFT. Ils ont comparé des échantillons provenant de sujets sains, âgés de 16 à 102 ans, avec des échantillons de sujets malades. Les chercheurs ont identifié des changements similaires dans les modèles d'expression génétique associés au vieillissement et aux maladies neurodégénératives.

«De manière surprenante, les échantillons [malades] contenaient les mêmes changements que ceux affectant les individus âgés de plus de 80 ans», explique l'auteur principal le Docteur Jernej Ule du MRC du laboratoire de biologie moléculaire. L'un des autres auteurs, le Docteur James Tollervey de la même institution, ajoute : «On observait des changements liés au vieillissement chez les individus malades de 50 ans, environ 25 ans plus tôt que l'âge auquel ils apparaissent chez des individus sains.»

Malgré les similitudes frappantes, les chercheurs ont découvert des différences entre l'expression génétique dans le cerveau soumis à un vieillissement normal et l'expression génétique dans la maladie d'Alzheimer et la DLFT. Cela était particulièrement évident pour les modèles d'épissage alternatif, dans lesquels des segments de molécules d'ARN sont arrangés différemment pour ajuster le message, un processus qui peut être déréglé avec de dangereuses conséquences.

Au cours du processus normal du vieillissement, les gènes associés au métabolisme cellulaires étaient d'abord affectés par les changements de l'épissage alternatif. Les changements spécifiques à la maladie étaient associés aux gènes spécifiques aux neurones. Les changements dans l'expression d'un nombre de gènes codant les protéines de fixation de l'ARN ont été observés, ce qui pourrait expliquer certaines altérations observées dans l'épissage.

Selon les chercheurs, cette étude entraînera l'application de travaux sur le vieillissement normal et les maladies neurodégénératives. «Ces résultats indiquent que les études sur le vieillissement sain pourraient démontrer des processus menant à la neurodégénérescence», commente le Docteur Ule. Un autre auteur de l'étude, Boris Rogelj du centre de recherche sur la neurodégénérescence au King's College de Londres, explique : «Inversement, nos résultats indiquent que les études sur les maladies neurodégénératives pourraient nous aider à mieux comprendre comment retarder les changements entraînés par le vieillissement en bonne santé à un âge avancé.»

Cordis

Contrôler les neurones par la lumière !
Lundi, 24/10/2011 - 01:00

Une innovation technique vient de naître dans le domaine des neurosciences, issue de la rencontre entre les outils de l'optique et ceux de la génétique. Sous le nom d'"optogénétique", elle promet de bouleverser notre connaissance du cerveau et de mettre "à portée de lumière" le support organique de nos actions et de nos sentiments. La lumière maîtrisée (fibre optique, laser, etc.), déjà utilisée en microscopie du vivant, avait jusqu'à maintenant permis une observation fine des cellules nerveuses allant de leur forme générale jusqu'au mouvement intime des molécules qui gèrent leur fonctionnement ; par son association avec les techniques de la génétique, elle peut aujourd'hui intervenir directement sur le contrôle des fonctions cérébrales.

Le principe est facile à comprendre à condition de se souvenir que les neurones sont des cellules excitables, c'est-à-dire dont la membrance est perméable de façon sélective à des charges négatives ou positives portées par des atomes, ces ions responsables des variations de potentiel et du fabuleux ballet électrochimique auquel participent les 10 milliards de neurones du cerveau. En raison des propriétés électriques des membranes, les chercheurs ont logiquement utilisé jusqu'à présent l'électricité pour agir sur le cerveau.

L'inconvénient majeur de cette approche est son manque de spécificité lorsque le courant est délivré par des électrodes puisqu'il se propage à toutes les structures conductrices en dehors de la région stimulée. La nouvelle méthode se propose de remplacer l'électricité par la lumière, mais il convient auparavant de rendre les neurones étudiés sensibles à cette dernière. La génétique permet de faire exprimer par ces neurones une protéine photosensible : la rhodopsine rétinienne. La neurobiologie s'intéresse à deux rhodopsines découvertes respectivement dans une algue unicellulaire sensible à la lumière bleue (celle des fonds marins) et une archéobactérie saharienne sensible à la lumière jaune. La première, lorsqu'elle est éclairée, provoque une augmentation de l'excitabilité de la cellule et la seconde une inhibition, à la façon de deux "interrupteurs" permettant à l'expérimentateur d'exciter ou d'inhiber le neurone en l'éclairant par un faisceau lumineux bleu ou jaune.

Le groupe de Pierre-Marie Lledo, à l'Institut Pasteur, vient de montrer que des neurones nouvellement engendrés dans le cerveau de souris adultes pouvaient être stimulés de la sorte (ou inhibés) et qu'il était possible de prendre le contrôle de leur activité électrique simplement à l'aide de flashs lumineux. L'avenir de cette technique est à la fois prometteur et inquiétant. En médecine, la possibilité de viser spécifiquement des neurones impliqués dans une maladie dégénérative (Parkinson ou Alzheimer) ou dans les troubles mentaux reste suspendue à l'utilisation de vecteurs génétiques acceptables chez l'humain. L'aspect inquiétant tient à la possibilité accrue d'intervenir dans le cerveau de l'homme pour modifier ses comportements d'une façon autrement plus spécifique et puissante que les médicaments.

L'Express

Découverte d'un mécanisme génétique lié à l'autisme
Dimanche, 23/10/2011 - 01:40

Des chercheurs américains ont découvert un mécanisme génétique - en manipulant génétiquement des souris dont les symptômes sont similaires à ceux d'enfants autistes - qui expliquerait ce trouble. Cette recherche montre pour la première fois que le fait d'hériter d'un nombre de copies moindre de certains gènes se traduit par des symptômes ressemblant à ceux provoqués par l'autisme chez les enfants, expliquent les auteurs de cette étude parue dans les Annales de l'Académie nationale américaine des sciences (PNAS) datées du 3 au 7 octobre.

En 2007, le Professeur Michael Wigler, du Cold Spring Harbor Laboratory (CSHL), avait constaté que certains enfants autistes ont une petite partie de certains gènes sur le chromosome 16 qui sont effacés. Cette partie affecte 27 gènes dans une région du génome appelée 16p11.2.Cette amputation génétique qui fait hériter aux enfants d'une seule copie de ce groupe de gènes est l'une des variations génétiques les plus communément liées à l'autisme, précisent les auteurs de cette recherche.

"Nous avions ainsi les outils pour voir si des changements dans le nombre de copies de gènes trouvés chez des enfants autistes provoquaient les symptômes", explique Alea Mills, professeur à CSHL et principal auteur de cette étude. En créant un modèle animal avec des souris rendues "autistes" avec une technique, dite d'ingéniérie du chromosome, Alea Mills a montré pour la première fois que le fait d'hériter d'un moins grand nombre de copies de ces gènes produit des symptômes ressemblant à ceux de l'autisme chez les enfants, explique-t-elle.

Les souris génétiquement manipulées pour créer la même anomalie dans la partie du chromosome 16p11.2, à savoir l'amputation du groupe de gènes correspondant chez les humains, a provoqué une variété de comportements ressemblant cliniquement à l'autisme chez les humains.

Ainsi, "des souris amputées de ce groupe de gènes se comportaient totalement différemment des souris normales", souligne Guy Horev, un chercheur de l'équipe d'Alea Mills et premier auteur de l'étude. Ces souris avaient un grand nombre de comportements caractéristiques de l'autisme : l'hyperactivité, des difficultés d'adaptation à un nouvel environnement, des déficits de sommeil et des comportements répétitifs, indique le chercheur.

Pour Nicolas Ramoz, chercheur à l'Inserm (Institut national de la santé et de la recherche médicale) spécialisé dans la génétique de l'autisme, les travaux de l'équipe du CSHL ouvrent d'importantes perspectives. Car, en plus de la confirmation qu'il existe bien un lien entre cette anomalie et certains autismes, elle propose une méthode innovante qui pourrait permettre de vérifier l'implication d'autres régions du génome.

AFP

Le Point

Découverte d'un gène de prédisposition à l'ostéoporose
Dimanche, 23/10/2011 - 01:20

Une équipe de chercheurs à l'Institut de recherches cliniques de Montréal (IRCM), dirigée par le Docteur Jean Vacher, a identifié un nouveau gène qui module la masse osseuse et qui pourrait représenter un facteur de risque pour le développement de l'ostéoporose. Cette découverte scientifique est publiée dans la revue scientifique Cell Metabolism.

L'ostéoporose est une maladie génétique « silencieuse » caractérisée par une faible densité minérale osseuse et une détérioration du tissu osseux, ce qui entraîne une plus grande fragilité des os et augmente les risques de fractures.  Dans tous les cas, la maladie est causée par un déséquilibre entre la formation et la dégradation du tissu osseux.

« L'objectif global de nos recherches est d'examiner les mécanismes moléculaires et cellulaires qui déterminent l'équilibre entre la formation et la résorption (dégradation) osseuse. Les ostéoblastes sont responsables du développement de l'os et travaillent en synergie avec les ostéoclastes qui remodèlent l'os. Afin de mieux comprendre ces mécanismes complexes, nous étudions le rôle de nouveaux gènes qui influencent les ostéoclastes et les ostéoblastes » a expliqué le Docteur Vacher, directeur de l'unité de recherche en interactions cellulaires et développement à l'IRCM.

Les chercheurs ont récemment isolé un gène qui module les ostéoclastes. Ils ont trouvé, chez la souris, qu'une perte de fonction de ce gène entraînait une augmentation importante du nombre d'ostéoclastes, engendrant ainsi une résorption osseuse plus élevée.

« Nous avons identifié ce gène comme étant un régulateur inédit de la densité minérale osseuse chez la souris et chez l'humain. Plus important encore, nous avons démontré que le gène humain pourrait être utilisé comme un nouveau facteur de susceptibilité pour l'ostéoporose. Cette découverte permettra ainsi d'identifier les individus ayant une plus grande prédisposition à développer la maladie afin qu'ils puissent bénéficier de mesures préventives » a ajouté le Docteur Vacher.

Selon Ostéoporose Canada, près de deux millions de canadiens sont atteints d'ostéoporose. Une femme sur quatre de plus de 50 ans est atteinte d'ostéoporose, de même qu'un homme sur huit du même âge. En outre, 80 % des fractures de la hanche sont associées à la maladie. De ce nombre, on compte un taux de mortalité de 20 % et 50 % des survivants deviennent invalides.

Newswire

Développement d'un nouveau coeur artificiel à sustentation magnétique
Dimanche, 23/10/2011 - 01:00

Les scientifiques de la Tokyo Medical and Dental University et du Tokyo Institute of Technology ont annoncé le 28 septembre 2011 avoir conjoitement développé un nouveau type de coeur artificiel provisoire externe dont le système de pompage limiterait drastiquement les risques de thrombose.

Les premiers modèles de coeurs artificiels ont été développés au début des années 1970. Les deux difficultés principales auxquelles se sont heurtés les scientifiques de l'époque perdurent encore aujourd'hui : les phénomènes de rejet immunitaire et la nécessité d'alimenter constamment l'appareil par une batterie externe portable rechargée fréquemment. Si ces deux problèmes n'ont pas été totalement résolus, peu à peu des nouvelles solutions parviennent à les contourner : coeurs artificiels externes afin d'éviter toute réaction défensive de la part de l'organisme, batteries à longévité accrue...

Le coeur artificiel développé par les scientifiques japonais est conçu pour une utilisation comprise entre une semaine et un mois dans les cas urgents. Il peut également être employé sur une période plus longue afin de stabiliser des patients en attente de greffe par exemple. Le système de pompage du sang est assuré par une turbine interne maintenue en sustentasion électromagnétique par le biais d'un puissant aimant central. Grâce à ce système ingénieux, ainsi qu'un revêtement en 2-methacryloyloxyethyl phosphorylcholine (MPC) imitant la structure des membranes cellulaires, la formation de caillots fréquemment constatée dans les autres modèles de coeurs est très limitée. En effet, selon les résultats d'expériences réalisées sur 5 bovins pendant 60 jours consécutifs sans renouvellement de pompe, aucun phénomène de thrombose n'a été constaté. La procédure chirurgicale nécessaire à l'implantation chez l'adulte et l'enfant est évaluée à 6 heures environ.

Bulletins Electroniques

 


Greffe : première transplantation d'un utérus réussie
Samedi, 22/10/2011 - 01:00

Une première mondiale. Les médecins de l'hôpital universitaire Akdeniz, à Antalya en Turquie, ont indiqué qu'ils avaient réussi une transplantation d'utérus au mois d'août. Alors qu'une première tentative de transplantation a eu lieu en Arabie Saoudite en 2009, celle-ci est cependant considérée comme une première mondiale. C'est en effet la première fois que cet organe est prélevé du corps d'une femme décédée pour être greffé à une patiente. Comme près de 5.000 femmes à travers le monde, Derya Sert est venue au monde dépourvue d'utérus. Agée de 21 ans, cette jeune femme – qui se repose après son opération – a désormais une chance de pouvoir porter un enfant. A condition toutefois que la greffon ne soit pas rejeté.

Si ce genre d'opération demeure toujours très délicat, l'équipe – composée de huit médecins et de sept soignants - qui a effectué cette transplantation a bon espoir qu'elle réussisse. Alors que la première transplantation réalisée en Arabie Saoudite s'était soldée par un échec, Münire Erman Akar, une gynécologue de l'équipe a estimé que « lors de cette opération, la veine était trop courte pour l'anastomose (jonction) et l'utérus n'était pas très bien assisté ». Des propos partagés par l'un de ses équipiers, le chirurgien Ömer Özkan pour qui « c'était un handicap d'avoir affaire à une donneuse vivante ».

Ainsi, le fait que l'organe ait été prélevé sur une donneuse décédée a permis aux médecins de pouvoir prélever davantage de tissus et des vaisseaux sanguins plus longs. Le greffon a donc plus de chance de tenir que lors de la précédente greffe de ce type. D'autant que de nouveaux médicaments censés prévenir un rejet ont fait leur apparition au cours de ces deux dernières années.

Fort de cette opération, le docteur Özkan a par ailleurs souligné que « pour le moment, nous sommes satisfaits de constater que le tissu est vivant ». D'après lui, il faudra toutefois que Derya Sert attende six mois avant que des embryons soient implantés dans son utérus. Le docteur Akar a cependant prévenu qu' « il y a de nombreux risques, tels que la formation d'anomalies congénitales à cause des immunosuppresseurs, et aussi des risques de travail avant terme, ou de retard de croissance intra utérine ».

France Soir

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Air liquide fait rouler des voitures à hydrogène
Dimanche, 23/10/2011 - 01:10

Air Liquide souhaite que la France se mobilise aussi pour le développement de ces véhicules électriques. Le Groupe vient de présenter 12 véhicules, une station de distribution d'hydrogène bi-pression (350 et 700 bar) conçue et développée par Air Liquide, qui permet aux véhicules de faire le plein lors de ces essais. À première vue, les Toyota, Hyundai, Honda, Mercedes, Opel à pile à combustible exposées sur le circuit de Marcoussis, au sud de Paris, par Air liquide sont identiques aux modèles que l’on voit circuler. C’est en roulant que l’on découvre la différence. Il s’agit de véhicules équipés d’un moteur électrique alimenté en électricité par un mélange hydrogène-oxygène, appelé pile à combustible.

Au volant de la Hyundai FCEV, dérivé du 4×4 Santa Fé, le conducteur est rapidement séduit par le silence, le couple du moteur qui offre de belles reprises, mais aussi un sentiment de liberté. Fini, l’auto électrique réservée au cabotage. À la différence des voitures équipées de batteries classiques dont l’autonomie dépasse rarement les 200 kilomètres, la voiture à pile à combustible dispose d’un réservoir dans lequel est logé l’hydrogène. En cinq minutes, à comparer aux six heures de recharge d’une batterie traditionnelle, le conducteur fait son plein avec un pistolet qui ressemble à celui des pompes à essence. Air liquide, qui se rêve en Shell ou Total de l’hydrogène, avance même un prix : environ 5 euros hors taxe pour 100 kilomètres. La Honda FCX Clarity affiche ainsi une autonomie de 460 kilomètres. Celle de la Hyundai FCEV atteint 580 kilomètres.

L’expérience est donc concluante. Seul hic, la France est dans le domaine totalement à la traîne. À l’heure où le groupe Bolloré teste à Paris une soixantaine de BlueCar électriques dans le cadre d’Autolib’, il n’existe aucune station à hydrogène dans notre pays. On en compte quinze en Allemagne, vingt en Californie, trois en Italie…

Or Benoît Potier, PDG d’Air liquide, est catégorique, le développement de ce type d’énergie passera par l’installation d’un réseau de distribution. Dans le cadre d’un partenariat public, il se dit prêt à financer une vingtaine de stations en hydrogène. Il faut tabler sur 1 milliard d’euros pour déployer un réseau de mille stations.

Une commercialisation de masse de véhicules à pile à combustible semble difficile avant 2020, voire 2030, même si les premiers modèles sont prévus pour 2015. Les constructeurs et les États misent sur les voitures hybrides et électriques (équipées de batteries), qui demandent déjà des ressources importantes, notamment en termes d’infrastructures de recharge. La plupart des constructeurs ont pourtant lancé des programmes sur l’hydrogène. Honda, Daimler, Toyota ou General Motors sont parmi les plus avancés. Honda loue déjà des FCX Clarity au prix de 600 dollars par mois en Californie. General Motors fait aussi rouler une centaine de Chevrolet Equinox à hydrogène. Et Mercedes a réalisé cette année un tour du monde avec trois classe B à hydrogène.

Pour l’heure, le coût de cette technologie reste un obstacle majeur à son développement. La Hyundai FCEV revient aujourd’hui à 100.000 euros. Le constructeur coréen estime qu’il devrait pouvoir la commercialiser dans quelques années au prix d’une voiture électrique traditionnelle. Certes, les coûts baisseraient avec une production en série, mais «tant que le rendement de la pile à combustible n’aura pas été multiplié par deux ou trois, ce qui suppose une rupture technologique, les coûts resteront dissuasifs. À moins que les prix des métaux précieux baissent, ou que le baril de pétrole grimpe à des niveaux très élevés», estime Sébastien Amichi, directeur des études au cabinet Roland Berger.

Pour beaucoup, qui trouvent le démarrage de la voiture électrique déjà compliqué alors que l’électricité est disponible partout, cette technologie aura du mal à rencontrer rapidement le grand public. Une vision que ne partage pas Benoît Potier. Il rappelle que la voiture à hydrogène est un véhicule électrique et que cette technologie profitera du développement de l’auto électrique. L’enjeu est de taille pour Air liquide. 1 % du parc automobile mondial équipé de piles à combustible, c’est 15 milliards d’euros de vente d’hydrogène par an.

Il faut enfin souligner que l'hydrogène permet à  distance parcourue égale, « du puits à la roue », une diminution de l'ordre de 20 % des émissions de GES par rapport aux véhicules à combustion. Aujourd'hui, 95 % de l'hydrogène produit l'est à partir de gaz naturel.

Le Figaro

L'hélicoptère hybride prend son envol
Samedi, 22/10/2011 - 01:20

Eurocopter vient d’annoncer qu’il a procédé avec succès aux premiers essais en vol d’un hélicoptère hybride combinant un turbomoteur à combustion interne et un moteur électrique. Cette première mondiale ouvre la voie à de nouvelles améliorations dans le domaine de la sécurité des aéronefs à voilure tournante. Pour cette première percée dans l’exploration d’une solution hybride, Eurocopter utilise un système de propulsion électrique pour accroître la manœuvrabilité des hélicoptères mono-turbine en cas d’atterrissage en autorotation, une méthode qu’utilisent les pilotes en cas de défaillance du moteur principal de l’appareil.

L’appareil utilisé comme démonstrateur est un modèle de série de l’hélicoptère mono-turbine léger AS350 équipé d’un système de propulsion électrique. En cas de panne du turbomoteur, le moteur électrique prend le relais et entraîne le rotor, ce qui permet au pilote de maîtriser très facilement son appareil pendant la descente et de le poser en toute sécurité. La prochaine étape consiste à porter ce concept à maturité et à en évaluer l’application aux hélicoptères de série d’Eurocopter.

« La propulsion hybride représente un élément important du programme d’innovation défini par Eurocopter en vue de développer la prochaine génération d’hélicoptères. Cette technologie offre de nouvelles possibilités d’amélioration dans le domaine de la sécurité, ainsi que des perspectives de réduction de la consommation d’énergie et des émissions », a expliqué Lutz Bertling, Président et CEO d'Eurocopter, lors de ce vol d’essais. Sur le démonstrateur hybride AS350, le moteur électrique très compact et la batterie lithium polymère sont installés au centre de l’appareil. Les commandes électroniques assurent la distribution précise de l’énergie fournie au moteur électrique au cours de la phase d’autorotation.

Industrie & Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top