RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 631
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Décembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Apple et Google prépareraient des appareils « wearable »
Cambridge met en ligne les écrits d'Isaac Newton
La pré-plainte en ligne étendue à toute la France en 2012
Avenir
Des robots-surveillants en test dans une prison sud-coréenne
L'Europe a mis au point un robot neurochirurgien
Matière
Défaillances électroniques : un procédé de diagnostic innovant au service des garagistes
Une électricité made in France à partir de... vin et de fromage
Diriger la lumière vers les nouvelles énergies
Des cellules photovoltaïques avec 50 % de rendement avant 2020
Espace
Lancement accompli des satellites Pléiades, Elisa et SSOT
Terre
Un lien entre les forêts et l'acidité des pluies
Une très vieille tectonique
La Polynésie française menacée par la montée des eaux
La mer Morte menacée
Vivant
Alzheimer : les nouvelles recommandations de la Haute Autorité de Santé
VIH : Un mécanisme de l’inflammation chronique décrypté
Maladies neurologiques : la stimulation magnétique transcrânienne devient une option thérapeutique
BCG et interféron ?-2B pour le carcinome de la vessie
Nouvelle piste de traitement contre le diabète
Les secrets de "l'hormone du sommeil" révélés
Espèces marines privées d'habitat : réchauffement planétaire en cause !
Un vaccin anti-cancer donne des résultats prometteurs
Un robot qui lie la main au cerveau
Comment les antidépresseurs créent de nouveaux neurones
Recherche
Plus les chercheurs sont âgés, plus ils sont créatifs
L’hélicoptère NH90 d'Eurocopter entre en service dans la Marine
L'effort français de recherche a été maintenu malgré la crise
Edito
Cancer : nous pouvons déjà le prévenir, nous pourrons un jour le guérir !



Bien qu'il faille toujours rester prudent pour ne pas susciter de faux espoirs chez les malades et leurs familles, un vent d'optimisme et même d'enthousiasme souffle, en cette fin d'année 2011, chez les chercheurs et les médecins qui se battent chaque jour contre le cancer.

Sur le front de la prévention, le remarquable colloque international organisé par l’Anses à Paris, le 12 décembre, a été l'occasion de faire l'état des lieux sur l'importance respective des différents facteurs environnementaux, qu'il s'agisse de choix de vie personnels ou de facteurs exogènes, qui favorisent l'apparition des cancers.

Même s'il reste très difficile, sur le plan épidémiologique, de démêler le poids respectif des différents facteurs, la communauté scientifique admet à présent, dans sa grande majorité, que le mode de vie et l'environnement jouent un rôle déterminant dans l’apparition des cancers. Nos choix de vie et nos mauvaises habitudes alimentaires seraient ainsi responsables d'au moins 45 % des cancers (soit 145 000 par an en France sur les 365 000 nouveaux cas de cancers annuels). Quant aux autres facteurs environnementaux non dépendants de nos choix, exposition aux particules fines, aux substances chimiques, à certains virus ou bactéries, ils seraient responsables d’environ 20 % des cancers. Au total, près des deux tiers des cancers seraient donc provoqués ou favorisés par l'environnement au sens large.

Un des grands défis de santé publique de ces prochaines années sera donc de mettre en oeuvre de vastes politiques à long terme de prévention du cancer en agissant fortement et simultanément sur ces différents facteurs environnementaux. Force est de constater que dans ce domaine crucial de la prévention active, il reste dans notre pays d'immenses progrès à accomplir car nous avons trop longtemps été persuadés que les avancées de la science et la médecine suffiraient à elles seules à nous débarrasser de ce fléau et nous sommes à présent obligés de reconnaître que la réalité est bien plus complexe et que le combat se gagnera aussi sur le terrain éducatif, social et culturel.

Il n'en demeure pas moins que la science, mobilisant tous les nouveaux outils qu’elle a à sa disposition, ne cesse de remporter des victoires contre le cancer en améliorant sa connaissance fondamentale de cette maladie complexe et en proposant aux malades des traitements de plus en plus novateurs et efficaces qui auraient été impensables il y a encore dix ans.

Sans passer en revue toutes les avancées remarquables intervenues au cours de ces derniers mois en cancérologie, on peut cependant rappeler les principaux axes autour desquels s'organisent à présent les nouveaux outils thérapeutiques contre le cancer.

Parmi ces nouveaux outils, les nanomédicaments tiennent une place de choix et commencent à sortir des laboratoires pour soigner les patients. La société MagForce vient ainsi d'obtenir des autorités européennes l'autorisation de mise sur le marché pour son traitement du glioblastome (une forme grave de cancer du cerveau) grâce à des nanoparticules magnétiques. Sous l'effet d'un champ magnétique, ces particules chauffent et détruisent les cellules cancéreuses.

En France, la jeune société Nanobiotix expérimente à l'Institut Gustave-Roussy, NanoXray, un nouvel outil issu de la nanomédecine pour traiter certains sarcomes. Ce traitement consiste à véhiculer dans la tumeur des nanoparticules d'hafnium qui vont multiplier par huit l'effet de la radiothérapie et détruire ainsi beaucoup plus efficacement mais toujours de manière ciblée, les cellules cancéreuses.

En Israël, des chercheurs de l’Université de Tel Aviv, Yona Keisari et Itzhak Kelson, expérimentent actuellement sur des souris un micro-implant radioactif  qui est introduit grâce à une aiguille hypodermique au cœur de la tumeur et fait littéralement exploser celle-ci. Les résultats de ces essais sur différents types de cancer sont très encourageants et les souris traitées à l'aide de cet implant ont vu leur tumeur régresser ou disparaître en une dizaine de jours.

Autre voie très prometteuse, le génie génétique. L’équipe de Patrick Mehlen, directeur du Laboratoire d’Excellence DEVweCAN au Centre de Recherche en Cancérologie de Lyon qui associe le CNRS, l'/Inserm, le Centre Léon Bérard et l'Université Claude Bernard, vient de montrer qu'il existait un mécanisme très subtil reposant sur des "récepteurs à dépendance", capables de commander la mort cellulaire ou apostose des cellules devenues malignes. Ces chercheurs ont montré qu'un gène nommé DCC (pour Deleted Cancer Colorectal), commandait l'action de ces récepteurs à dépendance et empêchait la prolifération de cellules cancéreuses en provoquant la mort des cellules devenues malignes. Ils ont également démontré que ce gène DCC restait inactif dans la majorité des cancers chez l'homme. S'appuyant sur ces découvertes fondamentales, ces chercheurs travaillent à présent sur des molécules capables de réactiver ces récepteurs à dépendance et les premiers essais chez l'homme de cette nouvelle voie thérapeutique pourraient intervenir d'ici trois ans.

En Suisse, des chercheurs ont découvert qu'une protéine, la périostine, joue un rôle déterminant dans le développement de métastases. Il semble en effet qu'en l'absence de cette protéine, les cellules cancéreuses issues d'une tumeur primaire ne parviennent pas à essaimer pour former des métastases distantes. Ces chercheurs de l'EPFL, qui viennent de publier leur résultats dans "Nature" ont montré chez la souris qu'en bloquant le fonctionnement de la périostine à l'aide d'un anticorps spécifique, il est possible d'empêcher la formation de métastases.

Une autre voie très novatrice et très prometteuse en cancérologie consiste à agir non seulement sur la tumeur elle-même mais, plus globalement, sur son environnement et sur l'ensemble du système immunitaire. De récents travaux présentés au grand congrès mondial de San Antonio (Texas) consacré au cancer du sein ont effet montré que la dissémination d'un cancer n'était possible qu'avec la "complicité" du système immunitaire qui, à partir d'un certain stade de la maladie, aidait le cancer dans sa progression au lieu de le combattre !

Des chercheurs américains de l’université de Californie à San Francisco ont notamment observé que les macrophages, sous l'effet de certains types de lymphocytes, favorisaient la formation des métastases en libérant des facteurs de croissance. Ces chercheurs ont ensuite montré qu'en rééquilibrant le système immunitaire en faveur de certains types de lymphocytes (Les CD8) et au détriment des macrophages, grâce à une molécule prise par voie orale (La PLX-3397), il était possible de réduire très sensiblement le risque de métastases. Un essai à large échelle de cette nouvelle thérapie doit prochainement débuter chez deux mille femmes atteintes de cancer du sein avancé avec métastases.

Autre percée sur le front de l'immunologie : celle des vaccins thérapeutiques anti-cancer (à ne pas confondre avec les vaccins classiques qui sont préventifs) qui est en pleine effervescence : des chercheurs français de l'Université de Strasbourg expérimentent actuellement un vaccin thérapeutique contre le cancer du poumon appelé TG4010. Administré en association avec la chimiothérapie, il a entraîné une augmentation sensible de la survie chez 148 patients atteints de cancer avancé du poumon, par rapport à ceux soignés uniquement avec une chimiothérapie. Un autre vaccin contre le cancer du poumon, développé par GlaxoSmithKline, est actuellement testé par 10.000 patients dans le monde.

Aux Etats-Unis, des chercheurs de l'université de Géorgie ont mis au point un vaccin thérapeutique qui provoque une puissante réponse immunitaire chez la souris. Ce vaccin cible spécifiquement les tumeurs dont les cellules présentent la protéine MUC1 en surface. Cette protéine est présente chez plus de 70 % des types de cancer les plus graves et dans 90 % des cancers du sein réfractaires aux traitements hormonaux. L'idée est de combiner ce vaccin à une chimiothérapie pour obtenir des résultats bien plus efficaces.

Enfin, il faut évoquer les recherches menées sur un petit rongeur extraordinaire qui fascine les chercheurs : le rat-taupe glabre. Cet animal singulier semble échapper au cancer et conserve ses pleines capacités physiques jusqu'à sa mort qui survient à l'âge canonique, pour son espèce, de 30 ans ! Il semble que ce rat soit protégé du cancer grâce à l'activation d'un gène, baptisé p16, qui bloque toute prolifération cellulaire. Reste à présent à vérifier si ce gène peut être réveillé ou activé chez l'homme et produire les mêmes effets.

A la lumière de ces nouvelles connaissances et de ces récentes et passionnantes découvertes, tant dans le domaine de la prévention que dans celui des traitements, nous avons à présent la certitude que le cancer peut non seulement être vaincu mais qu'il peut l'être plus vite que ne l'auraient imaginé les chercheurs les plus optimistes, il y a seulement quelques années. Si les progrès de la science et de la biologie se poursuivent au même rythme, les cancers qui ne pourront pas être prévenus deviendront d'ici quelques années, dans la grande majorité des cas, des maladies chroniques qui n'entraîneront plus la mort des malades. Fort de cet espoir, nous devons plus que jamais maintenir notre effort en matière de recherche fondamentale pour terrasser définitivement ce vieil ennemi.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat

 


TIC
Information et Communication
Apple et Google prépareraient des appareils « wearable »
Mercredi, 21/12/2011 - 00:00

Bientôt un iPod en forme de bracelet ? Voilà en tout cas ce que pense savoir le New York Times qui, en citant des sources anonymes, a révélé que les deux géants travaillaient en secret sur des appareils wearable, autrement dit des objets intelligents que l’on porterait comme des vêtements ou des accessoires de mode. La mode du wearable ne date pas d’hier et de nombreux objets de ce type (montre téléphone, tee-shirt à écran et on en passe) ont déjà vu le jour, sans jamais connaître de véritable succès.

Or, d’après le journaliste du célèbre quotidien new-yorkais, de petites équipes au sein de Google et d'Apple travaillent, depuis au moins un an, à l’élaboration d’objets intelligents à porter « dans l’objectif de vendre davantage de smartphones ». Du côté de Google, dans le secret de ses X Labs, on mettrait au point des appareils dotés de capteurs qui, attachés à votre corps ou à vos vêtements, seraient en mesure de communiquer des informations à votre téléphone. Le New York Times ne fournit pas davantage de précisions, mais on peut imaginer un bracelet de type Jawbone par exemple.

Cet accessoire vous accompagne au quotidien pour vous inciter à faire du sport. Du côté de Cupertino, quelques employés seraient chargés d'imaginer des concepts du même genre. L’un d’entre eux serait un iPod attaché au poignet, avec lequel on communiquerait grâce à Siri.

Et le journal d’imaginer la « prochaine frontière » des nouvelles technologies : lorsque les produits wearable auront gagné en maturité, ils pourraient abolir les différences entre le monde virtuel et le monde réel. Citant le chercheur Michael Liebhold, il évoque la possibilité de voir arriver sur le marché, d’ici à dix ans, des lunettes à réalité augmentée, voire de lentilles pilotées par votre smartphone, permettant d’accéder à des services d’un nouveau genre. « Les jeunes pourront jouer à des jeux avec leurs amis, en se rendant dans un parc pour chasser des créatures virtuelles », explique le chercheur, qui imagine aussi un important marché pour la mode. L’écran dans l’œil : génial ou effrayant ?

01Net

Cambridge met en ligne les écrits d'Isaac Newton
Lundi, 19/12/2011 - 00:10

L’université britannique de Cambridge vient de mettre en ligne une partie des écrits d’Isaac Newton (1642-1727), notamment ses travaux mathématiques, rédigés dans les années 1660. Et prévoit d’ajouter encore des centaines de textes numérisés dans les mois à venir. Les textes seront ainsi disponibles dans le monde entier et téléchargeables gratuitement.

L’ancien étudiant entré à Cambridge en 1661, diplômé en 1665 et directeur de la chaire de mathématiques de 1669 à 1701 a lui-même annoté les textes présentés. Au total, ce sont plus de 4.000 pages accessibles librement sur le site de la bibliothèque numérique, dont l’ouvrage Philosophiæ naturalis principia mathematica, considéré comme une œuvre fondamentale dans l’histoire de la science.

Après sa mort en 1727, ses manuscrits sont passés entre différentes mains, mais ce n’est qu’en 1872 que la bibliothèque de Cambridge a reçu une partie des textes du scientifique anglais.

En 2000, l’Université a acquis une collection importante de lettres et journaux faisant de la bibliothèque universitaire le plus grand collectionneur mondial des écrits de Newton. Le savant anglais est considéré comme «le meilleur et le plus influent scientifique», notamment pour avoir établi la théorie de la gravitation universelle.

Déjà en octobre, Slate avait rapporté que la Royal Society avait mis ses archives historiques en open access, avec plus de 60.000 textes, écrits notamment par Charles Darwin ou Benjamin Franklin.

Slate

La pré-plainte en ligne étendue à toute la France en 2012
Dimanche, 18/12/2011 - 00:30

Depuis 2009, les habitants des Yvelines et de la Charente-Maritime peuvent enregistrer une « pré-plainte » en ligne pour tout délit relevant d'une atteinte aux biens (vol, dégradation, escroquerie, etc.). Ce dispositif va être étendu d'ici à la fin de l'année à la Haute-Garonne et au Bas-Rhin, avant d’être mis en place dans toute la France début 2012. Un arrêté encadrant le traitement des données dans un système informatisé a été publié le 11 décembre au Journal officiel. Il reprend les grandes lignes du programme testé dans les départements pilotes.

La plainte n'est définitivement prise en compte que lorsque la victime ou son représentant légal la dépose effectivement auprès du commissariat ou de la gendarmerie de son choix. Le pré-enregistrement en ligne permet seulement au plaignant de simplifier sa démarche en indiquant au préalable ses données personnelles, les faits dont il a été victime, la nature du délit, etc. Il lui permet en outre d’obtenir un rendez-vous, auquel il devra se rendre muni de l'identifiant qu'il aura obtenu.

Concernant le traitement des données personnelles, l’arrêté stipule que « seuls les agents individuellement désignés et spécialement habilités par le chef de service de la police nationale ou le commandant de groupement de la gendarmerie nationale » y ont accès. Ces données sont supprimées du système informatisé « dès que la victime a signé sa plainte » ou trente jours après sa déclaration en ligne si elle ne se présente pas au rendez-vous fixé.

Saisie sur la question de ce dispositif, la Commission nationale de l'informatique et des libertés (Cnil) vient de rendre son avis. Elle précise qu’en aucun cas le fichier des pré-plaintes ne devra être croisé avec d’autres fichiers de police tels que « ceux des véhicules volés, [les] fichiers des objets volés, [le] Stic… ». Et rappelle qu’il appartient à l’Agence nationale de la sécurité des systèmes d’information (Anssi) de juger de la sécurité du système, comme pour tout service à distance.

La Cnil émet néanmoins quelques réserves, notamment sur le champ de commentaires libres « Eléments susceptibles d’orienter l’enquête ». Selon elle, cet espace ne doit pas « servir de support à la désignation nominative de l’auteur présumé des faits. Si l’identité de ce dernier est connue de la victime, elle doit se rendre directement dans les services de police ou de gendarmerie nationale ».

Enfin, La Cnil souligne que ce dispositif est utilisé de manière marginale : « Peu de pré-plaintes ont finalement été déposées. » Un rapport remis au gouvernement l’année dernière fait état de 2 200 pré-plaintes enregistrées en ligne entre novembre 2008 et novembre 2010, dont 10 % n’ont jamais été confirmées au commissariat.

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots-surveillants en test dans une prison sud-coréenne
Samedi, 17/12/2011 - 00:30

Des robots montés sur quatre roues et bardés de capteurs seront utilisés dans une des prisons sud-coréennes pour des rondes de nuit et pourront déceler tout comportement anormal d’un détenu pour prévenir les gardiens. L’expérience pilote débutera en mars prochain.

Au printemps 2012, le centre de détention de la ville sud-coréenne de Pohang (province de Gyeongsang) testera des robots de surveillance chargés d’assurer des rondes de nuit. Ils parcourront les couloirs de la prison et observeront les détenus dans leurs cellules. Équipés de caméras vidéo et de capteurs, ces robots sont capables de détecter un comportement suicidaire ou violent chez un détenu et de prévenir immédiatement les gardiens humains.

Ce projet d’un coût de 863.000 dollars (un peu plus de 648.000 euros) a été financé par le ministère coréen de la Justice et développé par des chercheurs de l’université de Kyonggi. Selon le service en charge des programmes correctionnels du ministère de la Justice, les robots n’ont pas vocation à remplacer les gardiens humains mais plutôt à alléger leur charge de travail afin qu’ils aient plus de temps à consacrer à leur mission d’encadrement et de réhabilitation.

Trois robots-surveillants ont été fabriqués. Ils mesurent 1,5 mètre de haut, pèsent 70 kilogrammes, sont montés sur quatre roues et se déplacent à la vitesse de la marche à pied.

  • Des robots-surveillants, pas des Terminator

Le professeur Lee Baik-chul qui est à la tête de cette expérimentation, a expliqué que l’une des préoccupations avait été de donner une physionomie rassurante à ces machines afin que les détenus ne les perçoivent pas comme des Terminator menaçants. Les formes sont donc arrondies, de couleur blanche et jaune et la tête du robot arbore une paire d’yeux avenants et esquisse un sourire. « Ces robots ne sont pas des Terminator. Leur travail n'est pas de sévir contre les détenus violents. Ils sont des assistants. Quand un détenu est dans une situation potentiellement mortelle ou gravement malade, il peut demander de l'aide rapidement », explique le professeur cité par l’agence coréenne Yonhap.

Les robots sont en effet équipés d’un système de communication radio qui permet à un détenu de communiquer directement avec un gardien et vice-versa. « Contrairement aux caméras de surveillance qui se contentent de surveiller les cellules sur des écrans, les robots sont programmés pour analyser diverses activités et identifier des comportements anormaux. »

La Corée du Sud fait figure de pionnier dans l’usage de la robotique pour suppléer ou aider les humains. L’année dernière, 29 robots-professeurs ont commencé à enseigner l’anglais à des élèves de plusieurs écoles de la ville de Daegu (sud de la Corée). Il ne s’agit pas de robots autonomes puisqu’ils sont en fait contrôlés à distance par de vrais enseignants. L’idée de ce projet est de pouvoir par exemple installer ces robots dans des zones rurales reculées où les cours d’anglais sont rares voire inexistants faute de professeurs.

  • Un robot sentinelle armé

Dans un registre nettement moins pédagogique, des robots sentinelles sont utilisés depuis 2006 pour surveiller la zone démilitarisée, établie entre la Corée du Sud et la Corée du Nord, qui s’étire sur 250 kilomètres. SGR-A1, c’est son nom, a été conçu par la filiale de Samsung dédiée à la défense. Le robot est équipé de caméras thermiques, de capteurs de mouvements, d’un logiciel de reconnaissance de formes et peut repérer une cible à 4 km de distance de jour et environ 2 km de nuit. Grâce à un microphone et un système vocal, il peut ordonner à un ennemi de se rendre, de lever les mains en l’air et interpréter ce geste de reddition. Mais il est aussi équipé d’une mitrailleuse et d’un lance-grenade et peut faire feu automatiquement. L’expérience au centre de détention de Pohang doit débuter en mars 2012 pour une durée initiale d’un mois.

Futura Sciences

 

L'Europe a mis au point un robot neurochirurgien
Samedi, 17/12/2011 - 00:10

Des chercheurs de plusieurs nationalités financés par un programme de l'Union européenne ont mis au point un robot permettant d'améliorer la performance des neurochirurgiens. Ce nouveau type de robot a été mis au point par des chercheurs allemands, italiens, israéliens et britanniques dans le cadre du projet européen Robocast, lancé par l'Union européenne en 2008, ont annoncé dans un communiqué les services de la commissaire européenne chargée de la Stratégie numérique, Neelie Kroes.

Il n'a pour l'instant été utilisé que sur des mannequins pour de la chirurgie endoscopique : il agit sous le contrôle du chirurgien pour introduire une sonde dans le crâne via un minuscule orifice appelé trou de trépan, lorsqu'il s'agit de manipuler des tissus ou de recueillir du sang ou d'autres liquides. L'utilisation de ce robot permet d'agir avec une plus grande précision, puisque le tremblement est divisé par dix par rapport à la main du chirurgien, ce qui permet d'éviter d'endommager des tissus cérébraux. "Une fois prêt pour des interventions sur l'homme, il pourrait atténuer les souffrances de millions d'Européens atteints de tumeurs ou de troubles tels que l'épilepsie, la maladie de Parkinson et la maladie de Gilles de la Tourette", souligne la Commission.

Des recherches ont par ailleurs été entamées dans le cadre d'un projet de suivi baptisé Active, lancé en 2011 pour quatre ans, sur des opérations qui exigent que le patient reste éveillé et impliquant jusqu'à trois robots. L'annonce de la Commission européenne est intervenue au moment où à démarré la Semaine européenne de la robotique, du 28 novembre au 4 décembre, qui visait à améliorer la coopération entre l'industrie et le secteur de la recherche en la matière. La Commission, qui a déjà consacré quelque 400 millions d'euros à une centaine de projets de robotique, rappelle que la demande mondiale de robots en 2010 représentait environ 15,5 milliards d'euros, dont environ 3 milliards en Europe.

Le Point

^ Haut
Matière
Matière et Energie
Défaillances électroniques : un procédé de diagnostic innovant au service des garagistes
Jeudi, 22/12/2011 - 00:00

L'électronique embarquée dans un véhicule automobile permet d'introduire de nouvelles fonctionnalités qui améliorent le confort et la sécurité des passagers et permettent de mieux respecter l'environnement. Les systèmes électroniques embarqués sont configurés autour d'unités électroniques de contrôles (UEC) connectées entre elles par des réseaux informatiques et reliées aux systèmes physiques que sont les capteurs et les actionneurs. L'ensemble des composants physiques – mécaniques, hydrauliques, thermiques – est surveillé en continu par les UEC qui les commandent.

Cependant, la complexité des architectures électroniques des véhicules s'accroissant, les systèmes d'aide au diagnostic sont devenus indispensables. Ceux-ci doivent être capables d'indiquer au garagiste une séquence de tests pour localiser avec efficacité le composant défaillant. Les systèmes actuels se basent sur des arbres de diagnostic construits manuellement par les ingénieurs des départements de maintenance à partir des schémas de conception et leurs tests proposent généralement au garagiste de comparer une valeur statique mesurée à une valeur attendue. Or, l'électronique introduit un contrôle bien plus sophistiqué, qui se traduit par une succession de modes opératoires et des évolutions temporelles caractéristiques. La signature des défauts est donc essentiellement dynamique, définie par des évolutions dans le temps.

Avec le nouveau procédé mis au point par le LAAS (CNRS), laboratoire labellisé institut Carnot, en collaboration avec la société ACTIA, des outils informatiques simulent un modèle de chaque fonction mécatronique avec des scénarios de défauts anticipés. Les résultats de ces simulations sont ensuite analysés et regroupés en « courbes de références » que le garagiste peut distinguer visuellement. Lors de la phase de diagnostic, le signalement de la défaillance engendre le choix par l'algorithme d'un premier test à mettre en œuvre. Un premier signal temporel est alors recueilli par le garagiste et comparé à l'ensemble des courbes de référence associées aux défauts anticipés, pour ne conserver que ceux produisant une réponse comparable.

En fonction de ces résultats, l'algorithme sélectionne alors un nouveau test, et ainsi de suite, jusqu'à réduire l'ensemble des défauts possibles à un seul, et localisant ainsi le composant qui doit être remplacé. Pour le garagiste, cet outil représente gain de temps et efficacité, évitant la dépose, malheureusement fréquente, de composants qualifiés défaillants à tort.

CNRS

Une électricité made in France à partir de... vin et de fromage
Mercredi, 21/12/2011 - 00:40

Les fleurons de la gastronomie du Cher, vin de Sancerre et crottin de Chavignol, pourraient bientôt produire de l'électricité grâce au nouveau programme du gouvernement français en faveur du biogaz.

Holding Verte, société pionnière dans le domaine du biogaz, collectera pour la première fois des déchets organiques agricoles du département du Cher, tels que restes de pressurage des raisins ou fumier, dans un rayon de 30 kilomètres autour de sa future installation.Les agriculteurs concernés ne seront pas rémunérés mais la société leur offrira du digestat, un résidu de la méthanisation (fermentation des matières organiques) qui aboutit à la formation de biogaz qui peut servir d'engrais. "C'est un troc de fumier contre digestat", résume Frédéric Flipo, cofondateur de Holding Verte, lors d'une interview à Reuters, ajoutant qu'une tonne de déchets produit presque une tonne de digestat.

Le biogaz est une industrie encore naissante en France parmi les énergies renouvelables. La hausse des tarifs de rachat d'électricité générée par le biogaz, ainsi qu'un décret laissant les producteurs injecter du biogaz dans le réseau, a néanmoins amélioré les perspectives de la filière cette année. Holding Verte compte atteindre une capacité de production d'électricité et de chauffage de sept mégawatts (MW) d'ici 2013 et ambitionne de lancer dès l'an prochain une première unité de production d'un mégawatt utilisant le procédé de méthanisation.

Alors que certaines énergies renouvelables, telles que les biocarburants, font l'objet de polémiques sur leurs effets néfastes sur l'environnement, Holding Verte vante les mérites du biogaz pour créer des cycles locaux vertueux entre les déchets et la production énergétique. "Nous répondons à une problématique territoriale, sur laquelle on va produire de l'électricité et de la chaleur qui pourront être utilisées par les collectivités via les réseaux chaleur ou les agriculteurs pour sécher leurs récoltes", souligne Frédéric Flipo.

  • Supermarché des déchets

La France a pour objectif officiel une capacité de production d'électricité à partir du biogaz de 625 MW d'ici 2020. C'est quatre fois plus qu'en 2010 mais encore loin des 900 MW d'un réacteur nucléaire de capacité moyenne. L'industrie du biogaz en France repose essentiellement sur des exploitations agricoles de petite envergure et la hausse des tarifs de rachat cette année fait partie de la stratégie du président Nicolas Sarkozy pour gagner le soutien des agriculteurs lors de l'élection présidentielle de l'an prochain.

Holding Verte, qui a investi environ cinq millions d'euros dans sa première installation en partenariat avec la Caisse des dépôts (CDC), se positionne sur des équipements d'une capacité d'un mégawatt. "Dans l'absolu, toute la filière sera toujours plus petite qu'une centrale nucléaire. Le sujet, ce n'est pas tellement combien d'électricité on va pouvoir produire, c'est plus quelle volumétrie de déchets va être retraitée de manière vertueuse", estime Frédéric Flipo.

La société espère profiter de la loi, applicable le 1er janvier, qui incitera les supermarchés à recycler leurs invendus, tels que les yaourts. En tant que biomasse, ces aliments peuvent devenir une source d'énergie après méthanisation.

Holding Verte considère comme non pérenne la tendance d'acheter et d'importer des déchets organiques des pays voisins comme le fait l'Allemagne, qui a une industrie du biogaz beaucoup plus importante.

L'Allemagne se vante de posséder des milliers d'installations au biogaz fonctionnant essentiellement grâce au maïs fourrager, alors qu'en comparaison Holding Verte utilise différentes sortes de déchets organiques avec une démarche locale. L'entreprise souhaite amortir le coût de son investissement d'ici huit à neuf ans et compte également réduire de 15 % à 20 % au cours des trois prochaines années les cinq millions d'euros d'investissement par projet de biogaz.

La Tribune

Diriger la lumière vers les nouvelles énergies
Mercredi, 21/12/2011 - 00:30

Pionnier de l’optofluidique et professeur à l’EPFL, Demetri Psaltis estime que ce nouveau champ de recherche pourrait aider à résoudre le plus grand défi du 21e siècle.

Les sciences des fluides et de la lumière ont partie liée depuis que Léon Foucault, en déterminant la vitesse de la lumière en 1862, a constaté que celle-ci n’était pas la même dans l’eau et dans l’air. Ces règles physiques sont désormais exploitées dans des applications qui permettent de diriger la lumière là où elle sera la plus utile. Le magazine Nature Photonics consacre son édition spéciale d’octobre à l’optofluidique, une discipline récente qui combine l’optique avec la microfluidique, cette dernière s’intéressant au transport de quantités infinitésimales de liquides au moyen de tubes extrêmement fins. Demetri Psaltis, doyen de la Faculté sciences et techniques de l’ingénieur de l’EPFL, et ses co-auteurs affirment dans cette édition que l’optofluidique est à même de s’attaquer à l’un des plus grands défis de ce 21e siècle : l’énergie.

«En dirigeant la lumière tout en la concentrant à l’endroit où elle sera le mieux utilisée, nous pourrions améliorer de façon significative l’efficacité de systèmes de production d’énergie déjà existants ou à inventer, explique Demetri Psaltis. L’EPFL est le leader mondial de l’optofluidique, nous sommes donc en bonne position pour développer des sources d’énergie véritablement efficaces et d’un genre totalement nouveau. »

La lumière du soleil est déjà utilisée pour produire de l’énergie autrement qu’avec des panneaux classiques. Par exemple, on s’en sert dans des usines de biocarburants pour convertir l’eau et le gaz carbonique en méthane. L’utilisation de prismes et de miroirs pour guider et concentrer la lumière afin de chauffer de l’eau est monnaie courante sur les toits des maisons ou des immeubles. Ces techniques utilisent en fait les mêmes principes que ceux qui sont à l’oeuvre en optofluidique, soit le contrôle et la manipulation de la lumière et la circulation contrôlée de liquides – mais sans la précision que permettent les micro et nanotechnologies.

  • L’éclairage solaire, un exemple d’application future de l’optofluidique

Comment exploiter au mieux la lumière qui frappe le toit d’un immeuble ? Un système d’éclairage domestique solaire optofluidique pourrait récupérer et concentrer la lumière reçue en « suivant » la source grâce à la modification de l’angle de réfraction de l’eau présente dans les capteurs ; il peut ensuite la canaliser à l’intérieur du bâtiment. Cette lumière peut dès lors être utilisée pour éclairer des pièces, faire fonctionner un filtre à air microfluidique ou alimenter des cellules solaires intérieures qui, n’étant pas soumises aux intempéries, dureraient plus longtemps. Une telle installation représente une nouvelle façon d’exploiter l’énergie solaire en remplacement des sources non renouvelables.

Dans un tel système, il serait indispensable de s’assurer que les équipements secondaires puissent être désactivés en cas de fluctuation de l’ensoleillement – lors du passage d’un nuage par exemple. Il ne serait en effet pas tolérable que l’intensité de la lumière dans les pièces éclairées varie continuellement. Or il existe déjà, en optofluidique, un procédé permettant de gérer les flux de lumière dans différents canaux de façon simple et bon marché : l’electrowetting, consistant à faire varier la forme de gouttelettes d’eau installées entre deux microtubes parallèles utilisés comme fibres optiques. Au repos, ces gouttes bien rondes ne touchent qu’un seul des tubes et la lumière ne sort pas de son canal. Si on applique un courant, les ions qu’elles contiennent s’excitent, leur forme s’allonge et elles rejoignent alors l’autre tube, créant un « pont d’eau » entre les deux fibres, par lequel s’échappe la lumière qui les parcourait. Avec très peu d’énergie, on peut ainsi jouer sur le flux lumineux.

  • Passer à l’échelle supérieure pour intéresser l’industrie

«Pour l’optofluidique appliquée à l’énergie, le plus grand défi est de réussir à garder la précision dont nous sommes capables au niveau macro et nanoscopique », prévient David Erickson, professeur à Cornell University et professeur invité à l’EPFL. « Tout comme un superordinateur est fabriqué à partir de plusieurs processeurs, passer à l’échelle supérieure dans le domaine de l’optofluidique reviendra sans doute à mettre ensemble de nombreuses « puces microfluidiques » afin de créer un super-réacteur. »

Dans les canaux, les réactions surviennent principalement au point de contact entre les liquides qu’ils transportent et les parois des tubes, recouvertes d’un catalyseur. Le rendement d’un tel système dépend donc de la surface à disposition. En réduisant la taille de ces canaux à des dimensions micro ou nanoscopiques, on multiplie par plusieurs milliers la surface de réaction disponible : des réactions chimiques plus nombreuses peuvent ainsi avoir lieu dans un volume beaucoup plus petit. En ajoutant une source de lumière comme catalyseur à des puces microfluidiques dont les nanotubes laissent passer des chaînes de molécules individuelles, il devient possible de contrôler les réactions avec une précision et une efficacité jamais atteinte.

L’article publié dans Nature Photonics décrit de nombreuses possibilités permettant d’envisager le passage à l’échelle supérieure des méthodes de l’optofluidique, comme par exemple le recours à des fibres optiques – composées de nanotubes fabriqués en masse – pour transporter la lumière du soleil vers de grands réacteurs à biocarburants que l’on pourrait laisser à l’intérieur des usines. Les auteurs soulignent que la possibilité de réduire l’espace nécessaire pour ces opérations augmentera le rendement énergétique et fera baisser les coûts de la production d’énergie propre. L’optofluidique permet beaucoup de flexibilité dès lors qu’il s’agit de concentrer et de guider la lumière du soleil pour l’exploiter. Elle permet aussi de limiter l’usage des catalyseurs de surface, qui sont souvent les éléments les plus coûteux dans les réacteurs.

EPFL

Des cellules photovoltaïques avec 50 % de rendement avant 2020
Lundi, 19/12/2011 - 00:00

 

Le plafond de rendement des cellules photovoltaïques actuelles est tout simplement une limite physique : les cellules actuelles ne contenant qu’une seule jonction (ndr : zone de contact entre deux couches de silicon), nous nous heurtons à un plafond théorique de 33,5 %, appelé « limite de Shockley-Queisser ». Plus précisément, une jonction actuelle ne peut tout simplement pas réagir à la totalité du spectre lumineux dont une grande partie est alors perdue ou transformée en chaleur. En pratique, la véritable limite est plutôt de 25 % car chaque point supplémentaire coûterait beaucoup trop cher à produire.

Il faut donc trouver des technologies de rupture au niveau des cellules car nous sommes au bout des modèles actuels. Mais il ne faut pas oublier que la cellule, même si elle en constitue le cœur, n’est qu’une partie d’un dispositif photovoltaïque. Il y a également de nombreuses recherches en cours sur les panneaux et l’électronique. La prochaine rupture technologique commercialisée avec succès sera la cellule multi-jonction. C’est un concept très ancien, puisque Texas Instrument l’a breveté en 1955 ! Mais nous avons aujourd’hui la possibilité de faire passer cette technologie à un stade commercial en quelques années. L’idée est assez simple : il s’agit d’empiler plusieurs jonctions collectant chacune une bande passante différente du spectre lumineux. 

Avec une cellule multi-jonction, on change véritablement de dimension car la limite théorique, en y adjoignant un système de concentration, est de 83 % ! Pour l’instant, les meilleurs labos ont déjà atteint 43 %.  Rafael Kleiman, chercheur canadien, se dit "persuadé que nous pourrons produire des cellules avec 50 % de rendement avant 2020". Autre voie de recherche à plus long terme, l’ingénierie spectrale et plus précisément à la photo-conversion à l’aide de nano-tubes. Cela consiste à tapisser les cellules d’une couche de nano-tubes qui vont en quelque sorte resserrer le spectre lumineux, comme un entonnoir à fréquence. Autrement dit, ces nano-tubes peuvent combiner deux photons d’énergie en en un seul photon d’énergie 2n, ou l’inverse. Pour l’instant, cela fonctionne en laboratoire, il faudra encore de longues années pour passer à la production de masse. Les chercheurs travaillent également sur des technologies de concentration, de stockage, de fabrication de silicone de très grande qualité.

Cleantech

^ Haut
Espace
Espace et Cosmologie
Lancement accompli des satellites Pléiades, Elisa et SSOT
Jeudi, 22/12/2011 - 00:40

Le lancement des satellites Pléiades, Elisa et SSOT s’est déroulé sans encombre samedi 17 décembre au matin depuis le Centre spatial guyanais de Kourou. La deuxième mission de la fusée Soyouz a, dès lors, été accomplie.

Le premier lancement d'une fusée Soyouz depuis la base de Kourou a eu lieu le 21 octobre dernier pour mettre en orbite les deux premiers satellites opérationnels de Galileo. Deuxième mission accomplie pour le lanceur russe. La fusée Soyouz, d'un peu plus de 300 tonnes et de plus de 50 mètres de haut, a effectué son deuxième lancement samedi matin 17/12 à 3 h 03, depuis Kourou et la mise en orbite du satellite Pléiades, des 4 satellites Elisa et du satellite SSOT s‘est faite avec succès.

Pléiades devrait fournir une nouvelle génération d'images haute résolution de la Terre à des fins civiles et militaires, selon le site Techno-Science.net. Elisa est constituée d’un ensemble de 4 microsatellites militaires français d'écoute. Son but est de localiser préventivement les moyens de défense anti-aériens d'adversaires potentiels et prendre les mesures adéquates en cas de conflit. Le satellite SSOT est, quant à lui, chargé de l’observation de la Terre.

La construction des installations de la base de lancement a été financée essentiellement par l'Agence spatiale européenne à hauteur de 344 millions d'euros. Après plusieurs reports de dates, le premier lancement, prévu en mai 2009, a finalement été replanifié en fin d’année 2011. Avec la mise en service prochaine du lanceur Vega qui doit être tiré également depuis Kourou, la base sera dans la capacité d’assurer le lancement de toutes les charges, mises à part les missions habitées. Plus tard, la base pourrait également servir au lancement de vols habités Soyouz. Le site guyanais a été construit pour cette évolution future mais aucune discussion officielle n‘a été entamée entre l'Agence spatiale européenne et la Russie à ce sujet.

Maxisciences

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Un lien entre les forêts et l'acidité des pluies
Jeudi, 22/12/2011 - 00:10

Les acides nitrique et sulfurique sont responsables de l'acidité des pluies dans les régions polluées de notre planète. Ce que l'on sait moins, c'est que l'acide formique, le plus simple parmi les acides organiques, contribue fortement à l'acidité des pluies dans les milieux éloignés de la civilisation. Le cycle atmosphérique de ce composé est loin d'être compris : l'acide formique est émis directement dans l'atmosphère par les activités humaines, les feux des forêts, et les feuilles des plantes. Ces dernières contribuent aux émissions dites biogéniques. L'acide formique peut également être formé par la dégradation photochimique d'autres composés organiques, également émis par la végétation. C'est la plus importante mais aussi la plus incertaine des sources de ce composé.

En utilisant la première cartographie globale de l'acide formique obtenue grâce aux mesures prises dans l'infrarouge par l'instrument IASI du satellite MetOp, les chercheurs ont réussi à fortement réduire cette incertitude à l'aide des simulations numériques réalisées avec le modèle de chimie atmosphérique IMAGES développé à l'IASB. Grâce au modèle et aux données IASI, les chercheurs ont pu démontrer que les forêts produisent près de 100 millions de tonnes d'acide formique par an à l'échelle globale, soit 3 fois plus que les sources identifiées jusqu'à aujourd'hui.

Cette nouvelle source, dominante au-dessus des forêts boréales, est vraisemblablement due à l'oxydation de composés organiques émis principalement par les conifères. Bien que l'identité précise de ces composés de courte durée de vie reste inconnue, l'impact sur les précipitations acides a pu être déterminé grâce à la modélisation globale du cycle atmosphérique de l'acide formique. Les chercheurs montrent que la source additionnelle de ce composé augmente l'acidité des pluies et ils estiment la contribution de l'acide formique à l'acidité des pluies à 60-80 % au-dessus de la taïga pendant l'été.

CNRS

Une très vieille tectonique
Lundi, 19/12/2011 - 00:30

Des géologues ont découvert que des roches vieilles de 2 milliards d'années ont été formées par un mécanisme de subduction semblable à celui de la tectonique des plaques moderne.

Jusqu'ici, on pensait que l'avènement de la tectonique des plaques s'était produit il y a environ 900 millions d'années. Récemment, Jérôme Ganne et ses collègues de l'Institut de recherche pour le développement (IRD) et du laboratoire Géoscience-Environnement Toulouse (GET) ont découvert en Afrique de l'Ouest des roches métamorphiques formées il y a plus de 2 milliards d'années à grande profondeur, dans des zones de subduction très similaires à celles observées aujourd'hui (telle la fosse des Mariannes au Japon). Cette découverte permet de reculer l'âge de démarrage la tectonique des plaques dite moderne de plus d'un milliard d'années.

Du Sénégal oriental jusqu'au Niger occidental s'étendent des bassins de roches volcaniques et sédimentaires à l'aspect vert, d'âge paléo-protérozoïque (environ 2 à 2,2 milliards d'années). Ce sont des roches métamorphiques (c'est-à-dire transformées sous l'action de fortes pressions ou températures), riches en chlorites et phengites, minéraux qui leur donnent une couleur verte. À l'aide de nouveaux programmes informatiques dédiés à la modélisation métamorphique, les géologues ont établi que ces roches se sont formées à basse température (inférieure à 450 °C) et haute pression (supérieure à 109 pascals). Ces conditions métamorphiques sont identiques à celles identifiées dans des zones actuelles de subduction (où une plaque tectonique glisse sous une autre). Les chercheurs en déduisent que les processus modernes de la tectonique des plaques existaient déjà il y a 2 milliards d'années. Ils concluent aussi que bien d'autres roches anciennes, ayant subi ce type de métamorphisme, doivent exister dans d'autres parties du monde, mais que les méthodes utilisées précédemment pour étudier les évolutions de pression et de température dans les bassins de roches vertes étaient inappropriées.

Pour la Science

La Polynésie française menacée par la montée des eaux
Lundi, 19/12/2011 - 00:20

Certaines des 118 îles de Polynésie française sont menacées de disparition en raison de la montée des eaux, ont rappelé des scientifiques de plusieurs pays, lors de l'ouverture d'un récent colloque sur le réchauffement climatique, à Tahiti.

Le colloque a  réuni des scientifiques de la région Pacifique, de métropole et de l'Union européenne, mais aussi des élus politiques locaux. L'Observatoire national sur les effets du réchauffement climatique (Onerc) et le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) y participaient.

Les 118 îles de Polynésie française sont réparties sur une surface comparable à l'Europe, dans le sud de l'océan Pacifique. Leurs 270.000 habitants seront touchés, probablement avant la fin du siècle, par la montée des eaux. Celle-ci est évaluée à environ 50 centimètres d'ici à 2100, en estimation basse, si le réchauffement climatique ne s'accélère pas.

  • Hausse du niveau de l'océan

L'archipel des Tuamotu, où les atolls culminent souvent à un ou deux mètres au-dessus de la surface de l'océan, pourrait être rayé de la carte. Mais les îles hautes, les plus peuplées, comme Tahiti, Moorea, Raiatea ou Bora Bora, seraient aussi très affectées par une hausse du niveau de l'océan de plusieurs dizaines de centimètres.

Leurs infrastructures, comme les ports, les aéroports, les routes et les bâtiments scolaires, sont situées sur le littoral, où sont aussi concentrées les populations. "La sécurité civile et la sécurité alimentaire sont en jeu, et nous préparons un plan climatique, que nous déposerons au sommet Rio +20, en juin 2012", a déclaré Jacky Bryant, le ministre de l'Environnement de la Polynésie française. "Le déplacement des populations est une piste tout à fait sérieuse de ce plan".

  • "Ils ne font rien"

"Ce que je reproche aux grands pays industrialisés, c'est qu'ils ont les moyens, et qu'ils ne font rien, alors qu'ils sont la cause majeure du changement climatique", a regretté Félix Barsinas, maire de Tahuata, petite île de l'archipel des Marquises. "Il est encore temps d'agir sur le développement du littoral", affirme le chercheur à l'Institut du développement durable et des relations internationales (Idri) Alexandre Magnan.

"Le vrai problème, c'est que ces questions de changement climatique se posent sur des temps assez longs, alors que les politiques d'aménagement, elles, sont des questions d'aujourd'hui". A Tuvalu, autre île du Pacifique, les produits agricoles sont déjà devenus impropres à la consommation en raison de la salinité qui touche les terres.

7 Sur 7

La mer Morte menacée
Samedi, 17/12/2011 - 00:40

Des forages dans les fonds de la mer Morte révèlent qu’elle s’est déjà asséchée dans le passé. Un avertissement pour les années à venir, compte tenu du réchauffement climatique

Une analyse de forages des sédiments profonds de la mer Morte, présentée lors de la réunion annuelle de l’American Geophysical Union, révèle que ce lac d’eau salée a déjà disparu au moins deux fois par le passé, à l’occasion d’une période de hausse des températures terrestres. Les experts avertissent que les mêmes causes pourraient produire les mêmes effets, les projections climatiques indiquant que la région du  Proche-Orient subira particulièrement les effets du réchauffement actuel, stress hydrique à la clé.

  • Minuscules cailloux

Le carottage des fonds de la mer  Morte a été réalisé sur deux sites fin 2010, dont l’un situé dans la partie la plus profonde, près du centre. Les sels qui précipitent et se déposent au fond de la mer Morte pendant les saisons sèches annuelles contiennent des isotopes d'uranium qui permettent aux chercheurs de dater les couches de sédiments non seulement d'année en année, mais aussi saison par saison. Ils peuvent ainsi reconstituer le passé climatique de la zone. Quand il y a une période de sécheresse, les dépôts de gypse et de sels sont plus importants.  A partir de ces dépôts, les chercheurs peuvent extrapoler la composition de l’eau, estimer les vents dominants et la température moyenne.

Lors du forage, les chercheurs sont tombés à deux reprises sur des niveaux composés de minuscules cailloux similaires à ceux trouvés sur les plages, qui indiquent que la mer était complètement asséchée. Les carottes sédimentaires n'ont pas encore été précisément datées, mais ces événements pourraient coïncider avec la fin de la dernière période glaciaire il y a 13 000 à 14 000 ans, et à une période interglaciaire précédente il y a  environ 125.000 ans.

  • Le tiers de sa superficie perdu

Comme la mer d’Aral et le lac Tchad, la mer Morte a perdu, ces cinquante dernières années, le tiers de sa superficie. Le dessèchement est tel qu’une large bande de terre craquelée la scinde désormais en deux bassins distincts. L’hypothèse d’une disparition complète de cette dernière devient encore plus plausible avec les résultats de cette étude. D’autant plus qu’à l’époque, le peuplement de cette région était très clairsemé et ne constituait pas une pression écologique supplémentaire.

Aujourd’hui, le Jourdain, principale source d’approvisionnement en eau douce, est largement détourné à des fins agricoles et les usines de production de sel sont aussi une cause importante d’évaporation de l’eau. Les scientifiques ont conclu leur conférence en lançant un appel en faveur de mesures de sauvegarde de cette étendue d’eau.

Sciences & Avenir

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Alzheimer : les nouvelles recommandations de la Haute Autorité de Santé
Jeudi, 22/12/2011 - 00:30

La Haute Autorité de Santé vient de rendre publiques ses nouvelles préconisations concernant le diagnostic et la prise en charge de la maladie d’Alzheimer et des pathologies apparentées. La personnalisation du parcours de soin et la réévaluation régulière des options thérapeutiques constituent les principales évolutions de ces recommandations, reformulées en raison du retrait des précédentes.

  • Retrait préventif des recommandations en mai 2011

Les recommandations de bonne pratique sur la maladie d'Alzheimer, émises en 2008 par la Haute Autorité de Santé ont été retirées par l’agence le 20 mai 2011. Les raisons de ce retrait ? Le fait que 3 des experts n'avaient fait aucune déclaration d'éventuels conflits d’intérêt. De plus, plusieurs des experts du groupe de travail de la HAS ayant élaboré ces recommandations avaient eu affaire "avec des laboratoires fabriquant les médicaments mis en oeuvre dans les traitements préconisés par la recommandation attaquée (Eisai, Novartis, Janssen-cilag, Lundbeck, ...)", comme l'avait souligné le Formindep, association de professionnels de santé déjà à l’origine du retrait des recommandations Diabète en avril 2011.

La HAS s’est donc engagée à réévaluer les médicaments préconisés et à émettre de nouvelles recommandations via un groupe d’experts non liés à ces laboratoires.

  • Les médicaments réévalués : un "faible intérêt" médical

Le donépézil (Aricept ®, laboratoire Eisai), la galantamine (Reminyl ®, Janssen Cilag), la rivastigmine (Exelon ®, Novartis) et la mémantine (Ebixa ®, Lundbeck) sont disponibles en France depuis une douzaine d’années. Entre juillet et octobre 2011, la Commission de la Transparence (CT), qui fait partie de la HAS et est composée de 26 professionnels de santé en exercice, a passé en revue toutes les études existantes avec ces médicaments. Elle a aussi analysé les pratiques en France, en Europe et aux Etats-Unis, interrogé des experts de différents horizons et indépendants (médecins généralistes, neurologues, gériatres, médecins travaillant en EHPAD….) puis écouté les arguments des 4 laboratoires. Résultat, l'efficacité de ces 4 produits est au mieux "faible" et non "importante". Cette petite efficacité ne se retrouve malheureusement pas chez tous les patients. De plus, ils présentent des risques d’interactions médicamenteuses et de possibles effets indésirables. La CT a donc abaissé leur service médical rendu à "faible", ouvrant la voie à une limitation de leur prescription. Une volonté de limitation confirmée par les nouvelles recommandations.

  • Un nouveau groupe de travail

Depuis septembre 2011, un nouveau groupe de travail composé de professionnels de spécialités et de pratiques différentes (médecins généralistes, neurologues, gériatres, psychiatres, infirmiers, etc.), ainsi que de l’association France Alzheimer, s’est donc réuni afin d’actualiser la recommandation publiée en mars 2008. Cette actualisation "tient compte des évolutions récentes autour de la prise en charge de la maladie", notamment les modifications évoquées ci-dessus sur les médicaments. Elle inclue également une définition du parcours de soins.

  • Le médecin généraliste, pilote du parcours de soins

Le médecin généraliste traitant est le pilote de l’organisation des soins centrée sur le patient. Il réalise l’évaluation initiale du patient présentant des troubles de la mémoire. Dans les cas où cette évaluation ne révèle pas d’altération des facultés de mémoire, de jugement, de compréhension, etc., la HAS recommande d'en réaliser une autre 6 mois à 12 mois plus tard.

En revanche, si une altération est avérée, le binôme médecin généraliste traitant/ spécialiste réalise les tests et examens nécessaires. Le médecin spécialiste pose le diagnostic de la maladie d’Alzheimer et l’annonce au patient. C’est ensuite le médecin généraliste traitant qui, après avoir échangé avec le patient et son entourage sur la bonne compréhension des enjeux du diagnostic, leur propose un plan de soin et d’aides. Assisté d’un professionnel formé (infirmière coordonnatrice de réseau de santé par exemple), le médecin généraliste traitant se chargera de mettre en œuvre les mesures d’accompagnement en lien étroit avec les aidants naturels, etc. Le médecin généraliste est donc au centre de la prise en charge de ces patients souvent difficiles.

  • Limiter la prescription des médicaments

Il n’y a pas pour le moment de traitement bloquant efficacement et durablement la progression de la maladie. Les médicaments disponibles, comme constaté par la Commission de la Transparence, ne sont que légèrement utiles, et seulement dans certains cas. En conséquence, la HAS précise désormais que le "traitement médicamenteux spécifique est une option dont l’instauration ou le renouvellement est laissé à l’appréciation du médecin prescripteur". Par ailleurs l’agence conseille de revoir le patient au bout d’un mois pour "une évaluation de la tolérance et un ajustement de la posologie". Elle préconise également qu’au-delà d’un an, il y ait une concertation pluri-professionnelle avec le patient (si son état le permet), son aidant, le médecin généraliste traitant, le gériatre et le neurologue ou le psychiatre afin de "réviser la prescription et vérifier l’intérêt pour le patient de poursuivre le traitement et ce, afin d’assurer un suivi de qualité et personnalisé". Donc en gros, si ces médicaments spécifiques (différents des médicaments et autres traitements non médicamenteux symptomatiques) ne marchent pas ou sont trop mal tolérés, il faudra les arrêter.

Enfin la HAS déconseille la prescription  des médicaments ou compléments suivants : le piribédil, les antioxydants (dont la vitamine E), la sélégiline, les extraits de ginkgo biloba, les nootropes (médicaments psychostimulants comme les amphétamines) , les anti-inflammatoires, les hormones (dont la DHEA et les oestrogènes), les hypocholestérolémiants (dont les statines) et les omégas 3.

  • L’importance des thérapies non médicamenteuses

Outre ces précisions sur les traitements, la HAS insiste sur la conduite à tenir devant des troubles de la mémoire ou une maladie d’Alzheimer et sur la mise ne place de la prise en charge et du suivi. Parmi les éléments de cette prise en charge, l’agence précise la place importante de différentes interventions non médicamenteuses : aides à domicile, nombre de soignants suffisant en institution, accompagnement psychologique dès l’annonce de la maladie (mais aussi après), soutien psychologique de la famille ou encore prise en charge orthophonique éventuelle pour maintenir la communication verbale avec le patient. La stimulation cognitive, qui consiste à mettre en situation le patient ou simuler des situations vécues (trajets, téléphone, toilettes…) peut également être proposée afin de "ralentir la perte d’autonomie dans les activités de la vie quotidienne". Cette stimulation peut être débutée par les psychologues, ergothérapeutes, psychomotriciens ou orthophonistes et être prolongée par les aidants, à domicile ou en institution.

L’agence rappelle également l’effet positif possible de l’exercice physique, "notamment la marche" (kinésithérapeutes, psychomotriciens, ergothérapeutes), à la fois pour prévenir le risque de chutes mais aussi pour stimuler les fonctions cognitives et aptitudes fonctionnelles, comportementales.

Enfin d’autres interventions non médicamenteuses "pourraient améliorer certains aspects du comportement" (dépression, angoisse, douleurs, etc.) : musicothérapie, aromathérapie, stimulation multisensorielle, Reality Orientation (activités centrées sur l’orientation dans la vie réelle : heure du déjeuner, temps qu’il fait, etc.), reminiscence therapy (rappel oral ou d’une autre manière d’événements passés), thérapie assistée d’animaux (voire de robots, comme Paro ?), massages, thérapie de présence simulée (vidéo familiale) ou luminothérapie.

  • Aider les aidants

Les aidants, familiaux et professionnels, sont exposés à de nombreuses difficultés pour gérer cette pathologie. Aussi la HAS recommandent qu’ils soient formés, mais aussi soutenus, accompagnés psychologiquement, par exemple via "les associations de familles, les MAIA (Mission d’Accueil et d’Information des Associations), les ESA (Equipe Spécialisée Alzheimer), les CLIC (Centre Local d'Information et de Coordination Gérontologique), les accueils de jour, les réseaux, les plates-formes de répit, etc.".

  • Un suivi standardisé

La HAS recommande qu’il y ait au moins 1 fois par an une réévaluation des besoins des patients (clinique, état nutritionnel, maladies associées, état cognitif, autonomie, etc.), de leurs aidants (fatigue, épuisement et souffrances éventuels, état de santé, "trop souvent négligé"), de leur environnement  (personnel, social, juridique) et des solutions mises en place, médicamenteuses ou non.

Ces nouvelles recommandations comportent de nombreuses autres indications et précisions pour les professionnels de santé, vous pouvez les découvrir dans leur intégralité en téléchargeant le fichier sur le site de la HAS (PDF de 48 pages).

En conclusion, le travail de la HAS sur le diagnostic et la prise en charge de la maladie d’Alzheimer, certes effectué suite à l’affaire Mediator et aux pressions judiciaires du Formindep,  semble davantage en adéquation avec la réalité du terrain : oui les médicaments peuvent parfois servir, mais ils ne sont qu’un maillon d’une prise en charge globale, de mieux en mieux codifiée, de plus en plus personnalisée et pour laquelle les professionnels sont de mieux en mieux formés. En attendant la mise au point, tant attendue, d’un traitement enfin réellement efficace sur cette terrible maladie...

Doctissimo

VIH : Un mécanisme de l’inflammation chronique décrypté
Jeudi, 22/12/2011 - 00:20

La majorité des patients infectés par le VIH présente une inflammation généralisée persistante, même sous traitement antirétroviral efficace. Si cette inflammation est asymptomatique sur le plan clinique, elle contribue à altérer le pronostic à long terme, notamment en favorisant le vieillissement accéléré et la survenue de pathologies cardiovasculaires. Une altération de l’immunité de la muqueuse intestinale est en cause. Celle-ci, en effet, conduit au passage constant de bactéries de la flore intestinale vers la circulation sanguine, entraînant ainsi un état inflammatoire chronique.

Les résultats de l’étude Anrs EP44 PERSIST, publiés dans le Journal of Clinical Investigation du 12 décembre décrivent pour la première fois un des mécanismes clés de l’altération immunitaire de la muqueuse intestinale. Réalisée sous la direction du Docteur Pierre Delobel au CHU de Toulouse, et ses collègues de l’Inserm, cette étude a concerné 20 patients infectés par le VIH en succès thérapeutique et 10 témoins séronégatifs. Elle montre que, chez les patients infectés par le VIH, certains lymphocytes CD4, qui sont normalement destinés à migrer vers la muqueuse intestinale, restent bloqués dans la circulation sanguine. Ces CD4, porteurs des marqueurs CCR9 et α4ß7, ont pour rôle de faire "barrière" entre le tube digestif et la circulation sanguine et donc d’empêcher le passage des bactéries vers le sang. Les chercheurs retrouvent, chez les patients VIH+, ces CD4 en nombre anormalement diminué dans la muqueuse intestinale mais paradoxalement en nombre élevé dans le sang. Inversement, chez les témoins non infectés par le VIH, ces CD4 sont peu nombreux dans le sang car ils ont migré normalement vers la muqueuse intestinale. Les chercheurs mettent en évidence que ce phénomène est lié à un défaut de sécrétion d’une chimiokine, appelée CCL25 par les cellules intestinales. Cette protéine a pour fonction d’attirer les lymphocytes CD4 exprimant CCR9 et α4ß7 vers la muqueuse intestinale.

"Lorsque les patients prennent un traitement antirétroviral efficace, le nombre de leurs lymphocytes CD4 sanguins, y compris ceux exprimant CCR9 et α4ß7, remonte sensiblement, explique Pierre Delobel. Ces lymphocytes devraient donc en toute logique être attirés vers la muqueuse intestinale. Mais comme la production de la chimiokine CCL25 y est insuffisante, ces lymphocytes n’atteignent pas leur cible au niveau de l’intestin. Il ajoute : "C’est un vrai cercle vicieux : le déficit immunitaire de la muqueuse conduit à une altération de celle-ci, qui entraîne le déficit en CCL25, qui lui même entretient le déficit immunitaire de la muqueuse".

La description de ce mécanisme ouvre des perspectives intéressantes pour la prise en charge de l’inflammation systémique persistante observée chez les patients VIH+, malgré le traitement antirétroviral. Cela constitue tout d’abord un argument supplémentaire en faveur d’un traitement antirétroviral précoce de l’infection par le VIH, avant que l’immunité de la muqueuse intestinale ne soit profondément altérée. Cela permet par ailleurs de rechercher désormais des traitements immunologiques susceptibles de restaurer la production intestinale de CCL25.

Inserm

Maladies neurologiques : la stimulation magnétique transcrânienne devient une option thérapeutique
Mercredi, 21/12/2011 - 00:20

Dépression, schizophrénie, douleurs d'origine neurologique ou encore accident vasculaire cérébral. La stimulation magnétique transcrânienne (rTMS) offre une nouvelle option thérapeutique pour un nombre croissant de maladies psychiatriques et neurologiques. Quasi inconnue il y a quinze ans, cette méthode, qui permet de moduler l'activité neuronale grâce à un aimant externe, est en train d'exploser. Plusieurs indications sont déjà validées sur le plan scientifique - la rTMS est d'ailleurs agréée depuis 2008 aux Etats-Unis pour le traitement de la dépression -, et bien d'autres sont en cours d'évaluation.

Appliquée au contact du scalp, la bobine émet des impulsions magnétiques qui se transforment en impulsions électriques. Celles-ci induisent une activation ou au contraire une inhibition au niveau de la zone cérébrale visée. La rTMS est donc d'autant plus séduisante qu'elle permet d'agir sur des régions profondes du cerveau par une stimulation superficielle. Les séances, qui ne nécessitent aucune anesthésie, peuvent être effectuées en ambulatoire. Depuis les premières publications sur le sujet, en 1987, près de 7 300 articles ont été publiés dans les revues scientifiques, dont la grande majorité ces dix dernières années. Le dernier en date, paru le 14 décembre sur le site Internet de la revue Neurology, fait état de résultats prometteurs pour la rééducation après accident vasculaire cérébral (AVC).

Giacomo Koch (Fondation Sainte-Lucie, Rome) et ses collègues se sont intéressés particulièrement à la négligence spatiale unilatérale, définie comme l'incapacité à prendre en compte des informations sensorielles du côté opposé à une lésion cérébrale. Consécutif le plus souvent à un AVC du côté droit du cerveau, ce symptôme peut se traduire chez les patients par l'ignorance de la partie gauche de leur corps (par exemple, ils ne se rasent que du côté droit) et la non-perception des personnes et des objets situés à leur gauche. Les effets de la rééducation sont souvent modestes.

L'idée de proposer une stimulation magnétique transcrânienne repose sur le constat qu'un AVC perturbe l'équilibre entre les deux hémisphères cérébraux, justifie Giacomo Koch. "Une lésion d'un côté induit une hyperactivité de l'autre hémisphère", précise-t-il. Pour cet essai en double aveugle (dans lequel ni les participants ni les investigateurs ne savent quel traitement est administré), les chercheurs italiens ont inclus vingt malades atteints de négligence hémispatiale à la suite d'un AVC. La moitié d'entre eux ont bénéficié de dix séances de stimulation sur deux semaines, dans l'objectif d'inhiber l'hyperactivité du côté non lésé. Les dix autres ont eu autant de séances avec une bobine inerte (placebo). La zone cible, dans le cortex pariétal postérieur gauche, était repérée précisément avec une technique de neuronavigation, guidée par IRM. Les médecins ont utilisé un protocole de stimulation à haute fréquence, appelé theta burst, a priori plus confortable pour les patients et efficace plus longtemps.

Dès la fin des quinze jours de traitement, les chercheurs ont constaté une amélioration de 16 % aux tests objectifs dans le groupe traité, score qui a grimpé à 22 % au bout de quatre semaines, alors que l'état des patients du groupe témoin restait inchangé. Aucun effet secondaire notable n'a été signalé. "Cette étude est un pas important", estiment Heidi Schambra et Randolph Marshall (New York) dans un éditorial, en rappelant que la prise en charge des négligences spatiales est d'autant plus cruciale que ce symptôme interfère avec la rééducation des fonctions motrices et cognitives.

Selon ces spécialistes, d'autres essais sont nécessaires pour confirmer ces résultats sur un plus grand effectif, déterminer les meilleurs paramètres de stimulation et le moment idéal pour la mettre en oeuvre - probablement très précocement après l'attaque cérébrale. Dans ce même domaine, la rTMS est aussi à l'étude pour la rééducation des troubles moteurs et ceux du langage (aphasie).

En France, malgré le coût élevé des appareils (de 60 000 euros à plus de 100 000 euros si un système de neuronavigation est associé) et l'absence d'agrément par les autorités sanitaires, de plus en plus d'équipes se sont lancées dans la rTMS. Une trentaine de centres, essentiellement hospitaliers, sont désormais équipés, selon le psychiatre David Szekely (CHU de Grenoble). Les dépressions sont l'une des principales indications. "C'est une technique efficace dans les dépressions de tout-venant, en monothérapie ou en association avec des antidépresseurs", précise le docteur Szekely, qui ajoute qu'un essai est en cours dans cinq centres français dans les dépressions bipolaires. Les premiers résultats, présentés récemment dans un congrès, sont très encourageants selon lui : sur neuf patients traités, sept ont répondu à la stimulation, dont quatre sont en rémission.

Le Monde

BCG et interféron α-2B pour le carcinome de la vessie
Mercredi, 21/12/2011 - 00:10

La majorité des cancers à cellules transitionnelles de la vessie (KCTV) sont dépistés à un stade superficiel (Tis= in situ, Ta= tumeur intramuqueuse, ou T1= tumeur infiltrant la sous-muqueuse ou le chorion mais pas la musculeuse). Le pronostic à ce stade est bon (environ 80 % de survies à 10 ans), dépendant de la différenciation cellulaire (grade), mais le taux de récidives élevé (50 %). La résection transurétrale (RTU) constitue le premier traitement des Ta et T1, les Tis étant combattues par des instillations intravésicales (IIV) de BCG, qui viennent volontiers aussi compléter la RTU des Ta- T1. On a proposé d’associer au BCG l’interféron α-2B (INF) qui aurait un effet synergique sur le KCTV. C’est ce qu’ont évalué les auteurs saoudiens sur des patients vierges de tout traitement médical, sans insuffisance rénale, hépatique, ni médullaire, en excluant les grossesses et les infections urinaires.

Le traitement a consisté en une IIV hebdomadaire pendant 6 semaines de 27 mg de BCG et 106 unités d’INF, en demandant aux malades de ne pas uriner pendant 2 h après l’IIV. En cas de fièvre ou d’hématurie, l’IIV suivante a été différée de 7 j. Une cystoscopie avec éventuelles biopsies de lésions suspectes et une cytologie urinaire ont été pratiquées tous les 3 mois pendant 2 ans puis tous les 6 ou 12 mois. En cas de succès, il a été procédé à 3 cures hebdomadaires complémentaires.

L’étude (2002-2009) a concerné 50 sujets (48 hommes) de 38 à 85 ans. Les lésions étaient Ta (25), T1 (23) et Tis (2). Pour être éligibles, les Ta devaient être ≥ 3 cm et de grade histologique G1 à G3 (degré moyen d’anaplasie). Tous les patients ont eu leurs 6 IIV et 37 ont pu bénéficier des 3 séquences complémentaires. Les 13 autres en ont été empêchés du fait de toxicité urologique (2), de rechute (9) ou de mauvaise soumission au traitement (2).

Avec un recul moyen de 4 ans ½, on a observé 31 (62 %) rémissions et 19 récidives, dont 8 aggravations (passage de Ta à T1, de T1 à T2, ou métastases), principalement pour les G3. La survie sans échec à 5 ans est estimée à 56 %.

JIM

Nouvelle piste de traitement contre le diabète
Mardi, 20/12/2011 - 00:20

Des chercheurs ont développé des anticorps qui s'opposent aux taux élevés de sucre dans le sang. Ces protéines pourraient servir à fabriquer de nouveaux médicaments contre le diabète de type 2.

Dans le diabète de type 2, autrefois appelé non insulinodépendant, les cellules de l’organisme ne répondent plus aussi efficacement à l’insuline, l’hormone chargée de réguler la quantité de sucre dans le sang, on parle alors d’insulinorésistance. Du coup le sucre, au lieu de pénétrer dans l’environnement cellulaire et de jouer son rôle énergétique, s’accumule dans la circulation sanguine causant des altérations des vaisseaux sanguins, du cœur ou des nerfs.

Au niveau moléculaire, le diabète de type 2 est lié à une famille de facteurs de croissance du fibroblaste, ou FGF, et à ses récepteurs. Certains de ces facteurs apparaissent prometteurs pour faire reculer l'obésité et d'autres maladies liées au diabète. Dans de précédentes études, par exemple, des souris diabétiques et en surpoids traitées avec le facteur appelé FGF21 ont pu retrouver un métabolisme normal et perdre du poids.

La piste semblait donc intéressante ; malheureusement, les essais menés chez l’homme n’ont pas prouvé l’efficacité de cette protéine FGF21. Pas désespérée pour autant, une équipe californienne a continué a travaillé sur cette voie. Dans la revue Science Translational Medicine, les chercheurs présentent des essais réalisés avec un anticorps qui mime le FGF21 en se liant à FGFR1, un récepteur du facteur de croissance présent dans le pancréas et les tissus adipeux.

En une semaine, le taux de sucre des souris diabétiques qui avaient reçu des injections de l'anticorps est revenu à des niveaux normaux et les souris ont perdu du poids. Il reste maintenant à vérifier l’efficacité de ce composé sur l’homme. Premier point positif, l’anticorps peut être facilement produit et il reste actif dans le sang assez longtemps pour envisager, dans un second temps, une application thérapeutique.

Sciences & Avenir

Les secrets de "l'hormone du sommeil" révélés
Mardi, 20/12/2011 - 00:00

Une avancée majeure réalisée par une équipe de l'Institut de recherche du Centre universitaire de santé McGill (IR-CUSM) et de l'Université McGill révèle le mécanisme de la mélatonine, la fameuse "hormone du sommeil". La recherche, conduite en collaboration avec des scientifiques en Italie, vient d'identifier le rôle clé d'un récepteur de la mélatonine dans le cerveau qui favorise le sommeil profond, dit réparateur. Cette découverte a permis aux chercheurs de développer une nouvelle médication, appelée UCM765, qui active spécifiquement ce récepteur. Ces résultats prometteurs, publiés dans The Journal of Neuroscience, ouvrent la voie au développement de traitements potentiels pour l'insomnie - un problème majeur de santé publique qui touche des millions de personnes à travers le monde.

"Nous avons passé plusieurs années à développer des médicaments qui agissent de manière sélective sur un seul récepteur de la mélatonine afin de favoriser uniquement le sommeil profond - qui selon nous est la clé dans le traitement de l'insomnie", déclare la Dr Gabriella Gobbi, chercheuse en psychiatrie à l'IR-CUSM et auteure principale de l'étude. "Le sommeil profond a un effet régénérateur, il augmente la mémoire et active le métabolisme tout en abaissant la pression sanguine et ralentissant le rythme cardiaque." La plupart des traitements utilisés jusqu'à présent, telles que les benzodiazépines, agissent de manière peu efficace sur le sommeil profond et peuvent conduire à une dépendance et à des troubles cognitifs.

Les chercheurs se sont intéressés à la mélatonine pour ses effets sur l'activé cérébrale, sur la dépression et l'anxiété. La mélatonine est une hormone importante produite par la glande pinéale (située dans le cerveau), en absence de lumière. Présente dans l'ensemble du règne animal, elle joue un rôle dans la régulation du cycle du sommeil et des rythmes circadiens.

L'équipe de recherche a découvert que les deux principaux récepteurs de la mélatonine, MT1 et MT2, avaient des rôles opposés dans la régulation du sommeil. "Nous avons démontré que les récepteurs MT1 agissent sur le sommeil REM pour rapid eye movement et bloquent le sommeil non-REM, alors que les récepteurs MT2 favorisent le sommeil non-REM aussi appelé sommeil profond", explique la Dr Gobbi, qui est également professeure associée en psychiatrie à la Faculté de médecine de l'Université McGill. "La précision du rôle des MT2 de la mélatonine représente une percée scientifique importante qui les placent comme une nouvelle cible prometteuse pour de futurs traitements de l'insomnie. Cette découverte explique également l'effet hypnotique et peu concluant des comprimés de mélatonine en vente sans ordonnance, qui agissent sur les deux récepteurs aux effets opposés."

Développée avec un groupe de chimistes sous la direction du professeur Tarzia à Urbino et du professeur Mor à Parme, Italie, la médication UCM 765, cible sélectivement les récepteurs MT2 en augmentant les phases de sommeil profond chez les rats et des souris. De plus, cette molécule agit dans la région du cerveau du thalamus réticulaire qui est le "centre moteur" du sommeil profond. "Cette nouvelle médication, contrairement aux traitements traditionnels pour l'insomnie, augmente le sommeil profond sans détruire ''l'architecture'' du sommeil", explique la Dr Gobbi. C'est-à-dire elle conserve les mêmes épisodes de sommeil REM."

"Le développement de cette pharmacologie, ciblant les récepteurs du sommeil profond pour combattre l'insomnie, représente une avancée majeure dans le développement de nos compétences à gérer ce problème de santé publique commun à de nombreux pays", conclu le Dr Vassilios Papadopoulos, directeur exécutif et scientifique en chef de l'IR-CUSM et directeur exécutif associé recherche du CUSM.

Techno Science

Espèces marines privées d'habitat : réchauffement planétaire en cause !
Dimanche, 18/12/2011 - 00:40

Une nouvelle étude internationale suggère que l'élévation des températures affecterait les habitats des animaux et des plantes, et que certains devront aller chercher ailleurs un environnement plus propice. Cependant, certaines espèces marines n'auront pas de solution. Les résultats des travaux, publiés dans la revue Science, montrent la difficulté qu'auront les espèces marines à s'accommoder des changements.

Sous la direction de la Scottish Association for Marine Science du Scottish Marine Institute au Royaume-Uni, des scientifiques ont comparé l'évolution des températures de la mer et des terres entre différentes régions, et de 1960 à 2009. Les données les ont aidés à estimer la vitesse à laquelle des populations marines ou terrestres seraient forcées de trouver un autre environnement face au changement des températures. Ils n'ont pas constaté de différence significative selon les environnements.

«Lorsque la température augmente, les végétaux et les animaux qui ont besoin d'un environnement plus frais se déplacent vers d'autres régions», explique le Docteur Mike Burrows de la Scottish Association for Marine Science. «Les terres se réchauffent environ trois fois plus vite que les océans, on pourrait donc s'attendre à ce que les espèces se déplacent tout simplement trois fois plus vite sur la terre ferme, mais ce n'est pas le cas. S'il fait trop chaud sur les terres pour certaines espèces, elles peuvent grimper en altitude où il fait généralement plus frais. C'est impossible pour de nombreuses espèces marines qui vivent obligatoirement à la surface des mers ou proche de celle-ci. Si la température augmente, des espèces telles que les poissons pourront aller plus en profondeur chercher un environnement qui leur convient, mais d'autres, comme les végétaux marins ou les coraux devront aller bien plus loin pour trouver un habitat convenable et pourraient être piégées s'il n'existe pas d'endroits plus frais pour elles.»

Le Docteur John Bruno de l'université de Caroline du Nord aux États-Unis, l'un des auteurs de l'article, convient que les espèces marines auront plus de difficultés à suivre l'évolution du climat : «Le fait de se retrouver piégé dans un environnement qui se réchauffe peur contrarier la croissance, la reproduction et la survie d'espèces marines importantes d'un point de vue économique et écologique comme les poissons, les coraux et les oiseaux de mer.»

Les résultats des travaux éclairent également sur les variations de température de la surface de l'océan an sein d'une région limitée. Le mouvement des espèces est également déclenché par cette variation. Par exemple, les températures marines printanières arrivent environ 5 jours plus tôt par décennie sur la côte est alors qu'aucun changement n'a été constaté sur la côté ouest.

«Les zones où les espèces auront à déménager le plus rapidement sont d'importantes zones de biodiversité comme le triangle corallien de l'Asie du Sud-est», ajoute le Docteur Burrows. «Notre étude pourrait aider les écologistes à préparer les habitats coralliens au changement et à les préserver.»

Ont participé à cette étude des experts d'Australie, du Canada, du Danemark, d'Allemagne, d'Espagne, d'Afrique du Sud, du Royaume-Uni et des États-Unis.

Cordis

Un vaccin anti-cancer donne des résultats prometteurs
Dimanche, 18/12/2011 - 00:20

Des scientifiques de l’université de Géorgie et de la Mayo Clinic (Arizona) sont parvenus à développer un vaccin thérapeutique capable de réduire de 80 % les tumeurs du sein chez la souris et potentiellement actif contre d'autres formes de cancer graves. Leur découverte pourrait trouver également de larges applications, pour les cancers colorectal, de l’ovaire et du pancréas. Les chercheurs essayent depuis des années de comprendre comment le système immunitaire reconnaît les différences entre les cellules normales et cancéreuses, de manière à l'inciter, par un vaccin par exemple, à détruire les cancéreuses. Récemment, des chercheurs ont découvert que lorsque des cellules deviennent cancéreuses, les hydrates de carbone à la surface de certaines protéines cellulaires présentent des différences avec ceux des cellules saines. Ce sont ces microscopiques différences qui sont à la base du vaccin contre le cancer du sein mis au point par les chercheurs de la Mayo Clinic.

Ils ont utilisé des souris qui développent facilement des cancers mammaires et qui surexpriment une protéine MUC1 à la surface de leurs cellules (comme c'est le cas pour beaucoup de cancers du sein de la femme). À cette protéine est associé un groupe d'hydrates de carbone spécifiques, distincts de ceux de cellules saines. À partir de là, les chercheurs ont construit un vaccin relativement simple. Complètement synthétique, il comprend trois composants : un facteur stimulant le système immunitaire (utilisé comme adjuvant), un facteur capable de doper spécifiquement la production de cellules T (tueuses contre le cancer) et un peptide qui cible la réaction immunitaire contre les cellules portant la protéine MUC1 associée aux hydrates de carbone spécifiques du cancer du sein.

«Ce vaccin injecté à des souris atteintes d'une tumeur mammaire a entraîné une très importante réaction immunitaire, raconte un des coauteurs de ce travail, Geert-Jan Boons, qui a été capable d'activer trois composantes du système immunitaire pour réduire de 80 % la taille de la tumeur.». «C'est la première fois qu'un vaccin est developpé pour entraîner le système immunitaire à distinguer et tuer les cellules cancéreuses grâce aux structures d'hydrates de carbone sur la protéine MUC1», estime Sarah Gendler, coauteur de cette recherche. MUC1 serait surexprimé chez 90 % des patientes atteintes de cancer du sein dit «triple négatif» et qui résistent au traitement hormonal et à d'autres médicaments.

MUC1 se trouve sur plus de 70 % de tous les cancers agressifs. De nombreux cancers, tels que le cancer du sein, du pancréas et des ovaires expriment MUC1 dans plus de 90 % des cas. Lorsque le cancer se développe, MUC1 est produite à des niveaux élevés. Un vaccin dirigé contre la protéine MUC1 a donc un potentiel énorme, à la fois à titre préventif pour éviter la récidive ou à titre prophylactique chez les patients à haut risque pour des cancers spécifiques.

Ce vaccin pourrait aussi être utilisé conjointement avec une thérapie standard telle que la chimiothérapie dans les cancers qui ne peuvent pas être guéris par la chirurgie, tels que le cancer du pancréas. Par ailleurs, MUC1 est également surexprimée chez 90 % des patients insensibles à la thérapie hormonale, comme les inhibiteurs de l'aromatase ou le tamoxifène, ou le médicament Herceptin, atteints donc de tumeurs très agressives.

Les chercheurs continuent à tester ce vaccin sur divers modèles expérimentaux. Ils envisagent de le tester à court terme sur des malades. «Avec l'idée, précise le professeur Boons, que, combinée au dépistage précoce, cette approche pourra transformer la prise en charge de cette maladie.»

Science Daily

Un robot qui lie la main au cerveau
Dimanche, 18/12/2011 - 00:10

Un chercheur du CESEM développe des modèles 3D comportementaux basés sur les signaux neuronaux pour piloter un bras robotisé de préhension. Objectif : mieux interpréter les neurosciences pour améliorer les prothèses médicales et les préhenseurs industriels.

Comment une main humaine saisit-elle un objet ? Comment le cerveau contrôle-t-il ce geste ? Telles sont les questions que se pose François Touvet, doctorant en 3e année de thèse au sein de l'équipe "Contrôle multi-sensoriel du membre supérieur" du CESEM (Centre d’Etude de la Sensori-motricité), laboratoire de recherche biomédicale en neurosciences de la Faculté de médecine (Universités Paris Descartes et Paris-Diderot). L’acte en soi a l’air simple, pourtant les neurosciences sont encore loin d’avoir percé le mystère de la chaîne d’information nécessaire à la préhension. Elles avancent grâce à cette équipe en testant sur un robot la modélisation du mouvement humain et la façon dont il peut être commandé par le cerveau, confrontant ainsi les différentes approches théoriques, les modèles de fonctionnement du cerveau, et leurs limites.

L’objectif est de coller au plus près à la façon dont une main humaine saisit un objet et d’affiner la connaissance des processus neuronaux mis en jeu dans cet acte de préhension. La complexité vient du fait qu’il s’agit de prendre en compte l’impact de la totalité du bras dans le déploiement de la main et de trouver une modélisation mathématique appropriée.

Ces travaux utilisent des données réelles acquises sur une main saisissant un objet à l’aide d’un Cyber Glove (gant instrumenté dans lequel l’expérimentateur glisse et bouge sa main, et qui mesure la position et l’orientation 3D de la paume, ainsi que les angles de chaque articulation). François Touvet utilise ces données comme entrées du programme informatique, qu’il a développé à l’aide de Matlab, destiné à commander le bras articulé robotisé simulant un bras humain.« Pour les premières campagnes d’essais, je me suis rendu à l’Institut Pprime de Poitiers qui abrite le robot et j’ai testé mes configurations avec l’aide de l’équipe partenaire, afin d’effectuer les ajustements nécessaires entre la simulation et le réel. Aujourd’hui, nous travaillons toujours ensemble, mais à distance : il me suffit simplement de générer les paramètres de consigne de la main et du robot porteur avec mon simulateur et de les envoyer à l’équipe de Poitiers qui les valide sur le robot », explique François Touvet.

Industrie & Technologies

Comment les antidépresseurs créent de nouveaux neurones
Samedi, 17/12/2011 - 00:20

La dépression touche près de 3 millions de personnes en France. Plusieurs facteurs psychologiques ou environnementaux contribuent à son apparition ou à sa chronicisation mais il existe également des facteurs biologiques. Les malades présentent notamment un taux de sérotonine plus faible que les autres. Il s’agit d’un neurotransmetteur essentiel à la communication entre les neurones, impliqué notamment dans les comportements alimentaires et sexuels, le cycle veille-sommeil, la douleur, l’anxiété ou encore les troubles de l’humeur.

La fluoxétine permet de restaurer en partie le taux de sérotonine et de réduire les symptômes de la maladie. Des travaux datant de 2003 ont montré que ce médicament agit via la synthèse de nouveaux neurones au niveau de l’hippocampe, une région impliquée dans la mémoire et le repérage spatial. Une équipe de l’Inserm vient d’aller plus loin en décrivant les étapes qui induisent ce phénomène.

La formation de nouveaux neurones dépend en fait du taux d’un microARN (miR-16) au niveau de l’hippocampe. Les microARN sont de petits fragments d’ARN qui ne produisent pas de protéine mais jouent un rôle essentiel dans le contrôle de l'expression des gènes. Chez l'homme, plus de 500 d’entre eux ont été mis en évidence et leur dysfonctionnement est associé à plusieurs maladies, comme le cancer. "Quand on fait baisser le taux de ce microARN, on mime l’effet de la fluoxétine et cela déverrouille la neurogenèse, c’est-à-dire la maturation de nouveaux neurones", précise Sophie Mouillet-Richard, médecin, coauteur des travaux.

Les chercheurs ont également montré que ce taux de microARN est sous le contrôle de trois protéines « signal » produites sous l’effet de la fluoxétine dans une autre région du cerveau appelée noyau du raphé. Ces molécules agissent en synergie pour faire chuter la quantité de microARN. Si une seule d’entre elles est absente, le mécanisme est bloqué. Le trio est nécessaire pour mimer l’action du médicament. Ces molécules sont d’ailleurs retrouvées en grande quantité dans le cerveau des patients traités par cet antidépresseur.

"La découverte de ces signaux et du rôle du microARN permet de rechercher de nouvelles cibles thérapeutiques mais également de disposer d’indicateurs pour évaluer l’efficacité d’un médicament ou suivre son effet dans le temps", conclut Sophie Mouillet-Richard. Autant de ressources pour améliorer le traitement des états dépressifs.

Inserm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Plus les chercheurs sont âgés, plus ils sont créatifs
Mardi, 20/12/2011 - 00:10

Une étude américaine montre que les scientifiques nobelisés sont de plus en plus vieux.

«On a longtemps pensé que les gens étaient plus innovants au début de leur vie», explique Benjamin Jones, de l'Université Northwestern (Illinois, Etats-Unis). Mais une étude réalisée par ce chercheur américain montre que cette idée reçue sur le vieillissement n'était plus du tout applicable aux meilleurs chercheurs de la planète: les lauréats des prix Nobel en médecine, physique, chimie et économie.

D'après Benjamin Jones et son collègue Bruce Weinberg de l'Ohio State University, l'âge moyen des lauréats quand ils ont réalisés les travaux qui leur ont valu la récompense scientifique suprême ne cesse de croître. De 1901 à 1960, la moitié des Nobel de Chimie avaient réalisé leurs travaux les plus importants avant d'avoir 40 ans. Depuis 1960, la tendance s'est inversée et les lauréats sont de plus en plus nombreux à avoir fait leur grande découverte après la quarantaine et la cinquantaine.

Ces statistiques sont d'une certaine mesure une surprise, et font mentir la plupart les travaux de neurobiologie qui étudient les effets du vieillissement sur le cerveau.

  • Des recherches de plus en plus pointues

Pour les chercheurs, deux facteurs peuvent aider à comprendre cet apparent paradoxe. Le premier, c'est que les études scientifiques deviennent de plus en plus longues, avec des doctorats plus poussés et des longues périodes de post-doctorat avant de pouvoir devenir un scientifique attitré. Cette tendance, qui se retrouve aussi dans d'autres domaines que la science, s'explique notamment que la recherche de pointe est de plus en plus spécialisée et nécessite des études de plus en plus pointues avant d'être opérationnel dans un domaine.

Le deuxième facteur mis en avant parles auteurs de l'étude publiée dans les Comptes rendus de l'académie américaine des sciences (PNAS) est dû au fait que les prix Nobel sont de moins en moins décernés pour des travaux théoriques mais de plus en plus pour des recherches expérimentales. Les esprits jeunes, non figés dans les idées reçues d'une discipline existante sont potentiellement plus créatifs pour élaborer des théories nouvelles, mais sont désavantagés pour réaliser des expérimentations de plus en plus complexes pour lesquelles l'expérience des chercheurs plus âgés est un avantage considérable.

Pour Roald Hoffmann, le chimiste américain qui a reçu le prix Nobel en 1981 pour des travaux qu'il avait réalisé avant d'avoir trente ans, cette étude n'est pas une surprise: «Ma mémoire n'est peut-être pas aussi bonne qu'avant, mais j'ai une meilleure intuition, affirme le scientifique. Je fais maintenant bien mieux le lien entre des éléments différents que quand j'étais jeune.»

Le Figaro

L’hélicoptère NH90 d'Eurocopter entre en service dans la Marine
Dimanche, 18/12/2011 - 00:00

La Marine a commandé au total 27 exemplaires de ce nouvel appareil biturbine né d’un programme européen. Les livraisons s’étaleront jusqu’en 2021.

La Marine a sorti le grand jeu pour la mise en service de son dernier hélicoptère de combat : le NH90 aussi baptisé Caïman Marine. A la base aéronautique navale de Lanvéoc-Poulmic dans le Finistère qui disposera de 6 exemplaires avant la fin de l’année, deux appareils ont fait le show le 8 décembre dernier, devant marins et élèves officiers : démonstration de sa grande maniabilité, opération d’hélitreuillage et même largage de troupes hélicordées sur des embarcations rapides…

De quoi ravir l'audience et donner un aperçu de la polyvalence de l’appareil de la classe des 10 tonnes qui sera capable à la fois d'accomplir des missions de secours maritime (sauvetage en mer, évacuation sanitaire…) et des opérations militaires (attaque de sous-marins par lancement de torpille, lutte anti-surface, transport de commandos …). Venu pour l’occasion, le chef d’Etat Major de la Marine, l’amiral Bernard Rogel a souligné le principal apport de cet appareil : "Le NH90 accélère la modernisation de la Marine. Sa polyvalence lui permet d’être réactif et de pouvoir s’adapter aux différentes missions".

La sophistication des systèmes de vol et d’armement a également permis de réduire l'équipage embarqué. "L’équipage sera composé d’un pilote contre deux sur les appareils précédents, d’un coordinateur tactique et d’un opérateur treuilliste et chargé des différents capteurs embarqués. Le NH90 est le premier hélicoptère à commandes de vol électriques, ce qui facilité grandement sa maniabilité. On a reçu pour l’instant cinq machines. La 6eme est attendue avant la fin d’année", a précisé pour sa part Benoit Hédé-Hauy, chef du projet NH90 pour l’Etat-major de la Marine.

  • 2ème semestre 2012

Les premiers appareils ont toutefois été livrés dans une version intermédiaire et ne pourront assurer que les missions de secours maritime et de contre terrorisme, le temps d’être mis à niveau. Il faudra attendre le deuxième semestre 2012 pour que les hélicoptères livrés disposent de la capacité de lancer des torpilles. Le programme NH90, comme les derniers grands programmes aéronautiques militaires (avion de transport militaire A400M, hélicoptère Tigre…), a en effet connu d’importants retards.

La première livraison initialement prévue pour 2005 n’est intervenue qu’en 2010. La conduite du programme a d’autant été plus délicate qu’il regroupait six nations (Italie, Allemagne, Pays-Bas, France, Portugal, Belgique) et un consortium de trois industriels parfois concurrents (Agusta-Westland, Eurocopter, Fokker-Stork).

Pour tenir les délais de livraisons, la direction générale de l’armement, invitée à cette mise en service, a tenu un discours de fermeté envers ses fournisseurs. Au total, la Marine a en effet commandé 27 appareils (version dite NFH pour Naval Frigate Helicopter) et l’armée de terre 133 (version dite TTH pour Tactical Transport Helicopter). Le programme a coûté 8 milliards d’euros à la France dont environ 1 milliard pour le développement.

Environ 530 appareils ont été commandés par l’ensemble des armées partenaires du programme et les clients exports (Australie, Norvège, Finlande, Suède, Oman, Grèce, Espagne…).

L'Usine Nouvelle

L'effort français de recherche a été maintenu malgré la crise
Samedi, 17/12/2011 - 00:00

L'effort français de R&D n'a pas été compromis par la crise conjoncturelle et les difficultés de l'Etat résultant de la crise. » Le bilan annuel de Futuris sur la recherche française qui vient de paraître est plein de bonnes nouvelles. La plus importante se situe sans aucun doute du côté des finances. En 2011, pour la 3e année consécutive, la dépense publique de recherche et développement de l'Hexagone est en hausse. L'an passé, le total des crédits engagés par l'Etat a atteint le montant respectable de 28 milliards d'euros.

Il n'est pas certain que cette enveloppe résiste aux coups de rabot sur la dépense publique qui risquent de se produire en 2012, mais ce qui est pris est pris. « Il y a de l'argent pour les bons projets », reconnaissent désormais la plupart des chercheurs publics qui travaillent sur des thématiques jugées « stratégiques ». En fait, une partie de cette hausse est due aux financements du programme « Investissements d'avenir » (IA, ex-grand emprunt) lancé en 2010, dont l'impact commence à se voir dans les comptes des laboratoires et des organismes.

Selon les estimations de Futuris, les crédits engagés cette année au titre des IA se montent à 2.192 millions d'euros, alors qu'ils étaient nuls les années précédentes. Ces projets « fléchés » (ciblés sur une thématique) s'ajoutent aux dotations de l'Agence nationale de la recherche (ANR) et d'autres sources, pour atteindre un total de 5.557 millions d'euros, soit 20,5 % des dépenses publiques de R&D. « Un cinquième de la recherche publique est financé par des sources compétitives. Il convient cependant d'être particulièrement prudent pour ce phénomène qui, d'une part, est limité dans le temps et, d'autre part, se répartit de façon très hétérogène sur le territoire français », indique le rapport de Futuris.

La ventilation par discipline confirme plusieurs tendances lourdes. D'abord, la croissance continue des montants dédiés à la santé, au bien-être, à l'alimentation et aux biotechnologies. Entre 2006 et 2011, ce poste est passé de 2,3 milliards d'euros à 3,2 milliards. Les programmes liés à l'environnement et aux écotechnologies ont également bénéficié d'un effort spécifique, avec un budget qui a plus que doublé. Le grand perdant de ces choix concerne avant tout la défense et la sécurité, en chute libre : 3,2 milliards d'euros en 2011 contre 4 milliards en 2006. Le spatial est quant à lui dans une position intermédiaire avec un effort maintenu à environ 1,2 milliard d'euros.

Ces priorités correspondent plus ou moins aux objectifs fixés par le gouvernement dans le cadre de la stratégie nationale de recherche et d'innovation (SNRI) adoptée en décembre 2009. Mais contrairement à une idée reçue, les crédits orientés n'ont pas « tout dévoré ». « On constate une augmentation spectaculaire des financements neutres (non thématisés), en particulier sous l'effet du crédit d'impôt recherche (CIR) et d'une partie des investissements d'avenir. Ils représentent aujourd'hui 42 % des crédits (11 milliards sur un total de 28) contre 28 % en 2006 », indique Futuris. En d'autres termes, la hausse des appels à projets constatée en France comme dans les autres pays ne se traduit pas par une diminution de la liberté d'action des chercheurs. En revanche, cette stratégie risque de privilégier les gros programmes, comme le craint Jacques Lesourne, coresponsable du rapport. « Il faut se méfier du syndrome ‘‘Big is Beautiful'' qui n'est pas toujours souhaitable. » Les prix Nobel scientifiques de cette année, dont celui du Français Jules Hoffmann, ont d'ailleurs récompensé des francs-tireurs de la recherche ayant travaillé en dehors des courants « mainstream » de leur discipline.

Les Echos

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top