RTFlash

RTFLASH Recherche & Technologie
NUMERO 638
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Février 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Une nouvelle étape-clé vers la nanoéelectronique
Matière
Le savon magnétique pourrait révolutionner la lutte contre la pollution
Un projet d'infrastructure hydrogène en Grande-Bretagne
La consommation énergétique mondiale restera dominée par les énergies fossiles d'ici 2030
Le laser permet un nouveau pas vers l'informatique quantique
Une nouvelle source de lumière pour des composants optiques plus performants
Espace
Découverte d'une quatrième exoplanète potentiellement "habitable"
Terre
Le réchauffement climatique a un impact majeur sur la salinité des océans
La NASA illustre le réchauffement climatique depuis 1880
Des chouettes de l’Arctique migrent en masse aux Etats-Unis
L’ambroisie, une plante sauvage qui fait des ravages
Le supervolcanisme, responsable de la plus grande extinction de masse ?
Vivant
Une redéfinition de l'autisme agite la psychiatrie américaine
Maladie d’Alzheimer : les bienfaits d’une plante traditionnelle indienne
Cancer de la peau : un nouveau traitement
Cancer du sein : un vaccin thérapeutique donne de bons résultats
Le mode de propagation de la maladie d'Alzheimer dans le cerveau se précise
Enfin une bonne piste pharmacologique pour perdre du poids?
Vers une détection précoce de l'autisme ?
Évolution des mammifères : devenir géant prend du temps
La maltraitance dans l'enfance modifie les gènes impliqués dans la gestion du stress
Le gène PPAR-? comme cible thérapeutique dans la rétinopathie diabétique
Cancer de la prostate : vers un dépistage plus individualisé ?
Comment les adolescents anticipent une récompense
Des particules lourdes contre les cancers
Une machine pour décoder le génome individuel en quelques heures !
Cancer de l’ovaire : un gène muté favorise la survie
La bouche, avant-poste de la santé ?
Découverte du lien entre la signature moléculaire et la maladie d'Alzheimer
La structure du protéasome 26S enfin comprise !
Edito
La nanomédecine entre dans sa phase pratique et va révolutionner les perspectives thérapeutiques



En 1904, le grand savant allemand Paul Ehrlich (Prix Nobel de Médecine 1908) écrivait un article fameux dans lequel il imaginait qu'il serait un jour possible de concevoir des "microbilles magiques", capables de transporter un médicament de manière parfaitement ciblée vers l'organe malade. Plus d'un siècle après cette géniale prévision, les nanomédicaments sont devenus réalité et sont en train de révolutionner l'ensemble des champs médicaux. Initialement, le concept sur lequel reposent les nanomédicaments, parfois appelé bio vecteur ou encore nanovecteur, consiste à emprisonner un principe actif à effet thérapeutique à l'intérieur d'un "vecteur", dont la nature et les propriétés peuvent varier et qui va permettre la protection, le transport et l'acheminement de ce principe actif jusqu'à la cellule ou l'organe à traiter.

En 2008, Patrick Couvreur, l'un des pionniers mondiaux de la nanomédecine (Directeur du laboratoire de physico-chimie de la faculté de pharmacie de Chatenay-Malabry), expérimentait avec succès le premier nanomédicament anticancéreux associant gemcitabine et squalène. Depuis cette date, d'autres nanomédicaments ont été conçus et expérimentés contre le cancer. Patrick Couvreur a notamment poursuivi ses recherches et expérimenté avec succès la vectorisation de doxorubicine à l'aide de nanocapsules dans le traitement de certains cancers du foie devenus résistants à la chimiothérapie.

A présent, ces nanovecteurs sont devenus plus sophistiqués : ils sont non seulement capables d'être "furtifs", c'est-à-dire indétectables par le système immunitaire mais peuvent en outre, dans certains cas, être conçus "sur mesure" de manière à identifier spécifiquement une cellule malade.

Il y quelques semaines, des chercheurs de l'université du Texas ont mis au point une nouvelle technique de dispersion physique qui devrait accroître très sensiblement l'efficacité de la délivrance des principes actifs par ces nanomédicaments. Ces chercheurs, dirigés par le Professeur Keith P. Johnson, sont parvenus à produire et à contrôler une dispersion stable d'anticorps très concentrés, constituée de protéines nanométriques. Il s'agit d'une avancée majeure car ce nouveau type de nanovecteurs est utilisable de façon simple, rapide et sûre, par simple injection sous-cutanée.

Une fois dans le corps du patient, ces nanovecteurs vont rester parfaitement stables jusqu'à ce qu'ils arrivent exactement sur leurs cibles cellulaires pour y délivrer leurs molécules thérapeutiques. Ce résultat remarquable a pu être obtenu en maîtrisant parfaitement l'équilibre délicat qui existe entre la puissante force d'attraction à courte distance et la faible force de répulsion à longue distance entre les protéines. En contrôlant cet équilibre, il devient également possible de contrôler et de moduler exactement la taille de ces nanovecteurs. Cette nouvelle technique de vectorisation est d'autant plus remarquable qu'elle est en théorie utilisable dans une multitude d'applications médicales potentielles.

Autre percée à signaler dans ce domaine en pleine effervescence : une équipe italienne de l'Université de Florence vient de montrer l'efficacité des nano-médicaments dans la prise en charge des accidents vasculaires cérébraux (AVC), deuxième cause de mortalité dans le monde. Comme le souligne Tommaso Pizzorusso qui dirige ces recherches " Après un AVC, les neurones endommagés déclenchent une chaîne de réactions biochimiques qui provoquent la mort des cellules nerveuses". Au centre de cette chaîne, on trouve une protéine, baptisée Caspasi 3, qui commande ce "suicide" des neurones. Il est cependant possible de réduire au silence cette protéine en utilisant de petites molécules de RNA, appelées RNA silencieux (siRNA) mais on ne savait pas, jusqu'à présent, comment acheminer ces molécules en quantité suffisante dans le cerveau pour contrer les effets de la Caspasi 3.

La solution à ce défi est venue des nanomédicaments : les chercheurs ont réussi à lier des molécules de siRNA à des nanotubes de carbone et ont ensuite injecté ces nanocapsules dans les zones cérébrales à traiter. Ils ont alors pu démontrer l'efficacité de ces nanovecteurs qui ont libéré suffisamment de siRNA pour réduire de moitié la quantité de cellules cérébrales détruites à la suite de l'AVC.

En France, une équipe du CNRS, dirigée par Sébastien Lecommandoux (Laboratoire de chimie des polymères organiques de Bordeaux) est parvenue récemment à encapsuler des nano-vésicules dans une capsule un peu plus grande. L'idée est d'encapsuler des polymersomes les uns dans les autres, un peu à la manière des poupées russes. Ce concept vise à transporter et à délivrer de manière parfaitement contrôlée plusieurs principes actifs différents qui seront successivement délivrés dans les cellules à traiter. C'est la première fois que des chercheurs parviennent à maîtriser une telle encapsulation "multicouches".

Il est également très intéressant de souligner que ces nanovecteurs et nanomédicaments peuvent être utilisés en synergie avec des technologie d'excitation thermique ou lumineuse qui vont potentialiser leurs effets. Les chercheurs du Centre de recherche en automatique de Nancy (Cran) et du Centre de lutte contre le cancer Alexis-Vautrin, expérimentent ainsi des nanoparticules photosensibles qui peuvent détruire des tumeurs cérébrales après avoir été activées par un flux de lumière spécifique guidée par fibres optiques.

Il est également possible, comme l'expérimente l'équipe de Sébastien Lecommandoux à Bordeaux, décidemment à la pointe de ces recherches passionnantes, d'utiliser des nanovecteurs contenant des nanoparticules magnétiques d'oxyde de fer. Ainsi magnétisés, ces nanovecteurs peuvent être guidés par un aimant vers la tumeur. Ils sont alors excités par champ magnétique, ce qui a pour effet de libérer la molécule anticancéreuse exactement sur la cible à traiter.

Enfin, évoquons les recherches menées par l’armée américaine qui essaye, en utilisant des brins d'ARN interférant couplés à des nanovecteurs, d'empêcher l'expression des gènes permettant aux bactéries d'être actives. L'idée à terme est de parvenir à remplacer les antibiotiques de plus en plus défaillants à cause de la multiplication des bactéries résistantes provoquée par un usage excessif de ces antibiotiques.

On le voit, la nanomédecine, longtemps cantonnée dans les laboratoires et considérée par le grand public comme relevant de la science-fiction, est en train de révolutionner les perspectives thérapeutiques dans de multiples domaines médicaux. A plus long terme, ces nanovecteurs, toujours plus efficaces et ciblés, devraient permettre également d'agir directement sur le contrôle des gènes en les "éteignant" ou en les "allumant" de manière spécifique. La nanomédecine deviendra alors la voie royale pour faire progresser les thérapies cellulaires et les thérapies géniques. Il est frappant de constater que cette nouvelle médecine, porteuse d'immenses promesses, dépasse largement les frontières du vivant dans son développement et s'appuie sur une coopération étroite entre biologistes, physiciens et mathématiciens, décloisonnant des frontières disciplinaires et conceptuelles très anciennes mais à présent dépassées.

Souhaitons que la France, qui excelle dans ce champ de recherche stratégique, se donne les moyens de garder son avance scientifique et technologique dans ce domaine qui va bouleverser la santé et la médecine dans la décennie qui vient.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Une nouvelle étape-clé vers la nanoéelectronique
Mardi, 07/02/2012 - 00:00

Des chercheurs du département de physique théorique de l’Université de Genève (UNIGE) et du QUEST (Centre for Quantum Engineering and Space-Time Research) de l’Université Leibniz à Hanovre ont réussi à observer avec une précision inégalée le transport d’un simple électron à travers une nanostructure semi-conductrice, un transistor quantique appelé aussi boîte quantique. Ces travaux, qui ont fait l’objet d’une publication dans la revue Nature Communications, contribuent non seulement à préciser certains comportements étranges observés dans le monde de l’infiniment petit, comme l’effet tunnel, mais également à ouvrir de nouvelles voies vers la mise au point d’un ordinateur quantique. Le transistor joue le rôle d’interrupteur pour des circuits logiques, constituant ainsi l’élément de base de l’électronique. Un simple ordinateur en contient aujourd’hui plus d’un milliard et tout autour de la planète, ce ne sont pas moins de dix milliards de transistors qui sont produits à chaque seconde.

Les chercheurs de l’UNIGE et de l’Université de Leibniz à Hanovre ont découvert de nouveaux aspects liés au comportement quantique d’un transistor qui fonctionne avec un seul électron, ce que les spécialistes appellent une boîte quantique ou quantum dot. Les boîtes quantiques sont des nanostructures qui peuvent être réalisées expérimentalement grâce à des technologies de pointe. Elles contiennent tout au plus quelques électrons et se comportent à de nombreux égards comme un atome et, comme tel, elles sont régulièrement sujettes à l’effet tunnel. Cette bizarrerie du monde quantique permet à une particule de traverser une barrière énergétique qui se dresse devant elle, un peu à la façon d’un fantôme qui le ferait avec un mur. Ainsi, un électron peut quitter ou entrer dans une boîte quantique. «Ces allers-retours créent deux valeurs possibles pour l’ensemble du système, ce qui lui permet de se comporter comme un transistor classique», explique Christian Flindt, chercheur à l’UNIGE.

Dans cette expérience, les chercheurs ont mesuré le courant électrique qui traverse une boîte quantique. Ils ont enregistré les passages de chaque électron afin de déterminer de façon précise, presque image par image, toutes les étapes de ces passages. Les scientifiques ont, par exemple, réussi à mesurer de minuscules fluctuations dans le courant électrique dans ces transistors à un seul électron ainsi que les corrélations qui existent entre les différents électrons qui subissent l’effet tunnel. Les chercheurs d’Hanovre et de Genève ont été capables de réaliser ces mesures avec une précision inédite et ainsi de collecter des informations précieuses sur ces phénomènes quantiques. Ces découvertes ne sont pas seulement importantes pour les sciences fondamentales, elles pourraient également mener à des applications pratiques, notamment dans les domaines du cryptage de données et de la réalisation d’un ordinateur quantique utilisant des transistors à un seul électron, promesse d’une grande vitesse de calcul.

Université de Genève

^ Haut
Matière
Matière et Energie
Le savon magnétique pourrait révolutionner la lutte contre la pollution
Jeudi, 09/02/2012 - 00:20

Des scientifiques de l'Université de Bristol ont créé une molécule de savon qui réagit aux aimants. Le développement à grande échelle de telles molécules pourrait révolutionner certains produits industriels, ou même permettre, par exemple lors des marées noires, des nettoyages au savon sans conséquence pour l’environnement.

Une récente découverte pourrait permettre d'améliorer les moyens de lutter plus efficacement contre les fuites de pétrole en milieu marin. Dans un communiqué, l'Université de Bristol a expliqué qu'une de ses équipes a mis au point un savon magnétique composé de sels de fer dissous dans l'eau. Les savons, appelés aussi tensioactifs dans l'industrie, sont depuis longtemps un sujet de recherche scientifique. Jusqu'ici, les tentatives pour les rendre contrôlables par des aimants n'avaient rien donné. Les chercheurs pensaient que les matières métalliques étaient trop éloignées les unes des autres dans la solution, empêchant les interactions à longues distances nécessaires à une activité magnétique. L’équipe de Bristol, conduite par le Professeur Julian Eastoe, a synthétisé ce savon magnétique en ajoutant du fer à des tensioactifs jusque là inertes possédants des ions chlorures ou bromures, et très semblables à ceux employés dans les produits de soins du corps ou dans les produits assouplissants. La présence de fer crée alors des centres métalliques à l’intérieur des particules de savon.

Pour tester les propriétés, l’équipe a introduit un aimant dans un tube à essai rempli du nouveau savon dissous dans l’eau et recouvert sous une couche d’un liquide organique moins dense. Sous l’effet de l’aimant, la solution de savon riche en fer a surmonté les effets de gravité et de tension superficielle entre l’eau et l’huile pour léviter à travers le solvant organique et se coller à la source de l’énergie magnétique, démontrant ainsi ses propriétés magnétiques. Ces propriétés magnétiques facilitent l’association des molécules et leur extraction, ce qui laisse espérer des applications potentielles dans la dépollution et le traitement des eaux, mais aussi des débouchées dans le domaine des produits industriels de nettoyage en général.

Peter Dowding, un chimiste industriel, cité pour l'occasion par l'Université de Bristol explique que : « Tout système qui n'agit qu'en réponse à un stimulus externe, sans que celui-ci n'ait d'effet sur sa composition, est une découverte majeure puisque vous pouvez ensuite créer des produits qui n'agissent que lorsque c'est nécessaire. La possibilité de retirer les tensioactifs élargit le potentiel d'applications aux zones de l'environnement fragilisées, comme c'est le cas lors des marées noires où l'emploi de savons avait soulevé des inquiétudes par le passé ».

Afin d'expertiser cette découverte, l'équipe de Bristol l'a ensuite soumise à des tests à l'Institut Laue Langevin de Grenoble, un centre de recherche international spécialisé dans les sciences et techniques neutroniques.

Les applications possibles de ces surfactants magnétiques sont vastes. Leur réactivité à des stimuli externes permet de moduler de nombreuses propriétés comme la conductivité électrique, le point de fusion, la taille et la forme des agrégats et la solubilité dans l’eau. Habituellement, ces propriétés qui déterminent les applications des savons dans l’industrie, sont contrôlées en changeant la conductivité, le pH, la pression ou la température, ce qui peut modifier irréversiblement la composition du système et coûte de l’argent.

Le Professeur Eastoe qui a supervisé la recherche commente : « comme la plupart des aimants sont des métaux, d’un point de vue purement scientifique ces tensioactifs liquides ioniques sont totalement inhabituels, c’est ce qui rend particulièrement intéressante cette découverte. D’un point de vue commercial, ces molécules en particulier ne sont pas prêtes à entrer dans la formulation de produits ménagers, mais en prouvant la possibilité de fabriquer des savons magnétiques, des développements futurs pourront reproduire ce même phénomène avec des molécules plus viables commercialement, pour un domaine d’application allant du traitement des eaux aux produits industriels de nettoyage ».

Bluewin

Un projet d'infrastructure hydrogène en Grande-Bretagne
Mardi, 07/02/2012 - 00:40

Le Royaume Uni vient de lancer un projet visant à développer l'usage de l' hydrogène comme carburants dans les transports, le "UKH2 Mobility". L'initiative, soutenue par le gouvernement britannique et par 13 industriels, vise à implanter une infrastructure hydrogène en Grande-Bretagne afin de développer l'utilisation des véhicules à hydrogène dans le pays. Les partenaires industriels participant au projet britannique sont des collectivités locales, des entreprises qui ont la charge des infrastructures et des services, des industriels du gaz et des constructeurs automobiles (Daimler, Hyundai, Nissan, Tata Motors, Toyota et Vauxhall).

Le groupe de travail britannique UKH2 Mobility va évaluer le potentiel du véhicule à hydrogène au Royaume-Uni et les investissements nécessaires en matière d'infrastructure. Il devrait proposer un plan de marche avant la fin de l'année 2012 pour un déploiement commercial du véhicule à hydrogène à partir de 2014/2015 au Royaume-Uni.

Le Royaume-Uni vise une position de leader dans la fabrication de véhicules à hydrogène. Les véhicules à piles à combustible hydrogène disposent des atouts écologiques des véhicules électriques classiques. Ils offrent en outre l'avantage de pouvoir être ravitaillés rapidement en carburant et d'avoir une grande autonomie sous réserve de la disponibilité de l'hydrogène auprès des consommateurs dans un environnement de vie réelle.

Green Car Congress

La consommation énergétique mondiale restera dominée par les énergies fossiles d'ici 2030
Mardi, 07/02/2012 - 00:30

Selon le dernier rapport "Energy Outlook 2030", du groupe pétrolier britannique BP, la demande énergétique mondiale devrait augmenter de près de 40 % d'ici 2030. L'étude indique que cette croissance atteindra 1,6 % par an et sera assurée principalement par les pays émergents, notamment par ceux qui ne font pas partie de l'OCDE (Organisation de coopération et de développement économiques). A contrario, la consommation dans les pays de l'OCDE devrait augmenter de seulement 4 % au cours de cette période.

D'après les prévisions de BP, les combustibles fossiles continueront d'occuper une place importante (81 %) dans la consommation énergétique mondiale d'ici 2030, avec toutefois une baisse d'environ 6 % par rapport au niveau actuel. La période devrait également être favorable à une transition accrue vers d'autres sources énergétiques comme le gaz et les énergies renouvelables au détriment du charbon et du pétrole. Le passage progressif vers les énergies renouvelables au niveau mondial, notamment les biocarburants, devrait connaître une augmentation annuelle de plus de 8 %, une croissance beaucoup plus rapide encore que celui du gaz naturel, qui lui atteindra environ 2 % par an, jusqu'en 2030.

Ensemble, les énergies renouvelables, nucléaires et hydro-électriques devraient représenter plus de la moitié de la croissance de la production énergétique en 2030. Par ailleurs, on apprend que la demande mondiale de pétrole atteindra 103 millions de barils par jour d'ici 2030, soit 18 % de plus qu'en 2010. Les cours élevés du brut constitueront l'un des principaux facteurs qui viendront limiter la consommation de cet hydrocarbure, estiment les analystes de BP.

BP affirme qu'il s'attend à voir des progrès notables dans les efforts du Moyen-Orient à remplacer le pétrole par le gaz et à améliorer l'efficacité énergétique dans la région. La production de gaz liquides (en Arabie Saoudite, Irak, etc.) continuera à alimenter l'offre mondiale alors que la part en pétrole s'élèvera à 34 % en 2030.

La croissance de l'offre non conventionnelle, telle que l'huile et le gaz de schistes (Etats-Unis), les sables bitumineux (Canada), et le pétrole en eaux profondes (Brésil), dans un contexte de déclin progressif de la demande en pétrole, verra l'hémisphère occidental devenu presque totalement autosuffisant en énergie, en 2030. Cela signifie que la croissance dans le reste du monde, principalement en Asie, dépendra de plus en plus du Moyen-Orient en particulier pour ses besoins en pétrole.

Rapport BP

Le laser permet un nouveau pas vers l'informatique quantique
Mardi, 07/02/2012 - 00:20

En associant de manière innovante deux domaines de recherche, la physique quantique et la nanophysique, des chercheurs danois, financés par l'UE, ont découvert une nouvelle méthode d'application dans les membranes de refroidissement laser à semi-conducteur. Les semi-conducteurs sont des composants vitaux dans de nombreux biens électroniques, comme les piles solaires et les diodes LED, et il est important de pouvoir refroidir ces composants pour le futur développement d'ordinateurs quantiques et de capteurs ultrasensibles. Toutefois, bien qu'elle soit appelée méthode de refroidissement, cette technique que les physiciens emploient fait le contraire, elle réchauffe le matériel. Dans l'article paru dans la revue Nature Physics, l'équipe du Niels Bohr Institute de l'université de Copenhague, au Danemark, explique qu'ils ont pu développer l'utilisation de lasers pour refroidir les fluctuations de membranes jusqu'à -269 degrés Celsius.

L'auteur principal de l'étude, Koji Usami explique : «Dans les expériences, nous avons pu obtenir un nouveau refroidissement d'un matériel solide en utilisant des lasers. Nous avons produit une membrane à semi-conducteur d'une épaisseur de 160 nanomètres et d'une superficie d'1 sur 1 millimètre. Pendant les tests, nous avons laissé la membrane interagir avec la lumière laser de telle manière que ses mouvements mécaniques affectent la lumière. Nous avons examiné la physique et découvert qu'un certain mode d'oscillation de la membrane se refroidissait à la température ambiante de -269° C, résultat de l'interaction complexe et fascinante entre les mouvements de la membrane, les propriétés du semi-conducteur et des résonnances optiques.»

L'équipe danoise perfectionne sa technique de refroidissement d'atomes, et a géré le refroidissement de nuages de gaz d'atomes de césium de zéro degrés à -273° C, en utilisant des lasers focalisés. Ils ont pu générer un état intriqué entre deux systèmes d'atomes. Cela est possible lorsque le spin atomique est intriqué et que les deux nuages gazeux forment un lien, selon les lois de la mécanique quantique. À l'aide des techniques quantiques optiques, ils ont mesuré les fluctuations quantiques du spin atomique. «Nous voulions depuis un certain temps examiner l'étendue de la mécanique quantique et ses limites, et si elle s'appliquait aux matériaux microscopiques. Si c'était le cas, cela signifierait de nouvelles possibilités pour l'optomécanique, l'interaction entre le rayonnement optique, à savoir la lumière, et un mouvement mécanique», explique un autre auteur de l'étude, le professeur Eugene Polzik.

Au cours de l'expérience, ils ont projeté une lumière laser sur la membrane dans un caisson à vide. Lorsque la lumière laser a touché la membrane semi-conductrice, une partie de la lumière a été réfléchie. Au moyen d'un miroir, cette lumière a été réfléchie de nouveau de sorte que la lumière était renvoyée de part et d'autre dans le caisson, formant ainsi un résonateur optique. Une partie de la lumière a été absorbée par la membrane et a libéré des électrons libres. Ces électrons ont été amortis et ont ainsi réchauffé la membrane, produisant une expansion thermique. De cette manière, la distance entre la membrane et le miroir ne cessait de changer sous la forme d'une fluctuation.

L'un des auteurs de l'étude, Koji Usami, explique : «Le changement de distance entre la membrane et le miroir a permis une action réciproque complexe et fascinante entre le mouvement de la membrane, les propriétés du semi-conducteur et les résonances optiques, il est donc possible de contrôler le système afin de refroidir la température des fluctuations de la membrane. Il s'agit d'un nouveau mécanisme optomécanique, essentiel à cette nouvelle découverte. Le paradoxe est que bien que la membrane se réchauffe quelque peu dans son ensemble, elle se refroidit à une certaine oscillation et ce refroidissement peut être contrôlé avec la lumière laser. Il s'agit donc d'un refroidissement par la force d'un réchauffement! Nous avons pu refroidir les fluctuations de la membrane jusqu'à -269 degrés Celsius».

Ces résultats pourraient mener au développement de composants de refroidissement pour les ordinateurs quantiques. Un ordinateur quantique est un appareil de calculs utilisant les phénomènes de mécanique quantique tels que la superposition et l'intrication pour des opérations sur des données. Les principaux objectifs du projet Q-ESSENCE sont de développer des interfaces quantiques capables de créer des cartographies fidèles d'informations quantiques entre différents systèmes quantiques, la génération d'intrication quantique à de nouvelles échelles et distances en tant que ressources pour mener à bien des tâches d'informations quantiques et enfin l'ingénierie de l'intrication multipartite dans des topologies spécifiques de systèmes élémentaires.

Ce projet soutient également des chercheurs d'Australie, d'Autriche, d'Allemagne, d'Espagne, d'Italie, de Pologne, de Slovaquie, de Suisse, des Pays-Bas et du Royaume-Uni. En fonctionnement jusqu'en 2013, il créera des opportunités dans les technologies d'informations quantiques pouvant être développées en programmes complets et réalistes pour exécuter des tâches de TIC.

Cordis

Une nouvelle source de lumière pour des composants optiques plus performants
Samedi, 04/02/2012 - 00:10

Créer des dispositifs miniaturisés qui pourraient libérer des particules individuelles de lumière (des "photons uniques") peut être important pour diverses innovations technologiques. Et dans la fabrication de telles structures, les physiciens des Universités de Wurtzbourg (Bavière), Stuttgart et Ulm (Bade-Wurtemberg) ont réalisé une avancée majeure.

"Créer une source de photons uniques est en effet une condition préalable pour de nouvelles technologies comme celles de cryptage des données", explique Jens Pflaum, de l'Institut de Physique de l'Université de Wurtzbourg. Caractérisant plus finement l'information, ces composants permettraient par exemple que les données ne puissent plus être captées de façon inaperçue pendant leur transfert (le fameux "fishing"). Ce transfert reste risqué avec des sources de lumière conventionnelles telles que les lasers, car elles utilisent de grandes quantités de particules de lumière (ou "photons identiques") pour coder l'information, un processus qui n'est pas optimal et augmente le risque de fuite de données.

Les chercheurs allemands ont ainsi développé un dispositif novateur qui envoie des "photons uniques". Cette innovation a donné lieu à un article publié dans la revue "Nature Communications". La nouvelle source de lumière a plusieurs avantages : elle est composée de matériaux standards utilisés pour les diodes électroluminescentes organiques (OLED), est relativement simple à produire et peut être exploitée électriquement. Elément le plus important : elle fonctionne à température ambiante. C'est une caractéristique majeure, quand on sait que les composants optiques comparables composés de matériaux semi-conducteurs tels que l'arséniure de gallium ne peuvent être manipulés qu'à des températures bien en dessous de zéro.

Ce nouveau composant optique serait construit "à la manière des pixels d'un écran classique de téléphone cellulaire", a déclaré Pflaum. Sur un matériau de support - dans ce cas une lame de verre - une couche électriquement conductrice est appliquée. Puis les scientifiques y placent une matrice de matière plastique organique, dans laquelle des molécules individuelles d'un colorant sont incorporées. Des contacts électriques organiques se développent alors sur la matrice. En la connectant à une batterie, le courant passe dans les molécules de colorant et les met en mouvement, ce qui fait se libérer des photons uniques. Les physiciens ont démontré le phénomène par des mesures de corrélation de photons ("Photonenkorrelationsmessungen"), et ouvrent donc la voie à un codage de l'information plus fin, plus sûr, et moins gourmand en énergie.

Bulletins Electroniques

^ Haut
Espace
Espace et Cosmologie
Découverte d'une quatrième exoplanète potentiellement "habitable"
Jeudi, 09/02/2012 - 00:30

Une équipe internationale d'astronomes a annoncé le 2 février la découverte d'une nouvelle exoplanète potentiellement "habitable", portant à quatre le nombre de ces planètes situées hors de notre système solaire détectées par la communauté scientifique. "Cette planète --rocheuse-- est la nouvelle meilleure candidate pour maintenir l'eau liquide à sa surface et peut-être y abriter la vie telle que nous la connaissons", a expliqué Guillem Anglada-Escudé, responsable de cette équipe qui travaillait alors à la Carnegie Institution for Science à Washington.

Cette planète (GJ 667Cc) est en orbite autour d'une étoile baptisée GJ 667C située à environ 22 années-lumière de la Terre (une année lumière équivaut à 9.460 milliards de km).Elle tourne autour de son étoile en 28 jours environ et a une masse minimum de 4,5 fois celle de la Terre. Cette planète est ainsi environ 50 % plus grosse que notre planète.

La planète se trouve dans une orbite qui la place à une distance de son étoile dans "une zone habitable", où les températures ne sont ni trop chaudes ni trop froides, permettant à l'eau de rester à l'état liquide à la surface. Ces chercheurs ont également découvert des indices laissant penser qu'au moins une autre exoplanète et peut-être deux, voire trois, autres sont en orbite autour de la même étoile.

Cette étoile appartient à un système stellaire comprenant au total trois étoiles. Cette découverte montre que des planètes potentiellement habitables peuvent se former dans une plus grande variété d'environnements qu'on ne le pensait jusqu'alors, notent les auteurs de cette découverte qui doit être publiée dans les Lettres du Journal d'Astrophysique. Le manuscrit sera publié en ligne sur le site arxiv.org/archive/astro-ph. Les astronomes ont utilisé des données publiques de l'Observatoire européen austral (ESO) au Chili qu'ils ont analysées selon une nouvelle méthode.

20 minutes

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement climatique a un impact majeur sur la salinité des océans
Jeudi, 09/02/2012 - 00:10

L'évolution de la salinité de surface des océans Atlantique et Pacifique tropicaux sur les dernières décennies indique une accentuation des contrastes spatiaux entre et à l'intérieur des bassins océaniques, les eaux peu salées devenant encore plus douces et les eaux très salées encore plus salées. Des chercheurs issus du laboratoire Sciences de l'Univers au CERFACS (SUC, CNRS / CERFACS), du Laboratoire d'études en géophysique et océanographie spatiales (LEGOS/OMP, UPS / CNRS / CNES / IRD), du Laboratoire d'océanographie et du climat : expérimentation et approches numériques (LOCEAN/IPSL, UPMC / CNRS / IRD / MNH) et du Centre national de recherches météorologiques (CNRM-GAME, Météo-France / CNRS) viennent de montrer que cette accentuation pourrait bien être due à l'augmentation de la concentration atmosphérique des gaz à effet de serre.

Si de nombreuses études ont mis en évidence le lien entre le réchauffement climatique observé depuis le début du XXe siècle et les activités humaines, cette relation de cause à effet est beaucoup plus difficile à mettre en évidence pour l’évolution des précipitations et de l'évaporation et donc du cycle de l'eau dans son ensemble. Cela tient en premier lieu au caractère bruité et intermittent des précipitations ainsi qu'à leur très forte variabilité naturelle d'une année sur l'autre, qui rendent plus difficile la détection d’un changement opérant lentement sur quelques décennies. Cela est dû également à la faible couverture spatiale et temporelle des observations des paramètres atmosphériques, en particulier de ceux concernant les précipitations et l'évaporation au-dessus des océans.

Or, les chiffres parlent d'eux même : 85 % de l'évaporation et 77 % des précipitations se produisent au-dessus des océans, lesquels contiennent 97 % de toute l'eau présente sur notre planète. Le cycle hydrologique océanique est donc de très loin le théâtre principal des échanges d'eau douce entre les différentes composantes du système climatique. La question de l'évolution du cycle hydrologique global passe donc nécessairement par un examen approfondi des modifications des échanges hydrologiques entre atmosphère et océans, en particulier au niveau des océans tropicaux et subtropicaux où ces échanges sont les plus importants.

Les chercheurs de différents laboratoires (CERFACS, LEGOS, LOCEAN et GAME) se sont penchés sur l'influence des effets anthropiques liés à l'augmentation des émissions de gaz à effet de serre sur le cycle hydrologique marin dans les tropiques et pour ce faire ont eu l'idée d'analyser les changements de salinité de surface des océans tropicaux. En effet, les changements de salinité de surface reflètent au premier ordre l’évolution de la différence entre précipitations et évaporation). La salinité de surface est donc un précieux indicateur des modifications du cycle hydrologique marin.

Les chercheurs ont, dans un premier temps, pu confirmer grâce aux données d’observation récentes du réseau SSS pour les océans Atlantique et Pacifique tropicaux ce qu’une autre équipe avait récemment décrit mais avec moins de données, à savoir qu’au cours des 30 dernières années les eaux de surface des "oasis" océaniques (régions de faible salinité) sont devenues plus douces et les "déserts" (régions de fortes salinité) plus salés. Cette accentuation des contrastes spatiaux de la salinité de surface concerne les bassins océaniques (l'écart entre l'Atlantique, plus salé, et le Pacifique s'accroît) mais aussi l'intérieur des bassins (les eaux de la piscine d'eau chaude et douce du Pacifique Ouest ("Warm and Fresh Pool") deviennent plus douces).

Les chercheurs ont comparé ces tendances observées de la salinité aux résultats d’un ensemble de simulations climatiques dites simulations préindustrielles, portant sur plusieurs siècles et utilisant une concentration atmosphérique (un forçage) des gaz à effet de serre fixée à son niveau préindustriel (1950). Ils ont ainsi pu montrer qu’elles ne peuvent être dues à la variabilité climatique naturelle (intrinsèque), que l’on pourrait observer en l'absence de toute variation des forçages externes tels que gaz à effet de serre, aérosols volcaniques et insolation.

Ils ont ensuite comparé ces tendances à celles simulées pour le XXe siècle par un "multimodèle" (moyenne des simulations réalisées avec chacun des modèles climatiques du projet CMIP3 conçu de manière à ce que les effets de la variabilité naturelle s’annulent et que ses résultats ne soient donc plus représentatifs que du forçage anthropique. Ils ont ainsi pu observer une forte similitude entre ces tendances.

Ce résultat indique que les tendances observées de salinité de surface, qui témoignent d'une évolution récente du cycle tropical de l'eau, sont très probablement une réponse à l'augmentation concomitante de la concentration atmosphérique des gaz à effet de serre. Les projections sur le XXIe siècle (simulation portant sur le futur) réalisées avec ce même multimodèle en réponse aux scénarios d'augmentation des gaz à effet de serre du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) de 2007 montrent en outre que cette accentuation des contrastes spatiaux de la salinité va se poursuive, et ce dans les mêmes régions océaniques.

CNRS

La NASA illustre le réchauffement climatique depuis 1880
Mercredi, 08/02/2012 - 00:10

La Terre se réchauffe, et ce, toujours plus vite. Si les scientifiques ne cessent de le rabâcher, à coup d'études et rapports documentés, une poignée de climatosceptiques continue de nier cette réalité, arguant d'une manipulation planétaire. Alors, quoi de mieux qu'une animation pour mesurer le phénomène ? C'est ce qu'a effectué la NASA, en résumant dans une vidéo de 26 secondes 131 ans d’évolution des températures sur Terre, de 1880 à 2011.

Dans cette animation, réalisée par le laboratoire de la NASA Goddard Institute for Space Studies, les couleurs rouges indiquent des températures supérieures à la moyenne pendant la période de référence de 1951 à 1980, tandis que les bleus témoignent de températures plus basses. Les données proviennent des relevés d'un millier de stations météo dans le monde, des observations satellitaires de la température de la surface de la mer et des mesures effectuées par la station de recherche de la NASA en Antarctique.

On voit ainsi que l'augmentation de la température s'est accélérée à la fin des années 1970. Fait encore plus marquant : neuf des dix années les plus chaudes enregistrées l'ont été au cours de la dernière décennie — 2010, 2005 et 1998 constituent les trois records de températures moyennes depuis le début des relevés en 1880.

2011, elle, se classe 9e année la plus chaude au niveau planétaire. "Même avec les effets rafraîchissants d’une forte influence de La Niña et une activité solaire faible ces dernières années, 2011 a été une des dix années les plus chaudes enregistrées", commente James Hansen, directeur du GISS. Au total, l'écart de températures entre l'année la plus froide (1884) et 2011 est de + 0,51°C.

Si les scientifiques ne s'attendent pas à une hausse constante des températures, année après année, en raison de la variabilité naturelle du climat, ils tablent cependant sur une augmentation continue de la température au fil des décennies. "La tendance est à la poursuite de l'augmentation des températures. La Terre absorbe plus d'énergie qu'elle n'en émet", assure James Hansen, qui prédit de nouveaux records dans les deux ou trois ans à venir, du fait d'une activité solaire à la hausse et du phénomène El Niño.

Quelle est la responsabilité de l'homme dans ce réchauffement indéniable ? L’agence spatiale américaine confirme que la hausse des températures est largement soutenue par l’augmentation des concentrations des gaz à effet de serre dans l’atmosphère, particulièrement du dioxyde de carbone, produit par les activités humaines (production d'énergie, transports, industrie, etc). Ainsi, rappelle la NASA, la concentration de CO2 était de 285 parties par million en 1880. Vers 1960, elle avait grimpé à 315 parties par million. Aujourd'hui, elle a dépassé 390 parties par million, et continue d'augmenter d'environ 2 parties par million chaque année. Or, de nombreux scientifiques s'accordent pour dire que 350 parties par million est le taux maximal acceptable de CO2 qui peut être envoyé dans l'atmosphère.

Le Monde

NASA

Des chouettes de l’Arctique migrent en masse aux Etats-Unis
Lundi, 06/02/2012 - 00:30

Ce mouvement peut s'expliquer par l’explosion de la population de ces harfangs des neiges l’an dernier et le changement climatique.

Des milliers de chouettes vivant dans les contrées arctiques, appelées harfangs des neiges, sont en train de migrer vers les Etats-Unis, un phénomène très inhabituel. Elles ont été vues dans champs fermiers de l’Idaho, du Montana, sur des terrains de golf du Missouri ou dans le Massachusetts. D’habitude, un certain nombre de ces harfangs effectuent des migrations vers des contrées plus au sud à cette période de l’année, mais se risquent rarement aussi loin de leurs contrées glacées.

"Ce que l’on voit est incroyable. C’est l’événement le plus important de la vie sauvage depuis des décennies", estime Denver Holt, de l’institut de recherches sur les chouettes dans le Montana.

L’explication la plus probable : un vrai boom de la population de ces chouettes l’hiver dernier, les couples donnant naissance jusqu’à sept bébés contre deux d’habitude. Du coup, les chouettes sont à la recherche des lemmings, des rongeurs qui représentèrent près de 90 % de leur alimentation durant les mois de reproduction de leur espèce, de mai à septembre. Les jeunes mâles notamment, auraient choisi de voler bien plus au sud qu’à l’accoutumée pour trouver de quoi se mettre sous le bec.

Un phénomène qui a ses contreparties : de nombreux harfangs ont également été retrouvés morts dans les différents Etats américains qu’ils avaient investis, certaines ayant succombé à la faim. Par ailleurs, cette migration suggère que les chouettes manquent de nourriture dans les contrées arctiques, en raison du changement climatique, qui a diminué les herbes nécessaires à leur alimentation.

Atlantico

L’ambroisie, une plante sauvage qui fait des ravages
Dimanche, 05/02/2012 - 00:30

L’ambroisie, une plante très envahissante qui prolifère au bord des rivières mais aussi dans les champs de maïs, inquiète les scientifiques, car elle provoque des allergies importantes. Le réchauffement climatique favoriserait sa propagation rapide, explique The Independent.

L’une des plantes les plus allergènes de l’Amérique du Nord menace de gâcher la belle saison à venir des milliers de Britanniques sujets au rhume des foins. Selon les scientifiques, l’ambroisie, déjà installée en Europe centrale, est en train de se propager vers la Grande-Bretagne.

Un pied d’ambroisie peut produire en une saison 1 milliard de grains de pollen extrêmement allergisants. Et cette plante hypersexuée, qui provient des Etats-Unis, est en train de gagner du terrain de ce côté-ci de l’Atlantique. A mesure que la plante se propage de la Hongrie vers l’Italie, l’Autriche et la France, un nombre croissant d’Européens manifestent des symptômes d’allergie. Les scientifiques craignent que la prochaine victime d’Ambrosia artemisiifolia ne soit la Grande-Bretagne, où, avec le concours d’étés plus chauds, d’hivers plus doux, et de sa propre puissance reproductive, elle pourrait devenir une espèce particulièrement envahissante.

Une conférence scientifique s’est tenue à Vienne à l’automne 2011, au cours de laquelle les experts ont lancé un appel pour que des mesures soient prises contre la propagation de cette plante, qui se développe à une vitesse effrayante au bord des routes, le long des voies ferrées et dans certains champs cultivés, comme les champs de maïs.

“Pour l’instant, l’ambroisie ne pose pas de problèmes au Royaume-Uni. Mais avec le réchauffement, on assiste à une dissémination très rapide, et son apparition n’est peut-être qu’une question de temps”, met en garde Clare Goodess, de l’Unité de recherche climatique de l’université d’East Anglia, à Norwich (dans l’est de l’Angleterre). L’ambroisie, qui atteint environ 1 mètre de hauteur, est très irritante pour le système immunitaire humain, car son pollen est extrêmement allergisant. Le réchauffement climatique et l’augmentation du taux de CO2 dans l’atmosphère contribuent en outre à stimuler la production de ce pollen.

Aux Etats-Unis, ce dernier est l’une des principales causes du rhume des foins et des crises d’asthme : 75 % des Américains allergiques au pollen y sont sensibles. Bien que les plus fortes concentrations soient trouvées près du lieu d’éclosion, ce pollen peut être transporté sur de longues distances : on en a trouvé jusqu’à 650 kilomètres au large des côtes et à 1 600 mètres dans l’atmosphère.

Selon Jonathan Storkey, un écologiste de l’institut britannique de recherche en agriculture Rothamsted Research, l’implantation de l’ambroisie en Europe se déplace progressivement vers le nord en raison du changement climatique. “La Manche ne servira plus de barrière, souligne-t-il. Les inquiétudes à propos de l’ambroisie sont plus centrées sur la santé que sur l’envahissement. Nous avons déjà des espèces envahissantes, mais celle-ci a un pollen très allergisant. C’est une mauvaise nouvelle pour les personnes sujettes au rhume des foins.” Comme dans d’autres types d’allergies, les principaux symptômes sont : écoulements nasaux, éternuements, yeux gonflés ou irrités, sensation d’étouffement et démangeaisons du nez ou de la gorge. L’ambroisie produisant son pollen entre la fin de l’été et les premiers gels de l’automne, la saison du rhume des foins s’en trouve prolongée d’autant.

Les résultats de tests réalisés par des scientifiques européens il y a deux ans montrent que 60 % des Hongrois sont extrêmement allergiques au pollen d’ambroisie. Des taux élevés d’allergie ont également été relevés au Danemark, aux Pays-Bas et en Allemagne, où un quart des personnes allergiques au pollen d’ambroisie présentaient aussi des symptômes d’asthme. Selon le Professeur Torsten Zuberbier, de l’Hôpital universitaire de la Charité, à Berlin, environ 2,5 % de la population européenne est allergique au pollen d’ambroisie. C’est un taux de prévalence relativement élevé. “L’étude fait apparaître une dissémination de la plante à travers l’Europe”, observe-t-il.

L’université d’East Anglia va utiliser des modèles climatiques pour évaluer la rapidité avec laquelle l’ambroisie devrait gagner du terrain dans le nord de l’Europe compte tenu du fait que la plante a besoin d’un été long et chaud pour produire son pollen. “Nous allons analyser l’impact probable des changements climatiques, de la suroccupation des sols et de la pollution atmosphérique sur l’allergie pollinique au cours des prochaines décennies et élaborer des stratégies d’adaptation et de prévention”, explique Ian Lake, un chercheur de l’université.

L’ambroisie est présente en Europe depuis environ un siècle, mais c’est dans les années 1990 qu’elle est devenue en Hongrie une espèce extrêmement envahissante.

Courrier International

Le supervolcanisme, responsable de la plus grande extinction de masse ?
Samedi, 04/02/2012 - 00:40

Il y a 250 millions d'années, des supervolcans en Sibérie ont rempli l'atmosphère de cendres et de pluies acides, faisant disparaître la couche d'ozone et empoisonnant l'océan avec du mercure. De quoi expliquer la crise de la fin du Permien.

Il y a 251 millions d'années, 70 pour cent des espèces terrestres et 95 pour cent des espèces marines ont brusquement disparu. Cette extinction de masse, dite crise Permien-Trias ou encore crise fini-permienne, est la plus grande connue. Quelles sont ses causes ? Les hypothèses vont de la formation du supercontinent géant de la Pangée aux impacts météoritiques en passant par le supervolcanisme. Or à la fin du Permien (il y a 299 à 251 millions d'années), un volcan géant a déposé quelque sept millions de kilomètres cubes de basaltes en Sibérie. Selon les conclusions complémentaires de plusieurs équipes, la pollution atmosphérique qui en a résulté serait le facteur clef de l'extinction de masse.

Nommés « traps de Sibérie », les épais épanchements basaltiques sibériens commencent juste derrière l'Oural et couvrent environ deux millions de kilomètres carrés, soit plus de trois fois la superficie de la France. Actif pendant plus d'un million d'années, ce volcanisme massif a déposé des couches de basaltes sur plusieurs kilomètres d'épaisseur et a pollué l'atmosphère. Pour préciser comment, Benjamin Black, du MIT, a étudié la composition chimique des inclusions vitreuses que l'on retrouve dans les falaises de laves sibériennes. Anciennes gouttelettes de magma liquide, ces inclusions renferment du gaz figé au sein de cristaux. Leur analyse chimique révèle notamment leurs teneurs en chlore, en soufre et en fluor. Rapportées à la masse des traps, ces teneurs suggèrent que 8 700 gigatonnes (milliards de tonnes) de chlore, 7 800 gigatonnes de soufre et entre 7 100 et 13 800 gigatonnes de fluor ont été larguées dans l'atmosphère. Pareilles émissions ont entraîné des pluies très acides et ont contribué à un changement climatique.

Or un réchauffement brutal était déjà enclenché par la libération d'énormes quantités de dioxyde de carbone, accompagnée d'émissions massives d'hydrocarbures halogénés, destructeurs de la couche d'ozone. C'est ce qu'ont établi en 2009 Henrik Svensen, de l'Université d'Oslo, et ses collègues, en montrant que l'arrivée du magma a provoqué un craquage massif de la matière organique contenue dans les sédiments de l'immense bassin sédimentaire de la Toungouska. Un dégazage intense s'en est suivi, qui s'est traduit par la formation de quelque 6 400 cratères de plusieurs kilomètres de diamètre…

Impressionnant ? La situation fut pire encore ! Hamed Semei et ses collègues de l'Université de Calgary, au Canada, ont examiné le rôle du mercure relâché durant l'éruption. Grâce à des échantillons provenant d'une coupe sédimentaire profonde du haut arctique canadien, ils ont retracé les variations à travers les temps géologiques du mercure atmosphérique. La concentration du mercure, issu notamment de la combustion des charbons et des pétroles à la faveur de l'éruption, a explosé à la fin du Permien pour atteindre environ 30 fois la concentration actuelle. Or il est bien connu aujourd'hui que le mercure atmosphérique s'accumule dans les algues et les autres organismes marins à la base de la chaîne alimentaire océanique.

Résumons : le supervolcanisme sibérien de la fin du Permien a déclenché un réchauffement climatique brutal, s'est accompagné de pluies fortement acides et a fait disparaître la couche d'ozone. Tout cela peut expliquer la disparition de 70 pour cent des formes de vie terrestres... mais pas celle de 95 pour cent des formes de vie marines. Certes, en mer, l'acidification des eaux due aux pluies acides et à la dissolution des gaz atmosphériques a pu jouer un rôle important, mais elle ne semble pas pouvoir expliquer à elle seule une extinction quasi totale. Un facteur supplémentaire a été nécessaire : l'empoisonnement massif des océans par le mercure ?

Pour La Science

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une redéfinition de l'autisme agite la psychiatrie américaine
Jeudi, 09/02/2012 - 00:40

Un projet de refonte des critères définissant l'autisme lancé par la Société américaine de psychiatrie (APA) fait craindre aux psychiatres et fondations privées que cette nouvelle nomenclature exclut nombre d'enfants atteints de variantes du syndrome.

Une telle exclusion risque de les priver de l'accès aux services d'aide sociale, médicale et scolaire puisque les assurances maladies et les programmes publics se basent sur la définition des maladies établies par l'APA (American Psychiatric Association), selon ces critiques.

Pour la cinquième édition de son manuel de référence de diagnostic des maladies mentales (Diagnostic and Statistical Manual of Mental Disorders - DSM-5), le groupe de travail de l'APA recommande de regrouper toutes les formes d'autisme dans une seule catégorie appelée «trouble du spectre autistique». Les autres pathologies diagnostiquées jusqu'à présent séparément, comme le syndrome d'Asperger, le trouble envahissant du développement non spécifié et le trouble de désintégration de l'enfance, ne seront plus considérés comme des pathologies spécifiques mais des variantes de l'autisme.

Les critères de diagnostic proposés pour l'autisme établissent des degrés de gravité pour un syndrome qui est fondamentalement le même, explique l'APA.

«Les critères proposés conduiront à des diagnostics plus exacts et aideront les médecins à prodiguer de meilleurs traitements», insiste le Docteur James Scully, directeur médical de l'APA.

Mais pour le Docteur Fred Volkmar, chef du département de psychiatrie de l'enfance à l'Université de Yale (Connecticut, nord-est), cette révision exclurait jusqu'à 60 % des enfants atteints du syndrome d'Asperger.

Ce trouble n'entraîne pas de difficultés du langage, facilitant la prise en charge thérapeutique et éducative contrairement à l'autisme «classique».

Le Docteur Volkmar est parvenu à cette estimation en appliquant les nouveaux critères cliniques proposés par l'APA à une étude qu'il avait menée en 1993 sur des enfants autistes, atteints d'Asperger et d'autres variantes de l'autisme.

«Nous avons examiné les anciennes données et regardé la nouvelle définition de l'autisme et les résultats sont préoccupants...60 % des enfants Asperger perdent leur diagnostic, c'est énorme», explique-t-il à l'AFP.

«L'APA doit maintenant répondre à ces inquiétudes», insiste le Docteur Volkmar.

Selon le Docteur Geraldine Dawson, responsable scientifique de «Autism Speaks», plus grande fondation privée au monde dédiée à la recherche sur l'autisme, «il est trop tôt pour savoir si le nouveau système exclura des patients mais c'est une question très importante à régler pour s'assurer qu'enfants et adultes qui ont besoin d'aide pourront encore l'obtenir», explique-t-elle à l'AFP.

L'APA vient de terminer des études qui ont porté sur un très petit nombre de sujets, note la Dr Dawson soulignant que son organisation, Autism Speaks «va financer une recherche plus étendue qui déterminera systématiquement comment les nouveaux critères de diagnostic s'appliqueront» aux différents sous-types d'autisme.

Mais dit-elle, il faut agir vite. Le comité de l'APA finalisera les nouveaux critères d'ici décembre et prévoit de les publier au printemps 2013.

Ces modifications étaient prévues depuis longtemps car les études effectuées ces 15 dernières années, notamment génétiques dans des familles comptant plusieurs enfants autistes avec différents degrés de gravité, «montrent bien maintenant qu'Asperger notamment est bien une variante de l'autisme», relève le Docteur français Eric Fombonne, détenteur de la chair de psychiatrie de l'enfance à l'Université McGill à Montréal (Canada), un des grands épidémiologistes mondiaux de l'autisme.

La précédente décision du comité de l'APA en 1994 de considérer Asperger comme une maladie séparée était tout a fait claire, dit-il à l'AFP. «A ce moment là on ne savait pas trop si c'était différent ou seulement une variation de l'autisme». Il fallait donc classer Asperger séparément pour pouvoir l'étudier, indique-t-il.

Cyberpresse

Maladie d’Alzheimer : les bienfaits d’une plante traditionnelle indienne
Jeudi, 09/02/2012 - 00:00

Maladie neurodégénérative incurable qui entraîne la perte progressive et irréversible des fonctions mentales, telle que la mémoire, la maladie d’Alzheimer toucherait actuellement près de 860 000 personnes en France, et chaque année, 250 000 nouveaux cas seraient recensés. Pathologie spécifique du cerveau, elle est le résultat d’un double processus qui se caractérise par deux types de lésions participant à une lésion plus globale du cerveau : d’une part, l’accumulation en plaques de peptides anormaux bétâ-amyloïdes, et d’autre part, l'augmentation de la capacité de phosphorylation de la protéine tau. Les deux mécanismes étant très étroitement imbriqués, il est d’autant plus difficile de mettre en place des thérapeutiques agissant sur les deux fronts. D’ailleurs, actuellement, il n’existe que des traitements permettant de ralentir la progression de la maladie et ainsi, d’améliorer la qualité de vie des patients et des aidants.

En étudiant le parcours dans l’organisme des peptides bétâ-amyloïdes, et notamment la façon dont ils traversent la barrière hémato-encéphalique, Vijayalakshmi Ravindranath et ses collègues du centre indien de recherche national sur le cerveau, ont découvert qu’il était possible d’empêcher l’entrée des peptides dans le cerveau en bloquant les récepteurs qui permettent son passage.

Les travaux, menés sur des souris génétiquement modifiées pour mimer la maladie d’Alzheimer, ont montré qu’il était possible de « séquestrer » les peptides dans le plasma sanguin en utilisant des extraits de Withania somnifera, le ginseng indien.

D’autres études sont en cours pour confirmer ces premiers résultats encourageants. Toutefois, grâce à leurs travaux, les chercheurs indiens ouvrent la voie à de nouvelles pistes thérapeutiques dans le but d’enrayer la maladie d’Alzheimer…

Information Hospitalière

Cancer de la peau : un nouveau traitement
Mercredi, 08/02/2012 - 00:40

L'Agence américaine, la Food and Drug Administration (FDA) vient d’approuver un nouveau traitement pour le type le plus commun de cancer de la peau. Il s’agit d’Erivedge (vismodegib) en capsules, le premier médicament pour les adultes atteints d'un carcinome basocellulaire (BCC) avancé.

Le carcinome basocellulaire (BCC) est le type de cancer cutané le plus fréquent en Europe, en Australie et aux Etats-Unis touchant chaque année plus de 2 millions de personnes dans le monde.  Lorsque le cancer est limité à une petite surface de peau, la maladie peut généralement être guérie. Chez un petit groupe de personnes (environ 1 % des patients), le cancer peut toutefois progresser plus profondément dans la peau, les os ou d’autres tissus si la maladie n’est pas traitée ou ne répond pas au traitement.

Erivedge est le premier médicament approuvé par la FDA pour les patients ayant des formes avancées de ce cancer de la peau. Sous forme de capsule, il est à prendre une fois par jour. Son principe actif est le premier représentant d’une nouvelle classe de molécules, le vismodegib, conçu pour inhiber sélectivement la signalisation de la voie hedgehob en ciblant une protéine appelée Smoothened responsable des lésions dans le cancer avancé de la peau.

L'approbation de la FDA est basée sur les résultats d’un essai international de phase II Erivance BCC multicentrique, double cohorte, mené sur 104 patients atteints de cancer avancé, localement avancé pour 71 d’entre eux et métastatique pour 33 d’entre eux. L'étude a montré qu’Erivedge a permis de réduire les lésions sur 43 % des patients atteints de BCC localement avancé et 30 % des patients atteints de BCC avec métastases. La durée moyenne de réponse est de 7,6 mois.

Cette approbation apporte un nouveau traitement et un nouvel espoir aux patients présentant un carcinome avancé des cellules basales qui, jusqu'à présent, n'avaient pas de traitement adapté. Erivedge sera disponible aux États-Unis d’ici une à 2 semaines. Roche, le laboratoire fabricant a également présenté une demande d'AMM pour l'Union européenne (UE). Roche développe Erivedge découvert par Genentech en collaboration avec Curis Inc (Massachussetts).

Santé Log

Cancer du sein : un vaccin thérapeutique donne de bons résultats
Mercredi, 08/02/2012 - 00:30

Des chercheurs américaoins sont parvenus à développer un vaccin capable de traiter les femmes et de les protéger pendant plusieurs années contre une forme particulière mais très commune de cancer du sein, le carcinome canalaire in situ (CCIS). Un traitement de quatre semaines avec ce vaccin élaboré à partir des cellules dendritiques de patientes présentant un carcinome ductal in situ HER2 +, aboutit à une éradication de la tumeur dans 20 % des cas. L’étude montre également une réponse immunitaire qui se maintient chez plus de 85 % des patientes longtemps après la vaccination. « Ces résultats apportent la preuve qu’une vaccination thérapeutique peut être efficace dans le cancer du sein contre les tumeurs à un stade précoce et localisées », écrivent Brian Czerniecki et coll.

Le vaccin cible l’antigène HER2/neu, qui est essentiel à la survie de la tumeur. Les chercheurs ont enrôlé 27 femmes présentant un carcinome ductal in situ et dont la tumeur était positive pour HER2. Les leucocytes de ces femmes ont été isolés ; les cellules dendritiques ont été activées avec un amorçage par des petites fractions des protéines HER2/neu. Des vaccins individuels ont été élaborés et administrés à chacune pendant quatre semaines. Deux semaines plus tard, les patientes ont eu une intervention chirurgicale pour enlever la tumeur résiduelle, ce qui est la procédure standard.

En comparant les prélèvements des biopsies diagnostiques avec les échantillons chirurgicaux post-vaccination, les observateurs ont vu des modifications importantes. Chez cinq patientes, il n’y avait plus de tumeur visible, ce qui indiquait « que leur système immunitaire avait été efficace ». Pour ce qui concerne les 22 autres patientes, l’expression de HER avait été éliminée chez 11 d’entre elles et réduite au minimum de 20 % chez deux autres. En considérant la réponse immunitaire, les observateurs trouvent que 85 % des patientes sont porteuses de cellules CD4 et CD8 réactives contre HER2, « suggérant qu’elles avaient développé une réponse robuste et pratiquement complète après la vaccination ». De plus, certaines patientes présentaient une réponse immunitaire maintenue cinquante-deux mois plus tard, « ce qui peut signifier qu’elles ont une protection contre la récidive ».

Par ailleurs, les résultats montrent que le vaccin est sûr et relativement facile à supporter, avec des effets secondaires de bas grade : un malaise (72 %), une douleur au point d’injection (59 %), des frissons (38 %), une fièvre (28 %) et des céphalées (24 %). L’équipe poursuit son travail en enrôlant des patientes pour réaliser une plus grande étude. Et tester l’approche chez des femmes ayant un cancer du sein invasif à un stade précoce. Ils projettent de tester un vaccin comportant d’autres antigènes, comme HER3 et HER1. Les auteurs estiment que le concept pourrait marcher aussi dans les cancers du sein invasifs, voire d’autres organes (mélanome, cerveau poumon et côlon).

Le Quotidien du Médecin

Journal of Immunotherapy

Le mode de propagation de la maladie d'Alzheimer dans le cerveau se précise
Mercredi, 08/02/2012 - 00:20

Selon une étude réalisée par la faculté de médecine de l'Université Columbia à New York, la maladie d'Alzheimer se propagerait d'une zone du cerveau à l'autre le long des circuits cérébraux, selon des recherches effectuées aux Etats-Unis sur des souris, et publiées mercredi 1er février, qui pourraient ouvrir la voie à des traitements pour les humains. Cette étude montre que l'Alzheimer de développe d'une manière similaire à une infection.

Les chercheurs ont observé qu'une protéine anormale appelée Tau, dont l'agrégation sous forme de filament étouffe et détruit progressivement l'ensemble des cellules nerveuses ou neurones. Cette découverte laisse penser que bloquer ce processus suffisamment tôt pourrait empêcher la propagation de cette maladie dévastatrice et incurable.

Dans ces recherches, les chercheurs ont développé des souris transgéniques porteuses du gène produisant une forme anormale de la protéine humaine Tau dans le cortex entorhinal. Les cerveaux de ces souris ont été analysés à différents moments au cours d'une période de vingt-deux mois pour établir la carte de la progression de la protéine Tau. Ils ont constaté qu'au fur et à mesure que ces souris vieillissaient, cette protéine se propageait le long d'un passage anatomique depuis le cortex entorhinal, important pour la mémoire, jusqu'à l'hippocampe puis au néocortex.Ces chercheurs ont également découvert que cette protéine Tau se déplaçait d'un neurone à l'autre via les synapses.

"Cette progression est très similaire à ce que nous voyons aux premiers stades de la maladie d'Alzheimer chez les humains", explique le Docteur Karen Duff, professeur de pathologie en psychiatrie à la faculté de médecine de l'Université Columbia.

PLoS One

Enfin une bonne piste pharmacologique pour perdre du poids?
Mercredi, 08/02/2012 - 00:00

L’extension de l’épidémie d’obésité à travers le monde rend cruciale la recherche de solutions efficaces pour aider les personnes en surpoids ou obèses à perdre du poids. Les stratégies non médicamenteuses ont fait la preuve d’une efficacité limitée, avec une perte de poids allant de 1 à 6 kilos et des difficultés à la maintenir sur le long terme. Et si les méta-analyses ont prouvé que la chirurgie bariatrique permettait de réduire la mortalité à long terme des patients obèses, les risques opératoires et le coût financier des interventions en limitent la diffusion. Quant aux stratégies médicamenteuses, au mieux les méta-analyses peinent à prouver jusqu’à présent leur réelle efficacité, au pire leurs effets secondaires graves ont nécessité leur retrait du marché.

Une étude réalisée par une équipe danoise pourrait ici apporter quelque espoir. Il s’agit d’une revue systématique d’essais randomisés contrôlés avec méta-analyse, examinant l’effet des agonistes des récepteurs du GLP-1 (glucagon-like peptide-1) sur le poids de patients en surpoids ou obèses (IMC ≥ 25), qu’ils soient ou non diabétiques.

Au total, 25 essais ont été inclus dans l’analyse. L’agoniste du GLP-1 était administré en une ou deux prises quotidiennes, pendant au moins 20 semaines. Les résultats indiquent une perte de poids supérieure chez les sujets recevant le traitement par rapport au groupe contrôle (différence moyenne de – 2,9 kg pour 6 411 participants). Cette perte de poids est constatée chez les patients diabétiques (- 2,8 kg, 18 essais), mais aussi chez les patients non diabétiques (- 3,2 kg, 3 essais). Les auteurs signalent de surcroît un effet favorable des agonistes des GLP-1 sur les pressions artérielles systolique et diastolique. Les diabétiques traités ont amélioré leur contrôle glycémique.

La question des effets secondaires est toutefois brûlante dans ce domaine plus que dans tout autre. Les essais ont enregistré plusieurs types d’effets secondaires dont les plus fréquents étaient gastro-intestinaux et des hypoglycémies. Quelques cas d’hypoglycémies graves ont été enregistrés.

Cette étude est intéressante à plus d’un titre. Pour les diabétiques obèses d’abord, dont l’équilibre des paramètres glucidiques est souvent limité par la prise de poids qu’induit l’augmentation des doses d’hypoglycémiants. Pour les patients obèses non diabétiques ensuite, si ce type de traitement confirmait son efficacité avec un profil d’effets indésirables acceptable. Une affaire à suivre…

JIM

Vers une détection précoce de l'autisme ?
Mardi, 07/02/2012 - 00:10

Des signes d'autisme ont pu être détectés chez de très jeunes enfants, entre 6 et 10 mois, en mesurant leur activité cérébrale, selon une étude publiée dans le journal spécialisé Current Biology. Un dépistage précoce de l'autisme, généralement diagnostiqué autour de deux ans, aiderait à la prise en charge de la maladie, qui affecte environ 1 % de la population et se traduit par des difficultés à communiquer avec le monde extérieur. L'étude s'est focalisée sur 104 bébés de 6 à 10 mois, dont la moitié présentaient un risque plus important de souffrir d'autisme parce qu'un ou plusieurs des frères ou soeurs aînés étaient déjà atteints du syndrome. Sachant que les enfants autistes évitent souvent de regarder les gens dans les yeux, les chercheurs ont mesuré avec des capteurs l'activité cérébrale des bébés lorsqu'on leur présentait des visages les regardant directement ou au contraire les évitant.

L'étude a noté une différence significative des ondes cérébrales en fonction des deux types d'images lorsque celles-ci étaient présentées à des bébés à faible risque d'autisme, ou qui n'ont pas ensuite développé la maladie dans le groupe à risque. En revanche, la réponse cérébrale des bébés qui ont ensuite été diagnostiqués comme autistes s'est révélée beaucoup plus neutre. Le professeur Mark Johnson du Birkbeck College de l'Université de Londres, co-auteur de l'étude, souligne toutefois que le test n'a pas fonctionné «à 100 %», certains enfants montrant des signe d'autisme alors qu'ils n'ont pas développé la maladie par la suite. «Des études complémentaires sont nécessaires pour déterminer si des mesures de l'activité cérébrale comme celles utilisées dans notre étude peuvent jouer un rôle dans l'identification des enfants autistes à un stade précoce», a-t-il ajouté.

Current Biology

Évolution des mammifères : devenir géant prend du temps
Lundi, 06/02/2012 - 00:40

À quelle vitesse les mammifères changent-ils de taille au cours de l'évolution ? Il apparaît que la réponse dépend du milieu de vie (aquatique ou terrestre), mais également de la direction de cette évolution (vers le gigantisme ou vers le nanisme). En effet, selon des chercheurs, les mammifères changent de taille plus rapidement sous l'eau, et encore davantage s'ils ont tendance à rapetisser.

L'évolution des mammifères au cours du temps soulève des questionnements. Combien de temps a-t-il fallu à la baleine bleue pour atteindre sa trentaine de mètres de long ? Cette période de temps est-elle plus ou moins importante que celle qu’il a fallu à l’hippopotame nain pour atteindre sa taille réduite ? C’est ce qu’une équipe internationale a cherché à découvrir en étudiant la vitesse de changement de taille des mammifères depuis environ la crise du Crétacé-Tertiaire.

Cette étude a permis d’établir plusieurs schémas clairs. Tout d’abord, la croissance est plus rapide dans le milieu aquatique que sur terre. Par exemple, chez les baleines, il faut 1,1 million de générations afin de grandir d’un facteur 100 et 5 millions pour un facteur 5.000. En revanche, pour un organisme terrestre, il faut globalement deux fois plus de générations pour le même taux de croissance. Les résultats sont présentés dans Pnas.

  • Évolution des mammifères : moins de générations pour décroître

Autre écart important dans l’évolution vers un extrême (gigantisme) ou l’autre (nanisme) : la tendance vers des dimensions plus importantes se fait moins rapidement que pour la décroissance. Une règle qui s’illustre avec l’hippopotame nain ou le mammouth nain dont les dimensions n’ont nécessité que quelque 100.000 générations de décroissance.

Les chercheurs sont parvenus à ces conclusions en compilant les données de masse corporelle maximum de 28 groupes de mammifères vivant ou ayant vécu en Europe, en Asie, en Afrique et en Amérique depuis 70 millions d’années. Puis ils ont étudié la macroévolution de ces organismes, et plus particulièrement les contraintes qui favorisent le gigantisme ou le nanisme.

Pourquoi les mammifères marins, comme les baleines, seraient-ils capables de changer de taille plus rapidement ? Probablement parce que les contraintes mécaniques liées au milieu aquatique sont moins fortes.

  • Sélection naturelle : difficile de se faire une place pour un géant

Les scientifiques pensent également qu’il faut moins de temps pour rapetisser car la sélection privilégie les petites tailles pour plusieurs raisons. Chez les mammifères, chaque organisme passe au cours de son développement par un stade juvénile de taille moindre que celle de l’adulte. Or il est plus facile d’un point de vue évolutif que ce développement soit interrompu et que la reproduction soit plus précoce plutôt que l’inverse, ce qui mène in fine à la réduction globale des dimensions de l’espèce.

Selon les chercheurs, il est en outre moins aisé d’évoluer vers une taille importante qui nécessite davantage de nourriture, d’espace, etc. C’est l’inverse pour les petits organismes.

Ces résultats permettent de mieux comprendre comment les contraintes environnementales agissent sur l’évolution des êtres vivants. Et l’asymétrie que révèle cette étude est surprenante. Bien souvent, ce sont les grands animaux qui sont remarqués et admirés, pourtant c’est bien la petitesse que la sélection semble favoriser...

Futura Sciences

La maltraitance dans l'enfance modifie les gènes impliqués dans la gestion du stress
Lundi, 06/02/2012 - 00:20

La maltraitance dans l’enfance est souvent associée à des troubles psychiatriques à l’âge adulte. Ceci est un constat. Mais les mécanismes ne sont pas encore connus. Ils sont éclairés par les travaux du groupe de recherche du Professeur Alain Malafosse, au Département de psychiatrie de la Faculté de médecine de l’UNIGE, en collaboration avec le Département de médecine génétique et de développement. Ce groupe, travaille sur les interactions entre facteurs génétiques et environnementaux, au sens d'environnement humain, social et familial.

Les chercheurs ont étudié 101 adultes souffrant d’un trouble de la personnalité borderline, caractérisé par une instabilité dans les relations interpersonnelles, les émotions et l'impulsivité. Ils ont observé un pourcentage sensiblement plus élevé de modifications épigénétiques sur l’ADN prélevé à partir de cellules sanguines, chez les sujets maltraités dans leur enfance. Les abus identifiés sont divers : abus physique, sexuel et émotionnel, carences affectives. Les modifications ont été comparées à l'ADN d'adultes n’ayant pas subi de tels abus.

Le stress généré par des abus subis dans l’enfance induit une modification épigénétique du gène récepteur des glucocorticoïdes (NR3C1) qui agit sur l’axe hypothalamique-pituitaire-adrénal. Cet axe intervient dans le processus de gestion du stress. Lorsqu’il est altéré, il perturbe la gestion du stress à l’âge adulte ce qui peut entraîner divers troubles de la personnalité borderline.

« Nous avons relevé que plus la sévérité de l’abus était importante, plus la méthylation du gène était considérable », précise Ariane Giacobino, du Département de médecine génétique et de développement de l’UNIGE. « Si notre étude était centrée sur le lien entre la maltraitance infantile et certaines psychopathologies, il est important de noter que la causalité d’autres traumatismes violents, tels que l’expérience d’une catastrophe naturelle ou d’un crash aérien, pourrait être étudiée et mener à des conclusions similaires. Le résultat de ces recherches met en avant l’utilité de l’étude du génome pour mieux comprendre et soigner les troubles psychiatriques », explique Nader Perroud, chef de clinique scientifique au Département de psychiatrie de l’UNIGE et premier auteur de l’étude.

Enviscope

Le gène PPAR-γ comme cible thérapeutique dans la rétinopathie diabétique
Lundi, 06/02/2012 - 00:10

Parmi les complications microvasculaires du diabète sucré, la rétinopathie diabétique touche la plupart des diabétiques de type I et près de 60 % des diabétiques de type II et représente une des principales causes de cécité acquise chez l’adulte. Les modifications physiologiques et biochimiques au niveau de la rétine précèdent de plusieurs années l’apparition des signes cliniques, dont la sévérité varie selon les patients.

Plusieurs phénomènes impliqués dans la pathogenèse des complications micro- et macrovasculaires du diabète sucré ont pu être élucidés au cours des dernières années : la glycation des produits terminaux, le stress oxydant, l’angiogenèse et l’inflammation chronique. Dans le cas de la rétinopathie, l’importance de l’inflammation chronique et de la neurodégénération a été clairement démontrée.

Des études biochimiques, génétiques et fonctionnelles ont mis en évidence le rôle clé du Peroxisome Proliferator-Activated Receptor-gamma (PPAR-γ) dans la pathogenèse de rétinopathie diabétique. Cette protéine est un récepteur nucléaire qui agit comme un facteur de transcription pléiotrope, dont l’activité transcriptionnelle peut être modulée soit par des changements de conformation, soit par sa liaison à différents ligands. L’influence de PPAR-γ sur le métabolisme du glucose, sur l’angiogenèse, sur le processus inflammatoire et sur l’apoptose des cellules rétiniennes et endothéliales a ainsi été établie. De même, des variants nucléotidiques ont été mis en évidence au sein du gène PPAR-γ chez les sujets diabétiques, présentant ou non des signes cliniques de rétinopathie.

L’ensemble de ces résultats montre que le gène PPAR-γ est une cible très intéressante dans le cadre du traitement de la rétinopathie diabétique. L’utilisation de ligands de PPAR-γ permet de moduler l’action de PPAR-γ dans le développement de la rétinopathie. De tels ligands sont extraits à partir de plantes médicinales. Ils pourraient être utilisés dans la prévention et le traitement, en association avec les traitements classiques, de la rétinopathie diabétique. Cependant, la sécurité et l’efficacité de ces molécules restent à évaluer par des essais pré-cliniques et cliniques.

JIM

Cancer de la prostate : vers un dépistage plus individualisé ?
Lundi, 06/02/2012 - 00:00

Vous faîtes peut-être partie des millions d'hommes qui, chaque année en France, font une prise de sang pour doser leur PSA, cet antigène qui peut dans certaines conditions indiquer un cancer de la prostate... ou un simple grossissement de la prostate ! On estime que 7 millions de dosages de PSA sont effectués chaque année en France. Il est vrai que de nombreux tests sont aussi réalisés dans le cadre de suivi de patients, parfois plusieurs dosages par an, et pas seulement dans le cadre d'un dépistage.

L'idée, logique et sans cesse illustrée par l'expérience des urologues, est que tout cancer de la prostate passe par une phase où il peut être guéri. Celle où il est confiné à l'intérieur de la glande prostatique. Il existe d'ailleurs un antigène, le PSA, spécifique de la prostate qui augmente en cas de cancer. Le problème est que le PSA augmente aussi lorsque le volume augmente dans une maladie sans gravité (quoique gênante : elle provoque des difficultés à uriner) comme l'hypertrophie bénigne de la prostate.

L'inconvénient du dépistage est qu'il n'est pas dénué d'effets fâcheux. Premièrement, il conduit à réaliser d'autres examens inconfortables et non dénués de risque, en particuliers des biopsies (plusieurs prélèvements grâce à une aiguille introduite dans la glande) pour essayer de repérer les cellules cancéreuses suspectées.

Deuxièmement, même lorsqu'un cancer est suspecté, on ne dispose pas à ce jour de marqueur permettant de deviner le niveau d'agressivité du cancer. Il y a en effet des cancers qui évoluent lentement et d'autres qui progressent vite (agressivité). Or, aussi paradoxal que cela puisse paraître, avoir un cancer d'évolution lente n'est pas forcément grave, à un certain âge. Les statistiques montrent que l'on a alors toutes les « chances » de mourir d'autre chose que de son cancer ! Quel dommage d'avoir ôté une prostate dans ce cas là et d'avoir provoqué les conséquences que l'on sait, notamment la perte de l'érection dans 30 à 80 % des cas.

Troisième argument, qui pèse lourd dans le débat opposant dans la communauté médicale pro-dépistage et anti-dépistage : il semble désormais fort probable (c'est ce que confortent les derniers résultats de l'étude PLCO qui suit depuis plus de dix ans, 76 000 hommes âgés, à leur entrée dans l'essai, de 55 à 74 ans) qu'un dépistage systématique fait tous les ans, n'augmente pas la survie par rapport à un dépistage occasionnel effectué lorsque le médecin le juge utile.

Enfin, quatrième pièce au dossier : un bon moyen de repérer les hommes vraiment à risque d'avoir un jour un cancer de la prostate (sans préjuger qu'il puisse entraîner la mort) serait peut-être de faire un seul dosage de PSA autour de la cinquantaine. S'il est bas (inférieur à 0,7 ng/ml), le risque de cancer de la prostate est en effet quasiment nul (Le « zéro risque » n'existe pas en médecine).

  • Un choix forcément personnel

Il semble donc que, contrairement à des dépistages organisés ayant prouvé leur intérêt dans la population générale (cancer colorectal, sein...), on s'achemine pour le cancer de la prostate vers de nouvelles recommandations officielles (elles sont attendues cette année) privilégiant le dépistage individuel, c'est-à-dire au cas par cas, après discussion avec votre médecin généraliste ou un urologue.

Mag patients

Comment les adolescents anticipent une récompense
Dimanche, 05/02/2012 - 00:40

Chez les rats, une région cérébrale impliquée dans les comportements « motivés » s'activerait davantage chez les adolescents que chez les adultes. Les adolescents seraient ainsi plus sensibles aux récompenses espérées.

L'adolescence, chez l'homme, s'accompagne de nombreux bouleversements physiologiques, psychologiques, cérébraux… et de conduites à risques. On sait en effet que le cerveau de l'adolescent est en construction et que certaines régions cérébrales évoluent encore, ce qui expliquerait certains comportements « immatures ». David Sturman et Bita Moghaddam, de l'Université de Pittsburgh aux États-Unis, ajoutent une pierre à l'édifice : ils ont montré chez le rat qu'une partie du striatum des adolescents, une région cérébrale profonde, ne réagit pas comme celle des adultes quand il s'agit d'anticiper une récompense.

Il y a une quinzaine d'années, un dogme est tombé grâce notamment aux techniques d'imagerie par résonance magnétique : on a montré que la maturation du cerveau s'achève aux alentours de 20 ou 25 ans. En d'autres termes, à l'adolescence, certaines régions cérébrales se développent encore, en ce sens que des connexions cérébrales nouvelles se forment, tandis que d'autres disparaissent, voire que de nouveaux neurones apparaissent. Et cette maturation cérébrale est nécessaire pour devenir un adulte. C'est en particulier le cas du cortex préfrontal qui est impliqué dans les aptitudes complexes telles que s'organiser, contrôler ses impulsions, prendre conscience de ses actes ou se projeter dans l'avenir. L'adolescent vivrait ainsi davantage dans l'instant présent, sans penser aux conséquences de ses actes, son cortex préfrontal n'étant pas mature.

En outre, l'adolescent n'agirait pas comme un adulte quand il pense obtenir une récompense. Pour le montrer, les neurobiologistes américains ont enregistré l'activité électrique des neurones de rats pendant que ces derniers réalisaient une tâche faisant intervenir une récompense. Deux groupes de rats, des « adolescents » âgés de 21 jours et des « adultes » de plus de 60 jours, se trouvaient dans une cage face à un mur comportant trois trous. Une lumière s'allumait au-dessus d'un trou, et quand elle s'éteignait, si le rat « appuyait » dans ce trou avec son museau, une récompense – de la nourriture – sortait du mur opposé. Les rats apprenaient cette tâche et anticipaient l'arrivée de la récompense s'ils appuyaient dans le bon trou.

Pendant cette tâche, chaque rat avait des électrodes implantées dans deux régions cérébrales : le striatum dorsal et le noyau accumbens, qui jouent un rôle central dans les comportements motivés. Ces régions cérébrales participent à la mémorisation des habitudes et aux comportements associés à des récompenses ; le noyau accumbens détermine notamment la valeur (bonne ou mauvaise) des récompenses, tandis que le striatum dorsal modifie le choix d'une action selon la récompense.

Les chercheurs n'ont observé aucune différence d'activité dans le noyau accumbens des rats adolescents et adultes. Cela suggère que les adolescents ne prennent pas plus de plaisir que les adultes à une récompense donnée. En revanche, D. Sturman et B. Moghaddam ont montré que davantage de neurones s'activent dans le striatum dorsal des adolescents, comparé à celui des adultes, au moment où les animaux anticipent l'arrivée de la récompense. Cela signifie que le comportement des rats adolescents est plus biaisé par les récompenses espérées – qu'elles soient positives ou négatives – que celui des adultes.

Pourquoi le striatum dorsal s'active-t-il davantage chez les adolescents que chez les adultes quand ils anticipent une récompense ? La raison est peut-être l'immaturité du cortex préfrontal latéral des adolescents, qui se projette sur le striatum dorsal et le contrôle. Si les adolescents sont moins sages et plus influençables que les adultes, ce serait parce qu'ils sont plus sensibles aux récompenses – ou aux punitions – qu'ils pensent recevoir...

Pour La Science

Des particules lourdes contre les cancers
Dimanche, 05/02/2012 - 00:20

Avec la chirurgie et la chimiothérapie, la radiothérapie est la troisième arme fatale couramment utilisée pour détruire les tumeurs. Elle utilise classiquement pour cela les rayons X, très efficaces contre les cellules tumorales, mais qui présentent certains inconvénients que nous détaille le Professeur Hannoun-Levi (département de radiothérapie oncologique, centre Antoine Lacassagne à Nice) : « Si l'on parvient de mieux en mieux à cibler les tissus malades, le problème est l'atteinte des tissus environnants ; les rayons émis, une fois qu'ils ont traversé la tumeur, vont continuer à progresser dans les tissus jusqu'à épuisement de leur énergie.

Ce dépôt d'énergie au-delà des zones à traiter peut avoir des effets délétères. » L'avantage de l'hadronthérapie, comparé à la radiothérapie conventionnelle, est lié au type de particules qu'elle utilise : des neutrons, des ions lourds - essentiellement des ions carbone - et surtout des protons (on parle alors de protonthérapie). « Les protons libèrent leur énergie à la profondeur souhaitée, là où se situe le tissu malade à atteindre ; ensuite, l'énergie chute brutalement. »

Les tissus sains environnants sont ainsi épargnés. Si la radiothérapie conventionnelle reste la technique de référence pour la majorité des cancers, « l'hadronthérapie trouve sa pleine utilité lorsque les tissus entourant la tumeur sont particulièrement à risque », précise le Professeur Hannoun-Levi. C'est le cas des cancers qui se développent à proximité de la moelle épinière et des mélanomes de la choroïde (cancer de l'œil). « Un malade sur dix dans le monde est traité pour ce type de tumeurs à Nice et Orsay, qui sont les deux seuls centres français de protonthérapie. »

Les cancers qui touchent l'enfant figurent également parmi les indications. « Là, l'enjeu est de limiter le risque de cancer dit radio-induit. Les doses d'énergie déposées autour de la zone à traiter peuvent en effet faire le lit d'un cancer à une distance de 10, 15 voire 30 ans de l'irradiation initiale. »Si, avec le cyclotron actuel, seules les tumeurs superficielles peuvent être traitées, « d'ici à 2014, annonce le Professeur Hannoun-Levi, Nice sera équipée d'un nouvel accélérateur, beaucoup plus puissant qui permettra de traiter aussi les tumeurs profondes. »

Var Matin

Une machine pour décoder le génome individuel en quelques heures !
Dimanche, 05/02/2012 - 00:10

Au Forum économique mondial de Davos en Suisse, le Ion Proton a été présenté pour la première fois en Europe par son créateur l'Américain Jonathan Rothberg, un biotechnicien de 48 ans, directeur général de Ion Torrent Systems, propriété de la société américaine Life Technologies qui produit le Ion Proton.

Grâce à cette machine permettant de décoder rapidement l'ADN d'un individu grâce à des puces à semi-conducteurs, les malades n'auront plus besoin d'attendre des semaines pour savoir s'ils ont un cancer et les médecins sauront immédiatement de quelle maladie ils souffrent, ce qui leur permettra de choisir le type de thérapie adaptée, d'éviter des retards préjudiciables ou, pire, des erreurs, et de sauver des vies.

Plus tard, des chercheurs dans les pays en développement pourront, grâce à cette machine, identifier de nouveaux virus ou vérifier la qualité de l'eau. Et la police scientifique pourra rechercher le profil ADN d'un suspect aussi rapidement que dans les séries policières télévisées et les militaires sur le terrain pourront identifier les corps de leurs compagnons d'armes ou de leurs ennemis.

Rothberg, bonnet de ski sur la tête et chemise rayée aux couleurs vives, explique que sa trouvaille permet de passer de la tâche laborieuse du séquençage du génome humain à l'ère des puces à semi-conducteurs. Sans fausse modestie, il compare cette révolution à celle qui a permis de passer du gros ordinateur occupant toute une salle au PC à usage domestique. Il prédit qu'un jour, le Ion Proton actuellement de la taille d'une photocopieuse, pourra être réduit et transporté à la main comme les ordinateurs portables.

"C'est la première machine qui permet de séquencer le génome entier d'un individu pour moins de 1.000 dollars et en deux heures", a-t-il dit à Davos. "Auparavant, elles pouvaient coûter plus d'un demi-million de dollars, prenaient des semaines pour avoir les informations sur votre génome", dit-il. Le génome d'un individu est l'ensemble du matériel génétique codé dans son ADN. Chaque individu a un génome unique.

"Le Ion Proton est destiné à la recherche pour découvrir de nouveaux gènes dans les maladies du cancer, de l'autisme ou des diabètes", explique-t-il encore. "Mais il est aussi destiné à la médecine clinique pour être certain que l'on donne le bon traitement à la bonne personne et pour aider à diagnostiquer les maladies chez les nouveaux-nés", ajoute Jonathan Rothberg. Les échantillons d'ADN sont introduits dans une puce de 2,5 cm, puis dans le Ion Proton, à l'instar d'une carte SIM dans un téléphone portable, et deux heures plus tard, le code génétique peut être déchiffré dans sa totalité.

20 minutes

Cancer de l’ovaire : un gène muté favorise la survie
Dimanche, 05/02/2012 - 00:00

Chaque année, en France, un peu plus de 4 000 nouveaux cas de cancer de l’ovaire sont diagnostiqués. Bien que ce soit en nombre le cinquième cancer féminin, c’est proportionnellement l’un des plus meurtriers. En effet, tous les ans, 3 500 femmes en meurent. D’après les experts, il existe trois formes principales de cancer de l'ovaire. Le plus courant, qui fait d’ailleurs l’objet de l’étude menée à l’Institut national du cancer du Maryland, est le cancer épithélial.

Ce dernier se développe au niveau des cellules de l'enveloppe qui recouvre les ovaires. Il touche particulièrement les femmes de plus de 50 ans. Malheureusement, il est souvent dépisté tardivement, ce qui explique en partie son pronostic défavorable, alors que s’il était diagnostiqué précocement, les chances de guérison à 5 ans seraient approximativement de 90 %.

Afin de mieux comprendre les raisons de ce sombre pronostic, Kelly L.Bolton et ses collègues de l’Institut national de Cancer américain ont fait une analyse pointue de 26 études observationnelles effectuées entre 1987 et 2010. En tout, les chercheurs ont étudié le suivi médical de 1 213 patientes atteintes d'un cancer épithélial de l'ovaire, dont 909 étaient porteuses du gène mutant BRCA1, 304 du gène mutant BRCA2, et 2 666 femmes "témoins" ne portant aucune mutation sur ces gènes. Les chercheurs ont ainsi pu constater que les patientes possédant une copie mutée du gène BRCA2 ont 52 % de chance de survivre à 5 ans, contre 44 % pour celles pourvues d’une variation du gène BRCA1 et 36 % pour les autres malades.

Si les travaux n’ont pas permis de comprendre la raison de cet avantage lié à la mutation de certains gènes, les chercheurs américains ont émis l’hypothèse selon laquelle les tumeurs de ces femmes seraient moins résistantes.

Information Hospitalière

La bouche, avant-poste de la santé ?
Samedi, 04/02/2012 - 00:30

Les maladies des dents augmentent le risque de maladies cardio-vasculaires, d'affections pulmonaires ou de diabète.

«Une étude a montré récemment que les maladies parodontales, en favorisant les maladies cardio-vasculaires, pourraient être à l'origine de 14 000 décès en France chaque année», indique le Professeur Henri Tenenbaum, responsable du département de parodontologie de la faculté de chirurgie dentaire de Strasbourg. La visite annuelle chez le dentiste permet donc de protéger ses dents mais pourrait également protéger le corps tout entier en diminuant le risque de maladies cardio-vasculaires, d'affections pulmonaires ou encore de diabète.

En 1998, une équipe américaine dirigée par Marc Herzberg avait démontré pour la première fois qu'une bactérie présente dans la plaque dentaire avait la capacité de migrer jusque dans les artères et d'y favoriser la formation de caillots. Depuis, de nombreuses études ont établi un lien entre diverses maladies systémiques et une mauvaise hygiène bucco-dentaire. Le risque d'infarctus est doublé chez les personnes atteintes de parodontites, qui ont un risque accru de 30 % pour l'ensemble des maladies cardio-vasculaires.

  • Interactions

Gingivites et parodontites favorisent également les affections pulmonaires, retardent le temps de conception chez la femme et augmentent le risque d'accouchement prématuré. La relation est à double sens pour le diabète : si ce dernier favorise l'apparition de gingivites, les diabétologues savent depuis longtemps que la glycémie des diabétiques est plus facile à équilibrer s'ils n'ont pas de maladie parodontale.

«Les bactéries de la plaque dentaire peuvent jouer un rôle pour certaines de ces affections, mais la composante inflammatoire est sans doute également au cœur de ces interactions», souligne le Docteur Pierre Barthet, responsable du service d'odontologie complexe de la faculté de chirurgie dentaire de Toulouse, qui rappelle qu'un lien a également été identifié avec la polyarthrite rhumatoïde, caractérisée par une réaction inflammatoire excessive. La présence continuelle de bactéries dans la bouche réactive en permanence la réponse inflammatoire qui conduit à la libération de substances actives comme les cytokines, capables de modifier profondément le comportement de nombreuses cellules. Ces molécules peuvent être transportées par le sang dans l'ensemble de l'organisme et déclencher des réactions de type inflammatoire dans des organes distants, même lorsque aucune inflammation n'y est véritablement présente.

  • Tabac

Par ailleurs, certaines de ces maladies sont favorisées par les mêmes facteurs de risque : tabac, stress ou encore obésité. «Le tabac favorise la maladie parodontale et réduit significativement l'efficacité des traitements», précise le Professeur Tenenbaum. Certains traitements chirurgicaux des parodontites ne peuvent pas être utilisés chez des patients fumeurs, car leur efficacité serait remise en question par le tabac.

Les conséquences sur la santé globale des maladies parodontales posent désormais la question d'une meilleure prise en charge de ces affections, dont aucun traitement spécifique n'est actuellement remboursé par la Sécurité sociale, avec un objectif de prévention et de santé publique.

Le Figaro

Découverte du lien entre la signature moléculaire et la maladie d'Alzheimer
Samedi, 04/02/2012 - 00:20

Des scientifiques de Finlande viennent de découvrir qu'une signature biochimique peut potentiellement prévoir la progression de la maladie d'Alzheimer. Cette étude est partiellement financée par le projet PREDICTAD («From patient data to personalised healthcare in Alzheimer's disease»), qui a reçu près de 2,9 millions d'euros au titre du thème «Technologies de l'information et de la communication» du septième programme-cadre (7e PC). Les résultats suggèrent que les troubles neurologiques sont précédés d'une signature moléculaire de l'hypoxie et d'une surrégulation de la voie métabolique des pentoses phosphates. L'étude, publiée dans la revue Translational Psychiatry, pourrait mener au développement de méthodes de détection précoce de la maladie.

Menés par le professeur Matej Oresic, les scientifiques du centre de recherche technique VTT expliquent qu'il est possible d'utiliser un essai biochimique simple à partir d'un échantillon sérique des mois, voire des années après l'apparition des premiers symptômes de la maladie d'Alzheimer afin d'analyser cet indicateur. Ce type d'essai dans un contexte médical aide les médecins à mener des évaluations neurocognitives et on peut également les appliquer dans l'identification de patients qui présentent des risques importants de développer la maladie et qui requièrent un suivi accru.

Les systèmes de soins de santé des pays occidentaux font tous les efforts possibles pour lutter contre Alzheimer, un problème croissant pour des millions de patients chez qui l'on diagnostique la maladie. D'après les experts, le vieillissement de la population s'accompagne d'un nombre croissant de nouveaux cas chaque année.

Il convient de noter que l'aggravation d'Alzheimer est progressive, et l'étape sous-clinique de la maladie s'étend sur plusieurs décennies. Les experts expliquent que la phase pré-démentielle, que l'on appelle également «trouble cognitif léger» (ou MCI pour mild cognitive impairment), se caractérise par des symptômes discrets qui ont un impact potentiel sur les activités quotidiennes complexes. On pense que le MCI est une phase de transition entre le vieillissement normal et Alzheimer. Selon les chercheurs, il y a de forte chance de développer Alzheimer lorsque l'on constate la présence d'un MCI. Mais l'état peut varier, avec notamment plusieurs résultats dont un retour à la cognition normale.

L'étude des changements et processus moléculaires qui définissent les patients atteints de MCI susceptibles de développer Alzheimer font partie des priorités des chercheurs. Ils se sont basés sur la métabolomique, une méthode à haut débit de détection des petits métabolites, afin de générer des profils des métabolites sériques liés à la progression de la maladie. Les chercheurs ont identifié les patients chez qui l'on a diagnostiqué le MCI au départ et qui ont par la suite développé Alzheimer. Ils ont également déterminé la signature moléculaire capable d'identifier les patients à ce niveau.

Aucun traitement n'existe à l'heure actuelle pour prévenir Alzheimer, mais la détection précoce de la maladie est importante d'une part pour retarder le commencement de la maladie (par un traitement pharmacologique et/ou des changements dans le mode de vie du patient) et d'autre part pour évaluer l'efficacité des agents thérapeutiques potentiels d'Alzheimer.

Cordis

La structure du protéasome 26S enfin comprise !
Samedi, 04/02/2012 - 00:00

Dans le cadre de recherches menées en coopération avec l'Université de San Francisco (Californie, Etats-Unis) et l'Institut fédéral de technologie de Zurich, des chercheurs de l'Institut Max Planck de Martinsried (Bavière) révèlent la structure de la machinerie de dégradation des protéines cellulaires, le protéasome 26S.

La dégradation joue un rôle essentiel dans la régulation des protéines cellulaires. Plus concrètement, elle permet d'éviter les risques d'accumulation de protéines défectueuses qui nuiraient gravement au fonctionnement cellulaire.

Cette dégradation peut s'effectuer par deux mécanismes dont celui de la protéolyse qui implique les protéasomes, dont la fonction première consiste à fragmenter les protéines mal repliées ou dénaturées (non-repliées) en morceaux sous l'effet d'un enzyme. Les protéines sont ainsi dégradées en acides aminés et seront réutilisés pour la synthèse de protéines intactes. C'est un premier marquage à l'ubiquitine qui signale les protéines non-conformes : il doit être répété au moins quatre fois pour permettre aux protéasomes 26S de détecter les protéines à dégrader et d'initier leur destruction.

Les altérations pouvant être créées lors de ce mécanisme seraient à l'origine de nombreuses maladies neurodégénératives et de cancers. C'est pour cette raison que l'équipe de Wolfgang Baumeister du Département de biologie moléculaire structurale, s'est attelé à déterminer la structure du protéasome 26S afin de pouvoir prévenir ces défaillances du système dans l'avenir. La structure générale du protéasome 26S a pu être révélée par spectrométrie de masse et microscopie électronique, tandis que la méthode de la cristallographie aux rayons X a permis de fournir des informations plus détaillées sur certaines parties de la molécule. Les données récoltées ont ensuite servi à générer une image graphique et constitueront une base pour l'étude détaillée du mécanisme de dégradation (par exemple sur la détection des protéines marquées).

Bulletins Electroniques

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top