RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 795
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Avril 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Les parc éoliens plus efficaces par beau temps
Des chercheurs transforment des emballages en électrodes de carbone
Espace
Vie sur Mars : Curiosity a détecté de l’azote sur la planète rouge...
Terre
Les éruptions volcaniques influencent durablement le climat dans l'Atlantique nord
Vivant
Mélanome : une nouvelle avancée
Un médicament potentiel pour réparer les lésions de la moelle épinière
Cœur : la protéine qui donne le rythme identifiée
Maladie d'Alzheimer et diabète : le lien se précise...
Le resvératrol : un trésor de bienfaits pour la santé
Un allaitement plus long améliorerait les capacités cognitives à l'âge adulte
La tuberculose sera-t-elle le nouveau fléau du siècle ?
Autisme : des différences de structure découvertes dans le cerveau
Des cellules-souches pour inverser le développement du diabète de type 2
L'imagerie médicale enfin à la portée des pays du Sud
Une alimentation trop grasse perturbe notre cerveau
Edito
Physique quantique : L'étrangeté théorique nous conduit à la révolution technologique !



Même si elle reste très ésotérique pour le grand public, la mécanique quantique peut sans doute être considérée, avec la relativité générale, comme la plus grande avancée scientifique de toute l’histoire de l’Humanité, tant elle a bouleversé notre connaissance de la matière et au-delà notre conception du réel et de la nature. Il faut rappeler que c’est l’immense scientifique allemand Max Planck (prix Nobel de physique 1918) qui fut à l’origine de cette avancée majeure à la fin du XIXe siècle. En travaillant sur la question, encore énigmatique à l’époque, du rayonnement électromagnétique du corps noir, Planck formula en 1899 la célèbre constante qui porte son nom et à la fin de l’année 1900, il proposa devant la société de physique de Berlin la notion révolutionnaire de « quanta ».

Cette hypothèse postulait que les échanges d’énergie entre le rayonnement électromagnétique d’un corps noir et les parois du four utilisé pour chauffer ce corps, ne se faisaient pas de manière continue, comme le pensaient l’immense majorité des physiciens de l’époque, mais par paquets quantifiés et discontinus qui étaient toujours des multiples entiers d’une quantité minimale d’énergie. Albert Einstein comprit immédiatement l’immense portée de cette découverte et complétera cette théorie en 1905 pour décrire l’effet photoélectrique.

Il fallut cependant attendre décembre 1927 et le très célèbre congrès « Solvay », qui réunit à Bruxelles l’élite de la physique mondiale, pour que la théorie quantique telle que nous la connaissons aujourd’hui soit constituée, notamment grâce aux travaux d’une dizaine de physiciens de génie, parmi lesquels on retrouve Einstein, Bohr, De Broglie, Dirac, Schrödinger et Heisenberg. C’est toujours en 1927 qu’Heisenberg formula son célèbre principe d’incertitude qui montre qu’il est impossible de connaître simultanément et avec précision, la vitesse et la position d’une particule. Mais le plus surprenant, explique Heisenberg, c’est que cette impossibilité ne tient ni au caractère incomplet de la théorie quantique, ni à l’imperfection des instruments de mesure utilisés. Il s’agit bien d’une limite ontologique et épistémologique absolue à notre capacité de décrire et de connaître le réel.

Pour l’exprimer avec des mots simples, cette théorie quantique nous dit, qu’à l’échelle atomique, les différentes particules se comportent, selon la façon dont on les observe et les méthodes expérimentales que l’on utilise pour les détecter, tantôt comme des « objets » ponctuels et localisables dans le temps et l’espace, tantôt comme des ondes diffuses et immatérielles.

Il faut rappeler que bien avant la naissance de la physique quantique, un débat agitait depuis longtemps le monde scientifique à propos de la nature réelle de la lumière. En 1672, Isaac Newton proclama, à la suite d’une série d’expériences, que la lumière était bien composée de particules, qu’il nomma corpuscules. Mais, en 1801, le génial physicien anglais Thomas Young montra, dans sa célèbre expérience des « deux fentes », qu’un flux de lumière envoyée vers une paroi percée de deux minuscules fentes, ne provoquait pas deux taches lumineuses homogènes mais une alternance de bandes claires et sombres, appelées « franges d’interférences » par les physiciens et caractéristiques d’un phénomène ondulatoire. L’affaire semblait tranchée mais en 1923 Arthur Compton montra, en décrivant l’effet qui depuis porte son nom, que la propagation de la lumière ne peut être comprise que si l’on admet son caractère corpusculaire.

Cette période extraordinairement féconde pour la physique de l’entre-deux-guerres est également marquée par le célèbre débat scientifique et philosophique entre Albert Einstein et Niels Bohr. Le premier reste fondamentalement déterministe. Il considère que la physique quantique comporte des « variables cachées » et n’est donc pas complète. Bohr pense, lui, que la mécanique quantique offre bien une description complète de ce qu’on peut savoir du réel et qu’il est impossible de réduire la part de hasard dans cette connaissance.  

C’est à cette époque qu’Einstein et Bohr imaginent l’une de leurs plus célèbres expériences de pensée, celle de la « fente mobile ». De quoi s’agit-il ? En fait, les deux physiciens reprennent l’expérience historique de Thomas Young mais en la raffinant. Ils imaginent en effet qu’une des deux fentes soit mobile, comme attachée à un ressort, actionné par le passage d’un photon de lumière. Théoriquement, la quantité de mouvement transféré de la fente mobile par ce photon doit pouvoir être mesurée grâce au ressort.

Einstein considérait que ce dispositif très subtil permettrait, s’il était un jour techniquement réalisable, de mesurer uniquement la quantité de mouvement transférée, sans altérer la particule concernée et modifier son comportement. Selon lui, on constaterait alors que les franges d’interférences continueraient à être présentes. Reste qu’à l’époque, personne n’imaginait qu’il serait un jour possible de réaliser de manière fiable une telle expérience qui supposait, entre autres, que l’on puisse manipuler un par un des atomes… C’est pourtant cet exploit scientifique que vient de réaliser, fin 2014, à Saclay, sur le site du synchrotron « Soleil », l’équipe de Catalin Miron, en s’appuyant notamment sur les remarquables travaux menés depuis 15 ans par Serge Haroche. Pour mener à bien cette délicate expérience, les physiciens ont imaginé et conçu un dispositif extrêmement sophistiqué qui traduit fidèlement, au niveau microscopique, cette idée de transfert de quantité de mouvement entre la particule et la fente proposée par Einstein (Voir Nature Photonics).

Concrètement, les chercheurs sont parvenus à utiliser et à manipuler de manière très ingénieuse des molécules de dioxygène (O2) bombardées par des rayons X du synchrotron Soleil. Un photon entre alors en collision avec une de ces molécules de dioxygène en véhiculant une énergie bien précise (541,8 électronvolts). En absorbant ce photon, cette molécule est excitée avant de retrouver son état initial et d’émettre alors un électron. Dans ce cas, il est impossible de savoir lequel des deux atomes d’oxygène a émis l’électron et, en mesurant l’énergie de l’électron éjecté en fonction de l'angle d'émission, on constate la présence de franges d’interférence identiques à celles mises en évidence dans l’expérience de Young. En revanche, lorsque le faisceau d’énergie produit par le synchrotron est de 539 électronvolts, la molécule de dioxygène est brisée et l’un des deux atomes d’oxygène émet alors un électron. Mais dans ce cas, les physiciens peuvent parfaitement savoir de quel électron il s’agit en mesurant le recul de l’atome. Au final, ce remarquable dispositif expérimental reproduit fidèlement l’expérience de pensée d’Einstein et Bohr en permettant de savoir de manière très fiable par quelle fente la particule est passée dans l’expérience de Young.

Or, le résultat de cette expérience est sans appel : dans le cas où il est possible de déterminer, grâce à la mesure du recul (c’est-à-dire du transfert de quantité de mouvement), le chemin emprunté par l’électron, la figure d’interférence disparaît, contrairement à ce que prévoyait Einstein. Cette expérience confirme donc de manière très solide l’interprétation probabiliste de la physique quantique défendue par Bohr et Heisenberg et formalisée dans le principe de complémentarité qui veut qu’un objet ou système quantique ne peut en aucun cas être perçu simultanément sous ses deux aspects (corpusculaire ou ondulatoire) et prend toujours exclusivement l’une ou l’autre forme, en fonction du dispositif d’observation utilisé.

Cette « étrangeté quantique » est particulièrement déroutante car elle remet en cause frontalement les principes des postulats de la physique classique, notamment les principes de causalité et de localité. Une des conséquences particulièrement troublantes de la physique quantique est celle des « photons corrélés ». En effet, selon la théorie quantique, un photon ne se voit affecté d’une direction particulière qu’au moment où il est détecté et mesuré. Mais, plus troublant encore, à partir du moment où deux photons proviennent d’une même source, toute mesure sur l’un semble produire un effet qui influe instantanément sur la mesure de l’autre. 

Mais le plus étonnant dans cette observation est qu’elle ne dépend pas de la distance qui sépare les deux photos. Peu importe que ceux-ci soient distants de quelques centimètres ou de plusieurs millions d’années-lumière : à partir du moment où ils sont issus de la même source, leur « comportement » va rester à jamais « intriqué », c’est-à-dire lié, bien qu’il ne puisse y avoir aucun échange d’informations entre ces deux particules. Pour Einstein, il y avait là un paradoxe (le paradoxe EPR, du nom d’Einstein, Podolsky et Rosen) intenable qui montrait que la physique quantique ne pouvait pas être une description complète de la réalité car elle ne prenait pas, selon lui, en compte certaines « variables cachées » qui restaient à découvrir. Mais on le sait, s’appuyant sur les travaux du physicien irlandais John Bell, le physicien français Alain Aspect réalisa en 1982, à Orsay, une extraordinaire expérience dans laquelle il put montrer avec un haut degré de précision que des photons émis d’une même source se comportaient bien comme le prévoyait la mécanique quantique et restaient corrélés dans leur mesure, sans avoir besoin d’échanger d’information et indépendamment de la distance les séparant…

Mais on le sait, en sciences, une théorie, aussi solide soit-elle, ne peut jamais être considérée comme définitivement établie et complète. Elle doit constamment être soumise à des vérifications expérimentales de plus en plus raffinées et contraignantes. C’est ce que le grand philosophe des sciences Karl Popper a magistralement montré en proposant son principe de falsifiabilité. Des physiciens du CNRS et de l'Université Paris-Sud au Laboratoire Charles Fabry (CNRS/Institut d'Optique Graduate School), toujours sous la direction d’Alain Aspect, viennent cette fois de montrer, il y a quelques semaines, que la nature quantique des photons peut également être étendue aux particules de matière.

Dans cette nouvelle expérience, ces physiciens du Laboratoire Charles Fabry travaillaient sur des atomes complets d'hélium 4. Ils ont émis des paires d’atomes indiscernables, à partir d’un condensat de Bose Einstein contenant près de 100 000 atomes d'hélium 4. Autre prouesse, ces chercheurs ont réussi à contrôler à l’aide d’un faisceau laser les collisions entre particules afin de produire deux paires d’atomes d’Hélium 4 par minute.

Résultat : lorsque deux atomes identiques arrivent en même temps, ils repartent toujours ensemble, comme le font les photons et, de manière parfaitement conforme aux prévisions de la mécanique quantique. Le principe de complémentarité est totalement respecté puisque ces paires d’atomes sont, soit simultanément réfléchis, soit simultanément transmis (Voir Nature).

Au-delà de la confirmation des conséquences les plus étonnantes de la mécanique quantique, ces deux expériences récentes tout à fait remarquables, celle de Miron sur les photons et celle d’Aspect sur les atomes, constituent d’éclatantes démonstrations des progrès extraordinaires réalisés depuis quelques années dans la manipulation et le contrôle des sources atomiques au niveau quantique et montrent également que le lien entre avancées théoriques et progrès technologiques a changé de nature : désormais, les outils technologiques extrêmement puissants dont disposent les physiciens leur permettent de tester des hypothèses et théories en les soumettant à des vérifications expérimentales qui auraient été encore impensables il y a quelques années. Mais, dans l’autre sens, des ruptures théoriques majeures comme la physique quantique finissent toujours par produire des sauts technologiques qui auraient été inconcevables sans ces avancées conceptuelles parfois très dérangeantes.

En septembre 2014, l’équipe suisse, dirigée par Nicolas Gisin, a ainsi réussi à créer et à maintenir une paire de photons intriqués à une distance-record de 25 km. Dans cette expérimentation, les chercheurs sont parvenus, après destruction des photons transportés dans une fibre optique, à conserver et à transmettre leur état de polarisation dans un type particulier de cristal : l’orthosilicate d’yttrium dopé au néodyme. Comme le souligne Nicolas Gisin, « L’état quantique du photon est passé dans le cristal, donc dans de la matière, ce qui ouvre la voie à la réalisation de réseaux de communication quantique grande distance ».

Parallèlement aux réseaux de communications quantiques, l’informatique quantique progresse également à pas de géant. C’est ainsi qu’il y a quelques semaines, une équipe américaine de l’Université de Californie à Berkeley, dirigée par John Martinis et soutenue par Google, est parvenue à mettre au point une méthode algorithmique qui réduit sensiblement le nombre d’erreurs produit au cours du calcul quantique.

Microsoft, pour sa part, entend bien rester dans cette course technologique essentielle et explore une voie très intéressante, celle de la maîtrise d’un qbit « topologique », reposant sur l’utilisation d’une étrange particule, le fermion de Majorana, du nom du génial physicien italien mystérieusement disparu en 1938. Selon l’équipe de Microsoft, un ordinateur quantique utilisant seulement une centaine de type de qbits de ce type particulier de particule serait en mesure de réaliser des calculs d’une complexité très supérieure à ceux que peuvent aujourd’hui effectuer les superordinateurs les plus puissants.

En 1994, le grand scientifique John Eccles (prix Nobel 1963) publiait un essai remarquable intitulé « Evolution du cerveau et création de la conscience » dans lequel il formulait l’hypothèse d’un fonctionnement quantique de notre cerveau au niveau synaptique. Le grand physicien Roger Penrose pense pour sa part qu’au fil de l’évolution, l’homme serait parvenu à maitriser une propriété fondamentale de la physique quantique : la superposition d’états quantiques. C’est cette faculté qui lui permettrait, contre toute logique, d’être capable d’explorer un nombre énorme d’hypothèses en un temps limité.

Bien que ces hypothèses restent controversées et fassent l’objet d’âpres débats au sein de la communauté scientifique, elles n’en éclairent pas moins d’une lumière nouvelle les concepts de conscience, d’intelligence et d’information en les restituant dans toutes leurs dimensions physiques, biologiques et symboliques.

Le projet européen du cerveau humain, qui vise d'ici environ 2024 à simuler le fonctionnement du cerveau humain grâce à un superordinateur, permettra peut-être de jeter de nouveaux ponts théoriques inattendus entre physique quantique, information et conscience mais il est clair que, dès à présent, la théorie quantique, par sa puissance, sa richesse et sa diffusion toujours plus large dans tous les champs scientifiques a déjà bouleversé de manière radicale et irréversible le rapport de l’homme avec le réel et avec la Nature.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Les parc éoliens plus efficaces par beau temps
Mardi, 14/04/2015 - 08:05

On s'en doutait, les installations éoliennes fonctionnent plus efficacement lorsqu'il y a du vent. Mais la vitesse du vent et sa direction ne sont pas les seuls facteurs qui influent sur le rendement des parcs éoliens. D'autres facteurs influencent leur production d'électricité. A l'aide d'un modèle mathématique, des chercheurs du Laboratory for Wind and Renewable Energy (WIRE) de l'EPFL ont montré l'impact des mouvements verticaux de l'air sur la productivité des parcs éoliens. Ils ont découvert que des turbulences accrues, provoquées par les mouvements de convection qui caractérisent les journées chaudes et ensoleillées, accroissent la productivité des parcs éoliens, en réduisant la durée de vie des remous en aval des turbines individuelles.

Les auteurs de l'étude, Mahdi Abkar et Fernando Porté-Agel, ont utilisé un modèle mathématique pour étudier la turbulence générée par une éolienne lorsque ses hélices taillent dans le vent qui l'anime. Comme les turbines sont souvent disposées de manière à former des parcs éoliens denses, il est important de comprendre les remous turbulents générés par celles qui sont situées en amont, et combien de temps il faut pour que ces remous s'étalent. On peut alors prédire la production totale d'électricité de ces parcs éoliens. Aujourd'hui, les turbines sont espacées de l'équivalent de cinq à sept diamètres d'hélice – environ 500 à 700 mètres pour les grandes unités – afin de maximiser la quantité d'énergie pouvant être produite en un endroit donné.

En analysant la production d'électricité d'un parc éolien par conditions de convection, et par conditions stables, ces recherches ont montré des différences significatives de rendement entre éoliennes, selon leur emplacement. « Dans une situation de convection, les turbines situées en aval avaient une production inférieure d'environ 30 % par rapport à celles situées dans les premières lignes. Dans une atmosphère stable, les pertes étaient encore plus importantes, de l'ordre de 60 % », précise l'étude.

Selon ces recherches, ce phénomène serait dû au niveau élevé de turbulences qui ont pour effet d'accroître le brassage de l'air à l'intérieur du parc, ce qui brise le remous à l'aval des turbines. A contrario, par temps calme, le remous n'est pas perturbé et peut durer beaucoup plus longtemps, puisque le brassage reste faible. Ces travaux devraient permettre, d'une part, d'optimiser le rendement des parcs éoliens et, d'autre part, de mieux comprendre l'impact des éoliennes sur la dynamique de l'atmosphère et sur le climat local.

Article rédigé par Georges Simmonds

EPFL

Des chercheurs transforment des emballages en électrodes de carbone
Lundi, 13/04/2015 - 08:20

Un groupe de chercheurs de l'Université de Purdue (USA) a montré qu'il était tout à fait concevable de convertir des mousses de conditionnement en électrodes de carbone à haute performance utilisables dans les batteries lithium-ion rechargeables. Ces dernières seraient alors capables de surpasser les batteries conventionnelles en graphite.

Les batteries contiennent 2 électrodes : l'anode et la cathode. Actuellement, dans la plupart des batteries, les anodes lithium-ion sont constituées de graphite. Des ions lithium sont contenus dans un liquide appelé électrolyte, et ces ions sont stockés dans l'anode uniquement pendant la recharge. Les chercheurs de l'Université de Purdue ont montré comment fabriquer des nanoparticules de carbone et des anodes microfeuilles à partir d'emballages mousses respectivement à base d'amidon et de polystyrène.

Ces travaux montrent que les nouvelles anodes peuvent se charger plus rapidement et offrir plus de "capacités spécifiques" par rapport aux anodes en graphite disponibles sur le marché. Bien que les emballages mousses soient utilisés dans le monde entier comme matériau d'expédition, ils ne sont encore recyclés qu'à 10 %, d'où l'intérêt économique et écologique de cette nouvelle méthode de fabrication.

Cette technique repose sur le chauffage de ces mousses à des températures allant de 500 à 900°C dans un four sous atmosphère inerte en présence d'un catalyseur. Le matériau obtenu est ensuite traité dans les anodes. "Le processus est peu coûteux, respectueux de l'environnement et potentiellement pratique pour une fabrication à grande échelle", souligne l'étude qui précise que "Les analyses microscopiques et spectroscopiques de ce matériau montrent que les microstructures et les performances électrochimiques sont conservées après de nombreux cycles de charge-décharge".

Article rédigé par Georges Simmonds pour RT Flash

Purdue University

^ Haut
Espace
Espace et Cosmologie
Vie sur Mars : Curiosity a détecté de l’azote sur la planète rouge...
Mardi, 14/04/2015 - 08:10

Décidément, Mars n'en finit pas de révéler de nouvelles surprises. Utilisant un des instruments du robot martien américain Curiosity, des scientifiques ont pour la première fois détecté de l’azote à la surface de Mars dans des nitrates, un élément essentiel à la vie. Les nitrates sont une catégorie de molécules qui contiennent de l’azote sous une forme pouvant être utilisée par des organismes vivants et cette découverte apporte ainsi une preuve de plus que la planète rouge a réuni dans le passé des conditions propices à l’existence de la vie.

L’azote est indispensable pour toutes les formes de vie connue, puisqu’il constitue un élément clé des plus grandes molécules comme l’ADN, qui code les instructions génétiques de la vie. Sur la Terre comme sur Mars, l’azote se trouve à l’état gazeux dans l’atmosphère sous forme de deux atomes liés, ce qui l’empêche de se combiner facilement avec d’autres molécules.

Les scientifiques soulignent cependant qu’il n’y a aucune indication suggérant que ces molécules de nitrate découvertes par un instrument de Curiosity proviennent d’un organisme vivant. La surface de Mars est aujourd’hui inhospitalière à toute forme de vie connue.

Selon ces chercheurs, ces nitrates sont anciens et ont résulté de processus non-biologiques comme par exemple l’impact d’astéroïde ou la foudre sur Mars dans un lointain passé. L’équipe scientifique de Curiosity a déjà découvert des indices prouvant que la vie a pu exister sur Mars il y a plusieurs milliards d’années, telle la présence d’eau liquide abondante, comme le montrent les lits d’anciennes rivières, et la présence de matériaux organiques dans le cratère de Gale, où le robot s’est posé en août 2012.

C'est au pied du mont Sharp, une montagne de 5.500 mètres de hauteur formée de couches sédimentaires, que le robot Curiosity a détecté ces molécules de nitrate. Le robot avait également détecté à la fin de l'année dernière, près de la surface de Mars, des émanations régulières de méthane sans pouvoir déterminer, faute d'instruments appropriés, l’origine de ce gaz qui, sur Terre, provient à 95 % de micro-organismes.

Article rédigé par Georges Simmonds pour RT Flash

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les éruptions volcaniques influencent durablement le climat dans l'Atlantique nord
Lundi, 13/04/2015 - 08:00

Selon une étude réalisée par des chercheurs du CNRS et du CEA, les particules émises lors d'éruptions volcaniques majeures refroidissent l'atmosphère par un effet "parasol", réfléchissant les rayons du soleil. L'océan Atlantique est le siège de variations de la température de surface qui s'étendent sur plusieurs décennies et qui influencent le climat de l'Europe. Cette variabilité lente est due à des modifications de la circulation océanique, qui relie les courants de surface aux courants profonds, et qui transporte la chaleur depuis les tropiques jusqu'aux mers de Norvège et du Groenland. Cependant, sa cause reste mal connue.

Pour mieux comprendre ce processus, les chercheurs ont utilisé des informations portant sur le dernier millénaire et issues d'archives naturelles du climat. Ces données montrent le lien étroit entre la température de surface de l'océan Atlantique et la température de l'air au-dessus du Groenland, et révèlent que la variabilité du climat dans cette région est un phénomène périodique dont certains cycles, ou oscillations, durent environ vingt ans.

Ces scientifiques ont également utilisé une vingtaine de simulations numériques qui ont permis de mettre en évidence que des éruptions volcaniques majeures, comme celle de l'Agung, en Indonésie en 1963, ou du Pinatubo, aux Philippines, en 1991, pouvaient modifier en profondeur la circulation océanique de l'Atlantique nord.

En effet, les grandes quantités de particules émises par ces éruptions vers la haute atmosphère réfléchissent une partie du rayonnement solaire par un effet similaire à celui d'un parasol, ce qui entraîne un refroidissement du climat à la surface de la Terre. Ce refroidissement, qui ne dure que deux à trois ans, provoque alors une réorganisation de la circulation océanique dans l'océan Atlantique nord.

Quinze ans environ après le début de l'éruption, cette circulation s'accélère, puis ralentit au bout de vingt-cinq ans, et accélère à nouveau trente-cinq ans après le début de l'éruption volcanique. Les scientifiques ont confirmé ces résultats en les comparant avec des observations de la salinité océanique, facteur déterminant pour la plongée des eaux et donc de la circulation océanique. En observant et en comparant  par ailleurs les carottes de glace groenlandaise et les coquillages bivalves, âgés de plus de cinq cents ans et vivant au nord de l'Islande, les chercheurs ont montré l'existence d'une accélération systématique de la circulation océanique quinze ans après cinq grandes éruptions volcaniques passées.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Mélanome : une nouvelle avancée
Vendredi, 17/04/2015 - 01:15

Décidément, le traitement du mélanome avancé connaît une véritable révolution thérapeutique et celle-ci se poursuit ! L'équipe américaine de Siwen Hu-Lieskovan, spécialiste en immunologie à l'Université d'UCLA (Californie), vient de montrer dans un modèle murin de mélanome métastatique avec mutation BRAF, l’intérêt d’ajouter un inhibiteur MEK à l’association inhibiteur BRAF et immunothérapie.

L’identification de mutations BRAF causales, activant la voie MAPK (mitogen activated protein kinase), dans la moitié des mélanomes a déjà conduit au développement d’inhibiteurs de BRAF (vemurafenib et dabrafenib) et de MEK (trametinib).

Parallèlement, des immunothérapies ont été développées pour bloquer des mécanismes qui freinent le système immunitaire et entravent la réponse immunitaire anti-tumorale. Ainsi, des anticorps contre les checkpoints CTLA4 (ipilimumab) ou PD-1 (pembrolizumab, nivolumab) améliorent la survie.

Cette fois, les chercheurs ont combiné les deux approches (thérapie ciblée et immunothérapie) pour améliorer les résultats mais se sont heurtés à des problèmes de toxicité. Ces chercheurs ont alors montré, sur le mélanome avec mutation BRAF, que la trithérapie, associant les inhibiteurs de BRAF (dabrafenib) et MEK (trametinib) et une immunothérapie (transfert cellulaire adoptif - ACT, ou anti-PD1), provoquait un effet antitumoral plus puissant avec moins d’effets secondaires que la bithérapie dabrafenib/immunothérapie. La trithérapie induit une régression tumorale complète, augmente l’infiltration des cellules T dans les tumeurs, et améliore la cytotoxicité.

Ces résultats sont de bon augure pour les essais de phase 1 qui évaluent actuellement des trithérapies, combinant inhibiteurs de BRAF et MEK avec immunothérapie, chez des patients affectés d’un mélanome métastatique portant la mutation BRAF.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Un médicament potentiel pour réparer les lésions de la moelle épinière
Vendredi, 17/04/2015 - 01:10

Les lésions de la moelle épinière, dues à des accidents ou maladies, sont un défi pour la médecine car les cellules nerveuses lésées ne se régénèrent pas spontanément. En effet, les tissus cicatriciels formés à la suite de telles lésions contiennent des facteurs inhibiteurs, qui bloquent la croissance des axones (fibres nerveuses, prolongements des neurones).

Mais des recherches réalisée au Centre allemand pour les maladies neurodégénératives de Bonn (DZNE, Rhénanie du Nord-Westphalie), sous la direction de Frank Bradke, laissent espérer un traitement qui permettrait la régénération des axones après une lésion de la moelle épinière en neutralisant les facteurs inhibiteurs de croissance qui empêchent la régénération des axones.

Les travaux antérieurs de la même équipe avaient montré qu'une stabilisation des microtubules réduit la formation de tissu cicatriciel et favorise la croissance des axones. Les microtubules sont des fibres cylindriques appartenant au squelette des cellules, permettant la croissance et la mobilité cellulaire.

L'épothilone, une substance commercialisée aux Etats-Unis en tant que médicament contre le cancer, peut stabiliser ces microtubules, à condition d'être administrée exactement à la bonne dose : à haute dose, l'épothilone inhibe la croissance des cellules cancéreuses, tandis qu'à faible dose, elle stimule la croissance axonale chez un modèle animal.

Ces travaux ont montré que l'épothilone agit à plusieurs niveaux. D'une part, elle réduit la formation de tissus cicatriciels, en empêchant la formation de microtubules dans les cellules formant ce tissu. De ce fait, les cellules ne peuvent pas migrer jusqu'à la lésion de la moelle épinière et contribuer à sa cicatrisation. Au contraire, l'épothilone favorise la formation de microtubules dans les axones endommagés et permet ainsi leur régénération. Le traitement à base d'épothilone a permis d'améliorer les capacités motrices des animaux chez qui il a été testé. F. Bradke et son équipe cherchent à présent à analyser l'effet de l'épothilone sur différents types de lésions.

Article rédigé par Georges Simmonds pour RT Flash

DZNE

Cœur : la protéine qui donne le rythme identifiée
Vendredi, 17/04/2015 - 01:05

Des chercheurs américains de l'Université du Maryland ont identifié une protéine cruciale qui permet au cœur de maintenir son rythme. Le coeur est un système subtil : Il ne faut pas trop de décalage dans le rythme cardiaque, cependant, il faut rappeler que si notre rythme cardiaque accélère ou ralentit selon notre activité, ce modèle n'est pas totalement régulier. Ainsi, le temps qui sépare 2 battements, pour un rythme cardiaque à situation constante, reste légèrement variable. Cette variabilité constitue en fait un facteur de bonne santé cardiaque.

Les chercheurs ont montré que la myosine-binding protein C (la protéine C) permet en effet aux fibres musculaires du cœur de travailler en parfaite synchronie. Le Docteur Lederer, auteur principal de l’étude, rappelle que depuis des années, les chercheurs savaient que le calcium agit comme un déclencheur du rythme cardiaque, en activant des protéines qui elles-mêmes vont déclencher la contraction des sarcomères, des protéines fibreuses  composant les cellules du muscle cardiaque. Mais ces travaux ont montré que les molécules de calcium ne sont pas réparties uniformément sur toute la longueur de chaque sarcomère mais sont libérées à partir des extrémités, ce qui n'empêche pas les sacomères de se contracter de manière uniforme.

Ces scientifiques ont montré que la protéine C sensibilise certaines parties du sarcomère au calcium, de manière à ce que leur milieu se contracte autant que les extrémités, en dépit d’une moindre concentration en calcium. La protéine C permet ainsi aux sarcomères de se contracter de manière synchrone.

Cette découverte confirme le rôle-clé de cette protéine C dans de nombreuses maladies cardiaques : des défauts de protéine C entraînent en effet des arythmies graves, pouvant déclencher la mort subite. Mais ces recherches ouvrent la voie vers de nouveaux traitements permettant de contrer ces arythmies en régulant, par voie médicamenteuse, l'activité de la protéine C.

Article rédigé par Georges Simmonds pour RT Flash

Science

Maladie d'Alzheimer et diabète : le lien se précise...
Jeudi, 16/04/2015 - 08:10

Selon une étude de l’Université d'Uppsala University (Suède), dirigée par Gunilla T. Westermark, la découverte d'un processus de formation croisée de l'amyloïde indiquerait un lien possible entre la maladie d'Alzheimer et le diabète de type 2. Le processus pathologique de l'amylose, au cours duquel des protéines mal repliées (amyloïdes) forment des dépôts insolubles de fibrilles, est caractéristique de la maladie d'Alzheimer (MA). Il se produit également dans le diabète. Cependant, il existe différentes formes de protéines et des îlots amyloïdes peuvent être trouvés dans les îlots de Langerhans chez presque tous les patients atteints de diabète de type 2.

D’autre part, plusieurs études ont déjà montré que les patients diabétiques de type 2 ont un risque pratiquement doublé de développer la maladie d’Alzheimer. Ce travail suggère que ce lien pourrait venir du processus sous-jacent de l’amylose.

Ces travaux renforcent l'hypothèse d'un « ensemencement croisé » avec peut-être l’intervention d'autres agrégats amyloïdes ou d'autres types d'agrégats, venant déclencher la formation d'amyloïde. Les interactions entre amyloïde et d'autres protéines d'agrégation pourraient ainsi expliquer les liens entre différentes maladies liées à des anomalies des protéines.

Article rédigé par Georges Simmonds pour RT Flash

The American Journal of Pathology

Le resvératrol : un trésor de bienfaits pour la santé
Jeudi, 16/04/2015 - 08:05

Pour se protéger contre les différents facteurs d'agression, les vignes fabriquent de grandes quantités d’une molécule appelée resvératrol qui s’accumule dans la peau des raisins et agit à la manière d'un fongicide pour réduire les dommages causés par les moisissures. Au cours de la fabrication du vin rouge, la fermentation des peaux de raisin permet d’extraire une grande quantité de resvératrol et cette boisson est de loin la meilleure source de cette molécule, pouvant contenir jusqu’à 13 milligrammes de resvératrol par litre selon les cépages.

On sait à présent que le resvératrol n’est pas seulement essentiel à la santé des vignes, mais joue également un rôle de premier plan dans la santé humaine. Plusieurs études ont en effet montré que cette molécule possède des propriétés antiinflammatoires qui influencent positivement la santé cardiovasculaire, améliorent l’endurance physique, réduisent le risque de diabète et de déclin cognitif et pourraient même augmenter l’espérance de vie.

Les scientifiques américains dirigés par  Vipan K. Parihar (Département d'oncologie de l'Université Irvine en Californie) ont observé que le resvératrol possédait la capacité d’activer plusieurs gènes qui ont comme fonction de protéger les cellules, par exemple en réparant l’ADN (PARP-1, p53), ou encore en augmentant sa durée de vie (FOXO3A, SIRT6). Cet effet du resvératrol est observé à des doses très faibles, facilement atteignables par la consommation modérée de vin rouge, et pourrait donc contribuer à la hausse de l’espérance de vie qui a été observée chez plusieurs organismes à la suite d’un traitement au resvératrol.

Dans une autre étude, des scientifiques ont montré que les propriétés anti-inflammatoires du resvératrol pouvaient contrecarrer le déclin des fonctions cognitives, un autre effet négatif du vieillissement. En utilisant des modèles bien caractérisés de déclin cognitif lié à l’âge, ils ont observé que le traitement au resvératrol était associé à une amélioration spectaculaire de leur mémoire, de leur capacité d’apprentissage ainsi que de leur humeur.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un allaitement plus long améliorerait les capacités cognitives à l'âge adulte
Jeudi, 16/04/2015 - 08:00

Une étude brésilienne montre qu'un allaitement de longue durée pourrait contribuer à une intelligence accrue, une scolarité plus longue et des revenus plus élevés à l'âge adulte. L'allaitement est vivement encouragé par l'Organisation mondiale de la santé (OMS) qui le présente comme l'un des "moyens les plus efficaces" d'assurer la santé et la survie de l'enfant. Elle recommande l'allaitement jusqu'à six mois, mais souligne que moins de 40 % des bébés dans le monde en bénéficient à l'heure actuelle.

L'étude, réalisée par des chercheurs de l'Université de Pelotas, a étudié le devenir de quelque 3500 enfants nés en 1982 et nourris au sein au début de leur existence pendant des durées variables. Trente ans plus tard, les scientifiques ont constaté que l'allaitement avait été bénéfique pour l'ensemble de la population étudiée, et que le bénéfice était d'autant plus important que la durée de l'allaitement avait été longue.

D'après ces chercheurs, les enfants nourris au sein pendant un an auraient un QI supérieur en moyenne de quatre points à ceux allaités pendant moins d'un mois. Ils auraient également eu une scolarité plus longue (de près d'un an), tandis que leurs revenus seraient supérieurs d'un tiers au revenu moyen.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

La tuberculose sera-t-elle le nouveau fléau du siècle ?
Mercredi, 15/04/2015 - 13:45

La tuberculose multirésistante pourrait tuer 75 millions de personnes d'ici 2050 et pourrait coûter 16 700 milliards de dollars à l'économie mondiale, selon une étude réalisée par le Parlement anglais.

Cette étude se fonde sur un scénario dans lequel 40 % des cas supplémentaires de tuberculose se montreraient résistants aux traitements standards. La tuberculose est dite multirésistante quand le bacille responsable de la maladie est insensible au moins aux deux médicaments antituberculeux standards les plus efficaces contre la maladie, l'isoniazide et à la rifampicine, selon l'Organisation mondiale de la santé (OMS). L'OMS a répertorié 480.000 nouveaux cas de TB-MR en 2013. Un million et demi de personnes sont mortes de la tuberculose en 2013.

La lutte contre la tuberculose se heurte également au manque de vaccins, souligne ce groupe de travail. Le seul vaccin efficace, le BCG, protège des certaines formes sévères de TB, notamment celle qui affecte le cerveau. Mais il ne permet pas la prévention de la tuberculose du poumon, la forme la plus courante de la maladie. L'OMS est pour sa part moins alarmiste que les parlementaires britanniques. Elle relève qu'on enregistre une diminution du nombre de personnes développant la tuberculose. Par ailleurs, l'OMS rappelle que le taux de mortalité par tuberculose a chuté de 45 % entre 1990 et 2013. L'OMS note aussi que près de 37 millions de vies ont été sauvées entre 2000 et 2013 grâce au diagnostic et traitement de la tuberculose.

Article rédigé par Georges Simmonds pour RT Flash

UKBI

Autisme : des différences de structure découvertes dans le cerveau
Mercredi, 15/04/2015 - 13:38

Une équipe de chercheurs de l'Université de Warwick (Royaume-Uni) a développé une méthode innovante, dénommée BWAS (brain wide association analysis) qui permet d'obtenir un aperçu panoramique de tout le cerveau. Cette technique a permis d'identifier les zones du cerveau qui sont impliquées dans les symptômes de l'autisme. Les chercheurs se sont appuyés sur des images de cerveau obtenues par IRM de 523 personnes autistes et de 452 personnes non autistes.

Les chercheurs ont utilisé deux modèles : un pour un cerveau « sain » et un pour le cerveau malade. Les chercheurs ont ainsi eu accès à une vue 3D très complète et précise de tout le cerveau, ce qui a permis pour la première fois de comparer toutes les zones du cerveau entre personnes malades et personnes saines. Par rapport à un cerveau « sain », le modèle de cerveau autiste semble se caractériser par une mauvaise connexion fonctionnelle, entre le cortex visuel du lobe temporal (responsable de l'analyse des expressions faciales de ses interlocuteurs) et le cortex préfrontal (responsable de la communication sociale et des émotions).

Selon le professeur Feng, la méthode BWAS représente une avancée majeure, puisqu'elle révèle des différences fonctionnelles à l'échelle de tout le cerveau, ce qui n'avait encore jamais été vu par des médecins.

Article rédigé par Georges Simmonds pour RT Flash

Autism Daily Newcast

Des cellules-souches pour inverser le développement du diabète de type 2
Mercredi, 15/04/2015 - 08:00

Des scientifiques de l'Université de Colombie Britannique (UBC) et de Janssen ont montré pour la première fois que le diabète de type 2 peut être traité efficacement par une combinaison de cellules-souches spécialement cultivées et de médicaments contre les diabètes classiques.

Les cellules-souches ont été récemment utilisées par ces chercheurs pour inverser le diabète de type 1 chez les souris. Dans le diabète de type 1, qui commence habituellement dans l'enfance, le pancréas produit peu ou pas d'insuline, l'hormone qui permet aux cellules de métaboliser le sucre. Ces nouveaux résultats devraient avoir un impact plus important pour le diabète de type 2 - qui se pose généralement à l'âge adulte et souvent découle de la mauvaise alimentation, le manque d'exercice et l'obésité.

Dans ces travaux, les chercheurs, dirigés par Timothy Kieffer, ont simulé un diabète de type 2 chez les souris en les soumettant à un régime alimentaire riche en calories pendant plusieurs semaines. Ils ont ensuite implanté chirurgicalement des cellules pancréatiques qui avaient été cultivées en laboratoire à partir de cellules-souches humaines.

Les souris qui ont reçu une combinaison de cellules-souches avec l'un des trois médicaments contre le diabète sont été à nouveau en mesure, comme les souris saines, de maintenir leur glycémie sous contrôle, même après l'ingestion d'un repas sucré. En revanche, le groupe de souris atteintes de diabète de type 2 qui ont reçu les médicaments, mais pas les transplantations de cellules-souches, sont restées intolérantes au glucose.

Cette thérapie combinée a également permis aux souris traitées de retrouver un poids normal, identique à celui des souris-témoins.

Article rédigé par Georges Simmonds pour RT Flash

The University of British Columbia

L'imagerie médicale enfin à la portée des pays du Sud
Mardi, 14/04/2015 - 08:00

Deux tiers de l’humanité n’ont toujours pas accès aux techniques de radiologie, indispensables à la médecine moderne. Pour lever cet obstacle majeur, l’EPFL a présenté le 9 mars GlobalDiagnostiX, un appareil hi-tech développé spécifiquement pour les pays du Sud.

Dans les pays du Sud, de nombreux systèmes de radiologie ne peuvent jamais être utilisés, en raison notamment des conditions climatiques et de l’instabilité des réseaux électriques. GlobalDiagnostiX est le premier appareil d’imagerie médicale spécialement conçu pour les pays du Sud. Son coût d’achat et d’entretien est 10 fois plus faible que les solutions existantes. Un prototype pleinement fonctionnel a été dévoilé à Lausanne le 9 mars 2015.

L’équipe d’EssentialTech, chargée du projet, a travaillé en étroite collaboration avec l’Hôpital universitaire de Yaoundé (Cameroun), le Centre universitaire de recherche sur l’énergie pour la santé au Cameroun, et d’autres acteurs locaux.

L’appareil est conçu pour résister au climat chaud et humide. Il n’y a par exemple aucune électronique dans le contrôle des mouvements de l’appareil, qui peut monter, descendre, et basculer en fonction de la partie du corps à radiographier. Seuls des éléments mécaniques, solides et inoxydables, sont sollicités. Un mécanisme subtil et robuste facilite les manipulations tout en interdisant les erreurs pouvant mener à des chocs ou de mauvaises radiographies. Le capteur d’images radiographiques a été complètement repensé pour résister aux chocs ainsi qu’à la température et à l’humidité. Très bon marché, il s’appuie sur une matrice de douze capteurs CMOS bon marché dont les images sont assemblées par le logiciel de la machine.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Une alimentation trop grasse perturbe notre cerveau
Lundi, 13/04/2015 - 08:10

Une étude récente de l’Université de Louisiane a montré qu’un régime trop riche en graisses favorise l’apparition de troubles mentaux tels que la dépression et l’anxiété.

Pour parvenir à ces conclusions, les chercheurs ont utilisé un outil baptisé "transplantation de microbiote" qui consiste à implanter, dans le tube digestif de souris saines, la flore intestinale de souris rendues obèses grâce à un régime riche en graisses. Les souris ainsi traitées ont montré des signes accrus d’anxiété et de troubles de la mémoire, ainsi que davantage de comportements répétitifs.

Cette étude a également montré que ces souris à la flore intestinale modifiée présentaient aussi des symptômes physiologiques, dont une inflammation du système digestif et du cerveau. Pour la première fois, le rôle de la flore intestinale a donc été clairement mis en évidence, puisque les souris rendues  "dépressives" avaient suivi un régime classique et possédaient un poids normal.

« Cette étude suggère que les régimes riches en graisses affectent la santé du cerveau, notamment en perturbant la relation symbiotique entre les humains et les micro-organismes qui occupent nos voies digestives », souligne John Krystal, chef du service de psychiatrie à la faculté de médecine de l’Université Yale.

Article rédigé par Georges Simmonds pour RT Flash

Medical Daily

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top