RTFlash

RTFLASH Recherche & Technologie
NUMERO 672
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Octobre 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un module de transmission infrarouge à très haut débit
Matière
Des cellules solaires plus noires et plus efficaces
Vivant
Notre cerveau garde la mémoire...de la mémoire !
Un soutien-gorge qui détecte le cancer du sein !
Vers un test fiable et rapide de résistance aux antibiotiques
Le cancer poursuit son recul aux Etats-Unis
Un nouveau médicament prometteur contre la maladie d'Alzheimer
Des chercheurs français mettent au point une technique révolutionnaire pour régénérer les vaisseaux sanguins
Une équipe française réalise pour la première fois au monde une reconstruction d' œsophage par endoscopie
L'aspirine protège les femmes du cancer de l'ovaire
Détecter un cancer par une simple prise de sang
Homme
L'insécurité alimentaire et la pauvreté continuent à régresser dans le monde
Edito
A quoi sert la physique quantique ?



Pour la 13ème fois depuis sa création, le prestigieux prix Nobel de physique a été décerné le 8 octobre dernier à un chercheur français, Serge Haroche, qui le partage avec son collègue américain, David J. Wineland.

Le jury Nobel souligne que ce prix leur a été attribué pour "la conception et la mise au point de méthodes expérimentales totalement nouvelles qui ont permis d’observer sans les détruire des particules et systèmes quantiques, ouvrant ainsi une nouvelle ère dans la compréhension intime de la physique quantique ".

Au terme de plus de 15 ans d’efforts, Serge Haroche a en effet réussi à réaliser le vieux rêve d’Einstein : observer un photon isolé. Einstein avait lui-même reçu le Nobel de physique en 1921, non pour sa théorie de la relativité, comme on le croit généralement, mais pour sa découverte de l’effet photoélectrique qui montrait magistralement que l’émission ou l’absorption des photons (qu’il appelait encore à l’époque « Quanta de lumière », l’appellation de photon datant seulement de 1926) par un matériau ne dépendait pas seulement de l’intensité de leur énergie mais également de leur fréquence et s’effectuait par « sauts » quantiques, conformément à la géniale hypothèse émise par Max Planck en 1900.

Mais avant de décrire plus en détail l’expérience tout à fait hors du commun réalisée par Serge Haroche et ses collègues de l’Ecole Normale supérieure, il faut revenir brièvement sur l’historique du photon, entité insaisissable et subtile qui n’a cessé de fasciner et de diviser la communauté scientifique depuis la première théorie ondulatoire de la lumière émise par le grand scientifique hollandais Huygens en 1678.

De Huygens à Einstein, pendant près de deux siècles et demi, physiciens et scientifiques ne cessèrent de s’affronter, parfois violemment, sur la véritable nature de la lumière et de ses composants fondamentaux. Comme Newton, une majorité de scientifiques pensa longtemps que la nature de la lumière était ondulatoire et ce paradigme scientifique domina jusqu’aux hypothèses de Planck puis d’Einstein au début du XXème siècle.

Il est vrai qu’en 1801, un autre génie de la physique, l’anglais Thomas Young, montra dans une expérience restée célèbre que la lumière, en passant à travers deux fines fentes pratiquées dans une planche de bois, se diffractait et formait sur l’écran placé derrière cette planche des alternances de bandes blanches et noires que les physiciens appellent « franges d’interférence » et qui ne sont explicables, dans le cadre de la physique classique, que si la lumière se comporte comme une onde.

Tout le génie d’Einstein, un siècle plus tard, fut de comprendre et de démontrer qu’on ne pouvait comprendre la nature intime de la lumière et de son constituant fondamental, le photon, qu’en admettant l’idée étrange d’une dualité onde-corpuscule : le photon est à la fois onde et particule et se comporte, selon les circonstances, son environnement et le dispositif expérimental auquel il est soumis, tantôt comme une onde diffuse dans l’espace, tantôt comme une particule ponctuelle, un « grain » d’énergie que l’on peut localiser à un endroit précis.

Mais c’est là que les choses se compliquent car Einstein, bien qu’il soit l’un des pères de la mécanique quantique, ne pouvait en admettre toutes les conséquences épistémologiques et philosophiques. Pour lui, le nouveau cadre quantique, auquel il avait apporté une contribution pourtant essentielle, était vrai mais devait être incomplet et ne pouvait rendre compte totalement du réel.

Pour Einstein, « Dieu ne jouait pas aux dés » et l’idée qu’il existait dans la nature une indétermination intrinsèque, selon le célèbre principe d’Heisenberg, une incertitude fondamentale, se manifestant par un principe de non-séparabilité qui rendait possible des systèmes physiques dans lesquels les particules communiquaient instantanément entre elles, indépendamment de la distance les séparant, n’était pas admissible. Einstein était en effet persuadé qu’il existait dans la théorie quantique des « variables cachées », non encore découvertes, qui viendraient un jour la compléter et la ramener en quelque sorte dans le droit chemin, c'est-à-dire dans un cadre d’interprétation réaliste et déterministe plus acceptable et satisfaisant pour notre raison.

En 1935, il imagina, avec deux collègues Podolsky et Rosen, le fameux « Paradoxe EPR » dans lequel il postulait qu’il était impossible que deux photons émis d’une même source puissent continuer, même très distants, à avoir un comportement corrélé car cela supposerait que, lorsqu’ils se trouvent très éloignés l’un de l’autre, ils puissent échanger d’une façon ou d’une autre instantanément des informations sur leur position et leur comportement !

Il y avait là, selon Einstein, une contradiction fondamentale qui montrait que la mécanique quantique était incomplète. Parallèlement à ce bouleversement conceptuel sans précédent de la physique, le photon qui était déjà au cœur de la mécanique quantique prit également une importance considérable à l’autre extrémité de la physique, celle de la cosmologie et de la théorie de relativité générale et devint officiellement ce que les physiciens appellent le vecteur d’interaction, c'est-à-dire plus simplement le véhicule de l’interaction électromagnétique, l’une des quatre forces fondamentales qui régissent l’univers, de l’infiniment petit à l’infiniment grand, les trois autres étant l’interaction nucléaire faible (dont le véhicule est le boson), l’interaction nucléaire forte (dont les véhicules sont les quarks), et la gravitation (dont les véhicules doivent être les « gravitons », particules hypothétiques qui n’ont pas encore été confirmées par l’expérience).

Presque un demi-siècle après la publication du paradoxe EPR, Alain Aspect et ses collègues de l’Institut d’Optique d’Orsay, parvinrent à réaliser en 1982 une magnifique expérience qui montra sans ambiguïté que, sur ce point, une fois n’est pas coutume, Einstein se trompait et que deux photons émis d’une même source restaient bien corrélés, même lorsqu’ils étaient à des distances gigantesques qui excluaient toute transmission instantanée d’informations entre eux.

Cette confirmation expérimentale éclatante et rigoureuse de la nature intrinsèquement quantique du photon eut deux conséquences majeures : d’abord, elle valida sur un plan scientifique mais également épistémologique et quasiment philosophique la pertinence et la puissance de prévision de la théorie quantique élaborée par une dizaine de physiciens géniaux, dont Einstein, Planck, Bohr, De Broglie, Dirac, Heisenberg et Schrödinger, entre 1900 et 1927.

Ensuite, elle ouvrit le champ de réflexion, de conceptualisation et d’expérimentation de la physique vers une voie nouvelle et passionnante qui peut se formuler ainsi : jusqu’à quel niveau de réalité est-il possible d’observer et de provoquer des manifestations quantiques de la matière ?

Ce deuxième point est capital car, en physique quantique, l’environnement, l’observateur et la mesure jouent un rôle actif dans les résultats expérimentaux obtenus. C’est pourquoi on ne peut observer la dimension quantique du réel qu’à l’échelle des particules et parfois à l’échelle atomique car ces propriétés quantiques et notamment la capacité à exprimer simultanément plusieurs états superposés –ce que les physiciens appellent la cohérence quantique– est perdue dès que le système physique comporte de nombreuses particules qui interagissent entre elles avec leur milieu.

Ce phénomène de décohérence à l’échelle macroscopique, la nôtre, explique notamment pourquoi à notre niveau de perception de la réalité, une porte ne peut à la fois être ouverte ou fermée, un porte-monnaie ne peut pas à la fois être vide ou contenir une pièce d’un euro et notre chat ne peut pas à la fois être mort et vivant, pour reprendre le célèbre paradoxe du grand physicien autrichien Erwin Schrödinger. Celui-ci avait imaginé en 1935 une célébrissime expérience de pensée dans laquelle un « objet » macroscopique, en l’occurrence un chat, aurait des propriétés quantiques et pourrait donc exister dans deux états superposés et être à la fois la fois vivant et mort !

Heureusement pour notre santé mentale, nous savons tous par expérience que notre monde familier n’est, à notre échelle, pas régi par les étranges lois de la physique quantique et nous pouvons nous en réjouir car un tel monde, peuplé d’entités instables, floues et intriquées, serait pour le moins déroutant et déstabilisant !

Cette brutale perte de cohérence quantique est appelée décohérence par les physiciens et elle est devenue un champ majeur de recherche en physique car il est évidemment essentiel de comprendre non seulement comment mais pourquoi cette décohérence, ce retour à la réalité classique, se produit et jusqu’où il est possible de la retarder.

C’est dans ce contexte qu’intervinrent les remarquables travaux de Serge Haroche qui n’a cessé au fil des décennies d’imaginer et de monter des expériences de plus en plus raffinées et subtiles visant à pousser en quelque sorte la physique quantique dans ses derniers retranchements, en observant l’évolution du comportement d’un seul photon dans des situations tout à fait exceptionnelles et très éloignées de celles de la réalité ordinaire.

Entre 2006 et 2008, grâce à plusieurs expériences aussi sophistiquées les unes que les autres, Haroche et ses collègues ont montré qu’il existait un lien direct de causalité entre le temps de décohérence, c'est-à-dire de perte des propriétés quantiques, et le nombre de photons inclus dans le dispositif expérimental. Cela explique qu’à notre niveau de réalité, nous percevions les objets et systèmes de notre environnement comme stables, délimités, finis et quantifiables.

Pour relever le défi qui consiste à observer un photon sans le détruire, Serge Haroche a dû surmonter deux difficultés majeures : d’abord parvenir à mesurer ce photon sans modifier son énergie et ensuite le piéger suffisamment longtemps pour avoir le temps de le mesurer.

Le premier obstacle a été franchi grâce à la mise au point d’une nouvelle technique de détection qui repose sur l’emploi d’atomes placés dans un état particulier qui les rend sensibles aux moindres variations du champ électromagnétique véhiculé par le photon.

Le deuxième obstacle, qui consistait à ralentir suffisamment le photon et à le « geler », a été surmonté en imaginant une cavité comprenant deux miroirs supraconducteurs placés face à face à quelques centimètres de distance.

Le pouvoir réfléchissant de ces miroirs est tel qu’ils sont capables de piéger le photon qui va rebondir d’un miroir à l’autre plus d’un milliard de fois, ce qui va laisser un bon dixième de seconde aux chercheurs pour l’examiner sous toutes les coutures !

Sans entrer dans les détails, il est remarquable de constater que ces travaux de Serge Haroche sur l’interaction lumière-matière ont notamment confirmé que la décohérence quantique s’effondrait brutalement dès lors que les fonctions d’onde associées à de nombreuses particules et formalisées par Schrödinger se superposaient, comme dans le cas d’un système ou d’un objet qui dépasse l’échelle atomique.

Les travaux de Serge Haroche ont donc pleinement validé la théorie quantique et l’ont même confortée et enrichie, ce qui n’aurait sans doute pas manqué d’agacer Einstein qui aurait certainement imaginé, comme à l’époque de ses discussions passionnées avec Bohr, une nouvelle expérience de pensée encore plus extraordinaire pour tenter de réconcilier la théorie quantique avec sa conception déterministe de la nature et de l’univers.

Mais on peut se demander légitimement à quoi peuvent bien servir de telles recherches aussi abstraites en apparence et aussi éloignées de nos préoccupations quotidiennes.

Outre le fait qu’elles permettent des avancées décisives dans la connaissance fondamentale des lois de la matière et de l’univers, ce qui me semble en soit une justification suffisante, ces recherches sont également porteuses d’applications concrètes considérables dans de nombreux domaines comme l’électronique, les télécommunications, l’informatique et même à présent la biologie et les neuro-sciences.

Il faut par exemple rappeler que, si nous ne connaissions pas les déroutantes lois de la physique quantique, nous serions incapables de concevoir et de fabriquer des ordinateurs aussi rapides et dotés d’une mémoire qui se chiffre à présent en milliers de milliards d’octets, ce qui permet, sur un simple ordinateur portable de stocker sur un minuscule disque magnétique l’équivalent de plus d’un milliard de pages de textes, c'est-à-dire une quantité d’informations suffisante pour inscrire sur ce disque la fiche d’état civil de tous les habitants de la planète ! 

A moyen terme, ces recherches devraient également déboucher sur des percées majeures dans le domaine stratégique de la cryptographie quantique qui, d’ici quelques années, permettra une sécurisation absolue de certaines transactions et transmissions numériques sensibles.

Enfin, à plus long terme, ces recherches pourraient aboutir à la réalisation d’ordinateurs quantiques et photoniques travaillant non plus à partir de valeurs discrètes et binaires, les fameux bits à l’origine de l’informatique, mais en manipulant des « qbits » produits par superposition contrôlée d’états quantiques et laissant entrevoir une puissance de calcul qui défie l’imagination et qui serait, à volume constant, des milliers ou des millions de fois ce qu’elle est aujourd’hui.

Il deviendrait alors possible de réaliser dans un temps raisonnable, quelques heures ou quelques semaines, des simulations et prévisions numériques qui nécessiteraient aujourd’hui des siècles de calcul, ce qui révolutionnerait tous les domaines d’activités de notre société. On pourrait par exemple concevoir très rapidement par ordinateur des molécules thérapeutiques très complexes et prévoir leurs effets et interactions aux différents niveaux d’organisation biologique, de la cellule à l’organisme tout entier.

Dans l’un des nombreux entretiens qu’a accordé Serge Haroche après avoir appris qu’il était Nobel de physique, ce chercheur modeste autant que brillant et créatif a formulé une réflexion très juste que nos responsables politiques et économiques feraient bien de méditer en ces temps de fébrilité et d’incertitudes sur l’avenir, où la dictature du court terme et de la rentabilité immédiate domine trop souvent les esprits.

Il a dénoncé avec force la dérive « utilitariste » qui a peu à peu gagné toute la recherche scientifique, y compris en France, et qui rend de plus en plus difficile la conception et la mise en œuvre sur le très long terme de programmes de recherche dans des domaines fondamentaux, sans retombées industrielles ou techniques immédiates.

Il a rappelé à juste titre qu’une recherche fondamentale puissante, stable et libre était indispensable pour réaliser les sauts conceptuels et scientifiques qui rendront possibles demain ou après demain les innovations de rupture, celles qui, comme l’avait montré magistralement Schumpeter, modifient la nature et la structure mêmes de nos économies et de nos sociétés et permettent des transformations sans précédent de nos conditions de vie.

Souhaitons que notre Pays qui se situe à un niveau d’excellence mondiale dans ce domaine de la recherche fondamentale en physique et sait encore produire des scientifiques du niveau éthique de Serge Haroche, sache préparer avec clairvoyance l’avenir en consacrant, malgré les difficultés économiques et financières qu’il traverse, des moyens suffisants à la recherche fondamentale et en se fixant l’objectif de devenir, selon le beau mot de Michel Serres, une société de la connaissance.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un module de transmission infrarouge à très haut débit
Vendredi, 12/10/2012 - 20:27

Le transfert de données repose sur l'utilisation combinée de plusieurs technologies filaires et radio : câble, fibre optique, Bluetooth, ou Wi-Fi notamment. Ces deux dernières technologies  fonctionnent bien mais sont peu adaptées à la transmission instantanée de très gros fichiers, ce qui limite leur utilisation.

Des chercheurs de l'Institut Fraunhofer à Dresde en Allemagne ont mis au point une nouvelle technologie de transmission par infrarouge très prometteuse qui surclasse largement toutes les technologies sans fil actuelles mais également les technologies de transmission physique les plus répandues.

Frank Deicke qui dirige ces recherches de pointe précise que "le module infrarouge que nous avons réalisé est sans équivalent au monde. Il transfère des données à une vitesse d'un gigabit par seconde (Gbit/s). A titre d'exemple, sachant qu'un caractère de texte fait un octet (huit bits), notre module infrarouge peut transférer 50 000 pages de texte ou encore le contenu d'un DVD en moins d'une minute", souligne Frank Deicke.

En principe, les interconnexions physiques entre dispositifs électroniques sont plus rapides que leurs homologues sans fil mais avec ce module, c'est le contraire ! Ce "module de communication multi-gigabit" est en effet six fois plus rapide qu'un câble USB 2.0 standard. il est également presque cinquante fois plus rapide que le Wi-Fi et 1 400 fois plus rapide qu'une connexion Bluetooth.

Ce débit extraordinaire vient du fait que le traitement de signal, grâce à l'utilisation combinée de plusieurs technologies, est bien plus court avec cette technologie infrarouge.

L'émetteur-récepteur, pas plus grand qu'un ongle, peut être intégré à la fois dans une diode laser qui génère des impulsions lumineuses et dans un photodétecteur qui détecte ce signal.

Mais ce système optique a ses limites et ne peut fonctionner correctement et à pleine puissance que lorsque l'émetteur et le récepteur sont en liaison visuelle. "Ca n'est pas un obstacle majeur et il suffit de placer la caméra ou le téléphone intelligent près de l'ordinateur de bureau ou du portable" souligne Deicke qui travaille à la promotion de cette technologie dans le cadre d'un groupe de recherche baptisé «10 Giga-IR working group».

Plein d'enthousiasme, Deicke ne compte pas s'arrêter en si bon chemin et ajoute que "Notre module infrarouge est loin d'avoir atteint sa vitesse maximale. Nous pensons pouvoir rapidement le pousser à 3 Gbit/s et atteindre à terme 10 Gbit/s."

Article rédigé par Mark FURNESS pour RTFlash

Fraunhofer

^ Haut
Matière
Matière et Energie
Des cellules solaires plus noires et plus efficaces
Samedi, 13/10/2012 - 12:51

Actuellement, plus du quart de l'énergie solaire n'est pas exploité par les cellules solaires car celles-ci ne savent pas convertir la lumière issue du spectre infrarouge en électricité. Il est donc essentiel de lever ce verrou technologique et parmi les pistes scientifiques explorées, les chercheurs travaillent sur le "silicone noir", un silicone dont on modifie la structure moléculaire et atomique en surface afin qu'il puisse absorber les infrarouges et les transformer en électricité.

Le célèbre Institut de recherche allemand Fraunhofer a annoncé qu'il était parvenu à doubler le rendement de conversion électrique du silicium noir. en intégrant cette nouvelle technologie dans la production des panneaux photovoltaïques, et qu'il serait possible de dépasser les 30 % de rendement de conversion électrique, contre environ 17 % en moyenne aujourd'hui.

Le docteur Stefan Kontermann, qui dirige ces recherches souligne que "Ce silicium noir a été modifié dans sa structure de surface par des impulsions laser de manière à pouvoir intégrer des atomes de soufre dans le réseau de atomes de silicium, ce qui augmente très sensiblement sa capacité à absorber la lumière infrarouge et à la transformer en courant électrique."

En fait, l'inclusion de ces atomes de souffre a pour effet de diminuer la quantité d'énergie infrarouge nécessaire pour exciter les électrons et les transformer en électricité. Il devient ainsi possible de créer un niveau d'énergie intermédiaire dans lequel la lumière infrarouge est exploitée bien plus efficacement. « En modifiant par laser de manière soigneusement contrôlée l'emplacement des atomes de soufre dans le silicium noir, nous parvenons à optimiser et à augmenter le nombre d'électrons qui peuvent s'exciter et monter sur une orbite supérieure et parallèlement à diminuer le nombre en orbite basse », précise Stefan Kontermann.

Les chercheurs travaillent à présent à développer un algorithme pour optimiser l'intensité et la durée des impulsions laser de manière à améliorer encore le rendement de conversion électrique de ce silicium dopé au soufre.

Article rédigé par Mark FURNESS pour RTFlash

Fraunhofer

Technology Review

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Notre cerveau garde la mémoire...de la mémoire !
Jeudi, 18/10/2012 - 21:51

Si la nocivité de la fumée de cigarette ne fait pas de doute, la nicotine contenue dans le tabac permet de stimuler la mémorisation et l’apprentissage qui s'effectuent principalement dans l’hippocampe. Des chercheurs suédois de l'Université d'Uppsala ont découvert un nouveau mécanisme cérébral très étonnant de sélection et de traitement des cellules nerveuses, baptisées "OLM-alpha2", qui agissent comme des "cellules-gardiennes" de nos souvenirs et contrôlent le flux d'informations dans l'hippocampe.

Pour mieux comprendre par quels mécanismes la nicotine agit sur ces neurones, les chercheurs suédois ont utilisé une nouvelle technique, l'optogénétique, qui consiste à stimuler certains neurones grâce à la lumière. A l'aide de cette méthode, ils ont pu modifier la sélection et la transmission de l’information dans l’hippocampe de souris et modifier, in fine, les capacités d’apprentissage et de mémorisation. Ils ont aussi montré que ces "cellules gardiennes" étaient capables, sous l'effet de la stimulation lumineuse, de se connecter directement aux cellules de l’hippocampe alors que, normalement, ce type de cellules ne laissent transiter que les flux d'informations "longue distance"  et ne modifient pas les informations circulant dans le réseau de proximité.

Comme le mentionne cette étude, "Nos résultats suggèrent que l'acétylcholine agissant par l'intermédiaire des cellules OLM peut contrôler les processus de mémorisation exécutés par l'hippocampe."

La découverte de ces neurones "gardiens, encore appelés "neurones portiers", dans l'hippocampe, devrait permettre de mieux comprendre les mécanismes biochimiques fondamentaux qui régissent l'apprentissage et la mémoire dans notre cerveau; Mais au-delà de cet aspect théorique, cette découverte très intéressante ouvre la possibilité de stimuler ces fonctions cognitives en utilisant certaines molécules ayant des propriétés similaires à  la nicotine, mais sans l'inconvénient de la dépendance.

Article rédigé par Mark FURNESS pour RTFlash

Nature

Un soutien-gorge qui détecte le cancer du sein !
Jeudi, 18/10/2012 - 21:39

L'idée n'est pas nouvelle mais elle pourrait se traduire concrètement d'ici 2014 : une société américaine de biotechnologies, First Warning Systems, travaille actuellement à la mise au point d'un "soutien-gorge intelligent", destiné à détecter précocement le cancer du sein.

Selon les chercheurs, ce soutien-gorge pourrait dépister une croissance tumorale 6 ans avant qu’une mammographie puisse la détecter.

Baptisé Breast Self Examen, ce soutien-gorge comprend un ensemble de capteurs intégrés qui permettent de détecter les changements de températures mammaires qui peuvent être le signe indiquant la croissance de nouveaux vaisseaux sanguins et la présence d'une tumeur.

Trois essais cliniques faits sur 650 femmes ont montré une efficacité de 90 % du prototype mais l'administration américaine souhaite d'autres tests avant d'autoriser la mise sur le marché de ce produit qui ne pourra en aucun cas se substituer aux méthodes classiques de prévention et notamment à la mammographie mais peut permettre d'améliorer cette prévention.

Article rédigé par Mark FURNESS pour RTFlash

CNET

FWS

Vers un test fiable et rapide de résistance aux antibiotiques
Jeudi, 18/10/2012 - 20:58

Des chercheurs de l'Inserm dirigés par le Professeur Patrice Nordmann ont mis au point deux tests de diagnostic rapide de multirésistance aux antibiotiques à large spectre. Ces tests permettent en moins de 2 heures d'identifier certaines bactéries, comme les entérobactéries, responsables d’infections résistantes aux antibiotiques. Ces tests d'une grande sensibilité et d'une grande sélectivité devraient permettre une personnalisation des traitements antibiotiques et une meilleure connaissance du processus de propagation de la résistance aux antibiotiques.

En Europe, on estime que la résistance bactérienne aux antibiotiques provoquerait au moins 25 000 décès par an. Du fait d'une utilisation abusive et parfois injustifiée des antibiotiques, les bactéries se sont adaptées par mutations génétiques et ont appris à devenir résistantes à la plupart des antibiotiques. Pour endiguer ce phénomène alarmant, les autorités sanitaires travaillent dans deux directions : d'abord elles ont lancé il y une dizaine d'années des campagnes d'informations qui visent à réduire l'utilisation inappropriée des antibiotiques. Ensuite, la recherche médicale tente de mieux cibler les antibiotiques disponibles pour qu'ils conservent un maximum d'efficacité.

C’est dans ce cadre que les chercheurs de l'Inserm ont développé ces deux tests qui peuvent déterminer rapidement si une bactérie sera ou non résistante à deux des principales classes d’antibiotiques : les céphalosporines (traitement standard) et les carbapénèmes (traitement de dernier recours).

Les tests mis au point par l'Inserm sont à la fois très fiables, simples et peu coûteux : moins de 5 euros. Cette découverte devrait permettre une amélioration considérable de la prise en charge et du traitement des malades victimes d'une infection bactérienne et devrait également réduire sensiblement la mortalité, encore trop élevée, provoquée par ces bactéries résistantes.

Article rédigé par Mark FURNESS pour RTFlash

JCM

INSERM

Le cancer poursuit son recul aux Etats-Unis
Jeudi, 18/10/2012 - 20:44

Selon un récent rapport gouvernemental, le nombre de cancers et la mortalité globale par cancer poursuivent leur baisse aux Etats-Unis. Ces données montrent que le nombre de nouveaux cas de cancers a diminué en moyenne d'un demi-point par an depuis 1999. Quant à la mortalité par cancer, elle a reculé en moyenne de 1,5 % par an au cours de la même période. Ces résultats proviennent d'un meilleur dépistage, de traitements plus efficaces mais également de changements dans les modes de vie.

Grâce à la lutte active contre le tabagisme, en 2008, pour la deuxième année consécutive, la mortalité par cancer du poumon a diminué chez les femmes américaines alors que, pour les hommes, la mortalité par cancer du poumon diminue régulièrement depuis 20 ans. Néanmoins, on attend encore plus de 160.000 décès par cancer du poumon aux Etats-Unis cette année.

Une vaste étude réalisée par l'Institut national du cancer américain a montré que 795.000 décès par cancer du poumon (552.000 hommes et 243.000 femmes) ont pu être évités aux Etats-Unis entre 1975 et 2000 grâce aux campagnes de lutte contre le tabagisme. Mais cette étude souligne que 2,5 millions de vies auraient pu être sauvées si tous les fumeurs américains avaient cessé de fumer en 1975.

Article rédigé par Mark FURNESS pour RTFlash

Daily News

Un nouveau médicament prometteur contre la maladie d'Alzheimer
Jeudi, 18/10/2012 - 20:36

Des chercheurs de l'Université d'Etat de Washington ont mis au point un nouveau médicament, le Dihexa, qui semble améliorer sensiblement les performances cognitives des rats souffrant de la maladie d'Alzheimer et permet de réparer certains dommages cérébraux provoqués par cette affection neuro-dégénérative.

Actuellement, les traitements contre la maladie d'Alzheimer ne peuvent que ralentir le processus de mort cellulaire ou inhiber la cholinestérase, une enzyme associée à la production du principal neurotransmetteur impliqué dans l'apprentissage et la mémoire. Comme le souligne Joe Harding, qui dirige ces recherches, "Les médicaments dont nous disposons ne permettent pas de restaurer les fonctions cognitives altérées car cela supposerait qu'on puisse restaurer les connexions interneuronales."

En outre, les innovations thérapeutiques sont rares et on ne dénombre que trois nouveaux médicaments contre la maladie d'Alzheimer mis sur le marché aux Etats-Unis depuis 13 ans, sur 104 molécules testées.

C'est après 15 ans de recherche que ces chercheurs sont parvenus à concevoir une molécule d'angiotensine suffisamment petite pour qu'elle franchisse la barrière hémato-encéphalique et atteigne les régions ciblées du cerveau. Initialement, l'angiotensine servait à réguler la pression artérielle mais les chercheurs ont découvert que ce médicament avait une action bénéfique très puissante sur l'hippocampe, une région du cerveau impliquée dans l'apprentissage spatial et la mémoire à court terme.

Les chercheurs ont testé ce médicament sur des rats traités à la scopolamine, une substance chimique qui interfère avec un neurotransmetteur essentiel pour l'apprentissage et la mémoire et qui fait perdre la mémoire spatiale. Mais grâce à ce traitement, les rats ont tous réussi l'épreuve d'orientation qui leur a été proposée. Ce médicament permet également à des rats âgés de retrouver une partie de leurs performances cognitives.

Le Dihexa serait, selon ces recherches, bien plus puissant que la protéine BDNF (brain-derived neurotrophic factor), impliquée dans les processus de mémoire à long terme et dans l'établissement de nouvelles connexions synaptiques.

Ces résultats suggèrent que le Dihexa pourrait avoir des applications thérapeutiques non seulement pour la maladie d'Alzheimer mais également pour d'autres maladies neurodégénératives ou pour certaines lésions accidentelles du cerveau.

Article rédigé par Mark FURNESS pour RTFlash

Eurekalert

Des chercheurs français mettent au point une technique révolutionnaire pour régénérer les vaisseaux sanguins
Jeudi, 18/10/2012 - 20:25

Une équipe de recherche associant des chercheurs de l'Institut des vaisseaux et du sang de hôpital Lariboisière et de l’Inserm a mis au point un nouveau traitement prometteur qui constitue une alternative possible à la chirurgie vasculaire et permet de régénérer les cellules sanguines par autogreffe et de rétablir dans certains cas une circulation sanguine normale chez les malades.

Dans les pays développés, les maladies cardiovasculaires restent la première cause de mortalité et constituent un enjeu majeur de santé publique. Parmi ces pathologies cardiovasculaires, l’ischémie des membres inférieurs, qui touche principalement des personnes diabétiques, entraîne une déficience grave de l’irrigation sanguine qui provoque elle-même une insuffisance de sang oxygéné dans les tissus concernés. Cette situation peut entraîner de graves ulcères ainsi que des gangrènes qui peuvent conduire à l'amputation et parfois au décès des patients diabétiques.

Le Professeur  Bernard Lévy qui dirige ces recherches a présenté une nouvelle approche de thérapie cellulaire qui vient d'être expérimentée avec succès chez des souris diabétiques. Cette technique novatrice consiste à injecter par voie intraveineuse des globules blancs (monocytes et lymphocytes), extraits du sang de malades diabétiques.

Dans un premier temps, les chercheurs ont récupéré des cellules du sang de patients diabétiques puis les ont stimulées à l'aide d'éphrine B2-Fc, une molécule qui joue un rôle déterminant dans la formation des vaisseaux pendant le développement embryonnaire. Ainsi modifiées, ces cellules ont ensuite été injectées par voie intraveineuse à des souris diabétiques présentant une ischémie de la patte arrière.

Grâce à cette méthode, les chercheurs ont constaté au bout de quinze jours une régénération des vaisseaux, accompagnée d'une restauration de l'irrigation sanguine dans les pattes des souris. Ce remarquable résultat provient de la capacité des cellules sanguines stimulées par l’éphrine à activer des cellules souches de la moelle osseuse des souris.

Comme le souligne Bernard Lévy, "Il s'agit d'une avancée majeure pour plusieurs raisons : d'abord parce que les cellules utilisées sont faciles à récupérer et ensuite parce qu'il est possible de procéder à de multiples injections de cellules si nécessaire".

Article rédigé par Mark FURNESS pour RTFlash

Inserm

Diabetes

Une équipe française réalise pour la première fois au monde une reconstruction d' œsophage par endoscopie
Jeudi, 18/10/2012 - 13:55

Une équipe de l’hôpital Nord de Marseille, dirigée par Marc Barthet, a réussi pour la première fois au monde la reconstruction d’un œsophage par chirurgie endoscopique transluminale, ce qui permet de ne pas ouvrir le thorax et l’abdomen du patient.

Une première intervention chirurgicale, d'une durée de deux heures trente, a d'abord été réalisée sur une patiente atteinte d’obésité et victime d’une perte de substance de l'œsophage à la suite d’une chirurgie bariatrique. L'opération s'est parfaitement déroulée et la patiente a pu se réalimenter au bout de quatre jours alors qu'elle ne s’alimentait plus oralement depuis cinq mois. La deuxième intervention a été encore plus complexe et a permis de reconstruire tout l'œsophage.

En général, les malades souffrant de ces pathologies sont pris en charge avec une une chirurgie classique qui consiste à greffer sur l'œsophage un morceau de colon. La nouvelle technique utilisée, l'endoscopie digestive, permet de diminuer sensiblement la durée des interventions et les risques opératoires mais elle est d'une grande complexité car elle doit prévenir le risque d'infection. Elle doit également éviter la diffusion d’air dans la plèvre et ne pas toucher le cœur.

Pour réaliser une telle prouesse, le Professeur Barthet, spécialiste mondial de l’endoscopie digestive, a mis au point, dans le cadre du Centre d'Enseignement et de Recherche Chirurgical (CERC) de l’hôpital Nord de Marseille une technique très audacieuse, baptisée « technique du rendez-vous », qui combine deux approches endoscopiques. Le premier endoscope est introduit par la voie orale classique et le deuxième fait le chemin inverse et remonte depuis l’estomac.

Article rédigé par Mark FURNESS pour RTFlash

AP-HM

L'asprine protège les femmes du cancer de l'ovaire
Samedi, 13/10/2012 - 12:59

Selon une étude danoise dirigée par Susanne Kjær, du Centre danois de recherche sur le cancer et portant sur 756 femmes atteintes d'un cancer de l'ovaire, la prise quotidienne d'aspirine réduit de 40 % le risque de développer la forme la plus grave du cancer de l’ovaire.

Chez la femme, le cancer de l'ovaire est le plus meurtrier et constitue la 5ème cause de décès par cancer dans les pays développés. Les chercheurs danois ont travaillé sur les données de l'étude Malova, réalisée entre 1995 et 1999 auprès d'un groupe de 756 femmes atteintes d'un cancer épithélial de l'ovaire (dont 447 carcinomes séreux) et auprès d'un groupe-témoin composé de 1.564 femmes âgées de 35 à 79 ans.

L'étude a montré que les femmes qui prenaient régulièrement de l'aspirine présentaient un risque de cancer de l'ovaire séreux diminué de 40 % (Odds ratio : 0,60). Fait intéressant, les chercheurs n'ont pas noté une diminution du risque chez les femmes qui utilisent régulièrement d'autres anti-inflammatoires non stéroïdiens. Comme le souligne la Docteure Kjaer : « Nos résultats confirment l’effet protecteur de l'aspirine contre le cancer de l'ovaire, mais il reste à évaluer le rapport bénéfices-risques d'une telle prévention car la prise d'aspirine augmente le risque d'ulcères hémorragiques ». Cette étude préconise un renforcement de la prévention contre le cancer de l'ovaire et notamment l’ablation des trompes de Fallope chez les patientes à risque.

Plusieurs études récentes ont confirmé que la prise régulière d'aspirine pouvait, sur le long terme, prévenir de manière efficace certains cancers. Selon une étude publiée en mars 2012, une prise quotidienne d’aspirine réduirait de 37 % les risques de cancer pendant 5 ans ou plus. Cet effet protecteur serait particulièrtement important pour les cancers de l'œsophage, de l'estomac et de l'intestin.

Article rédigé par Mark FURNESS pour RTFlash

AOGS

Détecter un cancer par une simple prise de sang
Vendredi, 12/10/2012 - 17:43

En ce mois d'Octobre, consacré à la sensibilisation au cancer du sein, des chercheurs de l'université de Leicester et de l'Imperial College de Londres ont annoncé qu'il était envisageable de pouvoir détecter à terme un cancer du sein à l'aide d'une simple prise de sang.

Dans l'Union européenne, un cancer du sein est diagnostiqué toutes les trois minutes et une femme continue à mourir de cette maladie toutes les huit minutes en dépit des progrès incontestables intervenus dans les traitements depuis 30 ans.

Actuellement, plusieurs méthodes de dépistage du cancer du sein sont employées et combinées : la mammographie (une radiographie des seins) ; l'échographie des seins ; la  biopsie et l' IRM (imagerie par résonance magnétique) du sein.

S'appuyant sur des prélèvements sanguins, les chercheurs anglais vont passer au crible l'ADN de milliers de femmes qui viennent se faire dépister pour le cancer du sein à l'hôpital de Charing Cross, à Londres. Ils compareront ensuite ces ADN à ceux de femmes n’étant pas touchées par ce cancer pour repérer les marqueurs spécifiques du cancer du sein.

L'idée est non seulement de pouvoir détecter très tôt un cancer du sein, ce qui augmente d'autant les chances de guérison mais également de personnaliser les traitements proposés en prévoyant les risques de récidive et en choisissant les médicaments les plus efficaces en fonction du profil génétique de la tumeur.

Le Professeur Jacqui Shaw, qui dirige ces recherches, souligne : "Nous voulons disposer d'un test sanguin permettant de détecter de manière sûre des signes très précoces de cancer" et de limiter strictement les examens complémentaires, comme la mammographie, qui ne sont pas toujours utiles et sont une source d'angoisse pour beaucoup de femmes."

Le professeur Charles Coombes, co-directeur de ces recherches et cancérologue à l'Imperial College souligne pour sa part : "Nos recherches auront également des apllications pour bien d'autres cancers et nous souhaitons à terme pouvoir détecter très précocement la plupart des cancers, à commencer par le cancer de l'intestin et du poumon."

Le HHS, le système de santé britannique, soutient activement ces recherches qui visent à permettre une prise une charge beaucoup plus efficace du cancer mais également moins pénible pour les malades et sensiblement moins coûteuse pour la collectivité.

Article rédigé par Mark FURNESS pour RTFlash

Université de Leicester

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'insécurité alimentaire et la pauvreté continuent à régresser dans le monde
Samedi, 13/10/2012 - 13:09

Les derniers rapports de l'ONU et de la FAO confirment un nouveau recul historique de la malnutrition et de la pauvreté dans le monde, tant au cours des 20 dernières années que du dernier demi-siècle.

Selon ce rapport,  852 millions de personnes dans le monde souffrent encore aujourd'hui de la faim mais le nombre total de personnes sous-alimentées a diminué de 132 millions entre 1990 et 2010, passant de 18,5 à 12,5 % de la population mondiale. Dans les pays émergents, ce pourcentage de personnes mal nourries est passé de 23,2 à 15 %.

L'ONU souligne que l'Objectif du Millénaire pour le développement, qui vise à réduire de moitié la proportion de personnes sous-alimentées dans le monde d'ici à 2015, peut être atteint.

En 1960, 57 % de la population mondiale vivait avec une ration alimentaire inférieure à 2 200 calories par jour alors qu'en 2010, 61 % de la population mondiale avait accès à une ration de plus de 2 700 calories journalières. Cette amélioration très sensible s'explique par une augmentation sans précédent de la productivité de l'agriculture mondiale : grâce à la "révolution verte", la production mondiale de blé a ainsi été multipliée par trois depuis 1960, passant de 220 à  672 millions de tonnes en 2011.

Si l'on prend le cas de l'Inde, on observe qu'en 1960, elle n'arrivait pas à nourrir sa population alors qu'elle est aujourd'hui exportatrice nette de produits agricoles. En dépit d'un triplement de sa population depuis 50 ans, elle a multiplié sa production de riz par 3,5 et sa production de blé par 6,5, tout en ayant réduit de 10 % le nombre de ses agriculteurs.

Ces rapports soulignent que "Le monde possède à présent les moyens d'éliminer toutes les formes de l'insécurité alimentaire et de la malnutrition".

D'après le Fonds international de développement agricole (Fida), la pauvreté régresse également dans le monde. Elle touche à présent 25 % de la population mondiale, contre 46 % en 1990. Depuis 50 ans, le développement économique mondial a permis à plus de trois milliards de personnes de sortir de la misère absolue et la pauvreté a davantage régressé dans le monde entre 1960 et 2010 qu'entre la Renaissance et le milieu du XXème siècle !

Contrairement à bien des idées reçues, depuis 20 ans, le revenu moyen par habitant n'a augmenté que de 11 % dans les pays développés, contre 41 % dans les pays émergents (au niveau mondial, ce revenu moyen par habitant a augmenté de 25 %).

Quant à l’espérance de vie à la naissance dans le monde, elle a continué à progresser de manière très importante depuis 1960, passant de 48 à 68 ans, soit un gain de 20 ans en seulement 50 ans ! Dans les pays en voie de développement, l'espérance de vie a progressé encore plus vite, passant de 43 ans en 1960 à 66 ans aujourd’hui, soit un gain de 23 ans.

Article rédigé par Mark FURNESS pour RTFlash

FAO

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top