RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 835
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Février 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Nadine, le nouveau robot de compagnie qui a du caractère !
Kompaï : le robot-compagnon des seniors !
Une ceinture vibrante qui indique son chemin à l’utilisateur malvoyant
Matière
Un chercheur français révolutionne le séquençage de l'ADN !
Spintronique et électricité à basse consommation se rapprochent
Terre
L'ampleur de la montée du niveau de la mer est sous-estimée
Les océans captent plus de chaleur
Vivant
Cancer de la peau : les bactéries aideraient les cellules cancéreuses...
Des micro-ARN pour réparer l'os
Parkinson : l'exercice physique, nouvel outil thérapeutique ?
La maladie d'Alzheimer détectable grâce à une simple odeur
La capacité de stockage de notre cerveau serait dix fois plus grande que prévue !
Un gant sensible pour détecter le cancer du sein
La théranostique, nouvelle arme anti-cancer
La mémoire des jeunes enfants peut-elle prédire le risque de décrochage à 12 ans ?
Cancer colorectal : une nouvelle piste hormonale...
Edito
"Le mystère éternel du monde est qu’il soit compréhensible, cela tient du miracle" (Albert Einstein)



Le jeudi 11 février 2016 restera marqué d’une pierre blanche dans l’histoire des sciences. C’est en effet ce jour-là que la communauté scientifique internationale a annoncé la première détection des ondes gravitationnelles, des ondulations dans l'espace-temps qu'Albert Einstein avait prédites il y a 100 ans... Cette découverte très attendue, résultat de plus d’un demi-siècle de recherches et d’avancées scientifiques patientes, confirme non seulement de manière éclatante l’une des prédictions majeures de la théorie de la relativité générale, mais lève également définitivement le doute sur l’existence et la nature des trous noirs.

"Nous l'avons fait", a déclaré Dave Reitze, directeur exécutif de l'Observatoire des ondes gravitationnelles Laser Interferometer (LIGO), à l’occasion d'une émission en direct du club de la presse américaine à Washington, ajoutant « Ces vagues gravitationnelles sont le résultat de la collision de deux trous noirs, événement qui remonte à 1,3 milliard d'années ».

Les signaux infinitésimaux produits par les ondes gravitationnelles ont été captés en utilisant deux interféromètres en forme de L, l'un en Louisiane et l'autre dans l'État de Washington. Les détecteurs sont munis chacun de longs bras de deux à quatre kilomètres de long, équipés de lasers et de miroirs d’une sensibilité et d’une précision extrêmes qui vibrent en réponse à l'étirement de l'espace sous l’effet de ces fameuses ondes gravitationnelles. Cette détection tant attendue, réalisée par l’équipe de l’instrument LIGO, aux Etats-Unis, en collaboration avec l'équipe franco-italienne de VIRGO, près de Pise, et de GEO600, en Allemagne, a fait l'objet d'une publication scientifique dans la prestigieuse revue Physical Review Letters du 11 février (Voir Physical Review Letters).

Cette découverte fait suite à une détection indirecte des ondes gravitationnelles en 1974, lorsque deux astronomes de l'Université du Massachusetts, Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993 - ont utilisé un radiotélescope pour observer une paire de rotation rapide des objets célestes connus comme un pulsar binaire. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle prévue par Einstein dans le cas où le système perdrait de l'énergie sous la forme d'ondes gravitationnelles.

Il faut bien comprendre que ces ondes gravitationnelles sont de petites déformations de la géométrie qui se propagent à la vitesse de la lumière. Elles sont, d’une certaine façon, similaires aux ondes électromagnétiques qui nous sont familières (celles que nous utilisons par exemple pour nos émissions de télévision, de radio ou nos communications avec nos téléphones portables) mais la différence majeure est que ces ondes ne se déplacent pas « dans » l’espace mais que c’est l’espace lui-même qui vibre. L’espace étant un milieu très rigide, ces ondes sont d’une amplitude infime, ce qui explique qu’elles soient si difficiles à détecter et qu’elles ne puissent être produites que par des phénomènes cosmiques extrêmes, mettant en œuvre des énergies colossales.

Véritable prouesse scientifique et technique, les chercheurs ont repéré l’infime effet du passage d’une telle onde, qui a la capacité étonnante de distordre les distances, de les allonger ou de les réduire très légèrement, ce qu’aucune autre onde n’est capable de faire. On comprend mieux les difficultés de détection de ce phénomène cosmique fondamental quand on sait que l’effet des ondes de gravitation correspond à des déformations de l’espace-temps qui sont environ un milliard de fois plus petit que la taille d’un atome (environ 10-19m).

Pour parvenir à mesurer une distance aussi infime, les chercheurs ont dû concevoir et combiner, depuis plus de 20 ans, une multitude d’innovations électroniques, mécaniques, optiques et informatiques, afin de pouvoir réaliser des « amplificateurs » géants. LIGO est ainsi fait de deux tunnels perpendiculaires de quatre kilomètres de long chacun. A l’intérieur, deux faisceaux laser, parfaitement synchronisés entre eux, effectuent un nombre infini d’allers-retours entre des miroirs. Si une onde gravitationnelle, même très ténue, interfère avec ce système, elle désynchronise ces lasers.

C’est exactement ce qui s’est passé le 14 septembre 2015 à 11 h 51 (heure française) sur les deux sites américains jumeaux construits en Louisiane et dans l’Etat de Washington à 3 000 kilomètres de distance. Les « sismographes » se sont agités avec 7 millisecondes de décalage. Il a ensuite fallu plusieurs semaines de vérifications pour écarter tout risque de mauvaise interprétation de ce signal, les chercheurs ayant déjà été échaudés par le passé en croyant détecter à plusieurs reprises ces ondes tant recherchées.

Le signal enregistré par les chercheurs précise, en outre, l’origine de cette secousse, apportant une seconde découverte majeure. Il s’agit de la fusion de deux trous noirs en un nouveau, deux fois plus gros. Le duo est, respectivement, vingt-neuf et trente-six fois plus massif que le Soleil, et situé à plus d’un milliard d’années-lumière de la Terre. « La masse finale du nouveau trou noir est 62 fois celle du Soleil. C’est moins que la somme des deux trous noirs initiaux qui est de 65 fois celle de notre soleil. C’est justement cette différence de masse qui été convertie en ondes gravitationnelles, conformément à ce que prévoit la théorie de la relativité générale », indique Nicolas Arnaud (CNRS) du Laboratoire de l’accélérateur linéaire à Orsay.

Si cette découverte est si importante, c’est parce qu’elle nous dévoile d'un coup une vue panoramique sur certains phénomènes cosmiques extrêmes, en élargissant le spectre des outils d’observation qui comptait déjà la lumière visible, les rayons X, les infrarouges, les ultraviolets et les ondes radio. Cette détection d’ondes gravitationnelles, bien que très difficile à réaliser, n’est pourtant pas une surprise. La relativité générale d'Einstein est en effet une théorie qui a fait l'objet d'une multitude de vérifications expérimentales depuis 1919 et ces expériences, de plus en plus sophistiquées, ont toutes parfaitement confirmé cette théorie magistrale dont on vient de célébrer les 100 ans il y a quelques mois. Il a notamment été démontré que les rayons lumineux étaient bien déviés sous l'effet d'objets de masse importante ou encore qu'une horloge s'accélère légèrement en altitude, par rapport à son homologue restée à terre...

Quant aux ondes gravitationnelles elles-mêmes, leur présence avait été repérée en 1978 à partir de l’observation de la rotation de deux pulsars détectés en 1974 et se tournant autour qui s’accélérait à cause de l’émission d’ondes gravitationnelles entre les deux objets. En revanche, jamais ces ondes n’avaient été ressenties et mesurées sur Terre. Fait remarquable, ce magnifique résultat scientifique est le fruit d'une coopération exemplaire entre plusieurs équipes de recherche américaines et européennes : l’Américain Rainer Weiss, du MIT, est à l’origine, dans les années 1970, des premières études précises pour la mise au point de futurs instruments. Kip Thorne, le physicien américain, a porté la réalisation de LIGO depuis 25 ans. Mais les Européens ont également contribué d’une manière décisive à cette découverte majeure, avec le tandem franco-italien constitué par Alain Brillet et Adalberto Giazotto qui a permis la mise au point des techniques optiques très sophistiquées indispensables au bon fonctionnement de Virgo. A cet égard, il faut rappeler que les miroirs capables de réfléchir les rayons laser sans aucune perte ont été mis ont point dans le Laboratoire des matériaux avancés du CNRS à Lyon. On peut donc se réjouir du fait assez rare que l’article décrivant la découverte dans les Physical Review Letters soit cosigné par l’équipe américaine de LIGO et les équipes de Virgo.

Pour mieux comprendre l’avancée considérable que représente la détection sur Terre de ces ondes gravitationnelles, il faut rappeler qu’Albert Einstein, grâce à sa double théorie de la relativité restreinte (1905) et générale (1915) a bouleversé les notions intuitives de temps, d’espace, de matière et d’énergie.

La relativité restreinte montre en effet que la description globale de l’Univers ne peut pas séparer le temps et les positions dans l’espace mais doit les considérer comme inextricablement liées : un point dans l’espace-temps est en fait un événement, c’est-à-dire une position attachée à un temps donné. Le temps absolu newtonien n’existe pas et dépend des vitesses relatives entre observateurs. C’est pourquoi, comme cela a été démontré avec une grande précision par plusieurs expériences réalisées à l’aide d’horloges atomiques synchronisées, une horloge qui se déplace affiche un temps qui s’écoule plus lentement qu’une autre qui reste fixe.

La relativité générale, qui intègre la gravitation, va encore plus loin que la relativité restreinte et montre que l’espace, loin d’être un simple « contenant », inerte et passif, est structuré par la force de gravitation, l’une des quatre forces fondamentales de l’Univers et celle qui domine à l’échelle cosmique, par rapport aux trois autres (la force électromagnétique, la force nucléaire forte et la force nucléaire faible). L’une des conséquences de la relativité générale est que, plus un objet est massif, plus il courbera l’espace-temps, un peu comme une boule de billard placée sur un drap tendu et qui s’enfonce en raison de son poids, alors qu’une bille légère restera à la surface du drap sans le déformer. En retour, la structure de l’espace-temps va obliger lumière et matière à suivre ses courbes. C’est dans cet espace-temps courbe et déformable que se propagent les ondes gravitationnelles qui distordent les distances, comme le son comprime l’air.

Comme le souligne le grand physicien français Thibault Damour, spécialiste de la relativité générale, cette première détection des ondes gravitationnelles représente une double découverte. En effet, si on avait déjà pu observer la propagation de ces ondes gravitationnelles entre deux pulsars (un type particulier d’étoile qui émet de très puissantes impulsions électromagnétiques), c’est bien la première fois qu’on voit des ondes gravitationnelles émises par un système binaire de trous noirs très distants.

Mais la deuxième découverte, encore plus importante que la première, selon Thibault Damour, est que cette détection d’ondes gravitationnelles confirme définitivement, pour qui en doutait encore, l’existence des trous noirs. Plus encore, cette observation nous renseigne sur la déformation que subit la structure intime de l’espace-temps au moment où deux trous noirs fusionnent.

Il faut également souligner que LIGO a réussi à capter ce signal très bref (deux dixièmes de seconde) alors qu’il n’était encore pas au maximum de ses capacités, ce qui laisse penser qu’il existe très probablement de nombreuses sources d’ondes gravitationnelles que les scientifiques vont apprendre progressivement à détecter, à classer et à faire correspondre à des événements cosmiques particuliers

En Europe, Advanced Virgo doit entrer en fonctionnement en automne 2016. Lorsqu’Advanced Ligo et Advanced Virgo seront pleinement opérationnels, ils exploreront un espace de ciel 1000 fois plus grand que les instruments initiaux ! Plus tard, un réseau d’instruments de plus en plus grands permettra l’avènement d’une nouvelle astronomie qui scrutera les objets astrophysiques grâce aux ondes gravitationnelles. Ce réseau va s’étendre dans la prochaine décennie avec Kagra au Japon et un 3e Ligo en Inde. A plus long terme, à l’horizon 2030, l’Agence Spatiale Européenne devrait lancer la mission eLISA : trois satellites formant un triangle d’un million de kilomètres de côté et disposant de faisceau laser longue portée. Cette configuration géante devrait permettre de franchir une nouvelle étape en permettant aux scientifiques « d’entendre » une multitude de vagues gravitationnelles, déferlant dans le Cosmos mais jusqu’ici inaudibles.

On peut bien sûr se demander quelles conséquences concrètes aura cette découverte, très fondamentale, dans nos vies quotidiennes et s’il est vraiment bien utile de consacrer sur de longues périodes des budgets relativement importants et de mobiliser des ressources humaines de grande qualité pour parvenir à de telles avancées scientifiques ? Je réponds sans hésiter oui à cette question légitime. Toute l’histoire des sciences depuis deux siècles nous montre en effet que les avancées théoriques majeures et les grandes découvertes fondamentales finissent toujours par produire des ruptures technologiques, industrielles et sociales de premier plan, même s’il faut parfois plusieurs décennies pour que ces découvertes changent notre vie.

Lenoir n’aurait pas pu mettre au point le premier moteur à explosion en 1860, ni Diesel le moteur qui porte son nom en 1897, sans les travaux de Sadi Carnot qui dégagea les grands principes de la thermodynamique en 1824. De la même façon, c’est parce que le génial savant écossais Maxwell a découvert les lois de l’électromagnétisme en 1865, qu’ont pu être inventés la radio à la fin du XIXème siècle, la télévision, en 1927 et le téléphone mobile dans les années 1960. Quant à l'ordinateur, aujourd'hui omniprésent dans nos économies, nos sociétés et nos foyers, il n'aurait pas pu être inventé sans les travaux remarquables réalisés entre 1936 et 1950 par le génial mathématicien anglais Alan Turing.

Si les grands physiciens du début du XXème siècle n’avaient pas décortiqué l’atome et découvert les particules et leurs propriétés, nous n’aurions pas pu mettre au point le Laser en 1960, ni utiliser la radiothérapie qui permet de soigner efficacement des millions de malades du cancer dans le monde.

Sans l’étrange mécanique quantique, élaborée pendant le premier quart du XXème siècle par quelques physiciens de génie (Planck, Einstein, Bohr, Schrödinger, Heisenberg, Dirac, De Broglie, Born…), nous ne serions pas en train de concevoir des ordinateurs quantiques dont la puissance de calcul défie l’imagination et qui vont ramener, sans doute au cours de la prochaine décennie, nos ordinateurs actuels à l’âge de pierre… Et que dire de la découverte de la structure de l’ADN en 1953 par Watson et Crick qui permet aujourd’hui de commencer à utiliser avec succès les premières thérapies géniques dans le traitement de maladies graves, je pense au syndrome de Wiskott-Aldrich, à la β-thalassémie, à la drépanocytose ou encore, plus récemment, à la leucémie aiguë lymphoblastique. Enfin, sans la relativité générale, nous ne disposerions pas aujourd’hui, partout dans le monde, de systèmes GPS d’une extrême précision qui permettent de nous orienter en toutes circonstances.

Je suis pour ma part convaincu que les avancées technologiques tout à fait remarquables qui ont été accomplies dans les domaines de l’optique, de la mécanique, de l’électronique ou des matériaux pour parvenir à détecter ces ondes gravitationnelles, trouveront un jour de multiples applications scientifiques et industrielles et finiront par transformer profondément notre vie quotidienne, comme l’ont fait en leur temps les découvertes de l’électron, des rayons X, du transistor, de la structure de l’ADN ou des nanotubes de carbone.

Mais cette première observation directe des ondes gravitationnelles devrait également ouvrir une nouvelle et puissante fenêtre d’observation pour la compréhension des mystérieux trous noirs (une appellation que l’on doit au physicien américain John Wheeler en 1967), qui restent à ce jour les objets les plus déroutants et les plus fascinants de l’Univers. Après avoir longtemps cru que les trous noirs étaient relativement rares, la majorité des scientifiques pense à présent qu’il en existe des milliards de toutes tailles dans l’Univers et qu’ils étaient déjà présents en grande quantité dès les premiers âges de l’Univers.

Il y a un an, une équipe internationale d’astrophysiciens a repéré, à une distance de 12,8 milliards d'années-lumière de notre Terre, un trou noir absolument gigantesque, d'une masse de 12 milliards de fois supérieure à celle du Soleil de notre système. Les scientifiques datent son apparition de 875 millions d'années après la naissance de l'Univers, ce qui fait que l’âge de cet immense trou noir n’est que de 6 % inférieur à celui de l’Univers. Ils l'ont baptisé "SDSS J0100+2802".  Problème, ces chercheurs sont incapables d’expliquer dans le cadre théorique actuel comment un trou noir aussi énorme a pu se former et se développer en si peu de temps...

Certains physiciens et cosmologistes, s’appuyant sur ces observations, pensent même que les trous noirs sont bien plus que des objets cosmiques curieux et « exotiques » et jouent en réalité un rôle tout fait essentiel dans l’organisation et la structure même de notre Univers, dans son évolution et peut-être même dans son origine. Selon une hypothèse formulée en 2000 par Niayesh Afshordi, astrophysicien au Perimeter Institute for Theoretical Physics à Waterloo (Canada), il est possible que notre Univers soit issu d’un trou noir résultant de l’effondrement d’une étoile quadridimensionnelle, elle-même issue d’un autre univers à quatre dimensions d’espace. Dans cette hypothèse, l’Univers à trois dimensions dans lequel nous vivons pourrait être l’une des « branes » d’un "Méta-Univers" plus vaste et éternel et possédant quatre dimensions d’espace… Ce modèle expliquerait l’étonnante uniformité de notre Univers, son « isotropie », comme disent les physiciens.

Mais s’il n’est pas exclu que notre Univers soit issu d’un trou noir à quatre dimensions, il est également possible que les trous noirs, souvent dépeints comme des phénomènes d’une extrême violence et totalement incompatibles avec la vie, aient en réalité joué un rôle déterminant dans l’apparition du vivant. En 2007, des chercheurs américains ont en effet constaté, en utilisant les observations du satellite XMM Newton, que les trous noirs possédaient la particularité de contribuer, via des flux de gaz interstellaire, à la nucléosynthèse primordiale, processus par lequel les étoiles fabriquent les éléments chimiques (carbone, oxygène, azote) indispensables à l’apparition de la vie.

Soulignons enfin que l’étude et l’observation directe de ces ondes gravitationnelles devraient également faire avancer la réflexion conceptuelle sur la construction d’une théorie quantique de la gravitation qui permette enfin une articulation plus satisfaisante et plus cohérente de la physique quantique et de la relativité générale.

Au-delà de ses inévitables et nombreuses retombées technologiques, si cette découverte est si importante, c’est parce qu’elle nous ouvre de nouveaux et vastes horizons sur notre Univers et qu’elle nous permet d’en saisir avec encore plus de profondeur son ordre, son harmonie et sa splendeur. Nous avons à présent la certitude que les quatre composantes fondamentales qui forment le réel : «  la matière, l’énergie, l’espace et le temps », qui en structurent à la fois la forme et le contenu, ne sont pas indépendantes mais intimement liées et qu’elles se coproduisent selon des lois tout à fait surprenantes qui semblent être éternelles et s’appliquer partout.

Après une telle découverte, nous devons plus que jamais continuer à gravir avec opiniâtreté, humilité et émerveillement, ces sentiers de la connaissance et laissons le dernier mot à Einstein qui écrivait en 1936, « Le mystère éternel du monde est qu’il soit compréhensible, cela tient du miracle ».

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Nadine, le nouveau robot de compagnie qui a du caractère !
Mardi, 16/02/2016 - 11:35

Des chercheurs de Singapour ont développé un nouveau type de robot humanoïde, baptisé Nadine, qui possède sa propre personnalité et peut exprimer son humeur et ses émotions en interagissant avec les humains. Elle est chaleureuse, souriante, elle vous saluera quand vous passerez et se souviendra de vous et de vos conversations la prochaine fois qu'elle vous croisera.

Construite à l'image de sa créatrice, le professeur Nadia Thalmann, Nadine a été conçue par des chercheurs de l'université où elle "travaille" aujourd'hui. Grâce à des logiciels comparables au Siri d'Apple ou à la Cortana de Microsoft, cette femme robot est capable d'interagir avec les êtres humains, en répondant à des questions simples.

Lorsque sa créatrice l'interroge sur sa profession par exemple, Nadine répond "Je suis une camarade sociable, je peux parler d'émotions et je sais reconnaître les gens". Selon le professeur Thalmann, elle serait même dotée de sa propre personnalité, aurait ses humeurs et serait capable d'émotions, à savoir être heureuse ou triste en fonction de la conversation. "C'est quelque part comme un compagnon qui est toujours avec vous et conscient de ce qu'il se passe", poursuit-elle. À terme, l'université a de grands projets pour ces robots humanoïdes.

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

Kompaï : le robot-compagnon des seniors !
Lundi, 15/02/2016 - 00:10

Le groupe mutualiste IMA a participé à un projet inédit de robot d’assistance au maintien à domicile des personnes âgées, une expérience récompensée par un prix au concours mondial d'innovation de l'Ecole polytechnique. Kompaï mesure 1,40 mètre et pèse 40 kg. Monté sur roue, il peut se déplacer partout dans la maison. A ce détail près qu'il s'agit d'un robot, de forme « semi-humanoïde », selon les spécialistes. Et son intelligence artificielle lui permet de presque tout faire. Il donne la météo, parle pour rappeler à son utilisateur qu'il est l'heure de prendre un médicament. Si besoin, il peut passer commande de courses.

C'est à la fois un téléphone et un système de visioconférence à lui seul, très pratique pour échanger avec des proches. Une façon de simplifier les relations avec des membres de sa famille ou des aidants, tout en favorisant le lien social. Il peut également, si besoin est, devenir un précieux auxiliaire médical et contrôler la tension, le pouls ou la température mais peut aussi appeler les secours.

Ce projet qui a vu le jour en partenariat avec la mutuelle Intériale et la start-up basque Robosoft, est une première en France. Il s'agit de « favoriser et sécuriser le maintien à domicile des seniors et démontrer son efficacité pour lutter contre l'isolement en apportant des solutions complémentaires aux aidés et aux aidants », explicite Franck Arnoult, responsable prospective chez IMA.

Franck Arnoult ajoute cependant "Nous ne sommes pas dans une philosophie de déshumanisation et le robot ne remplacera jamais l'aidant"…

Article rédigé par Georges Simmonds pour RT Flash

Robosoft

Une ceinture vibrante qui indique son chemin à l’utilisateur malvoyant
Dimanche, 14/02/2016 - 21:16

Ces dernières années, de nombreux dispositifs ont été imaginés pour faciliter le déplacement et l'orientation des personnes malvoyantes (au nombre de 285 millions dans le Monde selon l’OMS). La bague dotée de capteurs et de caméras, le smartphone qui filme l’environnement et dont les données sont traitées en temps réel et renvoyées à l’utilisateur sous forme de stimuli pour lui permettre de s’orienter, la canne intelligente qui prévient l’utilisateur par vibrations des obstacles situés au-dessus de la ceinture ou plus récemment le bracelet connecté qui repère les entraves à la circulation entre autres applications.

Cette fois, c'est une ceinture vibrante, développée par la société FeelSpace et les chercheurs de l’Institut de Sciences Cognitives à Osnabrück en Allemagne qui pourrait aider les personnes mal-voyantes à s'orienter plus facilement.

Le projet de ceinture Valid’Eye fonctionnait par radar laser et prévenait la personne qui présente une déficience visuelle par un signal sonore et cartes en braille. A l’inverse, Vibro Belt de FeelSpace communique avec l’utilisateur par vibrations. Couplé en Bluetooth avec sa propre application smartphone ou une autre de navigation comme Google Maps, l’appareil oriente l’utilisateur en vibrant.

Ce wearable est équipé de 32 petits moteurs répartis tout autour de la ceinture pour pouvoir indiquer quand et comment tourner. S’il faut aller à droite, une petite vibration se fera ressentir à droite de l’abdomen et se déplacera en même temps que l’usager jusqu’à ce qu’il soit dans la bonne position et que le signal arrive au centre du ventre. L’avantage de cette ceinture vibrante est de laisser les mains libres et de s’adapter aux mouvements de la personne.

Le prototype final devrait être prêt au printemps 2016 et coûter approximativement 800 dollars en attendant d’être pris en charge par les assurances santé. Susan Wache, la cofondatrice de cette entreprise, pense déjà à d'autres applications possibles "Par exemple, cela permettrait aux pompiers de sentir une vibration du côté où se trouvent leurs coéquipiers dans un immeuble. Ou alors un parent pourrait savoir dans quelle direction se trouve son enfant dans un centre commercial".

Article rédigé par Georges Simmonds pour RT Flash

Ars Technica

^ Haut
Matière
Matière et Energie
Un chercheur français révolutionne le séquençage de l'ADN !
Vendredi, 12/02/2016 - 12:05

Le chercheur Aurélien Bancaud qui travaille à l'interface de la physique et de la biologie au sein de LAAS de Toulouse (Laboratoire d'Analyse et d'Architecture des Systèmes, une unité qui regroupe des chercheurs du CNRS et de l' institut Carnot), vient d’être primé par la Société française de chimie pour avoir imaginé une nouvelle technique qui permet de séquencer l’acide désoxyribonucléique (ADN) en seulement dix minutes, au lieu des trois à quatre heures habituelles. Cette découverte ouvre des perspectives tout à fait nouvelles aussi bien dans le domaine de la criminologie que pour des tests de dépistage du cancer.

Ce chercheur du Laboratoire d’analyse et d’architecture des systèmes du Centre national français de la recherche scientifique (LAAS-CNRS)  réussissait, en 2012, à séquencer de l’ADN, en utilisant un champ électrique. « On a alors vu que ce champ électrique séparait l’ADN, sans besoin de matrice », explique le chercheur.

Pour séquencer l’ADN, et ainsi obtenir la carte d’identité génétique d’une espèce, la méthode principale depuis 30 ans consiste à déposer l’ADN sur une matrice, c’est-à-dire un moule servant à reproduire une empreinte, constituée d’une sorte de gel. On fait ensuite passer un courant électrique au travers de ce gel, et les morceaux d’ADN se déplacent en fonction de leur taille. L’image ainsi obtenue forme un « code-barres ». Mais la médiocre sensibilité de cette méthode nécessitait un important échantillon d’ADN, ce qui peut être difficile à obtenir, en particulier par la police scientifique.

La méthode mise au point par Aurélien Bancaud, baptisée « MicroLAS », n’utilise pas de matrice en gel : on fait passer directement le champ électrique dans l’ADN déposé non plus sur du gel mais sur une petite puce, semblable à une puce d’ordinateur, où sont collés des circuits fluidiques sur du silicium. Ces « laboratoires sur puce », comme les appelle M. Bancaud, sont « de 100 à 1 000 fois plus sensibles » que la matrice de gel. Il n’est donc en principe plus besoin, comme avec la méthode traditionnelle, de concentrer l’échantillon d’ADN avant le séquençage, afin d’en favoriser la lecture.

L’élimination de cette étape fait économiser environ une heure et demie. La préparation du gel n’est, elle non plus, plus nécessaire, ce qui rend inutile une autre étape d’environ une heure et demie.

« Le potentiel de cette technologie innovante est considérable », estime le LAAS. Car en réduisant le temps d’analyse nécessaire, on réduit le coût, même si cela n’est pas encore chiffrable. Le MicroLAS développé à Toulouse pourrait ainsi permettre d’accélérer les identifications en criminologie, mais il pourrait également révolutionner les tests de détection à partir d'un échantillon sanguin, pour identifier certaines maladies génétiques et certains cancers. 

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Spintronique et électricité à basse consommation se rapprochent
Vendredi, 12/02/2016 - 12:00

Des scientifiques de l'Ecole Polytechnique Fédérale de Lausanne (EPFL) ont identifié une nouvelle classe d'isolants topologiques et ont découvert sa première représentation matérielle, ce qui pourrait accélérer la mise en œuvre d'isolants topologiques dans diverses applications telles que les technologies électroniques.

Les isolants topologiques sont des matériaux qui laissent passer le courant électrique sur leur surface, mais l'empêchent de passer dans leur volume intérieur. Cette propriété exotique ouvre pour les isolants topologiques des perspectives très prometteuses pour l'électricité, en réduisant les pertes d'énergie, pour la spintronique, et peut-être même pour l'informatique quantique.

La recherche de ce type d'isolant implique un travail théorique capable de prédire les propriétés de la structure d'un matériau particulier. Les matériaux "candidats", qui sont identifiés au moyen de simulations informatiques, sont ensuite soumis à un examen expérimental pour déterminer si leurs propriétés d'isolant topologique répondent aux prédictions théoriques.

C'est le travail accompli par le laboratoire d'Oleg Yazyev à l'Institut de Physique Théorique de l'EPFL, en collaboration avec des collègues expérimentalistes du monde entier. En testant de manière théorique les candidats potentiels issus de la base de données de matériaux décrits auparavant, l'équipe a identifié un matériau, décrit comme une "phase cristalline" de l’ iodure de bismuth, comme le premier élément d'une nouvelle classe d'isolants topologiques. Ce qui rend ce matériau particulièrement intéressant est le fait que sa structure atomique ne ressemble à aucun autre isolant topologique connu à ce jour.

Après avoir caractérisé l’iodure de bismuth au moyen d'outils théoriques, les scientifiques l'ont testé expérimentalement avec une série de méthodes. La démonstration principale est issue d'une technique expérimentale directe appelée « spectroscopie à résolution angulaire ». Cette méthode, qui permet aux chercheurs de "voir" les états électroniques à la surface du matériau solide, est devenue une technique-clé pour prouver la nature topologique des états électroniques à la surface des matériaux. Les mesures, effectuées au Lawrence Berkeley National Lab, s'avèrent totalement conformes aux prédictions théoriques effectuées par Gabriel Autès, post-doctorant au laboratoire de Yazyev et auteur principal de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'ampleur de la montée du niveau de la mer est sous-estimée
Mardi, 16/02/2016 - 11:46

Des chercheurs allemands de l'Université de Bonn on montré que l'ampleur de la montée du niveau de la mer résultant du réchauffement des océans a été sous-estimée et représente près de deux fois ce qui avait été calculé jusqu'alors. De violentes tempêtes pourraient résulter de ce réchauffement, ont expliqué les scientifiques, dont les conclusions sont publiées dans les Comptes rendus de l'Académie américaine des sciences (PNAS).

Le niveau de la mer peut s'élever en raison de deux facteurs principaux : la fonte des glaces et la dilatation de l'eau avec le réchauffement. Jusqu'à présent, les chercheurs estimaient à entre 0,7 et 1 millimètre par an la montée du niveau de la mer liée au réchauffement. Mais après avoir regardé de près les dernières données satellite disponibles de 2002 à  2014, le niveau de la mer semble monter de 1,4 millimètre par an en raison de ce phénomène, apprend-on dans cette étude.

« A ce jour, nous avons sous-estimé à quel point la montée de la masse aquatique dans les océans liée au réchauffement contribue à la montée globale du niveau de la mer », explique un des auteurs, Jurgen Kusche, professeur à l'Université de Bonn. Quant au niveau général de la montée du niveau de la mer toutes causes confondues, il atteint 2,74 millimètres par an. La fonte de la calotte glacière et des glaciers y contribue pour 1,37 millimètre par an, détaille l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Scientific American

Les océans captent plus de chaleur
Vendredi, 12/02/2016 - 12:10

Selon une nouvelle étude publiée dans la revue "Nature climate change", les océans, qui captent 90 % de la chaleur supplémentaire générée par le réchauffement de la planète, en ont absorbé autant au cours des deux dernières décennies que depuis 1865. "Nous avons calculé que la moitié de la chaleur absorbée par les océans depuis 1865 l'a en fait été depuis 1997", a établi une équipe de scientifiques du Laboratoire national Laurence Livermore en Californie.

Si cette absorption massive de chaleur a permis de limiter le réchauffement de l'atmosphère, elle pourrait constituer une bombe à retardement, qui perturberait davantage le climat à l'avenir. "C'est un bienfait tout relatif", estime John Shepherd, un chercheur de l'Université de Southampton.

Ces travaux montrent que la chaleur emmagasinée par les surfaces marines pourrait modifier les circulations des courants marins et atmosphériques, et donc introduire une nouvelle perturbation dans le système climatique. Mais si une partie de la chaleur captée par les océans devait être restituée dans l'atmosphère, à la faveur de courants profonds qui remontent en surface, cela accentuerait le réchauffement et ses effets perturbateurs.

Cette étude souligne également qu'un tiers de la chaleur accumulée par les océans a été piégée dans les grandes profondeurs, à partir de 700 mètres. Pour Matt Palmer, des services météorologiques britanniques (Met office), l'étude "montre que le signal du réchauffement climatique se renforce avec le temps, et que ce signal se voit aussi dans les grandes profondeurs océaniques".

Article rédigé par Georges Simmonds pour RT Flash

Carbon Brief

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la peau : les bactéries aideraient les cellules cancéreuses...
Jeudi, 18/02/2016 - 14:09

Notre peau est recouverte de millions de bactéries qui, pour la plupart d'entre elles, contribuent à nous protéger. Mais dans le cas d’un lymphome cutané c’est une autre histoire. Alors les bactéries de la peau ou plutôt leurs toxines aident les cellules cancéreuses à prendre le dessus sur les cellules saines et contribuent ainsi au développement du cancer. Cette étude de l’Université de Copenhague, présentée dans la revue Blood, suggère ainsi que lutter contre l’infection bactérienne pourrait ralentir la croissance des cellules cancéreuses et stopper la maladie.

Les infections bactériennes sont d’ailleurs plus fréquentes chez les patients atteints de lymphome cutané dont la peau est plus fragile. Ces infections se multiplient avec le développement de la maladie. Le lymphome cutané à cellules T ou « T cutané » est caractérisé par une prolifération de cellules T malignes dans un environnement inflammatoire chronique. Avec la progression de la maladie, les bactéries colonisent la barrière cutanée et la moitié des patients décèdent de l'infection plutôt qu’en raison de la malignité. Des données cliniques ont déjà montré le rôle direct des bactéries dans la progression de ce cancer.

In vitro, l’équipe montre à partir de prélèvements de tissus de peau affectée de patients atteints, et d’isolats bactériens, qu’une toxine de Staphylococcus aureus (staphylococcal enterotoxin-A /SEA) stimule l’expression de 2 protéines, STAT3 et IL-17, dans les cellules T malignes, ce qui favorise l'activation d'une voie oncogénique établie bien documentée dans le développement du cancer (carcinogenèse). En bref, via ses toxines, la bactérie « profite » aux cellules cancéreuses et favorise leur croissance.

Dans le lymphome cutané, des cellules immunitaires spécifiques, les lymphocytes T CD4+ se transforment en cellules cancéreuses. L’étude montre que les toxines des bactéries permettent aux cellules cancéreuses d’envoyer des signaux perturbant le mécanisme de défense immunitaire qui, normalement, devrait lutter contre les cellules cancéreuses. Les bactéries pourraient donc contribuer à rendre le lymphome de la peau soudainement plus agressif chez certains patients. Selon ces recherches, la lutte contre les infections pourrait contribuer à ralentir la croissance des cellules cancéreuses et stopper la maladie.

Article rédigé par Georges Simmonds pour RT Flash

Blood Journal

Des micro-ARN pour réparer l'os
Jeudi, 18/02/2016 - 14:00

Des chercheurs de l’Université du Michigan ont mis au point des microsphères de polymère qui vont délivrer aux lésions osseuses des micro-ARN ordonnant aux cellules de réparer les dégâts. Cette technique pourrait révolutionner les techniques de réparation osseuse et soulager les millions de patients dans le monde qui souffrent de perte osseuse et des troubles fonctionnels associés.

Les chercheurs ont utilisé des microsphères de polymère pour introduire une molécule de microARN dans les cellules osseuses existantes, de manière à déclencher les processus de guérison et de renforcement osseux chez ces cellules.

Cette technique présente le grand avantage de mobiliser des cellules existantes pour réparer les lésions, ce qui évite l’introduction de cellules étrangères et donc limite le risque de rejet et de tumeurs. Une fois le microARN libéré, son effet va durer jusqu'à un mois ou plus. A terme, cette nouvelle technique pourrait s'appliquer dans de nombreux domaines médicaux : en dentisterie, pour combler des caries dentaires ou favoriser la croissance osseuse chez les patients recevant des implants, en chirurgie osseuse ou articulaire, ou simplement pour traiter l’ostéoporose.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Parkinson : l'exercice physique, nouvel outil thérapeutique ?
Jeudi, 18/02/2016 - 13:54

Selon une étude réalisée sur 762 patients par J. Eric Ahlskog, neurologue de la Mayo Clinic de Rochester (Minnesota, Etats-Unis), l'exercice physique pourrait améliorer la prise en charge de certains malades souffrant de Parkinson. Kinésithérapie et ergothérapie sont traditionnellement utilisées pour les stades avancés de la maladie de Parkinson. Dans les formes légères à modérées, en revanche, aucune amélioration de l’autonomie ou de la qualité de vie ne s’observe.

Pour J. Eric Ahlskog, "Il existe des preuves substantielles, bien qu’indirectes, qu’un exercice vigoureux régulier tel que le fitness ou l'aérobic peut avoir des effets neuroprotecteurs", écrit-il. En effet, des essais menés sur l’animal ont mis en évidence une augmentation de la production de protéines synaptiques et de neurones dans l’hippocampe, notamment.

Les travaux sur l’être humain concluent aussi à des effets positifs, souligne le neurologue : les régions cérébrales impliquées dans la cognition ont un volume plus étendu, le cortex gagne en connectivité. Les scores cognitifs des adeptes de l’activité physique sont également plus élevés. Ces derniers présentent moins souvent de maladies neurodégénératives du type Parkinson, démence et trouble cognitif léger.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

La maladie d'Alzheimer détectable grâce à une simple odeur
Jeudi, 18/02/2016 - 13:46

Des chercheurs du Monell Center et du ministère américain de l'Agriculture ont mené une étude à partir de trois types de souris, dont un groupe de rongeurs génétiquement modifiés pour imiter la maladie d'Alzheimer.

Comme la maladie d'Alzheimer est une maladie unique au genre humain, ces modèles de souris ont été créés pour étudier cette maladie plus en détail. Comme l'agrégat de plaque amyloïde dans le cerveau est un indicateur de la maladie d'Alzheimer, des gènes humains associés à cette accumulation de protéines ont été introduits dans le génome des rongeurs. Les souris ont ensuite développé une accumulation de plaques dans leurs cerveaux, en imitant la maladie d'Alzheimer.

Les chercheurs ont utilisé des analyses comportementales et chimiques de ces modèles de souris et ont trouvé qu'avant le diagnostic de la maladie, leur urine avait une odeur unique, facilement reconnaissable en comparaison avec l'urine des rongeurs témoins.

Bruce A. Kimball, l'auteur principal de cette étude, a commenté que son équipe avait réussi à montrer que "les signatures des odeurs urinaires pouvaient être altérées par des processus métaboliques associés aux précurseurs de maladie d'Alzheimer". Les différences d'odeurs étant même détectables avant le début du dépôt de plaque amyloïde.

Ces recherches laissent espérer la mise au point chez l'homme d'une nouvelle méthode de détection de la maladie en amont. Cela permettrait aux médecins de débuter le traitement plus tôt et ainsi ralentir le déclin cognitif. Ces résultats pourraient aussi permettre de détecter d'autres maladies neurologiques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La capacité de stockage de notre cerveau serait dix fois plus grande que prévue !
Jeudi, 18/02/2016 - 13:38

Selon une étude menée par Jerry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis), la capacité de stockage du cerveau pourrait être 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15). "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent en utilisant peu d'énergie, même à pleine puissance", souligne l'étude.

Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres.

Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules. Cette reconstitution 3D a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone.

Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux !

Ces travaux expliqueraient pourquoi notre cerveau, qui génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), parvient à stocker autant d'informations avec si peu d’énergie.

Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol.

Article rédigé par Georges Simmonds pour RT Flash

ELS

Un gant sensible pour détecter le cancer du sein
Mardi, 16/02/2016 - 12:00

Une équipe sino-américaine regroupant les professeurs Takao Someya et Sungwon Lee de l'Université de Tokyo, associés à Zhigang Suo de l'Université de Harvard, a mis au point un gant très fin et doré qui permettrait de mieux détecter le cancer du sein qu'un praticien expérimenté. C'est ce que vient d'annoncer cette équipe de chercheurs japonais et américains. Ils expliquent avoir conçu un matériau sensible très souple qui pourrait à l'avenir permettre de détecter plus finement par palpation une anomalie mammaire, signe d'un possible cancer du sein.Ce matériau semi-électronique à base de nanotubes de carbone peut former un gant capable de mesurer précisément les variations de pression.

Le monde scientifique sait depuis des années déjà qu'une structure de ce type peut en théorie constituer un excellent capteur de déformation ou de pression qui augmente la fiabilité des données avec un minimum de calculs et d'électronique. "Les doigts sensibles d'un médecin expérimenté sont capables de détecter une tumeur de petite taille mais ce qu'ils ressentent ne peut se mesurer" et se traduire en données numériques pouvant ensuite être partagées, souligne le professeur Takao Someya de l'Université de Tokyo.

"A l'avenir nous pourrions ainsi enregistrer et rendre tangibles certaines sensations qui ne peuvent être ressenties que par un praticien expérimenté", ajoute le professeur Someya.

Le prototype carré de 4,8 cm de côté créé permet d'évaluer la pression en 144 points simultanément. "Nous avons testé les performances de notre capteur avec un vaisseau sanguin artificiel et avons ainsi vérifié qu'il pouvait mesurer de faibles variations de pression", a précisé l'équipe. Cette membrane synthétique est originellement transparente mais une fois assemblée avec les transistors, commutateurs organiques et circuits, l'ensemble ressemble à une feuille de métal doré, dont l'épaisseur va de 3,4 à 8 micromètres (millionièmes de mètre).

Article rédigé par Georges Simmonds pour RT Flash

Nature

La théranostique, nouvelle arme anti-cancer
Mardi, 16/02/2016 - 11:52

Une nouvelle discipline biologique vient de faire son apparition : il s'agit de la "théranostique" (contraction de thérapie et diagnostic), qui consiste à étudier le comportement spécifique d'une tumeur afin de choisir le traitement le plus adapté.

Cette nouvelle approche utilise l'imagerie pour cartographier les cellules cancéreuses dans le corps et les traiter de manière ciblée. Elle est actuellement développée au CHUV de Lausanne sous la houlette de Niklaus Schäfer, médecin spécialiste de l'imagerie moléculaire et de la médecine nucléaire.

Avec la théranostique, l'idée est d'étudier la tumeur d'un patient de manière individualisée afin de proposer une thérapie adaptée à son propre cancer en utilisant l'imagerie fonctionnelle pour déterminer l'emplacement exact de la tumeur et des éventuelles métastases. Avec ce type d'imagerie médicale, on n'observe pas l'anatomie de la tumeur, comme c'est le cas avec l'IRM, mais son activité.

On a recours pour cela à des éléments radioactifs instables appelés isotopes qui émettent un rayonnement en se désintégrant. Ces isotopes peuvent être associés à des molécules, par exemple des anticorps, qui sont capables de reconnaître les cellules cancéreuses et de s'y fixer. On injecte au patient ces substances en très petite quantité et on observe dans quelles régions du corps apparaît un rayonnement, grâce à un dispositif d'imagerie appelé PET-Scan (Tomographie par Emission de Positrons ou TEP en français). Les régions qui s'allument correspondent aux cellules cancéreuses.

Une fois la tumeur localisée, on passe à la phase thérapeutique. On peut pour cela utiliser le même anticorps ou autre traceur de cellules cancéreuses que dans l'imagerie, mais cette fois en l'associant à un isotope radioactif puissant, qui va irradier directement la tumeur. On parle dans ce cas de radioimmunothérapie ou radiothérapie ciblée. D'autres traitements anti-cancer peuvent aussi être employés.

Article rédigé par Georges Simmonds pour RT Flash

Le Temps

La mémoire des jeunes enfants peut-elle prédire le risque de décrochage à 12 ans ?
Mardi, 16/02/2016 - 11:41

Selon une étude réalisée par des chercheurs du Centre Perform de l’Université Concordia, il serait souhaitable d'intervenir le plus tôt possible pour renforcer les capacités du petit enfant, dès l’âge de 2 ans. Ces travaux montrent qu'un enfant présentant, dès 2 ans, des difficultés de mémoire immédiate sera plus susceptible de décrocher, sur le plan scolaire, à l’âge de 12 ans. Cette étude, présentée dans la revue Intelligence, suggère aussi de limiter raisonnablement  le temps passé devant l'écran qui peut réduire, à la petite enfance, le contrôle cognitif et de favoriser les activités plus proactives.

Si les 2 principales conclusions sont que l’échec de l’enfant de 2 ans aux tâches de mémoire prédit le risque d’échec scolaire et qu’il vaut mieux, dans cette situation, chercher à renforcer ses capacités le plus tôt possible, explique Caroline Fitzpatrick, auteur principal de l'étude, il existe aussi des solutions pour les parents et les éducateurs.

L'étude a évalué 1.824 enfants, participant à la cohorte Quebec Longitudinal Study of Child Development, aux âges de 2 ans et demi, puis de 3 ans et demi, puis a analysé leurs comportements et leurs résultats scolaires à l’âge de 12 ans. L’analyse montre que les petits enfants qui obtiennent de bons scores aux tâches de mémoire de travail durant la petite enfance sont plus susceptibles de réussir à l'école par la suite.

Ceux qui obtiennent de mauvais scores aux âges de 2 et 3 ans sont plus susceptibles de décrocher à 12 ans et de ne pas suivre d’études secondaires et cela, indépendamment du Q.I. et du statut socio-économique. Il semble donc que, dès la petite enfance, des différences individuelles sont perceptibles et prédictives du risque de décrochage scolaire.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

Cancer colorectal : une nouvelle piste hormonale...
Lundi, 15/02/2016 - 00:00

Des chercheurs de la Duke University et de Harvard (Etats-Unis) ont montré qu'une alimentation trop riche augmente le risque de cancer colorectal. Mais, selon eux, une hormone, la guanyline, serait capable d'inverser les effets négatifs de ce type de régime et le développement des tumeurs.

Ces scientifiques ont réalisé une étude sur des souris génétiquement modifiées pour développer un cancer colorectal, pour comprendre si un régime alimentaire riche en calories augmentait le risque de cancer colorectal. Les scientifiques ont observé que ce type d'alimentation provoquait la modification de l'activité d'une hormone, naturelle gastro-intestinale, la guanyline. Elle ne fonctionne plus ainsi que son récepteur, le guanylyl cyclase C (ou GUCY2C) présent sur les cellules qui tapissent l'intestin. Or sa fonction est d'empêcher la croissance cellulaire anormale, associée à la croissance tumorale.

Les scientifiques ont administré aux rongeurs un médicament, le tamoxifène, dont un des effets est l'activation de la guanyline. « Chez des souris nourries avec un régime riche en graisses et chez qui les tumeurs ont été "encouragées" par de l'azoxyméthane, l'augmentation de la production de guanyline parvient à inverser les effets du régime hypercalorique et empêcher le développement des tumeurs » expliquent les auteurs de l'étude.

Les résultats de cette étude sont encourageants car le cancer colorectal est le 2ème cancer le plus mortel, tous sexes confondus, derrière le cancer du poumon. Et avec 42 152 nouveaux cas estimés en 2012 en France dont 55 % chez l'homme, il s'agit du troisième cancer le plus fréquent après le cancer de la prostate (56 841 nouveaux cas) et le cancer du sein (48 763).

Article rédigé par Georges Simmonds pour RT Flash

Cancer Research

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top