RTFlash

RTFLASH Recherche & Technologie
NUMERO 793
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Avril 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Une nouvelle méthode de détection précoce des cancers à partir de quelques gouttes de sang
Un projet européen pour des composants nanoélectroniques
Matière
Electricité -bleue- : une startup allemande révolutionne l'énergie hydraulique
Biomimétisme : un micro entonnoir en silicium augmente l'efficacité des cellules solaires
Vivant
Cerveau : de nouveaux types de cellules découverts
Susceptibilité au cancer du sein : 15 nouvelles mutations identifiées
Stress social et sérotonine : le lien se précise
Cancer du poumon : une avancée majeure par immunothérapie
Un nouveau médicament contre certaines maladies neurodégénératives
Le régime végétarien réduit les risques de cancer du côlon
Vers une insuline intelligente
Repos conscient ou inconscient : des signatures d’activités cérébrales distinctes
Découverte de gènes responsables de la taille des structures cérébrales
Cerveau : la prise de décision obéit à une logique hiérarchisée...
Cancer de l'estomac : une nouvelle avancée
Edito
IPv6 : Attention au "Big Crash"



Alors qu’il a fallu plus d’un siècle pour que le téléphone pénètre dans la majorité des foyers, il n’aura fallu que 25 ans pour que le Web grand public (apparu en 1990) s’impose au niveau planétaire : selon les dernières prévisions d'eMarketer, le nombre d'internautes dans le monde dépassera les trois milliards en 2015, ce qui représente 42 % de la population mondiale et ce nombre devrait atteindre les 4 milliards vers 2020, soit plus d’un terrien sur deux ! Parallèlement, le nombre d'abonnements au cellulaire mobile atteint à présent, selon des derniers chiffres de l’IUT, les 7 milliards, dont un tiers dispose d’un accès large bande au Net.

Depuis ses origines, l’Internet repose sur un protocole d’adressage appelé « IPv4 ». Une adresse IPV4 est codée sur 32 bits (une succession de trente-deux 0 et de 1), traduits en système décimal par quatre nombres allant de 0 à 255, séparés par des points. Il peut donc exister 2 puissance 32 (environ 4,3 milliards) adresses différentes. Mais en pratique, seules 3,7 milliards d’adresses sont réellement disponibles et le spectre d’une saturation complète des adresses Internet se rapproche inexorablement et ce à une vitesse qui grandit chaque jour.

Le problème est qu’Internet est devenu un réseau mondial d’une grande complexité et qu’il n'existe aucun autorité ou gouvernance unique et suffisamment forte pour imposer à tous les acteurs le basculement technologique nécessaire, à savoir le passage à l’IPV6.

Défini en 1998, ce nouveau protocole (Internet Protocol Version 6) est un protocole réseau qui, grâce à des adresses de 128 bits au lieu de 32 bits, dispose d'un espace d'adressage bien plus important qu'IPv4.On disait il y 15 ans qu’avec IPV6 une adresse IP pourrait être affectée à chaque grain de sable de notre Planète. Maintenant, les puristes vont beaucoup plus loin puisqu’ils précisent qu’il faudrait placer plus de 667 millions de milliards d’appareils connectés par millimètre carré de notre Terre pour saturer le système Cette quantité d'adresses considérable que nous pourrions confondre avec l’infini, permet une plus grande flexibilité dans l'attribution des adresses et une meilleure agrégation des routes dans la table de routage d'Internet. IPv6 dispose également de mécanismes d'attribution automatique des adresses et facilite la renumérotation. La taille du sous-réseau, variable en IPv4, a été fixée à 64 bits en IPv6. Les mécanismes de sécurité comme IPsec font partie des spécifications de base du protocole. L'en-tête du paquet IPv6 a été simplifié et des types d'adresses locales facilitent l'interconnexion de réseaux privés.

IPv6 élimine également le recours à la notion d’adresse privée. Avec le nouveau protocole, il n’y a plus que des adresses publiques, ce qui assure une connectivité complète sur l’ensemble du réseau. Enfin, en matière de sécurité, IPv6 intègre en standard le mécanisme IPSec, ce qui simplifie la configuration.

Mais si le déploiement d'IPv6 sur Internet est si lent et compliqué, c’est, entre autres raisons, à cause de l'incompatibilité des adresses IPv4 et IPv6. Pour tenter de surmonter cet obstacle et de gagner du temps, les fournisseurs d’accès ont développé des solutions transitoires complexes, les «Network Address Translation» (NAT) (traduction d'adresse réseau).

Le problème ne se situe donc pas au niveau des systèmes d'exploitation actuels, qui supportent l'adressage IPv6, même si nombre de modems et de « box » n’ont pas encore effectué leur migration vers ce nouveau protocole. Le véritable défi est du côté des fournisseurs d'accès à Internet, qui doivent déployer de nouveaux équipements réseau, ce qui représente un investissement considérable. Selon la majorité des experts du secteur, la pression sur la demande d’adresses IP nouvelles est telle que l’IPv4 va expirer, sans doute d'ici moins de 10 ans.

En outre, ceux-ci soulignent que la complexité, les coûts et les risques accrus liés à la cohabitation des deux protocoles vont pousser les acteurs à abandonner IPv4 rapidement mais cette mutation inévitable risque de s’effectuer dans la douleur et pourrait entraîner des « dysfonctionnements majeurs » dans le réseau, une perspective redoutée du monde économique mais également des responsables politiques, en raison de ses conséquences dommageables incalculables.

Bien entendu, les géants de l’Internet, qu’il s’agisse des fournisseurs d’accès ou des fournisseurs de contenus, n’ont pas du tout intérêt à voir se réaliser ce scenario d’un « big crash » du Web et semblent donc enfin, bon gré, mal gré, décidés à accélérer l’inévitable mutation vers l’IPV6 car celle-ci ne résoudra pas seulement le problème lancinant du manque d’adresses IP mais permettra également de disposer d’un Net infiniment plus sûr et performant.

A cet égard,  Blake Crosby, ingénieur canadien chez Fasly et spécialiste de l’Internet, a publié récemment un article très intéressant dans lequel il détaille les nombreuses avancées décisives que représente le passage de l’IPv6. Crosby souligne tout d’abord que l’IPv6 ne fragmente pas les paquets transmis. Il en résulte que les routeurs qui font transiter ces paquets peuvent utiliser la puissance informatique ainsi libérée pour accélérer le traitement des informations et la vitesse globale du réseau. En outre, avec l’IPv6, les entêtes de paquets sont bien plus simples.

Autre avancée majeure, Le mécanisme de « jumbogram » permet d’étendre la taille d’un paquet de 64 ko à 4 Go, sous réserve que la couche transport le permette. Cela permet de limiter le nombre de paquets qui doivent transiter pour acheminer un gros volume de données, par exemple le contenu d’un fichier multimédia.

Enfin, dernier point central, l’IPv6 permettra un véritable essor du Web mobile, grâce à la possibilité d’éliminer le routage triangulaire, qui réduit actuellement de manière sensible les performances du Web pour les utilisateurs de smartphones, de tablettes ou d'ordinateurs portables en situation de mobilité (Voir TeamArin). Ce Web mobile du futur, l’Internet 5G, devrait voir le jour dès 2020 et permettra de gérer l’explosion des échanges de données générée par l’Internet des objets grâce à une vitesse 100 fois plus grande qu’aujourd’hui. L’Alliance 5G qui vient de voir le jour à Barcelone est d’ailleurs présidée, et ce n’est pas un hasard, par Latif Ladid, qui est également président du Forum de l’IPv6…

Il y a, en effet, encore une autre raison qui pousse les acteurs du Net à basculer sur ce protocole du futur : l’extraordinaire montée en puissance de l’Internet des objets, qui va changer la nature même du Web. Evoquant cette perspective il y a quelques semaines, à l’occasion du Forum économique mondial de Davos, Eric Schmidt, le patron de Google, a d’ailleurs prédit la fin d’Internet. Selon lui, l’Internet tel que nous le connaissons va tout simplement disparaître et le Web va devenir totalement ubiquitaire et se fondre partout. « Il y aura tellement d’adresses IP, d’appareils, d’objets connectés, de capteurs, de choses avec lesquelles vous interagirez sans même vous en rendre compte », souligne Eric Schmidt, qui ajoute, « Demain tous les objets avec lesquels vous interagissez seront connectés au Net et dialogueront avec vous ; il en résultera un monde hautement personnalisé, hautement interactif et très intéressant ».

Ce scenario d’un monde totalement connecté est également celui prévu par l’IDATE, qui table sur 80 milliards d’objets connectés au Web en 2020. D’après cet institut, 85 % de ce total sera représenté par des objets, connectés directement à Internet ou via un terminal intermédiaire (où les données sont stockées dans le cloud), 11 % seront issus des terminaux communicants comme les smartphones et 4 % viendront du M2M (machine to machine).Cet Internet des objets représentera alors un énorme marché mondial, estimé à 1 500 milliards d’euros par le cabinet Gartner. Ce cabinet spécialisé prévoit par ailleurs qu’en 2020, 80 % de nos bâtiments et maisons seront connectés et que les « villes intelligentes » feront appel à près de 10 milliards d’objets connectés d’ici 2020 contre 1,1 milliard en 2015. 

Les deux fonctions principales de cet Internet des objets seront l’assistance et la prévention, sous toutes leurs formes. Tous nos lieux de vie, qu’il s’agisse de nos habitations ou de nos lieux de travail ou de loisirs, seront intégralement connectés d’ici quelques années et auront la « mémoire » de tous leurs occupants et de leurs habitudes. Des fonctions comme le chauffage, l’éclairage ou la sécurité seront prises en charge et intégrées au Net qui pourra les gérer de manière intelligente et personnalisée, en répondant exactement à nos attentes. Pour le seul domaine de l’éclairage intelligent par exemple, Philips prévoit que les objets connectés de la maison passeront de 6 millions en 2015 à quelque 570 millions en 2020…

Les transports seront également totalement bouleversés par l’Internet des objets et l’ensemble de notre réseau routier et autoroutier, ainsi bien entendu que l’ensemble de nos véhicules seront en permanence interconnectés au Net, ce qui permettra une autogestion optimale du trafic en temps réel, en fonction de l’environnement.

Mais c’est très probablement le secteur de la télésanté qui provoquera les plus grands bouleversements économiques, sociaux et culturels. Avec l’arrivée des bracelets et lunettes et des implants intelligents, notre santé et notre bien-être pourront être contrôlés en permanence par de puissants systèmes d’intelligence artificielle qui seront axés sur la mise en place d’une prévention médicale personnalisée et interactive.

Reste que cette société numérique et connectée ne pourra voir le jour et déployer toutes ses potentialités qu’avec le basculement vers l’IPV6 qui, seul, permet de générer un nombre quasi-infini d’adresses IP et de gérer de manière plus sûre et plus performante la complexité du Net. Pourtant, début 2015, le déploiement d'IPv6 restait encore limité en France, puisque, selon une étude de l’AFNIC, la proportion de serveurs web activés en IPv6 n’était encore que 9,5 % fin 2014 et celle des serveurs e-mail de 11 %... ! Ce retard est d’autant plus inquiétant que notre Pays était en tête de l’utilisation de l’IPv6 jusqu’en 2013. Mais depuis, comme le montre Google, il a été rattrapé et dépassé par l’Allemagne et les USA, où le taux moyen d’utilisation de l’IPv6 serait de 14 %, contre 5 % en France (voir Google).

Alors que l’IPv6 est disponible depuis plus de dix ans chez certains opérateurs (Nerim notamment) et que la Livebox Play lancée il y a deux ans était annoncée comme compatible avec ce “nouveau” protocole, Orange devrait enfin activer l’IPv6 sur son réseau grand public à partir de cette année. L’IPv6 va donc arriver dans les mois qui viennent chez les clients de l’opérateur, à condition qu’ils disposent d’une connexion VDSL ou fibre et d’une Livebox Play. Le support de l’IPv6 devrait être gratuit ; reste à savoir s’il sera activé d’office ou s’il s’agira d’une option. 

Face à ce qu’il faut bien appeler une inertie des acteurs concernés, qu’ils soient privés ou publics, un groupe de parlementaires a pris le taureau par les cornes et déposé en juillet 2014, une Proposition de Loi « Prévoyant une compatibilité totale de tous les périphériques avec l’IPv6 à partir de juillet 2015 » (Voir Assemblée Nationale)

Il y a malheureusement peu de chances que ce texte visionnaire soit adopté dans le contexte actuel, surtout quand on sait qu’à l’occasion du récent examen de la loi « Macron », l’Assemblée n’a pas non plus retenu l’amendement de Corinne Erhel, qui souhaitait obliger tous les équipementiers à vendre des terminaux compatibles avec la norme IPv6 à compter du 1er janvier 2017, au motif curieux que « Celui-ci relevait davantage du droit communautaire ». Devons-nous systématiquement attendre, dans une sorte de passivité résignée, que l’Europe nous impose ses choix pour prendre des mesures législatives ? Est-il interdit à notre Pays d’être à l’avant-garde d’une mutation techno-économique mondiale majeure ?

Face à cette situation et à ce qu’il faut bien appeler un attentisme regrettable de la part de certains acteurs publics et privés concernés, nous devons réagir sans tarder, comme le souligne avec conviction Hugues Clipet, Responsable Systèmes et Réseaux chez TelecityGroup France. Celui-ci, dans un excellent article publié en décembre dernier (Voir Informatique News), propose toute une série de mesures incitatives très intéressantes qui pourraient être mises en œuvre.

Premièrement, on pourrait mettre fin à la possibilité pour tous les équipements d’utiliser indifféremment les deux protocoles (IPv4 et IPv6) en parallèle. Ensuite, il faudrait prévoir le réglage par défaut en adressage IPv6, ce qui inciterait les entreprises à passer sur ce nouveau protocole. Autre mesure envisageable, une date butoir fixant l’arrêt d’utilisation d’IPv4, comme cela vient d’être décidé en matière de substitution des réseaux optiques ou réseaux cuivrés. Enfin, Hugues Clipet souhaite à juste titre que l’IETF (Internet Engineering Task Force), chargé de normaliser l’Internet 2.0, fasse de l’IPv6 son protocole natif.

Il serait pour le moins paradoxal et incohérent, alors que le récent rapport Champsaur préconise le basculement rapide vers l’Internet « tout optique » et l’abandon programmé du cuivre pour 2022, que notre Pays, après avoir été longtemps pionnier dans le déploiement de l’IPv6, rate ce train technologique majeur ! Si la France veut être à la pointe mondiale de cette civilisation de la Connaissance qui émerge, il est urgent qu’elle prenne, et ce, sans attendre la définition d’un nouveau cadre numérique européen, l’initiative d’adopter une loi-cadre ambitieuse et visionnaire qui accélérera et organisera de manière intelligente la « synergie numérique » entre les trois révolutions technologiques en cours dans l’Internet : le basculement vers le tout optique, le Web mobile et le passage intégral à l’IPv6.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Une nouvelle méthode de détection précoce des cancers à partir de quelques gouttes de sang
Mercredi, 01/04/2015 - 07:35

La revue du MIT vient de classer dans le palmarès des dix découvertes capitales de l'année celle du chercheur hongkongais Dennis Lo, directeur du Li Ka Shing Institute of Health Sciences et vice-doyen de la faculté de médecine de la Chinese University of Hong Kong (CUHK).

Ce chercheur avait été le premier, en 1997, à découvrir la présence d'ADN foetal dans le plasma du sang maternel. A l'époque, on avait seulement attribué à cette découverte la possibilité de déterminer le sexe du futur enfant par la détection du chromosome Y dans le plasma de la mère. Mais le Docteur Lo a vu plus loin et a compris qu'il tenait là un nouvel outil pour arriver à détecter de façon non invasive les éventuelles maladies génétiques par le séquençage du génome du foetus sans recourir aux tests habituels, plus lourds. Ce type de tests est aujourd'hui couramment employé pour la détection de la trisomie 21.

A présent, le Docteur Lo travaille sur une autre piste : prouver qu'il est possible d'utiliser le séquençage de l'ADN dans le sang comme un test de dépistage précoce des cancers. Ses travaux visent à dépister, grâce à la biopsie liquide, le cancer du foie chez des milliers de personnes porteuses de l'hépatite B, plus rapidement que par la technique aux ultrasons. Mais ce chercheur travaille également à la détection rapide et fiable d'un cancer très répandu en Chine : le carcinome de nasopharynx. Sur les 10.000 hommes déjà testés, il a été possible de détecter 17 cas de cancers, dont 13 à un stade très précoce, qui ont tous pu être traités par radiation et sont aujourd'hui guéris.

L'objectif du chercheur est de mettre au point un test sanguin qui, réalisé annuellement sur la population à risque, permettrait de diagnostiquer n'importe quel type de cancer. Le principe repose sur le séquençage rapide de millions de fragments d'ADN circulant librement dans le système sanguin et leur comparaison avec la carte génétique de référence du génome humain, pour dépister des motifs de réarrangement d'ADN révélateurs de la présence d'une tumeur.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Un projet européen pour des composants nanoélectroniques
Mardi, 31/03/2015 - 08:00

Un projet de recherche européen a effectué un grand pas en avant vers la miniaturisation des composants nanoélectroniques grâce à un nouveau matériau très prometteur, le silicène. Son objectif est de créer les composants du futur, beaucoup plus puissants et sobres en énergie.

Le silicène, un nouveau matériau semi-conducteur qui réunit les propriétés du silicium et du graphène, est l'un des principaux candidats pour la fabrication de circuits électroniques toujours plus fins, pour de futurs dispositifs intelligents.

"L'électronique est aujourd'hui intégrée dans plusieurs couches d'atomes de silicium. S'il est possible de les produire en une seule couche, il est possible de les réduire à des tailles nettement inférieures permettant de réduire les pertes de puissance et de rendre les dispositifs plus puissants et plus efficients", explique le Docteur Athanasios Dimoulas, coordinateur du projet 2D-NANOLATTICES, financé par l'UE.

Le projet 2D-NANOLATTICES a réalisé une innovation considérable en créant un transistor à effet de champ (FET) à partir de ce matériau innovant pour qu'il fonctionne à température ambiante.

Les FET sont des composants de commutation essentiels dans les circuits électroniques. Leur intégration dans une couche unique d'atomes de silicium (dans une structure de type silicène), puis le transfert de cette couche, cultivée sur un substrat d'argent, vers une autre couche faite d'une substance plus neutre, le dioxyde de silicium, est une réussite de taille. "Un transistor composé d'une simple couche de matériau comme le silicium est un défi qui n'avait jamais été réalisé auparavant, il s'agit donc d'une découverte capitale. Il sera possible, sur la base de ce résultat, de fabriquer des transistors jusqu'à 100 fois plus petits en épaisseur", ajoute le Docteur Dimoulas.

En outre, comme ces travaux ont montré qu'un transistor pouvait être réduit à  une seule couche 2D d'atomes, il devrait être possible de réduire également ses dimensions latérales, ce qui permettrait d'intégrer 25 fois plus d'électronique sur une même puce.

Article rédigé par Georges Simmonds pour RT Flash

2D-NANOLATTICES

^ Haut
Matière
Matière et Energie
Electricité -bleue- : une startup allemande révolutionne l'énergie hydraulique
Vendredi, 03/04/2015 - 00:00

Le développement des énergies propres ne passe pas seulement par de nouvelles installations photovoltaïques ou éoliennes mais également par les centrales hydroélectriques de nouvelle génération qui présentent l'avantage d’avoir une production prévisible. Ce sont ces avantages que Aquakin, une petite startup de Fürth (Bavière), fondée en 2013, veut exploiter à grand échelle avec la conception de petites centrales hydroélectriques, qui peuvent être utilisées quasiment partout où il y a des cours d'eau.

Cette société a déjà développé une large gamme de micro-centrales hydroélectriques pour de nombreuses applications : mobiles pour sac à dos, et/ou encore adaptables aux tuyaux d'eau potable. Les fondateurs d'Aquakin ont eu l'idée de permettre aux randonneurs et autres amateurs de plein air de produire de l'électricité avec un "chargeur" hydroélectrique portable appelé "liberté bleue" (Blue Freedom).

La centrale pèse 400 grammes et a une hauteur de 20 centimètres. En la mettant dans un ruisseau, elle est capable de générer une puissance de 5W et devrait être ainsi en mesure de charger un téléphone portable en une heure. Pour fournir de l'électricité à des maisons entières ou à des lotissements, Aquakin a développé un autre modèle : une petite centrale plate placée à une profondeur de 20 centimètres, qui fonctionne même dans des eaux à débit lent.

Concrètement, la centrale affiche une puissance de 20 kW et peut produire assez d'électricité pour alimenter plusieurs foyers. Sa production devrait commencer l'année prochaine pour un coût unitaire de 25000 euros.

Article rédigé par Georges Simmonds pour RT Flash

WiWo Green

Biomimétisme : un micro entonnoir en silicium augmente l'efficacité des cellules solaires
Jeudi, 02/04/2015 - 07:35

Une équipe de recherche de l'Institut pour les Nanomatériaux du Centre Helmholtz de Berlin, dirigée par Silke Christiansen, s'est inspirée de la remarquable structure de l'oeil d'un mammifère, la fovéa, pour concevoir par biomimétisme un équivalent inorganique pour une utilisation dans les cellules solaires.

Les chercheurs ont gravé côte à côte des entonnoirs micrométriques parfaitement verticaux dans un substrat de silicium. En s'appuyant sur des modèles de calcul ainsi que sur des expérimentations, ils ont pu tester la façon dont ces champs d'entonnoirs recueillent la lumière incidente et comment ils la transfèrent dans la couche active d'une cellule solaire en silicium. Ces nouvelles structures cônes augmentent ainsi l'absorption de la lumière de 65 % par rapport à un film de silicium de la même épaisseur, ce qui se traduit par une efficacité accrue du système photovoltaïque complet.

Selon les chercheurs, ces "entonnoirs de lumière" sont réalisables par les méthodes et technologies des semi-conducteurs actuels, telles que la gravure par ions réactifs ou la gravure chimique humide.

L'équipe veut à présent intégrer les entonnoirs de lumière dans de nouvelles cellules à faible coût et destinées à la production de masse. Elle poursuit également ses recherches sur l'utilisation de la structure d'entonnoir pour d'autres applications comme les LEDs et les capteurs. D'après Silke Christiansen, les premiers résultats sont prometteurs et leur utilisation dans un futur proche est envisageable.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cerveau : de nouveaux types de cellules découverts
Vendredi, 03/04/2015 - 00:04

Grâce à une nouvelle méthode sophistiquée d'analyse permettant d'examiner une cellule unique et de repérer quels gènes y sont actifs, des chercheurs suédois ont pu découvrir des types cellulaires présents dans le cerveau de souris que l'on ne connaissait pas. Un cerveau murin compte près de 100 millions de cellules (contre 65 milliards chez l'homme). Les cellules nerveuses ont un diamètre approximatif de 20 micromètres (un micromètre est un millième de millimètre) et les cellules gliales, un diamètre de 10 micromètres. Les chercheurs suédois ont examiné une à une près de 3000 cellules prélevées dans deux structures cérébrales, une certaine partie du cortex et l'hippocampe.

Ils ont ainsi pu montrer qu'il y avait neuf grandes classes de cellules réparties en 47 sous-classes. Ils ont également caractérisé un nouveau type de cellules nerveuses dans la couche la plus superficielle du cortex.

Comme le souligne Sten Linnarson, du Karolinska Institutet, "Si vous comparez le cerveau à une salade de fruits, vous pourriez dire que les méthodes précédentes consistaient à mettre la salade dans un mixeur et à noter la couleur du mélange en fonction de la zone du cerveau concernée. Aujourd'hui, on peut individuellement regarder chaque morceau de fruit, analyser ce qu'il contient et comment il interagit avec les autres".

Ces travaux ont également apporté des renseignements sur l'architecture du cerveau. Ils ont notamment montré que les cellules pyramidales du cortex cérébral sont bien organisées en couches successives.

Article rédigé par Georges Simmonds pour RT Flash

Science

Susceptibilité au cancer du sein : 15 nouvelles mutations identifiées
Vendredi, 03/04/2015 - 00:02

En analysant les données génétiques de plus de 120 000 femmes, les équipes du « Breast Cancer Association Consortium », un groupe de chercheurs international, a identifié 15 nouvelles mutations susceptibles d’augmenter le risque de cancer du sein, ce qui porte le nombre total de mutations à plus de 90.

Contrairement aux mutations de type BRCA1 et BRCA2, qui augmentent le risque de cancer du sein jusqu’à 55 %, les 15 nucléotides simples identifiés augmenteraient le risque de manière modeste lorsqu’ils sont pris individuellement. C’est l’accumulation des mutations qui génère un risque plus important.

D’après les auteurs, environ 5 % des femmes au Royaume-Uni porteraient un nombre assez important de ces mutations pour doubler leur risque de cancer du sein, qui passerait à 25 % sur la vie entière. Les chercheurs espèrent que cette découverte permettra de mieux évaluer le risque de chaque femme et de mieux cibler les programmes de prévention.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Stress social et sérotonine : le lien se précise
Jeudi, 02/04/2015 - 07:40

Des chercheurs de la Duke University ont montré que les cerveaux les plus sensibles au stress social sont également ceux qui sont déficients en sérotonine, une substance chimique essentielle, produite par le cerveau et également impliquée dans la dépression clinique. En montrant cette association entre vulnérabilité au stress et sérotonine, ces chercheurs pensent avoir trouvé une nouvelle voie thérapeutique qui pourrait soulager la dépression résistante aux traitements.

Dans cette expérience, les souris génétiquement déficientes en sérotonine s’avèrent plus vulnérables que leurs congénères normales aux stresseurs sociaux et ne répondent pas à un antidépresseur standard, la fluoxétine (Prozac), qui fonctionne en augmentant la transmission de la sérotonine entre les neurones. Ces souches de souris transgéniques appelées Tph2KI sont, de plus, porteuses d’une mutation extrêmement rare déjà identifiée chez un petit groupe de personnes souffrant de dépression majeure. Des niveaux insuffisants de sérotonine apparaissent donc comme un facteur de développement de la dépression en réponse à certains types de stress, dont le stress psychosocial.

Ces travaux ont également permis de montrer que cibler l’habenula latérale pourrait constituer une voie thérapeutique prometteuse pour le traitement de la dépression résistante : « Désactiver cette zone du cerveau d'une manière relativement non invasive pourrait présenter un meilleur potentiel thérapeutique », ajoutent les auteurs. En conclusion, l'étude a permis trois avancées importantes dans la compréhension de l'anxiété et de la dépression : le rôle de la carence en sérotonine, de l’hyperactivité de l’habenula latérale et de l’absence de β-caténine.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Cancer du poumon : une avancée majeure par immunothérapie
Jeudi, 02/04/2015 - 07:30

Le premier traitement d’immunothérapie dans le cancer du poumon vient de recevoir, au début du mois dernier, une autorisation de mise sur le marché (AMM) aux Etats-Unis après les résultats encourageants des essais cliniques. Deux essais cliniques, dont les résultats seront présentés au prochain Congrès de la Société américaine d'oncologie clinique, ont en effet montré l’efficacité et l’innocuité du nivolumab dans le traitement du cancer du poumon.

Ce médicament d’immunothérapie inhibe un mécanisme cellulaire qui empêche le système immunitaire de se défendre contre les cellules tumorales. Pour le Professeur Fabrice Barlesi, cancérologue à l'hôpital Nord de Marseille (Bouches-du-Rhône), le nivolumab pourrait bien changer la façon de traiter les patients atteints de cancer du poumon. Celui-ci souligne que « La tolérance de ces traitements est majoritairement excellente, avec peu d'effets secondaires. Les effets secondaires ressemblent à ce qu'on a lors d'une infection virale ».

Face à ces excellents résultats, la FDA a ensuite accordé au nivolumab un examen en procédure accélérée. Aux Etats-Unis, le médicament est désormais autorisé dans le traitement du cancer du poumon non à petites cellules épidermoïde de stade métastatique, après échec du traitement de référence. C’est la première fois qu’un traitement d’immunothérapie bénéficie de ce statut dans le cancer du poumon. 

Article rédigé par Georges Simmonds pour RT Flash

Oncology Nurse Advisor

Un nouveau médicament contre certaines maladies neurodégénératives
Mercredi, 01/04/2015 - 07:40

L'équipe du professeur Luke O'Neill, qui dirige le Département de biochimie du Trinity Biomedical Sciences Institute, a identifié un nouveau médicament qui pourrait être capable de stopper la progression de maladies comme la sclérose en plaques, la maladie d'Alzheimer, l'arthrite rhumatoïde et d'autres maladies inflammatoires.

Les premiers tests sur des souris ont montré que ce médicament pouvait bloquer instantanément la sclérose en plaques et l'intoxication sanguine chez les souris. Lorsqu'il a été testé sur des échantillons de sang humain, ce médicament a aussi stoppé la progression d'une maladie inflammatoire appelée le syndrome de Muckle-Wells, qui se traduit notamment par une perte d'audition progressive et significative.

Ce médicament, appelé MCC950, semble pouvoir bloquer précocement le mécanisme qui déclenche la réponse inflammatoire à l'infection en inhibant l'action d'une substance pro-inflammatoire dans le corps, appelée NLRP3. L'équipe a pu, par la même occasion, confirmer que les maladies inflammatoires suivent le même processus, même quand différentes parties du corps sont touchées.

Cette molécule était déjà connue pour ses propriétés anti-inflammatoires mais sa voie de fonctionnement demeurait encore inconnue. Le professeur O'Neill a collaboré avec les universités du Michigan, de Queensland, du Massachusetts et de Bonn.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Le régime végétarien réduit les risques de cancer du côlon
Mercredi, 01/04/2015 - 07:30

Des chercheurs de l'Université Loma Linda de Californie ont suivi pendant sept ans 77 659 personnes, végétariennes ou non. A l'issue de cette étude, 380 participants avaient contracté un cancer du côlon et 110 un cancer du rectum. Le régime alimentaire de chaque participant a ensuite été renseigné par questionnaire, en différenciant les omnivores de plusieurs types de végétarisme (végétalisme, lacto-ovo végétarisme, pesco-végétarisme et semi-végétarisme).

Résultats : le végétarisme diminuerait le risque de développer un cancer colorectal de 22 %. Toutefois, l'étude montre qu'il existe des variations de ce risque selon le type de régime végétarien suivi. Ainsi, le végétalisme excluant les œufs et les produits laitiers réduirait le risque de 16 %. En revanche, le pesco-végétarisme contenant du poisson et des crustacés réduit le risque de 43 %.

« On savait déjà que le poisson avait des effets plus prononcés que la viande blanche, elle-même plus bénéfique que la viande rouge, mais aujourd'hui cela ne fait pas encore partie des conseils diététiques pour réduire le risque de cancer colorectal, qui se limitent à manger cinq fruits et légumes par jour, éviter les graisses saturées et faire une demi-heure de sport par semaine », explique Michel Ducreux, chef de service de gastro-entérologie de l'Institut Gustave Roussy.

Cependant, il faut garder en mémoire que le risque de cancer colorectal n'est pas uniquement associé au régime alimentaire, il dépend aussi des facteurs génétiques. Rappelons que chaque année, le cancer colorectal touche près de 42 000 personnes et cause plus de 17 500 décès.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Vers une insuline intelligente
Mardi, 31/03/2015 - 08:10

Des chercheurs du Massachusetts Institute of Technology (MIT) ont mis au point une "insuline intelligente" qui contient un interrupteur moléculaire lui permettant de répondre directement aux niveaux de glucose dans le sang et de mettre ainsi la glycémie sous contrôle.

Injectée à des souris diabétiques, cette insuline intelligente parvient à normaliser leur glycémie pendant 13 heures, y compris lorsque les souris viennent juste de recevoir du glucose.

Aujourd’hui, la prise en charge du diabète de type 1 nécessite de fréquentes injections d’insuline pour stabiliser le taux de glucose sanguin ou glycémie. L’équilibre reste difficile, car ces niveaux de glucose peuvent fluctuer tout au long de la journée. Ce concept d'insuline intelligente pourrait permettre d’améliorer considérablement la qualité de vie de ces patients diabétiques.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Repos conscient ou inconscient : des signatures d’activités cérébrales distinctes
Mardi, 31/03/2015 - 08:05

Selon une étude réalisée par une équipe argentine de l'Université de Buenos Aires, au repos, le cerveau se comporte différemment si l’individu est réveillé, c’est-à-dire conscient, ou endormi.

Plusieurs travaux avaient déjà montré que le cerveau au repos est actif et présente une activité spontanée permanente. Cette activité n’est pas stable dans le temps et les connexions entre différentes aires cérébrales varient, reflétant une succession de synchronisations et désynchronisations entre différentes aires.

Mais l’organisation de cette activité restait un mystère. "Il est en effet important de distinguer le réseau anatomique, qui repose sur les liens physiques entre la matière blanche et des régions distantes du cerveau avec lesquelles elle est directement reliée, et le réseau fonctionnel, qui résulte de la synchronisation d’aires cérébrales distinctes sur le plan anatomique", précise Pablo Barttfeld, coauteur de ces travaux.

Ces recherches ont pu montrer que les deux réseaux interviennent, mais leur contribution respective varie selon l’état de conscience ou d’inconscience de l’individu. Sous anesthésie, les connexions les plus fréquentes dérivent de connexions anatomiques. A  l’inverse, quand le sujet est conscient, l'organisation des connexions est beaucoup plus complexe et dépasse l’architecture anatomique du cerveau.

"Cette complexité signe l’état de conscience. Elle pourrait servir de marqueur pour détecter des signaux de conscience au cours d’une anesthésie ou chez des patients dans le coma, présentant des lésions cérébrales. C’est d’ailleurs la prochaine étape de ces travaux", explique Pablo Barttfeld.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Découverte de gènes responsables de la taille des structures cérébrales
Lundi, 30/03/2015 - 08:10

Dans le cerveau, les régions sous-corticales constituent des relais entre le cortex et certaines zones périphériques impliquées dans la motricité et la mémoire. Leur taille serait corrélée aux performances cognitives, un phénomène observé dans la maladie d’Alzheimer.

Le CEA-I2BM, en partenariat avec l’INSERM, le CNRS et l’Université de Bordeaux, a réalisé une vaste étude comparant des données d’imagerie IRM avec des analyses génétiques de 30 700 individus afin de trouver d’éventuels variants génétiques responsables de variations de la taille des régions sous-corticales. Ces travaux ont permis de montrer que les volumes des structures sous-corticales s’avèrent conditionnés génétiquement. En effet, 5 variants génétiques ont été reliés à une taille anormalement faible de certaines régions sous-corticales, notamment le putamen, impliqué dans le contrôle du mouvement.

Un autre variant génétique a été directement lié à un hippocampe de petite taille, une zone essentielle pour les processus de mémorisation. L’identification de ces anomalies génétiques ouvre un nouveau champ d’exploration du développement cérébral normal et pathologique.

En outre, connaître la cartographie sous-corticale d’un individu permettrait d’évaluer plus précisément ses facteurs de risque de développer une pathologie neurodégénérative, comme les maladies de Parkinson ou d’Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

GenomeWeb

Cerveau : la prise de décision obéit à une logique hiérarchisée...
Lundi, 30/03/2015 - 08:05

Selon une étude réalisée par des chercheurs de l'Institut d'Okinawa au Japon, une région clé du cerveau impliquée dans la prise de décision, nommée "striatum", fonctionnerait de manière hiérarchique et coordonnée, similaire à celle d'une "entreprise traditionnelle" avec un dirigeant, un cadre intermédiaire et un ouvrier. Ce nouveau schéma met à mal la vision qui consistait à considérer que les trois régions qui constituent le striatum (ventral, dorso-médian et dorso-latéral) remplissaient chacune un rôle distinct sans "travailler" les unes avec les autres.

Les chercheurs ont ainsi constaté que les trois régions du striatum travaillent ensemble dans les différentes phases du processus de décision : le striatum ventral (VS) était le plus actif au début, lorsque le rat a dû choisir s'il participerait à l'activité proposée (ou non). Le striatum dorso-médian (DMS) s'est occupé de la décision suivante, à savoir s'il fallait se diriger vers l'orifice situé à gauche ou celui de droite. Le striatum dorso-latéral (DLS) est plusieurs fois intervenu au cours de l'ensemble de l'exercice. Selon les chercheurs, ce dernier serait particulièrement impliqué dans le contrôle des mouvements de motricité fine liés à la prise de décision (nécessitant précision et dextérité).

Selon les chercheurs, le striatum ventral jouerait le rôle de chef d'entreprise, en décidant d'effectuer une nouvelle tâche ou non, le striatum dorso-médian celui du cadre intermédiaire, en évaluant l'orientation à prendre, et le striatum dorso-latéral celui de l'ouvrier qui réalise la tâche.

Article rédigé par Georges Simmonds pour RT Flash

JDN

Cancer de l'estomac : une nouvelle avancée
Lundi, 30/03/2015 - 08:00

A l'issue d'une étude clinique de phase 2, AB Science a annoncé que son médicament expérimental, le masitinib, permettait des résultats intéressants chez les patients atteints dadénocarcinome oesophago-gastrique, non opérable et métastatique, en rechute après un traitement de première ligne.

La société biopharmaceutique qualifie ces résultats d' "encourageants". Pour cette étude, les patients ont reçu du masitinib en combinaison à l'irinotecan (agent de chimiothérapie), ou au Folfiri (irinotécan, 5-fluorouracile et acide folinique), ou au 5-fluorouracile, après l'échec d'une chimiothérapie de première ligne à base de platine.

"Les données de tolérance ont montré que le masitinib en combinaison avec l'irinotecan présentait un profil de tolérance acceptable", indique AB Science. Les données de tolérance ont également montré que le masitinib en combinaison avec Folfiri présentait un profil de tolérance acceptable.

Ces résultats justifient le lancement d'une nouvelle étude comparative de phase 3 du masitinib en combinaison avec d'autres produits. "Si l'augmentation de la survie globale est confirmée, le masitinib pourrait être une nouvelle option thérapeutique dans le traitement de cette maladie.", estime ainsi le Professeur Julien Taieb de l'hôpital Européen Georges Pompidou, qui rappelle que le cancer de '`estomac est le cinquième cancer le plus répandu dans le monde et le troisième cancer le plus mortel.

Article rédigé par Georges Simmonds pour RT Flash

Pipeline Review

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top