RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 791
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Mars 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Des nanodrones pour éliminer le cholestérol
Matière
Vers une miniaturisation extrême du guidage de la lumière sur de grandes distances
Le premier interrupteur quantique
Terre
La forêt amazonienne dépend du Sahara pour sa survie !
Une levure pour remplacer l'huile de palme
Vivant
Trop dormir pourrait accroître les risques d'AVC...
Deux fumeurs sur trois mourront du tabac !
Femmes mures : un peu d'exercice diminue le risque cardiovasculaire !
Un programme capable de détecter l’effet placebo
Les gènes qui contrôlent le cerveau
Découverte d’un lien génétique entre l’autisme et la maladie d'Alzheimer
Le syndrome de fatigue chronique serait une véritable maladie
VEGF-C, un facteur de croissance indispensable pour fabriquer de nouveaux neurones
Cancer du pancréas : premier essai de thérapie génique
AVC : un nouveau traitement révolutionnaire
Edito
Neutralité du Net : Avons-nous bien conscience de son importance ?



Le 26 février dernier la Commission Fédérale des Communication des Etats-Unis (FCC) a pris une décision très attendue qui va avoir des conséquences considérables sur l'avenir du Web mondial et plus largement sur l'utilisation et le développement des technologies et outils numériques sur l'ensemble de la planète. Au terme d'un long débat, l'instance de régulation des télécoms a en effet adopté un nouveau cadre réglementaire visant à assurer un Internet, fixe ou mobile, "libre, ouvert et rapide".

Concrètement, les fournisseurs d'accès à Internet ne pourront plus décider librement de favoriser, pour des raisons strictement commerciales, certains flux par rapport à d'autres et ne pourront pas non plus bloquer des contenus légaux. L'Etat et l'administration américaine devront par ailleurs investir pour concurrencer les géants des télécoms et limiter ainsi leur influence. Cette décision, qualifiée d'historique par la plupart des grands medias américains, n'a pas fait plaisir du tout, on s'en doute, aux fournisseur d'accès Internet (FAI) et opérateurs de télécoms qui parlent de "Guerre nucléaire" mais elle a le mérite de clarifier une situation juridique ambiguë et complexe qui était devenue intenable puisque toutes les mesures de la FCC visant à assurer les principes de neutralité du Net étaient régulièrement attaquées en justice par ces géants comme Verizon, Comcast, At&T ou Time Warner. 

Cette décision a réjoui en revanche les gros producteurs de contenus, ainsi que les acteurs du monde des start-up, qui réclamaient avec beaucoup de force l'égalité de tous les acteurs du Net, quelle que soit leur taille. A cet égard, il est intéressant de rappeler que le géant numérique mondial Google, dont la plate-forme YouTube consomme à elle seule 15 % de la bande passante du Net, a réaffirmé en septembre dernier son attachement au principe de neutralité du Net en soulignant que "Que nous soyons grands ou petits, nos valeurs restent les mêmes : Internet doit être concurrentiel et ouvert. Si les fournisseurs d'accès à Internet peuvent bloquer des services et fournir un accès prioritaire aux contenus de certaines entreprises, cela menacerait l'innovation qui rend Internet génial ».

Les cinq membres qui composent la FCC ont considéré, par trois voix contre deux, que l’Internet américain devait désormais être considéré comme un « bien public » au même titre que le réseau téléphonique. En conséquence, la Commission se donne le pouvoir de faire appliquer la neutralité d'Internet sur le territoire américain. La Commission peut également désormais interdire aux fournisseurs d'accès à Internet de bloquer arbitrairement des contenus légaux, de ralentir ou d'accélérer les flux de données sans justification ou d’établir une « hiérarchie de priorités » pour certains contenus dont le tarif d’acheminent sur le Net serait majoré.

Cette décision de la FFC constitue une victoire incontestable pour les tenants de la neutralité, même si l’ensemble des dispositions techniques très complexe, représentant plusieurs centaines de pages de rapport, n’est pas encore rendu public. « C'est un jour historique pour l'Internet et ses utilisateurs » a notamment souligné Erik Stallman, le directeur de l'Open Internet Project, un des organismes en pointe dans ce combat pour la défense de la neutralité du Net.

Chez les grands opérateurs de télécommunications, le son de cloche est évidemment tout différent et Verizon, faisant allusion à la grande loi fédérale américaine de 1934 sur les télécommunications, a par exemple regretté que « la FCC ait approuvé, à la demande insistante du président Obama, des règles datant de l'époque de la locomotive à vapeur et du télégraphe ».

Mais que signifie concrètement ce principe de « neutralité du Net » ? C’est assez simple, cela veut dire qu’en application de cette règle, toutes les données doivent être traitées de manière identique sur le Web, quelle que soit leur destination ou leur point de départ. Selon ce principe, tous les fournisseurs d'accès à Internet sont donc tenus d’acheminer dans les mêmes conditions les données à leurs clients, qu'elles proviennent d'un géant du numérique, comme Google ou Amazon, ou d'un artisan installé au fin fond du Wyoming…

Si ce principe, véritable clé de voûte du Net, n’existait pas, les fournisseurs d'accès à Internet, qui font déjà payer leur connexion à leurs clients, pourraient en plus facturer les fournisseurs de contenus (sites Web ou vidéo...) lorsque ceux-ci empruntent leur réseau et le montant de ce "péage" serait alors proportionnel au débit et à la qualité des « autoroutes numériques » empruntées par ces FAI.

Il n’est pas nécessaire d’être polytechnicien pour comprendre que, dans un tel scénario, on aboutirait rapidement à un Internet à plusieurs vitesses : il y aurait, d’un côté, les géants du numérique, les grandes entreprises et les collectivités locales prospères qui auraient les moyens de bénéficier en toute circonstance d’un Internet extrêmement performant et rapide et, de l’autre côté, des myriades de sites beaucoup plus modestes de petites entreprises, artisans, associations et petites collectivités locales qui devraient se contenter d’un Internet basique moins fiable et bien moins rapide.

Au niveau des consommateurs, la fin de la neutralité du Net pourrait se traduire par des sites plus rapides que d'autres, des accès bloqués à certains sites Internet ou encore une facturation « à la carte », en fonction des services utilisés et des sites Web consultés. Récemment, les internautes américains abonnés à Netflix ont déjà pu avoir un aperçu des effets concrets d’un tel Internet à deux vitesses : début 2014, le fournisseur d’accès Comcast, au terme d’un long bras de fer, a réussi à faire plier Netflix qui a dû se résoudre à se passer d’un opérateur de transit et à payer directement Comcast pour pouvoir bénéficier d’un débit suffisant pour ces flux vidéo et proposer ainsi à ses clients un service d’une qualité suffisante.

Selon les opposants à la neutralité du Net, essentiellement les grandes entreprises de télécommunication, une régulation plus encadrée de l’Internet risquerait de pénaliser les lourds investissements nécessaires au développement de nouvelles infrastructures optiques et correspondant à l’explosion du nombre d’utilisateurs et des nouveaux services sur le Web.

Mais ces arguments n’ont pas convaincu le président de la Commission fédérale des communications, Tom Wheeler, qui a déclaré , au cours des débats préalables à la décision finale du 26 février dernier , « Internet est le vecteur ultime de la liberté d'expression et c’est un outil tout simplement trop important pour permettre aux fournisseurs d'accès à Internet d'être ceux qui fixent les règles ».

Si la mobilisation des différents groupes de pressions, en faveur ou contre la neutralité du net n’a pas été une surprise aux États-Unis, compte tenu de l’importance des enjeux économiques et financiers, il n’en a pas été de même pour le débat suscité et alimenté par les internautes américains. Ceux-ci ont en effet adressé plus de quatre millions de messages à la Commission pour demander le respect, voire le durcissement des règles protégeant la neutralité de l’Internet.

Ce grand débat de société a été largement relayé et amplifié par la puissance des médias américains, à tel point que certains observateurs n’hésitent pas à affirmer que le courant d’opinion démocratique très puissant et très rapide qui s’est manifesté aux États-Unis en faveur de la neutralité du Net a eu un impact déterminant sur la décision finale de la Commission.

Commentant cette décision, Mark Stanley, directeur des opérations de Demand Progress, une organisation non gouvernementale extrêmement engagée dans la lutte pour la neutralité, a d’ailleurs souligné que « Les lobbys des télécoms étaient beaucoup plus puissants, mais nous avions quelque chose qu'ils n'avaient pas : le soutien populaire. »

En Europe, cette question fondamentale de la neutralité du Net fait également l’objet d’un vif débat, tant entre les acteurs économiques concernés qu’au niveau politique et démocratique. Le moins qu’on puisse dire est qu’actuellement le principe de neutralité du Net est loin de faire l’unanimité au sein de l’Union Européenne et il y a sur cette question à peu près autant de positions différentes que d’états-membres !

Pour l’instant, rien n’est encore joué en Europe sur cette question essentielle de la neutralité de l’Internet et le Conseil européen, dans un document publié fin janvier, évoquait la possibilité que les fournisseurs d’accès à Internet puissent différencier - sous conditions -, leurs prestations en fonction des contenus qui circulent sur le Web.

Mais il semble que la décision de la Commission fédérale américaine ait fait forte impression sur les instances politiques européennes et ce même Conseil européen a publié, il y a quelques jours, un communiqué très intéressant (Voir Conseil Européen) dans lequel il prend cette fois clairement position en faveur d'une neutralité du Net. Intitulé « Protéger l'Internet ouvert », ce communiqué rappelle que le Conseil est attaché au principe du droit des utilisateurs finals à l'accès au contenu de leur choix et à sa diffusion sur Internet.

Autre point important, le Conseil européen rappelle qu'il faut "faire en sorte que les sociétés fournissant l'accès à Internet traitent le trafic d'une manière non discriminatoire". Le Conseil souhaite également que le futur cadre réglementaire européen interdise de bloquer ou de ralentir des contenus ou des applications spécifiques, prévoyant seulement un nombre limité d'exceptions permettant par exemple de contrer certaines attaques informatiques menées grâce à l’utilisation de logiciels malveillants. Le Conseil européen souhaite cependant, pour les services autres que la fourniture d'accès à Internet, que puissent être autorisés des niveaux spécifiques de qualité pour certains services mais sous réserve d’une garantie suffisante d’un service universel de qualité pour l’Internet. 

En France, Axelle Lemaire, nouvelle Secrétaire d’État au Numérique, s'est récemment prononcée pour la neutralité du Net et l’ARCEP (Autorité de régulation des communications électroniques et postales) s’est également déclarée favorable à un « Internet à une seule vitesse ».

Mais bien entendu, tout le monde n’est pas de cet avis et récemment, Stéphane Richard, PDG d’Orange, a formulé de virulentes critiques contre l’éventualité d’un nouveau cadre européen garantissant davantage la neutralité du net. « Nous devons pouvoir proposer des qualités de service différenciées, avec des prix différenciés, comme ça existe dans n’importe quel autre secteur » a notamment souligné le dirigeant d’Orange.

Il reste que ce débat entre partisans et adversaires de la neutralité du Net qui, en fait, est bien plus subtil et plus complexe qu’il n’y paraît, pourrait devenir rapidement obsolète, compte tenu des évolutions technologiques fulgurantes en cours.

Certes, le principe des voies rapides payantes risque d’être exclu ou très strictement limité, au nom du respect de la neutralité du Net mais cela n’empêchera nullement les opérateurs d’imaginer et de proposer une multitude de nouveaux services liés notamment au développement exponentiel attendu de l’Internet des objets, notamment dans le secteur de la télésanté ou de la télémédecine. C’est d’ailleurs dans cette perspective qui va profondément changer la physionomie du Net que l’industrie numérique travaille actuellement à la mise au point du protocole de la 5G, prévue pour 2020, qui intègre d’office une discrimination des paquets selon leur utilité et les besoins des applications.

On sait aussi depuis quelques semaines que les jours des réseaux de communication en cuivre sont désormais comptés et que la fibre optique devrait tisser sa toile sur l’ensemble du territoire d’ici 2022. C’est en tout cas l’objectif clairement souhaité par le rapport remis au gouvernement et publié en février dernier par le président de l’Autorité de la statistique publique, Paul Champsaur.

Ce rapport propose la création d’un statut de « zone fibrée » aux territoires qui seront pourvus de la fibre selon un cahier des charges qui reste toutefois à déterminer. Cette évolution à marche forcée vers le « tout optique » a pour but d’accélérer la fin du séculaire « Réseau Téléphonique Commuté (RTC), et de basculer ses abonnés vers la fibre devenue compétitive par rapport au cuivre.

De manière cohérente avec ce scenario, ce rapport préconise également l’obligation de déployer la fibre dans les immeubles neufs, une mesure qui vient d'être inscrite dans la loi Macron et recommande la possibilité pour Orange de fermer son réseau cuivre dans des délais raccourcis. Il semble d’ailleurs qu’Orange ait reçu ce message gouvernemental 5 sur 5 puisqu’il vient d’annoncer, il y a quelques jours, qu’il allait, en dépit de son endettement conséquent, augmenter ses « investissements réseaux » de 3 à 5 milliards d’euros par an au cours des trois prochaines années…

On voit donc bien qu’aux États-Unis, comme en Europe et en France, le débat politique et juridique sur la neutralité du Net est inséparable des enjeux industriels et économiques et des révolutions technologiques en cours liés à l’avènement d’une civilisation numérique.

Mais il faut bien comprendre que, même si les ruptures technologiques en cours en matière de télécommunications et l’explosion de l’Internet vers une multitude de nouveaux usages et de nouveaux services vont relativiser d’ici quelques années la portée de ce principe de neutralité du Net, celui-ci n’en subsistera pas moins pour autant et évoluera lui aussi vers un service universel numérique (SUN).

Celui-ci devra permettre à tous les acteurs, du simple particulier au géant de l’industrie numérique, en passant par les institutions publiques, culturelles et éducatives de bénéficier, toutes choses égales par ailleurs, des mêmes potentialités d’accès à l’Internet et d’utilisation des données numériques, afin de ne pas instaurer une « iniquité numérique » dévastatrice au sein de nos économies et de nos sociétés et de favoriser au contraire l’initiative, l’innovation et la créativité, non seulement en matière technologique et économique mais également dans les domaines de l’invention de nouveaux liens sociaux et de nouvelles formes d’expression démocratique.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Des nanodrones pour éliminer le cholestérol
Lundi, 16/03/2015 - 07:00

Des chercheurs américains de l'Ecole Médicale d'Harvard travaillent sur des nanoparticules qui agissent comme des sortes de drones miniatures et pourraient éliminer les plaques de cholestérol accumulées dans les artères. Plus concrètement, les scientifiques ont utilisé des nano-médicaments pour transporter directement un traitement aux endroits où des plaques se sont formées.

Il s'agit de s'attaquer à l'athérosclérose, constituée par l'accumulation de ce type de plaques et facteur d'infarctus du myocarde et d'accidents vasculaires cérébraux. Ce nouvel outil thérapeutique consiste principalement en une protéine nommée Annexine A1, connue pour son rôle dans le processus de réparation de l’artère. Cette protéine, placée dans une nanoparticule, devient un véritable "petit drone" qui cible les plaques d’athérome. Elle est alors libérée et la réparation peut alors s’enclencher.

Des souris chez lesquelles les artères étaient raidies en raison d'un stade avancé d'athérosclérose ont subi ce traitement durant cinq semaines, pendant qu'un groupe témoin d'autres rongeurs n'était pas traité. Chez les souris ayant reçu les nano-médicaments, les dommages aux artères ont pu être réparés de manière significative et les plaques stabilisées. "C'est le premier exemple d'une technologie ciblée utilisant des nanoparticules qui réduit l'athérosclérose dans un modèle animal", souligne Omid Farokhzad, professeur à la Harvard Medical School et l'un des co-auteurs de cette étude.

Article rédigé par Georges Simmonds pour RT Flash

Science

^ Haut
Matière
Matière et Energie
Vers une miniaturisation extrême du guidage de la lumière sur de grandes distances
Mardi, 17/03/2015 - 07:20

La lumière permet de transmettre de grandes quantités d'informations, comme le montrent les fibres optiques. Pour autant, plusieurs défis restent à relever pour les chercheurs, en particulier celui de la miniaturisation, la fibre optique permettant difficilement de confiner la lumière dans une largeur inférieure au micromètre, soit 10-6 mètres.

Pour surmonter cet obstacle, les chercheurs travaillent sur les plasmons, des oscillations collectives qui se produisent lorsque des électrons circulant librement dans des métaux nobles comme l'or ou l'argent se mettent parfois, sous l'effet de la lumière, à osciller à leur surface. Or, en transmettant aux électrons en mouvement l'énergie portée par les photons, il est alors possible d'acheminer de l'information via des structures encore plus étroites que les fibres optiques.

Les spécialistes de cette discipline nouvelle qu'est la plasmonique s'intéressent désormais aux propriétés optiques de nanoparticules cristallines, la surface lisse de celles-ci évitant ainsi de perturber les oscillations des électrons et limitant les pertes d'énergie. L'exploitation des propriétés de ces nanoparticules devrait en effet permettre simultanément des confinements de l'ordre du nanomètre et le transport de l'information sur de grandes distances.

C'est dans ce cadre que l'équipe pluridisciplinaire du Centre d'Elaboration de Matériaux et d'Etudes Structurales, le CEMES, du CNRS, en collaboration avec des physiciens de Singapour et des chimistes de Bristol, a découvert qu'en alignant des nanoparticules d'or de dix nanomètres de diamètre sous la forme de chaîne, les plasmons qu'elles portent génèrent des oscillations particulières, propices à la propagation ultra-confinée.

Mais pour éviter la perte d'énergie qui se produit lors de chaque passage entre deux particules, les chercheurs ont eu l'idée de produire des nano-perles, en focalisant un faisceau électronique à haute énergie, de manière à former un réseau continu et cristallin, ce qui permet aux plasmons d'osciller librement sur de très grandes distances tout en restant confinés suivant le diamètre des nanoparticules.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Le premier interrupteur quantique
Mardi, 17/03/2015 - 07:00

Des chercheurs, membres de l'Université de Grenade et du Massachusetts Institute of Technology (MIT) de Cambridge (États-Unis), avec la collaboration de l'University of Technology and Design de Singapour, ont ouvert la voie à la construction du premier interrupteur quantique de courant contrôlé par symétrie.

La mise au point d'un tel dispositif, qui permettrait de contrôler et de modifier les courants d'énergie à niveau atomique, constitue un défi majeur pour la communauté scientifique internationale, et pourrait servir, par exemple, à construire des matériaux isolants contrôlés, ou à concevoir des cellules photovoltaïques artificielles plus efficaces, qui optimisent le transport d'énergie.

Cette équipe de recherche travaille actuellement au design réaliste d'un interrupteur quantique possédant ces caractéristiques (contrôlé par symétrie), basé sur des atomes froids dans des cavités optiques cohérentes, et en utilisant des micro-résonateurs optiques accouplés à de respectifs bains pour connecter le système avec des sources thermiques à différentes températures. La démarche suivante, expliquent-ils, sera de pouvoir réaliser expérimentalement un interrupteur quantique contrôlé par symétrie en utilisant ce design comme base.

Un système quantique ouvert est constitué d'un ensemble d'atomes ou de molécules en interaction avec l'environnement. "Nous commençons à savoir manipuler avec une précision extrême ces systèmes qui constituent les briques avec lesquelles nous espérons construire les futurs ordinateurs quantiques", explique Pablo Ignacio Hurtado Fernández, professeur du département d'Électromagnétisme et de Physique de la Matière de l'Université de Grenade et principal auteur de ce travail.

Ces systèmes quantiques possèdent la fascinante propriété de pouvoir se trouver simultanément à différents états stationnaires. Ce travail démontre que cette coexistence à différents états quantiques se doit à l'existence d'une transition de phase dynamique de premier ordre, similaire à la transition de la phase de l'eau liquide à vapeur, où les deux phases (liquide et vapeur) coexistent en même temps.

La coexistence quantique induite par la symétrie permet de stocker de façon robuste de multiples états quantiques cohérents, ce qui ouvre de nombreuses possibilités en calcul quantique, comme le souligne Daniel Manzano, chercheur du MIT et coauteur de ce travail.

Article rédigé par Georges Simmonds pour RT Flash

Physical Review B

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La forêt amazonienne dépend du Sahara pour sa survie !
Mardi, 17/03/2015 - 07:10

La forêt amazonienne ne pourrait survivre sans le Sahara. Cette affirmation peut sembler étrange mais elle repose pourtant sur une réalité scientifique très solide. La NASA vient ainsi de publier de nouvelles données satellites démontrant à quel point la forêt amazonienne est dépendante du Sahara, le plus grand désert du monde. Chaque année, près de 28 millions de tonnes de sable du Sahara sont emportées par le vent, traversent l’Atlantique et viennent fertiliser la forêt sud-américaine.

Très riche en phosphore, un engrais essentiel à la survie des organismes végétaux, le sable du Sahara est ainsi la principale raison de la luxuriance de la forêt amazonienne. Ce phénomène était déjà connu des scientifiques mais l'équipe de Hongbin Yu, chercheur en sciences atmosphériques, est parvenue  à le quantifier pour la première fois, permettant de démontrer le caractère indispensable de l’apport en phosphore du désert africain vers l’Amazonie. Grâce à son satellite CALIPSO, l’agence spatiale américaine a pu suivre les flux de sable saharien à travers l'Atlantique.

Les pluies diluviennes arrosant la région amazonienne empêchent le phosphore de se fixer au sol. Le sable du Sahara fournit ainsi un substitut précieux qui permet à la forêt amazonienne de rester fertile. Selon ces travaux, sur les 182 millions de tonnes de sable soulevées par les vents, 27,7 millions parviennent de l’autre côté de l’Océan Atlantique. Et c'est ainsi que la santé de la forêt amazonienne dépend en grande partie des conditions climatiques au sud du Sahara. "Le monde est petit," conclut Hongbin Yu, "et nous sommes tous connectés".

Article rédigé par Georges Simmonds pour RT Flash

NASA

Une levure pour remplacer l'huile de palme
Lundi, 16/03/2015 - 07:20

L'huile de palme présente des propriétés physico-chimiques spécifiques, indispensables pour obtenir par exemple l'onctuosité de la pâte à tartiner ou encore le croustillant du biscuit. Mais son impact sur l'environnement est important, qu'il s'agisse de la déforestation ou de la baisse de la biodiversité. Des scientifiques cherchent donc activement des solutions de substitution à cette huile.

C'est au terme d'un programme de recherche de trois ans et d'une collaboration entre les facultés de biochimie et d'ingénierie chimique de l'Université de Bath (Royaume-Uni) que les chercheurs ont réussi à cultiver une levure qui peut produire une huile aux propriétés similaires à celles de l'huile de palme.

Dénommée Metschnikowia pulcherrima, cette levure peu connue est pourtant déjà utilisée dans les processus de vinification en Afrique du Sud. "Les premiers tests en laboratoire suggèrent qu'en ajustant les conditions de croissance de la levure Metschnikowia pulcherrima, il est possible de produire une huile plus épaisse que l'huile de palme, et qui pourrait même donner des produits de meilleure qualité", affirme cette étude.

La levure Metschnikowia pulcherrima présente plusieurs intérêts : elle est très répandue dans la nature (fleurs, fruits, feuilles d'arbre,...). En outre, la surface nécessaire pour produire cette huile serait également de 10 à 100 fois moins importante que celle utilisée lors de la production d'huile de palme.

Article rédigé par Georges Simmonds pour RT Flash

University of Bath

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Trop dormir pourrait accroître les risques d'AVC...
Vendredi, 20/03/2015 - 01:20

Une étude britannique vient d'établir un lien entre un temps de sommeil excessif et une augmentation du risque d'accident vasculaire cérébral (AVC). Ces recherches concluent que les personnes dormant plus de 8 heures par nuit ont un risque augmenté de 46 % de faire un AVC, par rapport à celles qui dorment entre 6 et 8 heures.

Cette étude montre également que les petits dormeurs qui deviennent de gros dormeurs ont 4 fois plus de risque de faire un AVC que ceux dont la durée de sommeil est restée stable.

Pour parvenir à ces conclusions, les chercheurs de l'Université de Cambridge (Royaume-Uni) ont étudié, pendant dix ans, les habitudes de sommeil de 9.700 personnes âgées de 42 à 81 ans, en bonne santé. En 9 ans et demi, 346 cas d'AVC et 67 décès ont été rapportés. 

Article rédigé par Georges Simmonds pour RT Flash

MNT

Deux fumeurs sur trois mourront du tabac !
Vendredi, 20/03/2015 - 01:10

On savait déjà que le tabac était un tueur redoutable -plus de 100 millions de victimes au cours du XXeme siècle selon l'OMS- mais une vaste étude australienne, publiée dans la revue médicale BMC medicine, a analysé les données de 200 000 personnes âgées de 45 ans et plus, suivies pendant quatre ans. Ce travail montre que deux tiers (67 %) des fumeurs de longue durée (c'est-à-dire ayant fumé pendant au moins 35 ans) sont décédés de maladies liées au tabagisme. Celles-ci vont de 14 types de cancer aux maladies cardiovasculaires (crise cardiaque, AVC ou trouble vasculaire majeur).

Ces nouveaux chiffres australiens montrent que le risque est encore plus important que prévu (un décès sur deux provoqué par le tabac chez les fumeurs était le ratio admis jusqu'à présent) et que ce risque augmente avec l'intensité du tabagisme. Il est multiplié par deux à partir de 10 cigarettes par jour et multiplié par quatre à partir d'un paquet par jour.

"Nous avons également constaté que les fumeurs meurent environ 10 ans plus tôt que les non-fumeurs", a déclaré le Professeur Emily Banks, auteur principal de l'étude. On estime actuellement à 16 millions le nombre de personnes qui fument en France. Et chaque jour, 200 personnes meurent prématurément du tabac.

Article rédigé par Georges Simmonds pour RT Flash

BMC Medicine

Femmes mures : un peu d'exercice diminue le risque cardiovasculaire !
Vendredi, 20/03/2015 - 01:00

Selon une vaste étude britanniques réalisée par des chercheurs de l'Université d'Oxford et ayant porté sur plus d'un million de femmes, les femmes mures qui pratiquent une activité physique quelques fois par semaine peuvent diminuer sensiblement leurs risques de maladie cardiovasculaire et d'AVC.

Ces recherches ont montré que les femmes pratiquant des "activités vigoureuses", entraînant une augmentation du rythme cardiaque, réduisaient leurs risques de problèmes cardiovasculaires de 20 %.

Les chercheurs ont été surpris de constater que chez les femmes qui faisaient plus de trois séances sportives par semaine, le risque ne diminuait pas davantage. La marche, le jardinage et le cyclisme étaient parmi les activités qui ont eu un effet bénéfique sur la santé des participants de l'étude.

Ces résultats ont été obtenus à partir de données provenant de 1,1 million de femmes de l'étude Million Women, qui s'est déroulée entre 1996 et 2001, et dont l'âge moyen des participantes était 56 ans au lancement. Elles ont renseigné elles-mêmes leurs niveaux d'activité physique au début de l'étude et encore une fois trois ans plus tard. Les chercheurs ont évalué ces renseignements à côté des données sur leur état de santé, comme les registres sur les séjours à l'hôpital et les morts.

"Les femme d'âge mûr qui sont inactives auraient un grand intérêt à adopter une forme d'activité physique régulière", recommande le Docteur Miranda Armstrong, une épidémiologiste à l'Université d'Oxford au Royaume-Uni. Elle ajoute qu'il n'est pas nécessaire pour autant de devenir une véritable athlète pour réduire son risque de maladie cardiovasculaire.

Article rédigé par Georges Simmonds pour RT Flash

Circulation

Un programme capable de détecter l’effet placebo
Jeudi, 19/03/2015 - 07:50

Une équipe anglo-américaine a mis au point un algorithme qui sonde l’activité cérébrale et permet, en analysant une IRM fonctionnelle faite peu de temps après la prise, de déterminer si une personne a ingéré un véritable analgésique ou un simple placebo.

Rappelons qu’un placebo est un médicament neutre, ne contenant aucun composant actif destiné à combattre une maladie, mais susceptible, par un mécanisme neurologique, d’avoir malgré tout une certaine efficacité sur le patient, lorsque celui-ci croit avoir pris un vrai médicament. Les placebos sont notamment utilisés dans la phase de développement d’un nouveau médicament.

En analysant des scanners issus de huit études portant sur des analgésiques différents, les chercheurs ont pu construire un programme informatique qui s'est avéré capable de déceler si l’analgésique n’avait pas plus d’effet qu’un simple placebo, avec un taux de succès variant de 57 à 83 % selon le médicament.

Bien que cet algorithme ne soit pas fiable à 100 %, il permet d’éliminer rapidement un certain nombre de médicaments inefficaces sur lesquels les chercheurs auraient continué à travailler inutilement ! Fait intéressant : le programme n’a jamais pris un placebo pour un médicament efficace.

Article rédigé par Georges Simmonds pour RT Flash

Science

Les gènes qui contrôlent le cerveau
Jeudi, 19/03/2015 - 07:40

On sait que l'homme est l'un des mammifères qui possède le plus gros cerveau, en proportion de son corps, ce qui lui confère des capacités cognitives inégalées. Des chercheurs de l’Institut Max Planck, en Allemagne, dirigés par Marta Florio, ont découvert l’un des gènes qui auraient déclenché l’expansion du cortex – la couche externe du cerveau, impliquée dans de multiples fonctions cognitives supérieures.

Au cours de l’évolution, le cortex humain, qui joue un rôle majeur dans les associations d’idée et l’imagination, s’est considérablement étendu. Notre cortex ne mesure que deux à quatre millimètres d’épaisseur, mais il a une telle surface qu’il doit se replier dans tous les sens pour tenir dans la boîte crânienne.

L'équipe de Marta Florio a particulièrement étudié les gènes propres à l’espèce humaine et analysé leur expression à un moment clé de la maturation du fœtus, autour du quatrième mois de grossesse. C'est en effet au cours de cette période, que se produit "l'explosion neuronale", avec la formation de plus de 3 000 nouveaux neurones par seconde !

Ces scientifiques ont découvert que le gène ARHGAP11B était exprimé à ce moment dans des cellules cérébrales dites progénitrices, ancêtres des neurones. Ce gène, également présent chez l’homme de Neandertal, serait apparu peu après la divergence avec les chimpanzés. Mais il restait à savoir si ce gène jouait bien un rôle-clé dans cette "explosion cérébrale" constatée au cours du développement du fœtus.

Pour trancher cette question, les chercheurs ont transplanté le gène ARHGAP11B à des souris. Ils ont alors observé qu’il s’était exprimé à un stade équivalent de leur développement et qu’il décuplait la multiplication des cellules progénitrices, entraînant une augmentation de la densité neuronale et une expansion du cortex.

Article rédigé par Georges Simmonds pour RT Flash

Science

Découverte d’un lien génétique entre l’autisme et la maladie d'Alzheimer
Jeudi, 19/03/2015 - 07:30

Selon des chercheurs israéliens, un gène nommé ADNP pourrait être responsable du nombre élevé de cas d’autisme chez les garçons – qui en souffrent beaucoup plus que les filles – ainsi que du nombre de cas élevés de la maladie d’Alzheimer chez les femmes âgées.

Depuis 10 ans, l' équipe de Mme GOZES, professeure à l’Université de Tel Aviv, a fait des recherches sur la façon dont l’ADNP, un gène régulateur majeur chez l’homme, et son dérivé NAP, affectent un certain nombre de conditions liées à l’âge et au genre.

Dans les études effectuées ces 15 dernières années, ces scientifiques ont découvert que les mutations de l’ADPN peuvent causer non seulement l’autisme mais aussi la maladie d’Alzheimer. Dans une étude réalisée l’année dernière, la Professeure Gozes et son équipe ont découvert que la perte du NAP, un morceau essentiel de l’ADNP pour la formation du cerveau, expose les cellules à une dégradation physique qui finit par les détruire, entraînant des maladies liées à la démence comme la maladie d’Alzheimer.

Cependant, ils ont aussi découvert que lorsque l’on appliquait des protéines aux propriétés similaires au NAP, les cellules redevenaient saines, ouvrant ainsi la porte à de possibles traitements pour la maladie d’Alzheimer et des maladies dégénératives.

Dans ces travaux, la professeure Gozes et son équipe ont étudié les réactions comportementales des souris femelles et mâles – avec de l’ADPN altéré et normal – à différents défis cognitifs et situations sociales. Pour ce faire, ils ont supprimé une copie du gène de l’ADNP de plusieurs souris et ont étudié leurs réactions aux objets inconnus, aux odeurs et à d’autres souris. Les résultats de cette étude ont révélé des différences dans l’apprentissage et la mémoire liées au sexe chez la souris.

Chez la jeune souris mâle, l’absence d’ADNP a entraîné des carences dans la reconnaissance des objets et de la mémoire sociales, comportement typique que l’on retrouve chez les autistes. "Les résultats ont démontré, pour la première fois – qu’il y a une différence liée au genre – et à l’âge – dans les effets de l’ADPN sur le comportement des souris", précise l'étude.

La prochaine étape de ces recherches va consister à étendre ces travaux à l'homme. "Cette étude montre la nécessité d’analyser les hommes et les femmes séparément lors des essais cliniques pour parvenir à proposer des solutions théapeutiques nouvelles et distinctes en fonction du sexe", explique la Professeure Gozes.

Article rédigé par Georges Simmonds pour RT Flash

TAU

Le syndrome de fatigue chronique serait une véritable maladie
Mercredi, 18/03/2015 - 07:40

Selon des recherches de la Mailman School of Public Health, à l'Université Columbia, la fatigue chronique serait une maladie biologique et non psychologique, qui peut être identifiée par des marqueurs dans le sang. Cette découverte constitue "la première preuve physique solide" que ce syndrome est "une maladie biologique et non un désordre psychologique" affirment les auteurs de cette recherche, publiée dans le journal Science Advances.

Ce syndrome de la maladie chronique, connu sous le nom d'encéphalomyélite (ME/CFS), peut provoquer une fatigue extrême, des maux de tête, des difficultés de concentration et des douleurs musculaires.

"Nous avons maintenant la confirmation que la ME/CFS n'est pas psychologique", affirme Mady Hornig, professeur associé en épidémiologie à la Mailman School et principal auteur de l'étude. "Nos résultats devraient accélérer le processus pour établir un diagnostic et découvrir de nouveaux traitements en se concentrant sur ces marqueurs sanguins", se félicite-t-elle.

Pour parvenir à ces conclusions, les chercheurs ont testé les niveaux de 51 marqueurs du système immunitaire dans le plasma de 298 malades et de 348 personnes en bonne santé. Ils ont découvert que le sang des patients atteints de la maladie depuis trois ans ou moins comportait des niveaux plus élevés de molécules nommées cytokines.

En revanche, le sang des patients ayant contracté la maladie depuis plus de trois ans ne présentait pas ce niveau de cytokines. "Le lien semble inhabituellement fort avec une cytokine appelée "interferon gamma", liée à une fatigue qui suit beaucoup d'infections virales", selon l'étude. 

Article rédigé par Georges Simmonds pour RT Flash

Science

VEGF-C, un facteur de croissance indispensable pour fabriquer de nouveaux neurones
Mercredi, 18/03/2015 - 07:35

Un être humain est capable de produire pendant toute sa vie, à partir de cellules souches neurales (CSN), de nouveaux neurones afin de maintenir l’ensemble de ses capacités cognitives. Cette neurogénèse se produit au niveau de l’hippocampe, structure du cerveau jouant un rôle central dans la mémoire. Cependant, l’âge et certains accidents cérébraux entraînent un déclin de cette fonction, ce qui peut contribuer à l’apparition de troubles cognitifs graves, tels que la maladie d’Alzheimer.

Les mécanismes moléculaires de ce phénomène restent cependant mal compris. En effet, les CSN passent la majorité du temps à l’état de quiescence durant lequel la cellule est hors du cycle cellulaire et ne se divise pas. Des facteurs répresseurs qui maintiennent cette phase de quiescence ont été identifiés alors qu’il existe encore de nombreuses interrogations quant aux facteurs permettant la sortie de cette « dormance » cellulaire.

L'équipe dirigée par Jean-Léon Thomas et Anne Eichmann a étudié les facteurs de croissance de l’endothélium vasculaire (VEGF) et leurs récepteurs (VEGFR), impliqués dans la régulation de la croissance et du maintien des cellules neurales. Leurs travaux ont confirmé que les cellules souches neurales des rongeurs possèdent le récepteur VEGFR3 et produisent elles-mêmes le facteur VEGF-C. La stimulation des CSN par le VEGF-C mène à l’activation de ces cellules, c’est-à-dire à leur entrée en cycle cellulaire et à leur conversion en progéniteurs neuraux, pour finalement produire de nouveaux neurones.

Ces recherches ont également montré que le signal VEGFC/VEGFR3 non seulement participe mais est absolument nécessaire au « réveil » des cellules souches neurales et donc à la création de nouveaux neurones. Ce modèle mutant a aussi permis à l’équipe d’observer une corrélation entre troubles de l’humeur et détérioration de la fonction neurogénitrice de l’hippocampe. Ces souris, dont l’activation des CSN est compromise, vont développer avec l’âge une anxiété exagérée, similaire à celle retrouvée chez les patients Alzheimer. Ces résultats suggèrent que la signalisation neurale VEGF-C/VEGFR3 participe au maintien des fonctions cognitives.

Sur le plan thérapeutique, ces travaux sont encourageants : VEGF-C serait un bon candidat pour améliorer la production de nouveaux neurones et compenser le déclin cognitif des personnes atteintes de la maladie d’Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Cancer du pancréas : premier essai de thérapie génique
Mercredi, 18/03/2015 - 07:30

L’Institut Universitaire du Cancer du Toulouse est en train d'expérimenter une nouvelle approche thérapeutique prometteuse chez 22 patients atteints d’un cancer du pancréas non opérable.

Les patients ont été séparés en 4 groupes selon les particularités de leur tumeur. Tous ont reçu deux doses d’un ADN médicament, à un mois d’intervalle, directement dans la tumeur pancréatique sous contrôle échoendoscopique. Les trois gènes portés par ce produit de thérapie génique dirigent la synthèse de protéines ayant des effets anti-tumoraux, anti-métastatiques et augmentant la sensibilité à la chimiothérapie.

Parallèlement, les participants ont reçu, par voie intraveineuse, une chimiothérapie à base de gemcitabine : la première injection a été réalisée deux jours après l’administration des gènes-médicaments, puis toutes les semaines jusqu’à la fin du protocole.

Les premiers résultats montrent une efficacité d’expression des gènes thérapeutiques puisque chez les patients porteurs d’une tumeur non opérable mais sans métastases, aucune progression métastatique n’a été observée. Au bout des deux mois du protocole, les patients de ce sous-groupe affichaient une survie sans progression de près de 6 mois et une survie globale de plus de 12 mois.

La phase 2, qui consistera à comparer les effets de l’injection du produit de thérapie génique couplée à la chimiothérapie à ceux de la chimio seule, devrait permettre d’évaluer l’efficacité réelle de cette nouvelle approche. Elle devrait inclure un plus grand nombre de patients recrutés sur plusieurs centres. Son protocole sera déposé à l’automne 2015 pour une inclusion des premiers patients espérée début 2016.

Article rédigé par Georges Simmonds pour RT Flash

CHU Toulouse

AVC : un nouveau traitement révolutionnaire
Lundi, 16/03/2015 - 07:10

C'est peut-être une révolution qui s'annonce dans la prise en charge des accidents vasculaires cérébraux (AVC) les plus sévères. Une étude vient en effet de confirmer les très bons résultats de la thrombectomie mécanique dans la prise en charge des AVC les plus graves. Cette technique utilisée de façon encore marginale par certaines unités de soins, consiste à aller chercher directement dans le cerveau du patient le caillot sanguin responsable de l'AVC. "C'est une vraie révolution dans la prise en charge des AVC sévères" souligne le Docteur Bertrand Lapergue, hôpital Foch (Suresnes).

Comme l'infarctus du myocarde, l'AVC est la plupart du temps provoqué par l'obturation d'un vaisseau sanguin. Les tissus et organes situés après ce "bouchon" ne sont plus irrigués. Privés de l'oxygène transporté par le sang, ils se nécrosent rapidement. Si la circulation sanguine n'est pas rétablie, les séquelles peuvent être irréversibles.

Actuellement, le traitement principal de l'AVC reste la thrombolyse, qui consiste à administrer par voie intramusculaire ou intra-artérielle un produit qui désagrège le caillot sanguin. Mais cette stratégie comporte certaines contre-indications du fait d'un risque accru d'hémorragie. Surtout, la thrombolyse doit être réalisée dans les 4h30 qui suivent les premiers symptômes.

Or pour les AVC sévères, le traitement s'avère souvent insuffisant pour éviter les séquelles lourdes. A l'hôpital Foch, la thrombectomie mécanique est une technique utilisée quasi systématiquement depuis quatre ans. L'opération doit être réalisée dans les 6 heures qui suivent les premiers signes de l'AVC. Elle ne prend généralement pas plus d'une heure et peut se faire sous anesthésie locale ou générale. Elle consiste à faire passer un microcathéter dans l'artère bouchée jusqu'au caillot sanguin. Celui-ci est retiré soit par aspiration via le cathéter, soit à l'aide d'un stent.

En France, on compte 130.000 AVC par an. Ceux dits "sévères" comptent ainsi pour 5 à 10 % (entre 6.500 et 13.000 cas). Un type d’AVC qui laisse bien souvent les personnes touchées avec de lourds handicaps. "Dorénavant, nous pouvons dire aux patients qu’en arrivant à temps, nous sommes en mesure de les prendre en charge, de les soigner de façon à réduire significativement les risques de séquelles", souligne le Docteur Bertrand Lapergue.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top