RTFlash

RTFLASH Recherche & Technologie
NUMERO 748
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Avril 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
La marine américaine aura son robot-pompier en 2015 !
Cancer : des nanocapsules déclenchées par laser…
Vivant
Notre cerveau a besoin d'oublier…pour retenir !
Hépatite C : une nouvelle avancée thérapeutique
Le cerveau des schizophrènes déforme-t-il le monde ?
Un projet à long terme pour comprendre la variabilité du système immunitaire
Enfants : quand le manque de sommeil accroît le risque d'obésité…
Six ans de vie en plus pour les coureurs réguliers !
Sexe et autisme : des relations complexes
Cancer avancé de la prostate : vers un nouveau traitement de référence ?
Une avancée fondamentale dans la compréhension du mécanisme de la fécondation
Activer un antibiotique grâce à la lumière !
Un sang artificiel expérimenté en 2017 !
L'allaitement maternel diminue le risque d'obésité à l'âge adulte
La musique facilite l'acquisition du langage
Edito
Comment la Nanobionique va profondément transformer notre environnement et notre mode de vie



Bien que la bionique soit une discipline scientifique encore récente (elle est née en 1960), elle a déjà bouleversé l’ensemble du champ scientifique et constitue à présent l’un des moteurs majeurs des différentes révolutions technologiques industrielles en cours, tant dans le domaine de l’informatique et de l’électronique que dans celui de la biologie et de la médecine, en passant par l’énergie et l’environnement.

On le sait, la bionique est une discipline qui se donne pour objet l’étude globale de la nature et de ses différentes composantes et systèmes biologiques - plantes, animaux, micro-organismes - dans le but de concevoir de nouveaux modèles susceptibles d’aider à la réalisation d’outils et de technologies plus efficaces dans tous les domaines de l’activité humaine.

En janvier dernier, une étape décisive a été franchie avec l’implantation sur deux patients du premier œil bionique, l’Argus II Retinal Prosthesis System, qui permet de restaurer partiellement la vue pour les personnes atteintes de certaines pathologies visuelles comme les dégénérescences rétiniennes et notamment la rétinite pigmentaire.

Concrètement, ce premier œil bionique, encore rudimentaire, appelé Argus prend la forme d’une paire de lunettes équipée d’un capteur de 3 millions de pixels. Les images captées sont transmises à l’aide d’un câble vers un petit boîtier attaché à la ceinture du patient puis sont retransmises sous la forme d’impulsions électriques à un réseau d'électrodes émettant de petites impulsions électriques qui vont court-circuiter les photos récepteurs lésés et stimuler les cellules encore fonctionnelles de la rétine.

Ces informations seront finalement acheminées par le nerf optique jusqu’au cerveau qui va progressivement apprendre à interpréter ces signaux en termes de formes lumineuses et de contrastes. Preuve de l’efficacité assez extraordinaire de cet œil bionique, une étude publiée dans le British Journal of Ophtalmology en février 2013, a montré, sur 28 patients suivis pendant 20 mois, que la majorité d’entre eux parvenait à nouveau à identifier les lettres et les mots grâce à cet implant rétinien…

Toujours en février 2013, une équipe de recherche européenne, impliquant notamment l’Ecole polytechnique fédérale de Lausanne, a réalisé en Italie l’implantation de la première main bionique "sensible", c'est-à-dire capable de sentir la forme et la texture des objets en créant pour les porteurs une sensation proche du toucher. Cette prothèse baptisée Lifehand 2 a été transplantée sur un patient danois amputé de la main gauche et lui a permis, après huit jours d’apprentissage, de reconnaître la forme et la taille des objets dans neuf cas sur 10 ! (Voir Universita Campus bio-medico di Roma).

En août 2012, une équipe américaine dirigée par Charles Lieber (Université de Harvard), Robert Langer (MIT) et Daniel Kohane de l’hôpital pour enfants de Boston a réussi une autre prouesse en intégrant de minuscules fils de silicium de seulement 80 nanomètres de diamètre (80 millièmes de millimètre) à une grille en relief constituée de molécules organiques (Voir article Nature materials).

Les chercheurs ont ensuite greffé sur cette armature des cellules musculaires et cardiaques mais également des neurones de rat, créant pour la première fois un tissu hybride en trois dimensions, mi-biologique, mi-électronique.

Autre avantage, les nanocapteurs en silicium utilisés sont souples et parfaitement biocompatibles et peuvent être associés à des nanocâbles, ce qui permet par exemple de mesurer très précisément les battements des cellules cardiaques.

La même équipe a également réussi à créer, en utilisant cette fois des cellules humaines, un vaisseau sanguin de 1,5 cm de long avec des capteurs intégrés surveillant l'équilibre de l'acidité du sang, un paramètre essentiel à l'étude des processus inflammatoires ou des tumeurs cancéreuses. Un tel dispositif pourrait également révolutionner les thérapies des troubles du rythme cardiaque en permettant l’implantation de défibrillateurs totalement biocompatibles.

Les applications de ces nanocapteurs sont innombrables et  une société américaine, Vista Therapeutics, commercialise déjà un nanodétecteur capable d’analyser et de quantifier, à partir d'une seule goutte de sang, plusieurs marqueurs biologiques, comme le PSA, un antigène très utile pour le suivi des cancers de la prostate.

Comme le souligne Charles Lieber qui dirige ces travaux, « nous allons à présent essayer de franchir une étape supplémentaire en connectant les tissus et en communiquant avec eux, comme le font les organismes vivants ». À terme, ces dispositifs devraient permettre non seulement de recueillir et d’analyser une multitude de paramètres biologiques et biochimiques mais également d’agir dans l’autre sens en télécommandant ces circuits intégrés biologiques, ce qui permettra notamment de libérer une multitude de molécules thérapeutiques dans l’organisme avec une précision et une efficacité inégalées.

Un autre laboratoire du MIT dirigé par le Professeur Michael Strano vient de s’illustrer en montrant qu’il était possible de transformer et d’améliorer le métabolisme des plantes grâce aux nanotechnologies. Dans la nature, les chloroplastes des plantes - organites qui effectuent la photosynthèse - ne sont sensibles qu'à la partie visible du spectre lumineux et de ce fait à peine10 % de l'énergie lumineuse est convertie par la plante.

Mais en travaillant sur l'arabette des dames (Arabidopsis thaliana), ces chercheurs ont réussi à intégrer des nanotubes de carbone au sein des chloroplastes afin de bénéficier de la large capacité d'absorption du spectre lumineux de ces nanoparticules qui sont capables d’exploiter les longueurs d'onde que les plantes ne savent pas transformer en énergie (Voir MIT News).

Ces travaux ont montré qu’il était ainsi possible d’améliorer de 30 % la capacité d'absorption du rayonnement solaire par les plantes et le rendement de la photosynthèse, grâce à l’intégration de ces nanotubes de carbone dans les chloroplastes.

Concrètement, les chercheurs ont mis au point une technique qui vise à enrober les nanoparticules de cérium dans de l'acide polyacrylique, une molécule qui possède la propriété d’accélérer le transfert des nanoparticules à travers la membrane lipidique entourant le chloroplaste. Cette technique a également permis aux chercheurs d’enrober des nanoparticules de carbone avec de l’ADN chargée négativement afin de les introduire à l'intérieur des chloroplastes. Finalement, en combinant l’utilisation de nanoparticules d'oxyde de cérium et de nanotubes de carbone, ces scientifiques ont pu durablement « doper » l’activité des chloroplastes.

Mieux encore, ces scientifiques ont également montré qu’il était possible, en recourant à différents types de nanotubes de carbone, de transformer certaines plantes en capteurs chimiques ultra-sensibles pour détecter des substances toxiques dans l’environnement, comme le monoxyde d’azote, un dangereux polluant émis par les véhicules à moteur. Ce nouveau champ de recherche a été baptisé "nanobionique des plantes" par ces chercheurs.

Les nanomatériaux utilisés pour cette détection ultrasensible reposent sur une modification de la fluorescence du nanotube qui se produit lorsque la molécule recherchée se lie à un polymère enrobant le nanotube. « Ces technologies utilisant des nanotubes de carbone pour améliorer certaines propriétés des plantes vont permettre de réaliser des nanocapteurs capables de détecter en temps réel des radicaux libres ou des molécules présentes à l'état de traces dans l'environnement », souligne le professeur Strano.

Cette nouvelle alliance des nanotechnologies et de la bionique pourrait également apporter des solutions novatrices face au défi considérable que représentent la capture et le stockage du CO2 émis par les activités humaines. On sait que depuis quelques mois, la concentration de CO2 dans l’atmosphère a dépassé la barre symbolique des 400 ppm (parties par million), un niveau sans précédent depuis trois millions d'années.

En outre, compte tenu de l’explosion des émissions anthropiques de CO2, qui dépassent à présent au niveau mondial les 40 gigatonnes par an, il devient impératif de réaliser des ruptures technologiques qui permettront, parallèlement à la réduction drastique de nos émissions d’ici 2050, de capter et de stocker une partie du CO2 excédentaire présent dans l’atmosphère et contribuant à l’accélération du réchauffement climatique.

Face à ce problème, l’équipe du professeur Klaus Lacker, à l'Université de Columbia, travaille sur un projet de "feuilles artificielles" qui permettraient de capter du CO2 avec une efficacité beaucoup plus grande que celle dont dispose la végétation naturelle par le mécanisme de la photosynthèse.

Ces chercheurs ont mis au point un filtre de plastique constitué de particules fines de résine imprégnée de carbonate de sodium. Ce dispositif permet de capter le CO2 et de transformer le carbonate de sodium en bicarbonate. Il suffit ensuite de récupérer le CO2 de ce filtre, en utilisant simplement de l’eau et cet oxyde de carbone ainsi extrait peut alors être réutilisé par l’industrie chimique ou stocké dans de vastes cavités souterraines présentant toutes les garanties géologiques nécessaires (Voir Scientific American).

Autre avantage de ces "feuilles artificielles", leur coût relativement modeste (la résine utilisée ne coûte que 3,50 € le kilo). Selon les chercheurs, ce processus permettrait de collecter une tonne de carbone par jour, soit l'équivalent des émissions de 36 véhicules. Ces scientifiques ont calculé qu’il faudrait environ 10 millions de ces "arbres artificiels" pour capturer un peu plus de 10 % du CO2 émis chaque année dans le monde, soit environ quatre gigatonnes. En outre, cette nouvelle technologie pourrait être utilisée pour piéger le CO2 issu des sources mobiles, alors que les technologies actuelles de capture et de séquestration de carbone ne s’attaquent pour l'instant qu'aux sources industrielles fixes.

Reste toutefois à intégrer le coût de la dépense énergétique (environ 1,1 mégajoule d'électricité pour pomper et compresser 1 kilogramme de CO2) nécessaire à l’extraction de ce CO2 par cette méthode. Selon une estimation publiée par la Société américaine de physique, le coût de capture de la tonne de CO2 par ces feuilles artificielles serait de l’ordre de 500 € mais il devrait baisser de manière significative en cas de développement à l’échelle industrielle de cette technologie.

Mais l’avènement de la « Nanobionique » pourrait également être à l’origine d’une autre révolution considérable : la production contrôlée et industrielle de molécules biologiques complexes à partir de plantes. De récentes recherches ont en effet montré que, contrairement aux cellules de mammifères, les végétaux permettent une production homogène d’anticorps variés.

Cette capacité étonnante a été confirmée récemment par des recherches menées à l’Université des ressources naturelles et des sciences de la vie de Vienne, en Autriche. Ces chercheurs ont réussi à faire produire de l’immunoglobuline M PAT-SM6 (SM6) – un anticorps humain naturel qui attaque les cellules tumorales – par des feuilles de Nicotiana benthamiana, une variété de tabac (Voir PNAS). Les anticorps ainsi produits par voie végétale se sont avérés parfaitement fonctionnels.

La même équipe de recherches était déjà parvenue en 2006 à introduire un vecteur viral dans des plants de tabac pour synthétiser en grandes quantités des immunoglobulines G (IgG) humaines fonctionnelles. Cette technique de production d’une grande variété de molécules biologiques à partir de plantes et de végétaux modifiés est en outre bien plus simple et bien moins coûteuse à mettre en œuvre que les techniques classiques de cultures cellulaires.

On le voit, l’ensemble de ces recherches montre que le croisement fertile des nanotechnologies et de la bionique est en train de révolutionner de vastes secteurs de la production industrielle et de l'économie et pourrait bien profondément transformer notre environnement et notre mode de vie dans les décennies à venir.

Mais si ce nouveau et passionnant champ d’exploration scientifique et technologique est riche de promesses et d’applications innombrables, son développement pose également de redoutables questions sociales, éthiques et juridiques. En effet, à partir du moment où la science va être en capacité de modifier de manière fondamentale la structure et le fonctionnement de l’ensemble des organismes vivants à l’aide de ces outils nanobioniques, notre société va devoir faire des choix politiques et philosophiques pour déterminer jusqu’où il est souhaitable d’aller dans la réalisation de cette « Nature augmentée » dont l’impact global risque d’être au moins aussi important que celui de la réalité du même nom…

Il convient donc de bien mesurer les effets économiques, sociaux, culturels et humains que vont avoir ces outils technologiques car ceux-ci vont modifier fondamentalement le rapport de l’homme et de la nature, du naturel et de l’artificiel, du matériel et du vivant…

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
La marine américaine aura son robot-pompier en 2015 !
Jeudi, 24/04/2014 - 13:47

Bien que les incendies à bord des navires soient assez rares, ils peuvent avoir des conséquences catastrophiques car ils sont difficiles à circonscrire en raison de la structure des bâtiments. Face à ce problème, la marine américaine a décidé de développer un robot spécialement conçu pour lutter contre les incendies qui peuvent survenir sur les bâtiments militaires.

Développé en coopération avec le Virginia Tech et l’Université de Pennsylvanie, ce robot a été baptisé SAFFIR (Shipboard Autonomous Firefighting Robot), ce qui signifie « Robot Marin Pompier Autonome ».

Capable d'affronter des conditions extrêmes de pression et de température, ce robot qui devrait être opérationnel en 2015 n'est pas destiné à être entièrement autonome mais il pourra assister très efficacement les humains en cas d'incendie à bord.

Article rédigé par Georges Simmonds pour RT Flash

ITPP

BBC

Cancer : des nanocapsules déclenchées par laser…
Mardi, 22/04/2014 - 08:20

Des chercheurs du Centre de Recherche en ingénierie biomédicale de l'Université de Buffalo aux États-Unis ont mis au point une nouvelle technique qui consiste à encapsuler des molécules thérapeutiques dans une nano-capsule composée de porphyrine et de phospholipides pour les protéger jusqu'à ce qu'elles soient arrivées à proximité de la tumeur. Une fois la nanocapsule arrivée au cœur de la tumeur, un tir laser permet de déclencher la libération des médicaments exactement à l’endroit où ils seront les plus efficaces.

Mille fois plus fine qu’un cheveux humain, cette nanocapsule serait délivrée au patient en intraveineuse. Le fait que la substance médicamenteuse soit encapsulée évite que celle-ci n’interagisse avec les cellules saines de l’organisme.

Autre avantage remarquable de cette approche, dès que le laser s’éteint, la capsule se referme et peut être récupérée par le biais d’une biopsie. Les premiers essais réalisés sur des souris ont été très concluants selon Jonathan Lovell, professeur en ingénierie biomédicale à l'université de Buffalo et co-auteur de l'étude.

"Imaginez que cette nanocapsule est un sous-marin dont la cargaison est le traitement, explique-t-il. Avec le laser, nous ouvrons le sous-marin qui relâche ainsi la substance médicamenteuse à l'endroit précis de la tumeur", précise Lovell qui ajoute "Les essais cliniques sur l'homme devraient être lancés dans les cinq ans".

Article rédigé par Georges Simmonds pour RT Flash

University at Buffalo

Photonics

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Notre cerveau a besoin d'oublier…pour retenir !
Jeudi, 24/04/2014 - 14:04

Tout le monde a oublié un jour son code d’immeuble ou l’endroit où se trouve son téléphone portable et cela n'a rien d'inquiétant, comme vient de le montrer une étude réalisée par des chercheurs de l'Université de Bâle en Suisse.

Ces scientifiques ont en effet montré que notre cerveau, pour fonctionner correctement, a besoin à la fois de stocker des informations mais aussi d’en oublier. Mais les chercheurs ignoraient jusqu'à présent en fonction de quels critères le cerveau décidait de conserver ou non une information.

Pour essayer d'éclaircir cette question, ces scientifiques ont essayé de comprendre si l’oubli était régulé de manière active ou passive. Pour éclaircir ce mécanisme qui régit l’oubli, les chercheurs ont étudié les capacités d’apprentissage de vers de terre génétiquement modifiés à qui on a retiré une protéine nommée Musashi.

Ces travaux ont permis de constater que les vers de terre génétiquement modifiés avaient tendance à moins oublier que leurs congénères chez qui la protéine Musahi était restée active. Selon ces recherches, cette protéine bloquerait la stabilisation les synapses, c’est-à-dire les points de contact entre les neurones. Mais ces chercheurs ont également découvert qu'un bon équilibre entre mémorisation et oubli nécessitait des actions simultanées de deux protéines.

Selon ces travaux, il semble en effet qu'une protéine, l’Adducine, favorise la croissance des synapses et donc le souvenir. En revanche, la protéine Musashi empêche la bonne stabilisation de ses synapses et donc fait perdre la mémoire.

Pour que notre cerveau fonctionne correctement et efficacement, il est indispensable que ces deux protéines agissent de concert, de manière coordonnée, ce qui permet simultanément de se souvenir de certaines choses et en oublier d'autres moins importantes. La perturbation et le dérèglement de ce mécanisme pourrait être à l'origine de certains troubles psychiques…

Article rédigé par Georges Simmonds pour RT Flash

Cell

Hépatite C : une nouvelle avancée thérapeutique
Jeudi, 24/04/2014 - 13:55

Le laboratoire Gilead a annoncé le 3 avril les résultats positifs d’un essai clinique de phase 3 au Japon, évaluant le sofosbuvir, un inhibiteur de la polymérase analogue de nucléotide, administré en combinaison avec la ribavirine (RBV) pour le traitement de l’infection par le virus de l’hépatite C (VHC) chronique de génotype 2.

Cette étude a montré que 97 % des patients infectés par le VHC de génotype 2 ayant bénéficié pendant trois mois d'un traitement au sofosbuvir présentaient une réponse virologique excellente, même plusieurs mois après la fin du traitement.

Le Japon présente la particularité d'avoir un taux de cancer du foie très élevé, notamment à cause de l’infection chronique par le VHC. Dans ce pays, on estime que deux millions de personnes sont touchés par le VHC, dont au moins un quart possédent la souche du génotype 2 du virus. Or actuellement, les traitements disponibles pour ces patients sont très lourds et très longs (parfois plus d'un an) et ils entraînent souvent des effets secondaires importants.

Cette étude a montré que ce nouveau traitement rendait rapidement le VHC indétectable chez la totalité des 153 patients. En outre, les effets indésirables observés restent acceptables.

Compte tenu de ces résultats positifs, Gilead va déposer une demande de nouveau médicament pour le sofosbuvir auprès de l’Agence japonaise des produits pharmaceutiques et des dispositifs médicaux (PMDA) d’ici la mi-2014.

Article rédigé par Georges Simmonds

Pharma biz

Le cerveau des schizophrènes déforme-t-il le monde ?
Mercredi, 23/04/2014 - 16:22

Une étude réalisée à l’Institut et Hôpital neurologiques de Montréal et dirigée par le Professeur Christopher Pack éclaire d'une lumière nouvelle les mécanismes du cerveau qui pourraient être à l’origine de l’interprétation erronée que font les schizophrènes du monde qui les entoure.

L’étude, menée en collaboration avec des chercheuses du Département de psychologie de l’Université McGill, révèle que les erreurs de perception visuelle chez les sujets atteints de schizophrénie correspondent avec une interférence dans un signal cérébral appelé décharge corollaire.

Selon cette étude, une décharge corollaire "est une copie d’un message du système nerveux transmise à d’autres parties du cerveau, afin de nous rendre conscients de l'acte que nous sommes en train d'effectuer".

En l'absence de décharge corollaire, une personne peut donc être amenée à croire que le mouvement d’un de ses membres ou la formulation d’une de ses pensées ne lui appartient pas. Or, la schizophrénie est précisément une pathologie mentale dans laquelle la capacité de penser clairement est gravement altérée. Les schizophrènes attribuent souvent leurs actes et leurs pensées à des sources externes, ce qui se traduit notamment par des délires et hallucinations auditives.

Ces chercheurs pensent donc qu'une décharge corollaire défectueuse ou altérée pourrait être à l’origine de certains symptômes observés chez les schizophrènes. "Nous pensons pouvoir mieux comprendre les effets neurobiologiques de la décharge corollaire à partir des données comportementales", précise le professeur Pack.

Article rédigé par Georges Simmonds pour RT Flash

Journal of Neuroscience

Un projet à long terme pour comprendre la variabilité du système immunitaire
Mercredi, 23/04/2014 - 16:16

L’Institut Pasteur, en collaboration avec l’Inserm, le CNRS, l’Institut Curie, l’Université Paris Diderot - Paris 7, l’Université Paris 13 et des hôpitaux parisiens, vient de lancer un important projet de recherche sur les 10 prochaines années qui vise à mieux comprendre la variabilité de la réponse du système immunitaire chez les individus.

Baptisée "Projet Milieu intérieur", cette entreprise de recherche va s'atteler à déterminer l'ensemble des facteurs génétiques et environnementaux qui commandent les réponses immunitaires. On sait en effet que la prédisposition aux infections, la sévérité des maladies et la réponse aux médicaments ainsi qu’aux vaccins sont très variables d’un individu à l’autre.

Mais la très grande complexité et la très grande variabilité des réponses immunitaires chez chaque individu ne permettent pas pour l'instant de définir clairement les facteurs génétiques et environnementaux qui définissent un système immunitaire sain et caractérisent sa variabilité naturelle.

L’étude publiée a présenté les résultats obtenus sur 25 des 1 000 individus sains constituant la cohorte Milieu Intérieur. Pour chacun de ces participants, les réponses immunitaires de 27 substances ont été mesurées et l'analyse des données révèle un modèle unique de réponses du système immunitaire pour chaque stimulant.

Les chercheurs ont notamment observé que deux des 25 premiers sujets évalués étaient incapables de produire de l’interleukine 1 alpha, une protéine produite par les cellules du système immunitaire – sous stimulation bactérienne. Cette spécificité expliquerait pourquoi certaines personnes sont particulièrement sensibles à certaines infections bactériennes.

À terme, cet ambitieux programme de recherche devrait déboucher sur la mise au point de médicaments et de stratégies thérapeutiques entièrement personnalisées et correspondant exactement au profil génétique et immunitaire de chaque patient.

Article rédigé par Georges Simmonds pour RT Flash

Immunity

Enfants : quand le manque de sommeil accroît le risque d'obésité…
Mercredi, 23/04/2014 - 16:07

Des chercheurs britanniques ont montré, en analysant les habitudes de 1 300 familles, que les jeunes enfants qui dorment peu ont plus de risques de devenir obèses.

Ces scientifiques ont en effet observé que les enfants qui dormaient le moins consommaient en moyenne 10 % de calories en plus que les enfants dormant beaucoup, ce qui augmentait leur risque d'obésité et de pathologies connexes. Bien que le mécanisme responsable de cette augmentation calorique reste inconnu, les chercheurs pensent qu'il implique probablement les hormones régulant l'appétit.

Ces travaux confirment le lien entre le sommeil et l’obésité révélé par d'autres études. "Des recherches précédentes ont montré que le manque de sommeil chez les adultes encourageait à manger davantage", précise Abi Fisher, coauteure de ces travaux.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Six ans de vie en plus pour les coureurs réguliers !
Mardi, 22/04/2014 - 08:10

Selon une étude danoise réalisée par l'hôpital de l'université de Bispebierg, le fait de pratiquer la course à pied régulièrement rallongerait l'espérance de vie de six ans en moyenne.

Pour parvenir à ces conclusions, les chercheurs ont réalisé une enquête auprès de 19.239 habitants de Copenhague entre 1977 et 2001. Ils ont constaté que le risque de mort précoce était réduit de 44 % chez les personnes qui couraient régulièrement. Autre observation intéressante : ce risque était même diminué de 63 % chez les personnes qui couraient lentement…

Selon ces recherches, il serait souhaitable, pour un bénéfice optimal en matière de santé, de faire entre une heure et 2h30 de jogging par semaine mais la marche à pied pourrait être également bénéfique en matière pulmonaire et cardio-vasculaire. L'étude révèle ainsi que marcher régulièrement diminuerait le risque de mort précoce de 24 %.

Article rédigé par Georges Simmonds pour RT Flash

IBA

Sexe et autisme : des relations complexes
Mardi, 22/04/2014 - 08:00

L'autisme, un grave trouble envahissant du développement, touche beaucoup plus les garçons que les filles puisqu'en moyenne il est posé un diagnostic d'autisme pour les filles contre six pour les garçons. Mais cette différence très importante liée au sexe n'a toujours pas trouvé d'explication satisfaisante jusqu'à présent.

Pour tenter de mieux comprendre les éventuelles bases génétiques de cette profonde disparité, des chercheurs suisses et américains ont analysé les génomes de plus de 15.000 patients souffrant de différents troubles du développement. Ces scientifiques ont également analysé le génome d'enfants autistes, inclus dans la cohorte Simons Simplex Collection (SSC) qui présente l'intérêt et la particularité uniques au monde de rassembler des données sur les parents et la fratrie de familles dans lesquelles un seul enfant est atteint d'autisme.

Dans cette étude, les chercheurs se sont plus particulièrement focalisés sur certaines variations génétiques, appelées CNV et SNV et ont étudié environ 1300 gènes particulièrement impliqués dans le développement cérébral.

Les résultats montrent une présence sensiblement plus importante des mutations CNV et SNV dans l'ADN des filles que dans celui des garçons. Selon Sébastien Jacquemont qui a dirigé cette étude, "ces résultats suggèrent qu'à nombre d'atteintes génétiques égal, les filles s'en sortiraient mieux que les garçons car leur cerveau serait plus apte à compenser les effets de certaines mutations".

Article rédigé par Georges Simmonds pour RT Flash

AJHG

Cancer avancé de la prostate : vers un nouveau traitement de référence ?
Lundi, 21/04/2014 - 12:36

Actuellement, l'hormonothérapie qui permet de bloquer l'action stimulante de la testostérone sur les cellules cancéreuses est le traitement de référence pour les cancers avancés de la prostate. En revanche, l'ablation chirurgicale de la prostate (prostatectomie totale) reste le traitement de référence pour les cancers localisés présentant de faibles risques d'évolution et une étude suédoise réalisée sur 34 500 hommes et publiée en mars 2013 (Voir Medscape) a confirmé que ce geste chirurgical permettait de meilleures chances de survie que la radiothérapie pour les patients.

Mais une nouvelle étude scientifique, dirigée par le Professeur Peter Wiklund de l'Institut Karolinska de Stockholm et présentée le 16 avril à l'occasion du congrès de l'Association européenne d'urologie (EAU) à Stockholm, a fait grand bruit au sein de la communauté scientifique. Ce travail qui a suivi 1 398 hommes (répartis en deux groupes égaux) pendant 14 ans, montre en effet que les patients souffrant d'un cancer avancé et ayant été traités par chirurgie puis par hormonothérapie ont des chances de survie sensiblement plus importantes par rapport à ceux qui ont seulement bénéficié d'une hormonothérapie.

Pour parvenir à cette conclusion, les chercheurs suédois ont comparé les taux de survie entre les deux groupes de 699 patients souffrant du même type de cancer de la prostate. Dans le premier groupe, les patients n'ont été traités que par hormonothérapie mais dans le second groupe ils ont bénéficié à la fois d'une prostatectomie totale, puis d'une hormonothérapie.

Au terme de cette étude de 14 ans, les chercheurs ont constaté un taux de mortalité deux fois plus important dans le premier groupe (321 décès, dont 231 par cancer de la prostate et 90 d'autres causes), par rapport au second (155 décès dont 93 du cancer de la prostate et 62 d'autres causes). Selon le Professeur Wiklund, "Cette étude marque un changement radical dans la compréhension et la gestion du cancer avancé de la prostate et pourrait révolutionner le traitement de ce type de cancer".

Article rédigé par Georges Simmonds pour RT Flash

TOM

BMJ

Oxford

Une avancée fondamentale dans la compréhension du mécanisme de la fécondation
Lundi, 21/04/2014 - 12:28

Après plus de 10 ans de recherche, des chercheurs britanniques du Wellcome Trust Sanger ont réalisé une découverte fondamentale dans la compréhension du mécanisme moléculaire qui permet au spermatozoïde de rencontrer l’ovocyte, condition essentielle à la fécondation. Cette avancée majeure en biologie a fait l'objet de la une de la revue de Nature du jeudi 17 avril 2014.

Ces scientifiques ont découvert que ce mécanisme impliquait deux protéines-clé : Izumo et Juno.

Découverte au Japon en 2005, Izumo porte le nom d’un sanctuaire japonais dédié au mariage ; cette protéine se trouve dans la membrane des spermatozoïdes et leur permet de fusionner avec la membrane d’un ovocyte. Mais cette fois, les chercheurs anglais ont réussi à identifier son homologue féminin, une autre protéine qu’ils ont baptisée Juno, en référence à la déesse romaine des mariages et de la fécondité.

Ces chercheurs ont pu observer que la première étape de la fécondation se caractérise  par l’interaction entre les protéines Izumo du spermatozoïde et les protéines Juno situées à la surface de l’ovocyte. L'expérience confirme cette interaction fondamentale car les souris femelles conçues sans protéine Juno demeurent infertiles, tout comme les souris mâles dépourvues d’Izumo.

Comme le souligne Gavin Wright, auteur principal de cette étude, " Nous avons résolu un très ancien mystère en biologie grâce à l'identification des molécules qui permettent au sperme et à l'ovule de communiquerSans cette indispensable interaction, la fécondation ne peut tout simplement pas se produire. Nous pouvons être en mesure d'utiliser cette découverte pour améliorer les traitements de fertilité et de développer de nouveaux contraceptifs ".

L’équipe a observé qu’après cette étape initiale de fécondation, la concentration de protéines Juno diminue rapidement à la surface de l’ovule, puis ces protéines disparaissent en moins d'une heure. Ce  mécanisme permettrait à l’ovocyte de supprimer sa capacité à être identifié par les autres spermatozoïdes, à partir du moment où l’un d’entre eux est parvenu à le féconder.

Ces chercheurs britanniques travaillent désormais avec des femmes souffrant de troubles de la fertilité pour comprendre si des défauts dans ce récepteur Juno peuvent être une cause d’infertilité. Si cette hypothèse se confirme, il serait alors envisageable d’identifier l’origine du problème de fertilité par un simple test génétique et de mettre ne place des traitements personnalisés d'aide à la procréation.

Article rédigé par Georges Simmonds pour RT Flash

WTS

Nature

Activer un antibiotique grâce à la lumière !
Lundi, 21/04/2014 - 12:21

Des scientifiques du Karlsruhe Institute of Technology (KIT) en Allemagne et de l'Université de Kiev (Ukraine) ont mis au point un antibiotique dont l'action peut être contrôlée par la lumière, ouvrant la voie à des traitements localisés et à une réduction des effets secondaires.

Les molécules "photoactivables" modifient leur structure lorsqu'elles sont exposées à un rayonnement d'une certaine longueur d'onde. C'est le cas par exemple des stilbènes. Quand elles reçoivent de la lumière, ces molécules subissent une "photo-isomérisation" réversible, et passent alors d'une structure ouverte à une structure fermée, et inversement. Ce mode d'interrupteur photosensible était déjà utilisé en électronique moléculaire mais les scientifiques pensent également pouvoir l'appliquer aux biomolécules.

Les chercheurs ont validé cette approche en intégrant un stilbène dans la structure de la Gramicine S - un antibiotique polypeptidique. Un film bactérien a ensuite été recouvert par l'antibiotique inactivé et exposé à un rayonnement ultra-violet à travers un masque. Sous l'effet de la lumière, le stilbène a basculé, tel un interrupteur, de la position fermée à la position ouverte, déclenchant l'action antimicrobienne de l'antibiotique.

"A l'avenir, de tels antibiotiques photoactivables pourraient être utilisés comme des agents thérapeutiques intelligents pour combattre des infections bactériennes locales", précise le professeur Anne S. Ulrich. Ces chercheurs soulignent également qu'une technique similaire est envisageable dans le traitement de certains cancers.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Photonik

Un sang artificiel expérimenté en 2017 !
Lundi, 21/04/2014 - 08:20

De nombreux pays, dont la France, connaissent régulièrement des périodes de tension en matière de stock de sang et l'on estime qu'au niveau mondial les besoins non satisfaits de sang sont de l'ordre de 10 millions de litres par an.

Depuis plusieurs décennies, de nombreuses équipes de recherches dans le monde tentent de mettre au point un substitut artificiel au sang naturel. Récemment, une jeune société française implantée en Bretagne a ainsi annoncé qu'elle avait pu mettre au point un substitut sanguin à partir d'une molécule produite par un petit ver marin (Voir RT Flash).

Outre-Manche, des chercheurs écossais de l’Université d’Edinbourg, dirigés par Marc Turner, ont annoncé qu'ils avaient mis au point, avec le soutien de la Fondation Wellcome Trust, un procédé industriel pour fabriquer du sang artificiel à grande échelle.

Pour parvenir à ce résultat, les chercheurs ont prélevé des cellules humaines, qu’ils ont transformées, afin qu’elles deviennent des cellules souches induites. Ils ont ensuite placé pendant un mois ces cellules dans un milieu recréant les mêmes conditions biochimiques que dans le corps humain. Finalement les chercheurs ont pu obtenir des cellules sanguines du groupe O.

L'étude précise que les cellules souches utilisées proviennent de la peau ou du sang d'un donneur adulte. Ces cellules ont été génétiquement reprogrammées de manière à devenir des souches pluripotentes induites (iPS), qui possèdent la propriété de pouvoir se différencier en importe lequel des 200 tissus qui composent l'organisme. Les premiers essais cliniques sur l'homme de ce sang artificiel sont prévus fin 2016.

"Bien que des recherches similaires aient été menées ailleurs, c'est la première fois que quelqu'un réussit à fabriquer un sang aux normes de qualité et de sécurité appropriées pour être transfusé dans un être humain", a déclaré le professeur Turner.

Article rédigé par Georges Simmonds pour RT Flash

Heraldscotland

L'allaitement maternel diminue le risque d'obésité à l'âge adulte
Lundi, 21/04/2014 - 08:10

Les chercheurs de l’équipe de Recherche en Epidémiologie Nutritionnelle (EREN), dirigés par Marie Françoise Rolland-Cachera, ont étudié les relations entre l’allaitement et le risque de surpoids à l’âge adulte en tenant compte de l’alimentation à 10 mois et 2 ans des enfants inclus dans la cohorte ELANCE.

Pour mener leurs recherches, les chercheurs se sont appuyés sur les données provenant de cette cohorte regroupant des enfants en bonne santé, nés entre 1984 et 1985. Les scientifiques ont recueilli une multitude d'informations sur l’allaitement et les apports nutritionnels utilisés pour ces enfants aux âges de 10 mois et 2 ans, puis tous les deux ans jusqu’à l’âge de 20 ans. A 20 ans, plusieurs mesures ont été relevées dont la taille, le poids, et la composition corporelle (mesures de la masse maigre et de la masse grasse).

Les résultats sont intéressants puisqu'ils montrent que l’effet bénéfique de l’allaitement apparaît nettement lorsque l’on prend en considération les apports nutritionnels jusqu’à 2 ans.

En outre l'allaitement maternel est corrélé de manière significative à une diminution de la graisse corporelle à 20 ans. “Notre étude a donc montré pour la première fois que si l’on prend en compte l’alimentation après la période d’allaitement, le rôle protecteur du lait maternel sur le risque de surpoids apparait clairement,” explique Marie Françoise Rolland-Cachera, ancienne chercheuse à l’Inserm.

Ces recherches montrent donc clairement le bénéfice de l’allaitement maternel comme facteur protecteur d'une d’obésité future et soulignent également l’importance d’une alimentation équilibrée après l'allaitement.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

La musique facilite l'acquisition du langage
Lundi, 21/04/2014 - 08:00

Dans une étude portant sur des enfants scolarisés en maternelle et âgés en moyenne de quatre ans, des chercheurs de l'Université de Montréal ont montré que l’acquisition de la lecture et de l’écriture était favorisée par une éducation musicale précoce. Ces travaux confirment non seulement les bénéfices de l’apprentissage de la musique pour la mémoire auditive, mais également le lien entre la perception rythmique et les capacités à segmenter les mots en syllabes.

Jonathan Bolduc, auteur principal de l’étude, souligne que "les activités musicales vont favoriser le développement de la conscience phonologique, donc les habiletés à percevoir, segmenter et manipuler les unités sonores du langage, comme les rimes, les syllabes et les phonèmes".

Pour parvenir à ces conclusions, les chercheurs ont étudié le lien entre la perception rythmique, de l’ordre et des différentes durées des sons et les capacités à segmenter les mots en syllabes auprès de 61 enfants de 4 ans. Ces derniers ont été soumis à différents tests de perception phonologique et musicale et d'habileté cognitive.

Résultats : la capacité d'identifier la hauteur et la durée des sons est apparemment corrélée à la capacité d’identification de la syllabe. Cette étude montre également qu’une meilleure capacité de perception rythmique améliore le traitement de la syllabe.

Ces recherches confirment l’importance et l'intérêt des activités musicales et de l’enseignement de la musique à l’école pour améliorer les capacités globales d'acquisition du langage et de l'écriture à l'école.

Article rédigé par Georges Simmonds pour RT Flash

Université de Montréal

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top