RTFlash

RTFLASH Recherche & Technologie
NUMERO 873
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Novembre 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Des nanoparticules thérapeutiques à double détente
Des nanoparticules de fer contre le cancer
Cancer : des nanoparticules fluorescentes pour traquer les métastases
Matière
Produire de l'énergie à partir du CO2
Produire de l'énergie à partir des embouteillages !
Un chargeur de batterie plus performant
Systovi invente une batterie thermique pour l'énergie solaire
Espace
Les neutrinos sont-ils la clef de la présence de matière dans notre Univers ?
Terre
Comment les racines des plantes perçoivent les inondations et y répondent
Vivant
Relever et comparer des empreintes digitales en temps-réel
Un os synthétique stimule la régénérescence osseuse chez des animaux
Un nouvel angle d'attaque biologique contre les moustiques
Une nouvelle approche pour détruire les virus
Vacciner sans piqure grâce à l'amidon
Maladie de Crohn : un champignon identifié comme facteur clé de l'inflammation
Une alimentation équilibrée favoriserait l'apprentissage de la lecture chez l'enfant
Obésité : le poids de la génétique revu à la baisse...
Tabac et insuffisance cardiaque : le lien démontré
Des nouveaux traitements contre le paludisme
Cancer du sein : un catalogue complet des altérations génétiques
Recherche
Le train -zéro émissions- d'Alstom sur les rails allemands en 2018
Edito
Jusqu’où la physique quantique expliquera-t-elle le monde ?



A la fin du XIXème siècle, la communauté scientifique, grisée par les avancées remarquables de l'électromagnétisme, avec Hertz et Maxwell et de la thermodynamique, avec Carnot, Clausius et Kelvin, était persuadée que la physique était une science pratiquement achevée et que, selon l’imprudente déclaration de Kelvin, « Il ne restait plus grand-chose d’important à découvrir en physique ». Pourtant, deux ombres persistantes subsistaient dans ce tableau grandiose d’une nature enfin révélée et comprise dans ses lois les plus fondamentales : d’abord la question de la valeur de la vitesse de la lumière qui sera magistralement réglée par Einstein quelques années plus tard, lorsqu’il montrera que cette vitesse, aussi étonnant que cela puisse paraître, est indépendante de la vitesse du "référentiel" (point de repère) dans lequel elle est mesurée, ce qui conduit à renoncer aux concepts newtoniens d’espace et de temps absolus.

L'autre problème venait du spectre du rayonnement d'un corps chauffé qui n'obéissait pas aux règles de la physique classique. S’agissant de cette énigme persistante, on se souvient que c’est le grand physicien allemand Max Planck (1858-1947), qui, à l’occasion d'une séance mémorable de la Société allemande de Physique, exposa le 14 décembre1900 sa toute récente théorie des quanta (émissions de paquets discontinus d’énergie) pour expliquer de façon très convaincante la répartition spectrale du rayonnement d’un corps noir.

La suite est connue : Einstein, prolongeant les travaux de Planck montrera que la lumière, selon la façon dont on l’observe expérimentalement, possède une double nature : ondulatoire et diffuse mais également corpusculaire et ponctuelle, les fameux photons. De fil en aiguille, et grâce aux contributions décisives d’une dizaine de physiciens de génie, Einstein bien sûr mais aussi Bohr, Dirac, De Broglie, Pauli, Fermi, Heisenberg, Schrödinger, cette nature fondamentalement duale du réel, au niveau de l’infiniment petit, s’avéra également pertinente pour décrire le comportement de l’ensemble des particules connues et aussi des atomes. Finalement, au terme d’une extraordinaire période de créativité et d’effervescence scientifiques, l’édifice théorique complet de la physique quantique fut achevé en 1927, avec comme cadre l’équation d’ondes d’Edwin Schrödinger et le principe d’incertitude (ou d’indétermination) de Werner Heisenberg.

Il est à présent admis, et cela a été vérifié par l’expérience avec une précision extrême, que les composants fondamentaux qui forment la matière et transmettent l’énergie sont à la fois ondes et particules et obéissent aux étranges lois de la physique quantique : ils peuvent être simultanément dans plusieurs états à la fois et à plusieurs endroits, c’est ce qu’on appelle l’intrication ou encore la superposition quantique. Par exemple, un photon (grain de lumière) peut se trouver simultanément dans plusieurs états de polarisation. L’une des conséquences majeures de cet étrange phénomène est le principe de non-localité qui fait que les parties d’un système physique ayant interagi restent à jamais liées, même si elles se trouvent ensuite séparées par d’immenses distances. Rappelons que ce principe très troublant et qui fut fortement contesté par certains physiciens (dont Einstein lui-même) pendant plus d’un demi-siècle après l’édification de la théorie quantique, fut finalement magistralement démontré sur le plan expérimental par l’équipe française d’Alain Aspect (CNRS) en 1982.

Aujourd’hui, tel Monsieur Jourdain, nous faisons tous et tous les jours de la physique quantique sans le savoir, tant il est vrai que tous les appareils et réseaux numériques que nous utilisons sans cesse, ordinateurs, puces électroniques, GPS, lasers, disques durs, imagerie médicale, n’existeraient pas sans la physique quantique.

Depuis quelques années, une deuxième révolution quantique est en marche, qui se traduit par une nouvelle vague d’innovations technologiques qui va s’amplifier. Parmi ces ruptures technologiques majeures, on peut citer des systèmes de cryptographie quantique intrinsèquement inviolables (toute tentative d’intrusion entraînant immédiatement une perturbation visible du système) et bien sûr les ordinateurs quantiques, dont certains prototypes sont déjà en cours d’évaluation et dont la puissance attendue devrait permettre de résoudre des problèmes d’une complexité jusqu’alors insoluble.

Mais depuis quelques années, la théorie quantique ne se limite plus au champ de la physique et de la cosmologie et questionne également de manière très surprenante les sciences de la vie. On savait déjà, depuis une étude publiée en 2010 par Sarovar, Ishizaki Fleming et Whaley que, dans le processus photosynthèse, les effets quantiques interviennent au niveau du complexe protéique de Fenna-Matthews-Olson (FMO) pour permettre aux plantes de transformer la lumière du soleil en énergie chimique (Voir Nature Physics).

En 2010, une passionnante étude (Voir MIT Technology Review) s’est interrogée sur la possibilité de l’existence de propriétés quantiques au cœur même du vivant, dans notre ADN. Une équipe de recherche de l’Université de Singapour, dirigée par Elisabeth Rieper, s’est en effet attaquée à la question du déséquilibre du bilan énergétique de l’ADN. Curieusement, il semble en effet que cette remarquable structure en double hélice découverte pat Watson et Crick en 1953 parvienne à maintenir sa cohésion alors qu’elle ne dispose pas de l’énergie nécessaire…

Pour expliquer ce phénomène intrigant, ces chercheurs ont imaginé un modèle théorique de l’ADN dans lequel chaque nucléotide est formé d’un nuage d’électrons, négatif, autour d’un noyau central, positif. Le nuage oscille autour du noyau de manière harmonique, formant un dipôle ou phonon et lorsque les nucléotides se lient dans l'ADN pour former une base, ces phonons doivent osciller dans des directions opposées afin de maintenir la cohésion de la structure de cet ADN.

Mais comment ces phonons peuvent-ils s’articuler entre eux pour constituer la double hélice harmonieuse d’ADN que nous connaissons tous ? Le secret de cet agencement stable mais en déséquilibre énergétique résiderait, selon cette étude, dans l’intervention d’un phénomène de « phonon trapping », ou « piégeage de phonons », bien connu des physiciens dans le domaine de la supraconductivité. Ce mécanisme de capture serait rendu possible parce que la longueur d’onde des phonons correspondrait à la taille de l’hélice ADN, ce qui aurait pour effet la création d’ondes stationnaires permettant de maintenir captifs les fameux phonons.

Ce serait donc, selon cette hypothèse hardie, cette dimension quantique fondamentale de l’ADN qui expliquerait pourquoi l’ADN parvient à rester stable et à maintenir sa délicate structure avec un minimum d’énergie : les phonons étant dans des états intriqués, les vibrations de chacun de ces phonons seraient annulées par celles de ses voisins, ce qui permettrait d'expliquer la stabilité globale de la structure des molécules d’ADN. L’étude précise que « Nous avons démontré qu’une base ADN simple contient de l’information au sujet de son voisin, questionnant ainsi l’idée habituelle de traiter chaque base individuelle en tant qu’élément d’information indépendant ». Si cette théorie est vérifiée et s’avère exacte, ses conséquences scientifiques mais également philosophiques seraient immenses car il faudrait alors construire un nouveau cadre conceptuel complet qui articule physique quantique, génétique et biologie…

En août 2015, le physicien quantique Matthew Fisher a publié un article très remarqué (Voir Arxiv) dans lequel, s'appuyant sur la théorie proposée en 1989 par Penrose et Hamerof  - qui pose l’hypothèse d’un fonctionnement quantique du cerveau au niveau des microtubules - il propose l'hypothèse que notre cerveau puisse fonctionner, à un certain niveau, selon les lois étranges de la mécanique quantique.

Matthew Fisher s’est intéressé au mécanisme, jusqu’à ce jour mal compris, qui permet au lithium d’améliorer l’état des malades souffrant de troubles bipolaires. En explorant les études réalisées sur les effets du lithium, Fisher a retrouvé les résultats d’une expérience faite en 1986 par une équipe de l’Université de Cornel pour comparer les effets du lithium-6 et du lithium-7. Ces chercheurs ont travaillé sur les effets des 2 isotopes de lithium sur le comportement de rates en état de grossesse. Ces animaux ont été séparés en 3 groupes, un premier groupe qui a reçu du lithium-7, un second qui avait eu le lithium-6 et le troisième était un groupe de contrôle. Les chercheurs ont pu observer qu’à la naissance des ratons, les mères, qui avaient reçu le lithium-6, montraient des instincts maternels plus forts que celles ayant reçu le lithium-7 ou le groupe de contrôle.

Cette nette différence a paru d’autant plus étonnante à Fisher que ces deux isotopes étaient chimiquement semblables. Pour comprendre ce phénomène, Fisher avance l’hypothèse que c’est le spin nucléaire (l’orientation), une propriété quantique propre à chaque atome, qui pourrait bien être à l’origine de cette différence inexplicable. Fisher souligne en effet que le lithium-7 et le lithium-6 n’ont pas la même quantité de neutrons et ont, par conséquent, des spins différents. Le lithium-7 a une décohérence quantique rapide alors que le lithium-6 maintient au contraire une intrication quantique de plus longue durée. Selon Fisher, c’est précisément cet écart significatif, entre le lithium 6 et le lithium 7, dans les temps d’intrication quantique, qui expliquerait in fine l’observation d’effets thérapeutiques, eux aussi bien distincts, sur le cerveau.

Bien que cette hypothèse demande de sérieuses vérifications expérimentales, Fisher est convaincu que si le mécanisme darwinien de l’évolution a été capable d’intégrer l’intrication quantique dans la photosynthèse, pour rendre celle-ci plus efficace, on peut raisonnablement imaginer que cette évolution a également pu récupérer et exploiter certaines propriétés de la physique quantique qui permettait à notre cerveau de mieux s’adapter à un environnement complexe et changeant, condition nécessaire à la survie de notre espèce…

Enfin, il faut également évoquer l’étude réalisée en 2000 par Thorsen Ritz, chercheur à l’Université de Floride et grand spécialiste des oiseaux migrateurs. Ce chercheur s’est demandé comment le rouge-gorge parvient à accomplir l’exploit de parcourir chaque année 13 000 km de la Scandinavie à l’Afrique équatoriale, sans jamais se perdre. Certes, les scientifiques savaient déjà depuis plus de 40 ans que les oiseaux migrateurs ne sont pas sensibles aux inversions du champ magnétique et ne sont donc pas en mesure de distinguer le nord du sud. En revanche, d’autres expériences ont montré que ces oiseaux savent distinguer l’inclinaison du champ magnétique, c’est-à-dire l’angle que ce dernier forme par rapport à la surface terrestre.

Mais la surprise des chercheurs fut plus grande encore lorsqu’ils constatèrent que ces oiseaux semblaient perdre leurs sens infaillible de l’orientation lorsqu’on leur bandait les yeux. C’est là qu’intervient Thorsen Ritz, qui propose une théorie pour le moins iconoclaste mais cohérente. Selon lui, les oiseaux migrateurs auraient une rétine qui aurait la particularité de contenir une molécule composée d’une paire d’électrons intriqués de spin total nul. En étant plus ou moins exposée aux photons composant la lumière, cette molécule provoquerait la décohérence (fin de l’intrication quantique liée aux perturbations macroscopiques de l’environnement) de ces deux électrons et l’oiseau deviendrait alors sensible au champ magnétique terrestre.

De manière remarquable, des expériences en laboratoire montrent que l’inclinaison du champ magnétique affecte différemment les deux électrons et perturbe ce système intriqué. Ce déséquilibre provoque alors une réaction chimique qui est transmise au cerveau de l’oiseau par un influx nerveux. L’oiseau est ainsi en mesure de "visualiser" le champ magnétique et ses variations. D’autres recherches, comme celles que j’ai évoquées sur la photosynthèse, montrent que, dans ce processus complexe qui permet aux plantes de transformer la lumière en énergie chimique, il est difficile d’expliquer l’efficacité et le rendement de ce mécanisme sans avoir recours à  la physique quantique.

Il faut enfin évoquer les travaux passionnants de Jeffrey Schwartz, neuropsychiatre de l’Université de Californie et Henry Stapp, physicien théoricien à l’Université de Berkeley, sur le fonctionnement du cerveau. Ces deux chercheurs reconnus, s’inspirant de la théorie de Penrose et des travaux de John ’Eccles, veulent construire une théorie de l’esprit qui intègre la physique quantique de manière rigoureuse.

Selon eux, si nous voulons comprendre un phénomène aussi singulier et complexe que la conscience, il faut dépasser l’opposition stérile en entre la vision purement matérialiste et la conception spiritualiste de l’esprit. Ces scientifiques soulignent que le fonctionnement de notre cerveau dépend d’une multitude de processus moléculaires, atomiques et ioniques. Ils prennent l’exemple des canaux d’ions calcium dans les synapses neuronales, qui mesurent moins d’un nanomètre de diamètre et soulignent qu’à une échelle si microscopique, ces ions calcium obéissent aux lois de la physique quantique. Ce qui veut dire que ces ions vont être ou non absorbés par la paroi cellulaire du neurone, ce qui va provoquer, ou non, l’émission d’un neurotransmetteur. Ces chercheurs remarquent que le fait de modifier son attention sur un objet précis modifie le résultat de l’observation et influe en retour sur le fonctionnement du le cerveau. Il ne faudrait donc plus envisager l’esprit comme une simple "superstructure", produite par notre cerveau mais considérer qu’esprit et cerveau forment un couple indissociable et se coproduisent l’un l’autre. S’appuyant sur leurs observations, Schwartz et Stapp sont persuadés qu’il faut parvenir à construire une théorie quantique de la conscience qui articule et intègre dans un nouveau cadre conceptuel les approches physique, génétique, biologique, psychologique et cognitive du cerveau.

Ce que nous montrent ces récentes recherches et découvertes, c’est qu’après nous être très longtemps apparues comme radicalement séparées, tant sur le plan scientifique que théorique et philosophique, il semble bien que les sciences de la matière et celles du vivant soient reliées par des ponts subtils et invisibles qui assurent un extraordinaire continuum et une prodigieuse cohérence entre l’inerte et l’animé, la matière et l’esprit. Il semble également, bien que cette exploration scientifique ne fasse que commencer, que la physique quantique soit l’un de ces ponts ouvrant vers de nouveaux et vastes horizons de la connaissance et ce siècle ne sera sans doute pas trop long pour explorer le nouveau monde que ce pont est en train de nous dévoiler.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Des nanoparticules thérapeutiques à double détente
Jeudi, 10/11/2016 - 06:40

Deux équipes de l’Institut de Recherche sur le Médicament de la Faculté de Pharmacie de Jérusalem se sont intéressées au développement de nanoparticules doubles : des nanoparticules de 100 nm encapsulées au sein d’une seconde nanoparticule de taille avoisinant les 600 nm.

Le but de ce double encapsulage est de pouvoir utiliser des fragments d’ARN (macromolécules permettant la réplication de l’ADN au sein des cellules) appelés Si-RNA. Ceux-ci  possèdent un fort potentiel pour traiter une grande variété de troubles génétiques. Cependant, ces traitements ne peuvent être administrés en tant que tels aux patients parce qu’ils possèdent une courte demi-vie dans la circulation sanguine et présentent une faible absorption cellulaire, empêchant toute efficacité. Les nanoparticules se placent donc comme d’excellents candidats pour lever ce verrou technologique.

Les nanoparticules primaires sont développées à partir de sérum-albumine humaine, un composé qui présente une forte interaction avec les fragments d’ARN mais qui a pour inconvénient de se dégrader très rapidement dans la circulation sanguine et d’entraîner une libération trop rapide de l’ARN.

Pour protéger ces nanoparticules primaires, l’équipe du Docteur Yavin et Professeur Benita, chercheurs de la Faculté de Pharmacie de Jérusalem, a alors décidé de développer des nanoparticules doubles. Les nanoparticules primaires ont ainsi été placées à l’intérieur de nanoparticules polymères à base d’acide polylactique et glycolique.

Ce matériau, biocompatible et biodégradable, a pour avantage de présenter une vitesse de dégradation lente dans la circulation sanguine et aucune toxicité. Néanmoins, après une injection par voie intraveineuse, il peut être reconnu par le système immunitaire en tant qu’agent étranger et être éliminé. Les chercheurs ont réussi à s’affranchir de ce problème en greffant des motifs de polyéthylène glycol (PEG) au sein du polymère.

Pour obtenir ces doubles nanoparticules, les chercheurs ont utilisé une technologie innovante basée sur la nano-pulvérisation à basse température afin de préserver l’intégrité des fragments d’ARN. Les études in vitro ont montré que ces outils permettent une bonne internalisation des nanoparticules par les cellules, suivie d’une libération du fragment d’ARN qui peut alors être répliquée par la machinerie cellulaire. Ces résultats, très encourageants, montrent le potentiel de ce nouveau procédé de développement de doubles nanoparticules.

Article rédigé par Georges Simmonds pour RT Flash

NIH

Des nanoparticules de fer contre le cancer
Mercredi, 09/11/2016 - 06:15

Des chercheurs de l'Ecole de Médecine de Stanford, dirigés par Heike Elisabeth Daldrup-Link, ont pu montrer, grâce à des expérimentations utilisant des nanoparticules de fer pour transporter la chimiothérapie directement dans les cellules cancéreuses, que les nanoparticules elles-mêmes semblent en mesure de combattre le cancer, même en l'absence de molécule thérapeutique à l'intérieur.

L'expérience menée sur des souris atteintes de cancer a permis de comparer  les réactions de trois groupes. Le premier a bénéficié d'un traitement en chimiothérapie véhiculé par des nanoparticules de fer. Les deux autres groupes sont appelés « contrôle » car ils n'ont pas été en contact avec le traitement. Le deuxième n'a en effet reçu que les nanoparticules et le troisième n'a subi aucune intervention. Or, la croissance du cancer a été fortement amoindrie dans le deuxième groupe, par rapport au troisième.

Poursuivant leurs investigations, les chercheurs ont remarqué que les macrophages sont indispensables dans l'activité anti-cancer. Chez une personne en bonne santé, ces macrophages « mangent » les cellules tumorales individuelles. Mais quand une tumeur s'agrandit, elle détourne peu à peu les macrophages de leur rôle : ils cessent d'attaquer le cancer et sécrètent même des facteurs qui favorisent sa croissance !

Ces recherches montrent que les nanoparticules de fer redonnent aux macrophages leur fonction initiale anti-cancer. Une injection unique conserve cet effet jusqu'à trois semaines. Encore plus étonnant,  les nanoparticules empêchent la propagation du cancer dans d'autres endroits du corps, notamment le foie, et réduisent les métastases qui ont déjà colonisé cet organe. Les patients auxquels le chirurgien n'a pas pu retirer l'ensemble de la tumeur pourraient donc bénéficier d'un traitement à l'aide de ces nanoparticules… 

Article rédigé par Georges Simmonds pour RT Flash

Nature

Cancer : des nanoparticules fluorescentes pour traquer les métastases
Lundi, 07/11/2016 - 16:57

Les nanoparticules lipidiques sont considérées comme d’excellents candidats pour délivrer des médicaments, notamment pour traiter les cancers. En effet, ces vecteurs présentent une faible toxicité, sont biodégradables et permettent facilement d’encapsuler des composés actifs à visée thérapeutique.

Toutefois, leur application médicale reste pour le moment très limitée car il existe peu de moyens – après leur administration dans un organisme vivant – pour s’assurer de leur intégrité jusqu’à ce qu’elles aient atteint leur cible, par exemple une tumeur, et y délivrent leur contenu.

Les équipes de J. Goetz (Unité Inserm 1109), d’A. Klymchenko (UMR CNRS 7213) et de N. Anton (UMR CNRS 7199) à Strasbourg se sont associées pour développer des nanoparticules lipidiques, d’environ 100 nm de diamètre, contenant deux types de molécules fluorescentes très brillantes et capables d’effectuer un phénomène physique classique de transfert de fluorescence entre elles. Ce qui signifie que, tant que les molécules fluorescentes sont à l’intérieur de la capsule à proximité les unes des autres, le transfert « lumineux » s’effectue et est quantifiable.

De façon ingénieuse les chercheurs ont l’idée de mesurer ce transfert de fluorescence, sa diminution signifiant que la capsule est en cours de désintégration. Ils peuvent ainsi suivre en temps réel l’intégrité et la désintégration des nanoparticules.

Ces nanoparticules ont été injectées dans la circulation de souris saines ou porteuses de tumeurs et leur intégrité mesurée par fluorescence. Les mesures montrent que les nanoparticules restent intactes à 93 % dans la circulation sanguine jusqu’à 6 heures après injection. Par ailleurs, ils ont constaté que les nanoparticules créées possèdent des propriétés qui leur permettent de cibler très rapidement et efficacement une tumeur : 77 % d’entre elles y sont intactes après 2 heures. De manière intéressante, ces nanoparticules se désintègrent ensuite rapidement au sein de la tumeur pour atteindre 40 % de particules intactes après 6 heures.

Ces résultats montrent que les particules lipidiques développées par les chercheurs alsaciens constituent des objets remarquablement stables dans la circulation sanguine. Celles-ci sont ensuite rapidement désintégrées au sein d’une tumeur, leur cible. Ces travaux permettent d’envisager l’encapsulation de composés actifs destinés à enrayer la progression et la dissémination d’un foyer tumoral.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

^ Haut
Matière
Matière et Energie
Produire de l'énergie à partir du CO2
Jeudi, 10/11/2016 - 06:50

Une équipe multidisciplinaire de scientifiques et d’ingénieurs de l’Université de Toronto pense avoir trouvé un moyen de convertir toutes les émissions de CO2 en combustible riche en énergie dans un cycle neutre en carbone qui utilise une ressource naturelle très abondante : le silicium. Présent en grande quantité dans le sable, le silicium est le septième élément plus abondant dans l’univers et le second élément le plus abondant dans la croûte terrestre.

L’idée de convertir les émissions de CO2 en énergie n’est pas nouvelle. Mais il s'agit d'un objectif difficile à atteindre en raison de la grande stabilité chimique du CO2 qui rend difficile la découverte d’une solution pratique. « Une solution chimique nécessite un matériau catalyseur très actif et sélectif pour permettre la conversion de CO2 en combustible. Il doit également être fait d’éléments à faible coût, non-toxique et facilement accessible », déclare le professeur Geoffrey Ozin, Chaire de recherche du Canada en chimie des matériaux et directeur du groupe de recherche sur les carburants solaires de l’Université de Toronto.

Ces recherches ont permis de découvrir un type de nanocristaux de silicium à terminaison hydrure – Hydrures nanostructurés - qui disposent d’une surface et de la force d’absorption optique suffisante pour récolter efficacement les longueurs d’onde proche infrarouge, visible et ultraviolet de la lumière du soleil avec un puissant agent chimique réducteur sur la surface qui convertit efficacement et sélectivement le dioxyde de carbone gazeux en monoxyde de carbone gazeux.

"Utiliser le pouvoir réducteur d’hydrures nanostructurés pourrait déboucher sur la production de combustibles directement à partir de la lumière du soleil", explique le Professeur Ozin. Le groupe de recherche sur les carburants solaires cherche maintenant des moyens d’augmenter l’activité, d’augmenter l’échelle et le taux de production. Leur objectif est d’obtenir une unité de démonstration en laboratoire et, en cas de succès, une raffinerie solaire pilote.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Produire de l'énergie à partir des embouteillages !
Mercredi, 09/11/2016 - 06:30

Les routes particulièrement chargées de Californie pourraient devenir des sources d'énergie. La commission de l'énergie en Californie est en train d'investir deux millions de dollars pour savoir si l'énergie produite par la circulation automobile pourrait se transformer en électricité. Il s'agit notamment d' étudier comment des petits cristaux, qui génèrent de l'énergie quand ils sont compressés, pourraient produire de l'électricité s'ils sont installés sous l'asphalte.

Le principe repose sur la mise en place de cristaux piézoélectriques sous l'asphalte, qui récupèrent l'énergie produite par le mouvement de circulation des voitures. Selon la société israélienne Innowattech qui a déjà travaillé sur ce type de projet, un tronçon d'un kilomètre de route électrique pourrait produire jusqu'à 500 kilowattheures, soit l'énergie nécessaire à l'alimentation de 600 à 800 maisons. Ce dispositif pourrait permettre à la Californie d'atteindre son objectif de produire 50 % de son électricité à partir des énergies renouvelables. A l'heure qu'il est, la Californie est en passe d'atteindre sa cible de 25 % avant la fin de l'année 2016.

Article rédigé par Georges Simmonds pour RT Flash

AP

Un chargeur de batterie plus performant
Mardi, 08/11/2016 - 06:10

ABB a présenté un chargeur de nouvelle génération, basé sur des semi-conducteurs de puissance au carbure de silicium (SiC). Le carbure de silicium est un minerai artificiel composé de silicium et de carbone. Il possède de nombreuses propriétés remarquables : un champ de claquage élevé, une grande vitesse de saturation des électrons et une forte conductivité thermique. Il peut aussi travailler à haute fréquence et à haute température. Ces différentes propriétés en font un matériau pour des composants de puissance capables de travailler avec des puissances très variables.

Le chargeur est ainsi compatible avec toutes les tensions de batterie connues à bord des trains. Celles-ci sont importantes car elles alimentent des circuits comme l’éclairage ou  les commandes. De la taille d'une boîte à chaussures, il est environ 10 fois plus petit et 80 % plus léger que les générations précédentes, tandis que sa densité de puissance d’1 kW par litre et par kg est 15 fois supérieure à celle de ses prédécesseurs.

Le carbure de silicium devrait progressivement remplacer le silicium dans tous les véhicules électriques et plus généralement pour tous les composants de puissance appelés à fonctionner au-delà de 1000 V. Il génère en effet beaucoup moins de pertes thermiques. Le « Bordline BC » sera utilisé dans le train à grande vitesse EC250 de SBB, qui roulera à partir de 2019. ABB espère développer des convertisseurs auxiliaires à partir du carbure de silicium et à plus long terme des convertisseurs de traction.

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

Systovi invente une batterie thermique pour l'énergie solaire
Mardi, 08/11/2016 - 06:00

Pour surmonter l'obstacle lié à la nature intermittente de l'énergie solaire, la société nantaise Systovi apporte une solution présentée comme une première mondiale : une batterie thermique, par opposition aux électrochimiques. Elle fonctionne avec les panneaux aérovoltaïques, produisant électricité et air chaud, que Systovi a déjà mis sur le marché. Baptisée « Stock-R », cette invention se compose de plaques d'aluminium emprisonnant du bichlorure de sodium. Ces capsules sont intégrées dans un échangeur en polypropylène expansé, l'air circulant entre les plaques. Ainsi, le sel hydraté emmagasine la chaleur produite par les capteurs solaires durant les heures ensoleillées.

Le matériau, dit à changement de phase, modifie son état en fonction de la température de l'air. Sous l'effet de la chaleur, il fond, ce qui lui permet de collecter l'énergie thermique de l'air. En fin de journée, quand l'air ambiant se refroidit, il se solidifie et l'énergie thermique stockée est restituée, déchargeant la batterie. Durant cette phase, l'air se réchauffe et peut être insufflé dans l'habitat à une température supérieure à 25°C pendant cinq heures.

Systovi estime à 30 ans la durée de vie de sa batterie et assure un silence total de fonctionnement, aucune pièce mécanique n'étant en mouvement. Le coût unitaire de la batterie est de 875 euros, mais il faut compter près de 2.000 euros pour une maison de 100 mètres carrés, nécessitant deux batteries et le système d'aération.

Article rédigé par Georges Simmonds pour RT Flash

Systovi

^ Haut
Espace
Espace et Cosmologie
Les neutrinos sont-ils la clef de la présence de matière dans notre Univers ?
Mardi, 08/11/2016 - 06:15

D’où vient la prédominance actuelle de la matière sur l’antimatière dans l’Univers alors qu’elles étaient toutes deux présentes en quantité strictement égale juste après le Big Bang ? Comprendre cette asymétrie est un enjeu scientifique fondamental car matière et antimatière ne pouvaient pas « cohabiter » durant la phase de refroidissement de notre univers. Un comportement très différent entre les neutrinos et les antineutrinos pourrait expliquer la « survie » de la matière.

Les chercheurs de l’expérience T2K, installée au Japon, se sont ainsi penchés sur les oscillations quantiques des neutrinos et des antineutrinos. Pour ce faire, ils ont utilisé un faisceau de neutrinos muoniques créé à Tokai (sur la côte est du pays) et l’ont dirigé vers le détecteur Super-Kamiokande près de Kamioka (côte ouest), un détecteur souterrain rempli de 50 000 tonnes d’eau et situé à 295 km de distance. L’équipe de recherche s’est ensuite intéressée au nombre de neutrinos électroniques étant apparu dans le détecteur Super-Kamiokande, preuve que les neutrinos muoniques s’étaient transformés au cours du voyage entre Tokai et Kamioka. L’expérience a été répétée avec un faisceau d’antineutrinos muoniques.

Si la différence matière-antimatière avait été nulle, 24 neutrinos et 7 antineutrinos – l’antimatière étant plus difficile à produire et à détecter – auraient dû apparaître dans Super-Kamiokande. Les premiers résultats ont fait apparaître 32 neutrinos et 4 antineutrinos. Le comportement différent de ces particules subatomiques pourrait apporter des réponses au mystère de l’Univers.

Article rédigé par Georges Simmonds pour RT Flash

Ecole Polytechnique

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Comment les racines des plantes perçoivent les inondations et y répondent
Mardi, 08/11/2016 - 06:20

La croissance et la survie des plantes reposent largement sur leurs racines, dont les ramifications dans le sol permettent d’y prélever l’eau et les nutriments nécessaires. Ces activités souterraines requièrent de l’énergie et donc une respiration intense des racines, qui utilisent l’oxygène présent dans les cavités du sol. En cas d’inondation, l’oxygène, qui diffuse mal dans l’eau, vient à manquer, générant un stress sévère pour les racines et la plante. En conséquence, la perméabilité à l’eau des racines de nombreuses plantes est réduite. C’est ainsi que les plantes poussant dans un sol inondé voient parfois leur teneur en eau se réduire, et leurs feuilles flétrir – un paradoxe bien connu des agronomes.

En utilisant différentes lignées de la plante modèle Arabidopsis thaliana, des chercheurs du Laboratoire de biochimie et physiologie moléculaire des plantes de Montpellier (CNRS/Inra/Université Montpellier/Montpellier SupAgro) et de l’Institut Jean-Pierre Bourgin (Inra/AgroParisTech/CNRS) ont identifié un gène qui contrôle la perméabilité à l’eau des racines, sous l’influence conjointe des teneurs en oxygène et en potassium du sol.

Nommé HCR1, il réduit l’entrée d’eau dans les racines quand l’oxygène fait défaut… mais uniquement quand le sol est aussi riche en potassium, un sel minéral indispensable à la croissance des plantes. De fait, ces conditions sont favorables à une meilleure récupération une fois l’inondation passée. Aussi, le gène HCR1 déclenche toute une série de réactions métaboliques de "survie" qui contribuent à la résilience de la plante. Lorsqu’elle retrouve un sol oxygéné, la plante réhydrate ses feuilles et croît davantage que si elle avait été précédemment privée de potassium.

L’identification d’un mécanisme reliant disponibilité en oxygène, teneur en minéraux et perméabilité à l’eau des racines est donc une avancée importante pour l’agronomie. Ce mécanisme représente une cible prometteuse pour de futurs travaux dans le domaine de l’amélioration des plantes. 

Article rédigé par Georges Simmonds pour RT Flash

INRA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Relever et comparer des empreintes digitales en temps-réel
Jeudi, 10/11/2016 - 06:30

Le Council for Scientific and Industrial Research (CSIR - AFrique du Sud), principal centre de recherche non-universitaire du pays, a révélé le 15 septembre 2016 un prototype d’instrument capable de récolter et comparer le plus efficacement possible les empreintes digitales présentes sur une scène de crime.

Une fois pleinement opérationnel, ce dispositif permettrait de scanner et de chercher en temps réel des correspondances en utilisant les bases de données de la police. La technique appliquée est la Tomographie en cohérence optique (TCO), technique utilisant une onde lumineuse pour capturer des images tridimensionnelles d’un matériau qui diffuse de la lumière qui est notamment utilisée en imagerie médicale.

Ce dispositif constituerait une amélioration tangible par rapport aux méthodes de récoltes actuellement utilisées, permettant un traitement des données plus rapide et en évitant une altération des preuves, l’ADN relié aux empreintes (sang, sueur) étant actuellement parfois rendu inutilisable. D’après ce prototype, prometteur, les recherches vont continuer afin de rendre le système plus efficace et opérationnel sur différents types de support (métal, bois…) et également de réduire sa taille et ainsi rendre l’instrument facilement transportable sur les scènes de crime.

Article rédigé par Georges Simmonds pour RT Flash

Engineering News

Un os synthétique stimule la régénérescence osseuse chez des animaux
Jeudi, 10/11/2016 - 06:20

Des chercheurs américains ont mis au point, avec une imprimante, un os synthétique composé d'un bio-matériau malléable et résistant qui stimule la régénérescence osseuse naturelle chez des animaux de laboratoire, montre une étude prometteuse pour la chirurgie réparatrice.

Cette découverte ouvre la voie à des implants et prothèses bon marché pour traiter un ensemble de blessures osseuses, dentaires mais aussi pour la chirurgie plastique. Les chercheurs ont ainsi pu réparer avec succès une blessure à la colonne vertébrale en favorisant la fusion des vertèbres chez des rats et une malformation crânienne chez un singe. Le trou dans le crâne de ce macaque rhésus s'est refermé en seulement quatre semaines sans aucun signe d'infection ou d'effets secondaires.

À la différence des autres greffes osseuses synthétiques existantes, ce nouveau matériau est à la fois élastique et très solide. Il peut aussi être découpé facilement, assurent les chercheurs. Il est en outre capable de régénérer des tissus osseux naturels sans avoir à y ajouter des substances pour favoriser la croissance de l'os et peut aisément être mis en place dans un bloc opératoire. "Ces travaux représentent ce qui pourrait être la prochaine percée en orthopédie, et chirurgie cranio-faciale et pédiatrique quand il s'agit de réparer et de régénérer des os", a estimé Ramille Shah, professeur adjointe de science des matériaux et de chirurgie à l'Université Northwestern (Illinois, nord), qui a dirigé cette étude.

Dans ces recherches, "l'encre" utilisée pour l'imprimante 3D est un mélange d' l'hydroxyapatite, le principal composant minéral des tissus osseux et d'un liant à base de polymère, un plastique, qui est aussi bio-compatible et bio-résorbable. Autrement dit, une fois implanté dans des animaux de laboratoire, ce nouvel os synthétique se fond rapidement dans les tissus environnants, tout en stimulant la régénération de l'os naturel. Les premières applications cliniques pourraient être possibles dans les cinq ans, espèrent ces chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

STM

Un nouvel angle d'attaque biologique contre les moustiques
Jeudi, 10/11/2016 - 06:10

Les moustiques propagent de nombreuses maladies, parmi lesquelles le paludisme, transmis par les moustiques Anophèles, et la filariose, transmise par les moustiques Culex. La toxine BinAB, produite sous forme de nano-cristaux par la bactérie Bacillus sphaericus, cible spécifiquement les larves de ces deux groupes de moustiques. Une intoxication complexe en cinq étapes explique la sureté environnementale de la toxine BinAB, inoffensive pour les autres insectes, les crustacés et l’être humain. BinAB est ainsi utilisée dans de nombreux pays pour réguler les populations de moustiques.

Hélas, la force de BinAB est aussi sa faiblesse : la toxine est inefficace sur les larves des moustiques Aedes, vecteurs de la dengue, du Zika et du chikungunya. Un remodelage de BinAB pourrait permettre d’étendre son spectre d’action, mais encore faudrait-il connaitre sa structure. La cristallographie aux rayons X est une méthode de choix pour révéler la structure d’une protéine, mais elle s’applique généralement à de gros cristaux, d’un dixième de millimètre environ. Or les nano-cristaux de BinAB formés in vivo ne mesurent que quelques dix-millièmes de millimètre et la toxine dissoute ne recristallise pas.

Un consortium international de scientifiques réunis autour de Jacques-Philippe Colletier, chercheur CNRS à l’Institut de biologie structurale (CNRS/CEA/Université Grenoble Alpes), Brian Federici, professeur à l’Université de Californie à Riverside (UCR), et David Eisenberg, professeur à l’Université de Californie à Los Angeles (UCLA), vient de publier cette structure, résolue à partir des nano-cristaux naturels.

Face à la taille très petite des cristaux, ils ont eu recours à une source de rayons X d’un nouveau type, un laser à électrons libres, dont la particularité est de délivrer des pulses de rayons X ultra-courts mais très intenses. Ainsi, la structure de BinAB est non seulement la première structure résolue à partir de cristaux si petits, mais elle est aussi la première structure inconnue résolue de novo dans un laser à électrons libres.

En outre, connaître la structure de BinAB ouvre la voie vers une extension de son spectre d’action. Le but : développer une toxine « trois en un » visant les larves des trois types de moustiques : les Aedes (en vue notamment de contrer la progression du virus Zika), les Culex (vecteurs de la filiarose) et les Anopheles (vecteurs du paludisme).

Article rédigé par Georges Simmonds pour RT Flash

CEA

Une nouvelle approche pour détruire les virus
Jeudi, 10/11/2016 - 06:00

L'équipe « Physiopathologie et thérapeutiques des hépatites virales chroniques et des cancers liés » de l'Institut Mondor de recherche biomédicale (Inserm/UPEC), en collaboration avec des chercheurs du Centre de biochimie structurale (CNRS/Inserm/Université de Montpellier), avec le soutien de l'ANRS, a créé une toute nouvelle famille d'inhibiteurs de cyclophilines, des protéines indispensables au métabolisme des cellules, à fort potentiel thérapeutique en tant qu'antiviraux à large spectre.

Cette découverte ouvre également la voie à l'utilisation de ces nouveaux inhibiteurs en tant que protecteurs cellulaires dans le contexte de l'ischémie-reperfusion (greffes d'organes, récupération après accidents ischémiques, maladies neurodégénératives).

Les cyclophilines sont des protéines cellulaires jouant des rôles complexes et indispensables dans le métabolisme des cellules. Elles sont très souvent utilisées par les virus pour faciliter leur cycle viral. Les cyclophilines représentent donc une cible potentielle pour des médicaments antiviraux à large spectre, c'est-à-dire efficaces contre de nombreuses familles de virus. Les inhibiteurs de cyclophilines ont également des propriétés de protecteurs cellulaires liés à l'inhibition de l'ouverture du pore mitochondrial. Malheureusement, les inhibiteurs existants, tous dérivés de la cyclosporine A, posent des problèmes importants handicapant leur développement clinique.

Les équipes du Professeur Jean-Michel Pawlotsky (Institut Mondor de recherche biomédicale, Hôpital Henri Mondor AP-HP, Inserm/Université Paris-Est Créteil) et du Docteur Jean-François Guichou (Centre de biochimie structurale, Université de Montpellier/CNRS/Inserm) ont joint leurs forces et utilisé des techniques innovantes pour créer et optimiser une toute nouvelle famille chimique ciblant directement les cyclophilines. Ce travail a reçu le soutien de l'ANRS. Les nouveaux inhibiteurs bloquent ainsi spécifiquement l'action des cyclophilines en inhibant la multiplication de virus appartenant à différentes familles virales comme le virus de l'hépatite C, le VIH, le virus de l'hépatite B et plusieurs souches de coronavirus.

Ce travail a donc permis de créer une toute nouvelle famille d'inhibiteurs de cyclophilines à fort potentiel thérapeutique en tant qu'antiviraux à large spectre, c'est-à-dire actifs contre de nombreuses familles virales aujourd'hui sans traitement. Cette découverte ouvre également la voie à l'utilisation des nouveaux inhibiteurs en tant que protecteurs cellulaires dans le contexte de l'ischémie-reperfusion (greffe d'organes, récupération après accidents ischémiques, maladies neurodégénératives).

Article rédigé par Georges Simmonds pour RT Flash

News Press

Vacciner sans piqure grâce à l'amidon
Mercredi, 09/11/2016 - 06:25

La société Vaxinano a mis au point une technique de vaccination, à base de nanoparticules d’amidon, qui permet d’administrer le vaccin avec un maximum d’efficacité et un minimum de toxicité, ouvrant ainsi un nouveau et immense champ d'application à la vaccination.

Vaxinano a déjà testé sa solution, avec succès, pour agir sur la toxoplasmose du mouton. « Il n’y avait qu’un seul vaccin et il a été retiré du marché », précise Étienne Vervaecke, le directeur du parc Eurasanté. La base du vaccin est véhiculée sur une nanoparticule en amidon, jusqu’au cœur des cellules à traiter.

La structure en amidon a un double avantage par rapport à une nanoparticule classique (en oxyde métallique, par exemple). Poreuse, elle permet de transporter une plus grande quantité de matière. Les chercheurs peuvent facilement y loger les 2.200 protéines de la toxoplasmose, qui provoqueront la réponse immunitaire désirée.

En outre, l’amidon s’élimine rapidement. Concrètement, la nanoparticule ne sera donc toxique ni pour l’animal, ni pour l’environnement. Enfin, dernier avantage, comme il est fixé sur ses nanoparticules, le vaccin peut être administré par voie respiratoire et n'a plus besoin d'être administré par piqûre ! 

Article rédigé par Georges Simmonds pour RT Flash

Vaxinano

Maladie de Crohn : un champignon identifié comme facteur clé de l'inflammation
Mercredi, 09/11/2016 - 06:05

Des chercheurs américains ont identifié un champignon qui semble être impliqué dans la maladie de Crohn. Déjà identifié chez des souris malades, ils ont découvert que, associé à deux bactéries du microbiote, il provoquait l'inflammation et la maladie de Crohn chez l'homme. "Nous savions déjà que les bactéries, en plus des facteurs génétiques et alimentaires, jouent un rôle majeur dans le développement de la maladie de Crohn", explique le docteur Mahmoud A Ghannoum, professeur au Centre de mycologie médicale de la Case Western Reserve, et auteur de cette nouvelle étude.

Ce spécialiste et son équipe sont allés plus loin en décryptant pour la première fois le rôle des champignons présents dans la flore intestinale, qui cohabitent avec les bactéries, connues comme responsables des réponses immunitaires des patients malades.

Après avoir analysé les échantillons fécaux de patients atteints de la maladie de Crohn ainsi que de leurs parents "sains", ils ont identifié des interactions fongiques-bactériennes très marquées chez les participants atteints de la maladie de Crohn. Les bactéries "Escherichia coli" et "Serratia marcescens" ainsi qu'un champignon, le "Candida tropicalis" s'avèrent présents à des niveaux plus élevés que chez les sujets sains.

Selon leur hypothèse, ces deux bactéries et ce champignon interagiraient dans les intestins et combineraient ainsi leurs efforts pour produire un biofilm qui adhère à une partie des intestins, favorisant ainsi l'inflammation, et les symptômes de la maladie (diarrhées, constipation, amaigrissement, grande fatigue).

De récents travaux français ont également fait le lien entre la composition des champignons et levures présents dans le micro-biote et l'apparition des maladies chroniques inflammatoires de l'intestin (MICI). L'équipe du Docteur Harry Sokol du service de gastro-entérologie et nutrition à l'hôpital Saint-Antoine à Paris a constaté chez 235 patients atteints de ces pathologies un ratio plus important de Basidiomycota / Ascomycota, une proportion plus forte de Candida albicans et une présence plus faible de Saccharomyces cerevisiae que dans celui des 38 sujets en bonne santé.

Ces nouvelles données pourraient donner lieu au développement de nouveaux traitements - probiotiques notamment -, qui pourraient diminuer la charge des champignons pro-inflammatoires ou au contraire enrichir le microbiote avec des champignons protecteurs.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Une alimentation équilibrée favoriserait l'apprentissage de la lecture chez l'enfant
Mercredi, 09/11/2016 - 06:00

Les chercheurs finlandais de l’University of Eastern Finland et de l’University of Jyväskylä ont suivi l’évolution dans l’apprentissage de la lecture, de la première à la troisième primaire, de 161 enfants âgés de 6 à 8 ans. Afin de mesurer la qualité de leur alimentation, ils se sont basés sur deux grilles d'analyse : le Baltic Sea Diet Score et le Finnish Children Healthy Eating Index.

Ces deux scores se basent d’une part sur la richesse en légumes, fruits, baies, poissons, céréales complètes, produits laitiers peu gras et huile végétale pour obtenir des scores élevés, et d’autre part, sur la présence moindre de viande rouge et charcuteries, produits sucrés et/ou riches en graisses saturées, pour délivrer des scores bas. Les aptitudes à lire étaient évaluées sur la base de tests standards en la matière.

Les résultats montrent qu’une alimentation de qualité est associée à une plus grande fluidité de lecture (+4 points en moyenne, soit 10 à 20 % des scores totaux) et à de meilleurs scores de compréhension à la lecture (1.3 à 1.9 points soit 14 à 38 % des scores totaux) lorsque les enfants grandissent, en comparaison d’une alimentation de piètre qualité.

Ces meilleurs résultats sont indépendants du niveau de lecture observé en première année et de plusieurs facteurs confondants (statut socio-économique, activité physique, adiposité et forme physique). Cette étude est une nouvelle démonstration de l’importance de la place de l’alimentation dans les capacités d’apprentissage et les performances scolaires chez l’enfant.

Article rédigé par Georges Simmonds pour RT Flash

EJN

Obésité : le poids de la génétique revu à la baisse...
Mardi, 08/11/2016 - 06:05

Selon une étude britannique portant sur plus de 10 000 patients, le fait d'être porteur de la variation génétique appelée FTO, associée à un risque accru d'obésité, ne semble pas affecter la capacité d'un individu à perdre du poids et ces recherches montrent que les individus porteurs de cette variation FTO réagissent aussi bien que les autres aux actions pour perdre du poids basées sur l'alimentation, l'activité physique ou les traitements médicamenteux. L'étude souligne que "la prédisposition génétique à l'obésité peut être contrebalancée au moins en partie par un changement de mode de vie".

Dans les études analysées, les participants à des programmes de perte de poids porteurs de la variation FTO pesaient en moyenne presque un kilo (0,89 kg) de plus que les autres au début de l'expérience. Mais ils ont ensuite perdu autant de poids ou de centimètres de tour de taille que les personnes non porteuses de la variation génétique et ce, quelle que soit la méthode utilisée pour perdre du poids, observent les auteurs de l'étude.

Le poids respectif de la génétique et du mode de vie dans l'obésité est loin de faire l'objet d'un consensus. Mais les résultats de cette étude « viennent s'ajouter aux autres indices qui suggèrent que les facteurs » tels qu'un régime alimentaire riche en sucre ou une activité physique réduite « pourraient être plus déterminants » que les facteurs génétiques, a commenté Alison Tedstone, directrice du département nutrition à l'Autorité de santé anglaise.

En 2014, plus de 1,9 milliard d'adultes dans le monde étaient en surpoids, et plus de 600 millions étaient obèses, selon les chiffres de l'Organisation mondiale de la santé. Cela correspond à 13 % de la population mondiale adulte, et le pourcentage pourrait atteindre 20 % d'ici 2025 si le rythme de progression actuel se maintient, selon une étude publiée en avril dans The Lancet.

Article rédigé par Georges Simmonds pour RT Flash

BMJ

Tabac et insuffisance cardiaque : le lien démontré
Lundi, 07/11/2016 - 17:03

Le tabagisme est associé à un épaississement des parois du cœur et à une réduction de la capacité de pompage du cœur, 2 facteurs majeurs de risque d’insuffisance cardiaque. Une étude américaine, en décryptant le processus qui mène de l’exposition au tabac à la maladie cardiaque, illustre clairement pour les fumeurs, les effets du tabac sur le myocarde.

Les chercheurs de l’hôpital Brigham and Women à Boston ont mené cette étude chez 4.580 participants à la cohorte Atherosclerosis Risk in Communities (ARIC), âgés en moyenne de 76 ans et exempts de signes évidents de maladie cardiovasculaire. Les chercheurs ont pris en compte les facteurs de confusion possibles, dont l’âge, l’ethnie, l’indice de masse corporelle (IMC), la pression artérielle, le diabète et la consommation d’alcool.

L’analyse constate, chez les participants fumeurs : une épaisseur plus importante des parois du cœur, une fonction de pompage réduite et enfin l’association de taux plus élevés d’exposition cumulée à la cigarette avec des lésions cardiaques plus marquées. Ces données suggèrent que le tabagisme peut indépendamment conduire à un épaississement du cœur et à la diminution de la fonction cardiaque, ce qui peut conduire à un risque élevé d’insuffisance cardiaque, même chez les patients non prédisposés.

Enfin, "la bonne nouvelle est que les anciens fumeurs peuvent, en arrêtant, récupérer leur structure et leur fonction cardiaques", conclut l’auteur principal, le Docteur Scott Solomon, professeur de médecine à la Harvard Medical School.

Article rédigé par Georges Simmonds pour RT Flash

American Heart Association

Des nouveaux traitements contre le paludisme
Lundi, 07/11/2016 - 16:48

Des chercheurs du Broad Institute de Harvard et du MIT (Massachusetts, Etats-Unis) ont identifié, à partir d’une collection d’environ 100.000 molécules, quatre composés qui agissent chez la souris, après une prise unique et à faible dose, contre tous les stades de cycle du parasite du paludisme, Plasmodium falciparum.

Parmi ceux-ci, le BRD 7929 a retenu particulièrement l'attention des chercheurs. Ce composé cible en effet de manière spécifique la phénylalanyl-tRNA-synthetase (PfcPheRS), une enzyme complexe impliquée dans la synthèse des protéines du parasite. Le BRD7929 n’a pas induit de toxicité sur le petit nombre d’organes examinés à ce jour chez la souris. De plus, l’examen de plus de 100 clones résistants de P. falciparum exposés au BRD7929 n’a pas permis de déceler le moindre variant génétique au niveau du gène codant pour la phénylalanyl-tRNA-synthetase (PfcPheRS), ce qui semble indiquer, selon les auteurs, une très faible probabilité d’émergence de mutations.

Autre annonce très encourageante, celle faite il y a quelques jours par la Fondation Novartis pour les maladies tropicales qui vient de présenter sur un traitement expérimental contre le paludisme qui offre potentiellement une solution de remplacement face à l'artémisinine, des poches de résistance à cette substance ayant émergé en Asie du Sud-Est.

Cette étude réalisée sur 43 patients a démontré que cette nouvelle molécule, appelée KAF156, permettait d'éliminer le parasite du flux sanguin en l'espace de 45 heures pour le P. falciparum, la forme la plus mortelle de paludisme, lorsqu'elle était administrée en trois doses.

Selon l'Organisation mondiale de la santé (OMS), 214 millions de cas de paludisme ont été recensés en 2015 au niveau mondial, le bilan des morts dues à cette maladie ayant été cette année-là de quelque 438.000. Les efforts déployés pour lutter contre le paludisme ont toutefois permis de faire reculer son incidence de 37 % entre 2000 et 2015 tandis que le taux de mortalité a baissé de 60 %.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Novartis

Cancer du sein : un catalogue complet des altérations génétiques
Lundi, 07/11/2016 - 15:17

Le séquençage du génome entier de 560 tumeurs du sein est désormais disponible. Ce catalogue précieux a été réalisé par le consortium international de génomique du cancer créé en 2008 (ICGC). Il révèle que les tumeurs du sein présentent un éventail de mutations de moins de 100 gènes différents, ouvrant la voie vers de nouvelles approches de traitements personnalisés.

Il s’agit du plus grand nombre d’échantillons de cancers jamais séquencés entièrement. « 134 de ces prélèvements viennent de tumorothèques françaises, dont celle du centre de ressources biologiques de l’Institut Curie » précise le Docteur Anne Vincent-Salomon, responsable du Pôle pathologie, génétique, immunologie, qui participe depuis 8 ans à cette collaboration internationale codirigées par Gilles Thomas (Fondation Synergie Lyon Cancer, France) et Michael Stratton (Welcome Trust, Sanger Institute, UK), en partie financée par l’Institut National du Cancer (INCa).

Pour la première fois, tout le génome a été séquencé, y compris les régions qui ne codent que pour une protéine, ce qui représente la majeure partie du génome. C’est en effet, à l’heure actuelle, la seule méthode permettant de détecter les altérations à grande échelle ou celles touchant les régions non-codantes, qui peuvent participer à l’oncogenèse mammaire. Ces recherches ont abouti à l’identification d'un catalogue de plus de 1600 altérations suspectées d'être à l'origine du développement tumoral. Ces altérations portent sur 93 gènes différents et 95 % des tumeurs en présentent au moins une. Dix gènes parmi ces 93 sont altérés de manière récurrente (dans 62 % des tumeurs).

En résumé, les tumeurs du sein ont un génome très profondément remanié et présentent une extraordinaire diversité d'altérations génomiques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le train -zéro émissions- d'Alstom sur les rails allemands en 2018
Lundi, 07/11/2016 - 17:09

Le fabricant de trains français Alstom a annoncé à Berlin que son nouveau train régional ne rejetant aucune émission de CO2 roulerait sur le réseau ferré allemand en 2018, en alternative non polluante aux trains diesel. Ce train fonctionne avec une motorisation par pile à hydrogène et n'émet en conséquence que de la vapeur et de l'eau condensée, a expliqué son patron Henri Poupart-Lafarge, lors d'une conférence de presse au salon des techniques ferroviaires Innotrans, à Berlin.

Alstom avait signé il y a deux ans une lettre d'intention avec les Etats régionaux allemands de Basse-Saxe (nord-ouest), Bade-Wurtemberg (sud-ouest), Rhénanie du Nord-Westphalie (ouest) et Hesse (ouest) pour la fourniture d'une cinquantaine de ces trains baptisés Coradia iLint.

"Avec l'arrivée de technologies à pile combustible sur les rails, commence une nouvelle époque pour les liaisons non électrifiées", s'est réjoui, dans un communiqué, le ministre allemand des Transports, Alexander Dobrindt. Ce train, fabriqué dans l'usine allemande d'Alstom à Salzgitter (nord), doit permettre de remplacer les trains diesel polluants et bruyants qui roulent encore sur les lignes non électrifiées. Le réseau ferré allemand est actuellement électrifié à hauteur de 60 %, précise le ministère.

Article rédigé par Georges Simmonds pour RT Flash

Alstom

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top