RTFlash

RTFLASH Recherche & Technologie
NUMERO 997
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Avril 2019
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Des nano-bots pour diagnostiquer et combattre le cancer
HAMR-E, le robot araignée
Agriculture : un robot donne l’alerte en cas de problème dans les cultures
Matière
Le photovoltaïque de grande taille est compétitif en France
Une peinture qui climatise les immeubles
Prévoir le potentiel de production éolien et solaire : un enjeu majeur
Vivant
Contrôler des neurones clés avec de la lumière
Première greffe mondiale réalisée grâce à des os de l’oreille moyenne imprimés en 3D
Maladie d’Alzheimer : une combinaison de lumière et de son pour éliminer les plaques amyloïdes…
Avant que nous ne prenions notre décision, notre cerveau a déjà choisi !
Sédentarité : un facteur majeur et indépendant de cancer colorectal précoce
Notre cerveau retient plus facilement qu'il n'oublie
Cancer du poumon métastatique : une thérapie ciblée pour améliorer l’efficacité du traitement
Maladie d’Alzheimer : des chercheurs ont modélisé l'évolution du cerveau des patients avant l'apparition des symptômes
La pollution de l'air ferait 70 000 morts prématurées par an, en France...
Edito
L'Homme, le cerveau et le Cosmos...



Il est des moments particulièrement fastes en matière d’avancées scientifiques et le 10 avril dernier, trois découvertes majeures, touchant à trois domaines-clés de la connaissance, nos origines, notre cerveau et notre Univers, ont été annoncées à seulement quelques heures d’intervalles.

La première découverte concerne les fossiles datés de 50 000 à plus de 67 000 ans qui ont été trouvés dans la grotte de Callao, sur l’île de Luçon, dans l’archipel des Philippines. Il s’agit de treize fossiles, correspondant à au moins trois individus distincts, et qui formeraint une nouvelle espèce dans le foisonnant arbre de l’évolution humaine (Voir Nature).

Baptisé Homo luzonensis, cet homme est unique à plus d’un titre et présente un mélange déroutant de caractéristiques anciennes et modernes. Ses phalanges de pied permettent de déduire qu’il possédait  des capacités de préhension, liées à une morphologie proches de celle des australopithèques, et qu’on ne retrouve pas chez les autres représentants d’Homo sapiens. Quant à la dentition de ce nouvel hominidé, elle se révèle également très surprenante : les prémolaires, de petite taille, possèdent jusqu’à trois racines, un cas unique dans le genre Homo, mais souvent observé chez les australopithèques. Les molaires sont, pour leur part, très petites et étonnamment modernes avec leurs racines très réduites.

Mais d’où pouvait bien venir cet homme de Callao ? Il est peu probable qu’il s’agisse d’un descendant des australopithèques, bien plus anciens et dont la présence est restée circonscrite à l’Afrique. En revanche, cet Homo luzonensis pourrait bien descendre d’Homo erectus, présent en Asie entre 1,6 million d’années et 140 000 ans. Cette hypothèse est d’autant plus plausible qu’on sait que cette ile de Callao est peuplée par l’homme depuis très longtemps, comme l’atteste la découverte en 2018 d’ossements de rhinocéros vieux de 700 000 ans et portant des traces de découpes par des outils de pierre taillée.

Pour le paléontologue Gerrit Van Den Bergh (Université de Wollongong, Australie), qui a participé à la découverte d’une autre espèce insulaire, sur l’île indonésienne de Florès, « La découverte de Luçon est spectaculaire et on se retrouve à nouveau dans une île où des hominidés ont évolué de façon isolée, comme à Florès. Il semble que ces archipels du Sud-Est asiatique soient un laboratoire de l’évolution humaine ». Jean-Jacques Hublin (Institut Max-Planck, Leipzig, Collège de France) avance pour sa part l’hypothèse d’une réapparition de caractères primitifs, toujours présents dans le génome mais non exprimés, dans un contexte insulaire. Pour Florent, paléoanthropologue au Musée de l’Homme, il est également possible que la "réapparition" de caractéristiques primitives chez Homo luzonensis s'explique par l'endémisme insulaire. Autre enseignement de la découverte de Callao, souligné par Jean-Jacques Hublin comme par son collègue paléoanthropologue Antoine Balzeau (CNRS-MNHN) : « On sort complètement du modèle d’évolution humaine linéaire, où une espèce succède à l’autre, avec la découverte d’humanités variées, originales, plus mobiles et aventureuses qu’on ne l’avait imaginé ».

Cette découverte majeure confirme en tout cas la nature foisonnante, réticulaire et non linéaire de la longue évolution humaine qui va d’Homo habilis, il y a 2,8 millions d’années, aux premiers Homo sapiens, qui seraient apparus il y plus de  300 000 ans au Maroc. Le scenario qui se dessine à présent montre en effet qu’Homo sapiens a probablement coexisté pendant des dizaines de milliers d’années avec au moins six autres espèces humaines disséminées sur les différents continents : Homo naledi en Afrique ; Neandertal au Levant ainsi qu’en Europe et Denisova en Eurasie, qui ont tous deux laissé des traces dans notre ADN à la suite de croisements ; Homo floresiensis et Homo luzonensis dans le Sud-Est asiatique et les Homo erectus tardifs en Asie.

La deuxième découverte majeure a été révélée par une étude publiée des chercheurs du laboratoire de neurosciences de l’Université de Boston, dirigés par Robert M. G. Reinhart. Dans cette étude, intitulée « Réactivation de la mémoire de travail par synchronisation des circuits cérébraux rythmiques chez les personnes âgées », ces chercheurs montrent qu’ils sont parvenus à rétablir, chez des personnes de plus de 60 ans, une « mémoire de travail » aussi performante que celle de jeunes adultes. (Lire Nature).

La mémoire de travail est une mémoire de court terme. Elle ne permet pas de mémoriser des souvenirs anciens mais permet, en revanche, de conserver en mémoire les chiffres d'un numéro de téléphone qu'on est en train de noter. Cette forme de mémoire est associée à deux types d'ondes cérébrales, les ondes gamma et thêta.

Les chercheurs Robert Reinhart et John Nguyen ont étudié 42 adultes, âgés de 20 à 29 ans, et 42 autres, âgés de 60 à 76 ans, qu'ils ont répartis en plusieurs groupes et soumis à des exercices impliquant la mémoire de travail (par exemple, identifier les différences entre des images présentées à quelques secondes d'intervalle). Ils ont utilisé un casque à électrodes pour évaluer la façon dont ces ondes interagissent dans ce processus, puis ont stimulé le cerveau de certains des participants en modulant le rythme des ondes.

Les chercheurs ont constaté que le groupe soumis à des exercices sollicitant la mémoire de travail obtenait de meilleurs résultats (moyenne de 90 %) que le groupe-témoin (environ 80 % en moyenne). Fait remarquable, le groupe des personnes plus âgées a obtenu, après seulement quelques minutes de stimulation magnétique, des résultats presque identiques à ceux du groupe composés de jeunes. Cette technique est d’autant plus prometteuse qu’elle ne provoque aucune douleur et ne présente que très peu d’effets indésirables. La stimulation électrique a donc des effets positifs sur la mémoire de travail et ces améliorations, qui perdurent plusieurs heures après la fin de la stimulation, semblent liées à de plus fortes interactions entre les ondes thêta et gamma dans le cortex temporal gauche et à une plus forte synchronisation des ondes thêta entre le lobe temporal gauche et le cortex préfrontal.

Ces résultats ont été commentés par deux neurophysiologistes cliniciens de renom, Walter Paulus (Centre médical universitaire de Göttingen) et Zsolt Turi. Selon ces deux chercheurs, « Cette étude est remarquable et ouvre la voie vers de véritables avancées dans le traitement de maladies comme Alzheimer, ou la schizophrénie, et plus généralement dans la prise en charge du déclin cognitif lié à l'âge ».

Cette étude confirme donc d’autres recherches effectuées par des chercheurs de la Northwestern University, qui avaient déjà montré en 2014, sur 16 personnes en bonne santé, âgés de 21 à 40 ans, qu’en ciblant l’hippocampe, grâce à la stimulation magnétique transcrânienne de 20 minutes par jour pendant cinq jours, il était possible d’améliorer sensiblement leurs performances de mémorisation (Voir Northwestern).

Parallèlement aux voies de recherches chimiques et immunothérapiques pour contrer la maladie d’Alzheimer, il semble donc que cette nouvelle voie utilisant de manière  plus ciblée la SMT, technique non invasive, soit réellement très prometteuse pour apporter de nouvelles solutions thérapeutiques efficaces contre une large palette de pathologies neurologiques lourdes, Alzheimer, Parkinson, épilepsie, douleurs neuropathiques, mais également pour traiter de nombreuses affections psychiatriques, comme les TOC ou encore la dépression sévère.

Nous en venons à présent à la troisième découverte, sans doute la plus médiatisée et la plus spectaculaire des trois qui a enthousiasmé la communauté scientifique : celle de la première photographie d’un trou noir. On sait maintenant que chaque grande galaxie comporte en son centre un trou noir supermassif. C’est le cas dans la Voie lactée, avec le trou noir Sagittarius, qui représente environ quatre millions de masses solaires. Mais Sagittarius n’est qu’un nain à côté du trou noir monstrueux présenté en grande pompe le 10 avril dernier. Celui-ci, situé au cœur de la galaxie Messier 87, à 55 millions d’années-lumière de notre Terre, est en effet 6,5 milliards de fois plus massif que notre étoile. Quant à son diamètre, il serait de l’ordre de 48 milliards de km, soit neuf fois celui de l’orbite de Pluton… La puissance d’attraction de ce méga-trou noir est si phénoménale qu’il attire toute particule qui passe à moins de 18 milliards de km, soit 122 fois la distance entre la Terre et le Soleil (Voir NASA).

Mais, on le sait, rien, pas même la lumière, ne peut sortir d’un trou noir et ce dernier est, par définition non-observable. Pour surmonter cette difficulté, un consortium international de chercheurs baptisé Event Horizon Telescope travaillait depuis plusieurs années en divers points du globe pour parvenir à observer indirectement ces objets parmi les plus fascinants de notre Univers. Mais ce défi était immense car, en dépit de la taille du trou noir visé, aucun instrument astronomique n’a – et de très loin – la résolution nécessaire pour le distinguer.

Pour surmonter cet obstacle qui semblait infranchissable, les astrophysiciens ont eu l’idée de combiner les signaux reçus simultanément par plusieurs instruments situés dans différentes régions du monde, ce qui revenait à disposer d’une antenne virtuelle gigantesque dont le diamètre équivaut à la distance entre les deux observatoires les plus éloignés. Pour obtenir la première image de ce trou noir géant de M87, sept radiotélescopes, en plus de celui du Pico Veleta, se sont associés, Etats-Unis au pôle Sud en passant par le Mexique et le Chili.

Mais pour pouvoir utiliser cette antenne géante de 9 000 kilomètres de diamètre, il fallait réunir simultanément de nombreuses et draconiennes conditions : d’abord des conditions météorologiques convenables sur tous les sites, ensuite des instruments parfaitement synchronisés, à l’aide de plusieurs horloges atomiques. Enfin, il fallait connaître la distance entre chaque site avec une précision extrême, de l’ordre du millimètre, ce qui supposait de pouvoir calculer et corriger en temps réel l’ensemble des mouvements liés à la tectonique des plaques et à la dérive des continents…

Il y a deux ans, en avril 2017, toutes ces conditions ont enfin, et presque miraculeusement, été brièvement réunies et des millions de gigaoctets de données ont pu être enregistrés sur une armée de disques durs. Plusieurs mois de travail ont ensuite été nécessaires pour vérifier, recouper et corriger cette immense quantité de données, puis pour en extraire les informations pertinentes nécessaires à la réalisation de cette image tant attendue. Pour obtenir cette dernière, les informations recueillies ont été confiées à quatre équipes différentes, utilisant trois méthodes d’imagerie distinctes.

Ce travail pharaonique a finalement été récompensé avec la présentation en grande pompe le 10 avril, de la photo historique de ce trou noir, largement reprise par les médias du monde entier. Sur cette image, on peut enfin voir la silhouette de ce trou noir, qui apparaît par contraste sur le fond brillant que constitue le disque d’accrétion, composé de matière surchauffée qui tourne autour de lui.

Cette photo, sur laquelle on peut voir un cercle orangé un peu flou, sur fond noir, n’a rien de très spectaculaire. Pourtant, elle représente bel et bien une incroyable prouesse technologique et une avancée majeure dans la connaissance de notre Univers. Ce cliché confirme de manière éclatante l’existence des trous noirs qui, jusqu’à présent, n’avaient pu être mis en évidence que de manière indirecte, notamment par le biais des ondes gravitationnelles qu’ils émettaient. Cette première image d’un trou noir confirme également une nouvelle fois la théorie de la relativité générale d’Albert Einstein qui, il y a plus d’un siècle, a permis d’expliquer le rôle-clé de la force gravitationnelle (l’une des quatre interactions fondamentales de l’Univers) dans la structure de l’espace-temps et l’évolution du Cosmos.

Sur un plan beaucoup plus pratique, les recherches nécessaires à l’obtention de cette photo vont également avoir des retombées technologiques et industrielles considérables, en permettant, grâce aux nouveaux outils d’analyse et d’observation développés, d’observer et de détecter des objets qui jusque-là étaient invisibles, comme par exemple des exoplanètes situées dans de lointains systèmes solaires…

En dissipant de nouveaux mystères sur ses lointaines origines, sur le fascinant fonctionnement de son cerveau et sur la nature du Cosmos qui l’entoure, l’Homme poursuit inlassablement son destin : celui de découvrir et de comprendre la beauté, l’harmonie et la profonde unité des lois qui, de l’infiniment petit à l’infiniment grand, en passant par le vivant, façonnent le réel et guident l’évolution de notre Univers.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Des nano-bots pour diagnostiquer et combattre le cancer
Mercredi, 17/04/2019 - 16:45

L'équipe du Professeur Yu Sun, de l'Université de Toronto (Canada), poursuivant ses travaux sur le « pincettes optiques » récompensés d'un Prix Nobel de Physique en 2018, a mis au point un système de nano-bots capable d'investir et d'explorer les cellules humaines avec une étonnante précision.

Le système de nano-bots est d'une petitesse unique. Le système mis au point par les chercheurs de l'Université de Toronto s'inspire des « pincettes optiques » sondant les cellules à l'aide de lasers, qui ont valu un Prix Nobel à Arthur Ashkin. Mais ces pincettes ne sont « pas assez puissantes pour les manipulations mécaniques et les mesures » que l'équipe voulait mettre en œuvre.

Grâce à des pincettes améliorées, les chercheurs peuvent placer une « perle » nano-bot 100 fois plus fine qu'un cheveu dans une cellule cancéreuse posée sur la lamelle du microscope. Une fois dedans, l'équipe peut « contrôler la position de la perle en temps réel » dans les cellules.

La prouesse de ce nouveau système de nano-bots est de pouvoir étudier le cœur des cellules sans avoir à endommager les membranes cellulaires ou le cytosquelette. Il était en effet nécessaire jusqu'ici d'effectuer une extraction du cœur des cellules de leur enveloppe. Cette nouvelle méthode permet, par son acuité, d'analyser si finement les noyaux cellulaires qu'elle pourra détecter, prévenir, voire « détruire » les tumeurs, même les plus « résistantes aux chimiothérapies, radiothérapies et immunothérapies » conclut Yu Sun.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

HAMR-E, le robot araignée
Mardi, 16/04/2019 - 09:04

Une équipe de recherche du Wyss Institute à Harvard a développé un étonnant petit robot capable de marcher sur des surfaces conductrices convexes ou concaves, que ce soit au sol, sur un mur ou même au plafond. Ne pesant que 1,48 gramme, le petit engin, nommé HAMR-E, est capable d’avancer à une vitesse de pointe de 4,6 millimètres par seconde au plafond, tout en supportant une charge utile allant jusqu’à 6,20 grammes. Alimenté par un fil, il peut réserver une partie de sa puissance électrique disponible à accroître sa vitesse.

Pour construire HAMR-E, les chercheurs se sont fondés sur HAMR, un robot déjà existant. Ce dernier peut nager, mais ne marche que sur des surfaces planes. Pour le transformer en un robot capable de marcher sur un plafond conducteur, les chercheurs ont créé des patins adhésifs : des coussinets en cuivre couverts d’une couche isolante qui engendre un champ électrostatique entre la patte du robot et une surface conductrice sous-jacente. Cette technique – l’électro-adhésion – permet de coller deux surfaces entre elles de façon transitoire et en consommant très peu d’énergie.

Il leur a fallu aussi coordonner la marche de HAMPR-E : trois coussins doivent être en contact permanent avec la surface. Le processus de marche mis en place est très simple : la tension entre la plaque de cuivre d'un pied et la surface est annulée, le pied se détache, bascule en avant, se repose délicatement, puis la tension est rétablie. Les patins ont en outre été conçus afin de permettre au robot de grimper sur des surfaces courbes ou inégales.

À quoi peut servir un tel robot ? À inspecter des machines métalliques (dont la surface est conductrice) afin d’économiser les opérations de démontage. Un réacteur d’avion, par exemple, ne compte pas moins de 25 000 pièces, de sorte que son démontage représente une perte de temps et d’argent considérable. À la place, HAMR-E peut se faufiler dans tous les recoins du réacteur et, grâce à une petite caméra et d’autres capteurs, décèlera en quelques heures les sources de panne dans la machine.

Article rédigé par Georges Simmonds pour RT Flash

Harvard

Agriculture : un robot donne l’alerte en cas de problème dans les cultures
Lundi, 15/04/2019 - 09:58

Primé au dernier Salon de l’agriculture qui s’est déroulé à Paris du 23 février au 3 mars 2019, le robot SentiV a reçu le prix AGreen start-up, comme l’indique un article publié par RTL. Les deux ingénieurs basés à Grenoble ayant créé la société Méropy se sont vus décerner ce prix destiné à récompenser les innovations en agriculture, et particulièrement celles pouvant apporter une alternative aux pesticides.

Le but de cette machine ? Identifier les problèmes dans les cultures. Habituellement, l’agriculteur doit contrôler ses champs et surveiller ses plantes en regardant sous les feuilles afin de déceler l’éventuelle présence de parasites. Désormais, ce travail peut être effectué par le robot SentiV. Monté sur roues, ce dernier est également équipé d’une caméra et d’un algorithme de reconnaissance d’images, ce qui lui permet d’observer les plantes. En cas de problème, l’agriculteur est prévenu par une alerte lancée via une application mobile dédiée.

Il y a quelques mois, nous expliquions pourquoi – à l’instar d’autres secteurs – l’intelligence artificielle pourrait révolutionner l’agriculture. Citons par exemple la société X (anciennement Google X Lab, filiale d’Alphabet) s’intéressant à la possibilité de créer des drones agricoles boostés à l’IA, ou encore le Japon et ses robots fermiers. Ainsi, tout porte à croire que le robot SentiV pourrait contribuer à cette tendance !

« Grâce à une série de capteurs, SentiV est un robot se déplaçant en toute autonomie au sein d’une parcelle et scannant l’ensemble de la végétation. Son système de roues unique n’abîme pas les cultures et garantit une haute vitesse de déplacement », peut-on lire sur le site officiel de la start-up.

Lorsque l’agriculteur explore son champ, il est évidemment difficile de se rendre partout. Or, le robot totalement autonome se faufile et couvre l’intégralité de la surface cultivée. Outre sa capacité à repérer les parasites, SentiV peut également contribuer à ajuster les doses de pesticides et/ou d’engrais, et repérer les endroits qui ont le plus besoin d’eau. Par ailleurs, le robot est aussi capable d’élaborer des cartographies mettant en évidence certains phénomènes.

Article rédigé par Georges Simmonds pour RT Flash

Science Post

^ Haut
Matière
Matière et Energie
Le photovoltaïque de grande taille est compétitif en France
Mercredi, 17/04/2019 - 07:38

Selon le dernier rapport de la CRE (Commission de Régulation de l'Energie) les grands parcs de panneaux photovoltaïques sont devenus compétitifs en France. L’analyse de la CRE a porté sur l’ensemble des coûts d’investissements et d’exploitation pour les projets déposés lors des appels d’offres de 2017 et 2018.

Le régulateur du secteur énergétique y constate que les effets d’échelle observés sont importants et recommande notamment de faciliter l’émergence de projets de plus grande taille que 30 MW, jusqu’à 100 MW, « afin d’atteindre des prix encore plus compétitifs et de permettre à certains projets de ne plus recourir aux mécanismes de soutien public, comme on a commencé à l’observer dans les pays voisins ».

En effet, pour les grands parcs au sol, « les coûts des installations les plus compétitives sont aux environs de 48 €/MWh, taxe IFER ((impôt forfaitaire sur les entreprises de réseaux, ndlr) de 6 €/MWh incluse », se félicite le régulateur. Ainsi, la filière française « est parfaitement compétitive avec celles des pays comparables ». C’est particulièrement vrai avec le pays qui compte le plus de solaire en Europe, l’Allemagne, où les coûts de production sont compris entre 40 €/MWh et 70 €/MWh, selon le dernier rapport de l’Institut Fraunhofer, publié en mars 2018.

En outre, la CRE constate que « sur les trois dernières années seulement, les coûts d’investissement ont diminué d’en moyenne 32 %, cette dynamique étant largement due à̀ la baisse du prix des modules photovoltaïques à l’échelle mondiale. Les coûts moyens d’investissement observés aujourd’hui se situent autour de 800 €/kWc (kilowatt-crête) pour les installations au sol et autour de 1 100 €/kWc pour les installations sur bâtiments et ombrières de parking. Les projets les moins chers, au sol et de grande taille, avoisinent désormais les 600 €/kWc ».

Le régulateur souligne qu’au-delà de cette baisse des coûts d’investissement, qui continuent de peser pour 80 % du coût complet de production d’un parc solaire, "la professionnalisation des acteurs" a permis un recul des coûts d’exploitation, en moyenne de 27 % sur les trois dernières années, pour tomber à 20 €/kWc sur la plupart des segments de ce marché des grands parcs.

Article rédigé par Georges Simmonds pour RT Flash

CRE

Une peinture qui climatise les immeubles
Mercredi, 17/04/2019 - 07:19

La climatisation des immeubles consomme à présent 10 % de la consommation électrique mondiale, soit cinq fois la consommation électrique de la France… Et la situation va s’aggraver d’ici les 30 prochaines années, car de nombreux pays chauds et très peuplés tels que l’Inde sont encore peu équipés en air conditionné.

Si rien ne change, l’air conditionné deviendra bientôt l’une des premières sources de consommation électrique. Fort heureusement, ce constat de l’International Energy Agency (IEA) est suivi de propositions de solutions. Selon l’IEA, il serait urgent de miser sur le déploiement de systèmes d’air conditionné plus efficaces et de travailler également sur les technologies permettant de réduire efficacement la facture énergétique des bâtiments.

Et si la solution était tout simplement de se passer d’air conditionné ? Une équipe de chercheurs de l’Université américaine de Columbia semblent envisager sérieusement cette possibilité au regard des résultats de leurs travaux.

La solution proposée par l’équipe du docteur est plutôt audacieuse : élaborer un revêtement polymère super réfléchissant et possédant une quantité importante de porosités à l’échelle micrométrique et nanométrique. Comment un tel revêtement peut-il servir à refroidir un bâtiment ? Grâce à un processus physique appelé « passive daytime radiative cooling » ou PDRC, par lequel un matériau est capable à la fois de réfléchir le rayonnement solaire et d’émettre de la chaleur par radiation dans les parties froides de l’univers lointain. Du point de vue des propriétés physiques, un tel matériau doit donc avoir une haute réflectance et une excellente émissivité.

Au premier abord, il semble impossible de refroidir une surface exposée en plein soleil sans utiliser d’énergie. Les choses sont en réalité plus complexes : le soleil émet la majorité de son énergie dans les domaines de longueur d’onde du proche infrarouge et du visible. Les matériaux à effet PDRC sont donc conçus pour réfléchir ces longueurs d’onde ; jusqu’ici rien d’étonnant. La subtilité réside en fait dans la capacité du matériau à réémettre de l’énergie radiative dans une plage de longueurs d’onde qui n’est pas absorbée par l’atmosphère. En clair, cette énergie part dans l’espace lointain et ne contribue pas à l’effet de serre sur terre !

Bien que des matériaux réfrigérants passifs soient déjà commercialisés, ils sont en revanche onéreux, sensibles à la corrosion et non applicables sur des surfaces existantes. Les seuls revêtements facilement applicables qui existent sont des peintures blanches classiques dont la réflectance n’excède pas 85 %.

Pour améliorer les propriétés de ces peintures, l’équipe de chercheurs a donc eu l’idée de remplacer les pigments par des cavités remplies d’air et c’est une réussite : le bilan thermique du matériau affiche une perte de 100 W par mètre carré, soit une réduction de 6°C dans l’environnement aride de l’Arizona et 3°C dans l’atmosphère tropicale du Bangladesh.

Cette peinture a été synthétisée à partir d’eau, d’acétone ainsi que d’un polymère appelé poly(vinylidene fluoride-co-hexafluoropropene). Lors du séchage de la peinture, l’évaporation de l’acétone et de l’eau laisse derrière elle un film polymère criblé de poches d’air. Ces petites cavités dont la taille varie de 200 nm à quelques micromètres ont la particularité de réfléchir plus de 96 % de la lumière du soleil incidente.

La solution proposée par ces chercheurs est économique et facile à appliquer. Concrètement, les applications vont bien plus loin que les façades et les toits des bâtiments : ce revêtement pourrait bientôt être appliqué sur tous types de véhicules comme les avions, les voitures et même des engins spatiaux.

Article rédigé par Georges Simmonds pour RT Flash

Science News

Prévoir le potentiel de production éolien et solaire : un enjeu majeur
Lundi, 15/04/2019 - 09:40

Avec le fort développement des énergies renouvelables, il est devenu important d'apprendre à mieux prévoir le potentiel local de production de l'éolien et du solaire, notamment pour permettre une meilleur intégration de ces énergies dans les réseaux de distribution. En matière d'énergie éolienne, Google a annoncé avoir augmenté de 20 % la "valeur" de l’énergie produite par un de ses parcs éoliens, grâce au recours au machine learning dans son programme. Bien que le secteur ait le vent en poupe, la variabilité météorologique fait de l’éolien une source d’énergie imprévisible. Cela rend l’électricité produite moins valorisable que celle provenant d’une source pouvant délivrer une quantité d’énergie prédéfinie à un moment donné. C’est dans le but de mieux valoriser l’énergie produite que Google s'est mis à la tâche de prédire la production grâce à l’IA.

En s’appuyant sur des prévisions météorologiques et un ensemble de données historiques concernant les machines, le programme DeepMind a été configuré pour anticiper 36h à l’avance la production électrique d’un parc éolien de 700 mégawatts situé dans le centre des Etats-Unis – où sont basés les data centers de Google.

Le modèle est ainsi en mesure de transmettre au réseau la prévision de production plus d’une journée à l’avance. Ces prédictions ont permis d’augmenter la valeur marchande de l’énergie éolienne produite par le parc éolien d’environ 20 %, par rapport au scénario de base où aucune prédiction de production n’était envoyée au réseau.

Si on ne peut éliminer la variabilité du vent, ces résultats suggèrent que l’intelligence artificielle peut permettre de rendre l’énergie éolienne plus prévisible et donc plus valorisable. "Nous espérons que ce type d’approche pourra renforcer la valeur commerciale de l’éolien, et mener à une meilleure adoption des énergies renouvelables sur le réseau électrique mondial", conclut ainsi Google dans ce communiqué.

S'agissant de l'énergie solaire, des chercheurs de l’Université de technologie de Delft (Pays-Bas) viennent de développer une approche inédite pour calculer de manière rapide et précise le potentiel en énergie solaire des zones urbaines. Cette méthode devrait faciliter l’incorporation des technologies solaires dans les projets des architectes et des urbanistes.

Les structures, les bâtiments et les arbres présents dans les zones urbaines projettent des ombres sur les panneaux solaires, ce qui affecte considérablement leurs performances. Cependant, il est possible d'obtenir une meilleure intégration dans l'environnement urbain en estimant avec précision les performances et le rapport coût-performance des systèmes à énergie solaire photovoltaïques.

La simulation de la production d'énergie par les systèmes photovoltaïques fait appel à de nombreux outils, assistés par des modèles mathématiques capables de déterminer la quantité de rayonnement reçue par les modules solaires. En répétant ces calculs pour toute une année, il est possible d'obtenir la quantité annuelle de rayonnement que reçoivent les panneaux. Pour autant, la détermination de la quantité d'électricité produite par un système photovoltaïque en ville n'est pas très simple. Les simulations réalisées actuellement nécessitent une puissance de calcul considérable car il est nécessaire de prendre en compte les ombres projetées par les structures environnantes, qui évoluent tout au long de l'année.

L'intérêt de cette nouvelle approche est de simplifier le calcul en évaluant rapidement le potentiel d'énergie solaire des zones urbaines les plus larges. La méthode consiste, pour un quartier particulier, à corréler un profil de silhouette urbaine et le rayonnement annuel reçu.

Ces recherches montrent que le rayonnement solaire total reçu chaque année par une surface urbaine spécifique peut se quantifier à partir de deux paramètres déduits du profil de silhouette urbaine : le facteur de visibilité du ciel (ou sky view factor), qui correspond à l'hémisphère céleste visible à partir d'un lieu particulier, et le facteur de couverture solaire (ou sun coverage factor), qui indique la quantité de lumière solaire reçue.

Le premier paramètre permet d'estimer la quantité de rayonnement liée à la lumière diffusée, et le deuxième, celle reçue directement du soleil. Ces deux paramètres sont faciles à obtenir à partir du profil de silhouette urbaine. L'étude permet de démontrer que ces deux facteurs viennent réduire significativement la complexité de traitement du problème.

L’équipe de recherche PVMD (Photovoltaic Materials and Devices) vient donc d'incorporer cette méthode dans une boîte à outils de logiciels, capable de calculer avec précision la production d'énergie de systèmes photovoltaïques, quel que soit le lieu…

Article rédigé par Georges Simmonds pour RT Flash

Google

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Contrôler des neurones clés avec de la lumière
Mercredi, 17/04/2019 - 16:39

Des recherches menées à l'Université de l'Arizona montrent qu'il est possible d'utiliser une nouvelle génération d’implant cérébral, sans fil et sans pile, pour délivrer une lumière permettant de contrôler les neurones dans le cerveau, avec des applications multiples à la clé, comme l’« extinction » des récepteurs de la douleur, le rétablissement du mouvement en cas de paralysie ou la réduction d’effets liés à des troubles neurologiques sévères.

L’auteur principal, Philipp Gutruf, professeur de génie biomédical à l'Université de l'Arizona, et son équipe, marquent ici une étape importante en neurosciences, dans le développement de systèmes optoélectroniques implantables. La base de ces innovations reste l’optogénétique, une technique biologique qui utilise la génétique et la lumière pour activer ou désactiver des groupes de neurones spécifiques dans le cerveau. Les chercheurs font ici valoir leur technique de stimulation optogénétique pour lutter contre les douleurs neuropathiques et réduire ainsi la dépendance croissante à l'égard des opioïdes.

Le principe de départ est de mieux comprendre le fonctionnement des différentes zones du cerveau, en tirant parti de l’avantage de l'optogénétique qui permet d’aller jusqu’à la spécificité cellulaire, en ciblant des groupes de neurones spécifiques et en étudiant leur fonction et leur relation dans le contexte de l'ensemble du cerveau. En effet, avec l’optogénétique, les chercheurs peuvent tagger des neurones spécifiques avec des protéines appelées opsines, qui convertissent la lumière en potentiels électriques qui déclenchent la fonction d'un neurone. Lorsqu'un chercheur « met en lumière » une zone du cerveau, il n'active ainsi que les neurones qui sont chargés d'opsine.

A l'origine, l'optogénétique impliquait l'envoi de lumière au cerveau par le biais de fibres optiques, ce qui signifiait que les sujets étaient physiquement attachés à la station de contrôle ; aujourd’hui la technique est réalisable sans pile et sans fil, ce qui permet aux sujets de se déplacer librement.

Le contrôle numérique de l'intensité et de la fréquence de la lumière émise, via des dispositifs extrêmement miniaturisés et implantables sous le cuir chevelu, permet de stimuler indépendamment plusieurs sites du cerveau du même sujet. Le contrôle de l'intensité de la lumière permet aux chercheurs de contrôler exactement la quantité de lumière et la chaleur générée et éviter l'activation accidentelle de neurones activés par la chaleur.

Les implants sans fil et sans pile sont alimentés par des champs magnétiques oscillants externes et, en dépit de leurs capacités avancées, ne sont ni plus volumineux ni plus lourds que les versions précédentes. Une antenne de nouvelle génération permet d’éviter les biais antérieurs de force du signal transmis en fonction de l'angle du cerveau : autrefois, lorsque le sujet tournait la tête, le signal affaiblissait, ce n’est plus le cas avec le nouvel implant.

La stimulation est ininterrompue, stable et continue avec les nouveaux implants, et il n’est plus nécessaire de retirer ou de remplacer le dispositif. La procédure est donc moins invasive que les techniques de stimulation actuelles ou de stimulation cardiaque, par exemple. Les dispositifs sont implantés avec une procédure chirurgicale simple similaire aux chirurgies dans lesquelles les humains sont équipés de neurostimulateurs, ou « stimulateurs cérébraux ». La procédure n’entraîne aucun effet indésirable chez les patients.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Première greffe mondiale réalisée grâce à des os de l’oreille moyenne imprimés en 3D
Mercredi, 17/04/2019 - 07:52

Des chercheurs sud-africains de l'Université de Pretoria sont parvenus à fabriquer, puis à greffer,  grâce à l’impression 3D, les plus petits os du corps humain, le marteau, l’enclume et l’étrier, qui composent  l’oreille moyenne.

"La 3D nous permet de faire des choses que nous n’aurions jamais pensé pouvoir faire", se réjouit le professeur Mashudu Tshifularo, qui a dirigé les trois greffes. Trois patients ont pu bénéficier de cette technique novatrice, dont une personne ayant perdu l’audition après un accident de voiture. D’après les chercheurs, il serait possible d’utiliser cette méthode chez les nouveaux-nés. "Cette procédure est moins risqués que les prothèses, et les processus chirurgicaux qui y sont associés", précise le chercheur. Après l’impression des os grâce à la technologie 3D, les chercheurs les greffent avec un endoscope, pour éviter les cicatrices inutiles.

L’oreille moyenne se situe entre l’oreille externe et l’oreille interne : lorsque l’oreille externe capte les ondes sonores, cela fait vibrer le tympan, qui dans ce mouvement, fait bouger les osselets de l’oreille moyenne. Ces derniers font passer les ondes sonores jusqu'à l’oreille interne.

Certaines personnes souffrent d’une perte auditive de transmission, un trouble de l’oreille moyenne. Plusieurs facteurs peuvent l’expliquer : une maladie congénitale, un traumatisme, une infection ou une maladie du métabolisme. D’après les scientifiques sud-africains, cette nouvelle technique pourrait être une solution pour les patients qui en sont victimes.

Cette technique d’impression 3D n’est qu’à ses prémices. Aujourd’hui, le professeur Tshifularo appelle à des levées de fonds pour pouvoir développer au maximum son innovation.

Article rédigé par Georges Simmonds pour RT Flash

University of Pretoria

Maladie d’Alzheimer : une combinaison de lumière et de son pour éliminer les plaques amyloïdes…
Mercredi, 17/04/2019 - 07:47

Des chercheurs du MIT ont montré qu’un type de lumière stroboscopique, associé à un bourdonnement aigu, pouvait être utilisé pour recréer les ondes cérébrales perdues à cause de la maladie d’Alzheimer, éliminer les dépôts amyloïdes et, in fine, améliorer la fonction cognitive chez des souris conçues pour afficher un comportement similaire à celui de personnes atteintes d’Alzheimer.

Cette technique n’a pas encore été testée cliniquement chez l’Homme, il est donc trop tôt pour extrapoler au modèle humain ; en effet, les ondes cérébrales fonctionnent différemment chez l’Homme et la souris. Mais, s’ils sont reproduits, ces premiers résultats suggèrent un moyen possible, peu coûteux et sans médicament, de traiter la forme courante de démence associée à la maladie.

Se basant sur une étude précédente qui montrait qu’une lumière clignotant 40 fois par seconde dans les yeux de souris génétiquement modifiées pouvait traiter leur version de la maladie d’Alzheimer, les chercheurs ont ajouté un son d’une fréquence similaire et ont constaté qu’elle améliorait considérablement leurs résultats.

« Lorsque nous combinons stimulation visuelle et auditive pendant une semaine, nous constatons l’engagement du cortex préfrontal et une réduction très spectaculaire de l’amyloïde » déclare Li-Huei Tsai, l’un des chercheurs de l’Institut Picower pour l’apprentissage et la mémoire, du MIT.

Ce n’est pas la première recherche visant à étudier le rôle que le son peut jouer dans l’élimination des dépôts de protéines tau et amyloïdes au moins en partie responsables de la maladie. Des études antérieures montraient que les ultrasons rendaient les vaisseaux sanguins suffisamment poreux, ce qui permettait à de puissants traitements de pénétrer dans le cerveau, tout en encourageant la microglie, à accélérer le rythme.

Il y a plusieurs années, Tsai a découvert que le scintillement de la lumière à une fréquence d’environ 40 flashs par seconde présentait des avantages similaires chez des souris conçues pour créer de l’amyloïde dans les cellules nerveuses de leur cerveau. « Le résultat était tellement ahurissant et si efficace, qu’il a fallu un certain temps pour que l’idée soit intégrée, mais nous savions que nous devions trouver un moyen d’essayer la même chose chez les humains » explique Tsai.

Le seul problème était que cet effet se limitait aux parties visuelles du cerveau, manquant des zones clés qui contribuent à la formation et à la récupération de la mémoire. Bien que les applications pratiques de la méthode aient semblé un peu limitées, les résultats ont montré que des oscillations pourraient aider le cerveau à récupérer sur l’emprise de la maladie d’Alzheimer.

Lorsque les neurones du cerveau transmettent des signaux, ils génèrent également des ondes électromagnétiques qui contribuent à la synchronisation des régions éloignées, appelées « ondes cérébrales ». Un tel ensemble d’oscillations est défini comme les fréquences gamma, ondulant à travers le cerveau à environ 30 à 90 ondes par seconde. Ces ondes cérébrales sont les plus actives lorsque nous accédons à notre mémoire.

La précédente étude de Tsai avait suggéré que ces ondes gamma étaient perturbées chez les personnes atteintes de la maladie d’Alzheimer et pourraient jouer un rôle central dans la pathologie elle-même. Tsai utilise un son très faible pour les ultrasons, de 40 Hertz seulement, un son juste assez élevé pour que les humains puissent l’entendre. Exposer leurs sujets murins à seulement une heure de ce bourdonnement monotone tous les jours pendant une semaine a entraîné une réduction significative de la quantité d’amyloïde accumulée dans les régions auditives, tout en stimulant également les cellules microgliales et les vaisseaux sanguins.

« Nos travaux démontrent que nous pouvons utiliser une modalité sensorielle totalement différente pour induire des oscillations gamma dans le cerveau » explique Tsai. Ce traitement semble également avoir un effet réparateur sur l’hippocampe à proximité, une section importante associée à la mémoire. Les effets n’étaient pas seulement évidents dans la chimie cérébrale des sujets. En effet, sur le plan fonctionnel, les souris exposées au traitement ont montré de meilleurs résultats dans diverses tâches cognitives.

L’ajout de la luminothérapie de la précédente étude a eu un effet encore plus probant : l’élimination des plaques dans plusieurs zones du cerveau, y compris dans le cortex préfrontal. La découverte de nouveaux mécanismes dans la manière dont les systèmes nerveux éliminent et synchronisent les activités, constitue un progrès considérable dans le développement de traitements pour tous les types de troubles neurologiques

Article rédigé par Georges Simmonds pour RT Flash

MIT

Avant que nous ne prenions notre décision, notre cerveau a déjà choisi !
Mardi, 16/04/2019 - 08:59

Des chercheurs australiens ont montré, confirmant des recherches antérieures, que notre cerveau prend des décisions 11 secondes avant que nous n'en soyons conscients. Les scientifiques ont demandé à 14 cobayes de choisir entre deux images : l’une représentant des bandes rouges horizontales et l’autre des bandes vertes verticales.

Après 20 secondes, les patients devaient se représenter mentalement leur choix. À l’aide d’une IRMf, ils ont étudié les effets de ce choix sur l’activité cérébrale. En analysant les zones stimulées, ils ont réussi à décoder les informations 11 secondes avant que le patient prenne sa décision.

Cette étude a aussi permis de déceler une importance des choix passés dans le processus de décision. “Il préexiste des traces inconscientes de pensées. Au fur et à mesure du processus de décision, le cerveau opte pour la trace la plus forte” explique Joel Pearson, professeur en neurosciences à l’Université de South Wales.

Concrètement, si vous avez déjà fait un choix similaire dans le passé, votre cerveau sera plus susceptible de le refaire. Selon ce chercheur, bien qu'on ne puisse pas dire que ce processus supprime le libre-arbitre, il montre que les mécanismes de prise de décision sont plus complexes qu'on ne l'imaginait.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Sédentarité : un facteur majeur et indépendant de cancer colorectal précoce
Mardi, 16/04/2019 - 08:48

Une étude de de l'Université de Washington montre que rester trop souvent et longtemps assis est associé aussi au risque de cancer colorectal …avant l'âge de 50 ans. Des données présentées dans le JNCI Cancer Spectrum qui révèlent même un lien, dose-dépendant entre le temps passé assis devant la télévision et l’augmentation du risque de cancer colorectal chez les jeunes adultes.

Le cancer colorectal d'apparition précoce, qui est diagnostiqué chez les moins de 50 ans, est en augmentation dans le monde, une évolution qui contraste fortement avec les baisses spectaculaires observées chez les personnes plus âgées, principalement en raison de la mise en œuvre du dépistage. Le cancer colorectal précoce est caractérisé par des marqueurs moléculaires relativement différents de ceux du cancer colorectal d'apparition plus tardive. Ce cancer plus précoce est aussi plus agressif et est souvent détecté à un stade plus avancé que chez les patients plus âgés, ce qui obère son pronostic. Cependant, à ce jour, peu de facteurs de risque spécifiques au cancer colorectal précoce ont été identifiés.

Les chercheurs s’attardent sur le temps passé à regarder la télévision, ainsi que sur d’autres comportements sédentaires, chez 89.278 femmes participant à la cohorte bien connue Nurses' Health Study II. 118 cas de cancer colorectal précoce sont diagnostiqués sur la vingtaine d’années de suivi. L’analyse montre que plus d'1 heure de télévision par jour est associée à une augmentation de 12 % du risque de cancer colorectal précoce (vs moins de sédentarité).

Selon cette étude, il semblerait que l’association sédentarité et risque de cancer colorectal précoce reste indépendante de l'IMC et de la pratique de l'exercice ou d’antécédents familiaux de cancer colorectal.

Article rédigé par Georges Simmonds pour RT Flash

JNCI

Notre cerveau retient plus facilement qu'il n'oublie
Lundi, 15/04/2019 - 11:49

Des chercheurs de l'Université d'Austin, au Texas, ont montré, dans le cadre d'une étude d'un traitement permettant de se débarrasser de souvenirs pénibles, que notre cerveau a plus de facilité à retenir des informations qu'à en oublier. Pour oublier un souvenir, notre cortex doit concentrer son attention sur tout autre chose que le souvenir en question. Une diversion bien plus coûteuse en énergie que n'importe quel exercice de mémorisation. À noter qu'il est question ici de ce que l'on nomme les « oublis intentionnels », non pas les inattentions du quotidien façon « j'ai oublié le pain ».

« Nous pouvons souhaiter éliminer certaines images qui déclenchent chez nous des réactions extrêmes, comme le souvenir d'événements traumatiques », explique Jarrod Lewis-Peacock, co-auteur de l'étude. Une fois que nous aurons compris comment un souvenir peut être affaibli et contrôlé, nous pourrons proposer des traitements permettant aux personnes qui le souhaitent de se délester de ces souvenirs trop encombrants ».

Pour en savoir plus sur nos mécanismes d'assimilation, l'équipe de recherche a montré à plusieurs adultes équipés de capteurs neuronaux traquant l'activité cérébrale des scènes ou visages, demandant à certains de les mémoriser, à d'autres de les oublier. Les scientifiques ont ainsi découvert qu'un oubli intentionnel nécessitait une activité cérébrale « modérée », soit un stade plus intense que pour la mémorisation. « Cette activité modérée est indispensable au processus de dé-mémorisation : une activité trop intense et le souvenir sera renforcé ; trop faible, il demeurera inchangé », selon Tracy Wang, co-autrice de l'étude, qui révèle également que nous oublions plus facilement les scènes que les visages, bien plus chargés en émotions.

Des oublis qui, loin d'être un handicap, sont en réalité l'un des éléments clés de l'intelligence humaine. D'après le chercheur canadien Blake Richards, une fois délesté du superflu, notre cerveau est bien plus efficace : « Il est important que le cerveau oublie des détails non pertinents et se concentre plutôt sur les choses qui vont aider à prendre des décisions dans le monde réel. Si vous essayez de naviguer dans le monde et que votre cerveau émet constamment de multiples souvenirs conflictuels, cela rend plus difficile une prise de décision éclairée ».

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Cancer du poumon métastatique : une thérapie ciblée pour améliorer l’efficacité du traitement
Lundi, 15/04/2019 - 11:39

L’espérance de vie du cancer du poumon métastatique reste très limitée, avec 85 % des patients qui décèdent dans les 5 ans. Les nouveaux traitements disponibles pour certaines populations présentent une réelle efficacité, mais celle-ci est limitée dans le temps et des rechutes successives sont courantes. Accroître l’efficacité des traitements et trouver de nouvelles thérapies restent donc une priorité.

C’est sur cette problématique que travaille l’équipe de Patricia Forgez, chercheuse Inserm, qui en collaboration avec des équipes de l’AP-HP (hôpitaux Cochin, Lariboisière et Saint-Antoine), et de l’Université Paris Descartes développe une thérapie ciblée pour augmenter la sensibilité des tumeurs les plus agressives aux sels de platine, chimiothérapie incontournable contre le cancer du poumon.

Dans de précédents travaux, Patricia Forgez et ses collaborateurs avaient montré que les tumeurs pulmonaires et surtout celles à un stade métastatique surexpriment le récepteur à la neurotensine. Cette dernière est une petite molécule produite dans les intestins et le cerveau, qui se trouve également anormalement surexprimée dans les tumeurs où, en se liant à son récepteur, elle déclenche de manière continue une cascade de signaux stimulant la croissance, la survie et la migration des cellules tumorales. Celles-ci sont ainsi beaucoup plus agressives et sont peu ou pas sensibles aux sels de platine. En corrélant la surexpression du récepteur à la neurotensine avec un plus mauvais pronostic observé chez les malades, les chercheurs ont démontré que ce récepteur est un acteur de la progression tumorale.

Dans cette nouvelle étude, l’équipe de recherche a développé un anticorps neutralisant spécifiquement la forme de neurotensine produite par les tumeurs. Elle l’a testé dans plusieurs modèles expérimentaux chez la souris et a observé que la tumeur régressait de 40 à 65 % en taille et perdait en agressivité. Les souris traitées présentaient ainsi moitié moins de métastases ganglionnaires et pulmonaires que les animaux non traités. Les chercheurs ont également montré que l’administration concomitante de l’anticorps avec un sel de platine permettait de restaurer ou d’améliorer l’efficacité du traitement en améliorant l’accès de la molécule thérapeutique à sa cible.

En collaboration avec Inserm Transfert, la SATT Ile de France INNOV, et Fair Journey Biologics, l’équipe de recherche travaille maintenant à développer des anticorps anti-neurotensine utilisables chez l’humain dans l’objectif de débuter un essai clinique. Des résultats encourageants sur le cancer du poumon permettraient d’étendre cette thérapie aux autres cancers exprimant la neurotensine et son récepteur, comme le cancer du sein, de l’ovaire, de l’endomètre, de la prostate, du pancréas, de l’estomac et du côlon.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Maladie d’Alzheimer : des chercheurs ont modélisé l'évolution du cerveau des patients avant l'apparition des symptômes
Lundi, 15/04/2019 - 10:05

Une étude réalisé par des chercheurs de l'Université de Bordeaux et du CNRS a montré que les premiers symptômes des personnes atteintes de la maladie d'Alzheimer sont visibles avant l'âge de 40 ans. Pour parvenir à ce résultat, des chercheurs du CNRS, de l'École pratique des hautes études (EPHE) et de l'Université de Valence Espagne ont analysé plus de 4 000 IRM grâce à la plate-forme internationale VolBrain mise à la disposition des chercheurs.

« L'originalité de notre étude réside dans la méthodologie employée qui a permis de mélanger des données provenant de différents centres à travers le monde et d'analyser ces différentes images de la même manière », indique au « Quotidien » Gwenaëlle Catheline, chercheuse EPHE et co-auteur de l'étude.

Pour étudier la dynamique cérébrale dans la maladie d'Alzheimer, les chercheurs ont mis au point un modèle de vieillissement normal à partir d'IRM de sujets sains âgés de quelques mois à 94 ans et un modèle pathologique. Ce dernier a été modélisé à partir d'IRM de sujets Alzheimer de plus de 55 ans et d'IRM de sujets sains jeunes. En effet, « nous ne disposons pas de données de vie entière pour la maladie d'Alzheimer », précise Gwenaëlle Catheline.

En plus de fournir en accès libre des images IRM, VolBrain est un outil qui permet d'obtenir des informations cérébrales volumétriques à partir des IRM, ce qui a permis d'analyser la différence d'évolution cérébrale entre les deux modèles. « L'utilisation de la volumétrie nous a permis de répondre à la question : à quel moment les biomarqueurs de la maladie d'Alzheimer se différencient-ils ? », indique la chercheuse.

L'étude de l'ensemble du cerveau a montré que l'atrophie de l'hippocampe survient dès 37 ans et l'atrophie de l'amygdale dès 41 ans. « L'atrophie de ces structures plusieurs années avant la maladie avait déjà été décrite, mais nos observations confirment la spécificité de ces deux régions », souligne Gwenaëlle Catheline. Un élargissement des ventricules latéraux du cerveau a également été mis en évidence autour de 40 ans.

Toutefois, ce paramètre ne constitue pas un biomarqueur d'intérêt, car ce phénomène est observé plus tardivement au cours du vieillissement normal. « Ces résultats apportent de nouveaux éléments physiopathologiques de la maladie et montrent bien qu'il s'agit d'une maladie au long cours », note la chercheuse.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La pollution de l'air ferait 70 000 morts prématurées par an, en France...
Lundi, 15/04/2019 - 09:51

Selon une étude réalisée par des scientifiques, emmenés par Jos Lelieveld, de l'Institut Max-Planck de chimie (Allemagne), près de 70.000 personnes sont victimes chaque année de la pollution de l'air en France alors qu'elles auraient pu vivre plus longtemps. Ces travaux ont pu montrer, en utilisant de nouvelles méthodes de modélisation, que la cause de leur décès était bien la pollution atmosphérique.

Au niveau mondial, la pollution de l'air serait responsable de 8,8 millions de morts par an, une estimation qui est bien au-dessus des études précédentes. Sur 100.000 habitants de la planète, 120 mourraient prématurément du fait de la pollution atmosphérique. Une évaluation globale qui est encore plus alarmante dans le détail. "Le nombre de morts par maladies cardiovasculaires qui peut être attribué à la pollution de l'air est beaucoup plus important que prévu", expliquent ces chercheurs. "Dans la seule Europe, le nombre de décès en excès est de près de 800.000 par an, et chacune de ces morts représente une réduction moyenne de l'espérance de vie de plus de deux ans...

Entre 40 % et 80 % de ces décès prématurés sont dus à des maladies cardiovasculaires, estiment les chercheurs. "Cela veut dire que la pollution de l'air fait plus de morts chaque année que le tabac, responsable de 7,2 millions de décès en 2015 selon l'Organisation mondiale de la santé (OMS)", affirme l'un des auteurs, le professeur Thomas Münzel, de l'Université de Mayence (Allemagne). "On peut éviter de fumer, mais on ne peut pas éviter d'être soumis à un air pollué", ajoute-t-il.

Les chercheurs estiment à 790 000 le nombre de morts dus à la pollution de l'air en 2015 dans l'ensemble de l'Europe, dont 659 000 dans les 28 Etats de l'Union européenne. Cette estimation est nettement supérieure à celle de l'Agence Européenne de l'Environnement (AEE). Dans son rapport annuel publié en octobre, elle jugeait que la pollution de l'air aux particules très fines (PM2,5), au dioxyde d'azote (NO2, émis par les moteurs diesel) et à l'ozone (O3) était responsable en 2015 de 518 000 décès prématurés dans 41 pays d'Europe, et 480 000 dans l'UE.

Article rédigé par Georges Simmonds pour RT Flash

European Heart Journal

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top