RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 970
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Octobre 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Prédire la réponse à l'immunothérapie grâce à l'intelligence artificielle
Bientôt une authentification sans mot de passe sur le Web
Avenir
Un avatar piloté par la pensée pour soigner les handicaps
Matière
Quand le béton fait office de batterie
L'énergie solaire et éolienne franchit le cap du térawatt au niveau mondial
Première synthèse de composés aromatiques issus de la biomasse
Le coût de production de l’hydrogène pourrait diminuer de 70 % d’ici 2030
Vivant
Des canaux vasculaires directs reliant le crâne et le cerveau…
Un gène des éléphants leur permet d’être immunisés contre le cancer
Une nanopuce qui détecte rapidement les bactéries
Des molécules luminescentes capables de mieux détecter les cancers
Thérapie ciblée : un nouvel outil pour hiérarchiser les mutations tumorales
Protège-t-on son cerveau en protégeant son cœur ?
Un niveau d’études plus élevé améliore la cognition après 65 ans
Recherche
Toyota en route vers le camion propre…
Edito
Agriculture : Faire disparaître les pesticides, c’est une priorité absolue…



Une récente étude publiée dans la revue de référence « Environmental Health Perspectives » (EHP) est venue relancer le débat scientifique de plus en plus vif sur la question récurrente des effets délétères sur la santé humaine provoquée par une exposition simultanée, via l’alimentation, à plusieurs pesticides, y compris lorsque cette exposition reste en dessous des normes réglementaires en vigueur (Voir EHP).

Conduits par des chercheurs de l’Institut national de la recherche agronomique (INRA) et de l’Institut national de la santé et de la recherche médicale (INSERM), ces travaux montrent que des rongeurs mâles chroniquement exposés simultanément à six pesticides courants, même à des faibles niveaux, subissent des transformations métaboliques néfastes : forte prise de poids, augmentation du taux de masse grasse et apparition d’un diabète. Ces résultats sont d’autant plus importants qu’ils confirment ceux provenant de l’étude épidémiologique NutriNet.

Cette étude, qui porte sur les comportements alimentaires de plus de 50 000 personnes, a montré, en 2013 puis en 2017, que les plus gros consommateurs d’aliments provenant de l’agriculture biologique ont un risque sensiblement diminué de souffrir d’un surpoids ou d’une obésité et de développer un syndrome métabolique (précurseur du diabète de type 2), par rapport aux non-consommateurs de ces aliments produits sans pesticides.

Pour parvenir à ces conclusions, ces chercheurs de l’INRA ont exposé pendant un an - une durée correspondant à 30 ans chez un être humain - des souris à un mélange de six pesticides courants - quatre fongicides et deux insecticides. Les molécules choisies ont été retenues parce que ce sont celles que l’on retrouve plus fréquemment dans les fruits et légumes. Et le moins que l’on puisse dire est que les résultats de cette expérience interrogent. Les chercheurs ont en effet observé qu’à partir de six mois d’exposition à ces substances, les animaux mâles présentaient un surpoids par rapport à leurs congénères du groupe témoin. Autre constatation alarmante, ces mêmes animaux ont développé dès le quatrième mois une intolérance au glucose et présentaient, à l’issue de l’expérience, une hyperglycémie, ce qui correspond au tableau symptomatique du diabète. En revanche, ces scientifiques n’ont pas constaté de dérèglement métabolique similaire chez les femelles. Comme le souligne Laurence Payrastre, chercheuse au laboratoire de toxicologique alimentaire de l’INRA (Toxalim), à Toulouse, et coauteure de ces travaux, « Nos travaux permettent de renforcer la présomption d’un lien de causalité entre l’exposition de la population à des pesticides et le risque de troubles métabolique».

Il est intéressant de souligner que les conclusions de ces recherches vont dans le même sens que celles réalisées en 2013 par l’équipe de Brigitte Le Margeuresse-Basstinoni, chercheuse au laboratoire en cardio-vasculaire métabolique, à Lyon. Ces précédentes recherches avaient en effet montré que l’exposition d’animaux à un cocktail constitué d’autres substances chimiques (Bisphénol A, phtalate, PCB et dioxines) provoquait, in fine, le même type de dérèglement métabolique.

Mais le principal enseignement de cette nouvelle étude de l’INRA est incontestablement qu’elle vient confirmer la réalité et la nature imprévisible de « l’effet cocktail » provoqué par une exposition conjointe à plusieurs substances chimiques, dont les effets, au lieu de s’additionner, semblent plutôt se multiplier.

Confrontés aux résultats convergents de ces différents travaux scientifiques très sérieux, l’Agence européenne pour la sécurité des aliments vient d’annoncer qu’elle avait demandé qu’une première évaluation concernant les effets cumulés d’un groupe de pesticides cibles dans la thyroïde et le système nerveux soit réalisée avant la fin de cette année.

Mais pour en revenir à l’étude de l’INRA, elle change notablement la donne en ce qui concerne l’identification et le poids des différents facteurs épidémiologiques impliqués dans le diabète. Cette pathologie touche à présent 425 millions de personnes dans le monde. En France, c’est plus de 3 millions de personnes qui sont aujourd’hui traitées pour un diabète, pour un coût global dépassant les huit milliards d’euros par an. Il faut rappeler que 92 % des patients souffrant de cette maladie présentent un diabète de type 2 (non- insulinodépendant). Bien que les causes de cette maladie soient multiples, facteurs génétiques, alimentation trop riche et déséquilibrée, manque d’activité physique, on ne peut que s’inquiéter du fait que l’exposition aux pesticides pourrait bien constituer un nouveau facteur important, et largement sous-estimé, de risque de développer cette maladie.

Cette étude de l’INRA est également à rapprocher d’un autre travail publié il y a un an par des chercheurs de l'Inserm et de l'Université de Brunel à Londres. Cette équipe internationale a développé des modèles de prédiction mathématique des effets combinés des molécules, à partir de leur profil toxicologique. Ils ont rentré les données de 27 molécules, dont 7 médicaments, 14 molécules chimiques d'usage industriel (pesticides) et 6 molécules dites « socio-culturelles » (alcool, caféine…). Là encore, les chercheurs ont constaté que l'exposition simultanée à des doses très faibles de plusieurs perturbateurs endocriniens au cours du premier trimestre de grossesse pourrait entraîner un risque pour le futur appareil génital et reproducteur de l'enfant. Autre découverte de cette étude, les exacerbations des effets individuels des différentes molécules testées pouvaient aller jusqu'un facteur 1.000… Ce vaste travail de recherche, salué par la communauté scientifique internationale, a également eu le mérite de montrer qu'il est possible de prédire, en utilisant un logiciel adéquat, un certain nombre d'effets cocktails complexes, provoqués par l’interaction et la synergie de plusieurs dizaines de molécules.

D’une manière plus générale, un autre problème de santé publique très important doit ici être évoqué car il devient réellement préoccupant. Il s’agit de la baisse constante de la fertilité masculine observée en Europe et en France depuis 50 ans. Une vaste étude épidémiologique publiée en juillet 2017 dans la très sérieuse revue Human Reproduction Update, montre en effet que le nombre moyen de spermatozoïdes des hommes dans les pays les plus industrialisés du monde a chuté de plus de moitié (52,4 %) en quarante ans, soit 1,3 % par an en moyenne. Bien que ce niveau reste dans la fourchette fixée par l'OMS (Voir Science Daily), cette baisse constante, sur une aussi longue période, inquiète de plus en plus le monde scientifique et médical. La France n’échappe pas à ce phénomène dont les causes précises restent à ce jour inconnues.

L’Agence Santé publique France a ainsi confirmé, dans une étude publiée en juillet 2017 que les substances chimiques perturbatrices endocriniennes étaient impliquées dans l'augmentation des maladies liées au système hormonal (Voir Santé Publique France). Dans ces recherches, l'agence a confirmé, en travaillant sur le syndrome de dysgénésie testiculaire (TDS), qu'entre 1989 et 2005, la concentration du sperme en spermatozoïdes a chuté de près d'un tiers (-32,2 %), soit près de 2 % par an en France. L’étude réalisée sur 26 609 hommes souligne que ces résultats « reflètent une altération globale de la santé reproductive masculine en France, et sont compatibles avec des changements environnementaux ou de modes de vie, parmi lesquels l'exposition croissante aux perturbateurs endocriniens de la population générale ».

Dans une autre étude, les chercheurs de Santé Publique France, de l'Hôpital Robert Debré à Paris et de l'Université Paris 7-Diderot, ont montré que ces perturbateurs endocriniens, contenus notamment dans les pesticides, pourraient jouer un rôle important dans le phénomène croissant de puberté précoce qui se manifeste par des signes de puberté avant l'âge de huit ans chez les filles et de neuf ans chez les garçons. La forme la plus fréquente observée est la puberté précoce centrale idiopathique (PPCI). L’étude souligne également que l’on observe des surincidences marquées de ces cas de puberté précoce dans les régions les plus riches en cultures agricoles permanentes.

Citons enfin une autre étude publiée en avril 2017 et dirigée par le Docteur Jing Liu, professeur associé à l’Université Zhejiang de Hangzhou en Chine. Ce travail a pu établir un lien entre l’exposition à des insecticides fréquemment utilisés dans l’agriculture et l’élevage, les pyréthrinoïdes, mais également dans des produits domestiques tels que certains sprays anti-moustiques ou les shampooings anti-poux, et une puberté précoce chez les garçons (Voir Endocrine Society). Dans ces recherches présentées dans le cadre du Congrès américain d’endocrinologie à Orlando, des chercheurs chinois de l’Université de Zhejiang à Hangzhou se sont penchés sur le cas des insecticides pyréthrinoïdes, et leur impact sur la puberté de 463 garçons chinois âgés de 9 à 16 ans. Ces scientifiques ont découvert qu’une hausse de 10 % de 3-PBA, un métabolite des pyréthrinoïdes, présent dans les urines des participants, était associée à une augmentation de 4 % des taux de LH (hormone lutéinisante) et FSH (hormone folliculo-stimulante).

En France, il faut rappeler qu’en dépit de la volonté des gouvernements successifs, la quantité totale de pesticides utilisés par l’agriculture a continué à augmenter de 5 % par an entre 2005 et 2010, avant de se stabiliser autour de 66 000 tonnes par an, ce qui fait de notre pays le 5eme plus gros consommateur de pesticides dans le monde, derrière la Chine, l’Argentine, le Mexique et l’Ukraine.

Ces chiffres montrent qu’on reste très loin de l’objectif du plan gouvernemental Ecophyto. Lancé en 2008, dans la dynamique du Grenelle de l’environnement, ce programme d’actions visait au départ à diviser par deux le recours aux pesticides d’ici à 2018. Face à cet échec patent, le plan Ecophyto 2, a repoussé à 2025 cet objectif pourtant nécessaire d’une réduction de moitié de la consommation de produits phytosanitaires dans notre pays.

Il existe pourtant, dans de nombreuses situations, des solutions alternatives efficaces à l’utilisation des pesticides, comme le montre l’ANSSA. L'Agence nationale de sécurité sanitaire alimentaire nationale a publié le 30 mai 2018 un rapport très intéressant, intitulé « Risques et bénéfices des produits phytopharmaceutiques à base de néonicotinoïdes et de leurs alternatives » (Voir ANSES).

Cette étude avait pour but d’évaluer les risques et les bénéfices des produits phytopharmaceutiques à base de néonicotinoïdes ainsi que leurs alternatives chimiques et non chimiques. Portant sur l’utilisation de 130 produits à base de néonicotinoïdes, cette étude de l’ANSSA montre que, dans 78 % des cas analysés, il existe au moins une solution alternative non chimique efficace et opérationnelle. Ces conclusions encourageantes ne sont pas anecdotiques quand on sait, grâce à plusieurs études convergentes, que les néonicotinoïdes sont toxiques pour le système nerveux des insectes, et participent, avec d’autres facteurs, au déclin des abeilles en perturbant le sens de l’orientation de ces insectes qui emplissent une mission de pollinisation indispensable. La loi biodiversité a prévu l'interdiction des néonicotinoïdes en France depuis le 1er septembre 2018.

Heureusement, la recherche agronomique progresse à pas de géant et les chercheurs de l’INRA, dont les travaux sont hélas peu médiatisés, ont réalisé au cours de ces dernières années des avancées majeures dans la mise au point de nouveaux vecteurs naturels de lutte contre les maladies et parasites s’attaquant aux cultures. Par exemple, pour parvenir à éradiquer le cynips du châtaignier, une micro-guêpe originaire de Chine qui dévaste les exploitations en Europe, ils ont identifié un parasitoïde très efficace, le Torymus sinensis. Celui-ci est à présent utilisé à grande échelle avec succès depuis 2010 et les régions productrices de châtaignes ont retrouvé leur niveau de production d'il y a 10 ans.

Autre grande avancée de l’INRA, l’utilisation du trichogramme, une micro-guêpe parasitoïde qui va pondre ses œufs dans les larves des pyrales qui déciment le maïs. Ces trichogrammes pourraient bientôt protéger riz, canne à sucre, ou tomate sous serre. Il est également possible, pour lutter contre le carposcape, un ravageur des pruniers, d’utiliser des phéromones, hormones naturelles, qui vont perturber les vols des papillons. L’INRA travaille par ailleurs sur une arme biologique ciblant le carpocapse de la pomme, une larve qui peut faire de gros dégâts sur les récoltes de ce fruit très consommé en France. Ces scientifiques ont réussi à acclimater un parasitoïde, Mastus ridens, issu du Kazakhstan. Celui-ci s’attaque avec efficacité à la larve et les premiers lâchers en verger devraient intervenir d'ici à 2019.

Mais cette lutte biologique contre les ravageurs et nuisibles, qui s’attaquent aux cultures, ne prendra sa pleine efficacité qu’en synergie avec trois autres outils en plein développement : la recherche de nouvelles variétés génétiques résistantes aux maladies et prédateurs, l’agriculture de précision et la robotique agricole.

La recherche agronomique peut à présent, grâce à de nouveaux et puissants outils, être beaucoup plus efficace en matière de sélection variétale, dont l’objectif est d’identifier des gènes, présents dans la nature, générant des résistances aux maladies. Le groupe coopératif français Limagrain vient ainsi de lancer une nouvelle variété de colza, baptisée Arcitect, combinant deux gènes de résistance au virus de la jaunisse du navet, causant des pertes importantes de rendement. L'Inra de Clermont-Ferrand, en partenariat avec le laboratoire britannique de Rothamsted ­Research, vient pour sa part d'identifier, après quatre ans de travaux, un gène de résistance à la septoriose du blé, une redoutable maladie, qui se propage par les éclaboussures de pluie et le vent, et entraîne des baisses de production considérables sans traitement.

Autre outil majeur qui pourrait permettre une réduction sensible de l’utilisation des pesticides, l’agriculture de précision. L’arrivée massive des drones agricoles et la généralisation des systèmes d'aide à la décision constituent des avancées majeures dans cette direction. C'est le cas de Mileos, un outil de prévision des risques de maladie des pommes de terre, associé à des stations de météo de la start-up Weenat. « Cet outil me permet de connaître précisément les risques de mildiou et de ne traiter qu'en cas de besoin », explique Paul Coisnon, céréalier à Outarville (Loiret).

Il faut enfin évoquer bien sûr l’apport décisif de la robotique agricole, dont les progrès sont impressionnants. Il existe à présent sur le marché une multitude de robots désherbeurs, comme ceux proposés par exemple par Naïo Technologies. Ces machines de plus en plus autonomes, polyvalentes et intelligentes, sont déjà présentes dans le maraîchage et sous serre. Demain, elles seront également à l’œuvre en plein champ, dans tous les types de culture et en toute saison et les investissements qu’elles représenteront seront largement compensés par les économies que réaliseront les agriculteurs en matière de produits phytosanitaires et par l’impact très positif sur l’environnement (sol de meilleur qualité, nappes phréatiques moins polluées, air plus propre…)

A la lumière de toutes ses évolutions scientifiques et techniques, je suis convaincu qu’il est tout à fait possible de réduire considérablement, sur une génération, l’utilisation des pesticides, sans augmenter les coûts de production, et en conservant, voire en améliorant, les excellents niveaux de productivité agricole de notre agriculture. A cet égard, rappelons que notre agriculture reste l’une des plus performantes au monde : alors que le nombre d’agriculteurs a été divisé par dix depuis la fin de la seconde guerre mondiale, la production globale de céréales a été multipliée par quatre au cours de la même période et sur les vingt dernières années, même si cette production augmente moins vite, elle a encore progressé de 10 % pour le blé, 21 % pour le maïs et 32 % pour le colza. Quant à la valeur nette de la production agricole de la France, elle a été multipliée par 5,5 en 50 ans, passant de 13 à 71 milliards d’euros.

Notre agriculture, encore archaïque au sortir de la seconde guerre mondiale, a su, au prix d’efforts d’adaptation considérables et en dépit d’une réduction sans précédents de ses effectifs, accomplir une formidable mutation historique et non seulement subvenir largement aux besoins alimentaires du pays mais devenir une source majeure d’exportations et de richesse économique pour la France, et je veux rendre hommage ici au monde agricole que je connais bien et rappeler cette vérité incontestable.

Mais aujourd’hui, notre agriculture est confrontée à de nouveaux défis, liés notamment à l’adaptation au changement climatique, à l’évolution de la demande des consommateurs, et à la nécessité de mieux intégrer la composante environnementale et sanitaire dans les modes de production. Je suis certain qu’avec le soutien actif de l’État, des collectivités locales, mais aussi des consommateurs, nos agriculteurs sauront relever, comme ont su le faire leurs grands-parents dans les années d’après-guerre, ces nouveaux défis et sauront faire de leur métier une activité tournée vers l’avenir, pleinement respectueuse de l’environnement et de la nature et répondant aux nouvelles exigences des consommateurs et aux attentes de la société.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Prédire la réponse à l'immunothérapie grâce à l'intelligence artificielle
Jeudi, 11/10/2018 - 07:30

Une étude réalisée par des chercheurs de l'Institut Gustave Roussy, de Centrale, de Supélec, de l’Inserm, de l’Université Paris-Sud et de TheraPanacea, vient de montrer pour la première fois qu’une intelligence artificielle peut exploiter des images médicales pour en extraire des informations biologiques et cliniques à des fins prédictives.

En développant et en entraînant un algorithme à analyser des images de scanner, les chercheurs ont créé une "signature" définissant le niveau d’infiltration lymphocytaire d’une tumeur, un indicateur qui permet de déterminer un score prédictif de l’efficacité de l’immunothérapie chez un patient. À terme, le médecin pourrait donc utiliser l’imagerie pour identifier des phénomènes biologiques d’une tumeur située dans n’importe quelle partie du corps sans avoir à réaliser de biopsie.

Jusqu’à présent, aucun marqueur ne permettait d’identifier de manière certaine les patients qui vont répondre à une immunothérapie de type anti-PD-1/PD-L1, alors que seulement 15 à 30 % des patients sont susceptibles d'y répondre.

Sachant que plus l’environnement immunologique d’une tumeur est riche (présence de lymphocytes), plus l’immunothérapie a de chances d’être efficace, les chercheurs ont souhaité estimer cet environnement grâce à l’imagerie (scanners) pour le corréler à la réponse clinique des patients au traitement. C’est l’objectif de la signature, dite "radiomique", qu'ils ont mise au point.

Dans cette étude rétrospective, la signature radiomique a été apprise, entraînée et validée sur la base de 500 patients qui présentaient une tumeur solide, dans différentes localisations. Dans une démarche basée sur le machine learning, les chercheurs ont d’abord appris à l’algorithme à exploiter les informations pertinentes extraites des scanners de patients inclus dans l’étude MOSCATO, qui comportait aussi les données génomiques tumorales des patients.

Ainsi, en se basant uniquement sur des images, l’algorithme a appris à prédire ce que la génomique aurait révélé de l’infiltrat immunitaire tumoral notamment par rapport à la présence de lymphocytes T cytotoxiques (CD8) dans la tumeur. La signature a été testée et validée dans d’autres cohortes, dont celle du TCGA (The Cancer Genome Atlas), puis a été évaluée à partir des scanners réalisés avant la mise sous traitement de patients inclus dans cinq essais d’immunothérapie anti-PD-1/PD-L1 de phase I.

Les chercheurs ont montré que les patients chez qui l'immunothérapie fonctionnait après 3 et 6 mois présentaient un score radiomique plus élevé, tout comme ceux qui avaient une meilleure survie. Une prochaine étude clinique consistera à évaluer la signature de manière rétrospective et prospective, à augmenter le nombre de patients et à les segmenter par type de cancer.

Article rédigé par Georges Simmonds pour RT Flash

Gustave Roussy

Bientôt une authentification sans mot de passe sur le Web
Mardi, 09/10/2018 - 23:40

Aujourd'hui, les internautes doivent jongler entre une multitude d’identifiants et de mots de passe. Et même si les navigateurs disposent de fonctions pour enregistrer les mots de passes, ces modes d'identification comportent de nombreuses failles, d'autant plus que les utilisateurs choisissent souvent des mots de passe très simples et ne les modifient pas assez régulièrement.

Pourtant, des solutions d’authentification existent déjà grâce à la biométrie. Microsoft (Windows Hello) et Apple (Touch ID et Face ID) permettent de déverrouiller les smartphones, les tablettes et les ordinateurs portables en utilisant l’empreinte digitale ou le visage de l’utilisateur. En outre, Android gère l'authentification par empreinte digitale depuis la version 6.0 de l'OS. Apple va encore plus loin avec son service de paiement Apple Pay puisqu’il suffit d’utiliser son visage ou son empreinte digitale pour valider une transaction.

Hélas, ces solutions sont propriétaires, ce qui pose un problème pour disposer d'un système d’authentification universel sur le Web. De plus, pour le moment, il faut passer par un procédé intermédiaire pour se connecter à un site web sécurisé. Ainsi, Apple peut stocker les mots de passe des sites dans le trousseau (iCloud Keychain) de l’utilisateur. Pour accéder au trousseau, il faut alors s’authentifier en utilisant Touch ID ou Face ID. Le gestionnaire de mots de passe 1Password utilise le même procédé qui s’effectue donc en deux temps quand on se connecte sur un site Web et nécessite quand même un mot de passe au niveau du site.

L’idéal serait de pouvoir se passer définitivement de mot de passe et d’utiliser d’autres moyens pour s’authentifier. Bonne nouvelle pour les utilisateurs, l’authentification sans mot de passe est sur le point de devenir une réalité.

De nombreuses sociétés travaillent en effet sur de nouvelles technologies pour offrir une connexion simple et sécurisée. L'une des pistes les plus intéressantes est la conception d’un système d’authentification universel pour les sites Web qui puisse s’interfacer avec les technologies biométriques existantes. Telle est la promesse de l’API WebAuthn de l’alliance FIDO (Fast IDentity Online).

Le consortium industriel FIDO (plus de 260 membres) propose des solutions d'authentification fortes et surtout interopérables. Il vient de publier le nouveau standard FIDO2 qui comporte en particulier l’API WebAuthn. Cette interface permet l’authentification sur un site Web par l'utilisation de clés publiques et privées.

La méthode assure une sécurité élevée car les clés privées ne circulent pas et aucun mot de passe n'est stocké sur le serveur du site. L'interface de programmation peut utiliser le capteur biométrique de l'appareil (lecteur d'empreintes digitales, reconnaissance de l'iris ou du visage) pour valider l'authentification. Cette interface fonctionne également avec les systèmes d’authentification externes (USB, Bluetooth ou NFC) en association avec le protocole CTAP (Client to Authenticator Protocol), second composant du standard FIDO2.

Lun des premiers systèmes externes disponibles est la Security Key de Yubico qui coûte environ 20 euros et remplace le mot de passe lors de la phase d'authentification. Il suffit de la connecter au port USB de l'ordinateur et d'appuyer sur le bouton jaune comportant le dessin d'une clé. La procédure est simple et efficace.

Article rédigé par Georges Simmonds pour RT Flash

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
Un avatar piloté par la pensée pour soigner les handicaps
Mardi, 09/10/2018 - 06:12

Le CHU de Nantes, l’Ecole Centrale et l’entreprise Onepoint ont développé un avatar piloté par la pensée. Grâce à ce casque électro-encéphalographique, il est possible d’analyser l’activité cérébrale d’une personne et d’interpréter ses « intentions de mouvement » en les retranscrivant grâce à un avatar virtuel.

Les applications sont nombreuses. Dans un premier temps, le système combinant BCI (interfaces cerveau-ordinateur), intelligence artificielle et design thinking serait une aide dans le traitement des douleurs de membres fantômes ou la gestion des handicaps.

« Nous travaillons à son développement depuis le mois de janvier, et nous espérons mettre en place les premiers essais cliniques sur des patients d’ici trois mois », détaille Sébastien Ravoux, responsable du pôle Expertise Technique chez Onepoint dans un communiqué. « Cela sera une première en France car à terme, nous irions cette fois-ci bien au-delà d’un usage permettant la simple analyse d’imagerie en offrant une application concrète en termes de soins ».

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

^ Haut
Matière
Matière et Energie
Quand le béton fait office de batterie
Jeudi, 11/10/2018 - 07:37

La start-up suisse Energy Vault propose une solution originale et innovante au problème du stockage massif des énergies renouvelables. Aujourd'hui, les principaux stockeurs d'énergie sont les barrages hydroélectriques. L'eau accumulée est autant d'électricité potentielle une fois les vannes ouvertes. Cette solution n'est cependant pas viable partout dans le monde, et reste coûteuse. Pour stocker de l'énergie, Energy Vault utilise des blocs de béton posés au sol, en dessous d'une grue. Lorsque de l'électricité est produite en surplus, elle vient alimenter la grue qui soulève des blocs de béton et les empile en hauteur.

Quand la consommation est plus forte, la grue reprend les blocs de béton et les fait descendre. La descente va permettre de générer de l'électricité grâce au poids des blocs, qui vont entraîner une turbine.

Energy Vault veut construire des endroits de stockage avec une grue à 6 bras, haute de 120 mètres et des cylindres de béton pesant 35 tonnes chacun. Cette configuration permettrait d'accumuler 20 mégawatts/heure, soit la consommation journalière de 2.000 foyers suisses, explique Robert Piconi, le PDG de l'entreprise.

Pour l'heure, seul un exemplaire réduit avec une grue simple de 20 mètres de haut soulevant des cylindres de 500 kg est fonctionnel. Cette solution simple et efficace présente un avantage majeur : sa durée de vie. Selon l'entreprise, chaque centrale peut durer 30 ans, avec un coût de maintenance faible.

Article rédigé par Georges Simmonds pour RT Flash

Les Echos

L'énergie solaire et éolienne franchit le cap du térawatt au niveau mondial
Mardi, 09/10/2018 - 23:10

Selon Bloomberg New Energy Finance (BNEF), la capacité de production mondiale cumulée d’énergie solaire et d’énergie éolienne a atteint 1 térawatt (un millier de milliard de watts). Si l’éolien domine légèrement à 54 %, le solaire enregistre une croissance beaucoup plus forte.

L'étude précise que le chiffre exact est de 1 013 GW selon les dernières analyses datant du 30 juin 2018. En y ajoutant les autres énergies vertes, comme l’hydroélectricité, le chiffre totalise 2 TW. Maintenant le solaire et l’éolien représentent le plus gros de la croissance selon BNEF. A titre de comparaison, la dernière édition du rapport World Nuclear Industry Status Report (WNIS) fait état d'une capacité de production de l'ensemble du parc nucléaire mondial (403 réacteurs en activité) de 351 GW en 2017.

D’après les donnée de BNEF, depuis 2000, la capacité de production cumulées de l'énergie solaire et de l'énergie éolienne a été multipliée par 65 et a même quadruplé depuis 2010. Les moyens sont quasiment répartis équitablement : 54 % pour l’éolien et 46 % pour le solaire.

Les chiffres de BNEF soulignent une progression du solaire beaucoup plus importante. Depuis 2017, la capacité de production d’énergie solaire a augmenté de 46 % alors que celle de l’éolien n’a crû que de 8 %. Sur la même période le nombre de panneaux photovoltaïques a été multiplié par 57.

Article rédigé par Georges Simmonds pour RT Flash

Bloomberg

Première synthèse de composés aromatiques issus de la biomasse
Mardi, 09/10/2018 - 06:42

Des chercheurs du CNRS, de Solvay et l’Université de Poitiers ont réussi une avancée majeure en chimie en parvenant à synthétiser un composé aromatique clé, la meta-xylylènediamine (MXD) à partir du furfural, un composé chimique industriel dérivé de sous-produits agricoles comme le son d’avoine ou de blé, la sciure ou le maïs.

Le furfural se présente comme un liquide huileux incolore à l’odeur d’amande qui jaunit rapidement à l’air. Il est déjà couramment utilisé en chimie comme solvant pour le raffinage pétrochimique par exemple ou via son dérivé, l’alcool furfurylique pour la fabrication de nombreuses résines. On le retrouve aussi en agroalimentaire pour la fabrication d’arômes et son extraction industrielle est déjà développée ; la production annuelle avoisine le million de tonnes par an.

La meta-xylylènediamine (MXD) est quant à elle utilisée dans l‘industrie des polymères, des revêtements de surface ou dans la synthèse de polyamide et polyuréthane. Les travaux présentés ici ont permis de la produire à partir du furfural via une suite de réactions ne nécessitant pas de chauffer au-delà de 30°C et qui ne rejettent que de l’eau. Un procédé plutôt écologique auquel s’ajoute l’avantage que, lorsqu’on remplace les hydrocarbures par des composés organiques issus de la biomasse, on peut envisager de relocaliser certaines activités industrielles de synthèses loin des raffineries.

Pour réussir à transformer ce furfural, les chercheurs se sont appuyés sur des modélisations DFT – c’est-à-dire des modélisations fondées sur la théorie de la fonctionnelle de la densité, une méthode de calcul quantique qui permet l’étude de la structure électronique et la modélisation des matériaux à l’échelle atomique – et ont travaillé sur une succession d’aromatisations basées notamment sur des réactions de Diels-Alder. La transposition de cette démarche et de ce procédé à d’autres composés chimiques dérivés du furfural semble possible, ce qui pourrait permettre de produire aussi d’autres composés aromatiques tels que le benzaldehyde ou la benzylamine.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

Le coût de production de l’hydrogène pourrait diminuer de 70 % d’ici 2030
Mardi, 09/10/2018 - 06:27

D’après une étude publiée par la banque américaine Morgan Stanley, l’augmentation de la demande en énergies renouvelables, cumulée à la baisse de leurs coûts, pourrait faire baisser le coût de production de l’hydrogène de 70 % d’ici 2030.

Morgan Stanley rappelle qu’« actuellement, 96 % de la production d’hydrogène provient de combustibles fossiles, principalement du méthane, mais aussi d’autres gaz naturels, des hydrocarbures liquides et du charbon ». Notamment car le procédé (sans émissions carbone) d’électrolyse de l’eau, coûte cher en électricité et devient « très peu rentable à court terme », est-il souligné. De fait, « la disponibilité croissante de sources d’énergie renouvelables, y compris l’énergie solaire et éolienne, pourrait laisser présager une forte baisse du coût de l’électricité au cours de la prochaine décennie », soulève le rapport.

La co-directrice de l’équipe Morgan Stanley European Utility, Carolina Dores, estime que « la clé de la réduction des coûts pourrait être de construire des installations de production d’hydrogène conjointement à des parcs éoliens et/ou solaires ».

Ce moindre coût de l’hydrogène permettrait son développement dans différents secteurs, notamment dans le secteur de la mobilité. Et plus particulièrement pour les camions et taxis, selon la banque américaine. Plusieurs secteurs industriels seraient également concernés. Parmi lesquels : la chimie, le raffinage du pétrole ou encore la production d’électricité.

« Cependant, le secteur aura besoin d’un large soutien de la part des gouvernements », souligne Carolina Dores. Tant au niveau réglementaire que financier, notamment pour le développement des infrastructures. La banque relève en effet que le manque d’infrastructures de stockage et de transport de l’hydrogène constitue un obstacle au développement de ce gaz. Autres obstacles relevés par Morgan Stanley : les grands besoins en eau potable pour l’électrolyse, ou encore les freins sécuritaires (gaz inflammable, incolore et inodore).

Article rédigé par Georges Simmonds pour RT Flash

Morgan Stanley

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des canaux vasculaires directs reliant le crâne et le cerveau…
Jeudi, 11/10/2018 - 07:59

Des chercheurs américains de la faculté de médecine de Harvard et de l’hôpital général du Massachusetts ont découvert que chez la souris et l’Homme, il existe de minuscules canaux reliant directement la moelle osseuse du crâne à la muqueuse cérébrale. Ces canaux ressemblent à de minuscules tunnels et ils font un lien direct entre le crâne et le cerveau.

Les résultats de la recherche révèlent que ces canaux nouvellement identifiés fournissent une voie d’accès directe aux cellules immunitaires, ce qui leur permet, en cas de dommages, de passer directement de la moelle osseuse au cerveau. Cette nouvelle découverte suggère ainsi que ces cellules ont toujours bénéficié d’une sorte de « raccourci ». En effet, jusqu’à maintenant, les scientifiques pensaient que les cellules immunitaires étaient transportées par la circulation sanguine à partir d’autres parties du corps pour lutter contre une inflammation cérébrale à la suite d’un accident vasculaire cérébral, d’une blessure ou d’un trouble cérébral.

Les minuscules canaux ont été découverts lorsqu’une équipe de chercheurs a voulu étudier le cheminement des cellules immunitaires délivrées au cerveau à la suite d’un accident vasculaire cérébral ou d’une méningite. La recherche visait à définir si celles-ci provenaient du crâne ou du tibia. Les cellules spécifiques dont le cheminement a été étudié étaient les neutrophiles, les « premiers intervenants » de l’escouade immunitaire. Lorsque quelque chose tourne mal, elles font partie des premières cellules que le corps envoie sur le site concerné, pour aider à atténuer les causes de l’inflammation.

L’équipe a mis au point une technique permettant « d’étiqueter » les cellules avec des colorants membranaires fluorescents, qui agissent comme des capteurs de cellules. Les chercheurs ont traité ces cellules avec les colorants et les ont injectées à différents endroits dans la moelle osseuse de souris. Des cellules à marquage rouge ont été injectées dans le crâne et des cellules à marquage vert dans le tibia.

Une fois que les cellules se sont installées, les chercheurs ont induit plusieurs modèles d’inflammation aiguë, y compris un AVC et une méningoencéphalite induite chimiquement. Ils ont constaté que le crâne envoyait significativement plus de neutrophiles au cerveau en cas d’accident vasculaire cérébral et de méningite que ne le faisait le tibia.

Ces chercheurs ont découvert des canaux vasculaires microscopiques reliant directement la moelle crânienne à la dure-mère (ou pachyméninges), une membrane fibreuse, dure et rigide, qui entoure le cerveau. Il s’agit d’une découverte importante, car les inflammations jouent un rôle dans de nombreux troubles cérébraux.

Étudier ces processus pourrait donc aider les scientifiques à mieux comprendre les mécanismes en jeu. Cela pourrait également permettre d’en savoir plus sur l’apparition et le développement de maladies auto-immunes telles que la sclérose en plaques, où le système immunitaire attaque le cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Trust My Science

Un gène des éléphants leur permet d’être immunisés contre le cancer
Jeudi, 11/10/2018 - 07:50

Les scientifiques se demandent depuis de nombreuses années pourquoi les éléphants, comme les rats-taupes, ne sont pas touchés par le cancer. Ce mystère a désormais une explication. Des chercheurs de l'Université de Chicago ont peut-être trouvé la réponse. Selon eux, ces pachydermes possèderaient un étonnant mécanisme génétique, baptisé LIF6, qui pourrait  détruire "à la source" les cellules cancéreuses, ce qui constitue un espoir pour les hommes.

En testant la réaction de leurs cellules face à des dommages de leur ADN, les scientifiques ont observé un mécanisme unique. En effet, les éléphants présentent en quantité abondante une protéine appelée "p53" déjà connue pour détecter les tumeurs chez les mammifères. De plus, cette protéine active d'autres gènes. Parmi eux, un gène endormi dit "zombie" appelé LIF6, qui entraîne à son tour la production d’une protéine du même nom. Ces protéines ouvrent de petits pores dans les cellules cancérigènes qui entraînent alors la libération des composés toxiques, de véritables poisons provoquant inévitablement la mort de la cellule cancéreuse.

Pour confirmer leurs affirmations, les scientifiques ont endommagé l’ADN des éléphants, tout en supprimant le gène "tueur de cellule". Résultat : les éléphants tombent malades comme n’importe quel autre animal et les cellules finissent par devenir cancéreuses. En parallèle des essais, les chercheurs ont constaté que tous les mammifères possèdent un gène similaire, simplement appelé LIF. Chez la majorité des mammifères y compris les humains, ce gène existe en une seule copie, ce qui n’est pas le cas pour les éléphants qui en comptent dix.

La découverte de ce gène anti-cancer représente une avancée majeure dans la compréhension du développement tumoral, estime le Docteur Joshua D. Schiffman, chargé de l’étude. "Cela ajoute une pièce importante au puzzle. Comme point de départ, je pense que c’est génial".

L’auteur principal des travaux, Vincent Lynch, chercheur à l’Université de Chicago, est également optimiste quant à la création, un jour, d’un remède pour les humains. "Cela pourrait nous apprendre quelque chose de fondamental au sujet du cancer en tant que processus. Et si nous sommes chanceux, cela pourrait nous dire quelque chose sur la façon de traiter la maladie humaine. Peut-être pourrions-nous trouver des moyens de développer des médicaments qui imitent les comportements du gène LIF6 de l’éléphant".

Article rédigé par Georges Simmonds pour RT Flash

La Provence

Une nanopuce qui détecte rapidement les bactéries
Mardi, 09/10/2018 - 23:20

Certaines infections bactériennes peuvent être foudroyantes et parfois mortelles, c'est pourquoi établir un diagnostic rapide et fiable est une condition impérative pour un traitement efficace. Malheureusement, avec les outils dont il dispose actuellement, le médecin peut attendre ce diagnostic pendant plusieurs jours.

Avec cette « labopuce » (ou lab on a chip) de taille nanométrique, développée par une équipe de scientifiques de la McGill University, les bactéries sont prises au piège et détectées en quelques minutes. Ce nouveau dispositif pourrait sauver des vies grâce à son mode de détection rapide et accessible des bactéries pathogènes.

« Il faut agir vite, parce que certaines infections bactériennes peuvent provoquer des symptômes graves, voire le décès », prévient Sara Mahshid, professeur adjoint au Département de génie biologique qui a mené ce développement. « Grâce à notre labopuce et à un microscope à fluorescence, nous pouvons confirmer la présence d'une bactérie en quelques minutes seulement. Nous espérons qu'un jour, les cliniciens utiliseront cet outil pour obtenir un diagnostic et mettre le traitement en route beaucoup plus rapidement dans le but, évidemment, de sauver des vies ».

Le dispositif, dont le développement a été mené par l’équipe de McGill en collaboration avec des collègues de l'Université de Toronto, est constitué d'« îlots » nanométriques d'une épaisseur équivalant environ au dixième de celle d'un cheveu humain. Ces îlots prennent les bactéries au piège. Le dispositif capable d’analyser une quantité infime de milieu de culture contenant des bactéries telles qu'E. coli ou S. aureus résistant à la méthicilline (SARM), va permettre de choisir le bon antibiotique contre l’infection bactérienne.

Les chercheurs passent à l’analyse d’échantillons cliniques en vue d’une utilisation future en routine clinique, en milieu hospitalier. Relativement peu coûteuse et facile à fabriquer, cette labopuce pourrait théoriquement permettre également l'analyse d'échantillons d'urine, de sang ou de prélèvements nasaux.

Article rédigé par Georges Simmonds pour RT Flash

WOL

Des molécules luminescentes capables de mieux détecter les cancers
Mardi, 09/10/2018 - 23:00

Un chercheur du CNRS, à l’école de chimie de l’Université de Strasbourg, Joan Goetz, a fait une découverte susceptible d’améliorer le diagnostic de certaines pathologies, notamment des cancers : une molécule extrêmement brillante, capable de se fixer sur les cellules malades.

En modifiant légèrement la structure spatiale de cette molécule, ce chercheur est parvenu à lui conférer de nouvelles propriétés et à la rendre cent fois plus lumineuse que les meilleurs marqueurs actuels. Cette molécule modifiée peut ensuite être rajoutée à un échantillon de tissu, de sang ou d'urine à analyser. Une fois bombardé de lumière, on y détecte beaucoup plus facilement, plus vite et plus longtemps les cellules atteintes par la maladie. La précision est également accrue.

"Si vous avez des cellules saines, elles ne seront pas éclairées, alors que les cellules cancéreuses vont être reconnues et éclairées et surtout, avec une bien meilleure sensibilité", détaille Loïc Charbonnière, directeur de recherches au CNRS qui a supervisé la thèse de Joan Goetz. "On va pouvoir aller chercher une cellule malade."

Article rédigé par Georges Simmonds pour RT Flash

FR 3

Thérapie ciblée : un nouvel outil pour hiérarchiser les mutations tumorales
Mardi, 09/10/2018 - 06:34

L'European Society for Medical Oncology (ESMO) a élaboré une échelle permettant de hiérarchiser les anomalies génétiques tumorales en fonction de leur intérêt, ce qui devrait grandement faciliter la prise de décision en termes de thérapie ciblée.

« Lorsque les patients bénéficient du séquençage génétique de leur tumeur, les résultats fournissent une liste des anomalies "actionnables", c'est-à-dire qui peuvent être la cible de thérapie ciblée. Le problème, c'est qu'il n'existe pas d'outil qui permet de distinguer les altérations pertinentes de celles qui ne le sont pas », explique au "Quotidien" le Professeur Fabrice André, oncologue à Gustave-Roussy et initiateur du projet.

Le groupe de travail de l'ESMO a ainsi élaboré l'échelle ESCAT pour pallier ce manque. Six niveaux ont été définis pour classer les anomalies. « L'objectif de l'ESMO est que ce système soit intégré aux résultats de séquençage, afin que chaque anomalie soit associée à un niveau de preuve », indique le Professeur André. « Ce système graduel permettra au patient de savoir si une anomalie est pertinente sans susciter de faux espoirs et au médecin de prioriser les anomalies afin de choisir le traitement le plus efficace », poursuit-il.

Ce système de priorisation permet d'adopter un langage commun. Elle montre par exemple avec clarté l'intérêt d'une anomalie de type I par rapport à une de type IV. « L'ESCAT devrait ainsi éviter que des patients soient traités par thérapie ciblée en cas d'anomalie de niveau de pertinence clinique faible », précise le Professeur André, qui espère une meilleure utilisation des résultats de séquençage génétique avec le déploiement attendu de cet outil.

Article rédigé par Georges Simmonds pour RT Flash

ESMO

Protège-t-on son cerveau en protégeant son cœur ?
Mardi, 09/10/2018 - 06:21

Selon une étude américaine, les personnes ayant un bonne santé cardio-vasculaire diminueraient sensiblement leurs risques de développer une démence. « On a longtemps cru que les démences d’origine vasculaire pure et celle de la maladie d’Alzheimer étaient nettement distinctes, mais les deux sont souvent mélangées et la frontière est très ténue », explique le Professeur Philippe Amouyel, professeur de santé publique et directeur du laboratoire d’excellence Distalz dédié à la maladie d’Alzheimer.

Qu’il existe ou pas un mécanisme pathologique sous-jacent, il est probable qu’une mauvaise vascularisation du cerveau, quelle qu’en soit la cause, précipite l’apparition des symptômes de démence, lorsqu’elle s’ajoute à une maladie d’Alzheimer en cours. « On sait depuis longtemps que les personnes qui cumulent des facteurs de risque cardio-vasculaires ont un risque plus important que les autres d’avoir une démence vasculaire, voire une maladie d’Alzheimer », fait remarquer le Professeur Amouyel.

C’est ce lien épidémiologique, au-delà de 65 ans, qui apparaît dans l’étude prospective française publiée le 21 août par la revue américaine de référence, le Journal of the American Medical Association (Jama). Le travail a été réalisé à partir des données recueillies dans l’étude dite « des 3 cités » (Bordeaux, Dijon, Montpellier) qui a commencé en 1999-2000. Il s’agit de personnes âgées d’au moins 65 ans au moment de l’entrée dans l’étude et qui ne devaient pas être en institution (Ehpad ou autre) à ce moment-là. L’étude montre que la santé du cerveau, mesurée en termes de déclin cognitif (baisse des performances cérébrales) et de démence, passe en partie par les mêmes paramètres de santé que ceux conditionnant la santé cardiovasculaire.

Sept critères ont été rassemblés en 2010 par la puissante organisation américaine de prévention cardio-vasculaire, l’American Heart Association, pour définir la santé cardio-vasculaire optimale : ne pas fumer, avoir un poids normal, une alimentation saine et une activité physique minimale. Sur le plan biologique, avoir des taux de sucre et de cholestérol dans les normes ainsi qu’une pression artérielle normale.

Les chercheurs français constatent une baisse du risque de démence de 10 % pour chacun des paramètres à un niveau optimal, soit 70 % de réduction lorsque tous les voyants sont à ce niveau optimal. "Notre étude montre une association entre ces paramètres et la survenue de démences mais ne prouve pas la relation de cause à effet", nuance Cécilia Samieri, épidémiologiste et chercheuse Inserm (Université de Bordeaux), première auteure de l’article, "cela confirme toutefois que le simple fait d’avoir un seul paramètre au niveau idéal est associé à une diminution du risque de démence".

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Un niveau d’études plus élevé améliore la cognition après 65 ans
Mardi, 09/10/2018 - 06:05

L'augmentation du niveau général d'éducation va-t-elle préserver les prochaines générations des démences liées à l’âge ? Alors que le niveau d’études n’a cessé d’augmenter en population générale au cours des dernières décennies, une équipe Inserm constate que cette progression est associée à de meilleures performances cognitives lorsqu’on compare deux groupes d’individus âgés ayant 10 ans d’écart.

Plusieurs études de cohortes concordantes ont indiqué une baisse de l’incidence des démences chez les personnes âgées au cours des dernières décennies. Malgré cela, l’augmentation de l’espérance de vie et l’accroissement de la population mondiale vont conduire à une augmentation du nombre de personnes atteintes de démences liées à l’âge dans le futur.

Les projections tablent sur 131,5 millions de personnes concernées d’ici 2050, dont les trois quarts seront atteints de la maladie d’Alzheimer. Dans ce contexte, pour être en mesure de renforcer au mieux la prévention contre les démences dans les prochaines années, les chercheurs tentent de découvrir les facteurs associés à la baisse d’incidence constatée.

Plusieurs facteurs sont suspectés de jouer un rôle dans cette évolution : la meilleure prise en charge des maladies à complications vasculaires comme le diabète, l’hypertension, l’hypercholestérolémie, un mode de vie plus sain, mais aussi une plus grande stimulation intellectuelle et en particulier un niveau d’éducation de plus en plus élevé.

Pour évaluer l’impact du niveau d’éducation sur la fonction cognitive et le déclin de celle-ci, les chercheurs ont analysé deux groupes de personnes nées à 10 ans d’écart, appartenant à la cohorte PAQUID. L’objectif de cette cohorte est d’étudier le vieillissement et ses complications. Au moment de leur inclusion dans l’étude, les participants avaient au moins 65 ans et vivaient à leur domicile, en Gironde et en Dordogne. Ils ont été suivis pendant 25 ans.

Leurs capacités cognitives été évaluées tous les deux à trois ans grâce à quatre tests, le premier portant sur le fonctionnement cognitif global (MMSE), le deuxième sur la fluence verbale (Set-test d’Isaac), le troisième sur la mémoire de travail visuelle (BVRT) et le dernier sur les fonctions exécutives qui nous permettent de nous adapter au contexte, aux situations nouvelles.

Leur autonomie a par ailleurs été estimée avec un test supplémentaire (4-IADL), renseignant sur la capacité à utiliser le téléphone, les transports, à prendre seuls leurs médicaments et gérer leur argent. Les questionnaires de suivi renseignaient également sur leur profession et leur utilisation de médicaments contre le diabète, l’hypertension et l’hypercholestérolémie.

A partir de cette cohorte, les auteurs ont créé deux groupes de personnes âgées de 78 à 88 ans, avec des participants nés entre 1903 et 1912 dans le premier, et entre 1913 and 1922 dans le second. Dans ces deux groupes, les auteurs ont analysé les résultats de suivi sur 12 ans.

Ils ont constaté que la seconde "génération" présentait un niveau d’éducation moyen plus élevé, occupait des postes plus stimulants intellectuellement et utilisait davantage d’antihypertenseurs et d’hypocholestérolémiant que la première. Elle présentait en outre des scores supérieurs à ceux de la première génération pour les quatre tests cognitifs au moment de l’inclusion. Or, l’analyse statistique montre que cette progression est en grande partie imputable au niveau d’éducation plus élevé (hormis pour la mémoire de travail).

La vitesse de déclin cognitif global était en revanche équivalente entre les deux groupes. Seules la fluence verbale et la mémoire de travail ont décliné moins rapidement au sein de la seconde génération, mais sans que cela ne puisse s'expliquer par le niveau d'éducation. La perte d’autonomie s’est également révélée davantage préservée dans le second groupe, alors que les scores d’autonomie étaient équivalents à l’inclusion.

"Notre travail confirme l’impact bénéfique de l’éducation sur la cognition. Les personnes qui ont davantage étudié ont une réserve cognitive plus importante, ce qui leur permet de mieux compenser d’éventuelles lésions cérébrales. Par conséquent, même si la vitesse de déclin est équivalente entre deux générations, le fait de partir d’un niveau cognitif plus élevé permet, d’une certaine façon, de préserver plus longtemps ses capacités cognitives et son autonomie", conclut Leslie Grasset, premier auteur de ces travaux.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Toyota en route vers le camion propre…
Mardi, 09/10/2018 - 23:30

Toyota vient de présenter un nouveau prototype de camion à hydrogène baptisé "Beta". Il possède une autonomie de 480 km contre 320 km pour le modèle précédent. Les essais du nouveau modèle vont débuter à l'automne 2018.

"Beta" gagne également en polyvalence et en confort. La nouvelle cabine est plus large avec une pile à combustible, composant majeur des véhicules à hydrogène, empiétant moins sur l'habitacle. Surtout, le nouveau modèle marque une nouvelle étape vers la commercialisation en comparaison du modèle Alpha qui représentait surtout une première phase d'essais et de tests purs.

Ce nouveau prototype a été développé grâce aux essais et aux données recueillies par le précèdent modèle "Alpha" qui a enregistré 16 000 km de transports réels sur des courtes distances, notamment aux alentours de Los Angeles. Le travail des équipes de Toyota a surtout consisté à adapter pour un modèle beaucoup plus gros l'architecture des Toyota Mirai, l'une des premières berlines à hydrogène à être produite en série. Ingénieurs et techniciens ont donc travaillé de longues heures pour adapter notamment les faisceaux de câbles, l’électronique et d’autres éléments aux dimensions d'un camion. Le modèle Beta affiche aujourd'hui un poids total roulant autorisé de 36 tonnes, 670 chevaux et 1800 Nm de couple. Il fonctionne avec deux piles à combustible de Toyota Mirai et une batterie de 12 kWh.

Le développement de véhicules propres et non-polluants est au cœur de la stratégie commerciale de Toyota. L'entreprise nippone s'est positionnée très tôt sur le marché des voitures moins polluantes. La Toyota Prius était la première voiture hybride commercialisée en 1997. L'entreprise est aujourd'hui leader sur ce marché avec un record de 1,52 million de véhicules électrifiés dans le monde en 2017. Cela représente une hausse de 8 % sur le précédent record déjà détenu par le géant japonais en 2016.

L’enjeu pour le constructeur maintenant sera de pouvoir encore améliorer l’autonomie de ses camions, sachant que les transporteurs effectuent en général des distances bien supérieures aux 480 km de capacité actuelle annoncée. Il s'agira aussi de développer des infrastructures de ravitaillement en hydrogène destinées au public.

Article rédigé par Georges Simmonds pour RT Flash

Toyota

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top