RTFlash

RTFLASH Recherche & Technologie
NUMERO 1096
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Mars 2021
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : Nokia et Vodafone ont réussi à établir une connexion à 100 Gbit/s
Une puce cryogénique pour accélérer l’informatique quantique
Matière
Un matériau capable de produire du froid uniquement avec la chaleur solaire
La Corée du Sud et le Danemark veulent faire passer l'éolien marin à une nouvelle dimension
Un nouvel aimant moléculaire à haute performance
Terre
Les forêts mondiales, émettrices de CO2 ou puits de carbone ?
Vivant
Stimuler le cerveau pour retrouver la mémoire
Les crèches ne seraient pas responsables d’un sur risque pour les enfants et le personnel
Les tablettes diminueraient l’attention endogène des jeunes enfants mais augmenteraient leur attention exogène
Le stress du père à l’enfance impacte le développement cérébral de l'enfant
Un patch pour prévenir les crises graves d'épilepsie
Des ondes cérébrales spécifiques à nos états de pensée identifiées
Tumeurs cachées : une technique innovante pour les dépister
Maturation et persistance de la réponse lymphocytaire B mémoire anti-SARS-CoV-2
Une aorte artificielle qui réduit la pression sanguine
Edito
Cybersécurité : un enjeu économique, politique et démocratique majeur



Notre pays subit depuis quelques mois une recrudescence très inquiétante de cyberattaques, de plus en plus dévastatrices et sophistiquées, qui visent non seulement des entreprises, mais également des administrations, (le Ministère de l’Intérieur et le Tribunal de Paris, le 6 septembre dernier) des bailleurs sociaux (comme Paris-Habitat le 28 octobre dernier), des collectivités (comme la ville d’Angers le 15 janvier dernier), des journaux (comme le quotidien Paris-Normandie, le 18 novembre dernier) et, plus préoccupant encore, des établissements hospitaliers, comme le CHU de Rouen (en novembre 2019) l’AP-HP -Assistance Publique-Hôpitaux de Paris (le 22 mars 2020), l’hôpital de Marmande (1er juillet 2020), les hôpitaux d’Albertville et Moutiers (21 décembre 2020) l’hôpital de Dax (le 8 février dernier), l’hôpital de Villefranche-sur-Saône, lui aussi paralysé, avec de graves conséquences pour les patients, le 18 février dernier. Le 19 février dernier, c’est l’AFNOR (Association française de normalisation) qui a, à son tour, été victime d’une attaque informatique, probablement menée par l’organisation RYUK, un groupe criminel qui avait déjà rançonné les usines Fleury Michon en mars 2019.

Le 21 février dernier, ce sont les systèmes informatiques de la ville et de l’agglomération de Chalon-sur-Saône, en Saône-et-Loire, qui ont subi à leur tour un piratage informatique de grande ampleur. Enfin, il y a peu, plus de 500 000 dossiers médicaux confidentiels se sont retrouvés en libre accès sur le Net. Ces dossiers ont été piratés le plus facilement du monde sur des serveurs mal protégés de laboratoires d’analyses médicales du Nord de la France, et auraient probablement dû faire l’objet de demandes de rançons. Mais il semblerait, selon les enquêteurs, qu’un différend entre pirates informatiques explique que ces dossiers aient été finalement mis en ligne et rendus publics sur l’Internet…

Aux Etats-Unis, le 9 février dernier, une tentative de piratage informatique du réseau d’eau de la ville d’Oldsmar (Floride) a été déjouée de justesse, grâce à la vigilance d’un employé. Ce dernier a remarqué que le contrôle du taux d’hydroxyde de sodium, un produit chimique utilisé à petites doses pour corriger l’acidité de l’eau, était en train d’être modifié par voie informatique et augmentait de façon anormale. Heureusement, cet employé a pu stopper ce processus et donner l’alerte. Mais le pirate ou l’organisation responsable de cet acte de malveillance, dont les conséquences sanitaires pour la population locale auraient pu être très graves, n’ont pas été identifiés à ce jour.

Dans notre pays, l’ANSSI, l'agence nationale de sécurité des systèmes d'information, estime que ces attaques ont été multipliées par quatre entre 2019 et 2020, passant de 50 à 200, soit une attaque tous les deux jours en moyenne. En France, le coût total des dommages liés à la piraterie informatique a été estimé à 1,6 milliard d’euros en 2019 et la moyenne des cyberattaques s'élève à présent à 35 000 € contre 9 000 € en 2019. Pour les grandes entreprises (+1000 employés), la moyenne des pertes atteint 458 000 €, un montant qui s'explique mieux quand on sait qu'il faut en moyenne trois semaines à une entreprise pour remettre en état et sécuriser son système informatique, après une cyberattaque.

Selon l’OCDE, les dépenses mondiales en cybersécurité dépasseront 1000 milliards $ en 2021, environ 1,5 du produit mondial brut, contre 450 milliards de dollars en 2016. Le FBI estime pour sa part que, pour les seules rançons payées en bitcoins, 144 millions de dollars de rançons auraient été versés aux pirates informatiques entre 2013 et 2019 aux Etats-Unis.

L’agence fédérale américaine souligne que c’est le rançon-giciel Ryuk qui s’est avéré le plus rentable pour les pirates opérant aux Etats-Unis, suivi par les rançon-giciels Crysis / Dharma, Bitpaymer et SamSam. Le FBI précise que la majeure partie de ces rançons (environ 64 millions de dollars) ont transité par des échanges de devises virtuelles, et que 37 millions de dollars sont restés inutilisés, sous forme de bitcoins non dépensés.

S’agissant du modus operandi, le FBI révèle que, dans les trois quarts des cas, c’est le protocole RDP (Remote Desktop Protocol) qui a principalement été utilisé dans les cyberattaques. Concrètement, les pirates ont utilisé des outils automatisés générant des mots de passe, ce qui leur permet de percer relativement facilement les défenses informatiques, compte tenu du faible niveau de sécurité que présentent de nombreux mots de passe d’entreprises ou d’administrations.

Les pirates informatiques ont incontestablement profité du contexte sanitaire mondial lié à la pandémie de Covid-19, qui a bouleversé l’organisation et la gestion des activités informatiques, notamment avec le développement massif et rapide du télétravail, qui n’a pas été accompagné des mesures de prévention et de protection informatiques qui auraient été nécessaires pour sécuriser cette décentralisation inédite des activités numériques. A cet égard, une récente étude a montré que 64 % des responsables de la Sécurité des systèmes d'Information (RSSI) de grandes entreprises ont constaté une hausse des tentatives de phishing (ou « hameçonnage ») et 20 % jugent que les collaborateurs des entreprises ne sont pas correctement équipés pour effectuer des tâches sécurisées en télétravail. La même étude souligne que 56 % de ces responsables considèrent que leur entreprise n’attache pas une attention suffisante à la question-clé de la cybersécurité. Enfin, autre enseignement révélateur de cette étude, seuls 14 % de ces responsables estiment que leur entreprise est capable de faire face à une attaque informatique.

A l’occasion des Assises de la sécurité 2020 à Monaco, Ivan Kwiatkowski, expert chez Kaspersky, a dressé un portrait édifiant du fonctionnement de l’écosystème qui sous-tend la grande criminalité informatique. Celle-ci n‘a plus rien à envier, en termes de capacité de nuisance, de puissance et d’organisation, aux mafias traditionnelles. Ce spécialiste a expliqué comment les pirates conçoivent leurs packers (Programmes utilitaires qui vont compresser et crypter un programme exécutable). Ils coopèrent avec des botmasters chargés du déploiement sur des machines infectées. Un vendeur de comptes (account seller) détecte les brèches de sécurité sur les réseaux d’entreprise. Des red teams achètent aux botmasters des portefeuilles de brèches dans des sociétés soigneusement sélectionnées, puis ils rentrent dans les systèmes informatiques de ces sociétés pour récupérer des mots de passe d’administrateurs IT. Les données les plus sensibles et monnayables sont ensuite identifiées et verrouillées par chiffrement. Dans la dernière phase de ce processus criminel parfaitement organisé, on trouve des spécialistes qui vont savoir négocier les rançons les plus élevées possibles. Enfin, un blanchisseur (launderer) encaisse les bitcoins virtuels pour les transformer en achats de biens et services dans le monde réel…et la boucle est bouclée.

Nos économies et nos sociétés, déjà gravement affectées et fragilisées par la pandémie actuelle, ne peuvent plus continuer à subir cette cybercriminalité dévastatrice et doivent rapidement porter un coup d’arrêt à ce phénomène, sous peine de subir des dommages humains et financiers insupportables qui finiront par fragiliser nos démocraties dans leurs fondements. Pour combattre et prévenir efficacement cette nouvelle forme de criminalité numérique organisée, je crois qu’il faut agir simultanément sur quatre fronts complémentaires, technique, économique, politique et pénal.

La réponse technique doit passer par un effort accru de la recherche publique et privée dans le développement de nouveaux outils puissants, capables de contrer ceux utilisés par les pirates. La firme Kaspersky mise par exemple sur la threat intelligence, un concept qui vise à collecter et structurer les informations liées aux menaces informatiques, afin de mieux cerner le profil des attaquants et la nature des menaces. L’idée est d’être capable d'anticiper les types d’attaques, en détectant et en recoupant les signaux à « bas bruits ». Dans le même esprit, Check Point Software Technologies propose une solution d’« intelligence partagée » (Infinity SOC) reposant sur une plate-forme (ThreatCloud), capable d’inspecter 2,5 milliards d’attaques et 3 milliards de sites web et fichiers par jour.

L’intelligence artificielle (IA) doit bien entendu être au cœur de cette prévention intelligente des menaces numériques. A cet égard, un récent rapport d’Oracle et KPMG souligne que 87 % des professionnels de l’informatique considèrent l’IA et l’apprentissage machine (machine learning) comme des outils essentiels pour la sécurité de leur entreprise. Pour sa part, Kaspersky mise sur le concept d’«humachine», qui articule et combine le machine learning, les données massives (big data) et la threat intelligence, sous la coordination d’experts analystes.

Dans cette guerre contre le cybercrime, la société anglaise Darktrace, créée à Cambridge en 2013, fait figure de pionnier. Elle a développé un principe de réponse immunitaire dérivé des mécanismes à l’œuvre dans le domaine du vivant. Son outil (DCIP) repose sur les calculs de probabilités et l’apprentissage-machine et il est conçu pour détecter automatiquement les cybermenaces émergentes et les bloquer. Comme le souligne Emily Orton, Président et cofondatrice de Darktrace, « Il faut en priorité lutter contre les menaces provenant de l’intérieur de l’organisation, en utilisant l’IA pour mieux détecter des signaux quasi imperceptibles, des comportements inhabituels qui pourraient être le signe d’une cyberattaque ».

L’un des grands défis de la cyberprotection est de parvenir à détecter plus rapidement, grâce à l’IA et l’apprentissage machine, toutes les variantes de logiciels malveillants, en analysant toutes les informations concernant l’ensemble des logiciels malveillants détectés auparavant. Ainsi, lorsqu'une nouvelle forme de logiciel malveillant est utilisée, l’outil intelligent de protection va le comparer à la base de données, examiner le code et bloquer l'attaque, en raisonnant par analogie et en considérant que des événements semblables ont déjà été considérés comme malveillants.

Mais l’IA peut aller encore plus loin et examiner en permanence le comportement des utilisateurs au quotidien, en y dégageant des attitudes récurrentes. Par exemple, si un salarié clique sur un lien d’hameçonnage (phishing), ce type d’outil va comprendre qu'il ne s'agit pas d'un comportement normal et qu'il peut s’agir d’une activité potentiellement malveillante. En utilisant judicieusement ces outils d'apprentissage machine, ces comportements à risque peuvent être repérés très rapidement, ce qui peut permettre de prévenir une intrusion malveillante, et d’empêcher le vol des identifiants de connexion, et le déploiement de logiciels malveillants.

Mais il ne faut pas oublier que, parallèlement à ces nouveaux outils techniques sophistiqués de lutte contre la cybercriminalité, la mise en œuvre par les entreprises de solutions simples et peu coûteuses suffit souvent à prévenir les attaques informatiques ou à en limiter les dommages. Il faut en effet rappeler que 80 % des brèches de sécurité des entreprises résultent de mots de passe trop faibles. Sur ce point clé, l’ANSSI souligne d’ailleurs qu’en 2020, 73 % des mots de passe informatiques utilisés en France étaient d’un niveau de sécurité si faible qu’ils pouvaient être « crackés » en moins d’une seconde par un pirate informatique aguerri…

Face à cette lacune, il est urgent que toutes les entreprises, notamment les PME, se dotent de gestionnaires de mots de passe, des outils simples et efficaces qui peuvent mettre en sureté des informations vitales comme les mots de passe, les identités, les données financières. Ces outils - Dashlane, Roboform ou Lastpass, se présentent sous la forme d’extension web qui stockent en toute sécurité tous vos mots de passe et les saisissent à votre place, lorsque vous devez vous connecter à un site web. Il est également vital que les entreprises veillent à mettre à jour en permanence le système d’exploitation de leurs ordinateurs, afin que les pirates puissent moins facilement exploiter les failles logicielles pour entrer dans leur système informatique ; il est enfin indispensable que toutes les entreprise et artisans se dotent de solutions de sauvegarde, comme Acronis, Titre ou Veeam, outils peu onéreux qui vont leur permettre d‘automatiser de façon souple et évolutive la sauvegarde de leurs données sensibles, afin de pouvoir les récupérer en cas d’attaque et d’identifier les éventuels rançongiciels dont ils peuvent être les cibles.

Pour la plupart des experts et spécialistes de la sécurité numérique, il n’existe pas de panacée en matière de sécurité informatique et l’avenir appartient à la combinaison judicieuse de plusieurs outils qui, pris isolément, peuvent être assez facilement contournés, mais qui, correctement associés, peuvent rendre le piratage beaucoup plus difficile et donc moins rentable pour les cybercriminels. Le premier outil est l’authentification biométrique multiple (empreinte digitale, reconnaissance faciale ou de l’iris, ou rythme cardiaque). Deuxième outil, le gestionnaire de mots de passe à haut niveau de sureté que j'ai déjà évoqué. Troisième outil, la validation de l’utilisateur depuis son smartphone par une clé de sécurité. Enfin, dernier outil, l’analyse contextuelle qui permet de prendre en compte les habitudes de navigation de l’utilisateur grâce à des algorithmes de deep learning.

Mais ces réponses techniques et économiques, pour indispensables qu’elles soient, ne suffisent pas et doivent être complétées par des ripostes plus larges, d’ordre politique, juridique et pénal. Le Président de la République a pris la mesure de ce péril lié à la cybercriminalité et a annoncé des mesures fortes, à l’occasion de son intervention du 18 février dernier avec les personnels de l’hôpital de Villefranche-sur Saône (Rhône) de Dax (Landes), victimes des cyberattaques qu’ils ont subies à moins d’une semaine d’intervalle, et qui ont eu de graves conséquences pour les patients, dont certains ont dû être transférés en urgence vers d’autres établissements.

Le plan national annoncé par le chef de l’Etat a pour ambition légitime de renforcer l’ensemble de la filière de cybersécurité française. Pour atteindre cet objectif, notre pays a décidé d’investir un milliard d’euros d’ici 2025 dont 720 millions de la part de l’Etat, le solde venant du secteur privé. La moitié de cet investissement sera consacré à des projets de R&D et au développement d’une offre souveraine en soutenant l’activité de l’ensemble des acteurs de la cybersécurité. L’ambition de ce plan est de faire passer le chiffre d’affaires annuel de la cybersécurité de 7,3 milliards d’euros à 25 milliards d’euros, d’ici 2025, ce qui se traduira notamment par un doublement du nombre de techniciens et d’ingénieurs travaillant dans ce domaine de la cyberprotection. Pour fournir et former ces nouveaux experts, de nouvelles filières et de nouveaux masters en sécurité des systèmes d’information seront créés.

Ce plan vise également à renforcer la nécessaire coopération entre acteurs de la filière. A cet effet, un budget supplémentaire de 148 millions d’euros sera débloqué pour favoriser les approches collaboratives. Un cybercampus sera créé dans le quartier de la Défense et regroupera une soixantaine de partenaires (grands groupes, start-up, laboratoires, écoles d’ingénieurs, services de l’Etat, utilisateurs…) et plus d’un millier de salarié, dès la rentrée 2021. Dans le cadre de ce plan global, l’ANSSI - Agence nationale de la sécurité des systèmes d'information - bénéficiera d’une enveloppe augmentée à 136 millions d’euros, ce qui lui permettra de mettre en place des unités basées en région afin de venir en aide plus rapidement aux entreprises et administrations victimes de la cybercriminalité.

Mais l’effort contre la cybercriminalité doit également porter sur une coopération politique, juridique et policière accrue au niveau international. On pourrait par exemple imaginer la création d’une agence européenne entièrement dédiée à la lutte contre la cybercriminalité organisée et dotée de moyens humains, techniques et juridiques conséquents. Il faut par ailleurs intensifier les pressions diplomatiques et politiques sur les pays qui refusent toujours de signer la Convention internationale de Budapest (entrée en vigueur en 2004), ce qui rend difficile l’identification, la poursuite et l’arrestation des cybercriminels les plus dangereux qui opèrent massivement, chacun le sait, à partir des pays de l’ancien bloc soviétique.

Enfin, il me semble nécessaire de durcir le plus rapidement nos peines nationales en matière de cybercriminalité, de manière à rendre moins attractive cette forme de délinquance. Actuellement, il faut en effet savoir, qu’en France, les pirates informatiques encourent, au plus, 3 ans d’emprisonnement et 45 000€ d’amende (art 323-1 du code pénal) lorsqu’ils ont réalisé « soit la suppression, soit la modification de données contenues dans le système, soit une altération du fonctionnement de ce système ». Ces peines sont notoirement insuffisantes et peu dissuasives, surtout face à une augmentation inquiétante des attaques visant des établissements hospitaliers, et pouvant avoir de graves conséquences humaines.

Il faut rester réaliste : l’éradication de la cybercriminalité est un objectif illusoire, quelque soient les moyens techniques et humains que les états et les entreprises consacreront pour lutter contre ce fléau. En revanche, il est tout à fait possible, en actionnant simultanément les différents leviers technologiques, juridiques, politiques et culturels que j’ai évoqués, de rendre globalement la cybercriminalité beaucoup moins attractive et rentable, en faisant en sorte que les cybercriminels soient obligés de dépenser beaucoup plus d’efforts, de temps et d’énergie pour réaliser leurs actions, et soient en outre exposés à des sanctions pénales bien plus lourdes qu’aujourd’hui, ce qui aurait évidemment un puissant effet dissuasif. Espérons que notre pays poursuivra dans la durée cette lutte implacable contre ce nouveau fléau qu’il faut absolument contenir, si nous voulons préserver l’efficacité de nos économies et garantir la solidité de nos démocraties.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Fibre optique : Nokia et Vodafone ont réussi à établir une connexion à 100 Gbit/s
Mardi, 23/03/2021 - 14:27

Les télécoms Nokia et Vodafone ont annoncé, il y a quelques jours, avoir testé avec succès une nouvelle technologie de réseau optique passif, appelée PON (pour Passive Optical Network). Capable de débits fous, elle se distingue par son architecture point à multipoint au sein de laquelle une ligne optique se divise en de multiples diviseurs optiques, qui peuvent desservir plusieurs abonnés. Technique contraire au P2P, le point à point, qui offre à chaque abonné sa propre liaison fibrée. C'est ce que l'on appelle la technologie du dernier kilomètre. Mais venons-en au fait.

Nokia et Vodafone ont mené un test dans le laboratoire Eschborn de l'opérateur, en Allemagne. Celui-ci était destiné à tester les capacités d'un réseau PON 100G, et ainsi fournir des éléments attestant des capacités de cette technologie, qui peut se révéler être à la fois plus économique et plus compétitive.

Pour atteindre leur objectif d'un débit de 100 Gbit/s sur une seule longueur d'onde, Nokia a utilisé des optiques 25G (déjà commercialisées pour les opérateurs) en les combinant avec des DSP (Digital Signal Processor), des microprocesseurs de traitement numérique du signal qui permettent une transmission de données à une vitesse encore bien plus élevée. Il a fallu ensuite des capacités DSP avancées, ce qui a permis de basculer vers du 50G puis du 100G. Un tel débit (100 Gbit/s) serait ainsi 100 fois supérieur à une « bonne » fibre optique d'1 Gbit/s.

Free embarque déjà une connectivité 10G-EPON dans le serveur de sa Freebox Delta, qui avait été vantée par Xavier Niel et ses équipes lors de la présentation de cette dernière, il y a plus de deux ans. On s'est depuis rendu compte que les conditions d'accès à un tel débit étaient très, très nombreuses.

En ce qui concerne Nokia et Vodafone, le prototype 100G PON de Nokia Bell Labs « est la première application au monde de transmission à débit flexible dans un réseau PON », indique Nokia, qui vante l'utilisation de la transmission à débit flexible comme un moyen de jouir d'une latence plus faible et de diminuer par deux la consommation d'énergie. Ce sont évidemment deux avantages considérables dans une société où la consommation de données est de plus en plus importante.

Vodafone, de son côté, voit le 100G PON comme « un moyen potentiel de créer des réseaux PON hautement flexibles et évolutifs qui atténueront le risque de congestion future aux heures de pointe et permettront la densification des réseaux câblés et mobiles ». Les deux entreprises pensent que le 50G PON et le 100 PON pourraient être commercialisés dans la seconde moitié de la décennie, soit autour de 2025.

Article rédigé par Georges Simmonds pour RT Flash

Telecoms

Une puce cryogénique pour accélérer l’informatique quantique
Lundi, 22/03/2021 - 14:51

Des chercheurs du Quantum Lab de Microsoft ont récemment mis au point un nouveau type de puce informatique capable de fonctionner à des températures proches du zéro absolu. Une prouesse qui promet de bouleverser profondément l’informatique quantique.

Baptisé Gooseberry, ce système cryogénique révolutionnaire permettra à une nouvelle génération de machines d’effectuer des calculs avec des milliers de qubits, plutôt que quelques dizaines à l’heure actuelle. « Les ordinateurs quantiques les plus performants au monde utilisent actuellement une cinquantaine de qubits seulement », explique David Reilly, chercheur à l’Université de Sydney et auteur principal de la nouvelle étude, parue dans la revue Nature Electronics. « Un nombre réduit dû en partie aux limites de l’architecture physique les contrôlant ».

Contrairement aux bits binaires des ordinateurs classiques, qui prennent la valeur de 0 ou de 1, les qubits peuvent exister dans une superposition simultanée de ces deux états, ce qui se traduit par une puissance de calcul décuplée, leur permettant de résoudre en un temps record des opérations extrêmement complexes qui prendraient de nombreuses années à des machines reposant sur une architecture conventionnelle.

Toutefois, à l’instar de l’informatique classique, plus est toujours mieux. Jusqu’à présent, les chercheurs ont été limités dans le nombre de qubits pouvant être utilisés dans les systèmes quantiques par les conditions extrêmes devant être déployées : ceux-ci impliquent notamment des températures très basses, et la faible chaleur dégagée par le câblage électrique utilisé par les dispositifs actuels peut suffire à perturber leur bon fonctionnement.

Si de récentes innovations ont permis de maintenir des températures stables et d’augmenter sensiblement le nombre de qubits, les câblages utilisés s’avèrent particulièrement encombrants. « Les machines actuelles possèdent un magnifique réseau de câbles pour contrôler les signaux, semblable à un nid d’oiseaux », souligne Reilly. « Ce qui s’avère esthétiquement sympathique mais extrêmement limitant en ce qui concerne les qubits pouvant être utilisés. Il y a un véritable goulet d’étranglement entre les entrées et les sorties ».

Puce de contrôle cryogénique capable de fonctionner à des températures de l’ordre du « millikelvin », c’est-à-dire une fraction de degré au-dessus du zéro absolu, Gooseberry pourrait permettre de contourner cette limitation. Sa capacité thermique extrême signifie qu’elle peut être placée dans un environnement très froid, interagir avec les qubits et transmettre leurs signaux à un noyau secondaire se trouvant dans un autre dispositif réfrigéré, immergé dans de l’hélium liquide.

Une telle architecture permettrait d’éliminer tout câblage encombrant ainsi que la chaleur excédentaire associée, ce qui signifie que les goulets d’étranglement actuels concernant le nombre de qubits utilisés pourraient bientôt appartenir au passé. « La puce est le composant électronique le plus complexe à faire fonctionner à cette température », détaille Reilly. « C’est la première fois qu’une puce à signaux mixtes intégrant 100 000 transistors fonctionne à 0,1 kelvin, soit l’équivalent de -273,05°C ».

L’équipe prévoit que son système expérimental, utilisant la fameuse puce cryogénique, permettra dans un avenir proche de contrôler des milliers de qubits (soit environ 20 fois plus que ce qui est possible aujourd’hui) et estime qu’à terme une telle approche pourrait permettre aux ordinateurs quantiques d’atteindre un tout autre niveau.

Article rédigé par Georges Simmonds pour RT Flash

Nature electronics

^ Haut
Matière
Matière et Energie
Un matériau capable de produire du froid uniquement avec la chaleur solaire
Mardi, 23/03/2021 - 14:30

Des scientifiques de l’Institut Charles Gerhardt Montpellier et de l’Institut de recherche KRICT en Corée du Sud ont élaboré un nouveau matériau hybride nanoporeux capable d’adsorber des quantités importantes d’eau et de les désorber à une température en dessous de 70 degrés. Cette innovation pourrait ouvrir la voie à de futures pompes à chaleur capables de produire du froid uniquement grâce au rayonnement solaire dans des pays chauds. Ce travail de recherche vient d’être publié dans la revue Nature Communications.

Les systèmes solaires thermiques basés sur un mécanisme d’adsorption et de désorption de l’eau fonctionnent à l’aide d’un matériau adsorbant. Ce dernier a la propriété de fixer à sa surface des atomes, des ions ou des molécules grâce à un transfert de matières de la phase gazeuse ou liquide vers la surface solide. Ce phénomène est plus ou moins réversible, c’est-à-dire qu’après avoir fixé l’eau dans ses pores, le matériau est capable de la libérer sous l’effet de la température et d’ainsi produire du froid. « Toute la problématique est de trouver un matériau qui adsorbe à la fois de grandes quantités d’eau tout en ayant la capacité à la libérer à basse température », analyse Guillaume Maurin, chercheur à l’Institut Charles Gerhardt de Montpellier.

Grâce à des outils de simulations numériques, les chercheurs de Montpellier ont dans un premier temps prédit un nouveau matériau hybride appartenant à la famille des Metal-Organic-Framework (MOFs). Ils sont formés par l’association d’un oxyde de métal et d’un ligand organique. Le nouveau matériau créé a été baptisé KMF-1 et est constitué de chaînes d’oxyde d’aluminium connectées par des cycles aromatiques formant des canaux microporeux.

L’Institut de recherche KRICT en Corée du Sud est ensuite parvenu à faire la synthèse de ce matériau et a ensuite testé ses performances. Les simulations numériques se sont avérées exactes puisque les expérimentations ont démontré que le KMF-1 est capable d’adsorber de grandes quantités d’eau et de la désorber facilement à une température comprise entre 65 et 70 degrés.

« Dans des pays chauds comme ceux du bassin méditerranéen et africain où la température de l’air peut monter entre 45 et 50 degrés, il est possible de concentrer les rayons du soleil afin d’atteindre cette température de désorption de 65 à 70 degrés », explique Guillaume Maurin. « Grâce à ce nouveau matériau, nous allons être en mesure de produire du froid sans besoin énergétique supplémentaire. Ce niveau de performance n’avait jusqu’ici jamais été atteint ».

Le KMF-1 pourrait aussi servir à la fabrication de réfrigérateurs respectueux de l’environnement. Les systèmes frigorifiques à compression utilisent en effet tous des polluants comme les chlorofluorocarbones pour fonctionner. Ici, le fluide utilisé est totalement propre puisqu’il s’agit de l’eau. « Même si les normes en vigueur deviennent de plus en plus contraignantes, tous les fluides réfrigérants actuellement utilisés dans les réfrigérateurs restent nocifs pour la couche d’ozone et toxiques pour la santé. Notre nouveau matériau pourrait aussi offrir une alternative dans ce domaine d’application ».

Enfin, ce nouveau matériau possède également une capacité à produire de la chaleur. Ce phénomène se produit lors de la phase d’adsorption de l’eau, un mécanisme exothermique. Et il se répète au moment de la phase de désorption puisque la condensation de l’eau entraîne la production de chaleur. Le KMF-1 se révèle donc être un matériau potentiel pour faire fonctionner les pompes à chaleur.

Les premières applications industrielles de ce matériau pourraient arriver sur le marché vers 2025.

Article rédigé par Georges Simmonds pour RT Flash

Research Gate

La Corée du Sud et le Danemark veulent faire passer l'éolien marin à une nouvelle dimension
Lundi, 22/03/2021 - 14:53

La Corée du Sud a annoncé la construction de ce qui devrait être « le plus grand parc éolien offshore du monde ». Ce projet doit à la fois permettre à Séoul d'atteindre d'ici 2050 la neutralité carbone, en réduisant sa dépendance aux combustibles fossiles, et dans le même mouvement de réduire sa dépendance massive aux importations de charbon - qui lui fournissent 40 % de son électricité.

Ce projet de parc éolien offshore, dont le contrat s'élève à 48.000 milliards de wons (soit pas moins de 36 milliards d'euros), est un volet majeur du Green New Deal du président Moon Jae-in, lancé l'année dernière. Moon Jae-in a assisté à la cérémonie de signature du plan à Sinan, ville côtière du sud-ouest du pays accueillant la centrale, qui aura une capacité maximale de 8,2 gigawatts. Le parc éolien est attendu pour 2030 au plus tard.

Une fois achevé, ce mégaparc éolien aura une puissance installée de 8,2 GW et sera en mesure de produire chaque année autant d'électricité que six réacteurs nucléaires, ont déclaré les responsables. Il sera donc deux fois plus puissant que le plus grand parc éolien européen en construction, le parc géant anglais « Dogger Bank », qui devrait être achevé en 2026 et produira 18 TWH par an.

Mais il n'est pas certain que ce parc coréen conserve longtemps son titre car le Danemark envisage la construction d'une île artificielle, à 80 kilomètres de ses côtes, pour accueillir un immense complexe éolien de dix gigawatts, qui sera capable d'alimenter 10 millions de foyers, soit le tiers de la consommation d'électricité d'un pays comme la France. Coût estimé : 28 milliards d'euros.

Le parc coréen devrait créer jusqu'à 5.600 emplois et contribuer à atteindre l'objectif de faire passer la capacité éolienne du pays de 1,67 GW actuellement à 16,5 GW en 2030. L'accord signé implique 33 entités différentes, parmi lesquelles des gouvernements régionaux, la compagnie d'électricité Kepco, et de grandes entreprises privées comme Doosan Heavy Industries & Construction ou SK E & S.

Article rédigé par Georges Simmonds pour RT Flash

OWB

Un nouvel aimant moléculaire à haute performance
Lundi, 22/03/2021 - 14:48

Moteurs, ordinateurs, smartphones, satellites, appareils électroniques, médicaux… les aimants sont partout autour de nous. Ces dernières années, la demande en nouveaux matériaux magnétiques n’a cessé d’augmenter. Traditionnellement, les aimants sont conçus à partir de matériaux inorganiques comme le néodyme et le samarium, mais leur processus de fabrication se révèle coûteux en énergie, car ils nécessitent d’être chauffés à de très hautes températures, autour de 600 degrés.

De plus, ils sont fabriqués à partir de matériaux aux ressources limitées car présentes uniquement à certains endroits du monde comme la Chine et nécessitant d’importants procédés d’extraction. Des chercheurs du CNRS, de l’Université de Bordeaux et de l’ESRF (European Synchrotron Radiation Facility) viennent de concevoir un nouvel aimant moléculaire, léger, facile à fabriquer et aux propriétés magnétiques quasi égales à celles des aimants traditionnels.

Qu’ils soient inorganiques ou conçus à partir de molécules organiques, les aimants possèdent tous des moments magnétiques, que l’on appelle également des spins au niveau atomique, et qui leur permettent d’acquérir des propriétés d’aimantation. Plus les spins sont proches les uns des autres, comme c’est le cas dans les aimants traditionnels, et plus les aimants possèdent un fort pouvoir d’aimantation. Par contre, dans le cas des aimants moléculaires, les spins étant séparés par des molécules organiques, leur densité magnétique est intrinsèquement moindre.

« En 2018, nous avons réalisé un premier travail de recherche et conçu un aimant organométallique à l’aide de la pyrazine, une molécule organique qui a la particularité de pouvoir se réduire et donc de posséder un spin. Nous l’avons associé à du chrome, un métal de transition, et réussi à fabriquer un matériau magnétique dont les spins communiquent entre eux de manière efficace », explique Rodolphe Clérac, directeur de recherche au CNRS, au Centre de Recherche Paul Pascal à Pessac.

« Dans ce nouveau travail de recherche, grâce à un procédé chimique relativement simple à réaliser, nous avons réussi à partir du matériau synthétisé en 2018, à réduire toutes les pyrazines, déjà liées avec le chrome et ainsi augmenter de façon très importante les interactions magnétiques entre spins ».

Alors que jusqu’ici, la plupart des aimants moléculaires ne fonctionnent qu’à une température inférieure à -200 degrés Celsius (°C), ce nouvel aimant conserve ses propriétés à une température pouvant atteindre + 242°C. « Nous avons réussi à augmenter l’effet mémoire de ce nouvel aimant moléculaire de 25 fois comparé aux précédents aimants de ce type conçus. Son champ coercitif est à présent au même niveau que celui des aimants traditionnels avec une valeur de l’ordre du tesla » souligne Rodolphe Clérac.

Seule différence entre ce nouvel aimant moléculaire et ceux traditionnels : l’amplitude de l’aimantation. Elle est en effet beaucoup plus grande chez les aimants inorganiques, car la densité des moments magnétiques (spins) est beaucoup plus élevée. Elle dépasse généralement les 5 g/cm³ et peut même atteindre 9 g/cm³ alors que la densité de ce nouvel aimant est comprise entre 1 à 2 g/cm³, ce qui en fait un aimant beaucoup plus léger. Dans le futur, ce nouvel aimant pourrait donc servir à la fabrication d’objets technologiques dont le poids joue un rôle important, comme par exemple les satellites ou les smartphones.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les forêts mondiales, émettrices de CO2 ou puits de carbone ?
Mercredi, 24/03/2021 - 10:57

Des scientifiques du Global Forest Watch ont réalisé une étude sur les émissions et absorptions de dioxyde de carbone des forêts mondiales. Ils ont constaté que ces dernières absorbent deux fois plus de CO2 qu'elles n'en émettent.

On le sait aujourd'hui : les forêts jouent un rôle primordial dans la régulation du climat. Ces étendues recouvrent 31 % de la surface terrestre et constituent le deuxième plus grand puits de carbone de la planète, après les océans. Mais les forêts ne font pas qu'absorber le dioxyde de carbone, elles en relâchent aussi lorsqu'elles sont dégradées.

Pour quantifier ce phénomène, des chercheurs ont mené une nouvelle étude à partir d'un vaste ensemble d'observations satellite et de mesures au sol collectées entre 2001 et 2019. Des données qui ont permis de dresser des cartes et un bilan plus précis des flux de carbone qui animent ces ensembles mondiaux.

Cette étude montre que les forêts ont absorbé deux fois plus de gaz qu'elles n'en ont émis sur cette période. Chaque année, elles ont ainsi piégé 16 milliards de tonnes de CO2 par an contre une moyenne annuelle de 8,1 milliards de tonnes libérées à cause de la déforestation et d'autres perturbations. « Les forêts représentent un "puits de carbone" qui absorbe une quantité nette de 7,6 milliards de tonnes de CO2 par an, soit 1,5 fois la quantité émise annuellement par les Etats-Unis », expliquent, Nancy Harris et David Gibbs, tous deux chercheurs pour le Global Forest Watch (GFW) et co-auteurs de l'étude.

Toutes ces étendues ne se valent toutefois pas en la matière. Les forêts tropicales constituent les écosystèmes les plus importants dans la régulation du climat. Pourtant, elles perdent de plus en plus de terrain face aux activités humaines. Et ce recul n'est pas sans conséquence sur leur pouvoir de puits de carbone.

Dans leur étude, les chercheurs ont considéré les trois principales zones de forêts tropicales de la planète : le bassin de l'Amazone en Amérique du Sud, le bassin du Congo en Afrique centrale et l'Asie du sud-est. Ils ont conclu que seule l'une des trois - celle du Congo - constituait encore un important puits de carbone. Les estimations indiquent que cette forêt, l'une des plus denses et riches au monde en terme de biodiversité, séquestre encore 600 millions de tonnes de CO2 de plus qu'elle n'en émet par an, ses moyennes d'émissions et d'absorption atteignant respectivement 530 millions et 1,1 milliard de tonnes de carbone.

Le bassin de l'Amazone est lui également apparu comme un puits de carbone mais à l'efficacité diminuée. Selon les estimations, sa forêt absorbe chaque année 1,2 milliard de tonnes de CO2 mais en libère quelque 1,1 milliard de tonnes. Soit un bilan annuel de 100 millions de tonnes de CO2 séquestrées. « Le bassin de l'Amazone a subi une déforestation accrue au cours des quatre dernières années due au défrichage pour l'élevage de bétail et à la dégradation par les incendies », rappellent les auteurs. Le bassin « est toujours un net puits de carbone mais est au bord de devenir une nette source si la perte de la forêt continue au rythme actuel ». Les forêts d'Asie du sud-est sont un triste exemple de cette bascule. Au cours des vingt dernières années, elles sont collectivement passées d'un important puits de carbone à une nette source d'émissions en raison des coupes destinées à les remplacer par des plantations, les incendies incontrôlés et le drainage des tourbières. Sur la période d'étude, ces étendues ont absorbé chaque année 1,1 milliard de tonnes de carbone tout en émettant 1,6 milliard. Soit un bilan négatif de 490 millions de tonnes de CO2 émises par an.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Stimuler le cerveau pour retrouver la mémoire
Mercredi, 24/03/2021 - 10:59

Des chercheurs américains de la Northwestern Medicine sont parvenus à améliorer la mémoire d'événements complexes et réalistes en appliquant une stimulation magnétique transcrânienne (SMT) au réseau cérébral responsable de la mémoire.

Ces scientifiques ont montré qu’il est possible de mesurer et de manipuler des types réalistes de mémoire. « Au quotidien, nous devons nous souvenir d'événements complexes qui impliquent de nombreux éléments, tels que des lieux, des personnes et des objets différents », a poursuivi l'auteure principale, Melissa Hebscher. « Nous avons pu montrer que la mémoire d'événements complexes et réalistes peut être améliorée de manière sûre et non invasive grâce à la stimulation cérébrale ».

Les scientifiques ont mené leur étude sur de jeunes adultes en bonne santé dans un laboratoire contrôlé. Ils ont utilisé une SMT dans le but de modifier l'activité cérébrale et la mémoire pour des événements réalistes. Pour tester leur efficacité, ils ont demandé aux participants d’effectuer une tâche de mémoire tout en ayant leur cerveau scanné grâce à une imagerie par résonance magnétique fonctionnelle (IRMf).

Au lieu de montrer aux participants des photos ou des listes de mots, les volontaires ont regardé des vidéos d'activités quotidiennes telles que quelqu'un pliant le linge ou sortant les ordures. « Notre étude a utilisé des clips vidéo qui reproduisent plus fidèlement le fonctionnement de la mémoire au quotidien », a justifié Melissa Hebscher. Après avoir visionné la vidéo, les participants ont répondu à des questions précises sur le contenu de ces vidéos.

Les résultats ont révélé que la stimulation cérébrale permet de restaurer une meilleure qualité de souvenirs dans le cerveau. Après la stimulation, l'activité cérébrale d'une personne en regardant une vidéo a davantage ressemblé à son activité cérébrale lorsqu'elle se souvenait de cette même vidéo. « Ces résultats ont des implications pour le développement de moyens sûrs et efficaces pour améliorer la mémoire du monde réel », souligne l'étude. Cette méthode pourrait également être utilisée pour améliorer la mémoire chez les personnes souffrant de troubles de la mémoire dus à des lésions cérébrales ou à des troubles neurologiques.

Les auteurs de l'étude ont utilisé une technique d'imagerie cérébrale appelée analyse de modèle multi-voxel pour comparer les modèles d'activité cérébrale lorsque les sujets ont regardé une vidéo et pour mesurer l'activité cérébrale lorsque les sujets se sont souvenus de cette même vidéo.

Les scientifiques ont mesuré l'effet de la stimulation en comparant la mémoire et l'activité cérébrale après la stimulation du réseau de la mémoire aux mesures après la stimulation d'une autre région cérébrale n'appartenant pas au réseau de la mémoire.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Les crèches ne seraient pas responsables d’un sur risque pour les enfants et le personnel
Mercredi, 24/03/2021 - 10:55

Des équipes des services de pédiatrie de l’hôpital Jean-Verdier AP-HP, de l’unité de recherche clinique et du service de microbiologie de l’hôpital Avicenne AP-HP, des universités de Sorbonne Paris Nord et Sorbonne Université ainsi que de l’Inserm, ont analysé dans une étude multicentrique le rôle des très jeunes enfants dans la transmission du SARS-CoV-2 au sein de crèches restées ouvertes pour accueillir les enfants des travailleurs essentiels, principalement des soignants, pendant la période du 1er confinement.

Ces travaux montrent que le virus circulait peu en crèche dans les conditions particulières appliquées lors du premier confinement (confinement strict du reste de la population, possibilité de petits groupes d’enfants et de renforcement des mesures barrières), y compris dans un groupe d’enfants considéré comme plus à risque (nourrissons dépendant du personnel, parents à risque d’infection car soignants continuant à se déplacer). Le mode de garde en crèche, dans ces conditions, ne semble pas être responsable d’un sur risque pour les enfants et le personnel qui les a en charge.

La fréquence de la présence des anticorps contre le coronavirus SARS-CoV-2 (la séroprévalence) a pu être étudiée entre le 4 juin et le 3 juillet 2020 chez les enfants qui avaient été accueillis pendant le premier confinement national du 15 mars au 9 mai 2020. Elle a permis d’estimer rétrospectivement le nombre d’infections antérieures. Le résultat de leur test sérologique rapide réalisé sur quelques gouttes de sang a également été communiqué aux parents en moins de 15 mn.

Parmi les 22 crèches étudiées, on trouve 20 crèches franciliennes et 2 crèches situées à Rouen et Annecy, dans des régions à moindre circulation virale. Douze crèches étaient hospitalières et 10 étaient gérées par la Ville de Paris ou le Département de la Seine-Saint-Denis. 327 enfants et 197 personnels des crèches ont participé à cette étude.

La séroprévalence chez les enfants était faible : 4,3 % (14 enfants positifs de 13 crèches différentes sur 327 enfants inclus). La séroprévalence chez le personnel des crèches était également faible : 7,7 % (soit 14 membres du personnel de crèche positifs sur 197) et similaire à celle d’un groupe de 164 personnels hospitaliers non exposés professionnellement aux patients et/ou aux enfants. L’ensemble des PCR SARS-CoV-2 réalisés chez les enfants en juin 2020 se sont révélées négatives (197 prélèvements naso-pharyngés et 261 prélèvements de selles).

L’analyse exploratoire complémentaire réalisée suggérait que les enfants séropositifs étaient plus susceptibles d’avoir été exposés au domicile à un adulte avec une infection confirmée au COVID-19 (43 % contre 6 %) et d’avoir au moins 1 parent séropositif.

L’hypothèse d’une contamination intra-familiale reste plus plausible qu’une transmission au sein des crèches. Ce mode de garde, dans ces conditions, ne semble en effet pas être responsable d’un sur risque pour les enfants et le personnel qui les a en charge.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Les tablettes diminueraient l’attention endogène des jeunes enfants mais augmenteraient leur attention exogène
Mercredi, 24/03/2021 - 10:54

Quel est l’impact des écrans sur l’attention des jeunes enfants ? C’est la question à laquelle ont tenté de répondre des psychologues, psychiatres, statisticiens et neuroscientifiques du développement de différentes équipes, alors que 63 % des 3–4 ans utilisaient une tablette à la maison en 2019 contre 28 % en 2013 ; des chiffres qui ont d’autant plus augmenté avec la crise sanitaire du Covid-19.

L’attention consiste à ne sélectionner que certaines informations de l’environnement et à rejeter les autres, jouant ainsi grandement sur notre comportement dès notre plus jeune âge. Bien que sous contrôle génétique, le développement de l’attention est également soumis aux influences de l'environnement lui-même, tels que les écrans.

« Généralement, les études se concentrent sur la télévision et les jeux vidéo », explique Ana Maria Portugal, qui a conduit les recherches. « Le fait de regarder la télévision est associée à des défauts d’attention endogène (attention dirigée vers un but de façon volontaire, ndlr). A l’inverse, jouer à des jeux vidéo d’action pourrait avoir un effet positif sur l’attention endogène ». Mais en étudiant le comportement vis-à-vis des tablettes, Ana Maria Portugal et son équipe ont obtenu des résultats légèrement différents : « une utilisation importante des tablettes semble bien associée à une diminution de l’attention endogène mais aussi à une attention exogène (attention automatique et réactive à un stimulus, ndlr) plus importante ».

Pour parvenir à ces conclusions, les chercheurs ont testé à la fois l’attention exogène et l’attention endogène de 40 sujets jeunes, utilisateurs réguliers ou non de tablettes. Chaque enfant s’est ainsi rendu 3 fois au laboratoire pour y subir des tests à l’âge d’un an, 1 an et demi et 3 ans et demi. Pendant ces visites, des expériences ont été menées avec des ordinateurs, consistant à suivre des objets virtuels des yeux et à en ignorer d’autres, le tout étant mesuré par un système de suivi oculaire.

Plus précisément, les enfants en bas âge ont subi trois tests. Le premier repose sur la diffusion d’un stimulus visuel central puis en plusieurs stimuli périphériques présentés de manière imprévisible sur le côté droit ou gauche de l’écran, dans trois niveaux de difficulté. Est alors calculée, grâce à un suivi du mouvement des yeux, la latence de leurs mouvements, qui permet de déterminer le niveau d’attention exogène. Pour cette expérience, les scientifiques invitent les enfants à suivre des yeux une pomme rouge parmi des pommes bleues et, à chaque réussite, ils sont récompensés par un extrait vidéo et un son.

Le deuxième test consiste à demander au sujet de fixer un point particulier sur une cible immobile. Un stimulus est ensuite présenté sur un côté de la cible. L’enfant est invité à faire une saccade oculaire dans la direction opposée. Par exemple, si un stimulus est présenté à gauche de la cible immobile, il doit regarder vers la droite. Dans cet exemple, est mesurée la capacité du sujet à inhiber ses saccades automatiques en direction du stimulus, pour regarder volontairement de l’autre côté. En ce qui concerne cet exemple appliqué à de très jeunes enfants, ceux-ci sont incités à regarder du côté opposé grâce à une récompense. A force, ils anticipent le stimulus et apprennent à inhiber les saccades automatiques vers le stimulus, pour regarder de l’autre côté.

Lors du troisième et dernier test, un stimulus apparaît au milieu de l’écran, et un autre stimulus apparaît à gauche ou à droite du premier, soit en même temps que le premier, soit après que le premier a disparu. La capacité à regarder le deuxième stimulus quand le premier est encore affiché par rapport à la capacité à le regarder quand il a disparu permet, avec le deuxième test, de déterminer l’attention endogène.

Résultat : les enfants exposés aux tablettes ont mis plus de temps à perdre du regard les stimuli lors du premier test malgré la difficulté croissante du test, ayant des capacités d’orientation plus rapides que les autres. De même, lors des deuxième et troisième tests, ces mêmes enfants se sont orientés rapidement et de façon automatique vers les stimuli et ont donc dû davantage s’adapter pour parvenir à regarder dans la direction opposée.

Article rédigé par Georges Simmonds pour RT Flash

La Recherche

Le stress du père à l’enfance impacte le développement cérébral de l'enfant
Mardi, 23/03/2021 - 14:36

Une étude réalisée par des chercheurs de l'Université de Turku, en Suède, a permis d' identifier des changements dans le développement des faisceaux de substance blanche dans le cerveau de l'enfant lorsque son père a été exposé au stress durant son enfance.

Des études de plus en plus nombreuses font état de l’influence de ces changements dans l’expression des gènes causés par l'environnement. Si, il y a une dizaine d'années seulement, on pensait que ces caractéristiques acquises ne pouvaient être transmises à la descendance, on sait aujourd'hui que ces modifications épigénétiques peuvent avoir des effets chez la génération suivante. Il a ainsi déjà été démontré que la nutrition et le stress chez la mère peuvent induire de telles modifications avec des implications chez l'enfant.

Ces nouvelles découvertes sur le rôle de l'épigénétique dans la régulation de la fonction des gènes incitent à nouveau à poursuivre la recherche sur leur héritabilité. Plusieurs études ont ainsi montré que l’obésité chez la mère peut via ces modifications épigénétiques induire différents problèmes de santé chez l’enfant plus tard dans la vie, dont des troubles du comportement. Ces types de phénomènes transmis d'une génération à l'autre restent cependant relativement peu étudiés chez l'Homme.

Dans le cadre du programme FinnBrain, les chercheurs ont identifié 72 familles pour lesquelles les expériences de stress des 2 parents étaient documentées et dont l'enfant avait subi une IRM quelques semaines après la naissance. L'analyse qui a rapproché ces deux types de données révèle que l'exposition du père au stress est liée à un développement plus rapide des faisceaux de substance blanche dans le cerveau de l'enfant : ces faisceaux de matière blanche relient différentes parties du cerveau et jouent un rôle central dans le fonctionnement du cerveau.

Selon ces travaux, la relation entre l'exposition du père au stress et le développement des tractus de substance blanche de l'enfant subsisterait, même après prise en compte de l'impact de l'exposition précoce au stress de la mère et d'autres facteurs de confusion possibles pendant la grossesse.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Un patch pour prévenir les crises graves d'épilepsie
Mardi, 23/03/2021 - 14:34

Le principal écueil à la détection des crises d'épilepsie est leur extrême diversité. Elles sont en effet très différentes selon l'âge et le contexte de leur survenue. Mais dans ses formes graves, elle peut se manifester par l'exécution de gestes répétitifs saccadés ou par une brutale et impressionnante perte de conscience accompagnée de cris et de convulsions généralisées de l'ensemble du corps.

Ceux-ci, amples et désordonnés lors des crises, sont le reflet de l'activité interne du cerveau. Ils sont ensuite couplés à l'imagerie par résonance magnétique (IRM), ce qui permet aux médecins, dans environ la moitié des cas d'épilepsies rebelles aux médicaments, d'identifier une zone dite épileptogène, celle d'où part le signal électrique se propageant de neurone en neurone. « Si cette zone est accessible à la chirurgie, sans risque de lésion d'autres régions essentielles comme celle du langage ou de la vision, un geste chirurgical, efficace dans 60 % des cas, pourra être programmé », précise le Docteur Patrick Latour, responsable de l'unité de recherche clinique à la Teppe.

Des chercheurs suisses (universités de Genève et Berne) et américains (universités de San Francisco et Providence) sont parvenus, en utilisant des électrodes implantées en permanence dans le cerveau ainsi que des modélisations mathématiques des crises, à prévoir des "fronts de probabilités" de leur survenue plusieurs jours à l'avance, un peu comme les météorologistes prévoient les orages.

Le neurologue Patrick Latour a lancé il y a quelques mois le projet Detec Teppe fondé sur l'intelligence artificielle (IA), en association avec des ingénieurs et data-scientifiques de l'association Aura et de psychologues de l'Université de Grenoble-Alpes. « Il s'agit d'un patch connecté fondé sur la surveillance en temps réel de la fréquence cardiaque », explique le neurologue. Qui poursuit : « L'analyse de la littérature a montré que dans environ 70 % des cas, ce paramètre présente de très nombreuses variations dans les heures qui précèdent la crise. Chez certains patients, le cœur peut même s'emballer très vite et multiplier sa fréquence par deux en passant de 60 battements par minute à 120 en une dizaine de secondes ». Les scientifiques commencent aussi à s'apercevoir que les modifications de rythme cardiaque n'apparaissent pas seulement juste avant la crise mais aussi entre les crises. Depuis quelques mois, la dizaine de participants au projet inscrit dans une démarche dite d'Open Science - c'est-à-dire de partage des données entre chercheurs et médecins - espère développer un dispositif le plus précis possible à un prix abordable.

Article rédigé par Georges Simmonds pour RT Flash

Teppe.org

Des ondes cérébrales spécifiques à nos états de pensée identifiées
Mardi, 23/03/2021 - 14:32

Des chercheurs américains de l’Université de Berkeley en Californie ont réussi à identifier des ondes cérébrales correspondant spécifiquement à certains de nos états de pensée. Leurs résultats décrivent des signatures électrophysiologiques spécifiquement liées à différents états de pensée interne, permettant d’identifier si notre esprit est concentré ou s’il vagabonde.

Des zones d’ombre sur les mécanismes cérébraux impliqués dans nos flux de pensée demeurent. Pour mettre de la lumière, les chercheurs ont mené leur étude sur 39 participants à qui ils ont appris à distinguer 4 états de pensée distincts : liés à une tâche (“task-related”), errants (“freely moving”), délibérément contraints (“deliberately constrained”) et automatiquement contraints (“automatically constrained”).

La notion de contrainte utilisée ici fait référence au fait que l’attention soit concentrée sur quelque chose pendant une période prolongée. Lorsque la pensée est automatiquement contrainte, cela signifie qu’elle est dirigée vers des informations personnelles, et lorsque celle-ci est délibérément contrainte, la pensée est tournée vers un objectif.

Les volontaires ont ensuite dû effectuer une tâche, après quoi il leur a été demandé de noter sur une échelle allant de 1 à 7 à quel point leurs pensées durant la séquence correspondaient à chaque catégorie étudiée précédemment : liées à la tâche, errant librement, délibérément contraintes ou automatiquement contraintes. Ils ont indiqué dans quelle direction pointent des flèches présentées sur un écran. Pendant l’exercice, les chercheurs ont enregistré leur activité cérébrale à l’aide d’une électroencéphalographie (EEG) dont les résultats ont été comparés à ceux auto-déclarés par les participants.

Les résultats ont montré que les ondes cérébrales sont différentes en fonction des états de pensée. Lorsque les pensées des participants erraient sans but, les chercheurs ont observé une forte augmentation d’ondes alpha dans le cortex préfrontal.

Ces ondes sont caractéristiques d’un état de pensée apaisé ou créatif et ont oscillé à des fréquences comprises entre 8,5 et 12 hertz. Par ailleurs, des ondes cérébrales P300, ou P3 ont été observées à plus faibles fréquences dans le lobe pariétal, ce qui est un marqueur d’inattention. Lorsque les participants se sont révélés être plus concentrés sur leur tâche, les ondes P3 ont été observées dans le lobe frontal, à la place des ondes alpha.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Tumeurs cachées : une technique innovante pour les dépister
Lundi, 22/03/2021 - 14:58

La détection précoce des tumeurs est l’un des facteurs de réussite du traitement du cancer. Or, elles peuvent être difficiles à identifier : c’est le cas des tumeurs stromales gastro-intestinales. Ces dernières se développent sous la muqueuse qui recouvre les parois digestives. Même une biopsie ne garantit pas leur identification. Des chercheurs de l’Université des sciences de Tokyo au Japon présentent une nouvelle technique de dépistage, appelée NIR-HSI, qui combine de manière ingénieuse l'intelligence artificielle et l’imagerie infrarouge.

« Cette technique ressemble un peu aux rayons X », précise le Docteur Hiroshi Takemura, directeur de l’étude. « L’idée est d’utiliser les radiations électromagnétiques qui passent à travers le corps pour générer des visualisations des différentes structures organiques. La nouvelle méthode combine intelligence artificielle et images infrarouges ».

Pour la mettre au point, les chercheurs ont utilisé les tissus de 12 patients ayant subi une opération pour retirer leur tumeur stromale gastro-intestinale. L’analyse de ces matières organiques a permis d’entraîner l’intelligence artificielle à reconnaître les tissus tumoraux. Alors que 10 tumeurs sur 12 étaient partiellement voire entièrement recouvertes de muqueuse, l’intelligence artificielle est parvenue à les identifier avec une précision de 86 %.

« C’est un projet très excitant », ajoute le Docteur Takemura. « Être capable de diagnostiquer différents types de tumeurs stromales gastro-intestinales rapidement, précisément et avec une méthode non-invasive, sans biopsie, une technique qui nécessite elle de la chirurgie, est bien plus simple pour le patient et le médecin ». D’après le scientifique, les rayons émis ne sont pas dangereux pour les patients.

Avec son équipe, le chercheur travaille sur l’amélioration de la technique de dépistage. « Nous avons déjà construit un outil qui fixe une caméra NIR-HSI à l’extrémité d’un endoscope, et nous espérons pouvoir faire une analyse de ce type directement sur un patient bientôt, plutôt que de le faire sur des tissus retirés par chirurgie », indique le chercheur. « Cette étude est la première étape vers d’autres recherches encore plus révolutionnaires », se félicite-t-il. Elle pourrait largement faciliter le dépistage des tumeurs cachées.

Article rédigé par Georges Simmonds pour RT Flash

TUS

Maturation et persistance de la réponse lymphocytaire B mémoire anti-SARS-CoV-2
Lundi, 22/03/2021 - 14:56

La mémoire immunitaire est un mécanisme qui protège les individus contre la réinfection. Cette stratégie de défense de l’organisme, qui est à la base du succès des vaccins, comprend la production d’anticorps protecteurs dans le sang (détectés par sérologie) ainsi que la formation de cellules à mémoire, capables de se réactiver en cellules productrices d’anticorps lors d’une nouvelle infection.

Les équipes du Professeur Matthieu Mahévas du service de médecine interne de l’hôpital Henri-Mondor AP-HP, de l’unité de recherche « Transfusion et maladies du globule rouge » de l’Institut Mondor de Recherche Biomédicale (U955 UPEC-Inserm), du Professeur Jean-Claude Weill et du Docteur Claude-Agnès Reynaud de l’Institut Necker-Enfants Malades (Inserm/CNRS/Université de Paris), ont étudié le devenir des cellules B mémoires dans deux cohortes de patients présentant une forme modérée ou sévère de COVID-19 jusqu’à 6 mois après l’infection.

Cette étude, menée en collaboration avec l’équipe du Professeur Félix Rey à l’Institut Pasteur, a permis de mettre en évidence l’accumulation des cellules mémoire spécifiques de la spicule (Spike) du SARS-Cov2 au cours du temps et de montrer que les anticorps produits par ces cellules mémoires neutralisaient le virus in vitro.

La maturation de la mémoire immunitaire B contre le virus au cours du temps est un résultat très encourageant pour la vaccination et la question de la protection contre les variants, car les cellules mémoires peuvent s’adapter aux pathogènes et réinitier une réponse immune efficace et intense lors d’une nouvelle exposition.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Une aorte artificielle qui réduit la pression sanguine
Lundi, 22/03/2021 - 14:54

« L’insuffisance cardiaque touche plus de 23 millions de personnes dans le monde. Bien que la transplantation se révèle la norme pour les patients atteints de cette pathologie, il existe une demande en thérapies alternatives en raison de la pénurie de donneurs de cœur. De nouvelles conceptions de dispositifs d’assistance cardiaque pourraient éliminer ou retarder la nécessité d’une transplantation », explique Yves Perriard, professeur à l’EPFL et responsable du Centre pour muscles artificiels de la Faculté des sciences et techniques de l’ingénieur.

Partis de ce constat, une dizaine de chercheurs issus du Laboratoire d’actionneurs intégrés ont travaillé durant quatre ans à la réalisation d’une assistance cardiaque basée sur des actionneurs souples. Au naturel, l’aorte est élastique. Quand le sang est expulsé du ventricule gauche, elle se gonfle. Puis elle se resserre et expulse l’hémoglobine, qu’elle a stockée temporairement, dans le corps. Lors d’insuffisance cardiaque par exemple, le cœur doit fournir plus d’énergie pour effectuer cette tâche. Les scientifiques ont imaginé un segment d’aorte artificielle composée de membranes en silicone et d’électrodes.

Ce système se place juste après la valve aortique et accentue le rôle de l’aorte : on parle alors d’aorte « augmentée ». Lorsqu’une tension électrique est appliquée, le tube s’élargit et devient plus grand que l’aorte naturelle. « Ce dispositif a l’avantage de modifier la pression vue par le cœur », précise Yoan Civet, collaborateur scientifique du laboratoire. « L’idée n’est pas de remplacer le cœur, mais de l’aider ». 

Pour leurs expériences, les chercheurs ont construit un simulateur composé de pompes et de chambres qui reproduit les conditions physiologiques humaines de flux et de pression. « Grâce à notre dispositif, nous avons constaté une réduction de 5,5 % de l’énergie cardiaque », déclare Yoan Civet. À l’avenir, ils prévoient de poursuivre les tests de leur aorte artificielle et travaillent déjà sur un nouveau design pour augmenter les performances.

Mais le véritable défi résidait dans la confection de l’aorte artificielle. « Nous sommes partis d’une page blanche et avons dû mettre en place un nouveau procédé de fabrication pour augmenter le volume du tube en silicone. En même temps, les tensions électriques appliquées étaient divisées de moitié par rapport à une membrane seule à cause du claquage électrique du matériau.

Il a fallu comprendre et résoudre ce problème particulier lié à l’empilement de couche », souligne le chercheur, qui ajoute que l’équipe de scientifiques a déposé une demande de brevet pour cette technologie. Ils espèrent que cette structure sera utile par la suite pour résoudre d’autres problèmes médicaux, comme les troubles urologiques qui nécessitent une approche similaire.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top