|
|
|
|
|
NUMERO 975 |
|
|
|
|
|
|
|
Edition du 16 Novembre 2018
|
|
|
|
|
Edito
Que sera l’électronique de l’après silicium ?
C’est peu de dire que l’invention du transistor en 1947 puis, dans son prolongement, celle du microprocesseur en 1971 compte parmi les ruptures technologiques les plus importantes de l’histoire de l’humanité. En effet, sans transistors et sans puces électroniques, l’informatique, les télécommunications et le multimédia n’auraient jamais connu la fulgurante évolution à laquelle nous avons assisté depuis un demi-siècle et l’Internet, moteur de la rupture de société la plus importante depuis l’invention de l’imprimerie, serait encore dans les limbes.
Depuis la commercialisation du premier microprocesseur, il y a moins de 50 ans, le chemin parcouru a été vertigineux : alors que la première puce d’Intel comptait un peu plus de 2000 transistors, nous savons aujourd’hui en intégrer 10 milliards dans un microprocesseur et IBM a annoncé un nouveau procédé de gravure qui va permettre de concevoir une puce de la taille d'un ongle, pouvant contenir 30 milliards de transistors ! Cette technologie met en œuvre une finesse de gravure de seulement 5 nm grâce à des dépôts de nanoparticules de silicium et l'utilisation d'ultraviolets extrêmes (EUV). Si la technologie EUV n'est pas nouvelle, le dépôt de nanoparticules de silicium constitue une rupture face à la technologie FinFET (Fin Field-Effect Transistor) utilisée actuellement pour la gravure, mais qui aura du mal à descendre en dessous des 7 nm.
Selon IBM, les puces à 5 nm offrent un gain de performances de 40 % par rapport aux circuits 10 nm actuels, ou une économie d'énergie de 75 % pour le même niveau de performances. Il faut en effet rappeler que lorsque la densité augmente, la transmission du signal entre les transistors devient plus rapide. C’est en gagnant sur ces deux tableaux qu’il est possible de construire des ordinateurs portables, des tablettes et des smartphones toujours plus rapides et de moins en moins gourmands en énergie.
Pour arriver à ce record, IBM s'est associé à Samsung et GlobalFoundries. Il y a deux ans, les partenaires ont annoncés une finesse de gravure à 7 nm permettant de mettre 20 milliards de transistors sur une puce. Cette technologie sera utilisée dans quelques semaines dans l'usine Fab 8 de GlobalFoundries aux Etats-Unis. En revanche, les puces gravées en 5 nm ne sont pas attendues avant 2020.
Ces nouvelles puces seront également au cœur de l’intelligence artificielle et des composants qui vont favoriser l’explosion du Web 3.0, c’est-à-dire l’internet des objets. Ce nouveau réseau d’intelligence planétaire connectée relie déjà plus de 12 milliards d’objets mais, selon les dernières prévisions de l’Idate, il en reliera le triple dans 10 ans et pourrait générer 1 500 milliards de dollars d’activités dans l’économie mondiale à l’horizon 2030. IBM, comme tous les géants de l’électronique et du numérique, ne s’y est pas trompé et, comme le souligne Arvind Krishna, directeur de IBM Research, « L'avancement de la technologie des semi-conducteurs est essentiel pour que les entreprises puissent répondre aux demandes de l'informatique cognitive dans les années à venir ».
Avec cette perspective prochaine de 30 milliards de transistors sur une seule puce, IBM fait mentir certaines prévisions pessimistes et montre que les limites de la loi de Moore, établie en 1965 et prévoyant un doublement tous les 18 mois, puis tous les deux ans, du nombre de transistors implantés sur un microprocesseur, ne sont pas encore atteintes. Certes, le passage de 20 à 30 milliards de transistors ne correspond pas à une multiplication par deux, mais que de chemin parcouru depuis le premier microprocesseur d'Intel, le 4004, qui intégrait, je le rappelle, en 1971 seulement... 2300 transistors !
Il y a quelques semaines, le fondeur taiwanais TSMC annonçait pour sa part qu’il commençait la production de puces gravées en 7 nm, parmi lesquelles on trouve la future puce Apple A12. Reste que le passage sous les 22 nm a demandé l’abandon des transistors planaires, au profit de « transistors 3D » comme les FinFET. Le passage sous les 7 nm passera sans doute par l’utilisation de nouveaux transistors FinFET ou des transistors GAA, voire l’abandon du silicium. TSMC, comme IBM, prévoit une finesse de gravure de 5 nm vers 2020. C’est Apple qui devrait en bénéficier avec ses futures puces A14 qui équiperont sa prochaine génération de smartphone et permettront une puissance accrue de 45 % et une consommation réduite de 20 %.
Samsung, le géant coréen de l’électronique, est également bien décidé à rester dans cette cours effrénée à la miniaturisation extrême. Il travaille déjà sur la génération de puces en 3 nanomètres, considérée comme proche des limites de la loi de Moore. Dans ces futurs microprocesseurs, chaque transistor fera de 10 à 15 atomes de largeur et sera 30 000 fois plus fin qu'un cheveu. Pour parvenir à produire ces puces, Samsung envisage de construire une usine qui coûtera au moins 20 milliards de dollars, dix fois plus chère que les usines actuelles…
Pour réussir ce nouveau bond en avant, Samsung Electronics va abandonner la technologie de lithographie à rayons d'une longueur d'onde de 193 nanomètres, pour passer à une lithographie aux UV extrêmes à 10 nanomètres. Cette future génération de puces gravées en 3 nanomètres mettra en œuvre une nouvelle technologie de transistor à nanofeuille, baptisée GAA. Ce changement de structure de transistor s’impose pour contenir l’augmentation des courants de fuites, un phénomène physique qui apparaît lorsqu’on se rapproche du niveau atomique.
Quant à Intel, il ne prévoit pas le passage à la gravure en 10 nm avant 2019 mais affirme que ces nouvelles puces gravées en 14 nm, Whiskey Lake et Amber Lake, seront deux fois plus puissantes que celles qui équipaient un portable il y a cinq ans et permettront d’atteindre une autonomie record de 16 heures de travail. Les prochaines puces d’Intel, gravées en 10 nm, vont multiplier par 2,7 la densité en transistors par rapport aux puces actuelles gravées en 14 nm. Intel pourrait y intégrer environ 100 millions de transistors par mm², soit quelque 12 milliards de transistors par processeur de nouvelle génération, pour une puissance de calcul de plus de 10 000 milliards d'opérations par seconde !
Que de chemin parcouru depuis 1951, quand un transistor faisait encore un centimètre de large. En 1971, le premier microprocesseur d’Intel intégrait quelques milliers de transistors d’une taille de 10 microns, soit le centième d’un millimètre. On dénombre désormais 1 milliards de transistors sur un seul microprocesseur et la puissance informatique a été multipliée par cent millions de milliards.
Notons que cette course sans fin à la miniaturisation a été facilitée par le procédé FD-SOI (Fully Depleted Silicon on Insulator), mis au point par la société iséroise Soitec (issue du CEA-LETI) avec le concours de STMicroelectronics. Le FD-SOI a pour objectif de réduire, voire d’annuler les courants de fuite parasites, dont l’importance grandit à mesure que la miniaturisation des transistors progresse. Cette nouvelle technologie consiste à superposer, sur le matériau brut en silicium, une couche d’oxyde amorphe de 20 nm d’épaisseur puis une autre couche de silicium de 6 nm d’épaisseur, où sont implémentés les canaux du transistor. La couche d’oxyde agit comme un isolant et confine les électrons entre la source et le drain.
Les premiers produits bénéficiant de circuits FD-SOI sont sur le marché depuis 2016. C’est par exemple le cas de la « Smartwatch » de Sony, dont le circuit GPS réalisé à partir d’un substrat FD-SOI consomme cinq fois moins d’énergie et permet une autonomie de 35 heures. Mais en dépit des progrès incessants, la fin de la loi de Moore se profile inexorablement à l’horizon. C’est en tout cas ce que confirme le livre blanc « More Moore » publié récemment par le groupe de travail IRDS de la société savante IEEE sous la direction de Paolo Gardini, ancien directeur de la technologie chez Intel (Voir IEEE).
Selon cette étude prospective, il resterait cinq générations, pour passer de 7 nanomètres en 2019 à 2 nanomètres en 2030, un seuil considéré comme ultime avec les technologies actuelles, compte tenu des lois de la physique. L’étude souligne toutefois qu’à partir de la génération de 5 nanomètres prévue en 2021, il faudra utiliser d’autres technologies et avoir recours à de nouveaux matériaux et modes de gravure pour pouvoir continuer de respecter la loi de Moore. Concrètement, cela veut dire que les composants élémentaires ne seront pas plus petits mais que les puces auront néanmoins globalement des performances accrues.
Reste qu’à l’horizon 2030, avec des transistors qui mesureront moins de deux nanomètres (environ 15 atomes de silicium), on se rapprochera du mur infranchissable de Moore, à moins qu’une ou plusieurs révolutions technologiques permettent de dépasser cette limite fatidique, pour pouvoir poursuivre cette triple course inlassable : toujours plus petit, toujours plus puissant, toujours moins cher.
De nombreuses équipes de recherche dans le monde préparent déjà cette transition technologique. Fin 2016, des chercheurs du Laboratoire national Lawrence-Berkeley (université de Californie) ont ainsi créé un transistor avec une grille fonctionnelle mesurant à peine 1 nanomètre de long. À titre de comparaison, ils précisent qu'un cheveu humain mesure en moyenne 50 000 nanomètres d'épaisseur. La grille agit comme un interrupteur et détermine si le transistor est ouvert ou fermé. Elle contrôle ainsi le passage du courant. Mais en deçà d'une certaine taille (de l’ordre de 5 nm), ce contrôle par la grille du flux d'électrons est altéré par le fameux « effet tunnel » prévu par la physique quantique. Mais ces chercheurs américains ont réussi à surmonter cet obstacle majeur en utilisant des nanotubes de carbone pour la grille et du disulfure de molybdène (MoS2) à la place du silicium.
Au début de cette année, des chercheurs de l’Unité mixte de physique CNRS/Thales, en collaboration avec l’université de Cambridge, sont parvenus, quant à eux, en combinant la lithographie ultraviolette, l’irradiation ionique et le transfert de graphène par vaporisation chimique sur un substrat de supraconducteur à haute température, à fabriquer une jonction entre un supraconducteur à haute température et du graphène et à rendre le graphène supraconducteur par effet de proximité (Voir Nature). Ils ont également montré qu’en modifiant le dopage du graphène par application d’une différence de potentiel, on peut créer une modulation de la barrière au niveau de la jonction, permettant ainsi de contrôler son état fermé ou ouvert. Ces travaux ouvrent la voie à la fabrication industrielle de véritables transistors supraconducteurs, à commutation hyper-rapide pour le traitement de l’information.
La voie de l’ordinateur optique pourrait également, de manière complémentaire à l’électronique sur silicium et à l’informatique quantique, déboucher sur des systèmes de calcul beaucoup plus puissants que les meilleures machines actuelles. La jeune société LigthOn, basée à Paris, a ainsi fait sensation il y a peu en présentant un accélérateur optique de calcul. Ce système remplace les électrons par les photons et utilise les particularités physiques de ces particules élémentaires de lumière pour réaliser des calculs hyperrapides par multiplication de matrices. Et le résultat est pour le moins impressionnant puisqu’une récente démonstration a permis de vérifier que l’accélérateur optique de LightOn permettait de multiplier par 800 la vitesse de calcul par rapport à une puce classique dotée de 64 Go de RAM, de quoi permettre à court terme la diffusion et l’accès au supercalcul à l’ensemble de l’économie, de l’industrie et de la recherche…
En 2016, une autre équipe du Leti a pour sa part réussi à produire le premier qbit silicium construit selon les procédés de la technologie CMOS (Complementary Metal Oxyde Semiconductor), le standard de fabrication de la microélectronique classique. On conçoit sans peine les avantages d'un tel choix, qui réunit en quelque sorte le meilleur des deux mondes, informatique classique et informatique quantique, et les rend mutuellement compatibles. Comme le précise Maud Vinet, chargée de ce programme au CEA, « La technologie du silicium a atteint un tel niveau de maîtrise en nanomètres que notre technologie nous permettrait théoriquement de mettre 10 milliards de qbits sur un centimètre carré de silicium.
Cette perspective d’une puce quantique sur silicium, encore impensable il y a cinq ans, devient d’autant plus plausible que le CEA et le Leti ont récemment réussi à mettre au point des plaques de silicium dont la couche supérieure ne contient que 0,006 % de silicium 29, soit environ 800 fois moins que le silicium actuel qui présente le gros défaut, à cause de la forte présence de ce silicium 29, de perturber le spin des électrons et de détruire très rapidement les qbits nécessaires au calcul quantique.
Début juillet, le géant américain Microsoft a présenté l'avancement de ses recherches en matière d'informatique quantique et a créé la surprise en annonçant qu’il commercialiserait son premier ordinateur quantique opérationnel d’ici 2023. De manière très intéressante, l’approche technologique de Microsoft se démarque de celles de ses grands concurrents et se focalise sur la création de qbits topologiques, beaucoup moins sensibles à la décohérence, c’est-à-dire la perte de leur capacité de calcul.
Pour produire des qbits topologiques stables, Microsoft utilise des fermions (les fermions constituent la famille de particules qui forment la matière) de Majorana, une étrange particule qui est sa propre antiparticule et qui a été prévue en 1937 par le génial physicien italien Ettore Majorana, mystérieusement disparu en 1938. L'existence de cette particule a été prouvée en 2012 par l'Université de Delft aux Pays-Bas, et Microsoft serait parvenu à les contrôler pour en faire des qbits topologiques, d’une précision 1000 fois supérieure à celle des qbits conventionnels.
L’arrivée possible d’un premier ordinateur quantique stable et opérationnel américain ou européen d’ici cinq ans permettrait non seulement de pulvériser la loi de Moore mais changerait également complètement la donne en matière de supercalcul. Selon le classement du Top 500 des supercalculateurs les plus performants au monde, il y avait, fin 2017, 202 machines chinoises et 143 calculateurs américains, tandis que l’Europe ne dispose que de 84 superordinateurs, et le Japon, 35. Actuellement, c’est le Summit américain qui est devenu depuis juin dernier l'ordinateur le plus puissant du monde avec ses 122 petaflops (122 millions de milliards d'opérations par seconde) contre 93 petaflops pour le Sunway TaihuLight chinois, qui a perdu la place de leader. Dans cette compétition mondiale pour la maîtrise de l’hyperpuissance informatique, indispensable au développement de l’économie numérique, les Etats-Unis et la Chine dominent clairement tous les autres pays et ensembles politiques, y compris l’Europe.
Heureusement, la Commission européenne vient d’annoncer, il y a quelques semaines, un ambitieux projet (doté d’un budget total de 2,7 milliards d’euros), le « High Performance Computing » (EuroHPC), qui consiste à mutualiser les moyens des États membres pour construire et partager des superordinateurs hexaflopiques - c’est-à-dire capable d’effectuer plus d’un milliard de milliard d’opérations par seconde - d’ici 2023. Dans cette compétition hautement stratégique, la France se tient en bonne place : elle occupe depuis juin dernier, au Top 15 des superordinateurs, la 14eme place mondiale et la première place européenne, grâce à son Tera1000, une machine de 25 petaflops de puissance.
Si personne ne peut dire aujourd’hui ce que seront l’électronique et l’informatique dans dix ans, ce qui est certain c’est que la combinaison des différents pistes technologiques que j’ai évoquées – puce supraconductrice, puce optique, puce quantique – devrait permettre de franchir à l’horizon 2030 cette fameuse loi de Moore pour entrer dans l’ère de l’hypercalcul partagé. Fonctionnant en réseau et démultipliant leurs ressources et leur puissance, ces futurs systèmes informatiques auront des vitesses de calcul absolument vertigineuses qui seront de 1000 à un million de fois supérieures à celles des plus grosses machines actuelles !
Il en résultera un saut non pas quantitatif mais qualitatif vers une économie de la conception et de la production en temps réel, entièrement personnalisée, de biens et de services, non seulement en matière de consommation, d’habitat et de transport mais également dans le domaine de la santé, où il deviendra possible de concevoir et de produire en quelques heures une molécule sur mesure exactement adaptée à la pathologie d’une personne donnée, ou encore dans le secteur des loisirs, où l’on pourra proposer à chacun des espaces virtuels de distraction d’une richesse infinie, intégrant tous ses éléments affectifs et ses préférences culturelles et esthétiques... Mais la grande question qui agite et divise la communauté scientifique est de savoir si l’arrivée annoncée de cette puissance de calcul presque inimaginable d’ici 10 ou 15 ans peut permettre l’émergence d’une forme d’intelligence artificielle autonome, consciente d’elle-même et agissant selon ses propres finalités…
Face à ces mutations de société qui sont pour demain, il est plus que jamais urgent que nous réfléchissions ensemble sur le cadre et les finalités politiques sociales, culturelles et éthiques que nous voulons donner à ce nouveau et prodigieux chapitre de l’histoire humaine.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
A l'occasion du Web Summit, qui s'est tenu à Lisbonne du 5 au 8 novembre 2018,Tim Berners-Lee, fondateur de la World Wide Web Foundation, a lancé la campagne #ForTheWeb qui vise à un "Internet éthique au service de l’Humain". La France est l’un des premiers pays signataires. Le père du Web, inlassable défenseur du Net des droits des internautes veut œuvrer à un mouvement mondial en faveur d'un "Internet éthique au service de l’Humain".
"Le Web est à un point crucial. Nous avons besoin d'un nouveau contrat pour le Web, avec des responsabilités claires et robustes pour ceux qui ont le pouvoir de l'améliorer", a déclaré Tim Berners-Lee. Avant d’ajouter : "Certaines choses comme la neutralité de l'internet doivent impliquer les gouvernements, d'autres clairement les entreprises : grandes entreprises, petites entreprises et start-up". Objectif : rendre Internet "sûr et accessible" à tous.
Parmi les grands principes on retient l’accès au Web pour tous, la neutralité du Net et le droit fondamental au respect de la vie privée. Au-delà de la simple sensibilisation, cette campagne sera matérialisée par un contrat d’ici à mai 2019, date symbolique, à laquelle "50 % de la population mondiale sera connectée", a indiqué Tim Berners-Lee.
La première version de ce pacte a déjà été signée par une cinquantaine d’entreprises, dont Google et Facebook, et plusieurs gouvernements, dont la France.
Article rédigé par Georges Simmonds pour RT Flash
World Wide Web Foundation
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
L’AIST (Advanced Industrial Science and Technology) a mis au point un robot humanoïde capable de réaliser des tâches de construction simples, comme l’installation de cloisons sèches. Il s’appelle HRP-5P il sait presque tout faire. Il semblerait que ce robot travaille à peu près aussi vite qu’un jeune de 12-14 ans. Assez lent, mais le travail est accompli à chaque fois.
HRP-5P est un robot imaginé pour répondre au vieillissement de la population et à la pénurie de main-d’œuvre au Japon. Concrètement, l’AIST vise à remplacer la main-d’œuvre vieillissante et coûteuse sur les sites de montage de grandes structures telles que les immeubles, les maisons, les avions ou les navires.
Cette nouvelle vient confirmer plusieurs études menées depuis des années sur une probable automatisation des tâches dans un avenir proche. Selon une étude qui quantifie la probabilité de l’automatisation des tâches, nous avions 79 % de chance d’être remplacés par des robots pour un travail extrêmement spécifique. Cette étude menée en 2013 à l’Université d’Oxford visait juste.
Pourtant, l’industrie de la construction se méfie de l’externalisation de la main-d'œuvre aux robots. Dans l’esprit des humains, il s’agit forcément d’un emploi perdu. Abandonné aux mains des robots. Si les emplois les plus « basiques » sont exercés par des humanoïdes, cela offre plus de possibilités aux humains de se focaliser sur des métiers à plus forte valeur ajoutée. D’ailleurs, dans le monde entier, il existe déjà beaucoup de robots (non humanoïdes) capables de réaliser des tâches telles que la maçonnerie ou la menuiserie.
Article rédigé par Georges Simmonds pour RT Flash
Siècle Digital
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le principal inconvénient de la technologie de la pile à combustible (PAC), qui permet de faire rouler les voitures en utilisant l'hydrogène comme carburant, est son coût de fabrication. Pour convertir l’hydrogène en électricité, un catalyseur au Platine est nécessaire – et le coût de ce métal précieux est très élevé.
Pour surmonter cet obstacle, le groupe Volkswagen, en collaboration avec l’Université de Stanford, a développé une nouvelle technologie qui permet de limiter son gaspillage et donc améliorer la rentabilité du moteur à hydrogène. Dans les systèmes actuels, le platine est distribué sous forme de particules sur de la poudre de carbone. Lors du processus de conversion, seule la surface externe du platine est utilisée, de grandes quantités de platine sont donc perdues. Plutôt que d’utiliser une poudre, les équipes de Volkswagen et de Stanford ont réussi à placer de manière précise les atomes de platine sur la surface du carbone.
Résultat, la quantité nécessaire est bien moins importante et la combustion plus efficace. Le rendement du catalyseur serait multiplié par trois. Professeur Prinz de l'Université de Stanford : "Cette technologie ouvre d'énormes possibilités de réduction des coûts, car la quantité de métaux précieux utilisée est réduite au minimum. En même temps, la durée de vie et les performances du catalyseur sont augmentées. En plus de la pile à combustible, le dépôt de couches atomiques offre également toute une gamme d'autres applications nécessitant des matériaux de haute performance, comme les batteries lithium-ion de nouvelle génération".
Actuellement, trois constructeurs proposent des voitures à hydrogène, Honda, Toyota et Hyundai et moins de 10.000 véhicules de ce type ont trouvé preneur en 2017. En France, moins de 30 stations hydrogènes sont disponibles.
Article rédigé par Georges Simmonds pour RT Flash
Volkswagen
|
|
|
|
|
|
|
|
Renault vient d'annoncer, en partenariat avec la Banque des Territoires, le groupe japonais Mitsui, The Mobility House et Demeter, le lancement d’Advanced Battery Storage, une solution de stockage stationnaire d’énergie basée exclusivement sur des batteries de véhicules électriques. Ce dispositif est conçu à partir d’un assemblage de batteries de voitures électriques de seconde vie et d’un complément de batteries neuves, le tout compilé dans des containers. Il permettra à terme de stocker au moins 60 MWh.
Le moindre écart entre consommation et production d’électricité est susceptible de déclencher des perturbations pouvant déstabiliser la fréquence de l’électricité domestique (50 Hz), explique Renault dans un communiqué. L’objectif d’Advanced Battery Storage sera de gérer ces écarts à un instant t, afin d’augmenter la part des sources renouvelables dans le mix énergétique.
"Cet assemblage unique donnera au système Advanced Battery Storage la possibilité de libérer ou d’absorber, quasiment instantanément, une puissance de 70MW. La forte puissance et la capacité importante de notre solution nous permettront de répondre efficacement à la majorité des sollicitations du réseau" estime Nicolas Schottey, directeur de programme Nouveaux Business Energie du groupe Renault.
La recharge intelligente s’effectue quand l’offre d’électricité est plus abondante que les besoins et s’interrompt quand la demande d’électricité est supérieure à l’offre au sein du réseau. Avec la recharge réversible, les véhicules peuvent injecter de l’électricité dans le réseau lors des pics de consommation et servir d’unités de stockage temporaire d’énergie.
Même après sa "vie automobile", une batterie de véhicule pourra ainsi être réutilisée dans le stockage d’énergie stationnaire, pour répondre aux besoins en énergie de maisons, bureaux, immeubles, et points de charge de véhicules électriques.
Les premières installations de Renault seront réalisées début 2019 dans ses usines de Douai (Nord) et Cléon (Seine Maritime) et dans une ancienne usine à charbon en Rhénanie-du-Nord-Westphalie. La capacité de stockage sera étendue jusqu’à compter 2 000 batteries de voitures électriques, espère le groupe automobile. Le dispositif aura alors atteint le seuil des 60 MWh, équivalent à la consommation journalière d'une ville de 5 000 foyers.
Article rédigé par Georges Simmonds pour RT Flash
Renault
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Comment fait un arbre pour parvenir à se maintenir vertical ? Comme les humains, les végétaux ont besoin d’un « squelette », assuré par la rigidité de la tige ou du tronc, et d’un système moteur qui contrôle leur posture en développant des forces pour lutter contre la gravité. Les biomécaniciens ont longtemps pensé que cette fonction motrice résultait des seules forces internes agissant dans le bois. Mais l’équipe de Bruno Clair, du laboratoire écologie des forêts de Guyane, à Kourou, et du laboratoire de mécanique et génie civil de Montpellier, vient de montrer que cette fonction est aussi assurée par une autre structure : l’écorce.
Pour comprendre le rôle de l’écorce, il faut d’abord s’intéresser au rôle du bois. Lorsqu’un arbre pousse, du bois se forme petit à petit, par couches successives, tout autour du tronc. Si une branche plus lourde pousse d’un côté, par exemple, l’arbre est déséquilibré. Il doit alors compenser ce poids en grandissant, faute de quoi il finira par tomber. « L’arbre continue de fabriquer du nouveau bois tout autour du tronc, sous l’écorce, mais en modulant son épaisseur et sa tension : du côté opposé au déséquilibre, l’épaisseur du bois formé sera plus importante et surtout il sera plus en tension », explique Bruno Clair. C’est un peu comme pour un poteau tenu par des câbles : s’il penche d’un côté, il suffit de tirer le câble à l’opposé pour le remettre droit. De même, dans l’arbre, le bois plus tendu tire sur le tronc pour le redresser.
Mais le bois n’agit pas seul. Bruno Clair et ses collègues ont cultivé des arbres tropicaux attachés à un tuteur incliné à 45 degrés. Après quelques mois de croissance, la suppression du tuteur entraînait immédiatement le redressement de la tige. Cependant, chez certaines espèces, ce redressement n’avait pas lieu si on enlevait l’écorce ! Celle-ci jouait donc un rôle crucial dans le contrôle de la posture.
Les chercheurs ont montré que c’est la structure de l’écorce qui lui confère ce rôle. Dans l’écorce, les fibres sont organisées en treillis, c’est-à-dire sous forme d’un réseau à mailles en losange. Lorsque l’arbre est déséquilibré, une plus grande quantité de bois se crée du côté opposé au déséquilibre. À cet endroit, la circonférence de l’écorce va donc augmenter, si bien que les treillis sont étirés latéralement. Par leur structure en losange, ils vont en retour engendrer des forces de traction verticales, le long du tronc. Ces forces sont plus importantes du côté opposé au déséquilibre, puisque plus de bois y est créé et l’écorce est plus étirée. Cette asymétrie va entraîner le redressement de l’arbre.
Dans leur expérience, les chercheurs ont constaté que l’écorce était plus développée sur la face supérieure des arbres et que les faisceaux du treillis de fibres (ou flammes) y étaient très écartés par des cellules de parenchyme (des cellules de remplissage) dilatées. Cette configuration entraîne bien un étirement vertical.
Coupe anatomique d’un jeune arbre de Cupuaçu (Theobroma grandiflorum) ayant poussé sur un tuteur incliné. Au centre, les tissus fragiles de la moelle. Autour, le bois, plus développé sur la face supérieure avec un tissu très riche en parenchyme et presque dépourvu de fibres. Enfin, à l’extérieur, l’écorce, plus développée sur la face supérieure avec les faisceaux du treillis de fibres organisés en flammes (en rouge), écartée par des cellules de parenchyme dilatées (en bleu).
Ce sont donc non seulement le bois mais aussi l’écorce qui contribuent à maintenir les arbres droits. Reste à savoir dans quelle proportion : « Il y a une grande diversité de mécanismes selon les espèces. Chez certaines, le bois contribue très peu, chez d’autres le bois et l’écorce contribuent à part égale. Il serait aussi intéressant de savoir si l’arbre crée en premier des cellules d’écorce ou de bois lorsqu’il a besoin de se redresser », explique Bruno Clair.
Comprendre précisément cette capacité des arbres à pousser droit pourrait s’avérer intéressant pour s’en inspirer : « Les arbres sont des machines très peu énergivores et capables, en optimisant l’organisation de leurs tissus, de redresser des troncs dont le diamètre atteint parfois plusieurs dizaines de centimètres. C’est une source d’inspiration potentielle pour la science des matériaux », conclut le chercheur.
Article rédigé par Georges Simmonds pour RT Flash
Pour La Science
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
On le sait, les maladies cardiovasculaires sont la première cause de décès dans le monde avec environ 17,7 millions d’individus qui en meurent chaque année selon l’OMS. Et parmi eux, 40 % de décès dus à des maladies cardiaques coronariennes. Les directives européennes recommandent aux professionnels de santé de se pencher sur des facteurs de risques cardiaques, tels que le niveau de cholestérol, la pression sanguine, le fait d’être diabétique ou fumeur pour déterminer le risque cardiaque.
Les médecins disposent à présent d’un test sanguin qui mesure un biomarqueur du cœur afin que les personnes concernées puissent prendre les mesures médicales et comportementales nécessaires pour prévenir une maladie cardiaque.
Le laboratoire pharmaceutique Abbott vient en effet de recevoir le marquage CE (Communauté européenne) pour le premier test troponine permettant de prédire potentiellement, plusieurs années à l’avance, le risque d’atteinte cardiaque chez des adultes apparemment en bonne santé.
De fait, de nombreuses études montrent que, lorsqu’elle est intégrée au parcours de soins, la mesure des concentrations de troponine grâce au test troponine-I de haute sensibilité d’Abbott fournit de meilleures informations prédictives pour déterminer les risques qu’une personne a de développer une maladie cardiovasculaire dans le futur.
Selon Nick Mills, cardiologue et chercheur au centre pour les sciences cardiovasculaires de la fondation du cœur britannique à l’Université d’Edimbourg : « les niveaux de troponine-I sont un indicateur de risque accru de maladie cardiaque coronarienne, indépendamment de la baisse des niveaux de cholestérol ». Et d’ajouter : « notre mission est d’empêcher la survenue de maladies et non pas de simplement les traiter ou gérer leurs conséquences. L’ajout d’un biomarqueur généré par une atteinte au cœur à notre évaluation du risque encouru par un patient nous aidera à identifier plus tôt ceux qui sont malades pour que l’on intervienne et prévienne de futures crises cardiaques. L’accès au dosage de haute sensibilité troponine-I, dans ce but, est une opportunité pour l’Europe d’être le chef de file dans la détection et la prévention des maladies cardiaques ».
Pour faire simple, rappelons que les protéines troponine-I sont produites par le cœur et peuvent être trouvées en quantité élevée dans le sang lorsque le muscle cardiaque a été endommagé par un déficit en circulation sanguine. Or le dosage de haute sensibilité troponine-I peut déceler des niveaux très bas de troponine, c’est pourquoi il peut être utilisé pour déterminer le risque cardiovasculaire chez des individus ne présentant aucun symptôme de maladie cardiaque.
Intégrer ce test à un bilan sanguin de routine devrait offrir aux médecins une vision sur ce qui se passe dans le cœur et leur permettre de mieux déceler les risques encourus par leurs patients d’avoir un infarctus ou autre atteinte cardiaque dans le futur.
Article rédigé par Georges Simmonds pour RT Flash
Abott
|
|
|
|
|
|
|
|
Le cancer de l’estomac est l’un des cancers les plus répandus au Japon. Avec un taux de survie à 5 ans supérieur à la plupart des autres pays, 60,3 % au Japon contre seulement 26,7 % en France, le nombre annuel de décès demeure élevé. 45 531 personnes sont décédées des suites de ce cancer au Japon en 2016 selon le NCC.
Le dépistage à un stade superficiel de ce cancer est une étape très importante pour empêcher l’évolution de la maladie et la garantie de survie des patients. Ce cancer, dont les symptômes se font ressentir à un stade souvent avancé, peut en effet facilement être confondu au début de son évolution avec un syndrome inflammatoire, même par des spécialistes.
Le RIKEN et le NCC viennent de tester une méthode de détection basée sur l’intelligence artificielle. Leurs résultats révèlent que cette technologie s’avère aussi précise que l’analyse par des spécialistes confirmés. Parmi 200 images de tissus obtenues par caméra endoscopique, l’IA permet d’identifier avec 80 % de succès les images présentant les caractéristiques de cellules de cancer gastrique à un stade précoce et avec 95 % de succès celles correspondant à un tissu sain.
Le Japon est reconnu pour son système de détection précoce des cancers gastriques notamment grâce à la mise en place dès 1963 d’un dépistage organisé et à un dépistage opportuniste fréquent. L’IA, sans remplacer l’expertise des médecins spécialistes, semble être une opportunité intéressante pour maximiser la précision des diagnostics précoces alors même que le cancer est encore à un stade superficiel.
Article rédigé par Georges Simmonds pour RT Flash
The Japan Times
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l’Université de Genève (UNIGE) s’est intéressée à une molécule naturelle bien connue, le resvératrol, notamment présente dans le raisin et que l’on retrouve dans le vin rouge.
Si ses propriétés chimiopréventives contre les cancers affectant le tube digestif ont été documentées dans des études précédentes, le resvératrol restait jusqu’ici sans effet sur les cancers du poumon. Grâce à un nouveau mode d’administration par voie nasale, l’équipe de l’UNIGE a obtenu des résultats très prometteurs dans une étude menée chez la souris, décrite dans la revue Scientific Reports.
« Dans un modèle murin, nous avons cherché à prévenir le cancer du poumon induit par un carcinogène de fumée de cigarette en recourant à une molécule déjà très bien documentée, le resvératrol », explique Muriel Cuendet, professeure associée à la section des sciences pharmaceutiques de la Faculté des sciences de l’UNIGE. Pour cette étude menée sur 26 semaines, quatre groupes de souris ont été constitués.
Le premier, le groupe témoin, n’a reçu ni carcinogène, ni traitement à base de resvératrol. Le second a reçu uniquement le carcinogène, le troisième aussi bien le carcinogène que le traitement, et le quatrième a reçu uniquement le traitement.
« Chez les souris traitées, nous avons observé une baisse de la charge tumorale de l’ordre de 45 % par souris. Elles ont développé moins de tumeurs et de plus petite taille que les souris sans traitement », détaille Muriel Cuendet. Lorsque l’on compare les deux groupes n’ayant pas été exposés au carcinogène, on constate que 63 % des souris ayant reçu un traitement n’ont pas développé de cancer, contre seulement 12,5 % des souris non traitées. « Le resvératrol jouerait donc un rôle préventif contre le cancer du poumon », poursuit la chercheuse.
Le resvératrol est pourtant une molécule a priori peu adaptée à la prévention du cancer du poumon : lorsqu’elle est ingérée, elle est métabolisée et éliminée en quelques minutes, et n’a donc pas le temps d’atteindre les poumons. « C’est pourquoi notre défi a été de trouver une formulation permettant de solubiliser le resvératrol en grande quantité, alors que ce dernier n’est que peu soluble dans l’eau, pour permettre une administration par voie nasale.
Cette formulation, applicable chez l’homme, permet au composé de parvenir jusqu’aux poumons », explique Aymeric Monteillier, chercheur à la section des sciences pharmaceutiques de la Faculté des sciences de l’UNIGE et premier auteur de l’étude. La concentration de resvératrol dans les poumons obtenue avec cette formulation administrée par voie nasale est en effet 22 fois supérieure à celle que permet une administration orale.
Le mécanisme de chimioprévention à l’œuvre est probablement lié à l’apoptose, le processus par lequel les cellules programment leur propre destruction et auquel échappent les cellules cancéreuses. L’équipe de recherche de l’UNIGE va maintenant s’attacher à chercher un biomarqueur qui pourrait contribuer à la sélection des personnes éligibles à un traitement de prévention par le resvératrol.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
Selon une étude réalisée par des chercheurs de l'Université de Colombie britannique (Canada), dirigée par Andrea L Roberts, les violences subies pendant l’enfance laisseraient des stigmates sur l’ADN et pourraient même se transmettre sur plusieurs générations. "Nous avons examiné l'association entre la violence subie pendant l'enfance et la méthylation de l'ADN dans le sperme humain", racontent les chercheurs. La méthylation est une modification chimique qui peut se positionner à des millions d’endroits sur la séquence de l’ADN.
Leur expérience a prouvé que les facteurs de stress environnementaux paternels peuvent affecter la méthylation de l'ADN du sperme et l'expression des gènes chez la progéniture. "Les mauvais traitements infligés aux enfants ont été associés à des marques épigénétiques dans le sang, la salive et les tissus cérébraux humains, et les différences de méthylation statistiquement significatives varient considérablement", affirment les scientifiques.
Pour parvenir à ces conclusions, l’équipe a analysé des échantillons de spermatozoïdes de 34 hommes. 22 d’entre eux avaient été victimes d’abus pendant leur enfance. 12 régions d'ADN méthylées de façon différentielle par les abus subis pendant l'enfance ont été identifiées. Elles étaient responsables de la fonction neuronale (MAPT, CLU), de la régulation des cellules graisseuses (PRDM16), et de la fonction immunitaire (SDK1).
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des recherches américaines menées par une équipe du Salk Institute (La Jolla) ont montré qu'une restriction de la plage alimentaire dans la journée permet de lutter contre le surpoids et les troubles métaboliques associés. Un type de jeûne intermittent mais calé sur le cycle circadien confirme en effet que manger dans une fenêtre réduite à 10 heures dans la journée peut protéger contre l'obésité et le diabète.
Ainsi, en limitant leur accès quotidien à la nourriture, des souris privées de leur horloge biologique, un mécanisme indispensable au bon équilibre métabolique, restent protégées contre l'obésité et les troubles métaboliques associés. Des données qui suggèrent que les problèmes de santé associés aux perturbations des rythmes circadiens peuvent être corrigés en respectant une plage horaire réduite et régulière de 10 heures, pour l’alimentation.
Alors que pour beaucoup d'entre nous, soulignent les auteurs dans leur communiqué, la journée commence par une tasse de café le matin et se termine par une collation avant le coucher 14 ou 15 heures plus tard, limiter sa consommation de nourriture sur 10 heures de la journée et jeûner ensuite durant 14 heures peut contribuer à une meilleure santé et cela indépendamment de notre horloge biologique.
Une meilleure synchronisation de l’alimentation avec les horloges cellulaires concernées : le rythme circadien régule les cycles cellulaires associés à l’activité de différents gènes. Par exemple, chez les humains, les gènes « de la digestion » sont plus actifs plus tôt dans la journée alors que les gènes de réparation cellulaire sont plus actifs durant la nuit. Des souris ayant accès 24 heures sur 24 à un régime riche en graisses deviennent obèses et développent une série de maladies métaboliques mais si ces mêmes souris ont un accès restreint au même régime riche en graisses durant 8 à 10 heures de la journée, elles redeviennent minces, saines et en bonne santé. Cet avantage s’explique par une meilleure synchronisation de l’alimentation avec les horloges cellulaires concernées.
L’étude suggère qu'en contrôlant les cycles d'alimentation et de jeûne, nous pouvons remplacer l'absence d'horloge interne par une « sorte » d’horloge externe. Ainsi, de simples mesures de mode de vie, comme s’alimenter durant une plage limitée de la journée, pourrait rétablir l’équilibre, éviter le développement de troubles métaboliques et permettre de maintenir une bonne santé. Beaucoup d’entre nous peuvent avoir un ou plusieurs gènes défectueux responsables de maladies qui nous rendent impuissants et destinés à être malades. « Un mode de vie sain pourrait aussi combattre les effets négatifs de gènes de prédisposition ».
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
Des chercheurs de l’Inserm, en collaboration avec leurs collègues des universités de la Sorbonne et de Bordeaux, ont étudié l’influence du mode de garde pendant les trois premières années de vie sur le développement comportemental et émotionnel des enfants. Pour ce faire, ils se sont basés sur 1428 enfants de la cohorte EDEN (Etude sur les Déterminants pré- et post-natals précoces du développement psychomoteur et de la santé de l’Enfant), qui a suivi des mères pendant leur grossesse et leurs enfants jusqu’à 8 ans.
Dans cette étude, les mères ont rapporté le mode de garde principal utilisé pour leur enfant à 4 mois, 8 mois, 1 an, 2 ans et 3 ans : mode de garde informel (principalement les parents et parfois les grands-parents, voisins...), assistante maternelle ou mode de garde collectif (garderie, crèche).
Puis à 3 ans, 5 ans et demi, et 8 ans, elles ont rempli un questionnaire destiné à mesurer les symptômes comportementaux et émotionnels à travers 5 échelles (symptômes émotionnels, problèmes relationnels, hyperactivité-inattention, problèmes de comportement, et comportement prosocial).
Les résultats sont clairs : les enfants qui ont fréquenté un mode de garde collectif sont moins susceptibles d'éprouver des problèmes émotionnels ou de rencontrer des difficultés relationnelles entre 3 et 8 ans. Ils ont aussi un comportement plus prosocial, c’est-à-dire plus empathique, dû au fait qu'ils ont appris très tôt à être gentils avec les enfants plus jeunes et à partager. L'étude montre donc que l'accès à un mode de garde collectif entre 0 et 3 ans représente une opportunité pour les enfants qui en bénéficient puisqu'il est associé à un meilleur développement psychologique et émotionnel par la suite.
Article rédigé par Georges Simmonds pour RT Flash
BMJ
|
|
|
|
|
|
|
|
Une équipe de recherche de l’Université de Genève a mis au point deux nouveaux types de traitements qui permettent à des substances actives d’agir localement au cœur des articulations et ainsi de ralentir l’évolution de l'arthrose.
L’arthrose se caractérise par une dégénérescence du cartilage situé à la jointure entre les os. Cette couche de cellules moins dure et plus élastique que l’os permet des mouvements sans friction. Dans l’arthrose, le cartilage qui recouvre l’extrémité des os s’abîme, s’effrite et devient de plus en plus fin. En outre, une inflammation des articulations rend les mouvements de plus en plus douloureux.
Les causes de la maladie sont multiples. L’arthrose peut se déclencher à la suite de chocs, de mouvements répétitifs, ou tout simplement avec l’âge. De plus en plus de personnes jeunes souffrent de cette pathologie, en raison notamment de l’augmentation des cas d’obésité (les articulations devant supporter un poids plus important, le cartilage s’use plus rapidement).
Aujourd’hui, seuls des traitements permettant de ralentir la progression de la maladie et de soulager les douleurs existent. On prescrit par exemple des antiinflammatoires. Un gel d’acide hyaluronique peut aussi être injecté localement pour « lubrifier » l’articulation. Cependant, il est rapidement dégradé par l’organisme. En quelques jours, il perd son efficacité, ce qui oblige à des injections fréquentes et donc un traitement lourd pour le patient.
Pour améliorer l’efficacité des injections de gel d’acide hyaluronique, Eric Allémann, Olivier Jordan et Pierre Maudens ont modifié les chaînes de polymères du gel d’acide hyaluronique pour qu’il s’assemble sous la forme de nanoparticules à la température corporelle. Avec cette structuration, les enzymes de l’organisme dégradent beaucoup moins vite les molécules et les nanoparticules agissent comme des roulements à billes dans les articulations. Testées chez la souris, ces nanoparticules subsistent plusieurs mois avant d’être éliminées par l’organisme.
En parallèle, l’équipe genevoise a étudié une autre piste thérapeutique reposant sur la kartogénine. Cette molécule avait prouvé son efficacité dans la lutte contre l’arthrose lors d’essais précliniques en 2012. Les chercheurs ont testé un traitement local par injection de kartogénine. Délivrer ce principe actif directement dans l’articulation permet de réduire drastiquement la quantité nécessaire et ainsi de minimiser les effets secondaires.
Pour obtenir un effet prolongé, les chercheurs ont encapsulé le composé sous forme de nanocristaux dans des particules de 10 micromètres de diamètre. Ces microparticules composées de polymères biodégradables restent dans l’articulation plusieurs mois et libèrent progressivement le principe actif. Les scientifiques ont constaté qu’avec ce traitement, le cartilage du genou chez des souris arrêtait non seulement de se dégrader, mais il avait aussi gagné en épaisseur chez certains individus. À terme, il est possible d’imaginer un traitement combinant ces deux approches avec des nanoparticules d’acide hyaluronique servant de lubrifiant et protégeant le cartilage le temps que la kartogénine agisse et répare le cartilage.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
La vaccination contre la grippe saisonnière est recommandée chaque année aux personnes à risque. Mais depuis de nombreuses années, un débat scientifique persistait, en raison des résultats contradictoires de plusieurs études, sur le fait que l’efficacité vaccinale pourrait être atténuée par les vaccinations antigrippales antérieures, particulièrement pour les grippe A(H3N2) et B, mais aussi pour la A(H1N1)pdm09.
Pour trancher cette question importante, une équipe suédoise s’est à nouveau penchée sur le sujet et a réalisé une étude de cohorte incluant, au cours de 6 saisons grippales consécutives (2011/12 à 2016/17), plus de 1 million de personnes âgées de plus de 65 ans. Selon l’année, entre 69 % et 83 % de ces personnes ont été vaccinées pour la grippe saisonnière et, si l’on considère les saisons 2015/16 et 2016/17, près des 2/3 des personnes avaient été vaccinées 4 à 5 fois au cours des saisons précédentes, 1/3 avaient été vaccinées 1 à 3 fois et 5 % n’avaient jamais été vaccinées.
Durant les 6 saisons grippales, 3 623 personnes ont été hospitalisées pour une grippe sévère, le plus grand nombre de cas concernant les saisons où la souche prédominante était la A(H3N2), c’est-à-dire les saisons 2014/15 et 2016/17.
Résultats : pour aucune de ces épidémies, l’efficacité vaccinale n’est significativement différente chez les personnes vaccinées au cours de la saison en cours seulement, en comparaison avec les sujets qui avaient été vaccinés aussi la saison précédente, ni avec ceux qui avaient déjà reçu 1 à 3 ou 4 à 5 vaccinations antérieures. Cette vaste étude montre que les personnes de ce groupe d’âge peuvent être vaccinées chaque année, sans risque de voir se réduire l’efficacité du vaccin.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Une équipe de recherche du Massachusetts Institute of Technology (MIT), a développé un modèle, basé sur le principe de l'apprentissage automatique qui constitue une première étape vers le développement d’une application capable de détecter les mots et les intonations susceptibles d'indiquer une dépression, quel que soit le sujet de conversation.
En analysant de multiples variables caractérisant le discours du patient, telles que l'Intonation, l'accent tonique, le choix des mots, ce modèle sophistiqué, qui utilise un réseau neuronal artificiel, peut évaluer l’équilibre émotionnel et l’humeur de son interlocuteur.
Habituellement, pour diagnostiquer la dépression, les cliniciens interrogent les patients, leur posent des questions spécifiques, par exemple sur leurs antécédents de maladies mentales, leur mode de vie et leur humeur, et identifient la condition en fonction des réponses du patient. Le type de question posée conditionne en quelque sorte la réponse du patient.
En pratique, quel que soit le sujet abordé, l’application peut prédire avec précision si la personne est déprimée, sans avoir besoin d’autres informations sur ses antécédents ou son mode de vie. Les chercheurs espèrent que cette méthode pourra être utilisée pour développer des outils permettant de détecter les signes de dépression dans une conversation quelle qu’elle soit.
C’est la base d’une future application mobile qui, en analysant le texte et la voix d’un utilisateur, sera capable de détecter sa détresse mentale et, éventuellement, d’envoyer des alertes. Une application particulièrement précieuse pour les patients qui ne peuvent pas facilement consulter en raison de la distance, d’un handicap, ou simplement de l’ignorance de leur dépression.
Les premiers indices se trouvent dans le discours : Les premiers signes de bonheur, d’excitation ou a contrario de tristesse, de troubles cognitifs ou de dépression se trouvent dans le discours, souligne l’auteur principal, Tuka Alhanai, chercheur au Laboratoire d’informatique et d’intelligence artificielle.
L’idée était ici de développer un modèle de détection de la dépression capable de s’adapter à différentes contraintes et types de données, à partir d’interactions naturelles et différents états de l’individu. Et, bien entendu, la technologie pourra également être utilisée dans les cabinets médicaux par les médecins en soins primaires qui pourront ainsi élargir leur diagnostic de dépression.
Un modèle évolutif via l'apprentissage automatique : toute l’intelligence du modèle est qu’il se nourrit des tendances indiquant une dépression, puis les applique à de nouvelles personnes, sans aucune information supplémentaire. Le modèle est décrit « hors contexte » par ses auteurs car sans contrainte dans les types de données recherchées. La technique, appelée modélisation de séquence, a permis d’alimenter le modèle de séquences de texte et de données audio provenant de questions et réponses de patients déprimés et non déprimés.
Au fur et à mesure que les séquences se sont accumulées, le modèle a pu extraire et enrichir les indices associés ou non à la dépression, dont des mots, la vitesse d’élocution, des intonations etc… Cette technique de séquençage permet également d’examiner la conversation dans son ensemble et d’identifier des différences de discours global sur le temps.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Chaque année, la maladie d'Alzheimer touche 225 000 nouveaux patients et plus de 3 millions de Français sont affectés directement ou indirectement par cette pathologie neurodégénérative à ce jour incurable. Si de nombreuses recherches sont en cours, un dépistage précoce reste à ce jour le seul moyen de ralentir la progression de la maladie.
À Montpellier, la start-up REGEnLIFE a mis au point un casque qui offrirait une protection neuronale aux patients et ralentirait leur dégénérescence. Déjà testé sur des souris, ce casque utilise la technique de la photobiomodulation, en utilisant les stimulations photoniques, électriques ou magnétiques, à des endroits stratégiques du fonctionnement de la mémoire, du langage ou de l’orientation, pour agir sur les cellules du patient.
Cette technologie consiste en des séances de plusieurs minutes par jour avec un système d’émetteurs sous la forme d’un casque cérébral pour une application transcrânienne et sous une autre forme pour une application transcutanée ciblant d’autres parties du corps. Ces émissions spécifiques, situées notamment dans l’infrarouge proche, sont athermiques, non-invasives et visent à agir au cœur des cellules afin de permettre une protection neuronale et éviter une dégénérescence.
Ce nouvel outil qui laisse entrevoir un espoir dans le traitement de la maladie d'Alzheimer a séduit le CHU : 64 patients, âgés de 55 à 85 ans, et atteints de la maladie à un stade léger à modéré, vont être munis de ce casque 5 jours par semaine pendant deux mois. Les résultats de cette étude seront connus dans un an et demi.
Article rédigé par Georges Simmonds pour RT Flash
Santé Mentale
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|