|
|
|
|
|
NUMERO 956 |
|
|
|
|
|
|
|
Edition du 12 Juillet 2018
|
|
|
|
|
Edito
Quels seront les nouveaux besoins en compétences d'ici à 2030 ?
Il y a trois ans, en juin 2015, on se souvient que le cabinet de conseil Roland Berger avait publié une étude largement médiatisée qui prévoyait que 3 millions d’emplois - principalement ceux à faible niveau de qualification - pourraient être détruits en France d’ici 2025 par la numérisation de l’économie.
Il y a un an et demi, fin 2016, le réputé cabinet Forrester publiait une étude selon laquelle il prévoyait que l’intelligence artificielle et les nouveaux outils numériques risquaient de supprimer 6 % des emplois aux États-Unis d’ici 2021. Les premiers emplois menacés seraient les métiers du transport, de l’industrie et certains services à faibles niveaux de compétences. Pour étayer ses thèses, Forrester rappelait que 45 % des adultes interrogés aux Etats-Unis ou au Canada déclaraient déjà avoir recours à des assistants virtuels comme Alexa (Amazon), Cortana (Microsoft), Siri (Apple) ou Google Now (Google) ainsi que des chatbots.
Mais en janvier 2017, le Conseil d’orientation pour l’emploi publiait à son tour un long rapport qui prenait le contrepied de ces prévisions alarmistes et prévoyait que seuls 10 % des emplois en France, soit 1,5 million d’emplois, seraient menacés par l’automatisation. Cette étude prévoyait toutefois que la moitié des emplois existants étaient susceptibles d'évoluer, dans leur contenu, de façon significative à très importante.
Le 24 mai dernier, le cabinet McKinsey a publié à son tour une étude baptisée "The Future of Workplace". Ce travail très riche d’enseignements met en lumière les changements à venir en matière de besoins en compétences. Le cabinet de conseil a passé au crible 800 activités et 2000 tâches pour se focaliser sur 25 compétences et tenter de mieux cerner le volume d’heures de travail qu’elles représentent (Voir Mc Kinsey).
Le grand enseignement de ce remarquable travail, on ne s’en étonnera guère, est que l’automatisation et l’intelligence artificielle vont sensiblement accélérer la transformation des besoins en compétences. Ces derniers devraient en effet, selon cette étude, augmenter de 75 %. Plus précisément, les besoins en compétences avancées en informatique et en programmation devraient par exemple augmenter de 90 % entre 2016 et 2030. A l’inverse, les besoins en compétences à faible intensité cognitive - compétences physiques et manuelles principalement - vont connaître un net déclin.
Employant les grands moyens, cette étude a commencé à diviser le marché du travail, à savoir le nombre total d'heures travaillées aux Etats-Unis et dans 14 pays européens, en 25 compétences, regroupées en cinq grandes familles. Dans un second temps, l’étude a tenté de relier ces tâches aux compétences correspondantes pour estimer leur évolution.
Selon les prévisions de McKinsey, et contre toute attente, le nombre total d'heures travaillées en 2030 dans les pays étudiés ne serait pas inférieur à celui de 2016, progressant même de 5 % (683 milliards d'heures en 2030 contre 650 milliards aujourd'hui). Mais les compétences demandées sur le marché du travail vont, en revanche, considérablement évoluer.
Dans l’ensemble des secteurs étudiés, les compétences physiques et manuelles, ainsi que les compétences intellectuelles de base, vont reculer de respectivement 14 % et 15 %, à cause de la montée en puissance rapide de la robotique polyvalente, d'une part, et de l'intelligence artificielle, d'autre part. Or ces compétences « de base » représentent aujourd'hui près de la moitié des heures de travail (318 milliards d'heures sur 650).
D'ici à 2030, elles vont fortement décliner au profit de trois secteurs : en premier lieu, les compétences intellectuelles élevées - créativité, gestion de projets financiers, scientifiques ou juridiques -. En deuxième lieu, les compétences technologiques, directement liées à la révolution numérique et la gestion des données massives, qui vont augmenter de 55 %. Enfin, troisième secteur en pleine croissance, celui des compétences sociales et émotionnelles (+ 24 %), notamment dans les domaines de l’éducation, de la formation, de l’action sociale et de l’aide à la personne.
Ainsi, l’étude de Mc Kinsey prévoit la fin, au cours de ces dix prochaines années, de la séparation multiséculaire des métiers entre « cols bleus » et « cols blancs ». Le numérique, l’IA et les robots collaboratifs (Cobots) vont faire émerger les « cols neufs », une nouvelle catégorie de travailleurs capables d’accomplir simultanément plusieurs tâches dévolues jusqu’à présent exclusivement aux professions intellectuelles.
La deuxième partie de l'étude, qui repose sur une enquête auprès de cadres dirigeants, montre que toutes les entreprises ne sont pas égales, c’est le moins qu’on puisse dire, face à cette rupture historique majeure dans le monde du travail.
Il y a d’un côté les « GAFA » (Google, Amazon, Facebook et Apple) ainsi que les géants de l’informatique, de l’électronique ou de la banque (Microsoft, Intel, Samsung), qui sont déjà complètement engagés dans cette voie et misent à fond sur les compétences à très forte valeur ajoutée. Mais il y a également tout un secteur plus traditionnel, essentiellement composé de petites et moyennes entreprises de production de biens et de services, qui peinent à utiliser toutes les potentialités du numérique, faute d'une organisation adéquate, mais aussi parce qu’elles manquent de collaborateurs ayant un niveau de polyvalence et de flexibilité cognitive suffisant…
La montée en puissance de ces « cols neufs » et du besoin de partage des compétences en réseaux va également, selon cette étude, bouleverser toute l'organisation du travail et remettre complètement en question le modèle hiérarchique et pyramidal qui prévaut depuis plus de deux siècles, mais ne permet plus de répondre efficacement à des demandes de compétences de plus en plus variées et complexes.
Une des plus fortes illustrations de ce que je pressentais dans mon rapport sénatorial de 1995, intitulé « Des pyramides du pouvoir aux réseaux de savoir », est évoquée par McKinsey avec le nouveau modèle économique de Zappos, un système américain de vente de chaussures en ligne apparu il y a 5 ans et autogéré par ses agents, selon le modèle de « l’holacracy », dans lequel les 1.500 employés sont organisés en cercles, animés par des managers de projet temporaires.
Cette profonde et rapide mutation du marché du travail va avoir pour conséquences de faire exploser la demande pour les personnes les mieux formées, polyvalentes et flexibles. A contrario, tous ceux qui ne sauront pas évoluer dans leurs fonctions risquent fort de se voir remplacer par des robots, chabots et autres logiciels d’IA.
Selon Mc Kinsey, les entreprises, pour faire face à cette mutation sans précédent, vont devoir opérer en trois étapes : d’abord, quantifier les besoins au sein de l’entreprise ; ensuite, planifier la formation ou la requalification des équipes et des compétences sur les 15 prochaines années. Enfin, mettre en œuvre de manière intelligente, individualisée et concertée, ces changements. C’est ce que fait par exemple At&T qui a décidé de former 140 000 personnes au cours des cinq prochaines années, ou encore Google qui forme 18 000 ingénieurs tous les deux ans, soit le tiers de sa population d’ingénieurs.
Il est intéressant de rapprocher cette étude de Mc Kinsey avec une autre étude présentée il y a quelques semaines à Davos par le cabinet Accenture. Selon ce rapport, qui s'appuie sur une étude menée auprès de 14 000 salariés de tous les secteurs, dans onze pays différents, l'intelligence artificielle pourrait augmenter de 10 %, en moyenne, d’ici 2030 les effectifs des entreprises ayant investi dans cette technologie (Voir Accenture). L'étude évalue le gain moyen de l'utilisation de l'IA à 38 % sur le chiffre d'affaires et 10 % sur les effectifs. En tête de ce « gain numérique », on trouve le secteur des télécoms, avec une hausse de 46 % de chiffre d'affaires et de 21 % des effectifs.
Il est intéressant de noter que ces deux études, celle de Mc Kinsey et celle d’Accenture, sont finalement complémentaires et se rejoignent pour estimer que, si les nouveaux outils numériques et robotiques vont, dans un premier temps, inévitablement détruire des emplois, ils peuvent également, dans une seconde phase, susciter des créations de nouveaux emplois plus importantes que les destructions initiales, selon le principe de « destruction créatrice », magistralement théorisé par le grand économiste Schumpeter, et à condition toutefois que les entreprises et les pouvoirs publics consentent un effort économique et financier et social sans précédent en faveur de la formation tout au long de la vie.
A cet égard, l’opinion des dirigeants est éclairante, puisque 63 % pensent que l’IA permettra une création nette d’emplois dans leur entreprise d’ici 3 ans. Les employés sont pour leur part presque aussi nombreux, 62 %, à penser que l’IA aura un impact positif sur leur travail.
Comme le souligne de manière pertinente Fabrice Asvazadourian, directeur exécutif d’Accenture pour la France, « Il ne faut pas se tromper d’objectif : ce sont les employés qu’il faut protéger, pas les emplois. De tous temps, des emplois ont disparu et de nouveaux ont vu le jour, avec in fine un nombre total d’employés toujours plus important, et il en sera de même avec la révolution numérique en cours si nous nous en donnons les moyens et investissons massivement dans la formation permanente individuelle ».
En fin de compte, ce que nous disent ces deux études, c’est que la compétitivité et la croissance de demain reposeront de plus en plus sur un tryptique constitué par l’innovation technologique, l’innovation économique et enfin l’innovation cognitive et sociale, sans laquelle il ne sera pas possible d’exploiter toutes les potentialités liées aux ruptures technologiques et économiques.
Il faut bien comprendre qu’à mesure que la révolution numérique et robotique va s’étendre et se diffuser dans l’ensemble de l’économie, des plus petites entreprises artisanales aux grands groupes mondiaux, les disparités d’ordre purement technologique vont s’estomper. Ce qui fera alors la différence, jusqu’à devenir un facteur absolument décisif de choix pour les clients et les consommateurs, c’est la capacité à organiser et à articuler de la manière la plus intelligente possible les compétences humaines et les outils techniques et à intégrer la dimension affective et relationnelle au cœur des fonctions économiques, qu’il s’agisse de la conception, de la production ou de la distribution de nouveaux biens et services.
Ce défi technologique, économique et politique, est d’autant plus immense qu’il s’inscrit dans la perspective inéluctable du vieillissement considérable de nos sociétés, une évolution fondamentale qui va changer radicalement les besoins des individus, leurs aspirations et leurs modes de consommation.
Espérons que notre pays saura préparer et accompagner cette extraordinaire mutation de société en repensant le concept même d’activité et en créant les conditions individuelles et collectives favorables qui permettront à chacun de s’épanouir dans un travail qui évoluera en permanence et mobilisera tout au long de la vie l’ensemble de nos compétences humaines, intellectuelles et sociales.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
C'est une première mondiale : des chercheurs de l'Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) se sont inspirés des oiseaux pour concevoir un robot aérien capable de modifier sa forme en plein vol. Il peut en effet changer l'orientation de ses bras, munis de moteurs et de pales pour se propulser comme un hélicoptère, pour réduire son envergure et naviguer dans des espaces encombrés.
Les oiseaux et les insectes ailés possèdent une formidable capacité à réaliser des manœuvres rapides pour éviter les obstacles qu'ils rencontrent durant leur vol. Cette grande agilité est nécessaire pour naviguer dans des lieux très denses tels que des forêts ou des environnements très denses.
Les robots volants seront également amenés à évoluer dans des milieux très encombrés pour des missions de secours, d'exploration ou de cartographie. Ces robots devront donc éviter les nombreux obstacles et franchir des passages plus ou moins exigus afin de remplir leur mission. Dans cette optique, les chercheurs de l'Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) ont conçu un robot volant, capable de diminuer son envergure en plein vol pour passer à travers une ouverture sans avoir un pilotage agressif, trop coûteux en énergie.
Ce nouveau robot, appelé Quad-Morphing, est doté de deux bras sur lesquels sont fixés deux moteurs munis chacun de pales qui lui permettent de se propulser comme un hélicoptère. Grâce à un mécanisme mêlant câbles souples et rigides, il est capable de modifier l'orientation de ses deux bras, c'est-à-dire de les orienter parallèlement ou perpendiculairement à son axe central, et ceci en plein vol. Il parvient ainsi à réduire son envergure de moitié, à franchir un passage étroit, et à se redéployer, le tout à une vitesse très élevée pour un robot aérien (9 km/h).
L'agilité du Quad-Morphing est actuellement déterminée par la précision de son autopilote, qui déclenche le changement d'orientation des bras à l'approche d'un obstacle étroit sur la base de sa position fournie par un système de localisation 3D développé au laboratoire. Les chercheurs ont cependant équipé le robot d'une mini-caméra capable de capturer des images à haute cadence (120 images par seconde), ce qui lui permettra à l'avenir d'estimer par lui-même la taille de l'obstacle et de prendre la décision de se replier ou non.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Des chercheurs de l’Université Polytechnique de Madrid (UPM) et d la société AURA Innovative Robotics ont mis au point un système robotique, appelé OSCANN. Ce dernier pourrait servir d’assistant à des neurologues pour diagnostiquer les maladies neurodégénératives en analysant les mouvements oculaires. Le système est en phase d’essais cliniques.
Le processus de diagnostic d’une maladie neurodégénérative est long puisque les symptômes sont difficiles à analyser dans les premiers stades de la maladie. De plus, il existe des symptômes communs à plusieurs maladies neurodégénératives, comme les tremblements, ce qui rend difficile le diagnostic de la pathologie.
Le robot OSCANN analyse plus de 500 variables du mouvement oculaire de manière fine et poussée, grâce aux traitements de données et au machine learning. Les neurologues possèdent donc des données objectives du fonctionnement du cerveau.
Le système est simple et rapide. Actuellement, les pathologies étudiées sont la maladie d’Alzheimer, la maladie de Parkinson, la déficience cognitive légère, les différentes démences, la sclérose en plaques… De plus, dans d’autres recherches cliniques le robot travaille sur d’autres maladies telles que les troubles du spectre autistique, l’épilepsie, le diabète, l’alcoolisme, la migraine, la dépression et le trouble bipolaire. L’outil est testé dans les centres de référence nationale de ces pathologies.
Article rédigé par Georges Simmonds pour RT Flash
France Diplomatie
|
|
|
|
|
|
|
|
A l'appel de la Chambre d'Agriculture du Pays de Morlaix, une cinquantaine de producteurs et de techniciens se sont déplacés à Sibiril, afin d’assister à une étonnante démonstration du robot bineur « Dino », développé par la société Naïo technologie et le groupe Déphy Ecophyto salade.
Guidé par GPS laser et des caméras, le robot a biné les cultures en planches, de façon autonome. En bout de parcelle, il a fait demi-tour sans aide et repris son travail. En outre, le robot électrique, qui dispose d’une autonomie de 4 à 5 h de travail, prévient l’agriculteur lorsqu’il a terminé la parcelle. « Le robot est polyvalent et adapté à la plupart des cultures légumières car tous les types de bineuses peuvent être utilisées sur la machine. Étant automatique, il n’est pas contraint par les emplois du temps des équipes et peut intervenir sur la parcelle, à tous les stades d’évolution des cultures », a commenté Gaëlle Guiocheau, chargée d’animation à la Chambre d’agriculture.
Cette démonstration était une première dans le département, sur une exploitation fortement tournée vers la culture de salades. Le coût d’un tel robot varie de 80 000 e à 100 000 €, selon les équipements. Mais ce robot permet de réduire sensiblement la fréquence et la quantité de produites phytosanitaires et ne consomme que 2 € d'électricité par hectare, pour la recharge des batteries, bien moins d’énergie qu’un tracteur.
Article rédigé par Georges Simmonds pour RT Flash
Le Télégramme
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) ont trouvé un moyen simple et rapide de fabriquer des fibres multi-matériaux super-élastiques et ultra-performantes. Certaines d’entre elles ont déjà fonctionné comme capteurs sur un doigt robotique et dans des textiles. La méthode ouvre la voie à la fabrication de textiles intelligents et d’implants médicaux inédits.
Le capteur mis au point par l'EPFL est totalement nouveau. Il se présente sous la forme d’une minuscule fibre d’élastomère, qui intègre divers matériaux, tels que des électrodes ou des polymères nano-composites. Cette fibre est capable de ressentir très précisément chaque pression et distorsion exercée sur elle, et peut se déformer de près de 500 %, avant de retourner à sa taille initiale. Un candidat idéal pour concevoir des textiles intelligents, équiper des prothèses médicales ou constituer des nerfs artificiels pour la robotique.
Cette découverte sort tout droit du Laboratoire des fibres et matériaux photoniques FIMAP, dirigé par Fabien Sorin à la Faculté des sciences et techniques de l’ingénieur de l’EPFL. Les chercheurs y ont mis au point un procédé simple et rapide pour intégrer toutes sortes de microstructures au cœur de fibres super-élastiques. En plaçant plusieurs électrodes à des emplacements stratégiques, les fibres deviennent des capteurs extrêmement sensibles. Le procédé permet de produire plusieurs centaines de mètres de fibres en peu de temps.
Pour réaliser leurs fibres, les scientifiques effectuent un fibrage à chaud (thermal drawing), une méthode classique utilisée pour fabriquer les fibres optiques. Dans un premier temps, une version macroscopique de la fibre est assemblée, avec des matériaux qui sont organisés selon un motif tridimensionnel bien défini. Cette préforme est ensuite chauffée, puis étirée comme du plastique fondu, jusqu’à former des fibres de quelques centaines de microns de diamètre. A l’intérieur, les motifs s’allongent le long de l’axe de la fibre, mais rétrécissent dans la direction transverse. Ainsi, leur positionnement relatif ne change pas. On obtient une fibre dotée d’une microarchitecture d’une grande complexité, avec des propriétés avancées.
Jusqu’ici, seules des fibres rigides pouvaient être produites avec cette méthode. Fabien Sorin et son équipe l’ont utilisée pour fabriquer des fibres élastiques. Grâce à un nouveau critère de sélection des matériaux, ils ont pu identifier un type d’élastomères thermoplastiques, qui présentent une viscosité élevée lors du chauffage. Une fois le fibrage terminé, ces fibres peuvent être étirées et déformées, mais elles retournent toujours à leur état originel.
A l’intérieur de ces fibres, il a été possible d’introduire des matériaux rigides comme des polymères nano-composites, des métaux, des thermoplastiques, mais aussi des métaux liquides qui peuvent se déformer facilement.
En collaboration avec le Professeur Dr. Oliver Brock (Robotics and Biology Laboratory, Technical University of Berlin), les chercheurs ont déjà pu intégrer leurs fibres sur des doigts robotiques, en tant que nerfs artificiels. A chaque « toucher », la fibre déformée envoie des indications sur l’interaction entre le robot et son environnement tactile. Des fibres ont également été ajoutées à un vêtement test à grosses mailles, dans l’idée de détecter les pressions et étirements. « Nous pourrions envisager d'intégrer un clavier tactile directement dans les vêtements, par exemple », illustre Fabien Sorin.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
BMW et le MIT Self-Assembly Lab ont réussi à concevoir et fabriquer des structures capables de se transformer et de changer de forme et de taille à tout moment. Les deux partenaires affirment avoir développé le premier matériau d’impression 3D liquide et pneumatique qui pourrait bien avoir une utilité pour le secteur automobile.
Les structures gonflables sont très utiles pour un certain nombre d’applications, que ce soit pour créer des packagings innovants mais aussi pour certains pièces intérieures d’une voiture. C’est donc sans surprise que BMW se concentre sur toutes ces pièces pneumatiques tandis que le MIT affirme avoir une approche plus globale sur la question.
Ensemble, ils souhaitent révolutionner le confort des futures voitures autonomes. Ils auraient donc créé ce qu’ils appellent ‘Liquid Printed Pneumatics’ c’est-à-dire une structure gonflable imprimée à partir d’un liquide particulier, capable de changer de forme et de taille. Martina Starke, responsable vision de la marque et design chez BMW explique “Nous sommes fiers de pouvoir montrer nos résultats. Le projet Liquid Printed Pneumatics est un parfait exemple d’une collaboration interdisciplinaire fructueuse que nous verrons de plus en plus au cours des prochaines années, notamment chez BMW".
Ces structures pneumatiques imprimées en 3D auraient été développées en déposant des couches successives de matériaux liquéfiés comme le caoutchouc, la mousse ou le plastique dans une cuve de gel. Ce gel permettrait de maintenir le liquide en place, offrant alors la possibilité de créer des objets plus grands ou plus complexes qu’une imprimante 3D. La forme alors obtenue resterait intacte jusqu’à ce qu’elle durcisse.
Afin de créer ces structures gonflables, les chercheurs auraient utilisé un caoutchouc en silicone et auraient ensuite fait varier la pression grâce à des chambres à air afin que la structure puisse prendre différentes formes et plusieurs niveaux de fermeté. Skylar Tibbits, le fondateur du Self-Assembly Lab, explique en d’autres termes : “La structure est programmée avec de l’air. Il vous suffit d’envoyer différentes impulsions pour la faire varier”.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Les deux cofondateurs d’HySiLabs viennent d'être récompensés par une levée de fonds de 2 millions d’euros, destinée à accélérer la mise sur le marché de leur vecteur très novateur de transport de l’hydrogène, liquide, stable et sans danger.
Vincent Lôme est doctorant en biotechnologie quand il découvre, à l’Université d’Aix-Marseille, une réaction catalytique d’extraction de l’hydrogène à partir d’hydrures de silicium. Ce passionné d’automobile en parle à son ami d’études, Pierre-Emmanuel Casanova, alors aux États-Unis pour un master en management de l’innovation.
Convaincus qu’elle peut répondre à la problématique clé du transport de l’hydrogène, ils créent HySiLabs en février 2015 et développent une cellule d’extraction de l’hydrogène au sein du Technopôle de l’Arbois (Bouches-du-Rhône). Les voilà capables d’utiliser les hydrures de silicium coproduits par certains industriels.
Fin 2016, ils décident de créer un véritable vecteur, capable de charger l’hydrogène là où il est produit et de le décharger là où on l’utilise. Forts de 600 000 euros gagnés dans divers concours, ils inventent à la fois un hydrure de silicium – un polymère constitué d’atomes de silicium liés chacun à deux atomes d’hydrogène – et sa méthode de synthèse à partir de la silice. Avec 2 millions d’euros et 5 recrutements – dont eux-mêmes –, ils se donnent dix-huit mois pour être en mesure de lancer la commercialisation de leurs process auprès des industriels producteurs d’hydrogène.
Leur solution, baptisée Hydrosil, un vecteur liquide, stable et sans danger de transport de l’hydrogène. Soit un process pour charger à 100 % en hydrogène de la silice – en formant un hydrure de silicium – et un autre pour libérer en totalité et instantanément l’hydrogène chargé.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
L’équipe américaine du Professeur Anish Tuteja de l’Université du Michigan a mis au point un revêtement « omniphobique » (qui repousse tous types de liquides) qui ne dépend pas du substrat. Il est transparent et conserve ses propriétés même quand la surface est rayée.
L’équipe du Professeur Anish Tuteja a tout d'abord recensé les propriétés fondamentales d’un vaste catalogue de substances et ensuite a créé l’outil mathématique capable de prédire comment deux substances combinées pourraient se comporter. Cette approche leur a permis d’imaginer la combinaison d’un polymère (un polyuréthane fluoré) et d’un matériau superhydrophobe spécial appelé F-POSS (fluorodecyl polyhedral oligomeric silsesquioxane).
Ce nouveau composé peut être appliqué sur n’importe quel substrat, il est transparent, repousse tous les liquides (eau, éthanol, huiles), assure une fonction d’auto-nettoyage, et est durable dans le temps grâce à une capacité d’auto-réparation. En outre, il est très facile à appliquer avec des procédés courants : dépôt par centrifugation, spray, trempage etc.
En outre, des applications industrielles sont déjà envisagées pour la réfrigération, l’énergie et le raffinage ou toute autre industrie qui dépend de la condensation de liquide. En effet, ce revêtement pourrait permettre d’augmenter l’efficacité de certains processus de 20 % en aidant à détacher l’eau ou les produits chimiques condensés sur les parois des équipements.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Californie, de Riverside (États-Unis) et de l’Université du Queensland (Australie), annoncent avoir identifié plus de 100 planètes géantes qui pourraient accueillir des lunes capables de porter la vie.
Depuis le lancement en 2009 du télescope Kepler de la NASA, les astronomes ont identifié des milliers d’exoplanètes. Certaines d’entre elles pouvant être géologiquement semblables à la Terre, les planètes terrestres (rocheuses) sont des cibles de choix dans notre quête de la vie ailleurs dans l’Univers. Elles pourraient également présenter des atmosphères propices au développement de la vie. Sur ce point, nous pourrions également nous pencher sur les planètes géantes de gaz. Si elles-mêmes ne se portent pas candidates pour la recherche de la vie extraterrestre, leurs lunes le pourraient, à l’instar d’Europe autour de Jupiter, ou de Titan et Encelade autour de Saturne.
Les chercheurs annoncent ici avoir identifié au total 121 planètes géantes orbitant dans les zones habitables de leur étoile. Et chacune d’entre elles devrait héberger plusieurs grandes lunes. Il y a actuellement 175 lunes en orbite autour des huit planètes de notre système solaire, la plupart autour de Saturne et Jupiter. Les astronomes ont déjà spéculé que les exolunes pourraient fournir un environnement favorable à la vie – peut-être même mieux que la Terre. Celles-ci reçoivent en effet de l’énergie non seulement de leur étoile, mais aussi du rayonnement réfléchi par leur planète. Jusqu’à présent, cependant, aucune exolune n’a été confirmée.
« Maintenant que nous avons créé une base de données des planètes géantes connues dans la zone habitable de leur étoile, des observations des meilleures candidates pour héberger des exolunes potentielles pourront être faites. Il s’agira de concevoir des télescopes assez puissants pour que nous puissions détecter ces lunes, étudier leurs propriétés et rechercher des signes de vie », note Michelle Hill de l’Université du Queensland.
Article rédigé par Georges Simmonds pour RT Flash
Cornell University Library
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
On le sait, les émissions humaines de CO2, après plusieurs années de stabilisation, sont hélas reparties à la hausse, avec 41 gigatonnes en 2017. Une étude américaine vient de confirmer que cette hausse continue des émissions de CO2 dans l'atmosphère faisait perdre au riz une partie de sa valeur nutritionnelle, une conséquence potentiellement catastrophique pour des millions de gens en Asie chez qui le riz fait partie de l'alimentation de base.
"Nos travaux démontrent que le réchauffement climatique et en particulier les gaz à effet de serre, le dioxyde de carbone, peuvent avoir un impact sur le contenu nutritionnel des plantes que nous mangeons ; l'effet pourrait être dévastateur dans les pays consommateurs de riz, où environ 70 % des calories et la plupart des nutriments viennent du riz", souligne le coauteur Adam Drewnowski, professeur d'épidémiologie à l'Université de Washington.
L'expérience menée par les chercheurs a consisté à planter 18 variétés de riz différentes dans des champs au Japon et en Chine, avec certaines parties entourées d'un octogone de plastique de 17 mètres de large, à l'intérieur duquel la concentration en CO2 a été augmentée pour simuler celle qui est prévue au milieu du siècle, soit 568 à 590 parties par million contre 400 ppm aujourd'hui.
Résultat : le fer, le zinc, les protéines et les vitamines B1, B2, B5, et B9, qui aident le corps à convertir la nourriture en énergie, ont vu leur concentration réduite dans les riz ainsi cultivés, par exemple de 10,3 % pour les protéines. L'une des raisons suggérées est que la hausse du taux de CO2 augmente le contenu en glucides de la plante au cours de la photosynthèse, réduisant les protéines et minéraux.
Une autre étude, publiée l'an dernier par des chercheurs d'Harvard, avait conclu que le réchauffement climatique pourrait réduire le contenu en protéines de nombreux aliments, dont le riz, le blé, l'orge et les pommes de terre. Avec comme risque, à l'horizon 2050, de voir 150 millions de personnes supplémentaires souffrir de carence en protéines.
Article rédigé par Georges Simmonds pour RT Flash
Science Advances
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe danoise dirigée par Signe Sørup (Centre de Recherche sur les vaccins de Copenhague) a essayé d'évaluer si la revaccination avec le vaccin vivant contre la rougeole, les oreillons et la rubéole (ROR) était associée à un taux plus faible d'infections hors-cible.
Au Danemark, le ROR a été introduit en 1987, et la première dose a été recommandée à l'âge de 15 mois depuis lors. Au 1er avril 2008, une deuxième dose de ROR (ROR-2) a été recommandée à l'âge de 4 ans. Les chercheurs ont utilisé les registres nationaux danois pour examiner l'hypothèse préétablie selon laquelle la vaccination par le ROR-2 était associée à un taux plus faible de morbidité due aux maladies infectieuses.
Cette vaste étude a porté sur 295 559 enfants nés au Danemark entre le 1er avril 2004 et le 31 décembre 2010. Les cohortes ont été suivies à partir de 47 mois, c’est-à-dire un mois avant l'âge de 4 ans, âge recommandé pour le ROR-2, jusqu'à 60 mois. Les chercheurs ont estimé les taux d'incidence ajustés des prescriptions d'antibiotiques et des admissions à l'hôpital pour toute infection chez les enfants qui n'avaient reçu aucun vaccin non vivant avec ou après le ROR.
Dans la cohorte suivie, 76,7 % des enfants ont reçu le ROR-2 avant l'âge de 60 mois. Il n'y avait pas d'association entre le ROR-2 et les prescriptions d'antibiotiques. Le taux d'incidence ajusté pour l'association entre le ROR-2 et les admissions pour toute infection, quelle qu'en soit la durée, était de 0,93. Pour les admissions pour infection durant de 0 à 1 jour, ce taux était de 0,97, à comparer à 0,84 (IC à 95 %, 0,74 à 0,95) pour les admissions pour infection de 2 jours ou plus.
Les auteurs concluent : "Dans cette étude, la revaccination par le vaccin ROR semblait sûre et était associée à un taux plus faible d'infections graves non ciblées. Nous spéculons qu'à la suite d'une revaccination ROR, les antigènes immunisants peuvent former des complexes avec des anticorps préexistants et que ceux-ci produisent une réponse immunitaire non spécifique particulièrement bénéfique, offrant une protection contre les infections les plus graves".
Article rédigé par Georges Simmonds pour RT Flash
Clinical Infectious Diseases
|
|
|
|
|
|
|
|
Des chercheurs américains de l’Université de Pennsylvanie ont réussi, grâce à une simulation numérique, à mieux comprendre comment se forment et se disséminent les métastases dans l'organisme.
Les métastases correspondent au développement du cancer dans l’organisme. Ce sont des tumeurs fabriquées à partir de cellules cancéreuses qui se sont détachées d’une première tumeur. Elles se déplacent dans une autre partie du corps par le biais des vaisseaux lymphatiques ou sanguins. Souvent, les métastases se développent dans le cerveau, les os, le foie ou les poumons.
Jimmy Qian et Erol Akçay, les deux chercheurs à l’origine de cette recherche, ont utilisé un modèle mathématique pour comprendre le processus de développement des tumeurs cancéreuses. Ils se sont rendu compte que les mutations des cellules, qui deviendront ensuite des métastases, apparaissent très tôt. Les cellules cancéreuses ne font pas que se reproduire parmi les cellules saines. Elles modifient également l’environnement pour qu’il soit plus propice à leur développement.
Ce processus peut aussi se réaliser à distance. Des cellules malignes vont envoyer des signaux à travers la circulation sanguine vers d’autres endroits du corps humain. Ces signaux créent de nouveaux espaces de développement pour le cancer. Différents types de cellules cancéreuses forment la tumeur, certaines travaillent à construire l’environnement immédiat de la tumeur, d’autres à fabriquer des niches pré-métastasiques. Un troisième type de cellules est capable des deux à la fois, tandis que la quatrième catégorie est inactive.
Pour les chercheurs, les cellules qui participent à la fabrication des niches pré-métastasiques sont les plus susceptibles d’accueillir la tumeur. Tout simplement parce qu’autour d’elles, elles n’ont pas de "compétiteurs", pas d’autres cellules cancéreuses qui consomment les ressources disponibles.
La tumeur s’installe dans l’environnement le plus idéal pour elle, d’où cette observation. Jimmy Qian compare ce phénomène à une image : "C’est comme pour les humains. Nous préparons nos enfants en créant des fonds pour construire des écoles. Le cancer fait la même chose. Il prépare à distance un endroit où ses enfants pourront un jour migrer".
Article rédigé par Georges Simmonds pour RT Flash
Penn Today
|
|
|
|
|
|
|
|
La sclérose en plaques est une maladie auto-immune où le mécanisme de défense du patient attaque son propre système nerveux central, composé du cerveau et de la moelle épinière, avec à la clé des troubles moteurs, sensitifs et cognitifs. Mais il semble qu'intervient également dans cette pathologie le système glymphatique, un mécanisme d’évacuation où coule le liquide céphalorachidien dans lequel baignent le cerveau et la moelle épinière.
Une nouvelle étude réalisée par Fabian Docagne et son équipe du centre Cyceron à Caen démontre en effet que la circulation dans ce système est hautement perturbée dans la sclérose en plaques. On savait déjà que ce sont des cellules gliales bien particulières qui jouent un rôle important dans le système glymphatique : les astrocytes, cellules en forme d’étoile qui assurent le support et la protection des neurones. Celles-ci enveloppent les vaisseaux sanguins du cerveau jusqu’à leurs plus fines ramifications, les capillaires.
Entre la paroi de ces derniers et les astrocytes, un petit espace laisse librement circuler le liquide céphalorachidien. À la manière du système lymphatique qui évacue les déchets cellulaires du reste de notre corps, le système glymphatique évacue ainsi ceux du système nerveux central.
Grâce à une technique d’imagerie par résonance magnétique haute résolution, les chercheurs caenais ont observé les tissus cérébraux et de la moelle épinière de souris atteintes d’un modèle de sclérose en plaques. Ils ont ainsi mis en évidence une dérégulation de ce système qui pourrait être provoquée par une famille de protéines, l’aquaporine 4.
Ces protéines forment des « pores » dans les membranes biologiques et sont perméables aux molécules d'eau. « Tel un barrage sur un fleuve », illustre Fabian Docagne, « ces canaux localisés au niveau des prolongements des astrocytes, que l’on nomme pieds, régulent la circulation du système glymphatique en dirigeant le flux de liquide. Si les aquaporines 4 sont délocalisées dans tout l’astrocyte, la circulation ne se fait plus correctement ».
Par ailleurs, le système glymphatique serait surtout perturbé dans la moelle épinière, « bien qu’on ne sache pas si cela est une cause ou une conséquence de la maladie », poursuit le chercheur. Autre découverte : cette perturbation s’accompagne, en temps et en lieu, d’une infiltration massive de cellules immunitaires dans le système nerveux central qui s’attaquent à la myéline, substance protectrice qui entoure les fibres nerveuses.
Or, ce phénomène de démyélinisation est en cause dans le développement de la sclérose en plaques. Néanmoins, « à l’heure actuelle, nous ne savons pas si c’est la dérégulation du système glymphatique qui facilite l’infiltration de cellules immunitaires, ou si c’est l’inverse », nuance Fabian Docagne.
Désormais, son équipe cherche à identifier des cibles thérapeutiques qui permettraient d’intervenir sur le système glymphatique à différents stades de la maladie. « La recherche de nouvelles techniques d’imagerie non invasive chez l’Homme permettrait à l’avenir d’observer les effets d’un traitement qui cible le système glymphatique d’un patient », envisage le chercheur.
Cette nouvelle voie de recherche pourrait également bénéficier à d’autres pathologies, notamment neurodégénératives, telles que la maladie d’Alzheimer, pour lesquelles une dérégulation du système glymphatique a aussi été mise en évidence.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Selon une vaste étude américaine présentée à l'occasion du congrès annuel de l’American Psychiatry Association, une supplémentation en vitamine D pourrait contribuer à améliorer les troubles dépressifs chez l’adulte, avec ou sans carence.
Ces dernières années, de nombreux travaux ont été menés pour définir le rôle de la vitamine D et cerner son implication dans les diverses fonctions de l’organisme. Plusieurs études ont ainsi suggéré un lien entre un déficit et certaines pathologies, telles que des infections respiratoires, un diabète, une fragilité osseuse ou encore des troubles digestifs.
La vitamine semble aussi avoir un rôle important dans la fonction cérébrale puisque des travaux ont déjà montré que les patients atteints de schizophrénie ou de la maladie d’Alzheimer présentent plus fréquemment une insuffisance en vitamine D.
"Les patients dépressifs présentant un déficit en vitamine D sont ceux qui répondaient le mieux à une supplémentation, mais notre étude montre qu’un apport supplémentaire améliore également de manière significative les symptômes dépressifs chez des patients présentant un niveau normal en vitamine", souligne le Docteur Marissa Flaherty (University of Maryland School, Baltimore, Etats-Unis), principale auteure de l’étude.
Article rédigé par Georges Simmonds pour RT Flash
emedicine health
|
|
|
|
|
|
|
|
Selon une étude américaine dirigée par Jennifer Rabin (Massachusetts General Hospital) les facteurs de risque cardiovasculaire (tabac, alcool, diabète, surpoids, sédentarité…) et d’AVC aggravent le risque de déclin cognitif chez la personne âgée. Le déclin cognitif correspond à une altération de l'ensemble des processus psychiques liés à l'esprit. Il englobe une multitude de fonctions orchestrées par le cerveau : le langage, la mémoire, le raisonnement, la coordination des mouvements (praxies), les reconnaissances (gnosies), la perception et l'apprentissage ainsi que les fonctions exécutives regroupant le raisonnement, la planification, le jugement et l'organisation.
L’équipe de scientifiques a analysé les données de 223 participants âgés de 50 à 90 ans. Tous avaient des capacités cognitives normales. La recherche a été conçue pour déterminer si les facteurs de risque cardiovasculaire et d’AVC étaient en synergie avec le déclin cognitif, ou si ces trois variables évoluaient chacune de leur côté sans s’influencer les unes les autres. Un autre objectif était de déterminer si le risque vasculaire était un bon indicateur du déclin cognitif.
Les résultats de l’essai indiquent que le fait d'avoir des facteurs de risque vasculaire comme le diabète, le tabagisme ou l'hypertension artérielle peut accélérer le déclin cognitif chez les adultes d’un certain âge. Autrement dit, les facteurs de risque vasculaire et de déclin cognitif ne s'additionnent pas, ils se potentialisent, c'est-à-dire qu'ils s'aggravent l'un l’autre.
Par ailleurs, l’effet du risque vasculaire sur le déclin cognitif est amplifié chez les personnes ayant des niveaux plus élevés d'amyloïdes dans le cerveau, qui, rappelons-le, constituent les biomarqueurs de la maladie d'Alzheimer. "Nos résultats justifient le fait de cibler les facteurs de risque vasculaires modifiables, seuls ou en combinaison avec des thérapies amyloïdes, pour retarder le déclin cognitif. Les mesures du risque vasculaire peuvent aussi compléter les biomarqueurs existants et permettre d’identifier les personnes les plus à risque de déclin cognitif", explique Jennifer Rabin, auteure principale de l’article.
Article rédigé par Georges Simmonds pour RT Flash
JAMA
|
|
|
|
|
|
|
|
Selon une étude américaine dirigé par Patrick Forde, oncologue au Johns Hopkins Bloomberg-Kimmel, une immunothérapie administrée au stade précoce d'un cancer du poumon, et avant la chirurgie, réduit la taille de la tumeur à enlever, augmente le nombre de cellules immunitaires dans la tumeur et réduit le risque de récidives.
Ce travail concerne le cancer du poumon non à petites cellules (CPNPC), c’est-à-dire la forme la plus fréquente de la maladie. L’immunothérapie est une stratégie thérapeutique en plein essor qui consiste à stimuler le système immunitaire du patient afin qu’il reconnaisse les cellules cancéreuses et qu’il les détruise.
Jusqu’ici, l’immunothérapie était utilisée pour traiter les formes avancées de cancer du poumon non à petites cellules, et après la chirurgie. Mais cette nouvelle étude prouve que l'administration de nivolumab, une immunothérapie anti-PD-1 administrée avant la chirurgie ("immunothérapie adjuvante") permet d’en améliorer la réalisation et l’efficacité chez les malades atteints d'un cancer du poumon à un stade précoce. De fait, ces résultats changent complètement la manière d’aborder le traitement d’un cancer du poumon pris à un stade assez précoce de la maladie.
Les chercheurs ont administré deux doses de nivolumab (3 mg/kg de nivolumab par voie intraveineuse toutes les deux semaines) avant la chirurgie chez 20 malades souffrant d’un cancer du poumon accessible à la chirurgie. Tous souffraient d’un cancer du poumon non à petites cellules de stade I, II ou III, jugé opérable.
Vingt malades ont pu avoir une résection chirurgicale complète de leur tumeur après avoir reçu l’immunothérapie néoadjuvante. Après chirurgie, 16 des 20 malades sont vivants et sans récidive. Une réponse immunologique majeure est observée dans 45 % des tumeurs enlevées et ce traitement n’a jamais retardé ou gêné la chirurgie. Trois malades ont eu une rechute de leur cancer du poumon dont 2 ont eu un traitement supplémentaire et n'ont pas eu de nouvelle récidive. Un patient est décédé d'un cancer métastatique récidivant environ 16 mois après la résection chirurgicale.
"Nous voulions examiner la tumeur et le système immunitaire des malades avant le traitement et les examiner à nouveau après le traitement pour analyser les changements", a déclaré Patrick Forde, premier auteur et spécialiste du cancer du poumon au Johns Hopkins Bloomberg-Kimmel, Washington DC. "Nous avons observé une régression tumorale chez près de la moitié de ces malades souffrant d'un cancer du poumon à un stade précoce et nous ne nous attendions pas à voir une telle réponse majeure avec seulement deux doses (de nivolumab)".
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Une étude publiée dans la revue Cochrane, réputée pour son indépendance et son sérieux, vient de démontrer que le vaccin contre le papillomavirus humain (HPV), réduit bien le nombre de lésions précancéreuses du col utérin.
Deux virus en particulier, numérotés HPV 16 et HPV 18, sont les plus à risque de générer un cancer du col de l'utérus, mais il existe aussi de très nombreux sous-types. Pour ce récent travail, les relecteurs, des experts indépendants sous la houlette du Docteur Marc Arbyn, chef du service Epidémiologie des cancers à Bruxelles (Belgique), ont repris près de 30 essais cliniques menés sur 75 000 femmes âgées de 15 à 45 ans, tous comparant l'efficacité du vaccin contre un placebo.
Résultat : les femmes ayant reçu le vaccin anti-HPV tôt, entre 15 et 25 ans et non porteuses du virus avant la vaccination, ont un risque beaucoup moins élevé de souffrir de lésions précancéreuses liées aux HPV 16 et 18 (2 pour 10 000 femmes vaccinées) en comparaison de celles qui n'ont pas bénéficié du vaccin (164 pour 10 000 femmes non vaccinées).
De plus, cette réduction de lésions précancéreuses ne s'accompagne pas, selon les experts, d'une augmentation des effets secondaires. Néanmoins, il est encore trop tôt pour observer une diminution du nombre des cancers. Destiné en France uniquement aux adolescentes, ce vaccin qui vise à réduire le nombre de cancers du col, existe aujourd’hui sous deux formes. Cervarix (dit bivalent, agit sur HPV 16 et 18) et Gardasil (tétravalent, actif contre HPV 6, 11, 16 et 18).
Un troisième vaccin, Gardasil 9 (dit nonavalent, actif en plus contre HPV 31, 33, 45, 52 et 58) est en attente de commercialisation. Mais comme le rappelait en octobre dernier la Haute Autorité de Santé, la prévention des infections à HPV est en France encore insuffisante.
Article rédigé par Georges Simmonds pour RT Flash
Cochrane
|
|
|
|
|
|
|
|
Le Docteur Mireille Serlie, endocrinologue à l’Université d’Amsterdam (Pays-Bas), a réalisé avec son équipe une étude qui a inclus des sujets traités par stimulation cérébrale profonde (SCP) pour trouble obsessionnel compulsif (TOC). Ces recherches ont montré que le striatum dans le cerveau, via son signal dopamine, régule le métabolisme systémique du glucose, en affectant la sensibilité à l’insuline, ce qui ouvre de nouvelles pistes pour traiter le diabète de type 2.
« Dès que nous aurons identifié les circuits neuronaux qui produisent ces effets de la SCP/dopamine sur la régulation du glucose, nous pourrons envisager des approches pour manipuler ces voies chez l'homme. Ceci pourrait conduire à de nouvelles options thérapeutiques pour les patients atteints du diabète de type 2 », estime-t-elle.
Le diabète de type 2 et l’obésité sont caractérisés par une résistance à l’insuline. Celle-ci précède le diabète de type 2. Lorsque les cellules musculaires, hépatiques et adipeuses deviennent résistantes à l’insuline, le glucose entre moins bien dans ces cellules et reste dans le sang, favorisant ainsi l’hyperglycémie. La prévention passe par des changements du mode de vie (exercice) et de l’alimentation.
De récentes études ont révélé que le cerveau est un important régulateur du métabolisme systémique du glucose. Des études chez l'animal ont suggéré que le signal dopamine du striatum ventral (dans le cerveau) contribue au contrôle systémique du glucose, mais il restait à en apporter la preuve directe chez l’homme. Le Docteur Serlie et ses collègues confirment maintenant cette hypothèse.
Tout d’abord, ils ont observé qu’un patient diabétique de type 2 nécessitait une dose beaucoup plus faible d’insuline après avoir débuté un traitement de stimulation cérébrale profonde (SCP) pour un trouble obsessionnel compulsif (TOC) pharmaco-résistant. Leurs résultats suggèrent que la SCP ciblant le striatum ventral et libérant de la dopamine améliore la sensibilité à l’insuline sur les cellules musculaires, hépatiques et adipeuses.
Ils ont ensuite étudié 14 patients non diabétiques (7 obèses) traités par SCP pour TOC ; chez eux aussi, la SCP libérant de la dopamine striée améliore la sensibilité périphérique à l’insuline. Inversement, une baisse de la dopamine striée provoquée par l’administration d’AMPT chez des sujets sains réduit la sensibilité à l’insuline.
Enfin, chez la souris, l’activation des neurones dopaminergiques dans le noyau acumbens (NAc) du striatum ventral augmente la tolérance au glucose et la sensibilité à l’insuline. Tous ces résultats suggèrent que l’activité neuronale du striatum régule le métabolisme systémique du glucose. "Notre étude nous permet de mieux comprendre comment le cerveau régule le métabolisme du glucose chez l'homme et elle fournit la preuve que la stimulation cérébrale profonde affecte le métabolisme du glucose", précise le Docteur Serlie.
Article rédigé par Georges Simmonds pour RT Flash
Science Translational Medicine
|
|
|
|
|
|
|
|
Un étude présentée à l'occasion du congrès de l’American Psychiatry Association (APA 2018), a confirmé l'efficacité et la bonne tolérance de l’eskétamine (une forme de kétamine) administré par voie intranasale, en combinaison avec un antidépresseur, dans le traitement de la dépression résistante.
« Les patients traités par eskétamine ont présenté une diminution rapide et significative de leurs symptômes dépressifs, avec un effet clinique notable, comparativement à ceux prenant un traitement standard », a déclaré le Docteur Vanina Popova (Janssen Research and Development, Anvers, Belgique), co-auteure de l’étude, lors de sa présentation.
Près d’un tiers des patients souffrant de dépression sont résistants aux antidépresseurs. Alors que l’administration par voie intraveineuse de kétamine, un antagoniste des récepteurs N-méthyl-D-aspartate (NMDA), a montré un effet antidépresseur important et rapide, l’attention se tourne désormais vers l’eskétamine, un énantiomère de la kétamine, plus facile à administrer et mieux toléré.
Cet essai de phase 3 international a inclus plus de 200 patients dépressifs, âgés en moyenne de 45 ans et résistants à au moins deux traitements. Ils ont été randomisés pour recevoir deux fois par semaine, en intranasal, soit de l’eskétamine (56 mg, avec une hausse possible à 84 mg), soit un placebo, en plus d’un autre antidépresseur. La durée de traitement était de quatre semaines et la phase de suivi s’est déroulée sur deux mois.
Les patients présentaient initialement une dépression modérée à sévère, avec des symptômes dépressifs. Au bout d'un mois, l’amélioration des symptômes est nettement plus importante dans le groupe recevant l’eskétamine, avec une différence de score MADRS moyen de -4 points.
Cette différence est importante, a souligné le Docteur Popova, auprès de nos confrères de Medscape édition internationale. « Les antidépresseurs actuellement disponibles sont habituellement associés dans les essais à une différence de score MADRS de 2 à 3 points, par rapport au placebo ».
Une rémission a été observée chez la moitié des patients (53 %) du groupe sous eskétamine, contre 31 % dans le groupe placebo. Le taux de réponse (baisse de 50 % du score MADRS initial) était respectivement de 70 et 52 %. Compte tenu de ces bons résultats, le laboratoire Janssen prévoit de déposer une demande d’autorisation de mise sur le marché aux Etats-Unis et en Europe d’ici la fin de l’année.
Article rédigé par Georges Simmonds pour RT Flash
Soverign Health
|
|
|
|
|
|
|
|
Pour parvenir à contrôler la croissance de cellules souches dans le but de mettre au point de nouvelles thérapies pour la médecine régénératrice, il est indispensable de pouvoir réaliser des tests dans des conditions standardisées et utilisant le moins de cellules possibles.
Actuellement, les cellules sont cultivées sur des supports très rigides qui ne reproduisent pas du tout les tissus humains : utiliser des matériaux biomimétiques pour la culture cellulaire ouvrirait de nouvelles perspectives. Or, jusqu’à présent, les biomatériaux étaient peu compatibles avec les méthodes à haut débit. De plus, fabriquer les biomatériaux directement au fond de plaques ayant de multiples puits représente un défi technique. Des chercheurs du Laboratoire des matériaux et du génie physique (CNRS/Grenoble INP) ont établi une méthode automatique pour résoudre ces deux difficultés.
Leur méthode permet, au moyen d’un robot, d’assembler des films biomimétiques couche-par-couche in situ dans des microplaques pour la culture cellulaire. En ajustant les conditions de pipetage, des films très homogènes sont formés au sein de chaque micropuits, la variation d’épaisseur à l’intérieur d’un même puits et entre puits étant inférieure à 7 %. Ceci permet de garantir des conditions de culture de cellules reproductibles.
Cette technique, applicable à différents types de films et de microplaques, est compatible avec des tests cellulaires courants utilisant des lecteurs de microplaques et des microscopes optiques automatisés. Les chercheurs ont ainsi testé l’adhésion cellulaire dans 16 conditions différentes de films.
Ils ont aussi étudié la différenciation de cellules souches progénitrices de l’os au sein d’une même microplaque. Ces travaux ouvrent ainsi la voie à de futures applications des films biomimétiques pour des tests cellulaires dans le domaine de la médecine régénératrice et le criblage de médicaments à haut débit pour la thérapie des cancers.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Le virus de l’herpès, Herpes simplex virus (HSV), est un virus de la famille des Herpesviridae qui compte également parmi ses membres le virus d’Epstein-Barr, le virus du zona ou encore celui de la varicelle. Il en existe deux souches : la souche HSV-1, responsable de 95 % des herpès oro-faciaux et de 30 % des herpès génitaux, et la souche HSV-2 majoritairement responsable des herpès génitaux.
Ce virus cible principalement les tissus nerveux et la peau (dermoneurotropie). Une fois l’organisme infecté et selon la zone de prédilection de la souche, le virus persiste toute la vie au sein des ganglions sacrés (HSV-2) ou dans le ganglion trigéminal (HSV-1). Ils peuvent s’avérer d’une exceptionnelle gravité chez la femme enceinte et chez le nouveau-né.
Bien qu’aucun traitement curatif n’existe pour le moment, une équipe de virologues de l’Université de Louisiane vient de tester avec succès sur l’animal le premier vaccin contre le virus, qui démontrerait à la fois des effets préventifs et curatifs. Les résultats du vaccin, composé de trois protéines virales spécifiques, a en effet démontré des effets extrêmement encourageants sur le cochon d’inde et le singe. Les essais cliniques humains pourraient débuter dans moins de 18 mois.
Le virus de l’herpès échappe au système immunitaire et aux traitement antiviraux en se cachant dans les neurones du système nerveux périphérique, plus précisément dans les axones composant les tissus nerveux. Les scientifiques ont utilisé une souche virale atténuée et modifiée, de manière à comporter une mutation génétique bloquant la protéine permettant au virus d’entrer dans les axones.
Aucun des neuf cochons d’inde vaccinés et exposés à une souche du HSV-2 virulente n’a développé d’infection, contrairement aux neuf autres qui n’ont pas reçu le traitement préventif. Ces recherches indiquent que le vaccin peut également mobiliser le système immunitaire chez les cochons d’inde déjà infectés par le virus de l’herpès. En outre, les résultats indiquent que le vaccin est sans danger chez les primates non-humains.
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
|
|
|
|
|
|
Pour la première fois, une équipe de scientifiques britanniques de l'Université Rockefeller a mis en lumière les voies de signalisation moléculaires qui guident le parcours d'une cellule humaine.
De précédentes recherches avaient déjà montré que les cellules souches embryonnaires peuvent se différencier en n'importe quel type de cellules spécialisées de l'organisme : os, cerveau, poumons, foie… etc. Il était en outre établi que des groupes spéciaux de cellules trouvées dans les embryons d'amphibiens et de poissons jouent un rôle exécutif dans le façonnement des structures de développement précoce.
Ces groupes, appelés "organisateurs", émettent des signaux moléculaires qui dirigent d'autres cellules pour qu’elles grandissent et se développent de manière spécifique. Par ailleurs, lorsqu’un organisateur est transplanté d'un embryon à un autre, il peut par exemple inciter son nouvel hôte à produire une colonne vertébrale secondaire.
Dans cette nouvelle étude, le docteur Brivanlou et son équipe ont effectué une série d'expériences impliquant des embryons humains artificiels : de minuscules grappes de cellules, d'environ un millimètre de diamètre, cultivées en laboratoire à partir de cellules souches embryonnaires humaines.
Des études antérieures ont révélé que trois voies de signalisation différentes favorisaient le développement embryonnaire précoce chez des animaux comme les souris et les grenouilles. En activant ces voies dans des embryons humains artificiels, le docteur Brivanlou et ses collègues ont montré que les mêmes signaux moléculaires peuvent aussi stimuler le développement des cellules humaines.
Pour valider leurs découvertes initiales, les chercheurs ont greffé des embryons humains artificiels sur de véritables embryons de poulet ; ils ont également repéré les cellules humaines avec un marqueur fluorescent qui leur a permis de suivre précisément les cellules sous un microscope.
Et le résultat est plus qu'étonnant : dès qu'ils ont été présentés à leurs hôtes aviaires, les cellules humaines ont commencé à jeter les bases d'une colonne vertébrale secondaire et d'un système nerveux - un acte qui annonçait clairement la présence d'un véritable organisateur humain. Cette étude montre clairement que, lorsqu'elles sont greffées sur des embryons de poulet, les colonies de cellules souches humaines traitées avec les agents Wnt et Activin induisent le développement parfaitement ordonné des structures osseuses et du système nerveux…
"À mon grand étonnement, la greffe n'a pas seulement survécu, mais a donné naissance à ces structures merveilleusement organisées", explique le docteur Brivanlou. Autre surprise de taille : si les progéniteurs du cartilage et du tissu osseux qui comprendraient éventuellement une deuxième colonne vertébrale étaient entièrement composés de cellules humaines, les débuts du tissu nerveux qui formerait en fin de compte sa moelle épinière et son cerveau étaient composés exclusivement de cellules de poulet…
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une équipe de recherche internationale dirigée par Claire Guissart, du Laboratoire de Génétique Moléculaire du CHU de Montpellier, a identifié un nouveau gène impliqué dans une forme de déficience intellectuelle associant de façon variable une épilepsie, un autisme et une atrophie cérébelleuse.
Baptisé "Rora", il s'agit du deuxième gène impliqué dans la déficience intellectuelle et cérébelleuse identifié par ce docteur d’ici, et d’autres sont à venir. Le Professeur Michel Koenig a identifié depuis 30 ans plus d’une dizaine de gènes en lien avec des affections neuro-dégénératives, en particulier celles touchant le cervelet, d’abord à Strasbourg et depuis 5 ans, à Montpellier. Le présent travail a été réalisé en collaboration avec les équipes de neuro-pédiatrie (Professeur François Rivier) et de neuro-radiologie (Docteur Nicolas Leboucq) du CHU de Montpellier.
La déficience intellectuelle touche 1 personne sur 40 et a le plus souvent une cause héréditaire ou chromosomique. Les formes héréditaires constituent une entité d’une complexité redoutable avec plus de 800 gènes identifiés à ce jour, dont certains responsables de formes extrêmement rares.
Une partie importante de ces formes sont dites « syndromiques », lorsque la déficience intellectuelle est associée à d’autres troubles cognitifs, neurologiques et/ou extra-neurologiques, ou à des signes dysmorphiques. L’identification de l’implication du gène Rora dans la déficience intellectuelle chez l’homme est le fruit d’une collaboration entre 11 centres européens et 9 centres américains, soit 21 centres, menée par les Universités de Montpellier, Nantes, Rennes et Durham, en Caroline du Nord.
L’implication du gène Rora, codant un récepteur nucléaire orphelin, c’est-à-dire dont le ligand est encore inconnu, vient d’être publiée dans la revue « American Journal of Human Genetics », une des toutes premières revues de génétique humaine et médicale.
Le gène RORA semble être un gène majeur lié à une forme de déficience intellectuelle puisque cette première publication rapporte les cas de pas moins de 16 individus issus de 13 familles différentes, ce qui devient de plus en plus exceptionnel pour la description des nouvelles maladies héréditaires.
Il s’agit, dans la plupart des cas, de « néo-mutations » c’est-à-dire de mutations absentes des deux parents mais survenues dans la lignée germinale (gamètes) de l’un des deux. Dans un seul cas, il s’agissait d’une mutation transmise chez 4 individus avec déficience intellectuelle légère, sur 3 générations. Les patients souffrent le plus souvent de déficience intellectuelle « syndromique » c’est-à-dire associée de façon variable à une épilepsie, un autisme et/ou une atrophie cérébelleuse.
Article rédigé par Georges Simmonds pour RT Flash
Metropolitain
|
|
|
|
|
|
|
|
En cas d’accident vasculaire cérébral ischémique, la zone où se situe le caillot de sang est particulièrement affectée par le manque d’oxygène. Mais des chercheurs de l'Université de Caroline du sud ont montré que les neurones situés autour de cette zone, même s’ils sont partiellement altérés, peuvent être sauvés. Afin d’en préserver le plus possible, ces scientifiques ont développé un agent thérapeutique novateur. Baptisé B4Crry, il a été injecté à un modèle murin victime d’AVC.
Constat : le mécanisme entraînant la destruction des cellules voisines de la zone du caillot était interrompu. Résultat, « les souris ainsi traitées présentaient moins de déficience neurologique et de plus petites lésions », notent les auteurs. De plus, « la récupération post AVC s’est avérée plus rapide ».
« Cette thérapie, qui peut être appliquée jusqu’à 24 heures après l’AVC, donne plus de temps pour intervenir et ne nécessite qu’une simple injection », concluent les auteurs. Un espoir important dans le traitement des AVC ischémiques qui constituent la première cause de mortalité chez les femmes, avec 18 343 décès en 2013 et la troisième chez les hommes, avec 13 003 décès. Ils sont en outre une cause majeure de handicap moteur et de démence.
Article rédigé par Georges Simmonds pour RT Flash
Science Translational Medicine
|
|
|
|
|
|
|
|
On sait depuis plusieurs décennies que l'exposition fréquente à certains pesticides peut augmenter le risque de certains cancers, comme les lymphomes. Cette fois, selon une étude canadienne de l'Université de Guelph (Ontario), dirigée par Morgan G. Stykel, les personnes exposées au paraquat et au manèbe, deux pesticides couramment utilisés dans l’agriculture, ont un risque deux fois et demi plus grand de développer la maladie de Parkinson.
"Jusqu'à présent, le lien entre les pesticides et la maladie de Parkinson reposait principalement sur des études animales et sur des recherches épidémiologiques qui ont démontré un risque accru chez les personnes exposées à des produits chimiques agricoles", a déclaré Scott Ryan, principal auteur de l’étude. "Nous sommes les premiers à enquêter sur ce qui se passe à l'intérieur des cellules humaines".
De fait, le professeur et son équipe ont établi que les cellules exposées au paraquat et au manèbe opéraient une mutation génétique similaire à celle qui provoque la maladie de Parkinson, et ce même quand la dose de pesticides absorbée par l’organisme est faible.
Les agriculteurs français ont ainsi un risque accru de 10 % de contracter la maladie que la population générale. En 2012, Bruno Le Maire - alors ministre de l'Agriculture - avait d’ailleurs officiellement reconnu la maladie de Parkinson comme étant une maladie professionnelle.
La maladie de Parkinson est la maladie neurologique qui a le plus augmenté entre 1990 et 2015 : le nombre de ses victimes a doublé. Fin 2015, le nombre de patients parkinsoniens traités était de l’ordre de 160 000, avec environ 25 000 nouveaux cas par an.
Article rédigé par Georges Simmonds pour RT Flash
FASEBJ
|
|
|
|
|
|
|
|
Une étude publiée le 5 juillet dernier dans le prestigieux "New England Journal od Medicine" ouvre sans doute une nouvelle ère dans l'histoire de la médecine : ce travail dirigé par Professeur David Adams (Hôpital Bicêtre – APHP) montre en effet pour la première fois que le Patisiran, un traitement à base d'ARN interférent, parvient non seulement à stopper l'évolution d'une pathologie neurologique potentiellement mortelle, mais permet également une régression impressionnante des symptômes de cette maladie.
La maladie en question est l'amylose héréditaire, une grave neuropathie périphérique qui s'attaque aux fibres nerveuses dans l'organisme. Elle est provoquée par une mutation génétique de la transthyrétine, protéine du foie chargée de transporter la vitamine A dans l'organisme. Maladie évolutive et incurable, l'amylose héréditaire se déclare à l'âge adulte et l'espérance de vie des patients dépasse rarement une dizaine d'années.
Le traitement en question a été développé par Alnylam, entreprise pharmaceutique américaine inventrice du Patisiran et pionnière dans les traitements à base d'ARN interférents. Les ARN sont très simples à synthétiser, contrairement aux thérapies géniques ou aux traitement biotechnologiques. Le problème est que, jusqu'à présent, on ne savait pas cibler l'ARN de façon précise dans un organe ou un tissu particulier.
C'est cet obstacle majeur qu'a réussi à lever Alnylam, après 16 ans de recherche. Pour y parvenir, les chercheurs ont conçu une capsule de nanoparticules lipidiques qui ne sont absorbées que par les cellules du foie. Une fois dans les cellules hépatiques, les ARNi se fixent sur les ARN de transthyrétine anormaux, ce qui réduit leur production d'au moins 80 %.
l'ADN utilise l'ARN pour éviter les erreurs de transcriptions de l'information génétique, ce qui pourrait se traduire par la production de protéines anormales. C'est pour cette raison que ces ARN sont appelés "interférents", ou ARNi. Découverts en 2002, les ARNi offrent donc la possibilité, en théorie, de bloquer à la demande la synthèse d' une protéine, par exemple responsable d'une maladie génétique, et ce de manière transitoire et flexible. L'ARN, contrairement à l'ADN, est en effet une molécule à durée de vie limitée.
Dans cet essai clinique, le Professeur David Adams a évalué les effets du Patirisan sur 225 patients atteints d'amylose héréditaire, recrutés dans 19 pays. Suivis pendant 18 mois, les patients étaient surveillés sur de multiples critères, dont les atteintes neurologiques globales, la mobilité ou encore la qualité de vie. Les résultats ont été inespérés : non seulement le Patirisan ralentit considérablement l'évolution de la maladie mais il permet même, pour plus d'un patient sur deux, une régression spectaculaire des atteintes neurologiques, alors qu'il était admis jusqu’à présent que ces atteintes étaient irréversibles ! Avantage majeur du traitement, il ne provoque que des effets secondaires mineurs tels que des œdèmes, réactions cutanées sur le site d'injection.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Des scientifiques grecs et norvégiens ont réussi à mettre au point un système révolutionnaire pour identifier les patients à risque en matière de cancer du poumon. Cette équipe dirigée par Oluf Dimitri Røe, oncologiste au Département d’Oncologie de l’hôpital Levanger en Norvège, a travaillé sur une étude réalisée par l’Institut Nord-Trøndelag Health Study à partir de 1995. Cette dernière avait soumis 65 000 Norvégiens âgés de 20 à 100 ans à des questionnaires très précis et les avaient suivis pendant 16 ans.
Après trois ans d’analyses, les chercheurs ont constaté que 94 % des patients souffrant du cancer du poumon étaient fumeurs ou anciens fumeurs. Quant aux 6 % restants, impossible de comprendre pourquoi ils étaient tombés malades. Par ailleurs, deux faits inquiétants sont ressortis de ces travaux : 21 % des malades avaient moins de 55 ans à l’époque de l’étude et 36 % d’entre eux avaient fumé moins de 20 cigarettes par jour pendant moins de 20 ans.
Forts de ces résultats, les chercheurs ont abouti à un modèle nommé UNT Lung Cancer Risk Model capable de calculer le risque de développer un cancer du poumon pour chacun. Pour tester la fiabilité de leur modèle, les chercheurs ont ensuite demandé à 45 000 personnes qui avaient déjà répondu aux questionnaires précédemment analysés d’utiliser cette technique pour prédire qui développerait un cancer en premier. Ils ont alors obtenu 88 % de "bonnes réponses".
Selon Oluf Dimitri Røe, "Il s'agit du premier modèle qui peut prédire correctement le risque de cancer du poumon pour les petits fumeurs, les gens plus jeunes et ceux qui ont arrêté de fumer il y a plusieurs années".
Article rédigé par Georges Simmonds pour RT Flash
EBioMedicine
|
|
|
|
|
|
|
|
Selon une vaste étude américaine réalisée sur 550 000 personnes par des chercheurs de l'Ecole de Médecine de New-York, avoir une alimentation riche en antioxydants réduirait les effets nocifs de la pollution sur l'organisme et le métabolisme. Les antioxydants sont des molécules qui désarment les molécules oxydées et hautement réactives, ou les radicaux libres, qui sont connus pour causer des dommages aux cellules et aux tissus.
Dans ces recherches, ces scientifiques ont suivi pendant 17 ans 548 699 participants d'un âge moyen de 62 ans, pour essayer de voir s'il existe un lien entre régime alimentaire et protection contre la pollution. Les chercheurs ont créé cinq groupes de participants en fonction de leur degré d'adhésion à un régime méditerranéen et à leur exposition à long terme aux particules fines (PM2,5), l' oxyde d'azote (NO 2) et l'ozone (O3).
Les résultats de l'étude ont montré que les décès ont augmenté de 5 % pour une augmentation de l'exposition moyenne au protoxyde d'azote de 10 ppb (parties par milliard, ou nombre de molécules du gaz à effet de serre considéré par milliard de molécules d'air), contre 2 % chez les participants qui s'alimentent avec le régime méditerranéen.
Les décès dus à des maladies cardiovasculaires ont augmenté de 17 % pour chaque augmentation de 10 microgrammes par mètre cube (µg / m3) de l'exposition moyenne à long terme aux PM2,5 chez les moins adhérents, contre 5 % chez les adhérents au régime méditerranéen. Les décès dus à des maladies cardiovasculaires ont augmenté de 10 % pour chaque augmentation de 10 ppb de NO 2 et uniquement de 2 % chez les adeptes du régime crétois.
La mortalité par crise cardiaque a augmenté de 20 % pour chaque augmentation de 10 µg / m3 de l'exposition aux PM2,5 chez les moins adhérents, contre 5 % pour les autres groupes. Les décès par crise cardiaque ont augmenté de 12 % pour chaque augmentation de ppb dans l'exposition au NO2 chez les personnes qui ne se nourrissent pas avec le régime crétois, comparativement à 4 % pour les autres participants.
"Compte tenu des avantages d'un régime riche en antioxydants, nos résultats sont conformes à l'hypothèse selon laquelle la pollution des particules causée par la combustion de combustibles fossiles nuit à la santé en induisant le stress oxydatif et l'inflammation", a déclaré George Thurston, ScD, directeur du Programme d'évaluation de l'exposition et des effets sur la santé humaine au Département de médecine environnementale de l'École de médecine de l'Université de New-York.
"D'autre part, l'effet de l'ozone n'était pas significativement émoussé par un régime méditerranéen, donc l'ozone affecte apparemment la santé cardiaque par un mécanisme différent. "Avec environ un quart de la population étudiée vivant où les niveaux de pollution atmosphérique étaient 10 µg / m3 ou plus au-dessus de l'exposition la plus basse", il a ajouté, "l'adoption d'un régime méditerranéen a le potentiel de réduire les effets de la pollution atmosphérique aux États Unis".
Article rédigé par Georges Simmonds pour RT Flash
ATSJ
|
|
|
|
|
|
|
|
Une étude réalisée par le Centre Anderson contre le cancer, à Houston (Texas), a montré qu'une nouvelle classe d’inhibiteur de tyrosine kinase, ciblant précisément le proto-oncogène RET, s’est montrée efficace et bien tolérée dans le traitement de formes avancées de cancer de la thyroïde ou du poumon non à petites cellules, selon les résultats d’une étude de phase 1.
La molécule, baptisée BLU-667 (Blueprint Medecines), a notamment permis une régression des tumeurs chez des patients auparavant non répondeurs au traitement standard par inhibiteurs multikinases. Certains cancers, comme le cancer médullaire de la thyroïde (CMT) ou le cancer du poumon non à petites cellules (CPNPC), peuvent se développer à la suite de mutations ou d’un réarrangement sur le gène RET codant pour un récepteur à tyrosine kinase. Les mutations de RET sont présentes dans plus d’un tiers des cancers médullaires de la thyroïde (formes familiales NEM2) et dans à peu près 2 % des cancers du poumon. Actuellement, aucun traitement ne vise ce proto-oncogène RET.
« Les thérapies utilisées contre les cancers provoqués par un remaniement de RET se limitent aux inhibiteurs multikinases ou à la chimiothérapie, non spécifiques et associés à une toxicité significative. BLU-667 a été spécialement conçu pour cibler RET », a expliqué l’auteur principal, le Professeur Vivek Subbiah.
L’étude clinique de phase 1 ARROW a inclus 49 patients présentant des tumeurs solides à un stade avancé non résécable. Dans quasiment trois-quarts des cas, l’activité oncogène était associée à un réarrangement des protéines kinases RET. L’examen radiologique a montré une diminution de la taille des tumeurs de 2 à 70 % chez 83 % des patients présentant un réarrangement sur les protéines kinases RET. Le taux de réponse objective (proportion de patients dont la tumeur régresse ou n’évolue pas) est de 46 % pour l’ensemble de la cohorte.
BLU-667 inhibiteur de tyrosine kinase, ciblant précisément le proto-oncogène RET, s’est montrée efficace et bien tolérée dans le traitement de formes avancées de cancer de la thyroïde ou du poumon non à petites cellules, selon les résultats d’une étude de phase 1.
Article rédigé par Georges Simmonds pour RT Flash
Cancer Discovery
|
|
|
|
|
|
|
|
Une étude italienne vient de montrer pour la première fois un lien entre la réduction des mouvements et le bon fonctionnement des cellules nerveuses. De précédentes études avaient déjà montré que la limitation sévère des mouvements, qui concerne notamment les astronautes en mission spatiale ou les personnes alitées de manière prolongée, semble influencer les systèmes moteurs et métaboliques, mais aussi le système nerveux. Mais cette étude apporte des éléments nouveaux sur les dommages que provoque une diminution de l'activité sur les cellules souches neurales.
Les chercheurs ont comparé des souris ne pouvant pas utiliser leurs pattes arrières (dites HU pour Hindlimb Unloading) à des souris libres de leur mouvement. Après une période de 28 jours, ils se sont intéressés à leur zone sous-ventriculaire, région du cerveau impliquée dans la neurogenèse. Les souris HU présentaient 70 % de moins de cellules souches neuronales proliférantes que le groupe de souris « contrôle ».
Une analyse in vitro a également été effectuée sur des cellules souches neurales isolées et a montré une altération du cycle cellulaire des cellules issues de souris HU, cohérente avec les observations in vivo. Les chercheurs ont également observé que la différenciation et la maturation des cellules souches neuronales sont incomplètes au sein des cellules HU.
« Ce travail souligne le fait que la restriction du mouvement est préjudiciable à la santé du cerveau, en particulier pour certains patients atteints de maladies neurologiques pour lesquelles le mouvement limité pourrait aggraver la maladie (sclérose en plaques, sclérose latérale amyotrophique…) et pour les astronautes qui sont soumis à une faible gravité pendant plusieurs mois », précise le Docteur Bottai, qui ajoute "le fait que certains gènes impliqués dans le cycle cellulaire et le métabolisme sont altérés dans ce modèle de limitation du mouvement pourrait être utilisé à des fins thérapeutiques »,
Article rédigé par Georges Simmonds pour RT Flash
Frontiers in Neuroscience
|
|
|
|
|
|
|
|
Des chercheurs américains de l'Intermoutain Medical Center, à Murray (Utah), viennent de trouver un moyen d'évaluer plus précisément le risque de faire un AVC chez les personnes atteintes d'arythmie cardiaque. Appelée également fibrillation atriale, c'est l'une des maladies cardiaques les plus fréquentes après 60 ans. Ce trouble entraîne des irrégularités du rythme cardiaque liées à la perte de synchronisation des cellules de l'oreillette gauche et rend à risque de développer un caillot qui peut migrer n'importe où et expose à un risque plus grand de développer un AVC.
Le risque restant incertain et donc dangereux, les chercheurs américains viennent de trouver une formule permettant d'améliorer la prédiction du risque d'AVC. Jusqu'ici les cardiologues utilisent ce qu'on appelle le score HA2DS2-VASC qui comprend plusieurs facteurs comme l'âge, le sexe et la présence de certaines maladies cardiaques.
Cette fois les scientifiques se sont servis d'une autre formule appelée IMRS-VASc. En testant les deux formules sur des patients atteints d'arythmie cardiaque, le groupe d'étude s'est rendu compte que l'IMRS-VASc a placé les personnes avec un risque élevé dans la bonne catégorie avec un indice de confiance plus élevé que le score HA2DS2-VASC.
Selon les chercheurs, la découverte de cette nouvelle formule devrait permettre de mieux évaluer les personnes à risque afin de ne pas soumettre celles qui ne le nécessitent pas à un traitement inutile et sauver la vie de celles qui sont à risque élevé.
Article rédigé par Georges Simmonds pour RT Flash
Intermountain Healthcare
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|