|
|
Edito
Des profondeurs de la Terre à l’espace, l’énergie est partout…si nous savons l’utiliser…
En 2021, la consommation mondiale totale d’énergie (dont environ 20 % est électrique) a dépassé les 14 Gigatonnes d’équivalent-pétrole selon l’AIE, ou encore 168 000 TWH. En cinquante ans, cette consommation d’énergie a progressé de 118 %. La production d’énergie est responsable de l’essentiel de nos émissions humaines de CO2 qui dépassent à présent les 40 gigatonnes par an (en incluant les émissions liées aux sols et forêts) et cette demande mondiale d’énergie devrait très vraisemblablement augmenter encore d’environ 45 % d’ici 2050, sous le double effet de la croissance démographique (+ 2 milliards d’habitants sur Terre) et du développement économique notamment en Asie.
L’électricité d’origine géothermique représentait en 2020 environ 16 000 MW installés, soit une production d’environ 139 TWh par an (environ 0,5 % de la consommation électrique mondiale) mais la Banque mondiale estime que le potentiel global économiquement récupérable est d'au moins 90 GW, dont 29 GW pour la production électrique (le reste étant directement exploitable sous forme de chaleur), soit 1500 TWh par an, ce qui correspond à environ 5 % de la consommation électrique mondiale.
En 2022, le gouvernement allemand a publié une feuille de route, intégrant l'objectif, d'ici 2030, d'une production annuelle de 10 Twh de chaleur par géothermie, soit dix fois plus qu'actuellement. Pour ce faire, Berlin compte lancer « au moins 100 nouveaux projets géothermiques » dans le pays, qui dépend à 50 % du gaz pour se chauffer. La mégapole de Munich, qui compte 1,5 million d'habitants, multiplie ce type de projets. Un milliard d'euros sera investi d'ici 2035 pour atteindre la part de 50 % de chauffage fourni à la ville grâce à cette technologie.
Mais c’est de loin l’Italie qui reste la championne européenne de la géothermie, grâce à ses particularités géologiques et sismiques favorables. Ce pays a été le premier à mettre en service en 1911 une centrale électrique géothermique à Lardello, en Toscane, qui alimente aujourd’hui plus d’un million de foyers en électricité. Au niveau national, l’Italie produit 5 % de son électricité grâce à la géothermie, soit dix fois plus que la France.
Il y a un an, la France a décidé d’augmenter de 40 % le nombre de projets de géothermie profonde lancés d'ici 2030 et de doubler le nombre d'installations de pompes à chaleur géothermique chez les particuliers d'ici 2025. Le plan annoncé par le Gouvernement vise à faire de la France un leader de la géothermie en Europe et doit permettre de produire d’ici 2040 suffisamment de chaleur géothermale pour économiser 100 TWh/an de gaz, soit plus que les importations de gaz russe avant 2022. Quant à la production d’électricité géothermique, elle pourrait plus que quadrupler d’ici 2035, passant de 6,5 TWH à 28 TWH par an, soit environ 5 % de la consommation électrique prévue à cette échéance.
Dans la perspective de la première gigafactory française de batteries destinées au secteur automobile, le groupe Stellantis vient d’annoncer la signature d’une convention avec la start-up germano-australienne Vulcan pour la réalisation d’ici 2026 d’une centrale de géothermie profonde à Mulhouse (Haut-Rhin). Une étude de faisabilité technique va être engagée, pour vérifier la possibilité de fournir le site de fabrication des voitures du groupe en chaleur et en électricité, mais aussi d’extraire du lithium du sous-sol de Haute-Alsace, qui pourrait servir de matière première pour la production de batteries du groupe. Notons également que plusieurs agglomérations, dont Roanne, envisagent également de développer une exploitation conjointe de ressources en lithium et en géothermie.
Il y a quelques semaines, le cabinet français de conseil technologique CGG a proposé d’exploiter le potentiel énergétique des failles sous-marines en développant la géothermie sous-marine. On sait à présent que dans ces immenses failles sous-marines, dont la surface s’étend sur près de 65000 km2, le magma terrestre est relativement proche de la surface, car il se déverse en permanence à travers l’espace créé par l’écartement des plaques. Selon GGC, il serait possible techniquement de récupérer une partie de la chaleur extrême dégagée par ces failles. Mais CGG souligne que la majeure partie de cette énergie sera générée dans des secteurs isolés d’où il risque d’être compliqué et onéreux d’acheminer l’énergie extraite jusqu’aux régions en demande de consommation. CGG propose donc de capter l’eau douce issue de la vapeur qui circule dans les turbines et de la décomposer en l’électrolysant afin de produire de l’hydrogène vert. Celui-ci pourrait alors être utilisé directement ou converti en ammoniac pour une utilisation ultérieure. CGG a déposé une demande de brevet pour sa « nouvelle combinaison de technologies géologiques, géophysiques et d’ingénierie pour aider à explorer et développer ces ressources » (Voir CGG).
Il y a quelques jours, une étude menée par l’Université de Princeton et la startup Fervo Energy a montré que l’exploitation flexible des centrales géothermiques pourrait non seulement renforcer leur apport au réseau électrique mais aussi favoriser leur intégration dans un système énergétique décarboné. Pour atteindre cet objectif, l’étude propose une approche flexible de l'énergie géothermique, combinant l'énergie propre avec une “batterie” intégrée. Depuis ses origines, l’exploitation de l’énergie géothermique suppose des conditions géologiques spécifiques, limitant son application à des régions particulières dotées de roches chaudes et perméables proches de la surface terrestre. La contrainte géographique a confiné l’énergie géothermique traditionnelle à un statut de niche, avec une contribution de seulement 0,4 % à la production totale d’électricité aux États-Unis en 2022. Toutefois, les avancées dans les technologies de forage et de fracturation hydraulique ont ouvert la voie à une énergie géothermique améliorée, en élargissant de manière décisive l’accès à la chaleur terrestre. Cette étude menée par l’équipe de Princeton et Fervo Energy a identifié une nouvelle voie très prometteuse pour rendre l’énergie géothermique plus compétitive sur le marché : la flexibilité opérationnelle. En exploitant les capacités de stockage d’énergie inhérentes aux réservoirs géothermiques améliorés, il est possible, selon ces recherches, de générer plus ou moins d’énergie selon les besoins, augmentant ainsi considérablement la valeur de l’énergie géothermique en complémentarité avec les autres sources d’énergies renouvelables, qu’elles soient intermittentes, comme le solaire et l’éolien, ou continues, comme les énergies marines et l’hydrogène naturel (Voir Nature Energy).
Le rocher imperméable nécessaire à cette géothermie améliorée servirait en fait de réservoir souterrain autonome pour stocker le fluide chauffé. Cette grande capacité de stockage serait la clé de cette flexibilité reposant sur la modulation de l’exploitation de ces centrales pour adapter la production d’énergie en fonction de la demande finale d’électricité. Ce concept novateur pourrait permettre à l’énergie géothermique de représenter jusqu’à un tiers de la capacité énergétique propre installée dans l’ouest des États-Unis. Les tests sur le terrain réalisés par Fervo Energy dans son installation commerciale Project Red au Nevada ont démontré des capacités de stockage d’énergie sur une semaine et cette capacité pourrait atteindre plus de dix jours de stockage d’énergie, ce qui représente une avancée majeure par rapport aux systèmes actuel de stockage massif d’énergie.
Evoquons également le projet de forage islandais qui vise à atteindre une profondeur de 2 kilomètres et devrait commencer en 2026. Il permettra aux géologues d’obtenir des informations inédites sur le magma. Quant à la production d’énergie géothermique, elle pourrait faire un pas de géant grâce à un deuxième forage du Krafla, une fois que l’ouverture destinée à la recherche scientifique sera achevée. En creusant plus profondément que les sources géothermiques habituelles, les scientifiques espèrent avoir accès à une source d’énergie propre illimitée et peu chère à exploiter, à des températures et pressions inégalées. En atteignant accidentellement la poche de magma en 2009, les scientifiques Islandais ont fait remonter à la surface de la vapeur à plus de 450°C, un état dit "supercritique" à haut pouvoir énergétique. Selon ces scientifiques, deux puits supercritiques exploitant une telle vapeur suffiraient pour atteindre la puissance de 60 mégawatts que génère la centrale actuellement avec... 18 puits conventionnels. Le célèbre magazine américain "New Scientist" souligne que ce projet pourrait déboucher sur une nouvelle technologie, la géothermie magmatique, qui consisterait à forer des puits jusqu’à la frontière entre la roche cassante et celle en fusion, et à exploiter de la vapeur extrêmement chaude et sous haute pression pour actionner des turbines avec un rendement inégalé (Voir New Scientist).
A côté de la géothermie, qui prend un nouveau départ, l’hydrogène "blanc" ou naturel pourrait bien également venir bouleverser la donne énergétique mondiale à condition, là aussi, de savoir lever les verrous technologiques qui freinent l’exploitation à grande échelle de ce nouvel "or blanc". Actuellement, la consommation mondiale d’hydrogène est de l’ordre de 95 millions de tonnes par an et elle devrait être portée à au moins 650 millions de tonnes en 2050 pour permettre, en tant que vecteur énergétique puissant, de décarboner nos économies, selon un rapport des Nations unies.
En juin dernier, j’avais déjà évoqué, dans notre lettre, des chercheurs lorrains du CNRS qui ont trouvé, par hasard, d’énormes quantités d'hydrogène blanc dans les sous-sols du bassin minier autour du puits de Folschviller (Moselle). Ce gisement contiendrait, sous réserve de confirmation, entre 46 et 60 millions de tonnes d’hydrogène à l’état primaire, soit l’équivalent de la moitié de la consommation mondiale de ce gaz. L’espace concerné a fait l’objet d’un arrêté d’exploration en décembre dernier. Un autre gisement important a été découvert dans le Béarn et, si son exploration est concluante, l’exploitation de cet hydrogène blanc pourrait commencer dès 2026. Cinq autres dossiers, notamment dans les Pyrénées Atlantiques, l’Ain et le Puy-de-Dôme, sont actuellement en cours d’instruction par le Ministère de la Transition énergétique.
Ces ressources en hydrogène blanc pourraient constituer une formidable aubaine économique pour la France. D'autant qu'elles pourraient s'avérer gigantesques. Des études publiées en 2020 évaluent à 25 millions de tonnes par an le flux récupérable, soit un quart de la consommation mondiale actuelle d'hydrogène, selon Isabelle Moretti, chercheuse à l'université de Pau et des Pays de l'Adour et membre de l'Académie des technologies. Jusqu’à présent, le prix reste le principal frein au déploiement de l’hydrogène toute catégorie. La production par électrolyse de l’eau de l’hydrogène vert revient à environ 10 euros le kilo. Contre deux euros pour l’hydrogène "gris", issu des énergies fossiles. Mais l’hydrogène blanc est encore moins cher (entre 0,5 et 1 euro le kilo) et il présente l’avantage décisif d’être intrinsèquement propre. En outre, cet hydrogène blanc (ou naturel) peut, selon beaucoup de spécialistes, être considéré comme une énergie de flux, indéfiniment renouvelable sous l’effet de plusieurs processus géologiques encore mal connus. La société canadienne Hydroma extrait de l’hydrogène blanc depuis dix ans au Mali (c’est le seul gisement exploité actuellement dans le monde) et, pour l’instant, ce flux d’hydrogène exploité, pour moins d’un dollar le kg, n’a pas du tout diminué, ce qui tend à conforter l’hypothèse d’une production permanente d’hydrogène blanc qui vient renouveler le stock déjà présent.
Cette course mondiale à l’hydrogène blanc vient d’être relancée il y a quelques semaines par le géologue américain Geoffrey Ellis qui a révélé, lors de la réunion annuelle de l'Association américaine pour l'avancement de la science à Denver, que les réserves mondiales d’hydrogène naturel pourraient être de l’ordre de 5000 milliards de tonnes. Ellis souligne que, même si une grande partie de cet hydrogène reste difficilement accessible, il suffirait de pouvoir en récupérer 1 %, ce qui semble tout à fait envisageable techniquement, pour satisfaire pendant des siècles la demande mondiale annoncée au milieu de ce siècle, estimée de 500 à 700 millions de tonnes par an (Voir Hydrogen Insight). Depuis quelques mois, les recherches et découvertes ont progressé de façon spectaculaire partout dans le monde et de nouveaux gisements d’hydrogène naturel ont été découverts dans plusieurs pays. En France, le Président de la République a promis, il y a quelques semaines, que l’Etat engagerait tous les moyens nécessaires à l’exploration et l’exploitation des gisements d’hydrogène considérables qui ont été découverts dans notre pays.
Mais si les profondeurs de la Terre recèlent un énorme potentiel énergétique que nous commençons enfin à mesurer et exploiter, l’espace pourrait également nous permettre de disposer dans quelques décennies d’une énergie propre et inépuisable, si nous savons la capter. Récemment, une équipe de chercheurs du California Institute of Technology (Caltech) a franchi une étape significative en démontrant avec succès la transmission sans fil d’énergie solaire spatiale (Voir Arxiv). Cette avancée, matérialisée par le projet Space Solar Power Project (SSPP) de Caltech, pourrait ouvrir la voie à une nouvelle ère de production énergétique, offrant une solution potentielle aux limitations majeures des systèmes solaires terrestres (à savoir les conditions météorologiques). La mission SSPD-1, menée par le California Institute of Technology, a permis de valider de manière remarquable trois innovations technologiques. Premièrement, le dispositif MAPLE (Microwave Array for Power-transfer Low-orbit Experiment, c’est-à-dire le « Réseau de micro-ondes pour l’expérience en orbite basse avec transfert de puissance »). Ce système permet le transfert d’énergie depuis l’espace, sous forme d’ondes.
Deuxième innovation validée, l’expérience ALBA, qui a permis une évaluation approfondie de divers types de cellules photovoltaïques sous les conditions uniques de l’espace. En testant 32 variantes, les chercheurs ont pu distinguer les matériaux les plus performants et résilients, notamment en réaction aux conditions spatiales extrêmes telles que les éruptions solaires. Finalement, ce sont les cellules en arséniure de gallium qui se sont distinguées par leur robustesse et leur efficacité.
Enfin, le projet DOLCE (Deployable on-Orbit ultraLight Composite Experiment) a validé le concept d’une structure légère et déployable, capable de supporter à la fois les cellules solaires et les dispositifs de transmission d’énergie. Ce type de structure pourrait être déployé sous formes de modules en orbite, pour constituer de futures stations spatiales solaires géantes. La réussite de cette mission SSPD-1 jette donc les bases d’une formidable odyssée vers le solaire spatial à grande échelle. En prouvant la faisabilité du captage d’énergie solaire directement dans l’espace pour une transmission sans fil vers la Terre, cette technologie promet une source d’électricité propre, constante et inépuisable. Contrairement aux systèmes solaires terrestres, qui sont limités par le cycle jour/nuit, les saisons et les conditions climatiques, l’énergie solaire spatiale bénéficie d’une exposition solaire continue. Le solaire spatial, s’il est effectivement plus coûteux que le solaire terrestre, peut générer jusqu’à huit fois plus d’énergie que les installations solaires sur Terre. Ce concept de stations spatiales solaires géantes modulaires pourrait, plus tôt qu’on ne l’imagine, transformer profondément le paysage énergétique mondiale, en rendant l’énergie accessible même dans les régions les plus isolées. Le président de Caltech, Thomas F. Rosenbaum, souligne d’ailleurs que « L’énergie solaire rayonnée depuis l’espace est encore une perspective d’avenir. Mais cette mission critique a démontré qu’elle devrait être un avenir réalisable ».
Conscient de l’importance de cet enjeu énergétique et technologique majeur, la Chine, grand rival des USA, a également clairement affirmé son ambition de pouvoir produire de l’énergie solaire depuis l’espace. Un premier test au sol de son projet spatial a été réalisé avec succès, dans le cadre du projet chinois OMEGA (Orb-Shape Membrane Energy Gathering Array), lancé en 2014. L’objectif très ambitieux du projet chinois OMEGA est d’utiliser des satellites en orbite basse pour produire de l’énergie solaire depuis l’espace 24 heures sur 24 d’ici 2030. Un premier test sur le terrain du projet a été réalisé avec succès à l’Université chinoise de Xidian. Pour cet essai, les scientifiques chinois ont construit une tour en acier d’environ 75 mètres de haut qui utilise des faisceaux de micro-ondes à haute fréquence pour capter l’énergie solaire des satellites. Selon l’Université de Xidian, qui gère ce projet, la centrale solaire spatiale chinoise OMEGA serait « en avance sur la technologie américaine dans plusieurs domaines ».
On le voit, l’arrivée de ces nouvelles sources massives et inépuisables d’énergie propre, géothermie profonde, hydrogène naturel et solaire spatial, est en mesure de bouleverser complètement, en synergie avec la fusion contrôlée, l’éolien marin et le solaire terrestre, le paysage énergique mondial, en fournissant à l’Humanité des quantités illimitées d’énergie décarbonée. Mais pour parvenir à exploiter de manière sûre, rentable et à grande échelle, ces nouvelles sources prometteuses d’énergie, de nombreux défis technologiques restent à surmonter. Face aux Etats-Unis, à la Chine, au Japon et demain à l’Inde, l’Europe doit rapidement mobiliser toutes ses ressources humaines, financières et scientifiques pour rester dans cette compétition technologique, industrielle et économique vitale pour notre avenir, d’où sortira le nouveau monde que nous devons bâtir pour maîtriser le changement climatique et protéger l’environnement, tout en assurant les conditions nécessaires au développement humain et économique de la planète…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La Belgique se prépare à révolutionner le paysage énergétique mondial avec le lancement, prévu en mars 2024, de la construction de la première île énergétique artificielle au monde. Ce projet d'envergure, porté par Elia, le gestionnaire du réseau de transport d'électricité belge, a reçu l'approbation environnementale en octobre 2023, ouvrant la voie à une initiative qui promet de redéfinir les normes de production et de distribution d'énergie.
Baptisé "Princesse Élisabeth" en hommage à la fille aînée du roi Philippe de Belgique, le projet a été dévoilé en novembre 2022, suite à la Déclaration d'Esbjerg. Cette collaboration entre quatre pays de la mer du Nord, dont la Belgique, vise à renforcer leur puissance commune dans le domaine de l'éolienne offshore. L'île énergétique jouera un rôle central en tant que sous-station électrique pour les nouveaux parcs éoliens, ajoutant jusqu'à 3,5 gigawatts à la capacité existante. La singularité de cette initiative réside dans la capacité de l'île à recevoir l'électricité générée par les éoliennes en haute mer, à la traiter et/ou à stocker avant de la réacheminer à terre via des câbles sous-marins. L'île Princesse Élisabeth servira également d'interconnexion majeure avec le Danemark, le Royaume-Uni, et la Norvège.
L'emplacement choisi pour cette infrastructure visionnaire est situé à 45 kilomètres du littoral, au nord-ouest du port d'Ostende. Reposant sur six hectares de sable, soutenue par 23 caissons en béton, cette île artificielle garantira stabilité et durabilité. Des murs d'enceinte de plusieurs mètres de haut la protégeront des intempéries, assurant la sécurité des installations. Une caractéristique remarquable du projet est l'engagement d'Elia envers un design « inclusif pour la nature ». Dans le respect de la zone Natura 2000, des corniches accueilleront la mouette tridactyle, une espèce vulnérable. Sous la surface, des panneaux de relief créeront un récif artificiel, favorisant la biodiversité marine. Des ornements spécifiques encourageront également la croissance des huîtres, contribuant à l'épanouissement d'un écosystème marin florissant.
La fin des travaux est prévue pour août 2026, faisant de cette île énergétique un catalyseur majeur dans la transition vers des sources d'énergie plus durables. Au-delà de la réponse aux besoins croissants en électricité, elle jouera un rôle significatif dans la réduction des émissions de gaz à effet de serre, consolidant ainsi la position de la Belgique en tant que pionnière dans la lutte contre le changement climatique. Ce projet ambitieux transcende les frontières belges. En collaborant avec d'autres pays de la mer du Nord, la Belgique ouvre la voie à une coopération internationale dans le développement des énergies renouvelables. La réalisation de l'île énergétique Princesse Élisabeth représente un pas audacieux vers un avenir énergétique durable, où l'innovation et l'engagement envers l'environnement convergent pour créer un impact positif à l'échelle mondiale.
Article rédigé par Georges Simmonds pour RT Flash
Tameteo
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une étude montre que la chaleur dégagée par des grandes surfaces de panneaux solaires sombres crée des mouvements de convection qui, lorsque les conditions sont réunies, alimentent des nuages et entraînent un surplus de précipitations. Si les parcs solaires sont suffisamment grands, avec des panneaux photovoltaïques suffisamment sombres et que les conditions sont réunies, c’est bien ce qui pourrait se produire, d’après des modélisations décrites dans Earth System Dynamics.
Premier auteur de l’étude, Oliver Branch travaille dans un secteur émergent : l’étude de la façon dont les énergies renouvelables, facteurs clés dans la lutte contre le changement climatique, peuvent modifier les schémas météorologiques régionaux, créant des sortes de “microclimats”. Le chercheur et ses collègues ont examiné les conditions qui font que les mouvements de convection engendrés par la chaleur dégagée par d’immenses fermes solaires peuvent alimenter des nuages et entraîner des précipitations aux Émirats arabes unis (EAU). « Selon leur modélisation, des vents humides de haute altitude en provenance du golfe Persique permettraient d’arriver à ce résultat [des chutes de pluies] », indique Science.
L'étude montre que, lorsque les conditions sont réunies, un parc solaire de 20 kilomètres carrés entraînerait la formation de près de 600 000 mètres cubes de précipitations supplémentaires, soit l’équivalent d’un centimètre de pluie tombant sur une zone de la taille de Manhattan. Pour Zhengyao Lu, climatologue à l’université de Lund, en Suède, coauteur d’une étude sur des fermes solaires dans le Sahara publiée en 2020, les travaux d’Oliver Branch sont intéressants et la solution qu’il propose pourrait bien être réalisable. Il ne reste plus qu’à construire des fermes aussi grandes, ou à agrandir celles qui existent déjà. Oliver Branch et ses collègues ont déjà identifié d’autres zones du globe où ce type de système pourrait fonctionner. « Il espère que la capacité des grandes fermes solaires à provoquer des pluies incitera à construire de nouvelles installations ».
Article rédigé par Georges Simmonds pour RT Flash
EGU
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs canadiens ont montré que la mammographie par émission de positrons (PEM) pourrait potentiellement offrir un dépistage du cancer du sein plus fiable à un plus large éventail de patientes. La mammographie est un outil de dépistage efficace pour la détection précoce du cancer du sein, mais sa sensibilité est réduite dans les tissus mammaires denses. Cela est dû à l’effet masquant du tissu fibroglandulaire dense sus-jacent. Étant donné que près de la moitié de la population dépistée a des seins denses, bon nombre de ces patientes nécessitent une imagerie mammaire supplémentaire, souvent avec IRM, après la mammographie.
La mammographie par émission de positrons (PEM) à faible dose est une nouvelle technique d’imagerie moléculaire qui offre des performances diagnostiques améliorées à une dose de rayonnement comparable à celle de la mammographie. Pour l’étude, 25 femmes, d’âge médian 52 ans, récemment diagnostiquées avec un cancer du sein, ont subi une PEM à faible dose avec le radiotraceur fluordésoxyglucose marqué au fluor 18 (18F-FDG). Deux radiologues du sein ont examiné les images PEM prises une et quatre heures après 18Injection de F-FDG et corrélé les résultats avec les résultats de laboratoire.
La PEM a affiché des performances comparables à l’IRM, identifiant 24 des 25 cancers invasifs (96 %). Son taux de faux positifs n’était que de 16 %, contre 62 % pour l’IRM. Outre sa forte sensibilité et son faible taux de faux positifs, la PEM pourrait potentiellement réduire les coûts de santé en aval, car cette étude montre qu’elle peut éviter des travaux supplémentaires inutiles par rapport à l’IRM. De plus, la technologie est conçue pour délivrer une dose de rayonnement comparable à celle de la mammographie traditionnelle sans nécessiter de compression mammaire, ce qui peut souvent être inconfortable pour les patientes.
L’intégration de ces caractéristiques ; sensibilité élevée, taux de faux positifs inférieurs, rentabilité, niveaux de rayonnement acceptables sans compression et indépendance de la densité mammaire – ; positionne cette modalité d’imagerie émergente comme une avancée révolutionnaire potentielle dans la détection précoce du cancer du sein. « En tant que tel, il promet de transformer le diagnostic et le dépistage du cancer du sein dans un avenir proche, en complétant ou même en améliorant les méthodes d’imagerie actuelles, marquant ainsi une avancée significative dans les soins du cancer du sein ».
« Pour le dépistage, sa capacité à fonctionner efficacement quelle que soit la densité mammaire répond potentiellement à une lacune importante de la mammographie, en particulier dans la détection des cancers dans les seins denses où les lésions peuvent être masquées », a déclaré le Docteur Vivianne Freitas. « Il présente également une option viable pour les patients à haut risque qui sont claustrophobes ou ont des contre-indications à l’IRM ». La technologie pourrait également jouer un rôle crucial dans l’interprétation des résultats incertains de la mammographie, l’évaluation de la réponse à la chimiothérapie et la détermination de l’étendue de la maladie dans le cancer du sein nouvellement diagnostiqué, y compris l’implication de l’autre sein.
Le Docteur Freitas, qui est également radiologue à la Division d’imagerie mammaire du Département mixte d’imagerie médicale de Toronto, du Réseau universitaire de santé, du Sinai Health System et du Women’s College Hospital, étudie actuellement la capacité du PEM à réduire les taux élevés de faux positifs généralement associés avec des examens IRM. Si le PEM réussissait à réduire ces taux, il pourrait considérablement réduire la détresse émotionnelle et l’anxiété liées aux faux positifs, a déclaré le Docteur Freitas. De plus, cela pourrait conduire à une diminution des biopsies et des traitements inutiles.
Article rédigé par Georges Simmonds pour RT Flash
Auntminnie
|
|
|
|
|
|
|
|
On savait déjà, grâce à plusieurs études cohérentes, qu'une prise régulière de vitamine D et d'Omega-3 pouvait réduire sensiblement les risques de maladies cardiovasculaires et de certains cancers. Cette fois, une vaste étude américaine a montré qu'une supplémentation d'au moins cinq ans en vitamine D et Omega-3 était associée à une réduction de 22 % du risque de maladies auto-immunes .
Ces recherches menées par des chercheurs du Brigham & Women’s Hospital de Boston, Massachusetts, ont porté sur 21 592 participants. Elles ont notamment montré que, si l'effet protecteur de la vitamine D semble s'estomper rapidement après l'arrêt des supplémentations, il n'en va pas de même avec les Omega-3 dont les effets bénéfiques subsistent au moins deux ans après l'arrêt des supplémentations. L'étude montre également que l’effet protecteur de la vitamine D semble le plus fort pour le psoriasis, tandis que pour les acides gras oméga-3, les effets protecteurs étaient les plus forts pour la polyarthrite rhumatoïde et les maladies inflammatoires de l’intestin.
Article rédigé par Georges Simmonds pour RT Flash
ACR
|
|
|
|
|
|
|
|
En traitement de première intention du cancer du pancréas métastatique, l’administration de FOLFOX en alternance avec Nab-P/Gem, traitement de référence actuel, permet d’améliorer significativement la survie, au prix d’une certaine toxicité. Des résultats encourageants.
L’adénocarcinome du pancréas est la cinquième cause de décès par cancer en France et dans le monde. Son incidence est en augmentation rapide et a doublé en France ces 20 dernières années. En près de quarante ans, la survie à 5 ans des patients porteurs d’un cancer du pancréas a très peu progressé selon un registre américain. Les raisons principales sont connues : difficulté du diagnostic précoce et fréquence des métastases au moment du diagnostic. Les traitements à visée curative ne concernent que les formes localisées (10 à 20 %) et les patients porteurs d’un adénocarcinome du pancréas métastatique (APM) ne peuvent recevoir qu’une chimiothérapie à visée palliative si leur état l’autorise.
Dans cette situation, la chimiothérapie permet un gain de survie de quelques mois mais la médiane de survie globale n’atteint pas un an. Se basant sur des résultats de l’essai de phase 1 SEQUENCE, qui montre des profils de tolérance et de réponse clinique satisfaisants, des équipes espagnoles ont voulu comparer l’efficacité d’une chimiothérapie séquentielle à celle d’un protocole de référence (Nab-P/Gem) chez des patients non antérieurement traités et porteurs d’un APM au moment du diagnostic.
Entre juillet 2017 et avril 2019, l’étude menée dans 14 centres a enrôlé 182 patients dont 157 ont finalement pu être randomisés 1 : 1 et répartis en deux groupes. Le groupe 1 (n = 78) était traité par Nab-P/Gem (nab-paclitaxel 125 mg/m2 et gemcitabine 1000mg/m2 à J 1, J 8 et J 15), suivi à J 29 par le protocole mFOLFOX ou FOLFOX modifié (oxaliplatine 85 mg/m2, L-leucovorine : 200 mg/m2 ou leucovorine : 400 mg/m2, 5 fluoro-uracile en bolus 400 mg/m2 puis 2400 mg/m2 en perfusion continue de 48 heures) sur des cycles de 6 semaines jusqu’à progression de la maladie. Le groupe 2 était le bras contrôle, traité par Nab-P/Gem à J 1, J 8 et J 15 sur un cycle de 4 semaines.
Le taux de survie globale à 12 mois, critère principal d’évaluation, était de 55,3 % pour les patients du groupe 1, contre 35,4 % pour les patients du groupe 2. De la même façon, le taux de survie à 2 ans était de 22,4 % pour les patients du groupe 1, contre 7,6 % pour ceux du groupe 2. Les auteurs concluent leur étude en estimant que l’ajout de la chimiothérapie par mFOLFOX au protocole de référence (Nab-P/Gem) permet un gain de survie significatif au prix d’une plus forte toxicité.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Pour la première fois au Royaume-Uni, des patients atteints de cancer vont bénéficier de la technologie de l’ARN messager contre leur cancer. Une thérapie génique à ARNm a en effet été administrée à des patients de l’hôpital Hammersmith, à l’ouest de Londres. Il s’agit d’un essai clinique de phase 1/2, visant à déterminer la toxicité, la tolérance et l’efficacité de cette nouvelle approche dans le traitement du mélanome, du cancer du poumon et d’autres tumeurs solides.
Ce traitement utilise donc du matériel génétique, en l’occurrence de l’ARM messager, et fonctionne en présentant au système immunitaire du patient des marqueurs semblables à ceux des tumeurs, pour aider les défenses de l’organisme à mieux reconnaître et combattre les cellules cancéreuses portant ces marqueurs. Dans ce sens, il s’agit d’une nouvelle forme d’immunothérapie. « Les nouvelles immunothérapies anticancéreuses basées sur l’ARNm offrent une possibilité de recruter le système immunitaire du patient pour combattre son cancer », a résumé le Docteur David Pinato, de l’Imperial College de Londres. Le chercheur a précisé que la communauté scientifique avait « désespérément besoin » de ce type d’essai clinique pour « inverser la tendance contre le cancer », en développant des thérapies anticancéreuses moins toxiques et plus précises.
À ce stade, il n’est évidemment pas question de commercialisation. L’objectif est d’évaluer si cette thérapie à ARNm est sûre et bien tolérée par les patients, qu’elle soit administrée seule ou en association avec un anticancéreux existant (appelé pembrolizumab). Plusieurs vaccins contre le cancer utilisant la technologie de l’ARN messager sont en phase de développement dans le monde. On peut les classer en deux catégories, comme le détaille l’Imperial College de Londres : d'un part, les immunothérapies anticancéreuses personnalisées, reposant sur l’extraction du matériel génétique du patient à partir de ses tumeurs ; d'autre part, les immunothérapies thérapeutiques “prêtes à l’emploi”, comme celle dont il est question ici, qui sont adaptées à un type particulier de cancer. Dans les deux cas, il s’agit de booster le système immunitaire pour l’aider à cibler et tuer les cellules cancéreuses.
Article rédigé par Georges Simmonds pour RT Flash
Imperial
|
|
|
|
|
|
|
|
Des chercheurs allemands du German Cancer Research Center (Deutsches Krebsforschungszentrum, DKFZ) ont identifié certains modèles de méthylation comme biomarqueurs de la charge de cellules cancéreuses dormantes et donc du risque de développement ou de récidive d’une tumeur. Des conclusions, présentées dans la revue Nature Cancer, qui pourraient donc révolutionner la gestion des cancers.
La recherche porte précisément sur le comportement des cellules tumorales qui se propagent au niveau du site de métastase : certaines cellules tumorales commencent immédiatement à former des métastases. D’autres quittent le vaisseau sanguin et peuvent alors entrer dans une longue période de dormance. Ce qui détermine le chemin emprunté par les cellules cancéreuses, c’est leur statut épigénétique. Les chercheurs confirment également ce point par des expériences sur des cellules tumorales humaines.
Ce qui rend le cancer si dangereux, expliquent ces scientifiques du DKFZ, avec leurs collègues de l'Université de Heidelberg, ce sont ces cellules cancéreuses qui quittent la tumeur primaire pour atteindre des sites distants du corps où elles peuvent se développer en tumeurs "filles", ou métastases. Même si la plupart des tumeurs primitives peuvent être traitées efficacement, les métastases sont plus complexes à gérer. Les oncologues estiment que plus de 90 % des décès par tumeurs solides sont dus à des métastases.
Cette équipe allemande travaille depuis des décennies pour comprendre et prévenir la propagation des cellules tumorales et identifier les mécanismes qui permettent à une cellule cancéreuse de survivre dans un organe distant et de se transformer finalement en métastase. L’équipe a développé une méthode permettant d'observer le comportement des cellules cancéreuses migrantes chez la souris, immédiatement après leur arrivée dans l'organe métastatique, en l'occurrence le poumon.
Cette analyse révèle que certaines cellules tumorales, une fois arrivées dans l’organe métastatique, quittent le vaisseau sanguin et entrent dans un état de repos ou dormance ; d’autres cellules cancéreuses commencent à se diviser directement dans le vaisseau sanguin et se transforment en métastases ; le sort des cellules tumorales métastasées est contrôlée par les cellules endothéliales qui tapissent l’intérieur de tous les vaisseaux sanguins : ces cellules libèrent des facteurs de la voie de signalisation Wnt qui favorisent la sortie des cellules tumorales du vaisseau sanguin et déclenchent ainsi la latence ; lorsque les chercheurs "désactivent" les facteurs Wnt, la latence est éliminée.
Ces recherches montrent également que la méthylation de l’ADN diffère entre ces 2 types de cellules ; les cellules tumorales, dont l'ADN était moins méthylé, répondent de manière sensible aux facteurs Wnt, ce qui entraîne une extravasation du vaisseau sanguin et une latence ultérieure ; en revanche, les cellules cancéreuses les plus méthylées ne répondent pas aux facteurs Wnt, restent dans le vaisseau sanguin et amorcent immédiatement une croissance métastatique. L’examen de l’état de méthylation de l’ADN de diverses lignées de cellules tumorales confirme que le statut épigénétique est, en effet, directement corrélé au potentiel métastatique. L’étude ouvre la voie à de nouvelles applications diagnostiques et thérapeutiques et pourrait avoir des implications considérables dans la gestion des tumeurs solides.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une étude américaine a montré qu'une activité physique même modérée est associée à une augmentation des volumes cérébraux, ce qui indique de potentiels effets neuroprotecteurs. Les régions du cerveau concernées – la matière grise, la matière blanche, l'hippocampe, et les lobe frontal, pariétal et occipital – sont responsables de la mémoire, de l'apprentissage ou encore des capacités de décision. Même si un "gros" cerveau ne garantit pas forcément une fonctionnalité cognitive accrue, il est souvent considéré comme un bon indicateur de l'évolution des capacités cognitives.
L'étude a inclus 10 125 participants en bonne santé (53 ans en moyenne, une moitié de femmes). Les trois quarts d'entre eux ont déclaré pratiquer une activité physique modérée ou vigoureuse environ quatre jours par semaine, définie par des activités augmentant la respiration et le pouls pendant au moins 10 minutes continues comme la marche et la course à pied. La recherche a examiné leurs scanners cérébraux (par IRM) et a mis en évidence que les personnes sportives avaient des volumes cérébraux plus importants que les autres. Si les "10 000 pas par jour" sont populaires, 4 000 pas au quotidien seraient suffisants pour présenter un effet positif sur la santé du cerveau d'après les chercheurs.
Avec l'âge, cet effet bénéfique est de plus en plus important car la possibilité de développer une maladie neurodégénérative (comme la maladie d’Alzheimer) s'accroît. Les chercheurs estiment que des volumes cérébraux plus importants peuvent aider à retarder le déclin cognitif qui accompagne ces maladies. « Non seulement l'exercice physique réduit le risque de démence, mais il contribue également à maintenir la taille du cerveau, ce qui est crucial à mesure que nous vieillissons », conclut le radiologue Cyrus Raji, de l'université Washington à Saint-Louis.
Article rédigé par Georges Simmonds pour RT Flash
JAD
|
|
|
|
|
|
|
|
Des chercheurs australiens de l'Université Monash ont annoncé une avancée décisive contre le lupus érythémateux, une maladie auto-immune chronique et invalidante qui touche 5 millions de personnes dans le monde et 20 000 en France. Ces scientifiques sont parvenus à identifier puis à reprogrammer les cellules T-regs inefficaces des patients atteints de lupus, ce qui a permis de restaurer leur capacité à désactiver les réponses immunitaires indésirables. « Nous avons été en mesure d’arrêter complètement le développement de la néphrite lupique, sans l’utilisation des médicaments immunosuppresseurs habituels non spécifiques et nocifs ».
Le Docteur Peter Eggenhuizen et le Docteur Rachel Cheong, qui ont dirigé ces travaux, sont convaincus que la nouvelle méthode peut être développée pour jusqu’à 100 autres maladies auto-immunes telles que le diabète, la polyarthrite rhumatoïde, la sclérose en plaques, le syndrome de Gougerot-Sjögren. sclérodermie et myasthénie grave.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
|
|
|
|
|
|
Des chercheurs américains ont annoncé un nouveau traitement plein de promesses contre la maladie de Charcot, mortelle et pour l’instant sans cure efficace connue. Celle qui est aussi appelée sclérose latérale amyotrophique (SLA) touche environ 30 000 personnes aux États-Unis, et entre 5 000 et 7 000 personnes en France. Elle provoque une paralysie progressive des muscles, créant un état d’enfermement du malade, et cause généralement la mort en moins de cinq ans.
Dans l’étude publiée par la revue scientifique PLOS Biology, une équipe de chercheurs dit avoir étudié un moyen de cibler et de stabiliser une protéine qui protège les cellules des éléments toxiques issus de la nourriture ou de l’inhalation d’oxygène. Dans de nombreux cas, ce sont des mutations héréditaires d’un gène qui produit la protéine en question qui sont à l’origine de la maladie de Charcot. Mais ces mutations peuvent aussi survenir sans antécédents familiaux. Les mutations de ce gène, SOD1, entraînent un mauvais assemblage de la protéine qui l’empêche d’accomplir ses tâches et dérègle la machinerie cellulaire au sens large, entraînant un amas de protéines qui sont aussi liées à, entre autres, la maladie d’Alzheimer et celle de Parkinson.
Le nouveau traitement est un « stabilisateur moléculaire » qui agit comme un « point de suture » et oblige la protéine à rester dans sa bonne configuration, a expliqué le directeur de l’étude, Jeffrey Agar, qui a découvert et testé avec son équipe cet outil après 12 années de recherche. La maladie de Charcot concerne 8 000 patients en France, selon l’Association pour la recherche sur la SLA. Son incidence annuelle s’élève à 2,7 cas pour 100 000 habitants. Il s’agit d’une pathologie neurodégénérative rare qui se caractérise par la destruction des neurones responsables de la motricité, les motoneurones.
La molécule a été testée sur des souris – génétiquement modifiées pour qu’elles soient porteuses de la maladie – et les chercheurs ont constaté qu’elle rétablissait non seulement les fonctions de la protéine, mais qu’elle stoppait aussi tout effet toxique secondaire. Son efficacité a aussi été prouvée sur des rats et des chiens. Elle a réussi à stabiliser 90 % des protéines SOD1 dans les cellules sanguines et 60 à 70 % dans les cellules cérébrales. Les chercheurs espèrent maintenant obtenir l’autorisation de passer à des essais cliniques chez l’homme. S’il n’existe à ce jour aucun traitement neuroprotecteur efficace pour l’ensemble des patients, une autorisation anticipée de mise sur le marché a été délivrée en avril 2023 aux États-Unis pour un médicament (Qalsody du laboratoire Biogen) visant certaines formes seulement de la maladie.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
|
|
|
|
|
|
|
|
Il manipule seul les poches, flacons et seringues, à l’abri du regard des patients. Trois ans après l’arrivée d’un premier modèle au sein du célèbre centre de lutte contre le cancer Gustave-Roussy à Villejuif (Val-de-Marne), une dizaine d’établissements de santé français sont désormais équipés d’un robot en préparation de chimiothérapie. Le dernier en date est opérationnel depuis deux mois au sein du CHU de Nantes. Très peu connues du grand public, y compris des malades du cancer, ces étonnantes machines dotées d’un bras articulé ont pour but d’assembler, à la place de l’humain, une partie des solutions médicamenteuses destinées aux chimiothérapies.
« Ce sont des tâches extrêmement précises qu’il faut répéter plusieurs dizaines de fois par jour à la main. La sécurité sanitaire est telle que les manipulations s’effectuent avec trois paires de gants, les bras tendus, à travers une vitre de protection. C’est contraignant et ça peut générer des troubles musculo-squelettiques (TMS) pour les personnes qui s’en occupent », explique François Rondeau, chef du pôle santé publique et pharmacie du CHU de Nantes. « J’ai plusieurs collègues qui ont des douleurs à la longue, notamment aux articulations », confirme Charline, préparatrice en pharmacie hospitalière depuis plus de dix ans.
Utilisé pour 25 % à 40 % de l’activité, en particulier pour les préparations récurrentes, le robot, qui reconnaît les produits par un système de lecture optique, permet donc une « baisse drastique des gestes répétitifs » des opérateurs concernés. Son arrivée permettrait aussi de « réduire les temps de préparation » des chimiothérapies et « d’anticiper certaines prises en charge », selon l’hôpital public nantais, qui réalise près de 50.000 préparations médicamenteuses par an pour les soins en cancérologie.
« Le robot est extrêmement précis et fiable. La prise en main de l’outil a également été plus rapide que ce qu’on imaginait. C’est un réel progrès dans un contexte où les besoins en chimiothérapie augmentent chez nous de 6 % en moyenne chaque année », constate Nicolas Cormier, responsable du secteur de pharmacotechnie du CHU de Nantes.
La technologie, fabriquée par huit industriels dans le monde, n’est toutefois pas donnée. Le robot nantais, mis au point par la société italienne Loccioni, a, par exemple, nécessité un investissement « conséquent » de 400.000 euros (hors maintenance). Comme dans la plupart des établissements de santé où il a fait son apparition, il abat aujourd’hui un volume de travail équivalent à deux à trois préparateurs en pharmacie à temps plein. « Il ne peut pas agir tout seul. Il faut une personne en permanence avec lui pour l’approvisionner et le diriger. C’est la création d’un nouveau métier », précise Nicolas Cormier.
Les autres postes de préparateurs compensés par le robot sont généralement réaffectés à des missions de contrôles analytiques. « Avec cette réorganisation, on renforce encore la sécurité de nos traitements », justifie François Rondeau. « Il était hors de question de profiter du robot pour toucher à l’effectif. Ce n’est pas du tout comme ça qu’on a construit le projet. » Voilà sans doute pourquoi le robot, est, pour l’instant, plutôt bien accueilli par les équipes. « C’est une autre manière de travailler, on se dégage du temps pour faire d’autres choses intéressantes », considère Charline, qui a été formée au robot après un appel aux volontaires.
Article rédigé par Georges Simmonds pour RT Flash
20 minutes
|
|
|
|
|
|
|
|
Des résultats très encourageants ont été annoncés pour une thérapie expérimentale à base de cellules neurales dans l’épilepsie lors du congrès annuel 2023 de l'American Academy of Neurology (AAN) et confirmées par la suite. Cette nouvelle piste thérapeutique a entraîné une réduction de plus de 90 % des crises chez deux patients atteints d'épilepsie du lobe temporal mésial résistante aux médicaments, lors du premier test chez l'homme. « Il est remarquable que la réduction significative et précoce des crises observée dans cette étude semble être durable chez ces deux premiers patients traités avec une seule administration de NRTX-1001 », a déclaré l’auteur principal, le Docteur Robert Beach, dans un communiqué de presse.
« Il est également encourageant de constater que le premier patient n'a plus eu de crises invalidantes à partir du deuxième mois et qu'il a amélioré ses performances de mémoire lors de plusieurs tests cognitifs, car les difficultés mémorielles peuvent être un problème pour les personnes atteintes d'épilepsie du lobe temporal mésial résistante aux médicaments », a déclaré le Docteur Beach, chef du service d'épilepsie et professeur de neurologie à l'Université médicale SUNY Upstate de Syracuse, dans l'État de New York. La thérapie NRTX-1001 (Neurona Therapeutics) consiste en une dose unique d'une suspension injectable d'interneurones inhibiteurs de haute pureté qui sécrètent le neurotransmetteur inhibiteur acide gamma-aminobutyrique (GABA).
Les interneurones sont destinés à s'intégrer et à s'innerver sur la cible, fournissant une inhibition “GABAergique” à long terme pour réparer les réseaux neuronaux hyperexcitables. Les travaux précliniques menés sur des modèles animaux souffrant d'épilepsie ont permis de confirmer l'innocuité et l'efficacité du renforcement de l'inhibition dans le foyer épileptique à l'aide d'interneurones inhibiteurs humains implantés. Cette thérapie est « potentiellement réparatrice et non destructrice, comme la procédure chirurgicale appliquée à l'épilepsie », a déclaré David Spencer, docteur en médecine, professeur de neurologie et directeur du Comprehensive Epilepsy Center de l'Oregon Health & Science University (Portland, États-Unis) lors d'une conférence de presse.
Chez les deux premiers patients, les cellules ont été implantées dans le foyer de la crise à l'aide d'un guidage par IRM par une minuscule ouverture à l'arrière du crâne. Les patients se sont rétablis pendant la nuit et sont rentrés chez eux le lendemain. Le premier patient avait des antécédents d'épilepsie pharmacorésistante depuis 9 ans et faisait en moyenne 30 crises par mois au début de l'étude. Les tests ont confirmé que les crises provenaient d'un seul foyer dans le lobe temporal droit. L'implantation s'est déroulée sans complication et les cellules ont été délivrées au foyer épileptique de manière ciblée.
À ce jour, il n'y a pas eu d'effets indésirables graves ou inattendus liés à l'implantation. Après neuf mois de suivi, le patient a connu une réduction globale de 93 % des crises et n'a plus aucune crise entraînant une altération de la conscience, « ce qui était le type de crise le plus débilitant pour ce patient », a indiqué le Docteur Spencer. Des études du métabolisme cérébral dans la zone de l'implant ont montré des marqueurs favorables d'inhibition accrue et de diminution de l'inflammation. Les tests cognitifs effectués à six mois n'ont révélé aucune aggravation de la fonction de mémoire ou de la cognition. En fait, il y a même eu de légères améliorations, a-t-il ajouté. Le second patient avait un historique de 8 ans d'épilepsie résistante aux médicaments, avec une moyenne de 14 crises focales par mois au départ. Les tests ont également confirmé l'apparition de crises dans un seul foyer du lobe temporal droit et les cellules ont à nouveau été implantées sans complication sur la cible. Cinq mois après le traitement, le patient a enregistré une réduction de 94 % des crises et n'a pas connu d'effets indésirables graves.
D'après des données plus récentes (octobre 2023), une réduction de plus de 95 % du nombre total de crises un an après l'administration du NRTX-1001 est observée chez les deux patients et aucun nouveau signal de sécurité n'a été signalé. L'épilepsie touche environ 3,5 millions de personnes aux États-Unis. Environ deux tiers des personnes atteintes d'épilepsie parviennent à bien contrôler leurs crises à l'aide de médicaments anticonvulsivants. Pour les crises qui ne sont pas contrôlées par les médicaments, l'identification du foyer épileptique et son ablation chirurgicale permettent souvent d'éliminer les crises chez un grand nombre de patients. Néanmoins, tous les patients ne sont pas candidats à l’intervention chirurgicale pour l'épilepsie et pour ceux qui peuvent y avoir recours, l'opération elle-même comporte certains risques, notamment une diminution de la cognition et de la mémoire.
Compte tenu des résultats positifs obtenus chez les deux premiers patients, d'autres patients seront traités « avec un examen minutieux de la sécurité tout au long du processus. Ce traitement sera mis en œuvre au cours des prochaines années », a noté le Docteur Spencer. Le recrutement des patients est en cours dans les centres d'épilepsie à travers les États-Unis.
Article rédigé par Georges Simmonds pour RT Flash
CGTlive
|
|
|
|
|
|
|
|
Plus de 47.000 personnes sont touchées par le cancer colorectal chaque année en France, d’après des chiffres de l’Institut National du Cancer. Des travaux scientifiques en cours pourraient bouleverser leur prise en charge. La Royal Surrey Foundation Trust, de la NHS, le service de santé britannique, va prochainement tester un vaccin contre le cancer colorectal, destiné aux patients récemment diagnostiqués. Si les résultats sont positifs, le sérum pourrait être disponible d'ici à deux ans.
« Le vaccin sera utilisé pour traiter les patients avant la chirurgie, dans l'espoir qu'il provoquera l'attaque du cancer par l'organisme », précisent les scientifiques britanniques dans un communiqué. « Cela signifierait que toute chirurgie serait moins invasive ». Les chercheurs espèrent même que la vaccination permettra d’éviter un retrait de la tumeur par opération chirurgicale. Pour le Docteur Tony Dhillon, oncologue et directeur de cet essai, le sérum pourrait avoir un effet radical sur la maladie : « Nous pensons que chez beaucoup de ces patients, le vaccin éliminera complètement le cancer ». Dans le communiqué, les auteurs ajoutent que le produit pourrait aussi avoir des effets positifs sur le risque de récidive en aidant le système immunitaire à réagir en cas de rechute. Son action repose sur l’acivation des cellules immunitaires, les lymphocytes T et B. Il est fabriqué par la société de biotechnologie Imugene, spécialisée dans l’utilisation de l’immunité en oncologie.
L’essai sera géré par des chercheurs de l’université de Southampton au Royaume-Uni et une équipe de scientifiques australiens, de l’hôpital Queen Elizabeth à Adelaïde. Les participants seront des personnes atteintes d’un cancer colorectal de stade 2 ou 3, soit avant la propagation de la maladie dans le corps. Au total, 44 patients participeront à cet essai sur 18 mois : tous subiront une endoscopie, puis un prélèvement d’échantillon de tissu, pour vérifier leur éligibilité à l’essai. Le vaccin sera ensuite administré en trois doses à deux semaines d’intervalle. Après l’essai, le sérum pourrait être testé dans une plus vaste étude ou autorisé à l’administration. « Il s'agit du premier vaccin thérapeutique contre un cancer gastro-intestinal et nous avons de grands espoirs qu'il connaîtra un grand succès », avance Docteur Tony Dhillon.
Article rédigé par Georges Simmonds pour RT Flash
NHS
|
|
|
|
|
|
|
|
Après l’avoir détecté au moyen d’une IRM cérébrale, le diagnostic exact du cancer du cerveau se fait généralement par prélèvement d’un échantillon de la tumeur, au cours d’une intervention chirurgicale délicate qui n’est pas sans risque pour les patients vulnérables. Un simple test sanguin, premier du genre, conçu par les chercheurs du Brain Tumor Research Centres of Excellence, au Royaume-Uni, pourrait bien changer la donne en matière de détection précoce de tumeur cérébrale, qui touche 3.500 nouvelles personnes chaque année en France.
Leurs travaux se sont appuyés sur une étude clinique menée sur des centaines de patients atteints d’un cancer du cerveau. Le test sanguin en question, baptisé TriNetra-Glio, fonctionne en isolant les cellules tumorales qui se sont échappées de la tumeur et circulent dans le sang. Ces cellules isolées sont ensuite colorées et peuvent être identifiées au microscope. « Ce test sans risque n'est pas seulement un indicateur de maladie, c'est une biopsie liquide véritablement diagnostique », explique le neurochirurgien Kevin O'Neill, co-auteur de l’étude. « Il détecte les cellules tumorales intactes circulant dans le sang, qui peuvent alors être analysées avec la même précision cellulaire qu'un échantillon de tissu réel ». On peut ainsi déterminer le type exact de la tumeur du cerveau.
D’après les chercheurs, TriNetra-Glio peut faire une « énorme différence pour les patients suspectés d’avoir des gliomes de haut grade (GHG) », des formes de tumeur cérébrale associées à un faible taux de survie, comme les glioblastomes, les astrocytomes et les oligodendrogliomes. En plus de conduire « à un diagnostic plus précoce de leur type de tumeur, à un traitement sur mesure plus rapide et à une augmentation potentielle de leurs chances de survie », cela permettrait d’éviter les biopsies chirurgicales trop risquées, notamment pour les personnes souffrant de problèmes de santé sous-jacents. L’équipe prévoit maintenant de réaliser une étude plus vaste, toujours au Royaume-Uni, avec l’espoir que les patients puissent bénéficier de ce test sanguin "révolutionnaire" d’ici à seulement deux ans.
Article rédigé par Georges Simmonds pour RT Flash
IJC
|
|
|
|
|
|
|
|
La protéine myc fait partie de l'activité des cellules saines, mais lorsque les cellules cancéreuses se développent, elle se dérègle, abandonne son rôle normal pour favoriser la propagation du cancer ; des scientifiques ont peut-être trouvé un moyen d’empêcher cela. « Normalement, l'activité de myc est strictement contrôlée. Dans les cellules cancéreuses, elle devient hyperactive et n'est pas régulée correctement », explique le biochimiste Min Xue. En parvenant à endiguer l’activité de myc, les chercheurs espèrent parvenir à une méthode qui permettrait d’arrêter l’un des moyens par lesquels le cancer détourne des processus biologiques sains afin de survivre.
Le problème de la maîtrise de myc réside en partie dans le fait qu'il s'agit d'une protéine informe, qui n'a pas vraiment de structure pouvant être ciblée. Il est donc difficile pour les médicaments d'identifier efficacement myc et de l'empêcher de se comporter normalement. Toutefois, une équipe de l'université de Californie à Riverside (UCR) a réussi à mettre au point un composé peptidique capable de se lier ou d'interagir avec myc et de l'aider à reprendre le contrôle. « Myc est moins une nourriture pour les cellules cancéreuses qu'un stéroïde qui favorise la croissance rapide du cancer », explique M. Xue, qui travaille pour l’UCR. « C'est pourquoi myc est coupable dans 75 % de tous les cas de cancer chez l'humain », ajoute-t-il.
M. Xue indique que l’importance de myc relativement au cancer fait en sorte que neutraliser son activité délétère constitue l’un des « Saints-Graals du développement de médicaments anticancéreux ». Il ajoute qui plus est que lui et ses collègues sont tout particulièrement « enthousiastes » qu’un tel remède soit désormais à leur portée. Les chercheurs ont pu étudier les petites quantités de structure que possède myc afin de constituer une bibliothèque de peptides susceptibles de s'accrocher à cette structure. Un peptide en particulier, le NT-B2R, s'est avéré tout spécialement efficace pour désactiver myc.
NT-B2R se lie en effet avec succès à myc et modifie ce faisant la façon dont ses cellules régulent un grand nombre de leurs gènes, diminuant par le fait même le métabolisme et la prolifération des cellules cancéreuses. La clé de cette percée réside dans des travaux antérieurs réalisés par certains des mêmes chercheurs, qui ont constaté qu'en modifiant la structure et la forme des peptides, ces molécules devenaient plus aptes à interagir avec des protéines informes telles que myc. « Les peptides peuvent prendre une grande variété de formes et de positions. Une fois que vous les pliez et les reliez pour former des anneaux, ils ne peuvent pas adopter d'autres formes possibles, ce qui leur confère un faible niveau d'aléatoire. Cela facilite la liaison », explique M. Xue. « Nous avons amélioré de deux ordres de grandeur les performances de liaison de ce peptide par rapport aux versions précédentes. Cela nous rapproche de nos objectifs de développement de médicaments », mentionne-t-il.
Article rédigé par Georges Simmonds pour RT Flash
TVA
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|