|
|
|
|
|
NUMERO 972 |
|
|
|
|
|
|
|
Edition du 26 Octobre 2018
|
|
|
|
|
Edito
Les transports de demain
Dans le débat qui se développe autour de la question de l’avenir des transports dans le monde, on se focalise surtout sur la problématique de la voiture autonome. Il s’agit certes d’une rupture technologique et sociétale très importante qui se profile, mais elle ne doit pas faire oublier que les transports vont connaître dans les vingt ans qui viennent d’autres révolutions tout aussi importantes que je voudrai évoquer cette semaine, notamment dans le domaine des transports urbains, des transports ferroviaires et des transports aériens.
A Lyon, dans le quartier en pleine mutation de la Confluence, les navettes NAVLY sont expérimentées avec succès depuis 2016, sur un trajet ouvert d’1,3 km. Ces navettes entièrement autonomes ont parcouru plus de 14 000 km et transporté 22 000 passagers, sans connaître d’incident majeur. En constante évolution technologique, ces navettes vont intégrer le protocole de communication V2X, qui permet aux véhicules de dialoguer entre eux. Les utilisateurs de ces navettes disposent également à présent d’une application sur smartphone qui leur permet d’utiliser de manière optimale ce moyen de transport futuriste.
Dans ce même quartier de la Confluence, une nouvelle expérimentation novatrice a démarré il y a quelques semaines, dans le cadre du projet européen Esprit. Il s’agit d’un système d’autopartage qui repose sur l’utilisation modulable de petits véhicules électriques de deux ou trois places frontales, qui peuvent facilement s’emboîter pour former un petit train. L’idée est de pouvoir adapter en temps réel l’offre de transport à l’évolution très changeante de la demande tout au long de la journée.
En 2016, la région Ile-de-France a également expérimenté avec succès ces navettes autonomes sur le Pont Charles de Gaulle, avec plus de 30 000 voyageurs. Depuis l’année dernière, la navette autonome et électrique de Navya et Keolis est également expérimentée à la Défense et sur le site propre de Saclay. A Vincennes, un test encore plus ambitieux a commencé il y a quelques mois et utilise ces navettes autonomes pour relier le Parc floral et la station Château de Vincennes.
Dans la région Grand-Est, après l’expérimentation réussie de navettes autonomes dans le centre-ville de Verdun cet été, les métropoles de Metz et Thionville viennent d’annoncer qu’elles allaient déployer rapidement ce type de navettes autonomes pour enrichir et améliorer leur offre de transports urbains.
En Normandie, Renault et l'opérateur de transports publics Transdev ont lancé fin juin à Rouen un service expérimental de navettes autonomes circulant à la demande au milieu de la circulation. Le Rouen Normandy Autonomous Lab doit desservir finement tout un quartier depuis le terminus du tramway à Saint-Etienne-du-Rouvray, dans la banlieue rouennaise. Concrètement, les usagers peuvent commander un véhicule depuis l'un des arrêts, grâce à une application baptisée Nestor, disponible sur leur smartphone. Ils sont transportés par quatre voitures autonomes Renault Zoé électriques, auxquels s'ajoutera ultérieurement une navette autonome i-Cristal codéveloppée par Transdev et le groupe alsacien Lohr.
Dans la région Pays de Loire, les Nantais peuvent tester, depuis juin dernier l'utilisation d'une navette électrique autonome sur un parcours de 650 mètres, entre la station de tramway Gare Maritime et la carrière Misery, à Chantenay. D'une capacité de 15 places, cette navette se déplace à une vitesse maximale de 18 km/h, mais l’objectif affiché est de pouvoir faire rouler ces véhicules à 30 km/h en zone urbaine, et au milieu de la circulation.
Du côté du transport de marchandises, une autre révolution technologique, bien que moins visible, est également en marche. Le constructeur suédois Volvo vient par exemple de présenter un nouveau concept de poids lourd électrique et totalement autonome qui fait disparaître la cabine (Voir Volvo Trucks). Le Volvo Vera a été conçu pour effectuer des trajets répétitifs et de courte distance pour transporter de grandes charges lourdes dans les zones portuaires, les centres logistiques, les usines.
Se projetant dans le futur, Volvo imagine des flottes composées de ce type de camion autonome qui pourraient assurer des rotations permanentes sur un site donné, coordonnées à distance par un centre de contrôle qui optimiserait le flux tout en surveillant le niveau de batterie et le chargement. Il s’agit, in fine, de réduire à la fois les coûts et les délais de livraison des produits, tout en diminuant encore les stocks de marchandises, qui représentent un capital immobilisé et improductif.
Dans la vidéo qu’il propose sur YouTube, Volvo souligne que « le camion intelligent de demain sera plus proche d'un smartphone sur roues que d'un véhicule traditionnel ». Bien entendu, Volvo imagine une gestion du cycle de vie de ces camions entièrement gérée par l’informatique et l’internet des objets. Ces camions high-tech sauront notamment exploiter, grâce à l’analyse en temps réel des « big data » toutes les informations concernant leur chargement, l’environnement routier, le type de conduite et l’état de fatigue du chauffeur, les conditions météo ou encore l’intégration d’une livraison urgente non prévue. Ces véhicules seront non seulement équipés d’un système de gestion prévisionnelle des pannes (qui leur permettront d’anticiper les problèmes et de changer les pièces usées avant qu’elles n’entraînent une panne) mais pourront également adapter leur puissance ou leur suspension en fonction de la charge et de l'état des routes.
Les transports ferroviaires ne vont pas non plus être épargnés par cette révolution technologique. C’est ainsi qu’à Saran, dans le Loiret, une start up, « Space Train » prépare le train du futur (Voir Space Train). Propre et silencieux, car utilisant uniquement de l’hydrogène, cet engin sera propulsé par des moteurs à induction sur un monorail, créant ainsi un champ magnétique le soulevant à quelques millimètres du sol. Prévu pour pouvoir atteindre les 720 km/h, le "Space Train" serait nettement plus rapide que tous les trains à très grande vitesse en service, y compris le Maglev, à sustentation magnétique japonais, détenteur du record du monde de vitesse sur rail, avec 603 km/h.
Si tout se passe comme prévu, les premiers essais du « Space Train » pourraient se dérouler en 2020, pour une commercialisation en 2025. Avec un coût moyen estimé à dix millions par km de voie (contre 25 millions pour le TGV), Space Train met également en avant sa compétitivité et son potentiel en matière de développement économique et d’aménagement du territoire. Il est vrai qu’un « Space Train » pourrait accomplir un Paris-Orléans en moins d’un quart d’heure, contre 1h10 aujourd’hui, et les principales régions françaises suivent avec beaucoup d’intérêt l’avancement de ce projet de train ultra-rapide.
D’autres concepts de transports plus futuristes pourraient également voir le jour à plus long terme. C’est le cas de Link & Fly, imaginé par la société française Akka Technologies, qui veut combiner avion et train pour proposer un système de transport d’une modularité sans précédent et accélérer les transferts de fret ou de passagers entre ces deux moyens de transport. Le concept repose sur un assemblage à la demande de modules sur rails pouvant être embarqués directement sur un avion sans fuselage (Voir You Tube).
Dans sa configuration complète, Link & Fly permettrait de rassembler dans un module s’emboitant dans l’avion et pouvant également circuler sur les voies ferrées, jusqu’à 162 passagers. L’appareil porteur pourrait également accueillir des modules conçus pour le fret et embarquer alors jusqu’à 21 tonnes. Akka Technologies met en avant le fait que le trafic aérien va doubler au cours des quinze prochaines années, et que, pour faire face à cette explosion de la demande de transport, il va falloir combiner de manière plus innovante et plus compétitive les différents modes de transports existants…
Ce concept révolutionnaire de modules compatibles fer-air et interchangeables est également développé depuis 2009 par la très sérieuse École Polytechnique Fédérale de Lausanne (EPFL). Baptisé "Clip-Air", ce système repose, comme celui d’Akka Technologies, sur un assemblage de modules et sur une aile volante sur laquelle viennent se fixer une, deux ou trois capsules, en fonction des besoins. Loin d’être un rêve un peu fou de chercheurs, « Clip Air » est le fruit d’une réflexion poussée et répond à un cahier des charges très strict qui intègre l'ensemble des contraintes techniques et réglementaires (Voir aeronews tv).
Concrètement, Clip-Air repose sur un système de transport à deux composantes. D’une part, la structure porteuse, qui regroupe les ailes, les moteurs et les réservoirs. D’autre part, la charge transportée, soit des passagers, soit du fret, qui se situe dans des capsules pouvant accueillir chacune 150 personnes. Pour les chercheurs de l'EPFL, ce nouveau concept de transport pourrait avoir une efficacité bien plus grande pour un coût d'utilisation bien moindre que n'importe quel avion classique, en raison notamment d'une flexibilité de gestion et d'utilisation sans égale.
En outre, la consommation d'un avion de type Clip-Air serait, à nombre de passagers égal et à vitesse identique, deux fois moins importante que celle d'un A320. Chaque capsule mesurerait 30 mètres de long pour 30 tonnes, soit la taille d'un wagon de chemin de fer et ce système révolutionnaire de transport serait donc entièrement compatible avec les infrastructures ferroviaires et aéroportuaires existantes.
En attendant de voir peut-être un jour voler ces étranges appareils, Airbus, Rolls-Royce et Siemens ont annoncé à la fin de l’année dernière qu’elles avaient décidé d’unir leurs forces pour mettre au point rapidement un prototype d’avion électrique, à partir d’un BAe 146, avion de taille moyenne équipé de quatre moteurs à réaction. Dans un premier temps, l'un des quatre réacteurs sera remplacé par un moteur électrique de deux mégawatts. A terme, une deuxième turbine sera également remplacée par un moteur électrique. Ce prototype E-Fan X permettra de tester en conditions réelles le comportement d’un moteur électrique en vol, afin d’améliorer les performances et la sécurité. Dans cette alliance technologique, Airbus sera responsable de l’intégration générale du moteur et de l’architecture de contrôle du système de propulsion hybride électrique ; Rolls-Royce s’occupera du moteur électrique de 2 mégawatts et de l’électronique de puissance ; quant à Siemens, il sera chargé de concevoir les deux moteurs électriques et l’électronique de contrôle.
La compagnie aérienne Easy Jet a pour sa part annoncé, fin 2017, qu'elle travaillait également, en collaboration avec le constructeur américain Wright Electric, sur un projet d’avion électrique qui devrait pouvoir assurer des vols courts d’ici 2030. Cet appareil pourra transporter de 120 à 220 passagers et sera sensiblement moins bruyant et moins polluant que les avions traditionnels. Rappelons que le transport aérien est désormais responsable de près de 5 % du réchauffement climatique et qu’il est donc urgent que ce mode de transport accélère sa transition technologique vers des modes de propulsion ne recourant plus à des carburants fossiles.
Ce qui est un objectif nécessaire pour l’avion l’est aussi pour le train qui connaît également une nouvelle révolution technologique : il y a quelques semaines, les premiers trains à hydrogène au monde, produits par Alstom, ont commencé à circuler avec des voyageurs en Allemagne, entre Bremerhaven et Cuxhaven (Voir You Tube). Il suffit d’un camion-citerne d’hydrogène pour assurer l’énergie des deux trains, qui roulent 600 km par jour, pendant un mois. Cet hydrogène est stocké sur les toits du train et les piles à combustible transforment l’oxygène et l’hydrogène en électricité. A terme, la généralisation de ces trains à hydrogène en Europe pourrait diminuer de moitié les émissions de CO2 du trafic ferroviaire, sachant qu’une large partie du réseau ferré européen reste non électrifié.
Mais cette nouvelle révolution ferroviaire ne se limite pas aux modes de propulsion et concerne également la gestion informatique du trafic. A ce sujet, la SNCF vient d’annoncer, le 12 septembre dernier, la création de 2 consortiums pour développer 2 prototypes de trains autonomes. Le premier consortium (avec Alstom, Altran, Ansaldo et Apsys) est dédié à la réalisation d'un prototype de train de fret autonome. Le second regroupera les entreprises Bombardier, Bosch, Spirops et Thales et sera focalisé sur la création d'un prototype d'un train TER autonome. Tous les partenaires de ce projet participent à son financement, d'un montant total de 57 millions d'euros (dont 30 % financés par la SNCF, 30 % par l'Etat et 40 % par les partenaires). Leur objectif est de débuter l'industrialisation de trains autonomes GoA en 2023 pour déployer des TER autonomes à partir de 2025.
Le projet de la SNCF consiste à pouvoir équiper, dans une première phase d’au moins 15 ans, les trains existants. A plus long terme, les rames seront conçues pour être véritablement autonomes. Avec la généralisation progressive de l’autonomie complète, les trains d'une même ligne pourront être informatiquement gérés de manière à être parfaitement coordonnés, ce qui permettra, en toute sécurité, d'augmenter leur fréquence d’au moins 25 % sur les grandes lignes.
Signalons enfin que Renault a présenté dans le cadre du récent salon automobile de Genève et du salon du véhicule utilitaires de Hanovre, deux nouveaux concepts de transports très ambitieux qui préfigurent ce que sera la mobilité urbaine à l’horizon 2030. Le premier s’appelle « EZ-GO » (Voir You Tube) et pourrait arriver sur la marché en 2022. Il s’agit d’un taxi-robot qui se veut partagé, électrique, autonome et connecté. Conçu pour accueillir dans les meilleures conditions de confort six passagers -grâce à sa rampe d’accès pour personnes à mobilité réduite- ce véhicule sera utilisable à la demande, depuis son smartphone, pour se rendre d’un point à un autre en zone urbaine. Il pourra également être utilisé pour des trajets à vocation touristique, grâce à son système d’affichage en réalité augmentée qui pourra délivrer aux utilisateurs une multitude d’informations sur les sites et les rues empruntées.
Le second concept, plus futuriste qu’EZ-GO s’appelle « EZ-PRO » et se veut une solution de transport autonome de fret en milieu urbain. Long de 4,8 mètres, doté d’une capacité de 12 m3, de deux tonnes d’emport, et d’un chargement frontal très pratique, EZ-PRO sera entièrement électrique et aura une autonomie d’au moins 300km, avec recharge par induction. Plusieurs de ces navettes pourront, si nécessaire, être assemblées pour former un convoi modulable plus important. A l’intérieur de ce véhicule, le technicien, entièrement dégagé des tâches liées à la conduite, pourra gérer ses commandes et ses livraisons grâce à un bureau connecté et se transformer, le cas échéant, en vendeur ambulant pour certains produits. Là encore, il s’agit, avec la généralisation de ce type de navettes, d’en finir avec les livraisons en camions et fourgonnettes aux moteurs bruyants et polluants, qui encombrent les rues de nos villes et exaspèrent de plus en plus les citadins.
Ces quelques exemples de projets et expérimentations en cours montrent à quel point l’ensemble du secteur des transports, qu’il s’agisse de passagers ou de marchandises, va connaître une mutation profonde et rapide. La problématique centrale qui voulait que, depuis plus d’un siècle et demi, ce soit les utilisateurs qui s’adaptent aux offres de transports va en effet s’inverser : dans une dizaine d’années, la combinaison et la synergie de l’autonomie, de la modularité et de la gestion connectée et personnalisée fera que ce seront les différents modes de transports qui seront capables de se recombiner et s’adapter en permanence à l’évolution des demandes des utilisateurs, et cela change tout ! Ces transports intelligents, intégrés et modulaires, capables d’acheminer conjointement passagers et fret, conduiront notamment à redéfinir les frontières entre les grandes fonctions économiques de production, de distribution et de commercialisation, mais également entre les notions de biens et de services.
Dans cette perspective, qui ne manquera pas d’entraîner des gains considérables en termes d’efficacité et de productivité, il faudra veiller, comme le préconise Daniel Cohen dans son dernier essai « Il faut dire que les temps ont changé », à ce que le temps et les emplois libérés par ces extraordinaires progrès technologiques, soient en partie réorientés vers des fonctions de régulation sociale, de manière à ce que tout le monde, y compris les plus fragiles, puissent voir sa qualité de vie améliorée par cette mutation sans pareil. Rappelons-nous en effet que, comme l’avait bien compris Aristote il y a vingt-quatre siècles, « Le progrès ne vaut que s’il est partagé par tous » et que les extraordinaires avancées de la science et de la technologie doivent toujours être utilisées pour construire une société plus fraternelle et plus humaine.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
A Chicago, au salon IMTS, le constructeur automobile Volkswagen a annoncé que des pièces en métal imprimées en 3D seront intégrées aux véhicules et accessoires de la marque dès 2019. Volkswagen compte utiliser la nouvelle technologie d’HP, présentée lors d’IMTS, pour produire d’ici un an des pièces de customisation comme des porte-clés fixés aux clés de ses véhicules, des leviers de vitesse au design personnalisé…
De premiers prototypes sont présentés sur le stand d’HP. Dans les deux ans à venir, la marque allemande envisage d’imprimer en 3D des composants structurels comme des pièces de châssis et des encadrements de fenêtre. "D’ici à cinq ans, nous pensons que l’impression 3D métallique servira à produire les plates-formes électriques", se projette Martin Goede.
Pour le constructeur, le principal avantage de la fabrication additive reste de pouvoir réaliser des formes complexes à moindre coût et de réduire le poids du véhicule. "L’impression 3D métal pourrait nous permettre de diminuer de 30 à 40 % le poids d’une voiture", estime Martin Goede. Autre avantage souligné par le directeur des développements technologiques : la logistique. "L’ensemble de la supply chain pourrait être rapprochée des usines d’assemblage final, car moins d’opérations de fabrication seraient nécessaires".
Avant de voir sa chaîne d’approvisionnement bouleversée, Volkswagen doit encore apprendre à intégrer la technologie dans ses processus de fabrication. "Nous sommes en train de stabiliser le procédé afin d’obtenir un meilleur état de surface", explique Sven Crull, directeur du design pour les nouvelles technologies de production de Volkswagen. Les pièces réalisées avec l’imprimante 3D de HP présentent un aspect rugueux et nécessitent plusieurs post-procédés de frittage, puis de polissage.
Dans un premier temps, les pièces seront fabriquées chez GKN, un fabricant britannique de poudre métallique et de pièces pour l’automobile, et l’un des premiers clients test de l’imprimante 3D métal d’HP.
Il n’est pas anodin qu’un constructeur automobile affirme qu’il compte utiliser l’impression 3D métallique pour la production de pièces finales – les prototypes sont, eux, imprimés en 3D depuis plusieurs décennies. La technologie trouve déjà certaines applications dans l’aéronautique et le secteur médical mais son coût et ses temps de production la rendent incompatible avec les cadences de l’automobile. Soit 40 000 voitures produites par jour pour Volkswagen.
Mais le constructeur estime que la machine mise au point par HP correspond à ses exigences en matière de coût de production. HP revendique un coût de 2,1 dollars par pièce pour une pièce de la taille d’une poignée de porte de wagon de train, contre 50 dollars avec une autre technologie de fabrication additive métallique. Concernant la vitesse de production, Sven Crull estime : "Avec deux machines, il est possible de produire environ 800 porte-clés par jour".
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Ancien étudiant au MIT, You Wu a passé toute son enfance en Chine, pays où les ressources premières telles que l’eau sont plus rares que dans d’autres pays développés. Un jour, l’entreprise chargée de la distribution de l’eau dans sa région a décidé de mettre en place une coupure régulière durant une demi-journée, chaque semaine, afin de faire des économies.
Cette expérience a contribué à susciter l’intérêt de Wu pour la problématique liée à la rareté de l’eau, qu’il a choisi d’étudier plus en profondeur après avoir déménagé aux États-Unis il y a maintenant 10 ans. Le système conçu par Wu consiste en un robot introduit dans les conduites d’eau, dans lesquelles il se déplace en même temps que cette dernière. Lorsque le robot se déplace dans la conduite, ses capteurs touchent les parois et permettent donc de détecter les forces d’aspiration qui seraient provoquées par les fuites, a expliqué Wu.
Il a fallu cinq ans à Wu pour mettre au point et construire un prototype fonctionnel. La version actuelle, Lighthouse, a été lancée en janvier, peu de temps après que Wu ait été nommé sur la liste Forbes pour l’industrie et la fabrication. Wu et son ami Tyler Mantel se concentrent maintenant sur le développement de leur entreprise, WatchTower Robotics, qu’ils ont fondée en juin 2018 avec le soutien de Techstars Sustainability Accelerator.
Selon le rapport « Infrastructure Report Card » 2017 de l’American Society of Civil Engineers (ASCE), il y a chaque année 240.000 fuites d’eau dans l’ensemble des conduites d’eau aux États-Unis, ce qui provoque un gaspillage de plus de 7,5 billions (7500 milliards) de litres d’eau potable traitée chaque année. Selon WatchTower Robotics, environ 20 % de l’eau potable dans le monde sont perdus chaque jour en raison de fuites.
De nombreuses méthodes de détection des fuites sont disponibles sur le marché, mais ces dernières se basent sur les sons provoqués par les vibrations des conduites et sur les chutes de pression. Selon Wu, un système basé sur l’acoustique ne peut pas fonctionner correctement dans les villes à cause des niveaux de bruit. Il ajoute que son robot Lighthouse est efficace dans les villes tout comme dans les banlieues.
Le dispositif est conçu pour inspecter les conduites sans interrompre le service d’eau. Il peut aussi être placé dans les conduites des bouches d’incendie ainsi que dans les jonctions à trois voies. À partir de là, un système d’analyse crée une carte qui indique aux opérateurs des canalisations où se trouvent les fuites, quelle est leur taille ainsi que la probabilité d’une défaillance conséquente.
Les robots ont été testés, jusqu’à présent, en Arabie Saoudite, en Virginie et au Royaume-Uni. WatchTower Robotics mène également des programmes pilotes au Massachusetts avec le service des eaux de Cambridge ainsi qu’en Australie, en collaboration avec la société de services de pipeline « Detection Services ». Le dernier prototype de Wu (Lighthouse) lui a également permis de remporter le prix James Dyson, un concours international de design.
« Mon objectif ultime est de mettre nos outils robotiques entre les mains de techniciens sur le terrain dans chaque ville du monde, afin que chaque ville puisse diminuer ses pertes d’eau dues à des fuites, et ainsi soutenir la croissance démographique », a déclaré Wu.
Article rédigé par Georges Simmonds pour RT Flash
Evening Standard
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'autoconsommation solaire grimpe en France. Les raccordements ont augmenté de 50 % en 2017. Mais la production électrique est variable, il faut donc la faire coïncider avec la consommation de façon optimale.
Selon Grégory Lamotte, fondateur de Comwatt, l'énergie solaire est aujourd'hui la moins chère du monde : "Le prix a été divisé par dix en dix ans. Avant, il n'y avait pas de rentabilité d'autoconsommer, il fallait tout revendre à un tarif bonifié. Maintenant, cette énergie, il vaut mieux la garder pour soi parce qu'on arrive à produire à 10 centimes d'euro le kilowattheure, alors que quand on l'achète au réseau national, c'est 16 centimes".
Problème : la production solaire varie en fonction de l'ensoleillement. Si cela peut convenir à une activité diurne comme les supermarchés, ce n'est pas forcément le cas pour les particuliers qui partent toute la journée sur leur lieu de travail. Et c'est là qu'intervient le système domotique, une programmation numérique qui va permettre de faire fonctionner les appareils électriques en l'absence de ses occupants.
En fonction de la production des panneaux solaires, le cerveau du système va lancer un, deux, trois appareils électriques particulièrement énergivores comme le lave-vaisselle, lave-linge, chauffe-eau, le spa… L'idée est de valoriser le plus possible l'énergie produite par les panneaux solaires.
Ainsi selon Grégory Lamotte, une installation solaire en autoconsommation permettrait de réduire de seulement 20 % la consommation électrique en provenance du réseau national. Avec une optimisation réalisée par l'intermédiaire d'un système domotique, la réduction passerait à 50 %, voire plus, ce qui rentabilise davantage l'installation solaire… Aussi, comme les résidents ont accès en temps réel à toutes les informations de production et de consommation, grâce à une interface web, ces derniers seraient plus impliqués pour réduire leur consommation de façon générale.
Article rédigé par Georges Simmonds pour RT Flash
Actu Environnement
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Lancaster (Royaume-Uni) ont mis au point un nouveau type de ciment « intelligent » géopolymère à base de potassium et de cendre volante. L'utilisation à grande échelle de ce nouveau ciment pourrait transformer des bâtiments, immeubles, maisons, trottoirs ou même des réverbères en batteries capables de stocker des énergies renouvelables grâce à un seul et même matériau.
La diffusion des ions de potassium à travers la structure cristalline assure la conductivité électrique. Selon les chercheurs, une fois parfaitement au point, leur ciment pourrait offrir une capacité de charge et de décharge comprise entre 200 et 500 watts par mètre carré. Ils ajoutent que ce mélange serait moins onéreux que le ciment Portland qui est pourtant le matériau de construction le plus répandu.
L'autre propriété intéressante qu'offre ce matériau est la capacité de signaler en temps réel toute altération de la structure. Un stress mécanique tel qu'une fissure va perturber la conductivité des ions, ce qui permet de détecter automatiquement tout problème menaçant l'intégrité d'un bâtiment sans recourir à des capteurs externes.
Selon ces chercheurs anglais, leur ciment géopolymère pourrait transformer tout ou partie d'un bâtiment en batterie capable de stocker, par exemple, l'énergie de panneaux solaires et de la restituer le soir venu aux occupants.
Article rédigé par Georges Simmonds pour RT Flash
Lancaster University
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Selon une étude réalisée par des chercheurs du Jet Propulsion Laboratory (NASA), de l'Institut Californien de Technologie et de l'Université d'Harvard, de l'eau très salée située sous la surface de Mars pourrait, si elle existe, contenir assez d'oxygène pour permettre de respirer à des microbes et même à certains organismes simples, comme des éponges.
"Nos travaux révolutionnent complètement notre compréhension de la possibilité d'une vie, présente ou passée, sur Mars et du rôle de la molécule d'oxygène (02) dans ce processus", précise Vlada Stamenkovic, chercheur au laboratoire JPL de la Nasa et principal auteur de l'étude.
En raison de l'extrême rareté de l'oxygène (environ 1,45 %) dans l'atmosphère martienne, les scientifiques pensaient jusqu'à présent que la planète rouge n'était pas capable de produire des environnements avec suffisamment d'oxygène pour permettre la respiration aérobie, relève l'étude.
Ce type de respiration, qui requiert l'oxygène comme carburant, est celle qui est de très loin la plus répandue sur Terre grâce à la photosynthèse qui permet aux plantes de libérer de l'oxygène dans l'atmosphère. Il existe aussi une autre forme de respiration cellulaire, dite anaérobie, utilisée essentiellement sur notre planète par des procaryotes (dont la cellule est sans noyau) vivant dans des milieux dépourvus d'oxygène. Jusqu'à présent, les chercheurs avaient donc concentré leurs efforts sur une possible vie anaérobie sur Mars.
L'équipe de chercheurs de Caltech et du JPL s'est intéressée aux perspectives offertes par la présence possible de saumures sur Mars, comme le laissent espérer des recherches récentes. Il s'agit d'un mélange d'eau et de sels en forte concentration susceptibles d'abaisser le point de congélation de l'eau (de sorte qu'elle reste liquide à des températures plus froides).
Les chercheurs ont d'abord calculé combien d'oxygène pouvait se dissoudre dans l'eau salée dans les conditions de pression, de température et de chimie propres à ces saumures martiennes. Ils ont ensuite utilisé un modèle climatique prédisant la pression et la température dans différentes régions martiennes, pour cartographier la solubilité de l'oxygène dans de l'eau salée en différents endroits de la planète rouge. Enfin, ils ont étudié les changements climatiques sur Mars au cours des 20 derniers millions d'années.
Résultat : il existe sur Mars certaines régions qui permettent même une solubilité de l'oxygène suffisante pour permettre à des animaux simples comme les éponges de respirer. Les chercheurs insistent sur le fait que leurs "résultats n'impliquent pas qu'il y ait une vie sur Mars" mais seulement que "l'habitabilité de la planète est modifiée par la présence potentielle d'oxygène dissoute".
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de l’EPFL (Ecole Polytechnique fédérale de Lausanne) ont présenté un projet très complet visant à l'installation de la première base humaine permanente sur Mars. Cette base serait située à proximité d'un des pôles de Mars, car "Même si les pôles imposent davantage de contraintes au départ, ils sont plus avantageux à long terme, car on y trouve des ressources potentiellement exploitables", assure Anne-Marlene Rüede, premier auteure de cette étude. « Notre ambition est d’établir une stratégie en fonction de différentes technologies sélectionnées à développer et de proposer un scénario test afin que dans 20 ans, il y ait des programmes capables de mener une telle expédition », précise la chercheuse.
Concrètement, la mission projette d’envoyer un équipage de six personnes au pôle Nord de Mars durant l’été polaire – pour bénéficier des 288 jours de lumière en continu – et de le ramener sain et sauf sur Terre. Sa première originalité est de concevoir une mission en deux temps, soit envoyer d’abord une structure habitable minimale à travers une mission robotique et tester l’utilisation des ressources in situ pour la préparer à l’arrivée de l’équipage. C’est la solution trouvée pour minimiser la charge utile à transporter et garantir la sécurité des humains. Même si les lanceurs pour apporter les quelque 110 tonnes restent encore à développer.
Pour assurer une survie de 9 mois, et davantage à long terme, l’idée est d’exploiter au maximum le potentiel des ressources martiennes, à commencer par l’eau. La présence de glace permet théoriquement de produire de l’eau, de l’oxygène et du nitrogène. Des éléments indispensables à la survie humaine.
Les différents composants dans l’atmosphère (CO2 surtout) et le sol martiens (silice, fer, aluminium, soufre…) peuvent potentiellement contribuer à produire des matériaux tels que des briques, du verre, des plastiques ou des carburants comme l’hydrogène ou le méthanol. Autant d’éléments vers la durabilité et l’indépendance.
En revanche, à ce stade, pour l’approvisionnement en énergie et en nourriture, l’équipage devra compter sur les apports terrestres, avec un réacteur au thorium et des batteries par exemple pour l’énergie, et de la nourriture lyophilisée…
La base elle-même comportera trois modules : le module central, les capsules et le dôme. Le premier, de la forme d’un silo de 12,5 mètres de haut et de 5 mètres de diamètre, constitue l’espace minimum de vie et contient tous les éléments essentiels. Les trois capsules déployées autour de l’élément central servent de sas entre l’intérieur et l’extérieur. Ces éléments arriveront lors de la mission robotique.
Un dôme, composé d’une membrane en fibre de polyéthylène recouverte d’une couche de glace d’environ 3 mètres d’épaisseur, recouvrira l’îlot central tel un igloo, offrant un espace de vie supplémentaire. Il constitue aussi une seconde barrière de protection notamment contre les radiations et les micrométéorites et aide à conserver une pression constante au sein de l’habitat.
Autre innovation de taille proposée par ces chercheurs : l’établissement d’une station orbitale autour de Mars (2ème voyage), intermédiaire entre les navettes spatiales et la surface martienne. Les chercheurs ont ainsi dessiné une grue aérienne capable de transporter de la station orbitale à la surface les différents éléments qui arrivent de la Terre. "Cette grue aérienne réutilisable et rechargeable en carburant fabriqué sur Mars permet de réduire la charge à apporter de la Terre", explique Claudio Leonardi, un des auteurs.
Avec un principe d’amarrage similaire à celui de la Station spatiale internationale, elle se trouvera sur l’écliptique d’arrivée des cargos en provenance de la Terre et pourra ainsi « descendre » les différents modules sur Mars ainsi que le transfert de l’équipage. Son originalité est d’avoir des moteurs en dessus de son centre de gravité et d’être réutilisable pour 6 missions. Le carburant pour la montée serait produit « in situ » et celui pour la descente proviendrait de la Terre.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Depuis la commercialisation de la cigarette électronique, il y a une quinzaine d’années, les études scientifiques sur son degré de nocivité se suivent et se contredisent. Une étude publiée par des chercheurs américains le 7 août dernier montre par exemple que les "vapoteurs" absorberaient de nombreuses substances chimiques toxiques comme le formaldéhyde.
Cette fois, une autre équipe de l’Institut de Recherche du Nevada a analysé la respiration de douze consommateurs d’e-cigarettes avant vapotage. Pour plus de réalisme, la plupart des participants ont utilisé leurs propres appareils et liquides et ont vapoté comme ils l’auraient fait dans le confort de leur maison.
Les scientifiques ont ensuite soustrait la concentration de produits chimiques trouvés dans l’exhalation des fumeurs au taux découvert dans les vapeurs émanant de l'engin, la différence étant absorbée dans les poumons des vapoteurs. Et le résultat est des plus effrayants : "Nous avons découvert que la concentration moyenne d’aldéhydes dans la respiration après une session de vapotage était dix fois plus forte qu’avant vapotage", explique Vera Samburova qui a dirigé cette étude. "Notre étude montre le risque potentiel associé aux aldéhydes générés par la cigarette électronique", développe Vera Samburova, avant de conclure : "A l’avenir, l’exposition aux aldéhydes provoquée par la e-cigarette doit absolument être étudiée sur un plus grand groupe de participants", conclut-elle.
Rappelons que d’après une autre recherche américaine publiée en mai, le vapotage régulier doublerait la probabilité de faire une crise cardiaque. Il semblerait donc que le rapport bénéfices-risques du vapotage par rapport au tabagisme mérite d'être sérieusement revu à la lumière de ces récentes études…
Article rédigé par Georges Simmonds pour RT Flash
Toxics
|
|
|
|
|
|
|
|
Une équipe américaine de recherche de l'Institut Gladstone (situé à San Francisco), dirigée par Hesham M. Shehata et Shahzada Khan, a découvert le rôle-clé de deux molécules, Sprouty 1 et Sprouty 2, dans le déclenchement du cancer et des infections chroniques.
Ces chercheurs ont pu montrer que, privés de Sprouty 1 et Sprouty 2, nos lymphocytes T effecteurs à mémoire qui jouent un rôle primordial dans la réponse immunitaire secondaire, vivent plus forts et plus longtemps. Ces travaux devraient permettre d'améliorer la longévité des cellules qui combattent les tumeurs et tuent les cellules infectées.
Pour lutter contre les infections virales, notre système immunitaire appelle les cellules T CD8 à tuer les cellules infectées. Les cellules T CD8 peuvent également être utilisées dans des approches d'immunothérapie visant à tuer les cellules cancéreuses, – dont la thérapie cellulaire CAR T. Cependant, les cellules T CD8 sont souvent épuisées par le cancer et les infections chroniques comme le VIH, elles meurent ou cessent de fonctionner correctement. Ces recherches ont donc tenté de mieux comprendre comment ces cellules se développent afin de trouver des moyens de les aider à préserver leur fonction et à vivre plus longtemps.
Des cellules T effectrices et des cellules T « à mémoire » : en cas d’invasion d’un agent pathogène, comme un virus par ex., les cellules T CD8 commencent à se multiplier rapidement. À ce stade, elles sont appelées cellules effectrices et agissent comme de bons petits soldats et tuent les cellules infectées.
Une fois que l'agent pathogène est éliminé, la plupart des cellules effectrices meurent, ce qui évite la réaction auto-immune. Mais quelques-unes survivent et deviennent des cellules « à mémoire », qui ressemblent plus à des gardes qui patrouillent dans le corps à la recherche des mêmes envahisseurs. Cela explique pourquoi, lors d’une nouvelle exposition au même agent pathogène, ces cellules « à mémoire » permettent au corps de réagir beaucoup plus rapidement contre l’infection.
Ces travaux ont permis d'identifier deux molécules, Sprouty 1 et Sprouty 2, qui modifient la survie des cellules T effectrices et le développement de cellules T CD8 à mémoire. Les chercheurs ont ainsi pu montrer que les modèles animaux, chez qui les chercheurs ont supprimé Sprouty 1 et Sprouty 2, disposent d’un plus grand nombre de cellules effectrices et ces cellules survivent mieux et deviennent, en plus grand nombre également, des cellules de mémoire.
Ces cellules de mémoire, dépourvues de molécules Sprouty, ont aussi une meilleure capacité de protection contre un pathogène bactérien vs les cellules de mémoire « ordinaires ». Les cellules dépourvues de Sprouty 1 et 2 ont ainsi un potentiel immense non seulement pour lutter contre les tumeurs, mais aussi contre les infections virales chroniques.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
|
|
|
|
|
|
Une étude américaine dirigée par le Docteur Liqin Zhao, de l'Université du Kansas, a montré que les 3 allèles de l'apolipoprotéine E, modifiant le risque de la maladie d’Alzheimer, modulent différemment le métabolisme énergétique du cerveau.
"Notre étude prouve clairement que les trois isoprotéines ApoE humaines ont une influence distincte sur le métabolisme cérébral du glucose, le principal combustible énergétique du cerveau. Plus précisément, nous avons découvert que le métabolisme glycolytique du glucose est considérablement compromis dans les cerveaux exprimant l’ApoE4, ce qui pourrait être dû, en partie, à une baisse de l'expression et de l'activité de l'hexokinase, l'enzyme responsable de l'étape initiale de la glycolyse" précise le Docteur Liqin Zhao.
Cette influence différente sur la fonction glycolytique du cerveau pourrait expliquer l’impact différent des génotypes ApoE sur le développement de la maladie d’Alzheimer (MA), l’ApoE4 (20 % de la population) étant le facteur de risque génétique le plus fort, l’ApoE2 (5 % de la population) étant le génotype neuroprotecteur, et l’ApoE3 (75 %) le génotype neutre.
Les chercheurs espèrent que ces observations ouvrent la voie à de nouvelles stratégies pour aider à prévenir ou traiter la maladie. Parmi ces stratégies, la supplémentation en pyruvate qui vise à restaurer le déficit en énergie chez les patients porteurs de l’ApoE4 au stade précoce de la maladie d’Alzheimer.
Autre piste, également explorée par ces chercheurs : développer des peptides modulateurs de la barrière hémato-encéphalique qui facilitent l'entrée de grosses molécules dans le cerveau, capables de délivrer la protéine ApoE2, afin d’atténuer certains des effets négatifs de l'ApoE4 et majorer la résistance du cerveau contre la maladie d'Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
The Journal of Neuroscience
|
|
|
|
|
|
|
|
Des chercheurs anglais du réputé Cancer Research de Londres ont identifié un marqueur dans le sang très précoce du cancer du rein ; celui-ci pourrait permettre le développement d’un test sanguin de détection du risque de ce cancer, diagnostiqué tardivement dans 40 % des cas, avec alors un pronostic de survie limité à environ 1 patient sur 10.
Les chercheurs londoniens ont utilisé des échantillons de sang prélevés dans le cadre de l’étude EPIC de 190 patients ayant développé un cancer du rein et ont comparé leurs résultats d’analyse à ceux de 190 témoins exempts de cancer. Leur analyse constate que les niveaux d'une protéine dans le sang, KIM-1, pourraient refléter le risque de développer un cancer du rein au cours des 5 années à venir.
Ces travaux ont montré que, plus la concentration de KIM-1 est élevée, plus le risque de développer un cancer du rein est lui-même élevé. Autre découverte, chez les patients atteints d'un cancer du rein, des taux élevés de KIM-1 sont associés à une faible survie, et plus les niveaux de KIM-1 sont élevés, moins le pronostic est favorable.
Un test de détection sanguin, basé sur les taux sanguins de KIM-1, semble donc prometteur en particulier, en combinaison avec l’imagerie, pour confirmer ou infirmer une suspicion de cancer du rein. Cet outil de diagnostic précoce serait infiniment précieux car la majorité des tumeurs au stade précoce n’entraîne aucun symptôme et de nombreux cas de cancer sont ainsi détectés accidentellement au cours d’un examen par imagerie passé pour d’autres problèmes de santé.
Article rédigé par Georges Simmonds pour RT Flash
CCR
|
|
|
|
|
|
|
|
Les enfants et plus particulièrement les bébés sont particulièrement vulnérables face à certaines infections bactériennes sévères (méningite, purpura fulminans, choc septique…) qui peuvent parfois entraîner des séquelles graves (paralysie, déficit sensoriel, hydrocéphalie, épilepsie…) voire le décès de l’enfant.
« Alors que des vaccins contre les principales bactéries responsables de ces infections existent (anti-pneumocoque et anti-méningocoque C), la défiance vis-à-vis de la vaccination, phénomène croissant en France, conduit de plus en plus à l’absence d’une immunisation complète chez certains enfants », expliquent dans un communiqué commun des chercheurs de l’Inserm et des pédiatres du CHU de Nantes.
Ces derniers ont donc cherché à déterminer, chez des enfants ayant contracté une infection bactérienne sévère, la part de celles qui auraient pu être évitées par une vaccination reçue dans les délais des recommandations officielles. Ils ont ainsi observé tous les cas d’enfants âgés de 1 mois à 16 ans admis en réanimation ou décédés dans le Grand Ouest à cause d’une infection bactérienne entre 2009 et 2014.
Premier constat, le méningocoque et le pneumocoque restaient les principales bactéries à l’origine des infections sévères de l’enfant, responsables de 71 % des décès et de près de la moitié des cas de séquelles graves. D’après les scientifiques, « 25 % des décès et 25 % des cas de séquelles étaient évitables par une application simple, c’est-à-dire complète et dans les temps, des recommandations vaccinales ».
Rappelons qu’en France, la vaccination contre les deux principales bactéries responsables de ces infections est devenue obligatoire pour les enfants nés à partir du 1er janvier 2018. Cependant, la plupart des décès liés au méningocoque C est survenue chez des enfants de plus de 2 ans. Ces derniers ne sont pas concernés par l’obligation de se faire vacciner. « C’est pourquoi il est fondamental de leur appliquer les recommandations actuelles de rattrapage », soulignent les auteurs !
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Lancé en 2011, le projet franco-canadien Neurophenols a pour objectif de développer un composé nutritionnel capable de prévenir le déclin cognitif lié au vieillissement. Le projet semble avoir porté ses fruits !
En effet, une récente étude montre que le produit formulé dans le cadre du programme améliorerait significativement la mémoire de personnes présentant un déclin cognitif plus avancé que la moyenne. Ce produit est réalisé à partir de polyphénols - des antioxydants naturellement présents dans les végétaux - issus de raisin et de bleuet. D’abord testé avec succès sur des souris, il a ensuite fait l’objet d’une étude clinique auprès de volontaires français et canadiens.
Cette étude a concerné 215 personnes âgées de 60 à 70 ans, en bon état de santé général. Durant six mois, la moitié des volontaires a quotidiennement reçu un supplément extrait de polyphénols issus de petits fruits, tandis que l’autre moitié recevait un placébo. Les capacités cognitives de tous les participants ont été évaluées avant le début et à la fin de l’expérimentation, par des tests neuropsychologiques.
« Les tests ont essentiellement portés sur la mémoire épisodique, ou mémoire du souvenir, qui est très affectée par le vieillissement », précise Véronique Pallet, coordinatrice de l’étude clinique et directrice adjointe du laboratoire NutriNeuro. A partir des résultats obtenus avant la cure, les chercheurs ont classé les volontaires en quatre groupes, du plus au moins performant. « Les personnes du premier groupe présentaient ainsi une excellente mémoire pour leur âge, tandis que les personnes du dernier groupe présentaient, en moyenne, un âge cognitif de 15 ans supérieur à leur âge réel » poursuit la chercheuse.
En analysant les résultats obtenus par l’ensemble des participants après six mois de supplémentation, aucun effet significatif des polyphénols n’a pu être mis en évidence. Mais en considérant uniquement les sujets présentant les déficits cognitifs les plus importants, les chercheurs ont observé une nette amélioration des performances mnésiques : « la mémoire des sujets initialement les plus affectés par le vieillissement a en moyenne "rajeuni" de 14 ans », précise la chercheuse.
Le corps humain ne synthétise pas de polyphénols. Ce sont pourtant des bio-nutriments essentiels. Si leurs mécanismes d’action restent encore mal compris, on sait qu’ils jouent un rôle direct dans le maintien des fonctions cognitives. Ils favorisent en effet à la fois la production de nouveaux neurones et la plasticité synaptique – ou, autrement dit, le nombre et l’activité des connexions entre les neurones.
Qui plus est, ils ont un effet global sur notre organisme auquel ils confèrent notamment une protection du système cardio-vasculaire, lui-même déterminant dans le vieillissement cérébral. Malgré tous les bénéfices qu’ils induisent, les polyphénols sont traités comme des toxines par notre organisme qui les élimine en partie. D’un individu à l’autre, le système d’excrétion de ces molécules est plus ou moins efficace et la quantité de polyphénols disponible pour l’organisme peu ou prou importante.
Pour mieux comprendre ces mécanismes, les chercheurs ont mesuré les quantités de polyphénols rejetés dans les urines des volontaires. Ils se sont ainsi aperçus que, pour une consommation quotidienne équivalente, les personnes du quatrième groupe excrétaient d’avantage de polyphénols que les autres participants.
Le vieillissement cognitif plus avancé observé chez ces personnes au début de l’étude pourrait être une conséquence directe de leur métabolisme. "Les résultats de cette étude sont particulièrement encourageants car ils suggèrent que le déclin de la mémoire, s’il est repéré suffisamment tôt, peut être ralenti voire normalisé par un apport nutritionnel de polyphénols", conclut Véronique Pallet. "Ils nous invitent donc à généraliser les diagnostics précoces et à affiner les recommandations d’apport de polyphénols, en lien avec l’âge et le profil métabolique de chacun".
Article rédigé par Georges Simmonds pour RT Flash
INRA
|
|
|
|
|
|
|
|
Chez les mammifères, les lésions de la moelle épinière conduisent à des situations dévastatrices car les fibres nerveuses sectionnées ne parviennent pas à se régénérer dans le système nerveux central. Les commandes électriques envoyées par le cerveau pour induire le mouvement n'atteignent donc plus les muscles, ce qui se traduit par une paralysie complète et définitive.
Qu’arriverait-il s’il était possible de combler ce vide, c’est-à-dire de régénérer des fibres nerveuses dans la moelle épinière sectionnée ? Dans le cadre d’un travail conjoint dirigé par l’EPFL (École polytechnique fédérale de Lausanne) en Suisse et l’UCLA (Université de Californie à Los Angeles) aux États-Unis, des scientifiques ont compris les mécanismes biologiques sous-jacents requis par les fibres nerveuses sectionnées pour se régénérer dans les lésions médullaires complètes, comblant ce vide-là chez la souris et le rat pour la première fois.
La recette qu’ils ont élaborée implique la présence de trois composantes pour que la croissance des fibres nerveuses puisse se faire. L’absence de l’une des trois composantes suffit à faire échouer la recette et à ne pas pouvoir régénérer de nouveaux axones dans la moelle épinière.
« Notre objectif était de reproduire, chez l’adulte, les conditions qui favorisent la croissance des fibres nerveuses pendant le développement », explique Grégoire Courtine, de l’EPFL, principal auteur de l’étude. « Nous avons compris les combinaisons entre les mécanismes biologiques qui sont nécessaires pour permettre la repousse des fibres nerveuses sectionnées dans les lésions médullaires complètes chez le mammifère adulte ».
Par analogie, supposons que les fibres nerveuses soient des arbres. Les branches terminales des axones seraient alors comme les branches de l’arbre. Si l’on coupe les branches principales de l’arbre, de petites branches peuvent pousser spontanément le long du tronc subsistant. Mais les branches coupées, elles, ne repoussent pas.
Le même résultat s’applique pour les neurones chez l’adulte : de nouvelles branches peuvent pousser à partir d’un axone sectionné et former des connexions au-dessus d’une lésion, mais la partie sectionnée de l’axone ne repousse pas. La recette à trois composantes révélée par les scientifiques change cette donnée et permet à des axones entiers de se régénérer. « Nous avons fait repousser des forêts d’axones », ajoute Grégoire Courtine.
Pour recréer les conditions physiologiques d’un système nerveux en cours de développement, les scientifiques administrent une séquence de facteurs de croissance, de protéines et d’hormones, pour satisfaire aux trois phases essentielles de la recette : réactiver le programme génétique de croissance des axones ; établir un environnement permissif pour la croissance des axones ; définir une pente chimique qui marque la trajectoire le long de laquelle les axones sont amenés à repousser. En l’espace de 4 semaines, les axones repoussent de quelques millimètres.
Les nouveaux axones sont capables de transmettre les signaux électriques (et donc les signaux nerveux) dans la lésion, mais cette connectivité retrouvée n’est pas suffisante pour rétablir la locomotion. Les rongeurs sont restés paralysés, comme le prévoyaient les scientifiques, car les nouveaux circuits ne peuvent pas être fonctionnels sans le soutien de stratégies de réadaptation.
« Nous avons décortiqué les exigences mécaniques nécessaires pour la régénération d’axones dans la moelle épinière, mais cela ne se traduit pas par une fonction », explique Mark Anderson de l’EPFL et l’UCLA. « Nous avons maintenant besoin d’étudier les exigences nécessaires pour que les axones forment les connexions appropriées avec les circuits locomoteurs en dessous de la lésion. Cela impliquera une réadaptation avec stimulation électrique pour intégrer, ajuster et fonctionnaliser les nouveaux axones de manière à ce que les rongeurs puissent remarcher ».
Il est encore trop tôt pour en déduire des applications chez l’homme. Par exemple, la première composante de la recette qui stimule la croissance des neurones se produit deux semaines en amont de la lésion ; pour l’heure, il faut donc mener d’autres études pour que la recette puisse se transposer dans le contexte clinique.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Un étude de l'Université de Virginie, dirigée par Frederick G. Hayden, a montré qu'un nouvel antivirus, le baloxavir, pouvait combattre efficacement certaines formes de grippe, sans toutefois pouvoir remplacer la vaccination.
Cette molécule s'attaque aux grippes A et B. Ce sont les principaux types qui se propagent régulièrement chez les humains et qui causent des épidémies de grippe saisonnière. Les virus de type C causent uniquement de légères infections respiratoires et ne sont pas responsables d’épidémies. Les chercheurs ont mené deux essais randomisés, à double insu et contrôlés, portant sur des patients globalement en bonne santé, mais atteints "d'une grippe aiguë non compliquée".
Ils ont entrepris un essai contrôlé par placebo et par oseltamivir de doses uniques de baloxavir (40 ou 80 mg en fonction du poids), chez des patients âgés de 12 à 64 ans. La dose d'oseltamivir était de 75 mg deux fois par jour pendant 5 jours. Le principal paramètre d'évaluation était le délai d'atténuation des symptômes de la grippe. Les réactions de 1 064 patients ont été analysées.
Résultat : le délai médian d'atténuation des symptômes était de 53,7 heures avec le baloxavir, comparativement à 80,2 heures avec placebo. Le temps d’action était en revanche semblable pour le baloxavir et l'oseltamivir. Néanmoins, le Baloxavir a été associé à des réductions plus importantes de la charge virale un jour après le début du traitement que le placebo ou l'oseltamivir.
"Le baloxavir à dose unique n'a posé aucun problème d'innocuité, s'est révélé supérieur au placebo pour soulager les symptômes de la grippe et s'est révélé supérieur à l'oseltamivir et au placebo pour réduire la charge virale un jour après le début de l'essai chez des patients atteints de grippe non compliquée", concluent donc les chercheurs.
La grippe est une maladie virale très courante. Souvent bénigne, elle peut cependant entraîner des complications graves, voire un décès, chez les personnes âgées ou fragiles. L'épidémie saisonnière touche 2 à 8 millions de personnes chaque hiver.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
L'hôpital Beaujon AP-HP a réalisé il y a quelques semaines le premier traitement par radiofréquence guidée sous échoendoscopie d’une tumeur du pancréas. Cette intervention constitue une alternative plus simple, moins onéreuse et moins risquée pour le patient que la chirurgie classique. C'est le Docteur Maxime Palazzo, chef du service d’endoscopie digestive, qui signe ce qui est annoncé comme une première.
Le patient âgé de 83 ans souffrait d’une tumeur rare du pancréas, un insulinome pancréatique occasionnant des hypoglycémies sévères non contrôlées. L'opération réalisée en 30 minutes sous anesthésie générale a permis au patient de sortir de l'hôpital, bien portant, au bout de quelques jours d'observation.
Concrètement, la technique consiste à introduire, par voie orale, un endoscope spécifique à l’extrémité duquel se trouve une sonde d’échographie miniaturisée. Après repérage de la lésion au travers de la paroi intestinale, une aiguille est introduite au cœur de la tumeur sous contrôle échographique. Une fois en place, l’aiguille délivre un courant électrique qui va détruire la tumeur en une quinzaine de secondes, par radiofréquence. L’efficacité est immédiate.
Cette technique mini-invasive rarement pratiquée car nécessitant un haut niveau d’expertise constitue une avancée majeure. Elle évite au patient une intervention chirurgicale longue, complexe avec une morbidité postopératoire non négligeable. Elle se place comme une alternative à la chirurgie lourde pour des tumeurs pancréatiques neuroendocrines fonctionnelles de petite taille chez des patients dont l’âge ou les comorbidités contre-indiquent la chirurgie.
La radiofréquence sous échoendoscopie sera prochainement en cours d’évaluation pour le traitement d’autres types de tumeurs, dont l’adénocarcinome pancréatique qui reste un cancer difficile à traiter.
Article rédigé par Georges Simmonds pour RT Flash
Caducée
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|