  |  
				
					
						
							  |  
							
								 | 
								  | 
								  | 
								
									
										
											
												
													
														| NUMERO 972 | 
														  | 
													 
												 
											 | 
										 
										  |  
									 
								 | 
							 
							  |  
							  |  
							
							
								
									
										
											
												
													
														 | 
														
															Edition du 26 Octobre 2018
														 | 
													 
												 
											 | 
											
												
											 | 
										 
									 
								 | 
						
							 
						 
						
							  |  
							
								
								
      								
      										
      											
      											       												
      												
      												 
      												
      												
	Edito 
	Les transports de demain
  
 
  
Dans le débat qui se développe autour de la question de l’avenir des transports dans le monde, on se focalise surtout sur la problématique de la voiture autonome. Il s’agit certes d’une rupture technologique et sociétale très importante qui se profile, mais elle ne doit pas faire oublier que les transports vont connaître dans les vingt ans qui viennent d’autres révolutions tout aussi importantes que je voudrai évoquer cette semaine, notamment dans le domaine des transports urbains, des transports ferroviaires et des transports aériens. 
A Lyon, dans le quartier en pleine mutation de la Confluence, les navettes NAVLY sont expérimentées avec succès depuis 2016, sur un trajet ouvert d’1,3 km. Ces navettes entièrement autonomes ont parcouru plus de 14 000 km et transporté 22 000 passagers, sans connaître d’incident majeur. En constante évolution technologique, ces navettes vont intégrer le protocole de communication V2X, qui permet aux véhicules de dialoguer entre eux. Les utilisateurs de ces navettes disposent également à présent d’une application sur smartphone qui leur permet d’utiliser de manière optimale ce moyen de transport futuriste. 
Dans ce même quartier de la Confluence, une nouvelle expérimentation novatrice a démarré il y a quelques semaines, dans le cadre du projet européen Esprit. Il s’agit d’un système d’autopartage qui repose sur l’utilisation modulable de petits véhicules électriques de deux ou trois places frontales, qui peuvent facilement s’emboîter pour former un petit train. L’idée est de pouvoir adapter en temps réel l’offre de transport à l’évolution très changeante de la demande tout au long de la journée. 
En 2016, la région Ile-de-France a également expérimenté avec succès ces navettes autonomes sur le Pont Charles de Gaulle, avec plus de 30 000 voyageurs. Depuis l’année dernière, la navette autonome et électrique de Navya et Keolis est également expérimentée à la Défense et sur le site propre de Saclay. A Vincennes, un test encore plus ambitieux a commencé il y a quelques mois et utilise ces navettes autonomes pour relier le Parc floral et la station Château de Vincennes. 
Dans la région Grand-Est, après l’expérimentation réussie de navettes autonomes dans le centre-ville de Verdun cet été, les métropoles de Metz et Thionville viennent d’annoncer qu’elles allaient déployer rapidement ce type de navettes autonomes pour enrichir et améliorer leur offre de transports urbains. 
En Normandie, Renault et l'opérateur de transports publics Transdev ont lancé fin juin à Rouen un service expérimental de navettes autonomes circulant à la demande au milieu de la circulation. Le Rouen Normandy Autonomous Lab doit desservir finement tout un quartier depuis le terminus du tramway à Saint-Etienne-du-Rouvray, dans la banlieue rouennaise. Concrètement, les usagers peuvent commander un véhicule depuis l'un des arrêts, grâce à une application baptisée Nestor, disponible sur leur smartphone. Ils sont transportés par quatre voitures autonomes Renault Zoé électriques, auxquels s'ajoutera ultérieurement une navette autonome i-Cristal codéveloppée par Transdev et le groupe alsacien Lohr. 
Dans la région Pays de Loire, les Nantais peuvent tester, depuis juin dernier l'utilisation d'une navette électrique autonome sur un parcours de 650 mètres, entre la station de tramway Gare Maritime et la carrière Misery, à Chantenay. D'une capacité de 15 places, cette navette se déplace  à une vitesse maximale de 18 km/h, mais l’objectif affiché est de pouvoir faire rouler ces véhicules à 30 km/h en zone urbaine, et au milieu de la circulation. 
Du côté du transport de marchandises, une autre révolution technologique, bien que moins visible, est également en marche. Le constructeur suédois Volvo vient par exemple de présenter un nouveau concept de poids lourd électrique et totalement autonome qui fait disparaître la cabine (Voir Volvo Trucks). Le Volvo Vera a été conçu pour effectuer des trajets répétitifs et de courte distance pour transporter de grandes charges lourdes dans les zones portuaires, les centres logistiques, les usines. 
Se projetant dans le futur, Volvo imagine des flottes composées de ce type de camion autonome qui pourraient assurer des rotations permanentes sur un site donné, coordonnées à distance par un centre de contrôle qui optimiserait le flux tout en surveillant le niveau de batterie et le chargement. Il s’agit, in fine, de réduire à la fois les coûts et les délais de livraison des produits, tout en diminuant encore les stocks de marchandises, qui représentent un capital immobilisé et improductif. 
Dans la vidéo qu’il propose sur YouTube, Volvo souligne que « le camion intelligent de demain sera plus proche d'un smartphone sur roues que d'un véhicule traditionnel ». Bien entendu, Volvo imagine une gestion du cycle de vie de ces camions entièrement gérée par l’informatique et l’internet des objets. Ces camions high-tech sauront notamment exploiter, grâce à l’analyse en temps réel des « big data » toutes les informations concernant leur chargement, l’environnement routier, le type de conduite et l’état de fatigue du chauffeur, les conditions météo ou encore l’intégration d’une livraison urgente non prévue. Ces véhicules seront non seulement équipés d’un système de gestion prévisionnelle des pannes (qui leur permettront d’anticiper les problèmes et de changer les pièces usées avant qu’elles n’entraînent une panne) mais pourront également adapter leur puissance ou leur suspension en fonction de la charge et de l'état des routes. 
Les transports ferroviaires ne vont pas non plus être épargnés par cette révolution technologique. C’est ainsi qu’à Saran, dans le Loiret, une start up, « Space Train » prépare le train du futur (Voir Space Train). Propre et silencieux, car utilisant uniquement de l’hydrogène, cet engin sera propulsé par des moteurs à induction sur un monorail, créant ainsi un champ magnétique le soulevant à quelques millimètres du sol. Prévu pour pouvoir atteindre les 720 km/h, le "Space Train" serait nettement plus rapide que tous les trains à très grande vitesse en service, y compris le Maglev, à sustentation magnétique japonais, détenteur du record du monde de vitesse sur rail, avec 603 km/h. 
Si tout se passe comme prévu, les premiers essais du « Space Train » pourraient se dérouler en 2020, pour une commercialisation en 2025. Avec un coût moyen estimé à dix millions par km de voie (contre 25 millions pour le TGV), Space Train met également en avant sa compétitivité et son potentiel en matière de développement économique et d’aménagement du territoire. Il est vrai qu’un « Space Train » pourrait accomplir un Paris-Orléans en moins d’un quart d’heure, contre 1h10 aujourd’hui, et les principales régions françaises suivent avec beaucoup d’intérêt l’avancement de ce projet de train ultra-rapide. 
D’autres concepts de transports plus futuristes pourraient également voir le jour à plus long terme. C’est le cas de Link & Fly, imaginé par la société française Akka Technologies, qui veut combiner avion et train pour proposer un système de transport d’une modularité sans précédent et accélérer les transferts de fret ou de passagers entre ces deux moyens de transport. Le concept repose sur un assemblage à la demande de modules sur rails pouvant être embarqués directement sur un avion sans fuselage (Voir You Tube). 
Dans sa configuration complète, Link & Fly permettrait de rassembler dans un module s’emboitant dans l’avion et pouvant également circuler sur les voies ferrées, jusqu’à 162 passagers. L’appareil porteur pourrait également accueillir des modules conçus pour le fret et embarquer alors jusqu’à 21 tonnes. Akka Technologies met en avant le fait que le trafic aérien va doubler au cours des quinze prochaines années, et que, pour faire face à cette explosion de la demande de transport, il va falloir combiner de manière plus innovante et plus compétitive les différents modes de transports existants… 
Ce concept révolutionnaire de modules compatibles fer-air et interchangeables est également développé depuis 2009 par la très sérieuse École Polytechnique Fédérale de Lausanne (EPFL). Baptisé "Clip-Air", ce système repose, comme celui d’Akka Technologies, sur un assemblage de modules et sur une aile volante sur laquelle viennent se fixer une, deux ou trois capsules, en fonction des besoins. Loin d’être un rêve un peu fou de chercheurs, « Clip Air » est le fruit d’une réflexion poussée et répond à un cahier des charges très strict qui intègre l'ensemble des contraintes techniques et réglementaires (Voir aeronews tv). 
Concrètement, Clip-Air repose sur un système de transport à deux composantes. D’une part, la structure porteuse, qui regroupe les ailes, les moteurs et les réservoirs. D’autre part, la charge transportée, soit des passagers, soit du fret, qui se situe dans des capsules pouvant accueillir chacune 150 personnes. Pour les chercheurs de l'EPFL, ce nouveau concept de transport pourrait avoir une efficacité bien plus grande pour un coût d'utilisation bien moindre que n'importe quel avion classique, en raison notamment d'une flexibilité de gestion et d'utilisation sans égale. 
En outre, la consommation d'un avion de type Clip-Air serait, à nombre de passagers égal et à vitesse identique, deux fois moins importante que celle d'un A320. Chaque capsule mesurerait 30 mètres de long pour 30 tonnes, soit la taille d'un wagon de chemin de fer et ce système révolutionnaire de transport serait donc entièrement compatible avec les infrastructures ferroviaires et aéroportuaires existantes. 
En attendant de voir peut-être un jour voler ces étranges appareils, Airbus, Rolls-Royce et Siemens ont annoncé à la fin de l’année dernière qu’elles avaient décidé d’unir leurs forces pour mettre au point rapidement un prototype d’avion électrique, à partir d’un BAe 146, avion de taille moyenne équipé de quatre moteurs à réaction. Dans un premier temps, l'un des quatre réacteurs sera remplacé par un moteur électrique de deux mégawatts. A terme, une deuxième turbine sera également remplacée par un moteur électrique. Ce prototype E-Fan X permettra de tester en conditions réelles le comportement d’un moteur électrique en vol, afin d’améliorer les performances et la sécurité. Dans cette alliance technologique, Airbus sera responsable de l’intégration générale du moteur et de l’architecture de contrôle du système de propulsion hybride électrique ; Rolls-Royce s’occupera du moteur électrique de 2 mégawatts et de l’électronique de puissance ; quant à Siemens, il sera chargé de concevoir les deux moteurs électriques et l’électronique de contrôle. 
La compagnie aérienne Easy Jet a pour sa part annoncé, fin 2017, qu'elle travaillait également, en collaboration avec le constructeur américain Wright Electric, sur un projet d’avion électrique qui devrait pouvoir assurer des vols courts d’ici 2030. Cet appareil pourra transporter de 120 à 220 passagers et sera sensiblement moins bruyant et moins polluant que les avions traditionnels. Rappelons que le transport aérien est désormais responsable de près de 5 % du réchauffement climatique et qu’il est donc urgent que ce mode de transport accélère sa transition technologique vers des modes de propulsion ne recourant plus à des carburants fossiles. 
Ce qui est un objectif nécessaire pour l’avion l’est aussi pour le train qui connaît également une nouvelle révolution technologique : il y a quelques semaines, les premiers trains à hydrogène au monde, produits par Alstom, ont commencé à circuler avec des voyageurs en Allemagne, entre Bremerhaven et Cuxhaven (Voir You Tube). Il suffit d’un camion-citerne d’hydrogène pour assurer l’énergie des deux trains, qui roulent 600 km par jour, pendant un mois. Cet hydrogène est stocké sur les toits du train et les piles à combustible transforment l’oxygène et l’hydrogène en électricité. A terme, la généralisation de ces trains à hydrogène en Europe pourrait diminuer de moitié les émissions de CO2 du trafic ferroviaire, sachant qu’une large partie du réseau ferré européen reste non électrifié. 
Mais cette nouvelle révolution ferroviaire ne se limite pas aux modes de propulsion et concerne également la gestion informatique du trafic. A ce sujet, la SNCF vient d’annoncer, le 12 septembre dernier, la création de 2 consortiums pour développer 2 prototypes de trains autonomes. Le premier consortium (avec Alstom, Altran, Ansaldo et Apsys) est dédié à la réalisation d'un prototype de train de fret autonome. Le second regroupera les entreprises Bombardier, Bosch, Spirops et Thales et sera focalisé sur la création d'un prototype d'un train TER autonome. Tous les partenaires de ce projet participent à son financement, d'un montant total de 57 millions d'euros (dont 30 % financés par la SNCF, 30 % par l'Etat et 40 % par les partenaires). Leur objectif est de débuter l'industrialisation de trains autonomes GoA en 2023 pour déployer des TER autonomes à partir de 2025. 
Le projet de la SNCF consiste à pouvoir équiper, dans une première phase d’au moins 15 ans, les trains existants. A plus long terme, les rames seront conçues pour être véritablement autonomes. Avec la généralisation progressive de l’autonomie complète, les trains d'une même ligne pourront être informatiquement gérés de manière à être parfaitement coordonnés, ce qui permettra, en toute sécurité, d'augmenter leur fréquence d’au moins 25 % sur les grandes lignes. 
Signalons enfin que Renault a présenté dans le cadre du récent salon automobile de Genève et du salon du véhicule utilitaires de Hanovre, deux nouveaux concepts de transports très ambitieux qui préfigurent ce que sera la mobilité urbaine à l’horizon 2030. Le premier s’appelle « EZ-GO » (Voir You Tube) et pourrait arriver sur la marché en 2022. Il s’agit d’un taxi-robot qui se veut partagé, électrique, autonome et connecté. Conçu pour accueillir dans les meilleures conditions de confort six passagers -grâce à sa rampe d’accès pour personnes à mobilité réduite- ce véhicule sera utilisable à la demande, depuis son smartphone, pour se rendre d’un point à un autre en zone urbaine. Il pourra également être utilisé pour des trajets à vocation touristique, grâce à son système d’affichage en réalité augmentée qui pourra délivrer aux utilisateurs une multitude d’informations sur les sites et les rues empruntées. 
Le second concept, plus futuriste qu’EZ-GO s’appelle « EZ-PRO » et se veut une solution  de transport autonome de fret en milieu urbain. Long de 4,8 mètres, doté d’une capacité de 12 m3, de deux tonnes d’emport, et d’un chargement frontal très pratique, EZ-PRO sera entièrement électrique et aura une autonomie d’au moins 300km, avec recharge par induction. Plusieurs de ces navettes pourront, si nécessaire, être assemblées pour former un convoi modulable plus important. A l’intérieur de ce véhicule, le technicien, entièrement dégagé des tâches liées à la conduite, pourra gérer ses commandes et ses livraisons grâce à un bureau connecté et se transformer, le cas échéant, en vendeur ambulant pour certains produits. Là encore, il s’agit, avec la généralisation de ce type de navettes, d’en finir avec les livraisons en camions et fourgonnettes aux moteurs bruyants et polluants, qui encombrent les rues de nos villes et exaspèrent de plus en plus les citadins. 
Ces quelques exemples de projets et expérimentations en cours montrent à quel point l’ensemble du secteur des transports, qu’il s’agisse de passagers ou de marchandises, va connaître une mutation profonde et rapide. La problématique centrale qui voulait que, depuis plus d’un siècle et demi, ce soit les utilisateurs qui s’adaptent aux offres de transports va en effet s’inverser : dans une dizaine d’années, la combinaison et la synergie de l’autonomie, de la modularité et de la gestion connectée et personnalisée fera que ce seront les différents modes de  transports qui seront capables de se recombiner et s’adapter en permanence à l’évolution des demandes des utilisateurs, et cela change tout !  Ces transports intelligents, intégrés et modulaires, capables d’acheminer conjointement passagers et fret, conduiront notamment à redéfinir les frontières entre les grandes fonctions économiques de production, de distribution et de commercialisation, mais également entre les notions de biens et de services. 
Dans cette perspective, qui ne manquera pas d’entraîner des gains considérables en termes d’efficacité et de productivité, il faudra veiller, comme le préconise Daniel Cohen dans son dernier essai « Il faut dire que les temps ont changé », à ce que le temps et les emplois libérés par ces extraordinaires progrès technologiques, soient en partie réorientés vers des fonctions de régulation sociale, de manière à ce que tout le monde, y compris les plus fragiles, puissent voir sa qualité de vie améliorée par cette mutation sans pareil. Rappelons-nous en effet que, comme l’avait bien compris Aristote il y a vingt-quatre siècles, « Le progrès ne vaut que s’il est partagé par tous » et que les extraordinaires avancées de la science et de la technologie doivent toujours être utilisées pour construire une société plus fraternelle et plus humaine. 
René TRÉGOUËT 
Sénateur honoraire 
Fondateur du Groupe de Prospective du Sénat 
 
      											 | 
      										 
      										  |  
      									 
								 | 
							 
							
								
								                  						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Avenir | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Nanotechnologies et Robotique
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				A Chicago, au           salon IMTS, le constructeur automobile Volkswagen a annoncé           que des pièces en métal imprimées en 3D seront intégrées aux           véhicules et accessoires de la marque dès 2019. Volkswagen           compte utiliser la nouvelle technologie d’HP, présentée lors           d’IMTS, pour produire d’ici un an des pièces de customisation           comme des porte-clés fixés aux clés de ses véhicules, des           leviers de vitesse au design personnalisé… 
De premiers           prototypes sont présentés sur le stand d’HP. Dans les deux ans           à venir, la marque allemande envisage d’imprimer en 3D des           composants structurels comme des pièces de châssis et des           encadrements de fenêtre. "D’ici à cinq ans, nous pensons             que l’impression 3D métallique servira à produire les             plates-formes électriques", se projette Martin Goede. 
Pour le           constructeur, le principal avantage de la fabrication additive           reste de pouvoir réaliser des formes complexes à moindre coût           et de réduire le poids du véhicule. "L’impression 3D métal             pourrait nous permettre de diminuer de 30 à 40 % le poids             d’une voiture", estime Martin Goede. Autre avantage           souligné par le directeur des développements technologiques :           la logistique. "L’ensemble de la supply chain pourrait être             rapprochée des usines d’assemblage final, car moins             d’opérations de fabrication seraient nécessaires". 
Avant de voir sa           chaîne d’approvisionnement bouleversée, Volkswagen doit encore           apprendre à intégrer la technologie dans ses processus de           fabrication. "Nous sommes en train de stabiliser le procédé             afin d’obtenir un meilleur état de surface", explique           Sven Crull, directeur du design pour les nouvelles           technologies de production de Volkswagen. Les pièces réalisées           avec l’imprimante 3D de HP présentent un aspect rugueux et           nécessitent plusieurs post-procédés de frittage, puis de           polissage. 
Dans un premier           temps, les pièces seront fabriquées chez GKN, un fabricant           britannique de poudre métallique et de pièces pour           l’automobile, et l’un des premiers clients test de           l’imprimante 3D métal d’HP. 
Il n’est pas           anodin qu’un constructeur automobile affirme qu’il compte           utiliser l’impression 3D métallique pour la production de           pièces finales – les prototypes sont, eux, imprimés en 3D           depuis plusieurs décennies. La technologie trouve déjà           certaines applications dans l’aéronautique et le secteur           médical mais son coût et ses temps de production la rendent           incompatible avec les cadences de l’automobile. Soit 40 000           voitures produites par jour pour Volkswagen. 
Mais le           constructeur estime que la machine mise au point par HP           correspond à ses exigences en matière de coût de production.           HP revendique un coût de 2,1 dollars par pièce pour une pièce           de la taille d’une poignée de porte de wagon de train, contre           50 dollars avec une autre technologie de fabrication additive           métallique. Concernant la vitesse de production, Sven Crull           estime : "Avec deux machines, il est possible de produire             environ 800 porte-clés par jour". 
Article rédigé par Georges Simmonds pour RT Flash 
L'Usine Nouvelle 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Ancien étudiant           au MIT, You Wu a passé toute son enfance en Chine, pays où les           ressources premières telles que l’eau sont plus rares que dans           d’autres pays développés. Un jour, l’entreprise chargée de la           distribution de l’eau dans sa région a décidé de mettre en           place une coupure régulière durant une demi-journée, chaque           semaine, afin de faire des économies. 
Cette expérience           a contribué à susciter l’intérêt de Wu pour la problématique           liée à la rareté de l’eau, qu’il a choisi d’étudier plus en           profondeur après avoir déménagé aux États-Unis il y a           maintenant 10 ans. Le système conçu par Wu consiste en un           robot introduit dans les conduites d’eau, dans lesquelles il           se déplace en même temps que cette dernière. Lorsque le robot           se déplace dans la conduite, ses capteurs touchent les parois           et permettent donc de détecter les forces d’aspiration qui           seraient provoquées par les fuites, a expliqué Wu. 
Il a fallu cinq           ans à Wu pour mettre au point et construire un prototype           fonctionnel. La version actuelle, Lighthouse, a été lancée en           janvier, peu de temps après que Wu ait été nommé sur la liste           Forbes pour l’industrie et la fabrication. Wu et son ami Tyler           Mantel se concentrent maintenant sur le développement de leur           entreprise, WatchTower Robotics, qu’ils ont fondée en juin           2018 avec le soutien de Techstars Sustainability Accelerator. 
Selon le rapport           « Infrastructure Report Card » 2017 de l’American Society of           Civil Engineers (ASCE), il y a chaque année 240.000 fuites           d’eau dans l’ensemble des conduites d’eau aux États-Unis, ce           qui provoque un gaspillage de plus de 7,5 billions (7500           milliards) de litres d’eau potable traitée chaque année. Selon           WatchTower Robotics, environ 20 % de l’eau potable dans le           monde sont perdus chaque jour en raison de fuites. 
De nombreuses           méthodes de détection des fuites sont disponibles sur le           marché, mais ces dernières se basent sur les sons provoqués           par les vibrations des conduites et sur les chutes de           pression. Selon Wu, un système basé sur l’acoustique ne peut           pas fonctionner correctement dans les villes à cause des           niveaux de bruit. Il ajoute que son robot Lighthouse est           efficace dans les villes tout comme dans les banlieues. 
Le dispositif           est conçu pour inspecter les conduites sans interrompre le           service d’eau. Il peut aussi être placé dans les conduites des           bouches d’incendie ainsi que dans les jonctions à trois voies.           À partir de là, un système d’analyse crée une carte qui           indique aux opérateurs des canalisations où se trouvent les           fuites, quelle est leur taille ainsi que la probabilité d’une           défaillance conséquente. 
Les robots ont           été testés, jusqu’à présent, en Arabie Saoudite, en Virginie           et au Royaume-Uni. WatchTower Robotics mène également des           programmes pilotes au Massachusetts avec le service des eaux           de Cambridge ainsi qu’en Australie, en collaboration avec la           société de services de pipeline « Detection Services ». Le           dernier prototype de Wu (Lighthouse) lui a également permis de           remporter le prix James Dyson, un concours international de           design. 
« Mon             objectif ultime est de mettre nos outils robotiques entre             les mains de techniciens sur le terrain dans chaque ville du             monde, afin que chaque ville puisse diminuer ses pertes             d’eau dues à des fuites, et ainsi soutenir la croissance             démographique », a déclaré Wu. 
Article rédigé par Georges Simmonds pour RT Flash 
Evening Standard 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Matière | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Matière et Energie
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L'autoconsommation           solaire grimpe en France. Les raccordements ont augmenté de           50 % en 2017. Mais la production électrique est variable, il           faut donc la faire coïncider avec la consommation de façon           optimale. 
Selon Grégory           Lamotte, fondateur de Comwatt, l'énergie solaire est           aujourd'hui la moins chère du monde : "Le prix a été divisé           par dix en dix ans. Avant, il n'y avait pas de rentabilité           d'autoconsommer, il fallait tout revendre à un tarif bonifié.           Maintenant, cette énergie, il vaut mieux la garder pour soi           parce qu'on arrive à produire à 10 centimes d'euro le           kilowattheure, alors que quand on l'achète au réseau national,           c'est 16 centimes". 
Problème : la           production solaire varie en fonction de l'ensoleillement. Si           cela peut convenir à une activité diurne comme les           supermarchés, ce n'est pas forcément le cas pour les           particuliers qui partent toute la journée sur leur lieu de           travail. Et c'est là qu'intervient le système domotique, une           programmation numérique qui va permettre de faire fonctionner           les appareils électriques en l'absence de ses occupants. 
En fonction           de la production des panneaux solaires, le cerveau du système           va lancer un, deux, trois appareils électriques           particulièrement énergivores comme le lave-vaisselle,           lave-linge, chauffe-eau, le spa…  L'idée est de valoriser le           plus possible l'énergie produite par les panneaux solaires. 
Ainsi selon           Grégory Lamotte, une installation solaire en autoconsommation           permettrait de réduire de seulement 20 % la consommation           électrique en provenance du réseau national. Avec une           optimisation réalisée par l'intermédiaire d'un système           domotique, la réduction passerait à 50 %, voire plus, ce qui           rentabilise davantage l'installation solaire… Aussi, comme les           résidents ont accès en temps réel à toutes les informations de           production et de consommation, grâce à une interface web, ces           derniers seraient plus impliqués pour réduire leur           consommation de façon générale. 
Article rédigé par Georges Simmonds pour RT Flash 
Actu Environnement 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des           chercheurs de l'Université de Lancaster (Royaume-Uni) ont mis           au point un nouveau type de ciment « intelligent » géopolymère           à base de potassium et de cendre volante. L'utilisation à           grande échelle de ce nouveau ciment pourrait transformer des           bâtiments, immeubles, maisons, trottoirs ou même des           réverbères en batteries capables de stocker des énergies           renouvelables grâce à un seul et même matériau. 
La diffusion des ions de           potassium à travers la structure cristalline assure           la conductivité électrique. Selon les chercheurs, une fois           parfaitement au point, leur ciment pourrait offrir une           capacité de charge et de décharge comprise entre 200 et           500 watts par mètre carré. Ils ajoutent que ce mélange serait           moins onéreux que le ciment Portland qui est pourtant le           matériau de construction le plus répandu. 
L'autre           propriété intéressante qu'offre ce matériau est la capacité de           signaler en temps réel toute altération de la structure.           Un stress mécanique tel qu'une fissure va perturber la           conductivité des ions, ce qui permet de détecter           automatiquement tout problème menaçant l'intégrité d'un           bâtiment sans recourir à des capteurs externes. 
Selon ces           chercheurs anglais, leur ciment géopolymère pourrait           transformer tout ou partie d'un bâtiment en batterie capable           de stocker, par exemple, l'énergie de panneaux solaires et de           la restituer le soir venu aux occupants. 
Article rédigé par Georges Simmonds pour RT Flash 
Lancaster University 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Espace | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Espace et Cosmologie
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Selon une étude réalisée par des chercheurs           du Jet Propulsion Laboratory (NASA), de l'Institut Californien           de Technologie et de l'Université d'Harvard, de l'eau très           salée située sous la surface de Mars pourrait, si elle existe,           contenir assez d'oxygène pour permettre de respirer à des           microbes et même à certains organismes simples, comme des           éponges. 
"Nos travaux révolutionnent complètement           notre compréhension de la possibilité d'une vie, présente ou           passée, sur Mars et du rôle de la molécule d'oxygène (02) dans           ce processus", précise Vlada Stamenkovic, chercheur au           laboratoire JPL de la Nasa et principal auteur de l'étude. 
En raison de l'extrême rareté de l'oxygène           (environ 1,45 %) dans l'atmosphère martienne, les scientifiques           pensaient jusqu'à présent que la planète rouge n'était pas           capable de produire des environnements avec suffisamment           d'oxygène pour permettre la respiration aérobie, relève           l'étude. 
Ce type de respiration, qui requiert           l'oxygène comme carburant, est celle qui est de très loin la           plus répandue sur Terre grâce à la photosynthèse qui permet           aux plantes de libérer de l'oxygène dans l'atmosphère. Il           existe aussi une autre forme de respiration cellulaire, dite           anaérobie, utilisée essentiellement sur notre planète par des           procaryotes (dont la cellule est sans noyau) vivant dans des           milieux dépourvus d'oxygène. Jusqu'à présent, les chercheurs           avaient donc concentré leurs efforts sur une possible vie           anaérobie sur Mars. 
L'équipe de chercheurs de Caltech et du JPL           s'est intéressée aux perspectives offertes par la présence           possible de saumures sur Mars, comme le laissent espérer des           recherches récentes. Il s'agit d'un mélange d'eau et de sels           en forte concentration susceptibles d'abaisser le point de           congélation de l'eau (de sorte qu'elle reste liquide à des           températures plus froides). 
Les chercheurs ont d'abord calculé combien           d'oxygène pouvait se dissoudre dans l'eau salée dans les           conditions de pression, de température et de chimie propres à           ces saumures martiennes. Ils ont ensuite utilisé un modèle           climatique prédisant la pression et la température dans           différentes régions martiennes, pour cartographier la           solubilité de l'oxygène dans de l'eau salée en différents           endroits de la planète rouge. Enfin, ils ont étudié les           changements climatiques sur Mars au cours des 20 derniers           millions d'années. 
Résultat : il existe sur Mars certaines           régions qui permettent même une solubilité de l'oxygène           suffisante pour permettre à des animaux simples comme les           éponges de respirer. Les chercheurs insistent sur le fait que           leurs "résultats n'impliquent pas qu'il y ait une vie sur           Mars" mais seulement que "l'habitabilité de la planète est           modifiée par la présence potentielle d'oxygène dissoute". 
Article rédigé par Georges Simmonds pour RT Flash 
Nature 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des chercheurs           de l’EPFL (Ecole Polytechnique fédérale de Lausanne) ont           présenté un projet très complet visant à l'installation de la           première base humaine permanente sur Mars. Cette base serait           située à proximité d'un des pôles de Mars, car "Même si les           pôles imposent davantage de contraintes au départ, ils sont           plus avantageux à long terme, car on y trouve des ressources           potentiellement exploitables", assure Anne-Marlene Rüede,           premier auteure de cette étude. « Notre ambition est d’établir           une stratégie en fonction de différentes technologies           sélectionnées à développer et de proposer un scénario test           afin que dans 20 ans, il y ait des programmes capables de           mener une telle expédition », précise la chercheuse. 
Concrètement, la           mission projette d’envoyer un équipage de six personnes au           pôle Nord de Mars durant l’été polaire – pour bénéficier des           288 jours de lumière en continu – et de le ramener sain et           sauf sur Terre. Sa première originalité est de concevoir une           mission en deux temps, soit envoyer d’abord une structure           habitable minimale à travers une mission robotique et tester           l’utilisation des ressources in situ pour la préparer à           l’arrivée de l’équipage. C’est la solution trouvée pour           minimiser la charge utile à transporter et garantir la           sécurité des humains. Même si les lanceurs pour apporter les           quelque 110 tonnes restent encore à développer. 
Pour assurer une           survie de 9 mois, et davantage à long terme, l’idée est           d’exploiter au maximum le potentiel des ressources martiennes,           à commencer par l’eau. La présence de glace permet           théoriquement de produire de l’eau, de l’oxygène et du           nitrogène. Des éléments indispensables à la survie humaine. 
Les différents           composants dans l’atmosphère (CO2 surtout) et le sol martiens           (silice, fer, aluminium, soufre…) peuvent potentiellement           contribuer à produire des matériaux tels que des briques, du           verre, des plastiques ou des carburants comme l’hydrogène ou           le méthanol. Autant d’éléments vers la durabilité et           l’indépendance. 
En revanche, à           ce stade, pour l’approvisionnement en énergie et en           nourriture, l’équipage devra compter sur les apports           terrestres, avec un réacteur au thorium et des batteries par           exemple pour l’énergie, et de la nourriture lyophilisée… 
La base           elle-même comportera trois modules : le module central, les           capsules et le dôme. Le premier, de la forme d’un silo de 12,5           mètres de haut et de 5 mètres de diamètre, constitue l’espace           minimum de vie et contient tous les éléments essentiels. Les           trois capsules déployées autour de l’élément central servent           de sas entre l’intérieur et l’extérieur. Ces éléments           arriveront lors de la mission robotique. 
Un dôme, composé d’une membrane en fibre de           polyéthylène recouverte d’une couche de glace d’environ 3           mètres d’épaisseur, recouvrira l’îlot central tel un igloo,           offrant un espace de vie supplémentaire. Il constitue aussi           une seconde barrière de protection notamment contre les           radiations et les micrométéorites et aide à conserver une           pression constante au sein de l’habitat. 
Autre innovation de taille proposée par ces           chercheurs : l’établissement d’une station orbitale autour de           Mars (2ème voyage), intermédiaire entre les navettes spatiales           et la surface martienne. Les chercheurs ont ainsi dessiné une           grue aérienne capable de transporter de la station orbitale à           la surface les différents éléments qui arrivent de la Terre. "Cette grue aérienne réutilisable et rechargeable en carburant           fabriqué sur Mars permet de réduire la charge à apporter de la           Terre", explique Claudio Leonardi, un des auteurs. 
Avec un principe d’amarrage similaire à           celui de la Station spatiale internationale, elle se trouvera           sur l’écliptique d’arrivée des cargos en provenance de la           Terre et pourra ainsi « descendre » les différents modules sur           Mars ainsi que le transfert de l’équipage. Son originalité           est d’avoir des moteurs en dessus de son centre de gravité et           d’être réutilisable pour 6 missions. Le carburant pour la           montée serait produit « in situ » et celui pour la descente           proviendrait de la Terre. 
Article rédigé par Georges Simmonds pour RT Flash 
EPFL 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Vivant | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Santé, Médecine et Sciences du Vivant
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Depuis la           commercialisation de la cigarette électronique, il y a une           quinzaine d’années, les études scientifiques sur son degré de           nocivité se suivent et se contredisent. Une étude publiée par           des chercheurs américains le 7 août dernier montre par           exemple que les "vapoteurs" absorberaient de nombreuses           substances chimiques toxiques comme le formaldéhyde. 
Cette fois, une           autre équipe de l’Institut de Recherche du Nevada a analysé la           respiration de douze consommateurs d’e-cigarettes avant           vapotage. Pour plus de réalisme, la plupart des participants           ont utilisé leurs propres appareils et liquides et ont vapoté           comme ils l’auraient fait dans le confort de leur maison. 
Les           scientifiques ont ensuite soustrait la concentration de           produits chimiques trouvés dans l’exhalation des fumeurs au           taux découvert dans les vapeurs émanant de l'engin, la           différence étant absorbée dans les poumons des vapoteurs. Et           le résultat est des plus effrayants : "Nous avons découvert           que la concentration moyenne d’aldéhydes dans la respiration           après une session de vapotage était dix fois plus forte           qu’avant vapotage", explique Vera Samburova qui a dirigé cette           étude. "Notre étude montre le risque potentiel associé aux           aldéhydes générés par la cigarette électronique", développe           Vera Samburova, avant de conclure : "A l’avenir, l’exposition           aux aldéhydes provoquée par la e-cigarette doit absolument           être étudiée sur un plus grand groupe de participants",           conclut-elle. 
Rappelons que           d’après une autre recherche américaine publiée en mai, le           vapotage régulier doublerait la probabilité de faire une crise           cardiaque. Il semblerait donc que le rapport bénéfices-risques           du vapotage par rapport au tabagisme mérite d'être           sérieusement revu à la lumière de ces récentes études… 
Article rédigé par Georges Simmonds pour RT Flash 
Toxics 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Une équipe           américaine de recherche de l'Institut Gladstone (situé à San           Francisco), dirigée par Hesham M. Shehata et Shahzada Khan, a           découvert le rôle-clé de deux molécules, Sprouty 1 et Sprouty           2, dans le déclenchement du cancer et des infections           chroniques. 
Ces           chercheurs ont pu montrer que, privés de Sprouty 1 et Sprouty           2, nos lymphocytes T effecteurs à mémoire qui jouent un rôle           primordial dans la réponse immunitaire secondaire, vivent plus           forts et plus longtemps. Ces travaux devraient permettre           d'améliorer la longévité des cellules qui combattent les           tumeurs et tuent les cellules infectées. 
Pour lutter           contre les infections virales, notre système immunitaire           appelle les cellules T CD8 à tuer les cellules infectées. Les           cellules T CD8 peuvent également être utilisées dans des           approches d'immunothérapie visant à tuer les cellules           cancéreuses, – dont la thérapie cellulaire CAR T. Cependant,           les cellules T CD8 sont souvent épuisées par le cancer et les           infections chroniques comme le VIH, elles meurent ou cessent           de fonctionner correctement. Ces recherches ont donc tenté de           mieux comprendre comment ces cellules se développent afin de           trouver des moyens de les aider à préserver leur fonction et à           vivre plus longtemps. 
Des cellules           T effectrices et des cellules T « à mémoire » : en cas           d’invasion d’un agent pathogène, comme un virus par ex., les           cellules T CD8 commencent à se multiplier rapidement. À ce           stade, elles sont appelées cellules effectrices et agissent           comme de bons petits soldats et tuent les cellules infectées. 
Une fois que           l'agent pathogène est éliminé, la plupart des cellules           effectrices meurent, ce qui évite la réaction auto-immune.           Mais quelques-unes survivent et deviennent des cellules « à           mémoire », qui ressemblent plus à des gardes qui patrouillent           dans le corps à la recherche des mêmes envahisseurs. Cela           explique pourquoi, lors d’une nouvelle exposition au même           agent pathogène, ces cellules « à mémoire » permettent au           corps de réagir beaucoup plus rapidement contre l’infection. 
Ces travaux           ont permis d'identifier deux molécules, Sprouty 1 et Sprouty           2, qui modifient la survie des cellules T effectrices et le           développement de cellules T CD8 à mémoire. Les chercheurs ont           ainsi pu montrer que les modèles animaux, chez qui les           chercheurs ont supprimé Sprouty 1 et Sprouty 2, disposent d’un           plus grand nombre de cellules effectrices et ces cellules           survivent mieux et deviennent, en plus grand nombre également,           des cellules de mémoire. 
Ces cellules           de mémoire, dépourvues de molécules Sprouty, ont aussi une           meilleure capacité de protection contre un pathogène bactérien           vs les cellules de mémoire « ordinaires ». Les cellules           dépourvues de Sprouty 1 et 2 ont ainsi un potentiel immense           non seulement pour lutter contre les tumeurs, mais aussi           contre les infections virales chroniques. 
Article rédigé par Georges Simmonds pour RT Flash 
PNAS 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Une étude           américaine dirigée par le Docteur Liqin Zhao, de l'Université du           Kansas, a montré que les 3 allèles de l'apolipoprotéine E,           modifiant le risque de la maladie d’Alzheimer, modulent           différemment le métabolisme énergétique du cerveau. 
"Notre étude             prouve clairement que les trois isoprotéines ApoE humaines             ont une influence distincte sur le métabolisme cérébral du             glucose, le principal combustible énergétique du cerveau.             Plus précisément, nous avons découvert que le métabolisme             glycolytique du glucose est considérablement compromis dans             les cerveaux exprimant l’ApoE4, ce qui pourrait être dû, en             partie, à une baisse de l'expression et de l'activité de             l'hexokinase, l'enzyme responsable de l'étape initiale de la             glycolyse" précise le Docteur Liqin Zhao. 
Cette influence           différente sur la fonction glycolytique du cerveau pourrait           expliquer l’impact différent des génotypes ApoE sur le           développement de la maladie d’Alzheimer (MA), l’ApoE4           (20 % de la population) étant le facteur de risque génétique           le plus fort, l’ApoE2 (5 % de la population) étant le génotype           neuroprotecteur, et l’ApoE3 (75 %) le génotype neutre. 
Les chercheurs           espèrent que ces observations ouvrent la voie à de           nouvelles stratégies pour aider à prévenir ou traiter la           maladie. Parmi ces stratégies, la supplémentation en           pyruvate qui vise à restaurer le déficit en énergie chez les           patients porteurs de l’ApoE4 au stade précoce de la maladie           d’Alzheimer. 
Autre piste, également explorée par ces chercheurs : développer des           peptides modulateurs de la barrière hémato-encéphalique qui           facilitent l'entrée de grosses molécules dans le cerveau,           capables de délivrer la protéine ApoE2, afin d’atténuer           certains des effets négatifs de l'ApoE4 et majorer la           résistance du cerveau contre la maladie d'Alzheimer. 
Article rédigé par Georges Simmonds pour RT Flash 
The Journal of Neuroscience 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des chercheurs           anglais du réputé Cancer Research de Londres ont identifié un           marqueur dans le sang très précoce du cancer du rein ;           celui-ci  pourrait permettre le développement d’un test           sanguin de détection du risque de ce cancer, diagnostiqué           tardivement dans 40 % des cas, avec alors un pronostic de           survie limité à environ 1 patient sur 10. 
Les chercheurs           londoniens ont utilisé des échantillons de sang prélevés dans           le cadre de l’étude EPIC de 190 patients ayant développé un           cancer du rein et ont comparé leurs résultats d’analyse à ceux           de 190 témoins exempts de cancer. Leur analyse constate que           les niveaux d'une protéine dans le sang, KIM-1, pourraient           refléter le risque de développer un cancer du rein au cours           des 5 années à venir. 
Ces travaux ont           montré que, plus la concentration de KIM-1 est élevée, plus           le risque de développer un cancer du rein est lui-même élevé.           Autre découverte, chez les patients atteints d'un cancer du           rein, des taux élevés de KIM-1 sont associés à une faible           survie, et plus les niveaux de KIM-1 sont élevés, moins le           pronostic est favorable. 
Un test de           détection sanguin, basé sur les taux sanguins de KIM-1, semble           donc prometteur en particulier, en combinaison avec           l’imagerie, pour confirmer ou infirmer une suspicion de cancer           du rein. Cet outil de diagnostic précoce serait infiniment           précieux car la majorité des tumeurs au stade précoce           n’entraîne aucun symptôme et de nombreux cas de cancer sont           ainsi détectés accidentellement au cours d’un examen par           imagerie passé pour d’autres problèmes de santé. 
Article rédigé par Georges Simmonds pour RT Flash 
CCR 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Les enfants et           plus particulièrement les bébés sont particulièrement           vulnérables face à certaines infections bactériennes sévères           (méningite, purpura fulminans, choc septique…) qui           peuvent parfois entraîner des séquelles graves (paralysie,           déficit sensoriel, hydrocéphalie, épilepsie…) voire le décès           de l’enfant. 
« Alors que             des vaccins contre les principales bactéries responsables de             ces infections existent (anti-pneumocoque et             anti-méningocoque C), la défiance vis-à-vis de la             vaccination, phénomène croissant en France, conduit de plus             en plus à l’absence d’une immunisation  complète chez             certains enfants », expliquent dans un communiqué commun           des chercheurs de l’Inserm et des pédiatres du CHU de Nantes. 
Ces derniers ont           donc cherché à déterminer, chez des enfants ayant contracté           une infection bactérienne sévère, la part de celles qui           auraient pu être évitées par une vaccination reçue dans les           délais des recommandations officielles. Ils ont ainsi observé           tous les cas d’enfants âgés de 1 mois à 16 ans admis en           réanimation ou décédés dans le Grand Ouest à cause d’une           infection bactérienne entre 2009 et 2014. 
Premier constat,           le méningocoque et le pneumocoque restaient les principales           bactéries à l’origine des infections sévères de l’enfant,           responsables de 71 % des décès et de près de la moitié des cas           de séquelles graves. D’après les scientifiques, « 25 % des             décès et 25 % des cas de séquelles étaient évitables par une             application simple, c’est-à-dire complète et dans les temps,             des recommandations vaccinales ». 
Rappelons qu’en           France, la vaccination contre les deux principales bactéries           responsables de ces infections est devenue obligatoire pour           les enfants nés à partir du 1er janvier 2018. Cependant, la           plupart des décès liés au méningocoque C est survenue chez des           enfants de plus de 2 ans. Ces derniers ne sont pas concernés           par l’obligation de se faire vacciner. « C’est pourquoi il             est fondamental de leur appliquer les recommandations             actuelles de rattrapage », soulignent les auteurs ! 
Article rédigé par Georges Simmonds pour RT Flash 
Inserm 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Lancé en 2011,           le projet franco-canadien Neurophenols a pour objectif de           développer un composé nutritionnel capable de prévenir le           déclin cognitif lié au vieillissement. Le projet semble avoir           porté ses fruits ! 
En effet, une           récente étude montre que le produit formulé dans le cadre du           programme améliorerait significativement la mémoire de           personnes présentant un déclin cognitif plus avancé que la           moyenne. Ce produit est réalisé à partir de polyphénols - des           antioxydants naturellement présents dans les végétaux - issus           de raisin et de bleuet. D’abord testé avec succès sur des           souris, il a ensuite fait l’objet d’une étude clinique auprès           de volontaires français et canadiens. 
Cette étude a           concerné 215 personnes âgées de 60 à 70 ans, en bon état de           santé général. Durant six mois, la moitié des volontaires a           quotidiennement reçu un supplément extrait de polyphénols           issus de petits fruits, tandis que l’autre moitié recevait un           placébo. Les capacités cognitives de tous les participants ont           été évaluées avant le début et à la fin de l’expérimentation,           par des tests neuropsychologiques. 
« Les tests ont           essentiellement portés sur la mémoire épisodique, ou mémoire           du souvenir, qui est très affectée par le vieillissement »,           précise Véronique Pallet, coordinatrice de l’étude clinique et           directrice adjointe du laboratoire NutriNeuro. A partir des           résultats obtenus avant la cure, les chercheurs ont classé les           volontaires en quatre groupes, du plus au moins performant. «           Les personnes du premier groupe présentaient ainsi une           excellente mémoire pour leur âge, tandis que les personnes du           dernier groupe présentaient, en moyenne, un âge cognitif de 15           ans supérieur à leur âge réel » poursuit la chercheuse. 
En analysant les           résultats obtenus par l’ensemble des participants après six           mois de supplémentation, aucun effet significatif des           polyphénols n’a pu être mis en évidence. Mais en considérant           uniquement les sujets présentant les déficits cognitifs les           plus importants, les chercheurs ont observé une nette           amélioration des performances mnésiques : « la mémoire des           sujets initialement les plus affectés par le vieillissement a           en moyenne "rajeuni" de 14 ans », précise la chercheuse. 
Le corps humain           ne synthétise pas de polyphénols. Ce sont pourtant des           bio-nutriments essentiels. Si leurs mécanismes d’action           restent encore mal compris, on sait qu’ils jouent un rôle           direct dans le maintien des fonctions cognitives. Ils           favorisent en effet à la fois la production de nouveaux           neurones et la plasticité synaptique – ou, autrement dit, le           nombre et l’activité des connexions entre les neurones. 
Qui plus est,           ils ont un effet global sur notre organisme auquel ils           confèrent notamment une protection du système           cardio-vasculaire, lui-même déterminant dans le vieillissement           cérébral. Malgré tous les bénéfices qu’ils induisent, les           polyphénols sont traités comme des toxines par notre organisme           qui les élimine en partie. D’un individu à l’autre, le système           d’excrétion de ces molécules est plus ou moins efficace et la           quantité de polyphénols disponible pour l’organisme peu ou           prou importante. 
Pour mieux           comprendre ces mécanismes, les chercheurs ont mesuré les           quantités de polyphénols rejetés dans les urines des           volontaires. Ils se sont ainsi aperçus que, pour une           consommation quotidienne équivalente, les personnes du           quatrième groupe excrétaient d’avantage de polyphénols que les           autres participants. 
Le           vieillissement cognitif plus avancé observé chez ces personnes           au début de l’étude pourrait être une conséquence directe de           leur métabolisme. "Les résultats de cette étude sont           particulièrement encourageants car ils suggèrent que le           déclin de la mémoire, s’il est repéré suffisamment tôt, peut           être ralenti voire normalisé par un apport nutritionnel de           polyphénols", conclut Véronique Pallet. "Ils nous invitent donc           à généraliser les diagnostics précoces et à affiner les           recommandations d’apport de polyphénols, en lien avec l’âge et           le profil métabolique de chacun". 
Article rédigé par Georges Simmonds pour RT Flash 
INRA 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Chez les           mammifères, les lésions de la moelle épinière conduisent à des           situations dévastatrices car les fibres nerveuses sectionnées           ne parviennent pas à se régénérer dans le système nerveux           central. Les commandes électriques envoyées par le cerveau           pour induire le mouvement n'atteignent donc plus les muscles,           ce qui se traduit par une paralysie complète et définitive. 
Qu’arriverait-il           s’il était possible de combler ce vide, c’est-à-dire de           régénérer des fibres nerveuses dans la moelle épinière           sectionnée ? Dans le cadre d’un travail conjoint dirigé par           l’EPFL (École polytechnique fédérale de Lausanne) en Suisse et           l’UCLA (Université de Californie à Los Angeles) aux           États-Unis, des scientifiques ont compris les mécanismes           biologiques sous-jacents requis par les fibres nerveuses           sectionnées pour se régénérer dans les lésions médullaires           complètes, comblant ce vide-là chez la souris et le rat pour           la première fois. 
La recette           qu’ils ont élaborée implique la présence de trois composantes           pour que la croissance des fibres nerveuses puisse se faire.           L’absence de l’une des trois composantes suffit à faire           échouer la recette et à ne pas pouvoir régénérer de nouveaux           axones dans la moelle épinière. 
« Notre objectif           était de reproduire, chez l’adulte, les conditions qui           favorisent la croissance des fibres nerveuses pendant le           développement », explique Grégoire Courtine, de l’EPFL,           principal auteur de l’étude. « Nous avons compris les           combinaisons entre les mécanismes biologiques qui sont           nécessaires pour permettre la repousse des fibres nerveuses           sectionnées dans les lésions médullaires complètes chez le           mammifère adulte ». 
Par analogie,           supposons que les fibres nerveuses soient des arbres. Les           branches terminales des axones seraient alors comme les           branches de l’arbre. Si l’on coupe les branches principales de           l’arbre, de petites branches peuvent pousser spontanément le           long du tronc subsistant. Mais les branches coupées, elles, ne           repoussent pas. 
Le même résultat           s’applique pour les neurones chez l’adulte : de nouvelles           branches peuvent pousser à partir d’un axone sectionné et           former des connexions au-dessus d’une lésion, mais la partie           sectionnée de l’axone ne repousse pas. La recette à trois           composantes révélée par les scientifiques change cette donnée           et permet à des axones entiers de se régénérer. « Nous avons           fait repousser des forêts d’axones », ajoute Grégoire Courtine. 
Pour recréer les           conditions physiologiques d’un système nerveux en cours de           développement, les scientifiques administrent une séquence de           facteurs de croissance, de protéines et d’hormones, pour           satisfaire aux trois phases essentielles de la recette :           réactiver le programme génétique de croissance des axones ;           établir un environnement permissif pour la croissance des           axones ; définir une pente chimique qui marque la           trajectoire le long de laquelle les axones sont amenés à           repousser. En l’espace de 4 semaines, les axones repoussent de           quelques millimètres. 
Les nouveaux           axones sont capables de transmettre les signaux           électriques (et donc les signaux nerveux) dans la lésion, mais           cette connectivité retrouvée n’est pas suffisante pour           rétablir la locomotion. Les rongeurs sont restés paralysés,           comme le prévoyaient les scientifiques, car les nouveaux           circuits ne peuvent pas être fonctionnels sans le soutien de           stratégies de réadaptation. 
« Nous avons           décortiqué les exigences mécaniques nécessaires pour la           régénération d’axones dans la moelle épinière, mais cela ne se           traduit pas par une fonction », explique Mark Anderson de           l’EPFL et l’UCLA. « Nous avons maintenant besoin d’étudier les           exigences nécessaires pour que les axones forment les           connexions appropriées avec les circuits locomoteurs en           dessous de la lésion. Cela impliquera une réadaptation avec           stimulation électrique pour intégrer, ajuster et           fonctionnaliser les nouveaux axones de manière à ce que les           rongeurs puissent remarcher ». 
Il est encore trop tôt pour en déduire des           applications chez l’homme. Par exemple, la première composante           de la recette qui stimule la croissance des neurones se           produit deux semaines en amont de la lésion ; pour l’heure, il           faut donc mener d’autres études pour que la recette puisse se           transposer dans le contexte clinique. 
Article rédigé par Georges Simmonds pour RT Flash 
EPFL 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Un étude de           l'Université de Virginie, dirigée par Frederick G. Hayden, a           montré qu'un nouvel antivirus, le baloxavir, pouvait combattre           efficacement certaines formes de grippe, sans toutefois           pouvoir remplacer la vaccination. 
Cette           molécule s'attaque aux  grippes A et B. Ce sont les principaux           types qui se propagent régulièrement chez les humains et qui           causent des épidémies de grippe saisonnière. Les virus de type           C causent uniquement de légères infections respiratoires et ne           sont pas responsables d’épidémies. Les chercheurs ont mené           deux essais randomisés, à double insu et contrôlés, portant           sur des patients globalement en bonne santé, mais atteints           "d'une grippe aiguë non compliquée". 
Ils ont           entrepris un essai contrôlé par placebo et par oseltamivir de           doses uniques de baloxavir (40 ou 80 mg en fonction du poids),           chez des patients âgés de 12 à 64 ans. La dose d'oseltamivir           était de 75 mg deux fois par jour pendant 5 jours. Le           principal paramètre d'évaluation était le délai d'atténuation           des symptômes de la grippe. Les réactions de 1 064 patients           ont été analysées. 
Résultat : le           délai médian d'atténuation des symptômes était de 53,7 heures           avec le baloxavir, comparativement à 80,2 heures avec           placebo. Le temps d’action était en revanche semblable pour le           baloxavir et l'oseltamivir. Néanmoins, le Baloxavir a été           associé à des réductions plus importantes de la charge virale           un jour après le début du traitement que le placebo ou           l'oseltamivir. 
"Le baloxavir           à dose unique n'a posé aucun problème d'innocuité, s'est           révélé supérieur au placebo pour soulager les symptômes de la           grippe et s'est révélé supérieur à l'oseltamivir et au placebo           pour réduire la charge virale un jour après le début de           l'essai chez des patients atteints de grippe non compliquée",           concluent donc les chercheurs. 
La grippe est           une maladie virale très courante. Souvent bénigne, elle peut           cependant entraîner des complications graves, voire un décès,           chez les personnes âgées ou fragiles. L'épidémie saisonnière           touche 2 à 8 millions de personnes chaque hiver. 
Article rédigé par Georges Simmonds pour RT Flash 
NEJM 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L'hôpital           Beaujon AP-HP a réalisé il y a quelques semaines le premier           traitement par radiofréquence guidée sous échoendoscopie d’une           tumeur du pancréas. Cette intervention constitue une           alternative plus simple, moins onéreuse et moins risquée pour           le patient que la chirurgie classique. C'est le Docteur Maxime           Palazzo, chef du service d’endoscopie digestive, qui signe ce           qui est annoncé comme une première. 
Le patient âgé           de 83 ans souffrait d’une tumeur rare du pancréas, un           insulinome pancréatique occasionnant des hypoglycémies sévères           non contrôlées. L'opération réalisée en 30 minutes sous           anesthésie générale a permis au patient de sortir de           l'hôpital, bien portant, au bout de quelques jours           d'observation. 
Concrètement, la           technique consiste à introduire, par voie orale, un endoscope           spécifique à l’extrémité duquel se trouve une sonde           d’échographie miniaturisée. Après repérage de la lésion au           travers de la paroi intestinale, une aiguille est introduite           au cœur de la tumeur sous contrôle échographique. Une fois en           place, l’aiguille délivre un courant électrique qui va           détruire la tumeur en une quinzaine de secondes, par           radiofréquence. L’efficacité est immédiate. 
Cette technique           mini-invasive rarement pratiquée car nécessitant un haut           niveau d’expertise constitue une avancée majeure. Elle évite           au patient une intervention chirurgicale longue, complexe avec           une morbidité postopératoire non négligeable. Elle se place           comme une alternative à la chirurgie lourde pour des tumeurs           pancréatiques neuroendocrines fonctionnelles de petite taille           chez des patients dont l’âge ou les comorbidités           contre-indiquent la chirurgie. 
La           radiofréquence sous échoendoscopie sera prochainement en cours           d’évaluation pour le traitement d’autres types de tumeurs,           dont l’adénocarcinome pancréatique qui reste un cancer           difficile à traiter. 
Article rédigé par Georges Simmonds pour RT Flash 
Caducée 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	    								 | 
							 |  
						 
						
							
								 | 
								
									
										
											| VOTRE INSCRIPTION | 
										 
										  |  
										
											
												
												Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. 
												Désinscription Cliquez sur ce lien pour vous désinscrire. 
												
												
												Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. 
												
												
											 | 
										 
									 
								 | 
								 | 
								
									
								 | 
							 
						 
					 | 
				 
			 
		 |