|
|
|
|
|
NUMERO 979 |
|
|
|
|
|
|
|
Edition du 14 Décembre 2018
|
|
|
|
|
Edito
Réduire à 50 % la part du Nucléaire dans notre production électrique : quand cela sera-t-il possible ?
Cette semaine, j’ai voulu revenir sur les conséquences considérables pour notre avenir de la loi du 7 août 2015 relative à la transition énergétique, qui a fixé comme objectifs la réduction de la consommation d’énergie, la "décarbonation" de la production d’énergie et une diversification du mix électrique. Cette loi fixe notamment à 50 % - contre 73 % aujourd’hui - la part du nucléaire dans la production d’électricité en 2025.
Mais le Premier Ministre Edouard Philippe a annoncé le 5 septembre dernier que cet objectif de baisse de la part du nucléaire à 50 % dans le mix électrique français était reporté à horizon 2035. Si l’on examine la réalité complexe de notre paysage énergétique, on ne peut que se féliciter de cette décision à la fois lucide et réaliste.
Il faut en effet rappeler que la France consomme environ 274 Mteps par an (milliards de tonnes-équivalent pétrole) d’énergie primaire, dont 47,6 % de combustibles fossiles (pétrole, gaz et charbon), 42,5 % d’électricité d’origine nucléaire et enfin 9,4 % d’énergie d’origine renouvelable. S’agissant de l’électricité, notre pays produit chaque année environ 530 TWH et en consomme 475 (la différence correspond aux différentes pertes liées à la distribution et à la transformation) et il faut souligner que cette consommation d’électricité a été multipliée par presque trois en quarante ans.
Actuellement, notre parc nucléaire produit environ 384 TWh par an, soit environ 72 % de notre électricité produite (un TWH est égal à un milliard de kWh). L'énergie hydraulique produit en moyenne 53 TWH par an (environ 10 % de notre électricité). Les énergies fossiles (centrales thermiques au gaz et au fioul) assurent environ 46 TW par an, soit 8,6 % de notre production électrique. Enfin, l'éolien et le solaire, malgré une forte progression depuis 10 ans, ne produisent encore que 30 TWH par an (20 TWH pour l’éolien et 10 TWH pour le solaire), soit environ 6 % de notre consommation électrique.
Pour réduire la part du nucléaire de 72 % à 50 %, il va falloir trouver 119 Twh d'énergie par an dans d'autres sources que les énergies fossiles (fortement émettrices de CO2 et participant au réchauffement du climat). Il reste donc cinq grandes sources exploitables d'énergies renouvelables, peu émettrices de CO2 : l'énergie hydraulique, l'énergie des mers, la biomasse, l'éolien et le solaire.
Pour l'hydraulique, le potentiel de croissance est relativement faible car la plupart des sites rentables sont déjà équipés et la part de l'hydraulique dans notre production d'électricité est d'ailleurs stable depuis des décennies (autour de 10 à 12 %). Néanmoins, en modernisant les installations existantes et en construisant sur des sites rentables de nouveaux équipements, il serait possible de gagner environ 10 TWH par an d’électricité hydraulique à l’horizon 2030, de quoi alimenter 4 millions de Français supplémentaires (soit les agglomérations de Lyon et Marseille réunies).
La France possède un potentiel d'énergie marine exploitable d'environ 65 TWH par an (40 TWH par an avec l'énergie des vagues et 25 TWH par an avec l'énergie des courants et des marées) mais les spécialistes s'accordent sur le fait qu'il sera difficile de produire plus de 30 TWH par an d'énergie marine d'ici 2040, compte tenu des difficultés techniques et du coût de développement propres à ces formes d'énergie.
On pourrait, en théorie, utiliser une partie de la biomasse exploitable pour produire directement de l'électricité mais, en pratique, ce n'est pas très intéressant et très coûteux (grosses installations, mauvais rendement, systèmes complexes de filtrage). Il est donc préférable de mobiliser la biomasse disponible pour produire plutôt du biogaz et de la chaleur, utilisables pour le chauffage et l'eau chaude sanitaire.
Notre pays va donc devoir produire 79 TWH par an de plus (119 TWH moins les 30 TWH nouveaux issus des énergies marines et les 10 nouveaux TWH issus de l’hydraulique) uniquement en recourant au solaire et à l'éolien, est-ce possible ? En théorie oui, mais pas sur une échelle de temps inférieure à 20-25 ans, pourquoi ?
Parce que si l'on veut produire nos 79 TWH de plus par an pour moitié par le solaire et pour moitié par l'éolien, cela représente, pour la partie solaire, environ 276 km² de panneaux solaires à installer, ce qui n'est pas rien. Une telle surface solaire est en effet équivalente à 110 fois celle de la récente centrale solaire mise en service à Pessac, la plus grande d'Europe (2,5 km²) ; elle nécessiterait un investissement total de l'ordre de 40 milliards d'euros, au coût actuel de ce type d’installations solaires photovoltaïques.
Pour l'autre moitié (les 39,5 TWH à produire par l'éolien) et en supposant qu'on décide de miser surtout (pour les 3/4 de ces 39,5 Twh) sur les éoliennes marines (plus performantes, moins visibles et moins nuisibles), cela représente 1 422 éoliennes marines géantes, qu'il faudra compléter par au moins 1 777 éoliennes terrestres géantes, soit 3 199 machines de très grande puissance -10 MW chacune - et de très grande taille (200 à 250 mètres de haut).
Actuellement, le coût moyen du MW éolien installé est d'environ 2,5 millions pour un MW terrestre et 5 millions pour un MW marin. Il faudrait donc investir au moins 44,5 milliards d'euros (éolien terrestre) et 71 milliards d'euros pour l'éolien marin (hors coût d'adaptation du réseau et hors coût de stockage massif par stations de pompage, batteries géantes ou transformation énergétique).
Remplacer les 79 TWh que ne produirait plus le nucléaire en utilisant pour moitié le solaire et pour moitié l'éolien coûterait donc environ 115,5 milliards d'euros. On remarque au passage que le coût moyen du TWH produit est trois plus élevé (en moyenne) par l'éolien (avec un mix terrestre et marin) que par le solaire : il faut investir environ un milliard d'euros pour produire un TWH par des centrales solaires dernier cri, alors qu'il faut environ 3 milliards d'euros pour produire (avec un mix 3/4 marin et 1/4 terrestre) en moyenne un TWh éolien par an.
On peut donc se demander s’il ne serait plus judicieux (à la fois d'un point de vue financier et en matière de nuisances, d'impact sur l'environnement et d'impact esthétique) de miser beaucoup plus massivement sur le solaire, complété par de l'éolien marin, et d'abandonner le développement de l'éolien terrestre qui risque de susciter - on le voit déjà dans nos campagnes - des oppositions de plus en plus fortes de la part des riverains… A cet égard, il est intéressant de souligner que le ministère français de la Transition écologique et solidaire a annoncé le 6 novembre dernier avoir sélectionné 16 projets de centrales solaires photovoltaïques - pour une puissance totale de 200 MW - plus compétitifs que les projets éoliens déposés, dans le cadre de l'appel d'offres multi-technologique pour les énergies renouvelables.
Il me semble irréaliste et irresponsable de prétendre que notre pays peut parvenir, en moins de 20-25 ans, à réaliser en même temps la fermeture de 17 de nos 58 réacteurs nucléaires (pour un coût de démantèlement qui pourrait atteindre les 22 milliards d’euros), à prolonger la durée de vie des autres centrales nucléaires (pour un coût d'au moins 100 milliards d'euros selon la Cour des Comptes, et peut-être bien plus) et, dans le même temps, à investir 115 milliards d'euros pour produire l'électricité manquante du nucléaire avec l'éolien et le solaire.
Quant à une sortie totale du nucléaire en France, on peut, certes, la considérer comme souhaitable pour des raisons liées à la sécurité et au danger que représentent le stockage et la gestion des déchets à longue vie radioactive, mais elle me semble impossible avant au moins 40 à 50 ans, notamment en raison à la fois du coût et de la durée des opérations très complexes de démantèlement et de décontamination des centrales.
Il est regrettable que nombre de nos élus et responsables politiques de tout bord n'aient pas eu, pendant très longtemps, le courage d'admettre cette vérité et aient maintenu la fiction d'une possible sortie rapide du nucléaire. Mais nous découvrons aujourd’hui que les lois de la physique ne sont ni modifiables, ni négociables !
Il serait plus honnête d’expliquer à nos concitoyens que, si une sortie complète du nucléaire doit être un jour démocratiquement décidée, elle ne sera pas possible avant la seconde moitié de ce siècle, à la fois en raison des difficultés techniques considérables à surmonter et du coût faramineux de ce démantèlement, mais aussi à cause du coût supplémentaire que représente la montée en puissance des énergies propres qui devront bien se substituer, pour une large part, au nucléaire.
Bien sûr, on peut aussi faire le pari que notre société parviendra à réduire globalement sensiblement ses besoins en énergie et notamment en électricité, mais cette hypothèse est loin d’être assurée. Il faut en effet rappeler qu’actuellement nous consommons environ 475 TWH par an et il est vrai que cette consommation tend, depuis une dizaine d’années, à se stabiliser. Elle pourrait même descendre à 448 TWh en 2030 (- 6 %) selon le scénario « croissance faible » de RTE, mais je doute qu’elle puisse se réduire massivement, car cette diminution globale, au demeurant modeste, risque d'être en partie compensée par la montée en puissance des véhicules électriques, qui s'annonce plus rapide que prévue et pourrait représenter environ 15 TWH de consommation électrique supplémentaire d’ici 2030.
Il faut enfin rappeler, même si cette vérité dérange, qu'en dépit de sa volonté politique et de son effort économique gigantesque en faveur des énergies renouvelables, l'Allemagne, selon les propres chiffres de l’Office européen des statistiques, continue à émettre par habitant 11,4 tonnes de CO2, contre 8,7 en moyenne dans l'UE et 7,1 pour un Français, soit 46 % de plus... (Voir Eurostat).
Quant à la seule production électrique de l'Allemagne, pourtant de plus en plus assurée à partir de sources renouvelables d’énergie, elle émet dix fois plus de CO2 (560 grammes d'émissions de CO2 par kWh en moyenne) que la production électrique française (58 grammes d'émissions de CO2 par kWh, en moyenne). Ces chiffres avérés méritent d’être médités et montrent que le monde n'est pas simple et qu'il est très difficile de sortir à la fois rapidement du nucléaire (comme l'a décidé l'Allemagne en 2011) et de réduire massivement ses émissions de CO2 pour lutter contre le réchauffement climatique...
Il faut enfin souligner qu'un récent sondage montre que les Français sont à présent majoritairement favorables à une sortie du nucléaire (53 %) mais qu'ils sont également 71 % à souhaiter attendre le temps qu’il faudra la fin de vie des centrales, sous le contrôle de l'Autorité de sûreté nucléaire, pour réduire à 50 % la part du nucléaire dans la production électrique. Cela montre bien que les Français ont compris que le nucléaire serait là encore pour longtemps. Ce même sondage montre également que les deux priorités pour une majorité de Français sont le développement des énergies renouvelables et la lutte contre le changement climatique, loin devant la sortie du nucléaire...
On le voit, les questions liées à la transition énergétique et à la sortie éventuelle du nucléaire s'annoncent bien plus complexes qu'on veut bien le dire. Elles ne se laissent pas enfermer dans des grilles de lecture idéologiques binaires et simplistes et méritent un vrai débat démocratique, honnête et complet.
Heureusement, les Français ont à présent bien compris que la sortie complète du nucléaire, si elle doit avoir lieu, serait très longue, très difficile et très coûteuse et, qu'en plus, elle n'était pas la priorité par rapport à la lutte contre le changement climatique, même s'ils ne croient pas non plus que le nucléaire puisse constituer à long terme un moyen de lutte efficace et acceptable (en raison des risques indéniables inhérents à cette technologie) contre le réchauffement climatique. Souhaitons que sur cette question de la transition énergétique, si fondamentale pour notre avenir, nos dirigeants sachent faire preuve du même bon sens et de la même lucidité que la majorité de nos concitoyens…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Des chercheurs californiens dirigés par Yiming Ding, du Laboratoire de Robotique de Berkeley, ont publié une étude dans laquelle ils ont présenté un réseau de neurones qui, une fois formé, est capable de diagnostiquer sur un nombre limité de patients la maladie d’Alzheimer. Pour arriver à un diagnostic aussi précis, des scans du cerveau (plus de 2100 images, provenant de 1000 patients) ont été utilisés pour former le réseau de neurones à la détection des schémas métaboliques correspondant à la maladie d'Alzheimer.
Les patients « reçoivent une injection de fluorodésoxyglucose, qui permet aux radiologistes et dans ce cas, à un système d’IA, de mesurer l’absorption dans les cellules du cerveau par le biais d’une tomographie par émission de positons ». L’un des co-auteurs de l’étude explique « les différences d’absorption de glucose dans le cerveau sont très subtiles et diffuses. L’identification des biomarqueurs spécifiques de la maladie est facile, mais les changements métaboliques représentent un processus plus global et subtil ».
Durant les tests, portés sur les scans de 40 patients réalisés entre 2006 et 2016, l’IA a détecté avec une sensibilité de 100 % la maladie d’Alzheimer, environ 6 ans avant le diagnostic final, apportés par les médecins. En comparaison, un groupe de médecins identifiant les mêmes scans ont identifié les patients atteints de la maladie dans 57 % des cas.
Les chercheurs sont bien évidemment conscients que l’échantillon sur lequel l’IA a été testée est faible, mais avec davantage d’entraînements, l’IA pourrait servir de base dans l’identification "des différents marqueurs biologiques associés à la maladie d’Alzheimer et permettre un diagnostic et un traitement plus précoces de la maladie".
Article rédigé par Georges Simmonds pour RT Flash
RSNA
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Imaginez des microrobots qui, une fois injectés dans le sang, sont téléguidés vers le cerveau pour atteindre une tumeur cérébrale. Ils pénètrent alors dans les cellules cancéreuses et y déposent un traitement qui détruit celles-ci de l’intérieur. De la science-fiction ? Peut-être plus pour longtemps.
Un tel projet vient en effet d’être sélectionné pour bénéficier d’un financement du plan Cancer de l’Inserm sur trois ans. Coordonné par Joël Eyer, directeur de recherche Inserm à l’Université d’Angers, il implique aussi deux équipes de l’Institut national des sciences appliquées (INSA) Centre-Val de Loire. Ensemble, ces chercheurs vont associer leurs savoir-faire afin de développer cette solution thérapeutique innovante contre le glioblastome multiforme. Faute de traitement efficace, ce type de cancer du cerveau très agressif réduit en effet à quinze mois en moyenne l’espérance de vie des quelque 3 000 personnes diagnostiquées chaque année en France.
L’origine de ce projet ambitieux remonte aux travaux de Joël Eyer et de son équipe sur des éléments essentiels du cytosquelette, conférant à ces dernières leur structure et leurs propriétés mécaniques : les neurofilaments. Ces chercheurs ont notamment mis en évidence qu’un constituant de certains neurofilaments, un peptide, pénètre les cellules de glioblastome in vitro mais aussi in vivo dans des modèles expérimentaux de ce cancer du cerveau.
"Ce peptide s’introduit dans les cellules cancéreuses mais il ne pénètre pas dans les neurones sains", précise Joël Eyer. "Nous avons alors eu l’idée de l’utiliser pour injecter des produits anticancéreux spécifiquement dans les cellules de glioblastome et ainsi épargner les tissus non touchés". Dans ce but, les chercheurs ont développé des nanocapsules.
Ces sortes de gélule de taille nanométrique – soit mille fois plus petite que l’épaisseur d’un cheveu – sont composées d’une enveloppe de lipides qui renferment des substances thérapeutiques. L’ajout du peptide à leur surface leur permet de pénétrer plus facilement les cellules du glioblastome. Des travaux sur des souris modèles de ce type de cancer ont d’ailleurs confirmé que lorsque ces nanocapsules présentent ce peptide à leur surface, un plus grand nombre d’entre elles pénètre les cellules cancéreuses, ce qui réduit d’autant plus la taille des tumeurs de ces rongeurs.
Aujourd’hui, ce projet lauréat du plan Cancer de l’Inserm consiste à amener ces nanocapsules jusqu’au site de la tumeur dans le cerveau de manière peu invasive. C’est là qu’entre en jeu l’équipe de nanorobotique d’Antoine Ferreira de l’INSA Centre-Val de Loire de Bourges. "Les systèmes robotisés que nous avons développés permettent en effet le contrôle du mouvement de particules magnétiques dans un fluide biologique", précise Antoine Ferreira. Fondés sur le principe de la résonance magnétique, notamment exploité par l’imagerie médicale, leurs appareils utilisent des électroaimants pour faire varier finement un champ magnétique dans toutes les directions de l’espace et ainsi déplacer les particules aimantées qui s’y trouvent.
L’équipe de Joël Eyer cherche donc à conférer des propriétés magnétiques aux nanocapsules qu’ils ont développées pour qu’elles puissent être téléguidées dans la circulation sanguine. Ce qui peut être fait en intégrant par exemple au cœur de celles-ci de la magnétite, un oxyde de fer naturellement aimanté.
Par ailleurs, pour maximiser les chances de réussite, les chercheurs ne misent pas tout sur le même cheval. En parallèle, une équipe de l’INSA Centre-Val de Loire de Tours, dirigée par Gaël Gautier, développe en effet un autre type de nanoparticules à base de silicium poreux, un élément biocompatible qui se dissout lentement dans l’organisme. "Le silicium présente l’avantage d’être photoluminescent, ce qui permet de le localiser dans les tissus par une méthode non invasive", poursuit Gaël Gautier.
Par ailleurs, "la surface de ce type de particules peut être facilement modifiée pour incorporer des molécules telles que le peptide découvert par l’équipe de Joël Eyer". Et à l’image des nanocapsules lipidiques, leurs propriétés magnétiques peuvent être ajustées grâce à des particules de fer. "Les premiers tests de téléguidage de ces deux types de nanocapsules magnétisées devraient avoir lieu sur des rats en début d’année prochaine", poursuit Antoine Ferreira.
Concrètement, le rongeur, placé au centre des électroaimants, se verra injecter les nanoparticules magnétiques par voie intraveineuse. Celles-ci seront alors guidées vers le cerveau le long d’une trajectoire dans le réseau sanguin préalablement cartographiée à l’aide d’IRM et de rayons X. Leur déplacement sera suivi en temps réel par échographie ou par fluorescence, ce qui permettra de corriger les possibles erreurs de trajectoire.
Une fois arrivées dans le cerveau, les nanocapsules devront traverser la barrière hémato-encéphalique, qui sépare la circulation sanguine et le système nerveux central, cette interface physiologique qui protège notre cerveau des substances toxiques et des agents pathogènes potentiellement présents dans le sang. "Il est possible d’échauffer localement les particules par résonance magnétique", affirme le nanoroboticien. "L’élévation de température occasionnée dilatera les pores de la barrière hémato-encéphalique, ce qui devrait faciliter le passage des nanocapsules". Une fois passée cette barrière, elles devraient alors pénétrer préférentiellement dans les cellules du glioblastome pour y libérer les substances thérapeutiques qu’elles contiennent.
Trois années d'études sont encore nécessaires, pense Joël Eyer, qui espère ainsi apporter sa contribution au combat contre ce cancer. Mais pas seulement. Car si ce concept fait ses preuves, il pourra trouver de nombreuses applications en médecine, par exemple dans la lutte contre la maladie d’Alzheimer ou encore dans la prise en charge des accidents vasculaires cérébraux (AVC).
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
C’est un acte chirurgical de pointe, extrêmement innovant, qu’ont réalisé le Docteur Nicolas Doumerc et ses équipes au CHU de Toulouse. À l’aide d’un robot, ils ont effectué une auto-transplantation rénale sans incision de la paroi abdominale, le 9 février 2018.
L’opération a été réalisée sur une jeune femme de 30 ans qui, suite à un dramatique accident de la route, a eu un traumatisme abdominal d’une extrême gravité avec des conséquences importantes : saignement intra-péritonéal, ablation d’une partie de l’intestin et délabrement de la paroi abdominale.
Après cet accident, la patiente avait subi trois opérations qui avaient nécessité d’ouvrir son abdomen, dont deux en urgence. Suite à l’accident, son uretère (le canal qui conduit l’urine des reins vers la vessie) et son rein gauche ont été très abîmés. Les premiers temps, la patiente a même dû être équipée d’un appareillage externe spécifique pour recueillir ses urines.
C’est pourquoi quelques mois après l’accident la jeune femme a été prise en charge par le Docteur Nicolas Doumerc et l’équipe de chirurgie urologique, andrologique et de transplantation rénale du CHU de Toulouse afin que son uretère soit réparée.
Habituellement, les chirurgiens peuvent remplacer l’uretère avec un bout d’intestin grêle, mais celui de la patiente est trop abîmé pour envisager cette technique. Les chirurgiens s’orientent alors vers une auto-transplantation du rein, une technique avec laquelle le rein est déplacé et repositionné au contact de la vessie pour combler la partie de l’uretère manquante. Une technique qui donne de bons résultats mais qui implique d’ouvrir l’abdomen par deux fois. Or, la patiente ayant déjà subi de nombreuses opérations, lui imposer à nouveau une chirurgie très lourde aurait pu avoir d'importantes conséquences physiques et morales.
Le Docteur Doumerc propose alors une troisième solution : réaliser l’auto-transplantation sans ouvrir l’abdomen de la patiente, à l’aide d’un robot. Seules six petites incisions ont été nécessaires pour réaliser l’opération qui a été un franc succès : la patiente n’a été hospitalisée que trois jours. Aujourd’hui, la patiente se porte bien et son rein fonctionne parfaitement.
Article rédigé par Georges Simmonds pour RT Flash
Actu.fr
|
|
|
|
|
|
|
|
Des chercheurs de la Swanson School of Engineering de l’Université de Pittsburgh ont montré que la soie, combinée à des nanotubes de carbone, pourrait donner naissance à une nouvelle génération de dispositifs biomédicaux et à une électronique dite transitoire et biodégradable.
"La soie est un matériau très intéressant. Elle est composée de fibres naturelles que l’homme utilise depuis des milliers d’années pour la fabrication de textiles de haute qualité, mais nous, ingénieurs, avons récemment commencé à apprécier le potentiel de la soie pour de nombreuses applications émergentes telles que la bioélectronique flexible. en raison de sa biocompatibilité, de sa biodégradabilité et de sa flexibilité mécanique uniques", a déclaré Mostafa Bedewy, professeur assistant en génie industriel à la Swanson School et auteur principal du document.
Ces fibroïnes de soie régénérées (RSF) sont toutefois généralement chimiquement instables dans l’eau et présentent des propriétés mécaniques inférieures, en raison de la difficulté à contrôler avec précision la structure moléculaire des protéines de fibroïne dans les films de RSF. Bedewy et son groupe NanoProduct Lab, qui travaillent également beaucoup sur les nanotubes de carbone (NTC), ont estimé que les interactions moléculaires entre les nanotubes et les fibroïdes pourraient peut-être permettre « d’ajuster » la structure des protéines RSF.
"L’un des aspects intéressants des NTC est que, lorsqu’ils sont dispersés dans une matrice polymère et exposés à un rayonnement micro-ondes, ils chauffent localement", a expliqué le Dr Bedewy. "Nous nous sommes donc demandé si nous pouvions tirer parti de ce phénomène unique pour créer les transformations souhaitées dans la structure de la fibroïne autour des NTC dans un composite "RSF-CNT".
Selon M. Bedewy, l’irradiation par micro-ondes, associée à un traitement à la vapeur de solvant, fournissait un mécanisme de contrôle unique pour la structure de la protéine et donnait un film souple et transparent comparable aux polymères synthétiques, mais qui pourrait être à la fois plus durable et dégradable. Ces films RSF-CNT ont un potentiel d’utilisation dans l’électronique flexible, les dispositifs biomédicaux et l’électronique transitoire tels que les capteurs qui pourraient être utilisés pendant une période souhaitée dans le corps allant de quelques heures à plusieurs semaines, puis se dissoudre naturellement.
Article rédigé par Georges Simmonds pour RT Flash
Mode in Textile
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
C'est un basculement historique qui vient d'avoir lieu en Grande-Bretagne : pour la première fois, la production d'électricité issue des énergies renouvelables (éolien, solaire, mer et biomasse) a dépassé (avec 41,9 GW) celle issue des énergies fossiles (charbon, pétrole et gaz), qui a représenté 41,2 GW.
Au cours des cinq dernières années, la capacité électrique des énergies renouvelables a triplé, pendant que celle des centrales à charbon diminuait d’un tiers. Elles ne sont plus que six en activité aujourd’hui, après neuf fermetures entre 2011 et 2016. Cette baisse des capacités de production électrique du charbon a permis une chute spectaculaire de la part du minerai dans la production d’électricité : d’encore 40 % en 2012, elle est tombée à 23 % en 2015 puis à 9 % l’an dernier.
Pendant ce temps, les énergies renouvelables ont bondi avec, au premier rang, l’éolien puis le solaire, loin devant la biomasse. Le Royaume-Uni rassemble désormais à lui seul 45 % de la capacité éolienne off-shore mondiale. Le plus grand parc éolien off-shore existant à ce jour a été inauguré en septembre dernier, au large de l’île Walney, en mer d’Irlande.
Côté énergie solaire, et malgré le faible taux d’ensoleillement du pays, les panneaux photovoltaïques se sont multipliés, dans des fermes solaires mais aussi sur près d’un million de toits.
Article rédigé par Georges Simmonds pour RT Flash
ICL
|
|
|
|
|
|
|
|
Des scientifiques suédois ont mis au point un fluide spécifique, appelé combustible solaire thermique, capable de stocker de l’énergie solaire pendant plus de dix ans. « Un carburant solaire thermique est comme une batterie rechargeable, mais au lieu de l’électricité, vous emmagasinez de la lumière et restituez de la chaleur à la demande » explique Jeffrey Grossman, ingénieur en matériaux au MIT.
Le fluide est en fait une molécule sous forme liquide que les scientifiques de l’Université de technologie de Chalmers, en Suède, s’emploient à améliorer depuis plus d’un an. Cette molécule est composée de carbone, d’hydrogène et d’azote. Lorsqu’elle est frappée par la lumière du soleil, elle produit un phénomène inhabituel : les liaisons entre ses atomes sont réarrangées et elle se transforme en une nouvelle version énergétique (un isomère).
L’énergie du soleil est ainsi capturée entre les fortes liaisons chimiques de l’isomère et y reste même lorsque la molécule se refroidit à la température ambiante. Pour accéder à l’énergie stockée, le fluide est simplement passé à travers un catalyseur qui ramène la molécule à sa forme originale, libérant de l’énergie sous forme de chaleur.
« L’énergie contenue dans cet isomère peut maintenant être stockée jusqu’à 18 ans » déclare Kasper Moth-Poulsen, chercheur en nanomatériaux à l’Université de Chalmers. « Et lorsque nous extrayons l’énergie et l’utilisons, nous obtenons une augmentation de chaleur supérieure à nos prédictions ».
Un prototype du système énergétique, placé sur le toit d’un bâtiment universitaire, a mis le nouveau fluide à l’épreuve et selon les chercheurs, les résultats ont retenu l’attention de nombreux investisseurs. Le dispositif d’énergie renouvelable sans émissions se compose d’un réflecteur concave avec un tuyau au centre, qui suit le soleil comme une sorte de parabole satellite.
Article rédigé par Georges Simmonds pour RT Flash
Trust My Science
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude internationale dirigée par Marco Springmann (Université d'Oxford) et Michael Clark (Université du Minnesota), les pays développés vont devoir réduire de 90 % leur consommation de viande pour préserver la planète et nourrir les quelque 10 milliards d'humains attendus d'ici 2050.
Dans cette étude intitulée "Options pour conserver notre système alimentaire mondial dans des limites environnementales acceptables", il est rappelé que la production agroalimentaire, consommatrice d'eau, source de déforestation, est un facteur majeur de réchauffement climatique. Et sans un recul net de la consommation de viande, son impact sur l'environnement pourrait croître jusqu'à 90 % d'ici la moitié du siècle.
L'étude appelle également à réduire fortement le gaspillage alimentaire colossal de la planète, estimé à environ 1,3 milliard de tonnes par an, et prône de meilleures pratiques agricoles. "Aucune solution à elle seule ne suffira à nous garder dans 'les limites planétaires'," souligne Marco Springmann, auteur de l'étude. "Mais si toutes les solutions étaient mises en œuvre ensemble, il pourrait être possible de nourrir de façon durable une population en pleine croissance".
L'étude souligne que "Sans action concertée, les impacts environnementaux de notre alimentation pourraient croître de 50 à 90 % d'ici 2050, du fait de la croissance de la population et de régimes toujours plus riches en graisses, sucre et viande". L'élevage en particulier a un fort impact, les animaux générant de fortes émissions de méthane (gaz à effet de serre moins persistant que le CO2 mais beaucoup plus réchauffant). Produire de la viande est aussi synonyme de consommation d'eau : pour produire 1 kg de bœuf, il faut environ 1,4 m3 d'eau !
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une étude du Centre médical de Hope (Californie) confirme qu'une perte de poids, même modeste, permet de réduire son risque de cancer du sein. Des résultats d’observation, obtenus chez des femmes ménopausées, qui viennent confirmer, dans la revue Cancer, de précédentes études suggérant que des changements dans l'alimentation -et donc du poids corporel- peuvent contribuer à réduire le risque.
Cette étude menée auprès de 61.335 femmes ménopausées participant à l'étude d'observation de la World Health Initiative conclut que les participantes ayant perdu du poids courent un risque moins élevé de développer un cancer du sein invasif que celles qui maintiennent leur poids ou prennent du poids.
Au cours d'un suivi moyen de 11,4 ans, 3 061 nouveaux cas de cancer du sein invasif ont été diagnostiqués ; les femmes ayant perdu du poids (au moins 5 % du poids corporel) présentent un risque de cancer du sein réduit de 12 % par rapport aux femmes de poids stable.
L'étude montre également qu'une prise de poids d'environ 5 % ne s’avère pas associée à une augmentation du risque de cancer du sein mais à une incidence plus élevée de 54 % du cancer du sein triple négatif.
L’auteur principal, le Docteur Rowan Chlebowski, rappelle que ces résultats sont cohérents avec les autres études disponibles et il conseille aux femmes ménopausées, cible de l’étude, d’adopter un régime alimentaire allégé en graisses.
Article rédigé par Georges Simmonds pour RT Flash
Cancer
|
|
|
|
|
|
|
|
On savait déjà qu'à tout âge, l'arrêt du tabac est toujours bénéfique pour la santé. A cet égard, une nouvelle étude présentée à l’American Heart Association (AHA) Meeting estime qu’il faut 16 ans d’arrêt du tabac pour retrouver le niveau de risque cardiovasculaire d’un non-fumeur.
De nombreuses études ont déjà suggéré que le risque accru de maladie cardiovasculaire chez les fumeurs diminue quelques années après avoir cessé de fumer, mais ces études n'ont pas regardé les antécédents de tabagisme, y compris les modifications des habitudes tabagiques, telles que la variation du nombre de cigarettes fumées par jour. Selon ces données préliminaires, il faut bien plus de 15 ans pour que le risque de développer une maladie cardiovasculaire revienne au niveau de celui d’un non-fumeur.
70 % des maladies cardiovasculaires sont concentrées chez les gros fumeurs (qui ont fumé au moins 20 années-paquets) : dans cette analyse, les chercheurs ont pris en compte les antécédents de tabagisme au long de la vie, de près de 8.700 participants à l'étude Framingham Heart Study, exempts de maladie cardiovasculaire au début de l'étude. Le point médian du suivi chez les participants était de 27 ans, période au cours de laquelle le risque de maladie cardiovasculaire a été comparé chez les fumeurs actuels, les anciens fumeurs et les non-fumeurs.
Cette analyse a montré que plus de 70 % des maladies cardiovasculaires chez les fumeurs actuels ou chez les anciens fumeurs se sont développées chez des patients qui ont fumé au moins 20 années-paquets, soit l'équivalent d'une consommation d’un paquet par jour pendant 20 ans.
Autre enseignement, les anciens fumeurs qui avaient cessé de fumer au cours des 5 dernières années ont réduit leur risque de maladie cardiovasculaire de 38 % par rapport à ceux qui ont continué à fumer ; et cela, en moyenne, toutes antériorités du sevrage confondues.
Article rédigé par Georges Simmonds pour RT Flash
American Heart Association
|
|
|
|
|
|
|
|
Selon une étude menée sur des souris et dont les résultats ont été présentés lors de la rencontre annuelle de la Société américaine des neurosciences qui s’est tenue du 3 au 7 novembre à San Diego, en Californie, les neurones du système nerveux entérique – celui qui contrôle le système digestif et qu’on appelle parfois “deuxième cerveau” – sont presque entièrement remplacés toutes les deux semaines.
Subhash Kulkarni, chercheur à l’Université Johns Hopkins, et son équipe, ont découvert que les neurones de la muqueuse intestinale de souris meurent constamment à un rythme assez rapide et que l’intestin possède des cellules souches qui prolifèrent aussi rapidement. “En d’autres termes, il y a un fort taux de remplacement des cellules – mais le nombre de neurones reste toujours le même”, explique le chercheur, cité par le journal scientifique.
Selon ces travaux, l’accumulation d’une protéine appelée alpha-synucléine, dont une étude récente a montré qu’elle était impliquée dans la maladie de Parkinson, serait une conséquence du renouvellement des neurones de l’intestin. “Si quelque chose se détraque dans les mécanismes d’élimination, ou si la production et l’élimination constante de neurones se télescopent, il finit par y avoir une accumulation de déchets", explique-t-il. "Et plus les déchets s’accumulent, plus la quantité d’alpha-synucléine augmente”.
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
|
|
|
|
|
|
Une équipe de recherche américaine, dirigée par le neuroscientifique Vibol Heng et ses collègues de l’Université Thomas Jefferson de Philadelphie, a réalisé sur des souris une étude qui montre les effets néfastes sur le cerveau d'une désocialisation et d'une solitude subies.
Ces chercheurs ont arraché des souris à leurs groupes sociaux pour une période d’un mois. Ils ont constaté que les rongeurs présentaient à la fin de leur confinement des cellules nerveuses plus petites dans certaines parties du cerveau. D'autres changements cérébraux ont suivi, affirment les auteurs, qui ont présenté leur recherche lors de la réunion annuelle de la Society for Neuroscience de San Diego en Californie.
L’isolement a des conséquences physiologiques et psychologiques importantes, telles que la dépression, le stress, les déficits cognitifs et les pertes de mémoire et de concentration. Malgré ces effets bien connus, on savait peu de choses sur l'impact de l'isolement sur le cerveau lui-même.
En juin dernier, des chercheurs danois avaient montré que le fait de vivre dans la solitude pourrait être un facteur important de décès prématuré, d'une détérioration de la santé mentale et d'une mauvaise qualité de vie chez les personnes atteintes d'une maladie cardiovasculaire.
Dans cette nouvelle étude, les chercheurs ont donc développé un modèle où des souris sont nées et ont grandi dans un environnement social riche, puis ont été placées en milieu isolé à l'âge adulte (4 mois). Ce passage abrupt d'une société complexe à un isolement de 30 jours a provoqué des changements importants dans leurs cerveaux : parmi ceux-ci, on constate notamment que la taille globale des cellules nerveuses, ou neurones, a diminué d'environ 20 % après un mois d'isolement. Ce rétrécissement s'est maintenu à peu près au même niveau pendant trois mois d’isolement.
Toutefois, à la surprise de l’équipe de recherche, après un mois d'isolement, les neurones des souris présentaient une densité plus élevée d’épines dendritiques, des structures qui permettent d'établir des connexions entre neurones. Après trois mois d’isolement, toutefois, la densité des épines dendritiques est revenue à son niveau de départ, ce qui indique, selon M. Smeyne, que « le cerveau a essayé de se rétablir seul, mais qu’il n’y a pas réussi ».
De plus, les chercheurs ont également noté d'autres signaux inquiétants, dont la réduction d'une protéine appelée BDNF, qui stimule la croissance neuronale, et la hausse du niveau de l'hormone du stress. Les chercheurs ont basé leurs études sur les neurones du cortex sensoriel, une zone du cerveau impliquée dans l'assimilation de l'information, et du cortex moteur, qui aide à contrôler le mouvement.
Article rédigé par Georges Simmonds pour RT Flash
Neuro-2018
|
|
|
|
|
|
|
|
On le sait, le diabète est devenu un défi majeur de santé publique dans le monde. On estime que le nombre des personnes atteintes de diabète est passé de 108 millions en 1980 à 422 millions en 2014. La prévalence mondiale du diabète chez les adultes de plus de 18 ans est passée de 4,7 % en 1980 à 8,5 % en 2014. Le diabète serait déjà responsable de 3,7 millions de morts prématurées par an à l'échelle mondiale et L'OMS prévoit qu'en 2030, le diabète sera la septième cause de décès dans le monde. En France, le diabète touche près de 3,3 millions de personnes, soit 5 % de la population et il est responsable d'environ 35 000 morts par an.
Plus de neuf diabétiques sur dix souffrent de diabète de type 2, c'est-à-dire que leur organisme ne produit pas d'insuline en quantité suffisante ou l'utilise à mauvais escient. Il touche majoritairement les adultes en surpoids, obèses, sédentaires. Mais un nouveau un traitement révolutionnaire pourrait venir changer la donne. Testé sur cinquante patients diabétiques de l’hôpital universitaire d’Amsterdam, il permet aux personnes traitées de stabiliser leur maladie voire d’oublier les injections d’insuline jusqu’alors indispensables à leur état de santé.
Les patients ayant subi cette opération se sont vus introduire un tube de la bouche jusqu’à l’intestin grêle, au bout duquel se trouvait un petit ballon rempli d’eau chaude, utilisée pour brûler la membrane muqueuse. Cette procédure consiste à détruire la membrane muqueuse de l’intestin grêle pour en avoir une nouvelle.
La glycémie des personnes concernées aurait été stable pendant près d’un an pour 90 % des cas. Ainsi, les chercheurs pensent avoir trouvé un lien entre l’absorption des nutriments par la membrane muqueuse et le développement de la résistance à l’insuline, hormone sécrétée par le pancréas et qui permet au glucose d’entrer dans les cellules du corps.
« Grâce à ce traitement, l’utilisation de l’insuline peut être différée, voire empêchée. C’est prometteur ! » déclare Jacques Bergmam, professeur de gastro-entérologie à l’Amsterdam UMC auprès du média néerlandais "Nederlandse Omroep Stichting". « Chez ces personnes, nous avons vu une amélioration spectaculaire des taux de sucre dans le sang une journée après l’opération ».
Les chercheurs pensent désormais que le traitement pourrait aussi réduire le risque de maladie cardiovasculaire, d’insuffisance rénale, de cécité ou encore d’engourdissement des mains et des pieds, qui comptent parmi les complications du diabète. Actuellement, une étude d’ampleur internationale est en préparation. Une centaine de personnes atteintes de diabète 2 a été recrutée, il s’agira cette fois-ci de patients ne s’injectant pas encore d’insuline mais suivant seulement un traitement médical.
Article rédigé par Georges Simmonds pour RT Flash
The Guardian
|
|
|
|
|
|
|
|
Des chercheurs britanniques de l'University College of London ont étudié les habitudes alimentaires de 36 000 personnes dans cinq pays - l'Australie, la France, l'Espagne, les États-Unis et le Royaume-Uni. Les scientifiques ont alors relevé divers cas similaires dans le monde entier. "On a remarqué une association entre l'adhésion à un régime méditerranéen et une diminution du risque d'inflammation et donc à un risque plus faible de dépression", expliquent-ils.
L'inflammation est une réponse immunitaire de notre corps. Elle est souvent due au stress ou à notre alimentation. Dans ce cas-ci, manger des aliments gras et sucrés, et boire trop d'alcool, sont les principales causes d'une inflammation. Au contraire, les plats riches en légumes, fruits, légumineuses et noix ont tendance à réduire le risque d'inflammation. Leur taux élevé en fibres, vitamines, minéraux et de polyphénols antioxydants forme une protection naturelle. D'après les chercheurs, les personnes qui suivaient de plus près le régime méditerranéen classique étaient 33 % moins susceptibles de développer une dépression.
D'après le docteur Tasnime Akbaraly, de l'Inserm (France), coauteur de l'étude, à défaut de pouvoir réellement prouver l'efficacité d'un certain type d'alimentation sur la santé mentale, "il existe désormais de solides arguments en faveur de la prise en compte du régime alimentaire dans la médecine psychiatrique, ce qui est très important au niveau de la santé publique, dans un contexte où une mauvaise alimentation est aujourd'hui reconnue comme la principale cause de décès prématuré dans les pays à revenu moyen et élevé", a-t-il encore ajouté.
Article rédigé par Georges Simmonds pour RT Flash
The Independent
|
|
|
|
|
|
|
|
Selon une étude canadienne réalisée par des chercheurs du Neuro, de l’Université McGill et du Centre de recherche CERVO de l’Université Laval, l’être humain peut continuer d’apprendre jusqu’à un âge avancé grâce à une molécule protéique appelée « nétrine ». La nétrine est connue pour son rôle dans le développement normal du cerveau pendant la première enfance.
Cette protéine guide les cellules cérébrales pour qu’elles établissent de bonnes connexions entre elles. Une nouvelle étude réalisée par des chercheurs du Neuro montre que la nétrine participe au renforcement des connexions neuronales dans le cerveau adulte et joue donc un rôle essentiel non seulement dans l’apprentissage, mais également dans la préservation d’une bonne mémoire.
« On se demandait jusqu’ici pourquoi les neurones continuaient de produire de la nétrine dans le cerveau adulte, alors que toutes les connexions neuronales avaient déjà été établies au cours de la première enfance », souligne le Professeur Timothy Kennedy, chercheur au Neuro et auteur en chef de l’article publié dans l’édition du 2 octobre2018 de la revue Cell Reports. « Nous avons découvert que lorsqu’il est actif, un neurone libère de la nétrine. Cette dernière participe alors au renforcement de la connexion entre ce neurone et un neurone voisin au niveau de la jonction synaptique (synapse) activée. La nétrine envoie essentiellement le message suivant aux deux neurones : “Renforcez la synapse” ».
Il y a de cela de nombreuses années, le neuropsychologue Donald Hebb, de l’Université McGill, avait évoqué la possibilité que l’activité synaptique en soi puisse influer sur la robustesse ou la faiblesse des connexions synaptiques. Ainsi, en 1949, il formulait la théorie selon laquelle « des neurones qui s’excitent ensemble se lient entre eux ». Lorsque plusieurs neurones s’excitent mutuellement de façon répétée, ils forment un circuit capable de processus cognitifs. La théorie de Hebb apportait alors une explication physiologique novatrice à l’existence de processus tels que l’apprentissage et la mémoire. « Selon nous, le processus moléculaire que nous venons de découvrir 69 ans plus tard est au cœur même de cette théorie », affirme le Professeur Kennedy.
En 1957, Brenda Milner, neuroscientifique œuvrant au Neuro, a publié un article qui a fait autorité dans lequel elle démontrait l’importance de l’hippocampe dans certains types d’apprentissage et de mémoire. Les scientifiques se sont ensuite intéressés de plus près à l’hippocampe et à la complexité de l’activité synaptique.
« Si on ramène tout le processus à une seule molécule », affirme le Professeur Kennedy, « la libération régulée de nétrine est essentielle au type de modifications synaptiques qui président aux changements neuronaux intervenant dans l’apprentissage et la mémoire. C’est exactement ce dont parlait Brenda Milner ».
Stephen Glasgow, chercheur associé au Neuro et auteur principal de l’article publié dans la revue Cell Reports, qualifie ces travaux sur la nétrine « d’énorme avancée dans la compréhension des mécanismes à l’origine de la formation des souvenirs et du stockage de ces derniers dans notre mémoire. Nos travaux montrent que la nétrine joue un rôle essentiel dans la modulation de la force des connexions entre les cellules cérébrales, et constitue une nouvelle cible pour la recherche sur les maladies qui touchent la fonction mnésique ».
Par ailleurs, même si des données génétiques viennent étayer le rôle de la nétrine dans de nombreuses maladies neurodéveloppementales et neurodégénératives, comme la maladie d’Alzheimer, la maladie de Parkinson et la sclérose latérale amyotrophique, la nature exacte de ce rôle est loin d’avoir été décrite avec précision.
« Nous avons mis au jour une excellente cible pour la conception de médicaments », précise le Professeur Kennedy. « Idéalement, pour préserver la fonction mnésique, il faudrait disposer d’un composé capable de cibler les mécanismes moléculaires synaptiques clés. Des études récentes ont révélé que de nombreuses connexions synaptiques dans le cerveau adulte ne sont pas activées, à l’instar d’ampoules électriques éteintes. Elles sont tout à fait fonctionnelles, mais inactives. Il existe peut-être un réservoir de synapses dans lequel nous pourrions puiser afin de modifier la puissance des connexions entre les neurones. Nous croyons avoir trouvé un mécanisme moléculaire pour activer ces synapses ».
Comme le souligne Edward Ruthazer, également chercheur au Neuro et coauteur de l’étude, « il est particulièrement intéressant de constater que le renforcement de ces connexions synaptiques semble nécessiter la libération de nétrine dans l’espace extracellulaire, offrant ainsi une occasion jusqu’ici insoupçonnée d’interaction avec d’autres cellules ».
Forts de leur découverte, le Professeur Kennedy et ses collègues poursuivent maintenant leurs travaux en étudiant la réaction des neurones au retrait ou à l’ajout de nétrine.
Article rédigé par Georges Simmonds pour RT Flash
McGill
|
|
|
|
|
|
|
|
Les vésicules extracellulaires sont des entités libérées par les cellules ; elles ont longtemps été considérées comme de la « poussière cellulaire » sans valeur. Or, des études récentes montrent qu'elles possèdent des propriétés thérapeutiques comparables à leurs cellules mères, sans leurs inconvénients.
En effet, les vésicules ne se divisent pas, limitant le risque de développer un cancer, ne se différencient pas, empêchant qu'elles développent une mauvaise fonction et semblent pouvoir être produites par un seul donneur pour plusieurs patients. De plus, elles ont déjà montré leur potentiel thérapeutique chez l'animal, dans la régénération de lésions cardiaques, hépatiques, ou encore rénales.
Dans le cas de fistules digestives où il existe une communication anormale entre les organes du tube digestif entre eux ou avec la peau, la médecine régénérative représente une importante piste thérapeutique. Ces fistules répondent faiblement aux traitements actuels et peuvent se développer suite à une complication post-opératoire ou à une maladie auto-immune comme la maladie de Crohn, engendrant un dysfonctionnement du tube digestif.
Pour la première fois, des chercheurs du laboratoire Matières et systèmes complexes (CNRS/Université Paris Diderot), du service hépato-gastro-entérologie et endoscopie digestive à l'hôpital européen Georges-Pompidou AP-HP et du laboratoire Imagerie de l'angiogénèse, plateforme d'imagerie du petit animal (Inserm/Université Paris Descartes/HEGP), ont utilisé des vésicules extracellulaires issues de cellules souches pour traiter des fistules digestives chez un modèle porcin. L'étude révèle que l'injection locale de ces vésicules dans un gel au niveau de la fistule induit 100 % de fermeture des fistules digestives post-chirurgicales.
Les chercheurs envisagent désormais de tester cette nouvelle approche dans un modèle de fistules périnéales comme dans la maladie de Crohn, avec l'espoir de remplacer dans le futur l'injection des cellules souches. Le gel de vésicules pourrait être administré localement, de façon peu contraignante pour une thérapie plus simple, plus sûre et plus efficace.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
A l'occasion du salon Pollutec qui s'est tenu à Lyon du 27 au 30 novembre 2018, Eiffage a annoncé le lancement début 2019 de l'expérimentation d'une navette autonome sur route ouverte. Baptisée Mia pour "mobilité intelligente autonome", la navette va circuler pendant deux ans sur un trajet d'1,2 kilomètre dans la ZAC de Gaulnes, à Jonage, dans l'Est lyonnais.
Ce projet est à l'initiative d'Eiffage Énergie Systèmes qui a formé un groupement public-privé avec l’opérateur Berthelet, la Métropole de Lyon, la SERL (Société d’équipement et d’aménagement du Rhône et de Lyon) et le Sytral (Syndicat mixte des transports pour le Rhône et l’agglomération lyonnaise).
Avec cette expérimentation, l'idée est de "prolonger le transport public", explique à L'Usine Digitale Olivier Malaval, le directeur région Centre-Est Eiffage Énergie Systèmes. Le parcours de Mia débute donc à l'arrêt situé au bout de la ligne de tram et se poursuit dans la ZAC de Gaulnes. La navette autonome, qui peut accueillir jusqu'à 15 passagers, va desservir 6 arrêts et rouler jusqu'à 25 km/h entre 7h-9h, 12h-14h et 17h-19h.
"Dès le début, le choix a été fait d'avoir une navette accessible à tout public et gratuite", précise Olivier Malaval. Quelque 1500 salariés se situent sur le trajet emprunté par la navette qui va devoir cohabiter avec les autres usagers de la route. Mia va emprunter "deux carrefours en pleine circulation", ajoute Olivier Malaval. Pour faciliter son trajet, des systèmes de communication dits V2X ont donc été intégrés aux infrastructures existantes afin de permettre à la navette de communiquer avec son environnement. Par exemple, "à son approche, les feux de signalisation sont prévenus et Mia devient prioritaire", explique le directeur régional d'Eiffage Énergie Systèmes.
L'idée est de tester ce transport du dernier kilomètre et de voir comment les gens réagissent à l'arrivée de cette navette autonome. "Aucun objectif chiffré" du nombre de passagers à transporter n'a été fixé, assure Olivier Malaval. Le consortium souhaite montrer qu'aujourd'hui la technologie pour faire rouler une navette autonome existe et qu'il est possible de créer un tel service grâce à un financement regroupant des entités publiques et privées.
Et si l'expérimentation rencontre un certain succès, il sera possible de prolonger le parcours afin d'aller desservir des entreprises situées plus loin dans la ZAC de Gaulnes. Une deuxième navette autonome pourrait ainsi venir enrichir l'offre afin de ne pas dégrader le service.
La durée de l'expérimentation est intéressante car cela va permettre au consortium de tester d'autres pistes dans ce laboratoire grandeur nature. Par exemple, Mia pourra être synchronisée avec les horaires d'arrivée du tram. Pour cela, "il faut récupérer les informations dans la base de données du Sytral pour connaître les horaires du tram en temps réel et les coordonner avec la navette", explique Olivier Malaval. "Une autre piste de réflexion est de mixer un service régulier et un service d'arrêt à la demande", ajoute-t-il.
Aujourd'hui, un opérateur doit obligatoirement être présent à bord. Mais peut-être que d'ici à deux ans il sera possible d'avoir un véhicule autonome uniquement supervisé à distance. "Cette piste d'évolution est très intéressante sur le plan sociétal", selon Olivier Malaval. "Le fait d'avoir une supervision renforcée et déportée abaissera le coût d'exploitation de la navette autonome sur le dernier kilomètre". Une telle solution de mobilité pourra alors être déployée massivement sans coûter trop cher à l'opérateur.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Digitale
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|