|
|
Edito
Le stockage et la gestion intelligente de l'énergie ouvrent la voie à une utilisation massive des énergies renouvelables
En 2020, notre pays a prévu un parc éolien de 25 000 MW qui devrait permettre d'éviter l'émission par le secteur énergétique de 16 millions de tonnes de C02 par an. L'éolienne est certes intermittente, mais prévisible à court terme et peut contribuer significativement à l'équilibre du réseau à l'échelle du territoire. Le caractère intermittent de l'énergie éolienne est une réalité physique mais les progrès de la modélisation et de la prévision météorologique permettent d'anticiper de mieux en mieux. En quelques décennies, malgré la variabilité de nos consommations électriques, les gestionnaires de réseaux électriques ont réussi à prévoir les variations de l'appel de puissance des consommateurs. Les études réalisées par RTE démontrent que la productivité du parc éolien français est largement supérieure à la moyenne européenne. Cette spécificité s'explique par le caractère particulièrement avantageux des régimes de vent français (deuxième gisement éolien en Europe, derrière la Grande-Bretagne). En France, nous disposons de trois régimes climatiques différents et complémentaires : océanique, continental et méditerranéen. De ce fait, le vent souffle toujours dans une région ; C'est ce qu'on appelle le « foisonnement ». Par ailleurs, contrairement à certaines affirmations, l'électricité d'origine éolienne ne nécessite pas une puissance équivalente en centrale thermique pour pallier ses variations. Selon les experts du gestionnaire du Réseau de Transport d'Electricité, un parc éolien national d'une puissance de 10 000 MW, réparti sur les trois régions climatiques, apporte la même puissance garantie que 2800 MW de centrales thermiques à flamme, évitant ainsi les émissions de CO2 associées. En 2020, nos éoliennes produiront de manière quasi continue 3 000 MW. La production oscillera entre 1 000 MW et 5 000 MW pendant 70 % de l'année. La production dépassera 5 000 MW pendant 15 % de l'année et se situera sous 1 000 MW pendant les 15 % restants. Il s'agit d'une production bien plus régulière que l'on ne le dit parfois. Son installation permet d'éviter d'avoir recours à un certain nombre de centrales thermiques. Selon l'étude effectuée par RTE à ce sujet, une puissance éolienne de 10 000 MW correspond en réalité à une puissance moyenne de 2 860 MW. Par ailleurs, une telle installation de 10 000 MW éoliens permet en fait de produire 24 TWh en l'espace d'une année, ce qui correspond à la production de 3 000 MW thermiques qui fonctionneraient pendant 8000 heures par an. 10 000 MW éoliens se substituent ainsi à 3 000 MW thermiques à la fois en énergie et en puissance. Cette étude conclut donc au fait que 10 000 MW d'éolien offrent une capacité de substitution de 3 000 MW de thermique à niveau de sécurité équivalent. Par conséquent, les besoins à l'extrême pointe pour RTE, qui atteindront 1 000 MW par an à partir de 2009, seront couverts par la capacité de substitution qu'offrira alors l'éolien entre 2009 et 2012. Cette capacité éolienne nous épargnera des investissements dans le thermique. Par ailleurs, il faut rappeler que les avancées technologiques récentes ouvrent la voie à une utilisation massive des énergies renouvelables. En Allemagne, le Ministère fédéral de l'économie (BMWi) finance des technologies innovantes en stockage de l'électricité permettant d'intégrer la production d'électricité à partir d'énergies renouvelables (en particulier éolienne), en forte croissance, dans le système d'approvisionnement électrique. L'un des premiers projets soutenus par la nouvelle initiative du BMWi est la réalisation d'un accumulateur adiabatique à air comprimé en Allemagne. Cet accumulateur nommé ADELE est développé par un consortium d'entreprises, et le Centre allemand de recherche aérospatiale (DLR), la coordination du travail étant assurée par RWE. L'objectif de ce projet est de stocker efficacement une grande quantité d'énergie et de la restituer au bon moment dans le réseau électrique. Une première installation de démonstration devrait être construite d'ici 2013, avec une capacité de stockage de 1 GWh et une puissance électrique de 200 MW. Ainsi ADELE devrait être en mesure de fournir pendant 5h une quantité d'électricité constante au réseau, de la même manière que 40 éoliennes ultramodernes. Quand le vent est fort, les accumulateurs à air comprimé permettent d'utiliser le surplus d'électricité produit par les éoliennes pour comprimer de l'air et l'injecter dans des réservoirs souterrains (de formations géologiques diverses : sel, roche, aquifère) à l'aide de compresseurs dans un circuit bidirectionnel. L'augmentation de la pression lorsque l'air est comprimé est accompagnée d'une forte croissance du potentiel énergétique du système. En cas de besoin d'électricité, les accumulateurs des cavernes se déchargent de l'air comprimé qui va actionner des turbines. Cependant, cette technique, si elle n'est pas nouvelle, n'a jamais été exploitée, à cause du faible rendement des compresseurs existants. Le stockage adiabatique par air comprimé est un développement à plus haute efficacité énergétique. Lorsque l'air est temporairement stocké à faible température dans les cavités souterraines, la chaleur de compression émise est également stockée ; puis cette chaleur est récupérée, afin de chauffer l'air comprimé réacheminé dans le récupérateur de chaleur, avant sa détente dans la turbine à haute température. L'intégration dans des accumulateurs à air comprimé de grande taille permet de réaliser une telle installation sans alimentation externe et avec un rendement de 70 %. Le groupe énergétique EnBW, en partenariat avec Siemens et avec le soutien du Land de Basse-Saxe, compte également mettre en place d'ici 2011/2012 une centrale de stockage par air comprimé adiabatique en Basse-Saxe. C'est surtout dans le stockage d'électricité que GE Energy compte faire la différence. Ce projet pilote développé par le groupe énergétique EnBW, en partenariat avec Siemens vise une capacité de stockage de 1 GWh et de restitution électrique de 200 MW. Le principe est de comprimer l'air ambiant à 20 ou 30 bars. Sa température grimpe alors à 600°C. Refroidi, l'air comprimé est stocké dans le sol. L'air sera ensuite ressorti du réservoir souterrain en cas de besoin d'électricité, réchauffé, puis envoyé dans une turbine. Le rendement devrait atteindre 70 %. Mais d'autres voies technologiques prometteuses sont explorées, comme les batteries liquides. Une équipe d'ingénieurs australiens de l'université de Nouvelle-Galles du Sud, à Sydney, a trouvé le moyen de stocker l'électricité dans des cuves, sous forme liquide. La centrale éolienne de King Island, une île du sud de l'Australie, expérimente ainsi depuis 2003 un accumulateur à circulation qui emmagasine l'excédent d'électricité produit lorsque le vent souffle fort pour le restituer lorsqu'il faiblit. Ce système pourrait lever l'un des obstacles qui freinent le développement des énergies renouvelables, en leur permettant d'alimenter le réseau en l'absence de vent ou de soleil. A King Island, le générateur thermique qui prend le relais des éoliennes quand il n'y a pas de vent a vu sa consommation de fioul diminuer de moitié. Contrairement aux batteries classiques au plomb, ces derniers utilisent des électrolytes (liquides dans lesquels baignent les plaques de l'accumulateur) qui ne sont pas stockés à l'intérieur, mais dans deux réservoirs externes. C'est leur mise en contact, dans une cuve centrale, qui produit de l'électricité. Pour la recharge, l'apport de courant provenant des éoliennes assure la séparation des deux électrolytes, qui sont à nouveau stockés dans leurs réservoirs. L'avantage du système à circulation sur les batteries classiques réside dans sa capacité à fournir aussi bien un kilowattheure que plusieurs centaines de mégawattheures. L'accumulateur de King Island peut ainsi restituer 200 kilowatts d'électricité pendant quatre heures. Autre solution, un couplage optimal de l'hydraulique et de l'éolien qui pourrait permettre de diminuer de 90% le recours aux sources d'énergie traditionnelles généralement nécessaires pour compenser les irrégularités de production de l'éolien. Une étude de l'ingénieur Leif-Erik Langhans montre que les centrales hydrauliques à pompe se révèlent particulièrement adaptées : en cas de surproduction électrique par les éoliennes, le surplus peut être utilisé pour pomper l'eau du bassin inférieur jusqu'au bassin supérieur ; si l'offre électrique devient inférieur à la demande, l'énergie potentielle ainsi stockée est libérée en relâchant l'eau du bassin supérieur à travers une turbine et convertie en électricité. Enfin, cette production massive d'électricité éolienne peut être intégrée et régulée grâce aux réseaux intelligents ou « smarts grids ».En améliorant la connaissance sur la consommation électrique à l'aide de compteurs intelligents, il serait plus facile d'éviter les pics de consommation et les pannes dues à une surcharge. La gestion de la consommation électrique serait gérée de manière intelligente. Par exemple, pendant les horaires où la consommation est réduite, on pourrait profiter de l'électricité produite pour charger sa voiture électrique. On estime que les compteurs intelligents pourraient permettre de réduire les consommations de 10 %. La Commission européenne recommande d'ailleurs qu'à l'horizon 2020, 80 % des foyers soient équipés de compteurs intelligents afin de mettre en oeuvre les engagements du Paquet énergie climat. En 2008, ERDF, la filiale distribution d'EDF, a lancé une vaste opération d'un coût de 4 milliards d'euros en deux étapes. La première, expérimentale, prévoit l'installation chez les particuliers, d'ici à 2011, de 300 000 compteurs « communicants », qui permettent de recevoir et d'envoyer des données à distance. Cette phase d'expérimentation sera suivie d'un déploiement de grande ampleur (35 millions de compteurs sur le territoire). Ces outils permettent au gestionnaire de réseau un suivi permanent du réseau basse tension, de la qualité de l'électricité, des fluctuations de l'offre et de la demande. On peut alors gérer le réseau électrique de façon beaucoup plus fine et économique, en ajustant en permanence l'offre et la demande. À terme, les producteurs tablent sur le développement du demand response, « la gestion d'énergie négative » en français, un système déjà testé aux États-Unis, dans certaines villes de Californie. Le principe est simple : plutôt que de mettre en route une centrale thermique à flamme, on demande au client d'abaisser sa consommation, ce qui permet de « lisser » la demande. Un rapport publié en 2008 par l'EPRI (l'Institut de recherche américain sur l'énergie électrique) indique que le déploiement du smart grid pourrait réduire les émissions de CO2 de 60 à 211 millions de tonnes en 2030. Le déploiement d'un réseau intelligent permet aussi aux producteurs de suivre et d'intégrer les énergies réparties, c'est-à-dire que la production d'une éolienne placée sur le toit d'une maison est elle aussi prise en compte. En France, le pôle Transmission et Distribution (T&D) d'Areva a été sélectionné par RTE pour fournir une solution de gestion de réseau intelligent destinée à observer, estimer et anticiper l'énergie produite par les parcs éoliens reliés au réseau. Cette collaboration vise à mieux intégrer les sources d'énergie renouvelable au réseau, alors qu'un fort développement de la production d'énergie éolienne est prévu en France dans les prochaines années. On voit donc que l'énergie éolienne peut être massivement intégrée aux réseaux électriques grâce aux avancées technologiques et informatiques récentes. A l'horizon 2020, les éoliennes s'intégreront en outre dans des systèmes énergétiques globaux, interconnectés verticalement et horizontalement et capables de stocker et de restituer avec un excellent rendement l'électricité sous forme de gaz, d'air comprimé ou d'hydrogène. Combinés aux réseaux et compteurs intelligents (Smart Grid), ces réseaux seront également capables de prévoir, d'anticiper et de gérer en temps réel la production et la consommation d'énergie René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Aujourd'hui, seuls certains forfaits associés à des smartphones permettent de regarder les chaînes sur son terminal, via la 3G. Là, il s'agirait de passer par la voie des airs, en « broadcast », pour distribuer les programmes sur les mobiles, par l'intermédiaire de la norme DVB-H (la TNT utilise, elle, le DVB-T). TDF a dévoilé le 2 avril un accord ^passé avec Olmer Telecom, qui commercialise en France les marques Virgin Mobile, Tele2 Mobile, Breizh Mobile et Casino Mobile, pour lancer la TMP dès l'an prochain. « Le lancement de la TMP dans une technologie “broadcast” nous permettra d'offrir à un large public la meilleure solution de diffusion de la télévision en mobilité, et ce en toute indépendance des opérateurs de réseaux télécoms. La TMP présente en effet l'avantage de résoudre les problèmes de réception liée à la saturation du réseau 3G », explique dans un communiqué Geoffroy Roux de Bézieux, président d'Omer Telecom. Ce lancement est soumis à l'approbation du CSA ainsi qu'à l'accord entre TDF et les éditeurs de chaînes. Si tout se passe bien, le réseau ouvrirait au second semestre 2011, couvrant 50 % de la population française de métropole. « Cela représente plus de 2 500 communes, bien au-delà de la couverture minimum fixée par le CSA (30 %) », indique TDF sur son site. Selon les deux partenaires, la télévision mobile personnelle sera proposée sur une gamme de téléphones, d'appareils spécifiques et d'accessoires permettant de rendre compatibles les terminaux existants. L'accord entre Omer Telecom et TDF assurera à Virgin Mobile et aux autres marques une exclusivité de « moins de six mois », selon Olivier Huart, directeur général de TDF, cité par l'AFP. Au-delà, d'autres acteurs pourront aussi distribuer la télévision. Les clients de Virgin Mobile et des autres marques se verront proposer la TMP pour quelques euros par mois, sans plus de précision pour l'instant. L'annonce TDF/Omer Telecom a réjoui la secrétaire d'Etat au Développement de l'économie numérique, Nathalie Kosciusko-Morizet. Dans un communiqué, celle-ci parle d'une « étape décisive » et de « l'espoir d'un nouveau service qui sera apprécié par les abonnés mobiles. Cet accord (...) représente les bases d'un modèle économique pérenne pour la TMP en France et doit permettre d'éviter une jachère inutile des fréquences. » Du côté des éditeurs, c'est aussi la satisfaction. BFM TV (groupe Nextradio TV, comme 01net.) estime que « l'offre de TDF et de Virgin Mobile devrait répondre aux conditions nécessaires au succès de la TMP ainsi qu'aux attentes des téléspectateurs : gratuité, continuité de service et accès au plus grand nombre. Cette proposition résout la question du modèle économique et permet donc de lancer la TMP. » Reste maintenant une question cruciale : y a-t-il un public ? Les consommateurs seront-ils prêts à payer quelques euros de plus pour recevoir des chaînes de télé sur leur téléphone ? Rien n'est moins sûr. Il y a un an, un sondage avait montré que 66 % des Français n'étaient pas intéressés. OINet
|
|
|
|
|
|
|
|
L'Autorité de régulation des télécoms (Arcep) vient de soumettre à consultation publique un texte quelque peu technique, mais dont l'objectif déclaré est de faire baisser le prix du déploiement pour les opérateurs alternatifs. De quoi s'agit-il ? Dans le très haut débit, Orange, SFR et Iliad sont censés partir de zéro tous les trois. Il n'y a pas d'opérateur « historique » comme dans l'ADSL, où tout le monde fait passer ses communications sur le vieux réseau téléphonique de France Télécom. Tous égaux, à un détail près : pour raccorder les immeubles, il est bien pratique de faire courir sa fibre dans les conduits déposés depuis des dizaines d'années par l'ex-monopole public. Ces « fourreaux », valorisés 1 milliard d'euros dans les comptes de France Télécom, ont un prix. Les locataires potentiels le jugent justement beaucoup trop cher. Ils se sont tournés vers d'autres solutions quand ils le pouvaient. A Paris, les câbles empruntent ainsi le réseau des égouts. Les fourreaux représentent 30 % du coût du déploiement fibre, souligne un opérateur alternatif. Ce que propose l'Arcep, c'est une nouvelle méthode de calcul des prix de gros pour ces fourreaux, à proportion du nombre de clients finaux. Comme il n'y a que 70.000 abonnés à la fibre optique, c'est-à-dire presque rien en comparaison des 33 millions de lignes téléphoniques du pays, le coût de location pour le très haut débit devrait être quasi nul à partir du mois de juillet, si cette méthode est validée. Bien sûr, les tarifs de gros demeureront supérieurs à 3 euros par mois et par client, au grand regret des opérateurs alternatifs. Bien sûr, ils paieront de plus en plus cher lorsque leur activité très haut débit montera en puissance. Mais, au moins, ils ne régleront pas deux fois l'addition. La partie « transport » du réseau de fourreaux, destinée à couvrir de longues distances, est plafonnée à 25 % du coût total afin que les campagnes ne soient pas pénalisées, présice l'Arcep. Avec ce texte, en tout cas, les autorités espèrent que les déploiements de fibre optique vont s'accélérer. Dans les zones très denses, c'est-à-dire Paris et quelques villes couvrant 5 millions de foyers, tout est prêt. Le cadre réglementaire a été homologué en janvier. Les opérateurs doivent maintenant proposer à leurs concurrents de co-investir dans l'infrastructure qu'ils déploient. C'est la règle : dès lors qu'un opérateur obtient des copropriétaires d'un immeuble l'autorisation de monter dans les étages, il doit en informer ses concurrents. S'ils en font la demande, il peut installer une fibre optique rien que pour eux, dans la limite de quatre. Yves Parfait, de France Télécom, se félicite : « Le cadre est désormais équitable, puisque chacun supporte l'intégralité des surcoûts de sa fibre dédiée. C'est important, car la partie montante représente plus de 40 % de l'investissement dans la zone très dense. » A partir de maintenant, il a prévu d'installer par défaut quatre fibres dans tous ses immeubles. Echos
|
|
|
|
|
|
|
|
Les chercheurs de l'institut Fraunhofer de fiabilité et de micro intégration (IZM) 80.000 Personnes meurent chaque année en Allemagne des suites d'un arrêt cardiaque ou d'une embolie pulmonaire causés par la rupture de vaisseaux sanguins. Des patients atteints de thrombose veineuse profonde peuvent aussi être touchés lors de voyage en avion de longue durée. Grâce au nouveau système, le passager qui souhaite prendre connaissance des risques éventuels, est invité à déposer une goutte de son propre sang sur un appareil de mesure miniature. L'appareil appelé "Lab-on-Chip" est constitué de matières plastiques et de semi-conducteurs contenus dans l'épaisseur d'une feuille. En imprimant ces feuilles à grande échelle par des techniques d'impressions lithographiques, il serait ainsi possible de fabriquer le système pour un prix raisonnable. La technique reste pour l'instant à l'état de projet. Les recherches s'effectuent dans le cadre du projet européen "Diagnosing DVT" ,Le Prof. Dr. Karlheinz Bock, directeur du département "Système polymère-électronique" de l'institut IZM, explique que "la polymère-électronique est une nouvelle technologie clé située à la jonction des matières plastiques et de l'électronique. Les matériaux plastiques se laissent facilement dissoudre puis recombiner comme de l'encre électronique. De cette manière, nous pouvons construire des systèmes miniatures, simples à utiliser, qui permettent avant tout de faciliter la vie des personnes malades ou âgées". Le prototype développé et testé à l'institut IZM est constitué d'une cartouche en polycarbonate mesurant 3 mm d'épaisseur, 22 mm de largeur et 70 mm de longueur qui intègre deux composants essentiels : - une feuille d'une épaisseur de 0,15 mm sur laquelle se trouve un réseau en filigrane de pistes conductrices et de capteurs en or qui analyse le sang. - des canaux de 0,12 mm de profondeur qui conduisent le sang vers le système d'analyse. Les capteurs composés de nano-électrodes analysent les anticorps marqueurs de coagulation sanguine. Lorsqu'ils sont en trop grandes quantités, le risque de survenue d'une attaque cardiovasculaire est élevé. Le système pourrait également accompagner les personnes en surpoids, les femmes enceintes ou les fumeurs. Ainsi grâce à l'appareil à usage unique, un médecin pourrait proposer à ses patients une analyse de sang immédiate, évitant du même coup les délais d'attentes imposés par les laboratoires d'analyse médicale. Après quelques minutes, le patient pourraient connaître les résultats, et le médecin pourrait faire un diagnostique et prendre des mesures plus efficacement et plus rapidement. L'institut IZM développe également des appareils qui surveillent les fonctions vitales du corps humain sur le long terme, à destination des personnes âgées ou des sportifs. Ainsi grâce à un bandage aux bras composé de capteurs et d'un cadran à affichage électroluminescent, l'utilisateur pourrait connaître sa température actuelle comme son taux d'humidité corporel. Le système pourrait par exemple donner des indices sur le taux d'hydratation d'un sportif durant l'effort. De multiples applications sont imaginables : différents capteurs peuvent être intégrés sur la plate-forme polymère-électronique selon les besoins. [BE">1] situé à Munich (Bavière) travaillent actuellement sur le thème de "l'intelligence plastique". Ils imaginent actuellement une sorte de laboratoire miniature, se logeant dans une poche de veste, qui évaluerait rapidement les risques d'accidents cardio-vasculaires pour un patient souhaitant effectuer un voyage de longue durée en avion. Les recherches portent également sur un bandage porté au bras qui permettrait de mesurer les perturbations magnétiques et alerterait les patients équipé d'un pacemaker. 80.000 Personnes meurent chaque année en Allemagne des suites d'un arrêt cardiaque ou d'une embolie pulmonaire causés par la rupture de vaisseaux sanguins. Des patients atteints de thrombose veineuse profonde peuvent aussi être touchés lors de voyage en avion de longue durée. Grâce au nouveau système, le passager qui souhaite prendre connaissance des risques éventuels, est invité à déposer une goutte de son propre sang sur un appareil de mesure miniature. L'appareil appelé "Lab-on-Chip" est constitué de matières plastiques et de semi-conducteurs contenus dans l'épaisseur d'une feuille. En imprimant ces feuilles à grande échelle par des techniques d'impressions lithographiques, il serait ainsi possible de fabriquer le système pour un prix raisonnable. La technique reste pour l'instant à l'état de projet. Les recherches s'effectuent dans le cadre du projet européen "Diagnosing DVT" ,Le Prof. Dr. Karlheinz Bock, directeur du département "Système polymère-électronique" de l'institut IZM, explique que "la polymère-électronique est une nouvelle technologie clé située à la jonction des matières plastiques et de l'électronique. Les matériaux plastiques se laissent facilement dissoudre puis recombiner comme de l'encre électronique. De cette manière, nous pouvons construire des systèmes miniatures, simples à utiliser, qui permettent avant tout de faciliter la vie des personnes malades ou âgées". Le prototype développé et testé à l'institut IZM est constitué d'une cartouche en polycarbonate mesurant 3 mm d'épaisseur, 22 mm de largeur et 70 mm de longueur qui intègre deux composants essentiels : - une feuille d'une épaisseur de 0,15 mm sur laquelle se trouve un réseau en filigrane de pistes conductrices et de capteurs en or qui analyse le sang. - des canaux de 0,12 mm de profondeur qui conduisent le sang vers le système d'analyse. Les capteurs composés de nano-électrodes analysent les anticorps marqueurs de coagulation sanguine. Lorsqu'ils sont en trop grandes quantités, le risque de survenue d'une attaque cardiovasculaire est élevé. Le système pourrait également accompagner les personnes en surpoids, les femmes enceintes ou les fumeurs. Ainsi grâce à l'appareil à usage unique, un médecin pourrait proposer à ses patients une analyse de sang immédiate, évitant du même coup les délais d'attentes imposés par les laboratoires d'analyse médicale. Après quelques minutes, le patient pourraient connaître les résultats, et le médecin pourrait faire un diagnostique et prendre des mesures plus efficacement et plus rapidement. L'institut IZM développe également des appareils qui surveillent les fonctions vitales du corps humain sur le long terme, à destination des personnes âgées ou des sportifs. Ainsi grâce à un bandage aux bras composé de capteurs et d'un cadran à affichage électroluminescent, l'utilisateur pourrait connaître sa température actuelle comme son taux d'humidité corporel. Le système pourrait par exemple donner des indices sur le taux d'hydratation d'un sportif durant l'effort. De multiples applications sont imaginables : différents capteurs peuvent être intégrés sur la plate-forme polymère-électronique selon les besoins. [BE
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Pour faciliter le déplacement autonome d'un système robotisé au sein d'un environnement, il est nécessaire que ce dernier soit capable de localiser à la fois les objets statiques et ceux en mouvement. Et selon une équipe canado-israélo-européenne*, cela passe par la lumière. Les chercheurs ont mis au point un système de télédétection et de mesure optique (LIDAR) qui ne se contente pas d'envoyer des pulsations laser pour situer le robot dans son environnement, au fur et à mesure de ses déplacements. Mais qui utilise une technologie supplémentaire pour recréer en 3D une carte de l'espace avoisinant. Baptisée "3D Lims" (pour LIDAR Imaging and Measurement System), cette dernière scanne l'environnement en envoyant une succession de rayons lumineux. Et reproduit cette opération régulièrement, pour indiquer au robot les mouvements à l'oeuvre autour de lui. Comme l'explique Maurice Heitz, responsable du projet : "Ce procédé en deux temps - d'abord la calibration et ensuite la navigation en temps réel - permet au système de mesurer précisément les changements qui se produisent dans son environnement". L'avantage d'un tel système, comparé à ceux qui utilisent une caméra embarquée sur le robot, par exemple, est que cette technologie détecte les objets avec plus d'exactitude. Et qu'elle n'est pas affectée par les ombres, la pluie ou le brouillard. Autre chose : elle fournit des informations aussi bien sur le relief et sur les distances. Ce qui permet à un robot équipé de ce système d'évoluer dans tous types d'environnement. Le système a récemment été testé dans l'aéroport de Faro, au Portugal. En l'intégrant à un véhicule robotisé, cela permet de transporter des bagages ou des passagers d'un point à un autre de l'aéroport, de façon totalement automatisée. Le système pourra aussi être utile aux systèmes de surveillance. En comparant avec un modèle standardisé l'environnement 3D qu'il recrée à chaque fois qu'il effectue une mesure, il lui serait en effet possible de détecter des anomalies. Notamment en zone industrielle, pour repérer une fuite dans un conduit par exemple. Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La spin-optronique, champ émergent de la physique des matériaux, serait-elle la clef du transistor de demain ? Selon des chercheurs CNRS du LASMEA, à l'Université de Clermont-Ferrand, elle pourrait fournir le candidat idéal. En simulant le fonctionnement d'un transistor fondé sur la spin-optronique, Robert Johne et ses collaborateurs ont montré qu'un tel transistor est viable, constructible et répond à la principale contrainte inhérente à un développement industriel : l'intégration à grande échelle. Les transistors sont les constituants de base de toute puce électronique, qu'il s'agisse de celle de votre téléphone portable ou de celles qui composent le microprocesseur de votre ordinateur. Fabriqué à partir de semi-conducteurs, matériaux qui conduisent le courant électrique sous certaines conditions et qui sont isolants sous d'autres, un transistor transforme un signal électrique en une donnée binaire : soit il laisse passer le courant (état 1), soit il l'arrête (état 0). Une puce électronique contient ainsi des milliers de transistors qui jouent chacun le rôle d'un interrupteur. Depuis l'invention des puces électroniques, dans les années 1970, les transistors sont toujours plus miniaturisés. Toutefois, la miniaturisation a ses limites. Divers autres types de transistors ont été imaginés, mais aucun ne rivalise avec le bon vieux transistor. Parmi ces tentatives, celle inspirée de la spintronique - champ de la physique où l'on manipule non pas la charge électrique des électrons, mais leur spin, c'est-à-dire leur aimantation intrinsèque - a un temps suscité l'enthousiasme : il s'agissait de remplacer l'effet « interrupteur » du transistor classique par la transmission de l'état de spin des électrons. La mesure du spin de l'électron dans une direction donnée ne donnant que deux valeurs, on aurait retrouvé l'aspect binaire des transistors classiques. Proposée dans les années 1990, la spintronique n'a cependant jamais dépassé le stade expérimental, car les états de spins sont difficiles à stabiliser dans un même état et à mesurer. Les chercheurs du LASMEA proposent de pallier ces problèmes en utilisant non plus des spins d'électrons, mais des spins de polaritons à excitons. Les polaritons à excitons sont des quasi-particules issues du couplage d'un photon, particule de lumière, et d'une paire de deux charges opposées (un électron et un « trou »). À l'aide de calculs et d'une simulation fondés tant sur la théorie que sur l'étude expérimentale des polaritons, Robert Johne et ses collègues ont montré d'une part que le spin du polariton à exciton a des propriétés similaires au spin de l'électron et, d'autre part, qu'il est possible de construire un transistor à polaritons inspiré de celui issu de la spintronique. Dans le transistor à spin électronique, l'état du spin des électrons est modulé par le champ magnétique créé par le mouvement des électrons. Dans le transistor à spin polaritonique modélisé par les chercheurs clermontois, les polaritons sont confinés spatialement sous la forme d'un condensat de Bose-Einstein : à une température suffisamment basse, ils se condensent dans un nouvel état de la matière où ils sont tous dans leur état quantique de plus basse énergie. Ce condensat crée un champ magnétique qui agit sur l'état de spin des polaritons et que l'on peut moduler : selon le champ, les spins seront dans un état ou dans l'autre, à l'instar du transistor classique soumis au courant d'entrée. Les transistors à polaritons présenteraient de surcroît un avantage de taille : la nature hybride des polaritons à excitons. L'information est rapidement transmise par la lumière via des fibres optiques, tout en étant modulable à tout moment en agissant sur les excitons - conditions qui ne sont pas réunies dans des systèmes tout-optique ou tout-électronique. Depuis quelques années, on sait construire de tels condensats de polaritons près de la température ambiante, dans lesquels les polaritons sont stables suffisamment longtemps pour servir de commutateurs dans un transistor. En outre, il a été observé que dans un condensat, l'état de spin d'un polariton est fortement lié à celui de ses voisins, ce qui devrait assurer une meilleure stabilité. Il ne reste donc plus qu'à tester expérimentalement le dispositif... PLs
|
|
|
|
|
|
|
|
Selon des chercheurs de la National Renewable Energy Laboratory (NREL), un traitement chimique simple pourrait remplacer les coûteux revêtements antireflets des cellules solaires, et faire ainsi baisser le coût des panneaux solaires en silicium cristallin. Les plaquettes de silicium cristallin employées pour fabriquer des cellules solaires subissent tous un traitement permettant d'obtenir une surface recouverte d'antireflets, généralement du nitrure de silicium. Cette couche supplémentaire a pour but d'améliorer l'efficacité de la cellule solaire, car elle supprime l'effet de réflexivité. Au final, plus de photons sont absorbés par la plaquette de silicium au lieu "de rebondir" en surface, ce qui augmente le flux d'électricité.Mais cette couche supplémentaire a un coût. "Nous croyons que ce procédé peut être moins cher" explique Howard Branz, l'un des chercheurs au NREL. Même avec un revêtement, les meilleures cellules solaires en silicium réfléchissent généralement 3% de la lumière reçue. Le NREL a développé un moyen peu coûteux pour fabriquer du silicium-noir un matériau qui ne reflète quasiment pas de lumière. Des cellules en silicium monocristallin dont la surface était noire, et ne possédant aucun revêtements antireflets supplémentaires sont parvenues à convertir 16,8 % de la lumière en électricité, soit environ la même efficacité offerte par une cellule en silicium cristallin typique. Le précédent record pour un cellule en silicium noir était de 13,9 %. Le laboratoire a remplacé le processus de revêtement sous-vide par un autre procédé chimique qui peut être effectué à température et à pression ambiantes, tout en utilisant du matériel existant dans les usines actuelles. Une plaquette est immergée dans un bain contenant une solution de peroxyde d'hydrogène, d'acide fluorhydrique, d'acide chloraurique, composé d'hydrogène, de chlore, et d'or. La petite quantité d'or dans le bain acide agit comme un catalyseur lors des réactions chimiques. Ces dernières conduisent à la formation de nanoparticules d'or qui s'introduisent dans les nanoaspérités à des profondeurs plus ou moins variables du wafer. L'or est réutilisable plusieurs fois. Ce procédé de gravure prend 3 minutes à température ambiante, et moins d'une minute à 40ºC. Le résultat est une plaquette de silicium noire très absorbante et dont la surface est criblée de petits tunnels à différentes profondeurs. Enerzine
|
|
|
|
|
|
|
|
Les centrales éoliennes représentaient en 2009 la plus grande part des centrales énergétiques construites en Europe, devant celles au gaz, a annoncé l'association autrichienne des producteurs d'énergie éolienne, IG Windkraft. Avec 39 % des nouvelles unités de production, l'éolien se place en tête des constructions de centrales énergétiques en Europe devant le gaz, pour la deuxième année consécutive, précise IG Windkraft dans un communiqué publié à Vienne. Les énergies renouvelables représentaient l'an dernier 62 % des nouvelles constructions de centrales sur le continent. Avec 76.000 mégawatts produits, l'électricité d'origine éolienne couvre 4,5 % des besoins européens, selon l'IG Windkraft. Sur cette production, quelque 10.500 mégawatts provenaient d'installations nouvelles. L'Union européenne s'est fixée pour but de porter à 20 % la part des renouvelables dans sa consommation d'énergie d'ici 2020. En mars, la Commission s'est dite optimiste quant à la réalisation de cet objectif. Selon ses chiffres, 20,3 % de l'énergie consommée sera alors de sources renouvelables. En 2009, la part de l'énergie issue de sources renouvelables était de 9 % dans l'UE, dont 63 % provenaient de la biomasse et des déchets biologiques. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une équipe de scientifiques australiens et japonais a découvert que ce courant était une composante essentielle du schéma de circulation des océans, qui permet de réguler le climat mondial. Leurs travaux sont publiés dans l'édition de dimanche de la revue Nature Geoscience.Des preuves de l'existence du courant avaient déjà été découvertes, mais aucune donnée n'avait été collectée sur lui. "Nous ignorions s'il jouait ou non un rôle important dans la circulation, et ces données montrent clairement que c'est le cas", a déclaré à Reuters l'un des auteurs de la recherche, Steve Rintoul, du centre de recherche coopératif sur le climat et les écosystèmes antarctiques, à Hobart. Le courant étudié s'est révélé être le plus rapide jamais découvert en eaux profondes, avec une vitesse moyenne de vingt centimètres par seconde. Le courant achemine en une seconde plus de 12 millions de mètres cubes d'eau froide et salée venue de l'océan Antarctique. "Jamais de telles vitesses n'avaient été enregistrées à ces profondeurs, plus de trois kilomètres sous la surface", a-t-il ajouté. Le courant se dirige du continent glacial vers le plateau des Kerguelen, dans l'océan Indien Sud, puis se divise en plusieurs voies. Il forme surtout une part d'un réseau bien plus vaste qui traverse l'ensemble des océans et distribue la chaleur à la surface de l'ensemble du globe. Ainsi, le Gulf Stream amène dans l'Atlantique Nord des eaux plus chaudes qui offrent à l'Europe du Nord un climat tempéré. L'arrêt du courant, événement qui s'est déjà produit jadis, apporterait une forte glaciation en Europe.La circulation de l'ensemble des courants mondiaux dépend de la création de grands volumes d'eau très froide et salée dans plusieurs zones autour du continent Antarctique, où ils plongent en profondeur avant de se diriger vers les autres océans. Les chercheurs ont déployé pendant deux ans leurs instruments de mesure à des profondeurs atteignant 4,5 km, et ont enregistré la vitesse, la température et la salinité de l'eau. Selon Rintoul, il conviendra désormais pour mieux prédire le climat de déterminer si la circulation planétaire des courants restera durablement à son niveau actuel, ou si elle sera elle-même affectée par les changements climatiques. NG
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'Institut National du Cancer (INCa) publie un rapport sur la survie des patients atteints de cancers en France. Si environ 320 000 patients ont chaque année un diagnostic de cancer, plus de 50 % de ces patients seront vivants après 5 ans (plus de 165 000) et au moins 120 000 d'entre eux guériront de leur cancer. Ce rapport met en évidence le fait qu'il n'y a pas un, mais des cancers avec des évolutions différentes. Certains cancers de plus en plus nombreux guérissent ; certains conservent un pronostic sombre ; d'autres enfin évoluent à long terme tels des maladies chroniques. L'estimation du nombre de personnes qui vivent après un cancer est une donnée importante pour mobiliser concrètement tous les acteurs de l'après cancer. Cet état des lieux renseigne sur la survie des adultes atteints de cancer à partir de données publiées en France et au niveau international. Il propose, pour chaque type de cancer, d'estimer le nombre de patients guéris et ce, à partir du nombre de nouveaux cas et de leur probabilité de guérison. Ainsi, il ne s'agit pas de données nouvelles, mais d'une nouvelle façon de les analyser. Ce rapport propose une typologie des cancers les plus fréquents en trois grandes classes : -les cancers de bon pronostic (42 % des cas de cancer) dont la survie à 5 ans est supérieure ou égale à 80 % : prostate, sein, mélanome, thyroïde, leucémie lymphoïdechronique, testicule, maladie de Hodgkin et lèvres ; -les cancers de pronostic intermédiaire (33 % des cas de cancer) dont la survie à 5 ans varie entre 20 et 80 % selon le type de maladie et surtout son stade d'extension : côlon et rectum, bouche et pharynx, lymphomes non hodgkiniens, vessie, rein, estomac, corps et col de l'utérus, myélome, ovaire, larynx et leucémies aiguës ; -les cancers de mauvais pronostic (17 % des cas de cancer) dont la survie à 5 ans est inférieure ou égale à 20 % : poumon et plèvre, foie, pancréas, oesophage, système nerveux central. Les données françaises utilisées portent sur des cohortes de patients traités avant l'année 2000 et sont cohérentes avec les données internationales. Ce sont des données qui offrent un recul de plus de dix ans et qui établissent des taux de survie estimée minimaux. Grâce à des diagnostics plus précoces et des traitements plus efficaces, la survie à 5 ans des patients diagnostiqués en 2005, voire en 2010, est et sera meilleure. HNC
|
|
|
|
|
|
|
|
Une étude américaine, réalisée par des chercheurs de la faculté de médecine de l'Université de Columbia (New York) sur 2.148 personnes de 65 ans ne souffrant pas de démence au démarrage de ce programme semble démontrer qu'une combinaison d'aliments permet de réduire les risques de développer la maladie d'Alzheimer. Pour parvenir à ces conclusions, les seniors sondés ont dû répondre à un questionnaire portant sur leur régime alimentaire et ont été surveillés et évalués tous les dix-huit mois pendant quatre ans afin de déterminer leur état de santé cérébral. Au cours de ces quatre années, 253 participants ont développé la maladie d'Alzheimer. Cette étude montre que certains aliments seraient nettement liés à une réduction du risque de développer cette pathologie neurodégénérative. Poisson, fruits, huile d'olive, tomates, poulet, noix, légumes crucifères (par exemple les épinards) et les légumes de couleurs sombres seraient autant d'aliments permettant d'abaisser le risque de développer la maladie d'Alzheimer. Le tout étant combiné à une faible consommation de laitage, de beurre et de viande rouge, riche en graisses saturées. Toujours selon les chercheurs, plusieurs nutriments -combinés- contenus dans ces aliments auraient été identifiés en matière de prévention. Il s'agirait des vitamines B12 et E, de l'acide folique et des acides gras omega 3 et 6. En revanche, les auteurs de l'étude citent les graisses saturées comme facteurs accroissant le risque de développer la maladie. Ces dernières serait en effet liées aux troubles des fonctions cognitives, à l'athérosclérose ou à l'inflammation affectant le cerveau avec l'accumulation de beta-amyloïdes. CPMC
|
|
|
|
|
|
|
|
Des chercheurs de la Faculté de médecine de l'Université Laval viennent de démontrer qu'il est possible de réparer le gène défectueux à l'origine de la dystrophie musculaire de Duchenne, une maladie héréditaire qui frappe un garçon sur 3500. La dystrophie musculaire de Duchenne provoque une dégénérescence progressive des muscles qui, s'amorçant dès la petite enfance, entraîne généralement la mort du patient avant l'âge de 25 ans. Elle est causée par des mutations qui affectent une protéine appelée dystrophine. Ces dernières altèrent la séquence normale des nucléotides du gène de cette protéine et en stoppent la synthèse. L'équipe du professeur Tremblay s'est associée à Cellectis, une firme spécialisée, afin de concevoir des méganucléases, enzymes capables de reconnaître et d'extraire les régions mutées du génome des personnes atteintes de dystrophie de Duchenne. Lors d'essais in vitro, les chercheurs ont introduit des gènes codant pour différentes méganucléases dans des cellules musculaires humaines. Ils ont répété l'expérience in vivo avec des souris porteuses de la mutation qui cause la maladie. Les deux séries de tests ont montré que ces méganucléases peuvent mener à une restauration de la séquence normale des nucléotides du gène de la dystrophine et à son expression dans les cellules musculaires. Il reste encore plusieurs étapes à franchir avant d'envisager le recours à cette approche chez l'humain, met en garde le professeur Tremblay. Il faudra d'abord démontrer, chez des animaux de laboratoire, qu'il est possible d'introduire directement une méganucléase dans les cellules musculaires et que la synthèse de dystrophine peut en résulter. "Il faudra sans doute de deux à trois ans pour y arriver", estime le chercheur. MS
|
|
|
|
|
|
|
|
Une équipe espagnole de l'hôpital Vall d'Hebron de Barcelone a annoncé avoir réalisé la première greffe mondiale totale de la face. Le receveur est un homme victime d'un traumatisme de la face affectant le nez, les cavités nasales, les maxillaires inférieurs et supérieurs, la zone des sinus ethmoïdaux, les lèvres et les parties molles de la face. Il ne pouvait ni respirer par le nez, ni avaler sans assistance, ni parler. Il avait été opéré 9 fois sans succès avant qu'une greffe totale ne soit envisagée. Le patient, opéré fin mars, avait passé des examens psychologiques afin de s'assurer qu'il était capable d'accepter de vivre avec le visage d'un autre. L'opération a consisté à greffer la peau entière et les muscles de la face, le nez, les lèvres, le palais, toutes les dents, les pommettes et la mandibule par des techniques de chirurgie reconstructrice micro-neurovasculaire et de chirurgie plastique. Les parties molles ont d'abord été prélevées sur le donneur. Elles comprenaient les veines et les artères ainsi que les nerfs moteurs et sensoriels nécessaires au fonctionnement des parties osseuses qui devaient également être transplantées. Après avoir revascularisé le greffon avec les artères et les veines du receveur, ses structures osseuses déformées ont été retirées et une ostéosynthèse des maxillaires de la mandibule, du nez et des pommettes a été réalisée. Puis, les zones postérieures (muqueuse) et les muscles ont été suturés. Enfin, les nerfs ont été connectés et la peau a été suturée. Le traitement de prévention du rejet a reposé sur une trithérapie classique d'immunosuppresseurs, ce qui diffère du protocole français, reposant également sur une greffe de cellules souches de donneurs. L'intervention a duré 24 heures et a été réalisée par une équipe multidisciplinaire composée de 30 professionnels de santé et dirigée par le Dr Joan Pere Barret. LP
|
|
|
|
|
|
|
|
Les fonctions cognitives, comme le temps de réaction, la vitesse de perception et de traitement des informations, restent stables entre 20 et 60 ans et subissent un ralentissement entre 60 et 80 ans. Toutefois, la vitesse et l'amplitude du déclin cognitif varient en fonction des individus. Certains événements comme les maladies (en particulier vasculaires), le stress oxydatif et l'inflammation, les facteurs génétiques, le mode de vie (absence d'exercice et tabagisme), la nutrition (régime riche en lipides totaux et acides gras saturés) et les carences subcliniques du sujet âgé ont été associés à un déclin cognitif accéléré. Ces éléments conduisent à penser que le déclin cognitif est, au moins en partie, modifiable. Les effets du café ont donc été étudiés sur le déclin cognitif avec pour rationnel les actions de la caféine sur la vigilance, l'apprentissage et l'attention. Pour la majorité des individus, les effets stimulants de la caféine sont indépendants de l'âge et concernent l'attention, l'apprentissage et la mémoire. Toutefois, les sujets âgés semblent souvent plus sensibles aux effets de la caféine que les sujets jeunes, en particulier dans le maintien de la performance sur la durée. Une étude comparant l'effet de l'équivalent de deux grandes tasses de café dans ces deux populations montre que la caféine améliore la performance dans les tâches simples chez le sujet jeune et, à l'inverse, dans le traitement des tâches complexes nécessitant une attention soutenue chez le sujet âgé (tâches souvent plus perturbées dans cette population). Ces résultats confirment l'hypothèse selon laquelle la caféine permettrait d'augmenter les ressources disponibles chez les sujets âgés. Les études rétrospectives de population ont montré une association positive entre les fonctions cognitives et la consommation habituelle de café/caféine. Une étude britannique, portant sur 9.003 sujets, rapporte des effets positifs dose-dépendants du café sur les fonctions cognitives plus marqués chez les hommes et les femmes les plus âgés. Les études néerlandaises ont montré, quant à elles, des effets positifs de la caféine sur le temps de réaction et la mémoire verbale indépendants de l'âge. Enfin, un travail californien montrait qu'une consommation de café plus élevée au cours de la vie est associée à une meilleure performance dans 11/12 tests chez les femmes de plus de 80 ans. Aucun effet n'a été observé chez les hommes et le café décaféiné est lui aussi sans effet. Ces études rétrospectives soutiennent la notion que la consommation habituelle de café et de caféine pourrait augmenter la réserve cognitive des sujets. Dans une étude prospective française des « Trois villes » incluant 4.197 femmes et 2.820 hommes bien portants de plus de 65 ans, les femmes consommant plus de trois tasses de café par jour pendant quatre ans ont vu leur déclin cognitif mieux préservé au niveau de la restitution de mots et de la mémoire visio-spatiale que les femmes consommant une tasse ou moins. Cet effet de la caféine s'accroît avec l'âge et atteint un maximum après 80 ans. Par ailleurs, l'étude prospective récente FINE montre un déclin cognitif inférieur sur dix ans chez les consommateurs de café par rapport aux non consommateurs. Les effets du café dépendent de la dose, avec le déclin le plus faible pour trois tasses de café quotidiennes. Finalement, une étude de cohorte écossaise a inclus 923 adultes en bonne santé dans laquelle le QI des enfants a été mesuré à 11 ans. La fonction cognitive a été testée à 70 ans. Les auteurs ont trouvé une association positive entre la prise de caféine, les fonctions cognitives, le niveau de QI initial et la mémoire indépendamment du sexe. La consommation de café et de caféine agirait sur les composantes du déclin cognitif lié à l'âge. Il reste toutefois à clarifier pourquoi certaines études n'ont pas observé d'effet ou seulement pour un sexe et à mieux définir la nature de l'association entre la consommation de café et la prévention potentielle de déclin cognitif lié à l'âge. Les substances actives du café n'ont pas toutes été identifiées ni étudiées, et leurs mécanismes d'action non élucidés. Un long travail reste à faire pour révéler tout le potentiel du café... SA&
|
|
|
|
|
Une équipe de l'Université de Montréal, vient de mettre en évidence des « mutations génétiques susceptibles de prédisposer certains individus à la schizophrénie ». En cause, le gène Shank3, qui pourrait d'ailleurs jouer un rôle dans la survenue d'autres troubles comme l'autisme.« Nos résultats démontrent que certaines mutations génétiques sur Shank3 sont à la source d'un nombre significatif de cas de schizophrénie », explique le Dr Guy Rouleau, Directeur de Recherche au CHU Sainte-Justine de Montréal. Les mutations observées sur ce gène altèrent en fait la forme des cellules nerveuses. Elles pourraient aussi être en cause dans le développement de l'autisme. « Nos récents travaux tendent à penser qu'il existe effectivement un lien de nature génétique entre ces deux maladies du développement nerveux », enchaîne l'auteur. Il suggère enfin que ce gène pourrait être impliqué dans d'autres maladies cérébrales. Yahoo
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le 12 avril 2010 marque l'entrée de l'Europe dans la nouvelle ère écologiste au travers du lancement de la voiture électrique nouvelle génération. A cette date, Renault-Nissan signe un accord en Irlande avec le gouvernement et l'opérateur énergétique ESB pour la fourniture de 2000 véhicules, d'ici fin 2011. Bien d'autres devraient suivre si l'on se réfère à l'annonce du Ministre de l'écologie irlandais, Eamon Ryan, qui déclare un objectif de remplacement de 10 % du parc automobile par des voitures électriques. Cet accord a suscité un fort enthousiasme de la part des différents protagonistes. Tous s'accordent sur le fait que la voiture électrique constitue une avancée majeure pour la question environnementale et n'hésitent pas à répéter qu'elles sont à zéro émission de CO 2. Les centrales électriques produisent l'électricité à partir de multiples sources énergétiques. Pour faire simple, elle est issue minoritairement d'énergies renouvelables, d'énergie nucléaire et majoritairement d'énergies fossiles telles que le charbon, le pétrole, le gaz ou encore la tourbe. La production d'électricité à partir d'énergies renouvelables et d'énergie nucléaire ne génèrent pas d'émission de CO2, en revanche la production à partir d'énergies fossiles en produit en grandes quantités, allant de 404g CO2/kWh pour le gaz à 915 g CO 2/kWh pour le charbon. Donc, en fonction de la structure du parc énergétique d'un pays, la production d' 1kWh d'électricité peut générer plus ou moins de CO2. Dans le cas de l'Irlande, 89 % de l'électricité produite est issue d'énergies fossiles, les 11 % restants provenant d'énergies renouvelables. Selon leur composition énergétique, la production d'1kWh d'électricité génère près de 593g de CO2. Mais alors, quid du « zéro émission » ? La manipulation sémantique opérée par les différents promoteurs de la voiture électrique est intéressante. Il est exact de dire que lorsque la Voiture Electrique est en utilisation, elle n'émet aucune émission. Ils oublient de préciser que la production de l'électricité nécessaire à la faire rouler est potentiellement très polluante. Ou comment mentir par omission. D'autant qu'en taisant les informations quant au taux de consommation électrique desdites voitures, le constructeur automobile ne permet pas de mesurer avec précision son impact environnemental. Pourtant voit-on fleurir de nombreux plans d'action gouvernementaux, partout en Europe, visant à promouvoir la voiture électrique, allant jusqu'à offrir des primes d'achat jusqu'à 5000? dans le cas de la France et de l'Irlande. Est-ce que la réalité de l'impact environnemental de la voiture électrique échappe aux pouvoirs publics ? Il n'en est rien. Il suffit pour s'en convaincre de consulter un rapport de Agence de l'environnement et de la Maîtrise de l'Energie (ADEME), réalisé en 2009 et destiné aux décideurs du monde de l'environnement et de l'énergie : « Dès lors que la recharge des véhicules est réalisée à partir d'un mix électrique moyennement émetteur de CO 2,..., le bilan du véhicule en émissions de CO 2/km est proche des voitures de classe B. » Autrement dit, dans la structure actuelle du parc énergétique français et c'est encore plus marquant en Irlande qui ne possède pas de parc nucléaire, la voiture électrique fera au mieux aussi bien qu'une voiture diesel, la performance et l'autonomie en moins (150km en moyenne pour une voiture électrique). UN
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|