|
|
Edito
Réchauffement climatique : dernier avertissement !
Trois études scientifiques récentes, publiées au cours de ces dernières semaines par les meilleurs scientifiques mondiaux, sont venues éclairer d’une lumière nouvelle l’ampleur et la gravité du changement climatique en cours et devraient faire réfléchir tous les responsables politiques. Selon une étude récente publiée dans la revue Nature Communications le 4 avril dernier et intitulée « Le climat s’achemine vers un niveau de forçage radiatif sans précédent depuis 420 millions d’années », si l’humanité continue d’exploiter tous les combustibles fossiles disponibles sur la planète, l'humanité pourrait être confrontée vers l’an 2250 à des niveaux de CO2 jamais atteints dans l’atmosphère depuis la période du Trias, il y a un peu plus de 200 millions d’années (Voir Nature).
Cette étude rappelle que l'évolution du climat de la Terre à l’échelle géologique est principalement déterminée par les variations de l'ordre de l’irradiance solaire totale (TSI) et des changements dans la teneur en gaz à effet de serre de l'atmosphère. L’étude précise ensuite que la lente (50 Wm2) augmentation de la TSI au cours des dernières 420 millions d’années (soit une augmentation de 9 Wm2 de forçage radiatif) a été presque complètement annulée par une baisse à long terme dans l’atmosphère de CO², grâce notamment à l'expansion des forêts et de la couverture végétale qui ont assuré l'habitabilité à long terme de la Terre. Mais si nous continuons à consommer au même rythme les combustibles fossiles, nous risquons d’atteindre après 2050 (c'est demain !) des concentrations de CO² jamais vues depuis le début de l’Eocène, il y a 50 millions d’années. Et si nos émissions de CO² continuent d'augmenter jusqu’au début du XXIIIème siècle, le forçage radiatif qui en résulterait pourrait alors atteindre des valeurs sans précédent depuis 420 millions d’années !
Pour évaluer l’évolution de la concentration en CO² dans l’atmosphère dans le temps, cette équipe de chercheurs de l’Université de Southampton, au Royaume-Uni, a compilé environ 1 500 estimations des niveaux de CO2 dans l’atmosphère dans 112 études publiées : « Même si nous ne pouvons pas mesurer directement les concentrations de CO² sur plusieurs millions d’années, nous pouvons à présent indirectement avoir une bonne idée de l’évolution de cette concentration », souligne le géochimiste Gavin Foster, de l’Université de Southampton, principal auteur de cette étude.
Cette vaste étude confirme que, même si les niveaux de CO2 dans l’atmosphère sont plus bas aujourd’hui qu’ils ne le furent pendant les périodes les plus chaudes de l’histoire de la Terre, ils augmentent à un rythme très inquiétant, puisque la concentration de CO² a augmenté de 43 % depuis le début de l’ère industrielle, passant de 280 parties par million (ppm) à 400 ppm en 2016.
Ces recherches soulignent qu’en raison de son cycle thermonucléaire naturel, notre soleil ne cesse d’augmenter lentement la quantité de chaleur et de lumière qu’il rayonne vers la Terre, même si, heureusement pour l’homme, les forêts, la végétation et les océans ont joué, sur le très long terme, un rôle remarquable « d’amortisseur », permettant à la concentration atmosphérique du CO² de ne pas atteindre des valeurs extrêmes.
Le problème est que, depuis deux siècles, la consommation mondiale d’énergies d’origine fossile a littéralement explosé et, qu’au rythme actuel de progression de l’utilisation de ces énergies, nous pourrions dépasser les 2 000 ppm de CO² d’ici à 2250, des niveaux inégalés depuis le Trias (une période géologique particulièrement chaude et sèche qui va de – 252 à – 201 millions d’années et fut marquée par l’apparition des dinosaures et la disparition complète des glaces, y compris aux pôles). Dans cette hypothèse tout à fait sérieuse, l'humanité assisterait, en trois ou quatre siècles tout au plus, à un basculement climatique d’une ampleur considérable - de l’ordre de 5 degrés - sur une période aussi courte à l’échelle géologique…
Le dernier rapport de l'Organisation météorologique mondiale (OMM), publié le mois dernier, ne fait malheureusement que confirmer l'ampleur et la rapidité de ce changement climatique mondial (Voir WMO) et nous indique que la hausse de la température par rapport à l'époque pré-industrielle atteint, 1,1°C, soit 0,06°C de plus que le record précédent établi en 2015. Cette étude montre par ailleurs qu’aucune région du monde n'est épargnée par ces températures extrêmes : 42,7°C à Pretoria et 38,9°C à Johannesburg en janvier, 44,6°C en Thaïlande, et 51°C ont été atteints à Phalodi, en Inde. Au Moyen-Orient, on a atteint 54°C à Mitribat, au Koweït. Enfin, dans certaines régions de l'Arctique (Russie, Alaska, Canada), la température moyenne annuelle a excédé de plus de 3°C la moyenne des 40 dernières années.
Une des conséquences de l’accélération du réchauffement planétaire est que le niveau de la mer ne cesse d'augmenter : plus 1,5 centimètre de fin 2014 à début 2016. Parallèlement, les travaux de l’OMM montrent que l’eau des océans est de plus en plus chaude, ce qui accélère la destruction des coraux et perturbe l’ensemble de la chaîne alimentaire et les écosystèmes marins.
La banquise, on ne s’en étonnera guère, se cesse également de se réduire comme peau de chagrin : en 2016, le déficit de banquise au niveau mondial a atteint les 4 millions de km², ce qui constitue, selon l’OMM, une situation sans précédent. Les chercheurs de l’OMM soulignent également que, malgré le déclin d’El Niño, phénomène climatique naturel périodique qui provoque un réchauffement des eaux du Pacifique et entraîne des sécheresses et des précipitations supérieures à la normale, les températures moyennes en ce début 2017 sont presque aussi élevées que celles enregistrées en 2016 alors qu'El Nino atteignait son paroxysme. Résultat : 2016 a été confirmée comme l'année la plus chaude enregistrée sur la planète depuis le début des relevés de température en 1880 et notre planète a déjà enregistré depuis le début de ce siècle cinq années de chaleur record en 2005, 2010, 2014, 2015 et 2016. « Même sans un puissant El Nino en 2017, nous voyons des changements remarquables s'opérer partout sur la planète, et qui nous interrogent sur les limites de notre connaissance du système climatique. Nous sommes désormais en territoire inconnu » précise David Carlson, directeur du programme mondial de recherche sur le climat de l'OMM.
Cette situation est d’autant plus inquiétante que plusieurs autres études ont par ailleurs montré que le « puits de carbone » que représentent les océans du globe aurait vu sa capacité de stockage globalement stagner, voire diminuer, au cours des 60 dernières années. Quant au rôle stabilisateur de la végétation, une étude réalisée par la Western Sydney University, associant des chercheurs de l'Inra, vient remettre en cause la capacité généralement admise des arbres à stocker les émissions de dioxyde de carbone (CO2). Ces travaux ont en effet montré que, dans les forêts tropicales, de nombreuses variétés d’arbres ne sont pas en mesure de stocker autant de carbone qu'on ne l'imaginait jusqu'ici.
Cette étude montre notamment que les forêts d'eucalyptus emblématiques de l'Australie sont susceptibles d'avoir besoin d'éléments nutritifs complémentaires pour assurer leur croissance et profiter du dioxyde de carbone supplémentaire disponible dans l'atmosphère. Ces résultats sont très importants car ils remettent en cause les principaux modèles climatiques actuels qui considèrent que la hausse de la concentration du CO2 dans l'atmosphère favorise la croissance des arbres et permet une plus grande l'absorption de ce dioxyde de carbone.
Et pour ceux qui pensent encore que ce changement climatique majeur n’aura pas d’impact significatif sur les sociétés humaines, l’ONU, s’appuyant notamment sur les travaux du Giec, rappelle que le nombre de réfugiés climatiques pourrait passer, sous l’effet de la recrudescence des catastrophes et événements météorologiques extrêmes, de 80 millions en 2010 à 250 millions en 2050. L’ONU souligne également que ces réfugiés climatiques sont à présent plus nombreux que les réfugiés de guerre et que l’amplification attendue de ces déplacements massifs de populations va exacerber les tensions et les risques de conflits entre états.
Mais ce réchauffement climatique accéléré risque également de remettre en cause la diminution considérable de la sous-alimentation et de la malnutrition observée au niveau mondial depuis 40 ans. Rappelons qu’aujourd’hui il y a environ 795 millions de personnes sous-alimentées dans le monde, selon les derniers chiffres de la FAO. On mesure mieux le chemin parcouru lorsqu’on rappelle que la part de la population mondiale exposée à la sous-alimentation est passée de 30 % en 1980 à moins de 13 % aujourd’hui. Mais l’Onu estime que cette évolution tendancielle très positive est menacée par le changement climatique et que près de 600 millions de personnes supplémentaires pourraient souffrir de malnutrition d’ici 2080, à cause du dérèglement du climat.
La Banque mondiale estime pour sa part, dans un rapport publié en novembre 2015, que plus de 100 millions de personnes supplémentaires pourraient basculer dans l’extrême pauvreté si les objectifs de réduction des gaz à effets de serre définis par les accords de Paris, fin 2015, ne sont pas tenus. Cette institution internationale souligne que l’accélération prévisible des événements extrêmes (sécheresses et inondations) va avoir un impact non négligeable sur les rendements et la productivité agricoles dans les pays les plus pauvres, ce qui risque notamment d’entraîner une augmentation du prix des denrées alimentaires qui pourrait aller jusqu’à 70 % à l’horizon 2080.
La Banque mondiale souligne également que le réchauffement climatique risque d’avoir des conséquences médicales et sanitaires considérables d’ici la fin de ce siècle en augmentant l’incidence des maladies sous l’effet de vagues de chaleur et d’inondations. Une élévation de seulement 2° de la température moyenne mondiale se traduirait par exemple par une hausse de 150 millions du nombre de personnes exposées au paludisme. L’Organisation mondiale de la santé confirme pleinement l’impact du changement climatique et estime, pour sa part, que deux milliards de personnes supplémentaires pourraient être exposées au risque de transmission de la dengue d’ici les années 2080. L’OMS rappelle par ailleurs que les maladies diarrhéiques, qui touchent environ 1,7 milliard de personnes chaque année dans le monde et sont l’une des causes principales de mortalité chez les jeunes enfants, pourraient augmenter de 10 % d’ici 2030.
Enfin, plusieurs études scientifiques récentes montrent qu’une espèce animale sur six pourrait disparaître de la surface de la terre si le rythme actuel des émissions de gaz à effets de serre se poursuit. Une étude publiée en mai 2015 dans la revue « Science » estime que 5,2 % des espèces risquent de disparaître si la température moyenne augmente de 2° au cours de ce siècle, mais souligne que ce taux de disparition pourrait atteindre 16 %, dans l’hypothèse nullement improbable d’une augmentation de 4,3 degrés d’ici 2100.
Dans une nouvelle étude publiée le 13 avril dernier dans « Nature Communications », des chercheurs de l’International Institute for Applied Systems Analysis, dont le chercheur français Philippe Ciais, ont employé un modèle mondial du système carbone qui tient compte du relâchement du CO2 et des émissions via les activités naturelles et d’origine humaine.
Cette étude démontre que les systèmes combinés touchant à l’énergie et à l’utilisation des terres devraient mener à des émissions nulles avant 2040 pour s’assurer de la possibilité d’atteindre la cible de 1,5 degré Celsius d’ici 2100 (Voir Nature Communications). Toujours selon ces travaux, il est impératif de réduire à moins d’un quart, contre 95 % aujourd’hui, la part des combustibles fossiles dans le mix énergétique mondial d’ici 2100. Parallèlement, malgré un moins bon rendement de ces actions, cette étude souligne qu’il faut également parvenir à stopper la déforestation. Seules ces actions cumulées permettraient de réduire de 42 % les émissions cumulées de gaz à effet de serre d’ici la fin du siècle, comparativement à un scénario de poursuite des activités humaines sur la pente actuelle…
Ces recherches ont pris en compte quatre scénarios possibles de mutation énergétique mondiale. Dans le scenario reposant largement sur l’énergie verte, la production solaire, éolienne et s’appuyant sur la bioénergie augmenterait d’environ 5 % par année, et les émissions polluantes atteindraient leur pic vers 2022. Mais cette perspective mènerait malgré tout à une hausse mondiale des températures de 2,5 degrés.
Pour les chercheurs de réputation internationale qui ont réalisé cette étude, la réduction drastique des énergies fossiles et le développement massif des énergies renouvelables ne suffiront pas à atteindre les objectifs des accords de Paris et il faudra également que la planète réduise d’au moins 25 % sa consommation globale d’énergie primaire, de façon à ce que la consommation d’énergie par habitant (en tenant compte de l’augmentation prévisible de la population mondiale) passe de 1,7 à moins d’une tonne d’ici 2050.
On peut certes se réjouir de la stagnation des émissions mondiales de CO² depuis 2013 mais cette tendance, qui marque peut-être un tournant historique, est loin d’être suffisante pour atteindre les objectifs indispensables de réduction massive de nos émissions de gaz à effet de serre d’ici 2050. L’humanité a en effet déjà consommé 70 % de son « budget carbone » et sans une rupture économique, sociale et technologique majeure, elle aura épuisé le solde de ce budget avant le milieu de ce siècle, entraînant le climat mondial dans un basculement incontrôlable aux conséquences dévastatrices.
La communauté scientifique dans son ensemble est à présent d’accord pour considérer que, même un développement tout à fait massif des énergies renouvelables au cours des prochaines décennies ne permettra pas de réduire suffisamment les émissions humaines de gaz à effet de serre et de contenir le réchauffement climatique sous la barre des 2°. Il faut donc que l’humanité parvienne à diminuer sensiblement « à la source » sa consommation énergétique globale, sans renoncer à l’objectif tout à fait justifié d’une élévation indispensable du niveau de vie et de confort de tous les êtres humains.
Cet objectif ambitieux est à notre portée si nous réorientons nos efforts d’innovation et de recherche de manière à améliorer considérablement l’efficacité énergétique de tous les systèmes qui composent nos sociétés : industrie et transport bien sûr mais également logement, loisirs et agriculture. Mais qu’on s’y trompe pas, la seule innovation technologique ne suffira pas à atteindre ce but essentiel pour la survie de notre espèce et nous devons également innover dans les domaines économiques et sociaux, c’est-à-dire repenser complètement l’organisation de nos sociétés pour parvenir à ce saut planétaire en matière de « sobriété productive ».
Le temps est venu de passer à l’utilisation massive et synergique des technologies numériques, des biotechnologies, des nanotechnologies et de l’intelligence artificielle pour que les immenses quantités d’informations que produit à présent l’humanité soient enfin utilisées à bâtir une civilisation humaine de l’efficience, reposant sur la créativité individuelle et le bien-être collectif.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
L'utilisation des moteurs moléculaires reste limitée par le fait qu'ils ne peuvent produire leur travail que dans un seul sens. Des chercheurs de l'Institut Charles Sadron du CNRS, menés par Nicolas Giuseppone, professeur à l'Université de Strasbourg, en collaboration avec le Laboratoire de mathématiques d'Orsay (CNRS/Université Paris-Sud), sont parvenus à développer des machines moléculaires plus complexes, capables de fournir un travail dans un sens, puis dans l'autre. L'ensemble peut même être précisément contrôlé à la manière d'une boîte de vitesses.
Les moteurs moléculaires peuvent produire un mouvement mécanique cyclique grâce à une source d'énergie externe, par exemple chimique ou lumineuse, combinée au mouvement brownien (mouvement désordonné et aléatoire des molécules environnantes). Le nanomoteur est ainsi soumis à des chocs moléculaires de toute part, qui compliquent la production d'un travail mécanique orienté et donc utile. Les premiers moteurs moléculaires des années 2000 utilisent le principe du "cliquet brownien" qui, à la manière d'un cran sur une roue dentée empêchant le mécanisme de repartir en arrière, va biaiser le mouvement brownien afin que le moteur ne fonctionne que dans une seule direction. Cela permet de fournir un travail exploitable, mais interdit cependant de changer son sens.
L'équipe de chercheurs s'est donc mise en quête d'une solution pour inverser ce mouvement. Ils ont pour cela relié des moteurs à des modulateurs moléculaires (unités de débrayage), par le biais de chaînes de polymères (unités de transmission). Un modèle mathématique a aussi été établi pour comprendre le comportement de ce réseau. Sous irradiation ultraviolette, les moteurs vont tourner alors que les modulateurs restent immobiles. Les chaînes de polymère vont donc s'enrouler sur elles-mêmes et se contracter à la manière d'un élastique qui raccourcit au fur et à mesure qu'on le torsade. Le phénomène s'observe à l'échelle macroscopique : ces molécules forment un matériau qui se contracte.
Lorsque les molécules sont soumises à une lumière dans le spectre visible, les moteurs s'arrêtent et les modulateurs sont activés. L'énergie mécanique stockée dans les chaînes de polymères entraîne alors une rotation des modulateurs dans le sens inverse du mouvement originel et le matériau s'étend. De manière encore plus spectaculaire, les chercheurs ont pu montrer que le taux et la vitesse du travail produit peuvent être finement régulés grâce à des combinaisons de lumières UV et visibles, comme une boîte de vitesse fonctionnant par modulation de fréquence entre moteurs et modulateurs. L'équipe tente désormais de tirer parti de cette étude pour la mise en œuvre de dispositifs photomécaniques, capables de fournir un travail mécanique contrôlé par la lumière.
Article rédigé par Georges Simmonds pour RT Flash
Physics World
|
|
|
|
|
|
|
|
Située au 60, rue Monsieur-le-Prince dans le sixième arrondissement, cette "librairie sans stock" des Presses Universitaires de France (PUF) proposent 2000 titres disponibles et visibles sur les étagères de cette librairie. C'est la partie visible de l'iceberg car cachés dans une tablette numérique, le lecteur a accès à plus de 6000 titres numérisés, qui peuvent être imprimés en quelques minutes grâce à un robot imprimeur.
Chaque jour, entre 5 et 6 ouvrages sont imprimés sur cette machine imposante installée dans la librairie. L'objectif de cette machine dernier cri est à la fois de réduire le volume de stockage et de faire des économies de transport mais aussi de ressusciter des ouvrages oubliés explique Etienne qui travaille dans cette librairie depuis plusieurs mois.
300 nouveaux ouvrages sont numérisés chaque mois et souvent c'est le choix du lecteur qui oriente cette sélection. "En entrant dans la librairie, les lecteurs souhaitent retrouver un ouvrage", nous dit Etienne et "si il n'est pas déjà numérisé on fait une commande pour qu'il le soit rapidement".
Il faut compter environ 15 minutes pour "fabriquer" un livre de 600 pages, 10 minutes pour un Que sais-je ? avec un rendu semblable à un livre classique. Les livres sont vendus au même prix que dans une librairie classique mais en revanche ils ne peuvent pas excéder 850 pages, une limite imposée par la machine.
Article rédigé par Georges Simmonds pour RT Flash
FR 3
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
En informatique, la gestion de la chaleur a une incidence directe sur les performances des processeurs. Le meilleur exemple de ce lien est constitué par les centres de données (datacenter) où des centaines de serveurs dégagent des quantités importantes de chaleur et nécessitent des dispositifs de refroidissement complexes et onéreux.
Mais il se pourrait qu'un jour ce problème ne soit plus d'actualité. En effet, des chercheurs de l'École polytechnique fédérale de Zurich et d'IBM Research ont mis au point une microbatterie à flux redox qui peut à la fois produire de l'électricité pour alimenter un processeur tout en le refroidissant grâce à ses électrolytes liquides.
Dans leur article scientifique publié par la revue Royal Society of Chemistry, les chercheurs expliquent que leur microbatterie mesure à peine 1,5 millimètre d'épaisseur. Dans les batteries à flux redox, l'électricité est produite par une réaction électrochimique. Deux électrolytes liquides sont chargés avec des ions métalliques qui traversent deux électrodes prises dans un feutre poreux. Ces dernières sont isolées l'une de l'autre par une membrane qui laisse circuler les protons, de sorte qu'elles vont capter le courant et produire l'énergie. L'alimentation des électrolytes est assurée par deux circuits fermés externes qui pompent le liquide dans la batterie.
L'une des innovations de l'équipe IBM/ETH Zurich est d'avoir créé par impression 3D un système de micro canal en forme de coing qui optimise la circulation de l'électrolyte liquide à travers l'électrode poreuse. Le prototype de microbatterie développé par les chercheurs délivre 1,4 watt par centimètre carré.
En retranchant l'énergie nécessaire aux circuits de pompage des électrolytes, la densité reste d'un watt par centimètre carré. Grâce à la finesse du dispositif, les chercheurs envisagent de pouvoir monter des processeurs en chaîne les uns sur les autres en intercalant entre eux des microbatteries pour les alimenter et les refroidir. Pour autant, l'électricité ainsi produite est encore insuffisante pour pouvoir alimenter le processeur d'un ordinateur.
Mais les scientifiques comptent sur cette preuve de concept pour inciter des partenaires industriels à les aider à optimiser cette microbatterie. Selon eux, cette innovation pourrait servir d'autres applications au-delà de l'informatique. Par exemple, pour des systèmes laser qui nécessitent une alimentation et un refroidissement ou bien pour des cellules photovoltaïques qui pourraient stocker directement l'énergie produite en vue d'une utilisation ultérieure, tout en étant maintenue à une température optimale à leur fonctionnement.
Article rédigé par Georges Simmonds pour RT Flash
RSC
|
|
|
|
|
|
|
|
D'ici 2018, la mine allemande de Prosper-Haniel, exploitée par la RAG, cessera d'extraire du charbon. Mais ses mineurs devraient rester employés sur le site, pour alimenter 400 000 foyers voisins en une autre énergie : de l'électricité. Leur mine sera convertie en un réservoir – station de pompage turbinage d'une capacité de 200 megawatts, a annoncé la gouverneure de Rhénanie du Nord - Westphalie, Hannelore Kraft.
Le site, qui compte quelque 26 km de tunnels et des puits de grande profondeur, fonctionnera comme une batterie géante pour stocker l'énergie renouvelable des éoliennes et autres panneaux photovoltaïques de la région. Pour cela, ses puits seront remplis d'un million de mètres cubes d'eau, qui activera des turbines situées à 1200 mètres de fond. Ce système de stockage-turbinage, déjà utilisé en Europe du Nord et aux Etats-Unis dans des régions montagneuses, utilise le différentiel d’altitude entre deux réservoirs. Une partie des énergies renouvelables intermittentes alimente des turbines inversées pour faire remonter l’eau. Et lorsque le vent ou le soleil manque, les turbines hydroélectriques prennent le relais pour alimenter le réseau.
La Westphalie-Rhénanie du Nord pourrait convertir d'autres sites sur le même modèle, en vue d'atteindre son objectif de doubler la part des énergies renouvelables, à 30 % du mix énergétique, d'ici 2025. Un projet identique a été lancé dans une ancienne mine de fer, Minneville, de l’Etat de New York. L’eau qui a inondé la mine au fil des ans alimentera un réseau d’une centaine de turbines hydroélectriques situées à 800 mètres sous terre.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Les cellules solaires photovoltaïques sont un obstacle majeur à l'utilisation massive de l'énergie solaire. En effet, leur coût et leur efficacité encore limitée l'emportent sur toutes les économies potentielles que peut apporter l'énergie solaire.
La réduction de leur coût rendrait cependant l'énergie solaire plus compétitive par rapport aux méthodes traditionnelles de production d'énergie exploitant des combustibles fossiles. Pour surmonter cet obstacle, le projet SOLNOWAT, financé par l'UE, a développé un procédé innovant par voie sèche pour la fabrication de cellules solaires photovoltaïques.
Les cellules photovoltaïques sont généralement produites en utilisant un procédé chimique pour graver des couches de silicium à partir d'une tranche cristalline. Le procédé SOLNOWAT remplace le traitement chimique par voie humide, coûteux et inefficace, par l'utilisation d'une technologie de gravure à sec à pression ambiante, un procédé qui réduit les coûts et accélère la production. Comme la gravure à sec élimine moins de silicium, les cellules produites sont plus sombres, ce qui les rend très efficaces pour absorber la lumière. Elles sont si efficaces qu'elles ont même été classées comme ayant un impact nul sur le réchauffement mondial.
La réussite du projet reposait sur le développement d'un procédé de gravure à sec qui utilise des produits chimiques ne générant pas de gaz à effet de serre, qui contribuent au réchauffement de la planète. Le procédé utilise un gaz de gravure (fluor) activé thermiquement à l'intérieur d'un réacteur de gravure chimique, ce qui élimine tout besoin de plasma ou de vide.
Le réacteur étant monoface, la gravure n'est appliquée que sur un côté de la plaque, ce qui permet d'obtenir une surface plus sombre. Les fabricants de cellules photovoltaïques peuvent s'attendre à voir leurs coûts baisser jusqu'à 25 %. Le procédé de SOLNOWAT pourrait faire économiser 20 millions d'euros par an aux principaux producteurs de cellules photovoltaïques.
Une économie de cette ampleur est particulièrement importante dans la mesure où l'industrie européenne continue à faire face à la rude concurrence des fabricants chinois qui inondent le marché de cellules bon marché. En partie grâce aux économies permises par le procédé de SOLNOWAT, les chercheurs du projet estiment que le marché européen connaîtra bientôt une reprise, notamment parce que de plus en plus de produits et services utilisent l'énergie solaire.
Par exemple, la société SolarCity d'Elon Musk a récemment dévoilé un toit entièrement composé de panneaux solaires, sous la forme de cellules et de tuiles solaires. « L'intérêt du solaire devient évident lorsqu'il est intégré aux matériaux de construction », déclare à The Irish Times Edward Duffy, coordinateur du projet SOLNOWAT. « Ils ont besoin pour cela de notre technologie, car elle leur permet de produire une cellule foncée quasiment invisible lorsqu'elle est intégrée à un toit ».
Article rédigé par Georges Simmonds pour RT Flash
Cordis
|
|
|
|
|
|
|
|
Des chercheurs américains de Stanford essayent de mettre au point une matière en polymères reliée à des circuits électriques qui envoient des messages très précis au cerveau.
Epaulée par son équipe à l’Université de Stanford (Californie), Zhenan Bao a réussi à mettre au point un prototype de peau électronique qui reconnaît la pression et un second qui mesure la température. "Nous explorons le fonctionnement de notre sens du toucher", reprend la chercheuse. "Notre peau peut sentir énormément de détails : par exemple, elle peut analyser non seulement la température, la pression mais aussi la texture d’une matière", poursuit Zhenan Bao. Autre challenge : notre peau particulièrement élastique a la capacité de se régénérer. Donner à une matière nouvelle la capacité de mimer notre peau, voilà un pari passionnant et exigeant.
Cette peau électronique qui n’est plus un rêve surréaliste, même si elle est encore loin d’être sur le marché, pourrait changer la vie de bien des patients. "Les personnes qui portent des prothèses de bras peuvent attraper un objet mais parfois avec difficulté et pas forcément avec la force appropriée", explicite la chercheuse en sciences des matériaux. "Et vont facilement broyer un œuf par exemple".
Cette peau électronique pourrait aussi changer la vie des paralysés qui ont perdu toute sensation dans un membre. Des patients qui pourraient de nouveau sentir la chaleur et donc éviter des accidents : puisque ne ressentant pas la température d’un objet, ils risquent de se brûler ou d’endommager leur prothèse.
Cette invention ouvre des perspectives immenses. Même s’il est difficile de toucher du doigt les multiples usages d’une peau électronique. Créer une matière aussi sensible que la peau humaine pourrait en tout cas révolutionner la robotique. "On peut imaginer par exemple que lors d’un rendez-vous pour voir si vous avez une tumeur au sein, un bras électronique puisse proposer un examen médical poussé : en paramétrant la peau électronique, on pourrait obtenir quantité de résultats précis et peut-être éviter l’erreur médicale", imagine l’ambitieuse chercheuse qui enseigne à l’Université de Stanford.
"Nous avons dû faire beaucoup de recherches pour créer ce nouveau matériau", reprend cette scientifique de renom. "Pour cela il nous fallait mêler plusieurs métiers : des physiciens, biologistes, ingénieurs, chimistes et plus on associe des métiers différents, plus on est créatifs" souligne Zhenan Bao.
Article rédigé par Georges Simmonds pour RT Flash
Stanford
|
|
|
|
|
|
|
|
Un groupe de chercheurs européen spécialisé dans les matériaux supraconducteurs a obtenu des résultats qui pourraient révolutionner la production d’énergie renouvelable et permettre, par exemple, de doubler la puissance d’une éolienne.
Baptisé Eurotapes, ce consortium scientifique concentre depuis plusieurs années maintenant ses recherches sur la supraconductivité (capacité de certains matériaux à conduire le courant électrique sans aucune résistance) et vient d’obtenir des résultats potentiellement révolutionnaires pour les filières de production renouvelable.
Cherchant à produire des rubans supraconducteurs moins chers et plus efficaces, il serait parvenu à réaliser 600 mètres de ruban supraconducteur avec un procédé qui en réduit le coût de production via l’utilisation d’un matériau inédit, explique dans un communiqué l’Institut des sciences des matériaux de Barcelone (ICMAB), coordinateur du consortium.
"Ce matériau, un oxyde de cuivre, est comme un fil qui conduit cent fois plus d’électricité que le cuivre. Avec ce fil, on peut par exemple produire des câbles qui transportent beaucoup plus d’électricité ou bien générer des champs magnétiques plus intenses qu’actuellement", souligne le professeur Xavier Obradors.
Ses applications possibles sont donc très prometteuses pour la production d’énergies renouvelables. En matière d’énergie éolienne par exemple, ce nouveau matériau pourrait équiper des aérogénérateurs plus puissants et permettre de "doubler la puissance d’une éolienne", assure M. Obradors.
Article rédigé par Georges Simmonds pour RT Flash
Eurotapes
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon les résultats d'une étude publiée dans New England Journal of Medicine, un nouveau vaccin bon marché contre les rotavirus qui provoquent des gastro-entérites aiguës, responsables de 37 % des décès de jeunes enfants dans les pays en développement, s'est montré efficace à plus de 66 %. Ces infections tuent 450.000 enfants de moins de cinq ans chaque année, notamment en Afrique subsaharienne, en provoquant des diarrhées sévères. Il s'agit du premier vaccin contre les rotavirus qui peut être conservé sans réfrigération, permettant une large diffusion dans les pays pauvres.
A la différence des autres causes de diarrhée, une amélioration des conditions sanitaires et de l'hygiène n'empêche pas la transmission des rotavirus. La vaccination est de ce fait essentielle pour empêcher cette infection et réduire la mortalité. Pour faire une différence dans les pays où les rotavirus provoquent le plus d'infections et où l'accès aux soins est très limité, les vaccins doivent être bon marché et doivent pouvoir être conservés sans réfrigération. Les deux vaccins actuellement commercialisés ne remplissent pas ces deux critères.
"Ce vaccin est adapté aux conditions en Afrique pour ceux qui en ont le plus besoin", s'est félicitée Sheila Isanaka, professeure adjointe de nutrition à la faculté de santé publique de Harvard. "Quand ce vaccin deviendra largement disponible en Afrique, il permettra de protéger des millions d'enfants qui sont les plus vulnérables", selon elle. Cet essai clinique de phase 3 a été mené au Niger avec 3.508 nourrissons en bonne santé qui ont reçu trois injections du vaccin ou d'un placebo à respectivement six, dix et 14 semaines.
Tous ces enfants ont été suivis dans des centres de soins locaux et ont été soignés gratuitement pendant deux ans. Ce vaccin a été fabriqué par le Serum Institute of India Pvt. Sa commercialisation a été autorisée en Inde mais il n'a pas encore été approuvé par l'Organisation mondiale de la santé.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Les poumons jouent le tout premier rôle dans le système respiratoire en assurant les échanges gazeux entre l'air et le sang. Mais des chercheurs de l'Université de Californie de San Francisco (UCSF) viennent de découvrir que les vaisseaux sanguins des poumons produiraient en masse des cellules sanguines !
Grâce à une technique de microscopie filmée dans les poumons en activité d'une souris, les chercheurs ont remarqué la présence d'un grand nombre de cellules particulières. Ces mégacaryocytes sont des cellules géantes générant des plaquettes sanguines, ces composants du sang indispensables à la coagulation en cas de plaies. "Ce résultat suggère sans aucun doute une vision plus sophistiquée des poumons", affirme le pneumologue Mark Looney, professeur de médecine à l'UCSF, co-auteur de la publication. Ils ne sont pas seulement là pour la respiration, mais sont aussi un partenaire clé dans la formation d'éléments cruciaux du sang".
Certes, les scientifiques savaient déjà depuis plus de 70 ans qu'il y avait des mégacaryocytes dans les vaisseaux sanguins des poumons. Mais ils pensaient jusqu'à présent que la majorité des plaquettes était produite à partir des mégacaryocytes de la moelle osseuse (qui se trouve au cœur des os).
Cette observation a été rendue possible par une technique d'imagerie dite "intravitale" développée par Mark Looney et Matthew Krummel de l'UCSF en 2011. "Le poumon est un organe particulièrement complexe à observer en microscopie en raison des mouvements dus à la respiration et la déflation lors de l'ouverture de la paroi thoracique qui empêchent une observation stable et physiologique", poursuit Emma LeFrançais. "L'imagerie intravitale a permis de surmonter ces obstacles."
La technique consiste à maintenir l'animal (souris) sous ventilation mécanique puis d'introduire une fenêtre d'observation entre deux côtes adjacentes. L'air de la cavité pleurale est aspiré, ce qui permet d'immobiliser doucement le poumon sur une lamelle en verre. "J'ai ainsi pu observer ce qui se passe dans le tissu vivant et la circulation pulmonaire sanguine. L'observation des plaquettes et des mégacaryocytes a été permise grâce à des souris modifiées qui émettent un signal fluorescent spécifiquement dans ces cellules".
Autre surprise de taille : le nombre de plaquettes produites dans le poumon. Plus de 10 millions de plaquettes par heure, soit plus de la moitié des plaquettes produites par la souris seraient produites dans les poumons ! Et ce n'est pas tout. Des mégacaryocytes immatures et des cellules souches hématopoïétiques (cellules souches du sang) ont également été identifiés dans le poumon même, à l'extérieur des vaisseaux. Ils sont capables en cas de déficiences cellulaires (manque de plaquettes et de cellules souches) de migrer du poumon vers la moelle osseuse pour restaurer un nombre normal de plaquettes et de cellules souches.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
|
|
|
Depuis trois trois ans, le pacemaker sans sonde a fait son entrée dans les hôpitaux. Ultra-miniaturisé, fixé contre le myocarde à l’aide de vis ou de petites ancres, ce stimulateur est devenu un système « tout en un » comprenant batterie, électronique et électrodes.
Ce dispositif est invisible sous la peau et ne laisse aucune cicatrice : il suffit d’une petite incision pratiquée au niveau de l’aine pour introduire le stimulateur dans la veine fémorale, pour ensuite le faire remonter jusqu’à la pointe du ventricule droit. Moins invasive que la pose d’un pacemaker traditionnel, cette nouvelle technologie limite fortement le risque de complications. A ce jour, plus de 200 patients en France ont déjà bénéficié de ce micro-stimulateur dont la durée de vie est de dix ans. La fermeture percutanée de l’auricule gauche est une technique interventionnelle adaptée aux patients présentant une fibrillation atriale et une contre-indication absolue aux anticoagulants. Ce dispositif est mis en place pour prévenir les AVC.
Rappelons que l’auricule est une sorte de petite poche en cul-de-sac communiquant avec les cavités cardiaques. Elle est considérée comme un site privilégié donnant lieu à la formation de caillots. L’implantation d’une prothèse dans l’orifice de l’auricule permet ainsi d’éviter la migration d’un thrombus pouvant être à l’origine d’un AVC.
Article rédigé par Georges Simmonds pour RT Flash
Senior Actu
|
|
|
|
|
|
|
|
Une étude récente avait déjà montré qu'une seule injection de ce médicament pouvait entraîner une réduction durable des taux de cholestérol de lipoprotéines de basse densité (LDL) durant près de 3 mois chez des volontaires sains. Aujourd’hui, les résultats d’un nouvel et large essai sur la sécurité et l'efficacité de ce candidat, l’inclisiran, confirme que la thérapie nommée « ARN interférence » (ARNi), peut désactiver l'un des gènes responsables d’un cholestérol élevé et réduire en moyenne de 50 % les niveaux de LDL.
Des niveaux élevés de lipoprotéines de basse densité ou LDL peuvent favoriser le développement de maladies cardiovasculaires via le blocage des vaisseaux sanguins qui accroît le risque de crises cardiaques et d'accidents vasculaires cérébraux. Les statines sont le traitement de référence en cas de taux élevé de cholestérol, en combinaison avec des mesures de mode de vie dont l'exercice et une alimentation saine, cependant, ces médicaments ne sont pas sans effets indésirables et de nombreux patients sont incapables de bonne observance et de tolérer des doses plus élevées.
Or oublier de prendre ses statines ou les prendre irrégulièrement réduit le bénéfice attendu du traitement. En outre, chez certains patients, les taux de cholestérol peuvent rester élevés malgré des doses maximales de statines.
Selon ces nouvelles données, une nouvelle option pourrait se dessiner, l’inclisiran, un nouveau médicament qui pourrait contribuer à réduire sérieusement le risque de crise cardiaque et d'accident vasculaire cérébral liés à l'hypercholestérolémie. A l’issue de cet essai, les chercheurs de l'Imperial College de Londres évoquent une injection 2 fois par an, en toute sécurité, avec ou sans statines, et en fonction des besoins individuels du patient. Ils qualifient leurs résultats comme « extrêmement excitants pour les patients et les cliniciens ».
En effet, cet essai de phase 2, d'ORION-1, mené chez 497 patients à taux élevé de cholestérol et à risque cardiovasculaire élevé, confirme l'efficacité de l'injection d’inclisiran pour réduire les niveaux de cholestérol, en combinaison ou non avec les statines. Parmi les 497 participants, 73 % prenaient déjà des statines et 31 % de l'ézétimibe.
Les participants ont reçu des doses différentes d'inclisiran ou un placebo par injection sous-cutanée, soit par dose unique, soit en 2 doses, à j et j+3mois. Les patients ont été suivis durant 8 mois pour le cholestérol sanguin et les effets secondaires. L’analyse montre qu'un mois seulement après l’injection d'inclisiran, le taux de cholestérol LDL est réduit de 51 %. Une dose unique de 300 mg réduit le taux de cholestérol de 42 % à 6 mois, alors que chez le groupe placebo, les taux de cholestérol ont augmenté de 2 % à 6 mois.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Une équipe internationale de scientifiques a mis au point un test génétique qui permet de calculer l'âge probable auquel une personne risque de souffrir de la maladie d'Alzheimer. Ce test est basé sur l'analyse de mutations de 26 gènes, trouvées chez plus de 70.000 personnes de 65 ans et plus, dont 17.000 atteintes de cette dégénérescence neurologique incurable.
"Mieux évaluer le risque génétique d'Alzheimer et l'âge d'apparition de la maladie peut aider dans la prévention et pour mieux cibler les essais cliniques en déterminant quels patients sont plus susceptibles de répondre à une nouvelle thérapie", explique le Docteur Anders Dale de la faculté de médecine de l'Université de Californie à San Diego, l'un des co-auteurs de cette étude. Les neurologues pensent aussi qu'une fois que des traitements efficaces contre Alzheimer auront été découverts, il faudra les commencer le plus tôt possible avant que la maladie ne progresse et ne laisse peu de chances d'inverser les dommages au cerveau et de restaurer les capacités de la mémoire.
Les auteurs relèvent que leur étude doit être validée par des recherches plus étendues et plus approfondies. Ils pointent également certaines limitations car les échantillons de population étudiés sont pour la plupart de descendance européenne. Ils pourraient ainsi ne pas être représentatifs de la fréquence d'Alzheimer et du risque génétique de cette maladie chez les autres groupes ethniques, comme les Noirs ou les Hispaniques.
Selon l'Organisation mondiale de la santé, plus de 36 millions de personnes dans le monde sont atteintes de démence, dont une majorité souffre de la maladie d'Alzheimer. Avec le vieillissement de la population, ce nombre devrait doubler d'ici 2030 et tripler d'ici 2050, à 115,4 millions, si aucun traitement efficace n'est découvert dans les prochaines années.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
|
|
|
Selon une vaste étude réalisée par une équipe de l'Université Johns Hopkins, dirigée par Cristian Tomasetti, deux mutations génétiques sur trois responsables du cancer résultent d'erreurs au moment de la division des cellules, un processus clé pour la régénération de l'organisme. "Il est largement prouvé qu'en évitant certains facteurs comme le tabac ou l'obésité, on réduit le risque de cancer. Mais chaque fois qu'une cellule normale se divise et copie son ADN pour produire deux nouvelles cellules, elle fait de nombreuses erreurs, un aspect longtemps ignoré scientifiquement", explique-t-il.
Ces erreurs "sont des causes importantes de mutations génétiques responsables de cancer et ce facteur a été sous-estimé comme cause majeure de cette pathologie", ajoute le professeur Tomasetti. Au total, "66 % des mutations cancéreuses résultent d'erreurs quand les cellules se divisent tandis que 29 % sont dues à des facteurs environnementaux et au mode de vie et 5 % à l'hérédité", a précisé le Docteur Bert Vogelstein, co-directeur du même centre, lors d'une conférence de presse. "La plupart du temps ces mutations sont inoffensives mais parfois elles se produisent dans un gène qui déclenche un cancer, ce qui est de la pure malchance", précise le scientifique.
Une étude parue fin 2015 dans la revue Nature prenait le contre-pied de ces conclusions en estimant que la plupart des cancers étaient provoqués par des facteurs environnementaux, comme le tabagisme, des substances chimiques ou l'exposition aux rayons ultraviolets du soleil.
Ces nouveaux travaux réalisés par les chercheurs de Johns Hopkins ont fortement élargi leur modèle mathématique, pour y inclure notamment 32 types de cancer ainsi qu'une base de population et des données épidémiologiques plus étendues, provenant de 69 pays représentant 4,8 milliards de personnes. Ils ont déterminé que deux ou trois mutations génétiques néfastes suffisaient à déclencher un cancer, résultant du hasard, d'un facteur environnemental ou de prédispositions héréditaires.
Le facteur malchance varie également selon les types de tumeurs, a déterminé l'étude. Ainsi, 77 % des cancers du pancréas résultent d'une erreur aléatoire de l'ADN dans la division des cellules, tandis que 18 % sont dus à d'autres facteurs comme le tabac ou l'alcool et 5 % à l'hérédité. Pour le cancer de la prostate, du cerveau et des os, 95 % seraient le fait de la malchance dans la division cellulaire. Quant au cancer du poumon, 65 % sont déclenchés par le tabagisme et 35 % par des erreurs de copie de l'ADN.
Les auteurs soulignent l'importance de poursuivre les efforts de prévention contre le cancer. "Nous devons continuer à encourager le public à éviter des agents chimiques cancérigènes ou des modes de vie qui accroissent leur risque de développer des mutations cancéreuses", fait valoir le professeur Vogelstein. Pour ce chercheur, les conclusions de la dernière étude corroborent toutes les études épidémiologiques indiquant qu'approximativement 40 % des cancers peuvent être évités par un mode de vie sain.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une équipe de chercheurs français, parisiens et lillois, vient de réaliser une première mondiale. Ils ont pu faire une série d'observations inédites de l'anatomie d'embryons humains âgés de 6 à 14 semaines. "On a pu observer le développement des organes", explique le directeur de recherche Inserm Alain Chédotal. "On sait désormais comment les nerfs se mettent en place dans la main, sur les muscles. On sait aussi comment se développe le système nerveux périphérique (à l'extérieur du cerveau et de la moelle épinière)".
"Nous avons réussi à distinguer les nerfs sensitifs (qui transmettent des signaux sensoriels vers le cerveau) des nerfs moteurs (qui sont reliés aux muscles), ce qui était alors impossible", explique Alain Chédotal. Autre découverte : la variabilité de l'arborescence nerveuse au niveau des mains. Le développement des nerfs principaux est conservé dans toutes les mains, mais celui des petites innervations périphériques est beaucoup plus aléatoire entre les mains gauche et droite et entre les individus. Enfin, dernier avantage souligné par les chercheurs : "Nous pouvons avoir une idée du rythme de prolifération cellulaire pour chaque organe en comptant les cellules fluorescentes aux différents âges embryonnaires".
Jusqu'à aujourd'hui, aucune équipe de recherche n'avait réussi à faire ces observations. Les organes des embryons n'étaient représentés que par des dessins. Ce procédé appartient désormais au passé. "Dorénavant, on va pouvoir comprendre ce qui provoque des fausses couches ou bien quels sont les organes et les tissus touchés par une pathologie", continue Alain Chédotal. "Cela va considérablement faciliter le travail des chirurgiens qui doivent opérer les fœtus directement dans l'utérus. Ils ne disposaient pas de données de référence, ne savaient pas où étaient situés les nerfs et les vaisseaux sanguins, précisément."
Lors du premier trimestre de gestation, c'est là que tout se développe. La plupart des pathologies ou des infections comme le virus Zika agissent aussi à ce moment. "Avec notre procédé, nous pourrons savoir quels organes et quels tissus ont été touchés, et mieux comprendre les pathologies du développement. D'ailleurs, nous allons bientôt travailler avec les hôpitaux parisiens pédiatriques Robert Debré et Necker, afin d'analyser les fœtus qui avaient des affections pour comprendre pourquoi tel organe a été endommagé."
Article rédigé par Georges Simmonds pour RT Flash
Huffington Post
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Selon une étude canadienne, l’ajout de biocarburant issu d’huile de caméline au carburant conventionnel utilisé par les réacteurs d’avion réduit de 50 à 70 % le nombre et la masse des particules volatiles et non volatiles émises lors de vols en haute altitude. Les biocarburants représentent une option intéressante pour l’aviation étant donné qu’ils contiennent très peu ou pas de soufre et de composés aromatiques, contrairement aux carburants à base de pétrole.
De ce fait, ils permettent de réduire les émissions de sulfates et de particules de suie par les réacteurs, qui ont un impact sur la qualité de l’air ainsi que sur la formation de nuages de condensation, ces typiques traînées blanches que produisent les avions en vol dans leur sillage. Les auteurs de l’étude rappellent d’entrée de jeu que ces nuages de condensation affectent le climat.
« Les émissions d’aérosols par les avions induisent la formation de cirrus. Ces nuages persistants qui sont dispersés dans le ciel absorbent le rayonnement solaire, ce qui contribue à accroître la température de l’atmosphère », explique Anthony Brown, ingénieur en aérodynamique à l’Institut de recherche en aérospatiale du Conseil national de recherches du Canada (CNRC). Quand l’humidité de l’atmosphère est saturée, les fines particules qui sont relâchées par les réacteurs d’avion constituent des noyaux autour desquels se condense la vapeur d’eau. C’est ainsi que se forment les caractéristiques nuages de condensation à l’arrière des avions en vol.
Dans leur étude, les chercheurs ont procédé à des prélèvements des gaz d’échappement d’un DC-8 de la NASA filant à sa pleine vitesse de croisière à une altitude variant entre 9000 et 11 000 mètres. Certains réservoirs de cet avion étaient remplis de carburant conventionnel tandis que d’autres contenaient un mélange composé de 50 % de biocarburant issu d’huile de caméline et de 50 % de carburant à base de pétrole, mais à faible teneur en soufre.
Les prélèvements étaient effectués depuis un avion de recherche de la NASA, du Centre aérospatial d’Allemagne et du CNRC, qui suivait le DC-8 de la NASA à une distance de 30 à 150 mètres afin que les panaches de gaz provenant des différents réacteurs (étant alimentés par des carburants différents) n’aient pas eu le temps de se mélanger.
Les chercheurs ont ainsi pu observer que les émissions de particules volatiles, telles que des sulfates et des nitrates, et de particules non volatiles, soit principalement des particules de suie (ou carbone noir), qui résultaient de la combustion du mélange contenant le biocarburant, étaient réduites de 50 à 70 % par rapport à celles provenant de la combustion du carburant à base de pétrole.
Cette réduction était toutefois un peu moins prononcée (elle était de 25 %) lorsque les moteurs déployaient leur poussée maximale. « En diminuant le nombre de particules de suie émises, le biocarburant réduit du coup le nombre de noyaux de condensation, et de ce fait la formation de nuages de condensation », résume M. Brown.
Article rédigé par Georges Simmonds pour RT Flash
Le Devoir
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|