|
|
Edito
SpaceX donne un nouveau souffle à la conquête spatiale !
L’exploit est de taille et marque une vraie rupture dans l’aventure spatiale : après cinq échecs, la société américaine SpaceX et son charismatique fondateur et dirigeant, Eon Musk, ont remporté leur pari, le 8 avril dernier. Leur fusée Falcon 9 s'est hissée à 330.000 pieds, soit 100 kilomètres d'altitude à une vitesse de Mach 3,7. Elle a ensuite entamé un atterrissage vertical avant de se poser en douceur, non loin, en mer, de l’endroit où elle a décollé, dans le sud des Etats-Unis. Dix minutes après avoir décollé de Cape Canaveral, en Floride, le premier étage de la fusée Falcon 9 s'est reposé sur une barge flottant dans l'océan Atlantique. Ce module d’une longueur de 70 mètres a amorcé sa descente à l’aide de ses rétrofusées, deux minutes et demie après sa séparation du reste du lanceur. Ce dernier a quant à lui propulsé la capsule de fret Dragon, qui s'est arrimée le 10 avril à la Station spatiale internationale.
SpaceX a donc réussi à nouveau son exploit de l’année dernière, quand le premier étage de son Falcon 9 s'était reposé sur la terre ferme. Ce succès impressionnant n’est pas seulement un triomphe personnel pour Eon Musk, il ouvre une nouvelle ère à la conquête de l’espace et en change les règles du jeu. Si SpaceX parvient à démontrer qu’il maîtrise cette option technologique des lanceurs réutilisables, il pourra afficher des coûts bien inférieurs à ceux de ses concurrents. Selon Musk, le prix du lancement d'un Falcon 9 comprend 300.000 dollars de carburant et 60 millions de dollars de production du lanceur. "Si on peut le récupérer et le réutiliser rapidement, on réduit cent fois le coût du lancement", a-t-il avancé. Plus prudente, la présidente de la société, Gwynne Shotwell, tablait plutôt il y a quelques jours sur une baisse de 30 %, ce qui est déjà considérable.
A terme, SpaceX espère pouvoir réutiliser une vingtaine de fois son lanceur, voire 100 avec une remise à neuf minimale. Après inspection, et si tout se passe bien, le premier étage de la Falcon 9 qui a été récupéré sur une barge au large de l’Atlantique sera quant à lui réutilisé en juin prochain. Malgré ce succès, la route sera encore longue avant que ce saut technologique devienne banal. Certes, le premier étage a été récupéré mais il reste à vérifier que ses moteurs sont en état d'être réutilisés. D'autre part, cette réussite doit être reproductible, y compris et surtout pour des lancements en orbite géostationnaire (36.000 km) et non vers une orbite basse, comme c'était le cas pour ce vol du 8 avril dernier.
Du côté d’Arianespace, on reste, du moins en apparence, flegmatique et on ne se prive pas de rappeler qu’en dépit de ce succès remarquable, de nombreux obstacles techniques restent à surmonter pour que le concept de fusée récupérable et réutilisable devienne la norme en matière spatiale. Arianespace, forte de 69 lancements réussis d'affilée, ne change pas son calendrier. "La réponse de l'Europe, c'est un nouveau lanceur, Ariane 6, deux fois moins cher qu'Ariane 5, et qui sera compétitif face à SpaceX, même en intégrant les réductions de prix avancées par notre compétiteur dans l'hypothèse d'une réutilisation réussie de son étage, ce qu'il n'a pas démontré", précise le Président d'Arianespace, Stéphane Israël. Concrètement, cela signifie que le coût moyen d’un lancement de satellite par Ariane 6 devra tomber sous la barre des 50 millions de dollars contre 100 millions aujourd’hui pour Ariane 5 et 60 millions pour le Falcon 9 de SpaceX.
Mais SpaceX, fort de ce succès incontestable, annonce déjà d’ici la fin de l’année le premier vol de son premier lanceur lourd, Falcon Heavy, ce qui met une pression supplémentaire à Arianespace qui va devoir sans doute accélérer le développement d’Ariane 6 et surtout préparer l’avenir à plus long terme en se lançant probablement elle aussi dans la conception d’un lanceur réutilisable européen.
Le cycle de développement et de production d’Ariane 6 va constituer une véritable révolution pour l’industrie spatiale et cette rupture nous renvoie à mon récent éditorial sur l’usine du futur. Alors qu’Ariane 5 avait une organisation en silos, avec une intégration limitée des partenaires industriels lors de la conception, et des temps de cycle très élevés, Ariane 6 sera construite en seulement deux ans (de la commande des pièces jusqu’à l’arrivée du lanceur à Kourou), soit deux fois moins de temps qu’Ariane 5. Pour réaliser une telle prouesse, Arianespace s’est sont inspirée des méthodes lean de Toyota mais également et de celles d’Airbus. « L’objectif est de réduire les délais à tous les niveaux : conception, fabrication, intégration,… et cela en faisant bon du premier coup », explique Patrick Bonguet, directeur du programme Ariane 6.
Et le programme de développement d’Ariane 6 est mené tambour battant : un plateau de développement en Open Space a été constitué aux Mureaux (Yvelines), sous la direction d’ASL (Airbus Safran Launchers), la nouvelle société constituée par Airbus et Safran dans le domaine des lanceurs. Cette plate-forme va développer la maquette numérique, avec les principaux partenaires industriels d’Ariane 6 : Ruag, MT Aerospace, Sabca, Avio, Casa, Air Liquide. Cette méthode de production venue de l’automobile et de l’aéronautique va être transposée pour la première fois à ce niveau d’intégration à l’industrie spatiale européenne. Ce choix stratégique doit permettre de réaliser en parallèle les tâches essentielles. Fait révélateur : l’Agence Spatiale Européenne l’ESA est pleinement intégrée à cette chaîne de conception et de production.
S’agissant de la fabrication, plusieurs innovations majeures sont prévues : les étages d’Ariane 6 ne seront plus construits verticalement comme Ariane 5, dans des silos, ce qui empêche d’avoir une bonne visibilité, mais assemblés horizontalement. L’intégration des deux étages se fera aussi à l’horizontale à Kourou, avec des éléments qui auront été contrôlés en amont et seront prêts pour le « plug and play », comme les fuselages des avions Airbus. « Nous aurons ainsi les avantages d’une organisation en «pulse line», où nous pouvons visualiser les problèmes et intervenir rapidement », explique Patrick Bonguet.
L’organisation et la coordination de ces processus de production intriqués et très complexes devront être parfaites car la nouvelle usine des Mureaux, ainsi que celle de Brème (Allemagne), où l’étage supérieur sera fabriqué, devront sortir une douzaine de lanceurs par an, soit le double d’Ariane 5, avec un effectif équivalent (150 personnes prévues aux Mureaux). Comme dans l’aéronautique, ce sont les usines d'assemblage final qui donneront le rythme de la production, et tous les partenaires devront agir en parfaite coordination. Au final, l’intégration devrait prendre trois jours, contre un mois avec Ariane 5…
Pour gagner encore plus de temps, ASL aura également recours à des technologies de pointe, comme la fabrication additive par impression 3D qui permettra à la fois de réduire le nombre de pièces nécessaires et de réaliser beaucoup plus vite (4 jours au lieu d’un mois) certaines petites pièces complexes, comme les générateurs de gaz du moteur Vulcain 2.1. Reste à savoir si les efforts consentis pour Ariane 6 seront suffisants pour que l’Europe conserve son leadership — avec plus de 50 % du marché mondial —, forte de ses lanceurs Ariane, Vega et Soyouz (en partenariat avec la Russie). Outre la concurrence des pays émergents, notamment la Chine mais demain aussi l’Inde et le Japon, les progrès spectaculaires de la technologie récupérable développée par l’Américain Space X sont évidemment en train de bouleverser les perspectives d’évolution de ce marché stratégique qui ne cesse de croître, avec plus de 100 satellites lancés chaque année au cours de cette décennie, et devrait atteindre 300 milliards de dollars en 2020.
Les acteurs de l'Europe spatiale sont bien conscients de ces nouveaux défis et sans attendre le premier vol d’Ariane 6, prévu en 2020, ASL et le CNES travaillent déjà sur le projet « Prométhée » (Precursor Reusable Oxygen METHan cost Effective Engine), un moteur à bas coût, d’une poussée d’au moins cent tonnes qui sera dix fois moins cher que l'actuel Vulcain et pourra équiper un futur lanceur européen réutilisable. L’objectif est pour le moins ambitieux puisqu’il s’agit de diviser par dix le prix du propulseur. Ainsi, ce futur moteur ne coûterait que 1 million d’euros, contre un peu plus de 10 millions pour le moteur Vulcain qui équipera Ariane 6. « Il était urgent pour l’Europe de concevoir un moteur nouveau qui utilise les technologies du 21e siècle, qui soit beaucoup moins cher que les moteurs actuels et réutilisable », souligne Jean-Marc Astorg, directeur des lanceurs du Cnes.
Un autre défi de taille consistera à réduire au minimum les opérations de maintenance et de remise en vol, grâce au recours à des techniques de la "Structural health monitoring", reposant sur l’emploi de capteurs intégrés dans les structures qui permettent de faire de la maintenance prédictive. L’objectif est une remise en vol en quelques semaines, avec au moins cinq réutilisations du moteur. Enfin, dernière rupture de taille avec les lanceurs actuels : Prométhée n’utilisera plus d’hydrogène mais du méthane, un gaz dont la densité (420 kg/mètre cube) permet d’emporter 30 % de carburant en plus et qui présente également l’avantage de dégrader beaucoup moins la structure que l’hydrogène.
Ce programme très ambitieux, intégrant de nombreuses innovations technologiques et productiques, ne sera pas superflu pour faire face non seulement à la nouvelle concurrence des lanceurs récupérables et à des sociétés comme SpaceX mais contrer également la progression d’un nouveau et redoutable compétiteur qui a fait de l’espace un objectif stratégique vital : la Chine.
Dans le domaine des vols habités, la progression de la Chine est remarquable et méthodique. En 2016, trois grands rendez-vous sont prévus avec une mission habitée, le lancement d’un nouveau module orbital, le laboratoire spatial Tiangong 2, l’entrée en service du nouveau lanceur CZ-7, voire le lancement du véhicule de ravitaillement Tianzou 1. Ce véhicule similaire au Véhicule de transfert automatique de l’ESA (ATV) par ses fonctions de transport de fret et de carburant a été développé pour desservir la station spatiale Chinoise qui verra le jour dans les années 2020. Cette station spatiale chinoise en orbite basse pourrait peser 60 tonnes et comprendre trois modules de plus de 20 tonnes dont le lancement serait assuré par le futur lanceur lourd chinois Longe Marche 5.
La Chine poursuit également méthodiquement son programme ambitieux d’exploration et de conquête de la Lune. La sonde orbitale Chang’e 3, propulsée par une fusée Longue Marche 3, a atterri sur la Lune le 14 décembre 2013. La phase suivante du programme lunaire chinois a pour objectif de ramener un échantillon du sol lunaire sur Terre. La Chine a par ailleurs annoncé qu'elle lançait une mission pour se poser sur la face cachée de la Lune d'ici à deux ans et ne cache plus son intention finale : réaliser un vol habité sur la Lune avant 2025.
Mais la Chine qui a une véritable vision politique stratégique de l’espace, comme outil de puissance, ne compte pas seulement devenir maîtresse mondiale de l’exploitation des immenses ressources énergétiques contenues dans les astéroïdes ou sur la Lune. Les scientifiques chinois envisagent en effet de fabriquer un combustible pour fusées fonctionnant à l'oxygène et à l'hydrogène, lesquels seraient obtenus grâce à l'électrolyse de l'eau des zones polaires de la Lune ainsi que d’astéroïdes. "La Chine pourra utiliser l'espace entre la Terre et la Lune pour produire de l'énergie et d'autres ressources pour sa station spatiale", a d’ailleurs déclaré il y a peu le vice-président du département du développement des armes de la Commission centrale militaire chinoise, le général Xhang Yulin.
L’Empire du milieu, on le sait moins, nourrit également l’ambition de devenir la première puissance à disposer de centrales solaires spatiales géantes, capables, à l’horizon 2050, de fournir à ce géant économique une part croissante de l’énergie dont il aura besoin pour épancher sa soif croissante d’énergie décarbonée et propre. Ce pari très audacieux sur une technologie qui reste largement à inventer et dont la maîtrise suppose de surmonter de gigantesques défis scientifiques et techniques montre à quel point les enjeux spatiaux, politiques et énergétiques convergent et deviennent inséparables. La Chine, puissance impériale, qui inscrit sa réflexion et son action dans le temps long l’a parfaitement compris.
Mais l’avenir de la conquête spatiale passe aussi par de nouvelles ruptures technologiques en matière de propulsion et toutes les grandes puissances spatiales – Europe, Etats-Unis, Chine et Russie notamment – travaillent à la mise au point du moteur spatial ionique. Un tel moteur fonctionne en accélérant à de très grandes vitesses les ions d’un plasma dans un champ électrique induit. En début d’année, la Chine, encore elle, a réussi à développer le plus puissant moteur ionique du monde, avec une accélération qui pourrait atteindre 30 km/s.
Contrairement aux moteurs classiques, avec les moteurs ioniques, seule la masse à éjecter est embarquée, l'énergie de l'éjection peut être collectée sur place avec des panneaux solaires. En outre, un moteur ionique peut fonctionner pendant des années sans s'arrêter et il est bien plus compact et économe en carburant que les moteurs conventionnels. Mais pour l’instant, ce type de moteur n’est pas adapté au lancement de véhicules spatiaux, à cause de sa faible poussée. Cependant, ces moteurs peuvent être utilisés pour des tâches diverses : correction et la stabilisation des positions des satellites en orbite ou vols d'une très longue durée.
Reste que la maîtrise de cette technologie révolutionnaire de propulsion et son extension à tous les types de missions spatiales sont devenus des enjeux technologiques et politiques majeurs car un vaisseau spatial, muni de moteurs ioniques suffisamment puissants, ne mettrait que six semaines au lieu de six mois pour rallier Mars, ce qui bouleverserait bien entendu les perspectives d’exploration et de colonisation de cette planète qui est la seule, si l’on excepte notre Lune, susceptible d’accueillir une présence humaine permanente.
Presque 50 ans après les premiers pas de l’homme sur la Lune, le 21 juillet 1969, l’humanité s’apprête donc à ouvrir un nouveau et exaltant chapitre de la conquête spatiale. Souhaitons qu’en ces temps d’incertitudes économiques et politiques, l’Europe, qui a su développer une remarquable filière techno-industrielle spatiale, se donne les moyens humains, financiers, technologiques mais également politiques d’affirmer demain de nouvelles ambitions spatiales et se tourne résolument vers les étoiles pour construire son projet de civilisation et son avenir commun.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Un nouveau record vient d’être franchi en matière de de transfert de données au sein d’une fibre optique. Des chercheurs de l’unité Optical Network Group au sein de l’University College London (UCL) ont annoncé avoir atteint un taux de 1,125 Tbit/s (térabit par seconde) ou 1 125 Gbit/s sur une seule fibre, repoussant ainsi un cran plus haut les limites des systèmes en matière de transmission optique.
A titre de comparaison, les liaisons commerciales optiques actuelles sont de l’ordre de 10 à 100 Gbit/s par fibre. La capacité atteinte par les chercheurs britanniques permettrait de télécharger l’ensemble des 5 saisons de la série Games of Thrones en version HD en moins d’une seconde, selon le Docteur Robert Maher, du département Electronique et Ingénierie électrique de l’université londonienne. « Nous travaillons avec des équipements sophistiqués dans notre laboratoire pour concevoir les systèmes de la prochaine génération de cœur de réseaux et de systèmes de communication qui peut gérer des vitesses de plus de 1 térabit par seconde », déclare le chercheur.
La technologie développée par l’UCL, et dont les travaux ont été publiés sur Scientific Reports le 11 février dernier, combine encodage de l’information en signaux optique et techniques de codage jusqu’alors appliquées pour les communications sans fil. Les chercheurs sont parvenus à agréger 15 canaux optiques par modulation de phase 256QAM (Quadrature Amplitude Modulation) pour les envoyer vers un unique récepteur. Chaque canal dispose de sa propre longueur d’onde (ou couleur) et peut ainsi transporter ses données indépendamment des autres.
Jusqu’à présent, chaque couleur nécessitait son récepteur propre. Les scientifiques ont donc mis au point un récepteur capable de gérer ce « super canal » de 15 couleurs/longueur d’ondes différentes. « L’usage d’un seul récepteur fait varier les niveaux de performance de chaque sous-canal optique et nous avons dû optimiser finement à la fois le format de modulation et l’encodage pour chaque canal optique individuellement afin de maximiser le débit des données, explique Robert Maher. Cela nous a finalement permis d’atteindre le plus grand débit d’informations jamais enregistré à l’aide d’un seul récepteur ».
Article rédigé par Georges Simmonds pour RT Flash
UCL
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Les ingénieurs de Microsoft viennent-ils d’inventer le téléphone du futur ? Peut-être, si l'on en juge par le projet Holoportation qui vient d’être présenté. A la croisée des chemins de plusieurs technologies, le procédé combine visioconférence et réalité augmentée. Propulsé par le casque Hololens de Microsoft, Holoportation permet donc à deux personnes de discuter face-à-face comme si elles étaient dans la même pièce alors qu’elles se trouvent en réalité à plusieurs kilomètres de distance.
Chacun des participants est scanné en 3D sous tous les angles en temps réel, par des capteurs disposés dans la pièce et semblables à ceux de la Kinect, puis cette image est transmise et affichée dans les casques se superposant à la réalité en respectant l’espace physique de la pièce. Les deux utilisateurs peuvent ainsi se tourner autour, passer derrière des meubles tout en ayant une conversation.
Pour fonctionner, l'Holoportation nécessite pour l'instant huit caméras afin de générer en temps réel un modèle 3D du sujet, à l'image de ce que permet déjà Kinect. Le casque HoloLens se charge ensuite d'afficher ce modèle comme s'il se trouvait juste devant nous. Afin d'améliorer l'expérience, chaque interlocuteur se situe dans un espace identique, afin qu'il puisse interagir avec un même mobilier. Mais à l'avenir, il sera possible de passer outre cette mise en scène avec l'utilisation de capteurs laser comme ceux utilisés par HTC avec son casque Vive pour pour modéliser toute une pièce.
Une des fonctionnalités particulièrement intéressante du dispositif est la possibilité d’enregistrer ces conversations afin de les regarder plus tard. Les scènes ainsi mémorisées sont rejouables à l’infini en 3D, que ce soit à taille réelle ou bien en version miniature sur le bord d’une table. Le terme utilisé par les ingénieurs pour définir cette option ne peut être mieux choisi : "Un souvenir vivant" qui rappelle fortement les mémoires holographiques que ne cesse de regarder le personnage du film Minority Report.
Article rédigé par Georges Simmonds pour RT Flash
Geek
|
|
|
|
|
|
|
|
Des chercheurs australiens sont parvenus à faire disparaître des taches tenaces sur un tissu en coton en ayant recours à un revêtement de nanoparticules d’argent et de cuivre. Pour réaliser ce "nanonettoyage", il suffit d’un peu de lumière, celle du soleil ou d’une ampoule, afin de déclencher une réaction chimique qui digère la matière composant les saletés.
Cette innovation utilise des nanoparticules de métal, en l'occurrence d’argent et de cuivre, comme des catalyseurs qui vont accélérer certaines réactions chimiques importantes. Or le cuivre et l’argent ont deux avantages : ils sont économiques et capables de réagir à la simple présence de la lumière visible. Cependant, leurs applications restent limitées car les techniques pour les exploiter sont compliquées et coûteuses.
A contrario, le nouveau procédé mis au point est des plus simples. L’équipe de Rajesh Ramanathan, à l’Université RMIT (Royal Melbourne Institute of Technology), a eu l’idée de déposer des nanoparticules d’argent ou de cuivre directement sur les fibres de tissus en coton, qu’ils ont baptisés Ag@cotton et Cu@cotton respectivement. Pourquoi utiliser du tissu ? Car il s’agit d’une structure tridimensionnelle idéale !
Une fois recouverte de nanoparticules de métal, la trame des fibres entrecroisées les expose de manière très efficace à la lumière, afin de les mettre dans les conditions idéales pour réagir. La lumière met en effet les particules de métal dans un état énergétique augmenté, où leur surface se recouvre d’électrons excités capables de dégrader la matière organique. Et le résultat est là : sous la lumière du soleil, les tissus testés ont permis de faire disparaître des taches de Bleu de Prusse (ferrocyanure ferrique) en des temps aussi courts que 6 minutes !
De plus, les chercheurs ont trouvé une manière très aisée de fabriquer l’Ag@cotton et le Cu@cotton. Tout d’abord, le tissu de coton est plongé dans un bain acide de chlorure d’étain, où les ions étain se lient aux fibres. Il est ensuite passé dans un bain de sels de palladium (où le palladium remplace l’étain), puis dans un bain alcalin de sels de cuivre ou bien d’argent aminique.
Ainsi on obtient un tissu recouvert de nanostructures de métal, en 30 minutes au total, dans des solutions aqueuses, et sans besoin d’employer d’électrolyse : autrement dit d’une manière techniquement très aisée. Vu leur facilité de fabrication, les chercheurs estiment que ces nanomatériaux pourraient être produits à l’échelle industrielle en quelques années, par exemple afin de confectionner des vêtements auto-nettoyants, ou bien pour des usages dans l’agrochimie ou la pharmacopée.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Au cours des dernières décennies, les activités humaines ont conduit à l’extinction de nombreuses espèces au niveau local et mondial. Parallèlement, ces activités, comme les plantations agricoles et forestières, ainsi que les introductions et l’expansion d’espèces exotiques, ont également généré une homogénéisation croissante des écosystèmes à l’échelle mondiale, du point de vue de leur composition en espèces végétales et animales.
Dans les forêts européennes, le déclin de la diversité des arbres et l'homogénéisation biotique sont deux phénomènes très répandus. Cependant, alors que de nombreux travaux scientifiques ont étudié les conséquences de la disparition des espèces sur le bien-être humain, aucune recherche n’avait encore montré les conséquences de l’homogénéisation biotique sur la diversité des services écosystémiques, bénéfices générés pour les sociétés humaines par les écosystèmes.
Au travers d’un vaste projet collaboratif européen impliquant 29 équipes de recherche (FunDivEUROPE), les chercheurs ont combiné des données provenant de forêts de six pays (Allemagne, Espagne, Finlande, Italie, Pologne et Roumanie ). Ils ont d'abord collecté une grande quantité de données sur différentes fonctions et différents services remplis par les écosystèmes forestiers. Ils ont ensuite utilisé des simulations informatiques pour tester les conséquences de l’homogénéisation biotique et du déclin de la diversité des arbres sur la capacité des écosystèmes forestiers à assurer seize fonctions essentielles telles que la production de bois d’œuvre, le stockage de carbone, la résistance aux bioagresseurs ou le maintien de la diversité des oiseaux.
L’étude montre que les effets du déclin des espèces d’arbres sont très variables alors que, dans presque tous les scénarios étudiés, l’homogénéisation biotique a un impact négatif sur la capacité des forêts à fournir des services écosystémiques multiples. Cela s'explique par le fait que toutes les espèces d'arbres ne fournissent pas les mêmes services avec la même intensité.
Les paysages composés d’une diversité de forêts sont plus à même de fournir une gamme diversifiée de services écosystémiques que des paysages où les forêts sont dominées par les mêmes espèces d’arbres. Ces résultats montrent qu'il est important de maintenir une plus grande diversité d'arbres pour les forêts de plantation, ce qui favorise la multifonctionnalité des forêts, permettant ainsi de répondre à une triple exigence environnementale, économique, et sociale.
Article rédigé par Georges Simmonds pour RT Flash
PNAs
|
|
|
|
|
|
|
|
Des scientifiques américains ont évalué le nombre de personnes qui risquent de pâtir du réchauffement climatique. Selon cette étude publiée dans la revue Nature, l'élévation du niveau de la mer de 1,8 mètre d'ici à 2100 concernera plus de 13,1 millions d'habitants du littoral américain (des océans Pacifique et Atlantique, et notamment du golfe du Mexique).
En cas d'élévation de 0,9 mètre, 4,2 millions de personnes seront touchées. Par exemple, dans l'État de Floride, la montée de la mer de 0,9 mètre touchera 1,2 million d'habitants, et la montée de 1,8 mètre, 6,1 millions.
Afin de prévenir la catastrophe (inondation des territoires habités), les chercheurs proposent non seulement de réduire les quantités de gaz à effet de serre (mesures de règlement écologique), mais aussi de construire des ouvrages de protection et des remblais.
Le réchauffement mondial risque de provoquer une nouvelle vague de migration aux États-Unis, dont l'envergure, selon les experts, dépassera celle enregistrée au milieu du XXe siècle, quand des millions d'afro-américains ont quitté les États du sud du pays.
Les scientifiques ont pour la première fois procédé à une analyse des conséquences démographiques du réchauffement climatique, compte tenu de la croissance de la population des États-Unis. Les chiffres obtenus sont trois fois plus importants que ceux cités par d'autres experts, qui se fondaient sur les statistiques actuelles.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Pathologie complexe et multifactorielle, la dépression touche environ 350 millions de personnes dans le monde. Parmi les nombreux facteurs qui sont impliqués dans cette maladie, certains relèvent de l'alimentation. C'est le cas des omega-3 : manger beaucoup de poisson peut contribuer à freiner le risque de dépression, avait récemment conclu une large méta-analyse de 26 études impliquant plus de 150.000 participants.
Cette nouvelle méta-analyse soutient ainsi le lien entre supplémentation en omega-3 (EPA et DHA) et réduction du trouble dépressif majeur. Menée à partir de 13 études, portant au total sur 1.233 participants, l’analyse accorde même l’avantage aux omega-3, avec des effets rapportés a minima similaires à ceux obtenus avec les antidépresseurs, en cas de traitement antidépresseur.
Et l'effet le plus significatif est constaté dans les études portant sur les doses les plus élevées d'EPA et chez des patients déjà sous antidépresseurs. Cependant, si l’analyse montre un effet global bénéfique des AGPI oméga-3 sur les symptômes dépressifs, elle révèle aussi l’hétérogénéité significative des résultats : ceux-ci dépendent en effet de la dose EPA, de la prise d’un traitement antidépresseur (et également de l'année de publication des études prises en compte).
Le Docteur Roel JT Mocking, psychiatre à l’Université d’Amsterdam et auteur principal de l’étude, commente ces résultats : « Les suppléments oméga-3 peuvent être particulièrement efficaces lorsqu’ils sont fortement titrés en EPA (l'acide éicosapentaénoïque) et chez les patients déprimés sous antidépresseurs. C’est une nouvelle étape pour personnaliser le traitement de la dépression et d'autres troubles ». L’étude souligne ainsi l'importance des oméga-3 pour la santé et le bien-être, et soutient la preuve du lien entre oméga-3 et dépression.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de l’Institut National de la Recherche Agronomique (INRA) ont réussi à mettre en évidence le rôle direct d’une catégorie de polyphénols, les flavanones, de l’orange et du pamplemousse, dans la protection cardiovasculaire. Au rayon vitamines, les agrumes sont des stars. Mais ce que l’on oublie, c’est que ces fruits sont aussi une source abondante d’une catégorie particulière de polyphénols, les flavanones.
Une orange en contient jusqu’à 0,5 gramme, soit 10 fois plus que sa teneur moyenne en vitamine C. Ces composés abondent également dans les clémentines, les mandarines et le pamplemousse. Des chercheurs de l’INRA Auvergne-Rhône-Alpes ont tenté de connaître l’impact de ces composés sur la protection cardiovasculaire. Une orange ou un pamplemousse tous les matins. Un premier travail, mené auprès d’hommes de plus de 50 ans en léger surpoids a montré que la consommation régulière de jus d’orange diminuait la pression sanguine et tendait à améliorer la réactivité vasculaire (la capacité de dilatation des vaisseaux sanguins).
En fait, l’hespéridine, le flavanone propre à l’orange, serait largement responsable de cet effet bénéfique. Comme « le fruit contient 2 à 3 fois plus d’hespéridine, car présent majoritairement dans ses parties blanches, que le jus, on peut penser que la consommation de fruits entiers est encore plus recommandable pour la santé vasculaire », observent les scientifiques.
Une autre étude sur le pamplemousse a permis de montrer un rôle protecteur des polyphénols contre la rigidité artérielle. Cette dernière est une composante de la fonction vasculaire, reconnue pour être fortement corrélée au risque cardiovasculaire.
Article rédigé par Georges Simmonds pour RT Flash
INRA
|
|
|
|
|
|
|
|
A l'EPFL de Lausanne, en Suisse, une équipe du Laboratoire de biologie à l'échelle nanométrique, dirigée par Aleksandra Radenovic, a démontré que le transport des ions pouvait être décrit par une loi physique appelée blocage de Coulomb. Leurs observations permettent de mieux comprendre le fonctionnement de ces canaux. Les cellules du corps humain contiennent toutes dans leurs membranes de minuscules canaux, appelés « ioniques », parce qu'ils favorisent le passage à grande vitesse de certains ions.
Ces canaux jouent un rôle central dans le fonctionnement des neurones, des cellules musculaires ou cardiaques, notamment. Or les canaux ioniques sont extrêmement complexes et de nombreuses questions demeurent. Comment les canaux sélectionnent-ils les ions pouvant circuler ?
Pour le savoir, ces chercheurs ont créé un canal ionique artificiel en générant un trou de moins d'un nanomètre dans un matériau en deux dimension appelé disulfure de molybdène (MoS2). Ils ont ensuite placé ce matériau dans un dispositif doté de deux électrodes, avec des deux côtés du matériau un liquide ionisé. En appliquant un voltage, ils ont pu mesurer les variations de courant entre les deux chambres.
Dans un système traditionnel, où le trou est plus large (>1nm), le flux des ions ne s'arrête jamais complètement. Avec leur système, les chercheurs ont observé qu'en appliquant une tension basse, des bandes dépourvues de courant - dites « energy gaps » - apparaissaient, prouvant que les ions étaient d'abord retenus, avant de transiter d'un côté à l'autre du minuscule trou lorsque la tension devenait assez importante.
Finalement, ces chercheurs ont montré que la façon dont les ions sont transportés peut être expliquée par une loi de physique qui apparaît habituellement lorsque l'on parle du transport d'électrons : le blocage de Coulomb. Les expériences menées par les chercheurs de l'EPFL ont montré que le phénomène du blocage de Coulomb apparaissait également dans le cas du transport de ions, en présence d'un nanopore.
Comme Aleksandra Radenovic le souligne, « Nous avons pu démontrer qu'ils avaient raison, en observant pour la première fois le phénomène grâce à nos nanostructures et ces informations ouvrent la voie à de nombreuses expérimentations dans le futur sur le transport des ions à l'échelle mésoscopique ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Des chercheurs de l'Inserm ont découvert un nouveau mécanisme utilisé par les cellules des mélanomes pour s’auto-défendre contre le système immunitaire. Le mélanome est un cancer de la peau très agressif qui parvient souvent à déjouer la réponse immunitaire du patient pour lui échapper et s’étendre. Le problème est que plusieurs mécanismes sont impliqués dans cette résistance.
C’est justement l'un de ceux-ci, permettant aux cellules malignes de déjouer les attaques des lymphocytes T cytotoxiques, qui a été mis à jour. "Les cellules de mélanome expriment différents antigènes tumoraux qui sont reconnus par les lymphocytes T cytotoxiques. Ces derniers induisent des réponses spécifiques contre la tumeur : le lymphocyte T vient au contact de la cellule cancéreuse, créant une aire de contact spécialisée appelée synapse lytique, telles les synapses neuronales qui permettent de faire des ponts entre les neurones, explique Salvatore Valitutti, responsable de ces travaux. C’est depuis cette synapse lytique que le lymphocyte T libère des substances toxiques destinées à tuer la cellule cible".
Les chercheurs ont analysé les événements se produisant au niveau de cette synapse en utilisant, entre autres, la microscopie time-lapse. Cette technique permet d’observer la dynamique cellulaire et les contacts entre cellules en temps réel. Grâce à des marqueurs fluorescents, les chercheurs ont même pu suivre le comportement de certaines des molécules des cellules de mélanomes.
Les chercheurs ont ainsi constaté qu’au moment de la rencontre entre les deux types de cellules, un bouclier de lysosomes se forme quasiment instantanément le long de la membrane de la cellule cancéreuse. Les lysosomes sont des compartiments intracellulaires nécessaires à la dégradation de protéines et de matériaux à éliminer, contenant pour ce faire des enzymes de dégradation. "A peine quelques minutes après la formation de la synapse et le relargage de molécules toxiques par le lymphocyte T, des lysosomes sont recrutés le long de cette synapse et libèrent des protéases. Ces dernières détruisent alors les molécules toxiques censées tuer la cellule cancéreuse", décrit Salvatore Valitutti.
Les chercheurs ont montré qu’en altérant cette fonction des lysosomes dans les cellules de mélanomes à l’aide de différentes drogues ou en inhibant l’action des protéases qu’ils contiennent, les cellules cancéreuses deviennent davantage sensibles à l’action des lymphocytes T, "ce qui confirme leur rôle spécifique dans le mécanisme de défense du cancer", conclut Salvatore Valitutti. Ces chercheurs vont à présent tenter de développer de nouvelles approches thérapeutiques pour contrer ce mécanisme.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Les génomes des êtres vivants possèdent des tailles très diverses : l’ADN humain contient environ 20 000 gènes formés par près de 3 milliards de paires de bases, ce qui est bien peu comparé à Paris japonica, une plante herbacée du Japon, qui comptabilise 150 milliards de paires de bases. À l’inverse, certaines bactéries possèdent tout au plus quelques milliers de gènes.
D'où la question qui interpelle les généticiens depuis plusieurs dizaines d’années : combien de gènes sont nécessaires pour produire une cellule viable capable de se répliquer ? C’est une partie de cette énigme que l’équipe de Craig Venter, co-fondateur de l’Institut qui porte son nom, à La Jolla, en Californie, a résolue : elle a synthétisé une cellule capable de se répliquer avec seulement 473 gènes.
C'est une étape importante de la biologie de synthèse, un domaine de recherche dont l'un des objectifs est de construire de nouveaux systèmes biologiques pour comprendre les mécanismes du vivant. De nombreuses équipes se sont lancées dans la quête d’un génome minimal. Pour Craig Venter et son équipe, l’aventure a commencé en 1995, lorsqu’ils ont séquencé le génome de Mycoplasma genitalium, une bactérie vivant dans le conduit urinaire humain et qui ne présente que 517 gènes. Il s’agit d’un des organismes capables de s’autorépliquer doté du plus petit génome (l’ADN d’un virus peut être encore plus petit, mais le virus doit parasiter une cellule et en détourner les fonctions pour se répliquer).
En 2010, l’équipe de Craig Venter était parvenue à synthétiser une réplique du génome de Mycoplasma mycoides (un parasite des ruminants qui a l’avantage pour les chercheurs de se répliquer plus vite que M. genitalium) et le substituer au matériel génétique d’une cellule d’une autre espèce de mycoplasme. Le génome artificiel, avec 901 gènes, était une copie quasi fidèle d’un génome existant dans la nature, mais cette expérience a démontré la possibilité de synthétiser chimiquement à grande échelle de l’ADN et de l’injecter dans une cellule pour produire un organisme viable. Les chercheurs ont ensuite utilisé ce génome de synthèse comme base pour déterminer les gènes indispensables ou superflus à la vie de la cellule.
Les chercheurs ont d’abord sélectionné et inactivé eux-mêmes les gènes qui leur semblaient inutiles, à partir des connaissances sur le fonctionnement de la cellule, mais l’approche s’est révélée inefficace. L’équipe a donc opté pour une voie différente, la méthode « essai et erreur ». Les biologistes ont coupé le génome de M. mycoides en 8 segments de tailles similaires, qui pouvaient être assemblés selon différentes combinaisons, partielles ou complètes. En testant alors la viabilité de la cellule avec le génome recombiné, les chercheurs ont éliminé, par essais successifs, les gènes non indispensables.
Le résultat final est une cellule de synthèse, nommée JCVI-syn3.0, comprenant 473 gènes. Parmi eux, 41 % participent à l’expression du génome, 18 % à la structure et aux fonctions de la membrane, 17 % au métabolisme et 7 % à la préservation de l’information génétique. Certains gènes ont pu être classés grâce à l’étude de leur structure, mais la fonction de 149 gènes reste inconnue, ce qui représente près d’un tiers du matériel génétique !
Ces gènes sont pourtant nécessaires : sans eux, la cellule n’est pas viable. Pour Jack Szostak, biochimiste à l’Université Harvard, « le plus intéressant dans ce résultat est tout ce que nous ne savons pas ».
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Dans le cadre d'un partenariat avec le groupe Olmix, des chercheurs de l'Inra ont montré qu'un composé extrait d'algues vertes inhibe in vitro la croissance de bactéries pathogènes et stimule la production de médiateurs de l'immunité par des cellules épithéliales intestinales. Une telle préparation pourrait être utilisée dans l'alimentation des animaux d'élevage pour améliorer leur robustesse face aux infections et ainsi réduire l'utilisation des antibiotiques.
Les algues marines sont des plantes aquatiques chlorophylliennes fixées sur les fonds marins. Elles sont classées en trois groupes selon la nature de leurs pigments, à savoir les algues brunes (Phéophycées), les algues rouges (Rhodophycées) et les algues vertes (Chlorophycées ou ulvales). La paroi cellulaire de ces algues marines riche en polysaccharides sulfatés possède des propriétés physico-chimiques et biologiques qui pourraient avoir des applications potentielles dans l'industrie pharmaceutique et biomédicale, en cosmétologie, en agriculture ou comme additifs pour l'alimentation humaine et animale.
Dans le cadre d'un partenariat de recherches entre le groupe Olmix et l'Unité mixte de recherche Infectiologie et santé publique du centre Inra Val de Loire, un extrait de polysaccharides sulfatés appelé MSP (Marine Sulfated Polysaccharides) a été étudié in vitro pour tester sa capacité à inhiber la croissance des bactéries et stimuler la production de médiateurs de l'immunité.
Le pouvoir inhibiteur de la croissance bactérienne du MSP a été observé sur un panel de 42 souches de bactéries pathogènes isolées directement d'animaux d'élevage ou de leur environnement. Parmi elles, Pasteurella multocida, Manheimia haemolytica, Erysipelothrix rhusiopathiae, Staphylococcus aureus, Streptococcus suis, se sont révélées sensibles à l'action du MSP et celles-ci étaient plus sensibles que Salmonella ou E. coli. De plus, le MSP a induit une augmentation de la production de cytokines, des médiateurs de la réponse immunitaire, dans un système in vitro de cellules épithéliales intestinales porcines différenciées, indiquant une potentielle action stimulatrice de l'immunité intestinale par le MSP.
"Une telle préparation pourrait être utilisée dans l’alimentation des animaux d’élevage pour améliorer leur robustesse face aux infections et ainsi réduire l’utilisation des antibiotiques", souligne l’Inra dans un communiqué. "Elle pourrait également constituer un adjuvant potentiel dans des stratégies vaccinales. Incorporé dans l’alimentation, il pourrait inhiber la croissance des agents pathogènes et stimuler la réponse immunitaire, et ainsi réduire l’utilisation d’antibiotiques dans les élevages". Les algues marines constituant une source polysaccharides sulfatés pourraient en effet être utilisées dans l'alimentation des animaux d'élevage pour inhiber la croissance des agents pathogènes et stimuler la réponse immunitaire.
Article rédigé par Georges Simmonds pour RT Flash
INRA
|
|
|
|
|
|
|
|
Selon de récentes recherches effectuées par Sylvie Lesage, chercheuse à l'Hôpital Maisonneuve-Rosemont, un défaut génétique commun dans certaines cellules pourrait être à l'origine des deux formes courantes du diabète. Le diabète est une maladie chronique qui ne se guérit pas, mais que l'on peut traiter et contrôler. La vaste majorité des personnes atteintes présentent l'un de ces deux types de diabète : de type 1, déclenché par l'auto-immunité dès l'enfance ou de type 2, causé par des troubles du métabolisme du foie, du muscle, et des tissus adipeux.
Bien que le diabète soit une maladie généralement associée à des facteurs liés au mode de vie, comme l'obésité et le niveau d'activité physique, de plus en plus de travaux mettent en relief certains fondements génétiques importants. La présente recherche le montre une fois de plus puisqu'elle a permis de constater le rôle central de la génétique dans la survie des cellules bêta, qui fabriquent l'insuline.
Grâce à notre patrimoine génétique, certains d'entre nous ont des cellules bêta robustes et solides, tandis que d'autres ont des cellules bêta fragiles qui ne supportent pas le stress. Ce sont ces personnes-là qui contractent un diabète, qu'il soit de type 1 ou de type 2, tandis que les autres, qui possèdent des cellules bêta plus solides, resteront en bonne santé, même s'ils souffrent d'auto-immunité ou de troubles du métabolisme du foie.
Le diabète est causé par l'incapacité de l'organisme à faire baisser le taux de glucose dans le sang, processus régulé par l'insuline. Chez les patients atteints d'un diabète de type 1, c'est le système immunitaire qui tue les cellules bêta qui produisent l'insuline. Chez les patients atteints d'un diabète de type 2, c'est un dysfonctionnement du métabolisme qui empêche l'insuline d'agir sur le foie. Dans les deux cas, si le surplus de glucose dans le sang n'est pas traité, il peut entraîner bon nombre de problèmes, cécité, maladies cardiovasculaires ou complications rénales notamment.
Les chercheurs se sont penchés sur la manière dont les variations génétiques influent sur l'apparition du diabète. Les présents travaux ont permis de constater que les facteurs génétiques altéraient les cellules bêta qui produisent l'insuline. Les chercheurs ont constaté que des souris possédant des cellules bêta fragiles, incapables de réparer les dommages de l'ADN, ont contracté rapidement le diabète. D'autres rongeurs, possédant des cellules bêta robustes qui arrivaient bien à réparer les dommages de l'ADN, restaient non diabétiques toute leur vie.
En outre, les chercheurs ont constaté qu'une altération de ces mêmes processus de survie des cellules bêta et de réparation des dommages de l'ADN a également été constatée dans les échantillons prélevés chez les patients diabétiques. Ces travaux semble indiquer qu'une prédisposition génétique liée à des cellules bêta fragiles pourrait permettre de prévoir qui contractera le diabète.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs israéliens ont mis au point un patch révolutionnaire qui se dilate comme le tissu cardiaque humain, mais se régule comme une machine. Ce patch cardiaque bionique combine des éléments organiques et d’ingénierie. Selon ses inventeurs, ses capacités dépasseraient celles du tissu humain… Cette nouvelle innovation de chercheurs en ingénierie de l’Université de Tel Aviv (TAU) pourrait peut-être révolutionner la recherche cardiaque.
Ce patch, qui peut être géré à distance, est composé de cellules vivantes cardiaques, de polymères et de systèmes nanoélectroniques complexes. Ce système électronique apporte des fonctionnalités précieuses comme la détection et le suivi en ligne des contractions cardiaques et la possibilité de "stimuler" en cas de besoin. En outre, l’électronique peut contrôler la libération de facteurs de croissance et de médicaments, pour "activer" les cellules souches ou pour réduire une inflammation après la transplantation.
Cette invention est l’œuvre du Docteur Tal Dvir du Département des biotechnologies de TAU, qui, en dépit de l’intégration combinée d’électronique et de tissus vivants, assure que ce n’est pas "de la science-fiction". Il est vrai que son équipe est spécialisée, depuis de nombreuses années, dans le développement de substituts fonctionnels pour les tissus cardiaques endommagés par une crises ou une maladie cardiaque. Son nouveau "patch cardiaque bionique" non seulement remplace le tissu organique lésé, mais assure également la fonction cardiaque grâce au système de télésurveillance.
"Nous avons d’abord vérifié que les cellules se contractaient bien dans le patch puis nous avons travaillé à réguler la fonction cardiaque, puis à pouvoir libérer des médicaments directement dans le cœur pour optimiser l’ intégration du patch dans le "cœur hôte" : des polymères activables à distance sont capables de libérer des médicaments, tels que des facteurs de croissance ou de petites molécules sur demande.
Le patch bionique est aussi un formidable outil de suivi : à terme, si un patient équipé de ce dispositif subit un événement cardiaque à la maison, son médecin sera en mesure de se connecter, de visualiser les données envoyées à distance à partir des capteurs embarqués dans le génie tissulaire, d’évaluer exactement l’état du patient, voire de réguler la fonction cardiaque.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Nos ancêtres se sont hybridés avec l’Homme de Neandertal, mais aussi avec l’Homme de Denisova, ce cousin vieux de 30.000 ans découvert dans une grotte de Sibérie. Initialement, seul un os avait été découvert mais le séquençage de l’ADN (mitochondrial) a été très bavard et cette espèce humaine est devenue par la suite la première à être mieux connue par l’analyse génétique que par les ossements. Ce qui a conduit à d’étonnantes conclusions.
Des gènes néandertaliens existent toujours chez les humains actuels mais ils sont dispersés dans la population. On estime que la moitié du génome néandertalien subsiste chez les Hommes actuels, disséminé en morceaux. Quant à Denisova, il a légué des gènes retrouvés aujourd’hui à l’est de l’Asie, en Mélanésie et chez les aborigènes d’Australie. Mais quels gènes ? Et à quoi nous servent-ils ?
C’est aujourd’hui la piste que suit l’infatigable Svante Pääbo, de l’institut Max-Planck de Leipzig, en Allemagne, qui avait séquencé l’ADN de Neandertal (celui du noyau et non plus des mitochondries, donc responsable des caractères héréditaires) puis, en 2010, celui de l’Homme de Denisova. Dans une publication parue dans Science, lui et son équipe décrivent une étude génétique sur 1.523 personnes venues de différentes régions du globe, dont 35 de l’archipel Bismarck, en Papouasie-Nouvelle-Guinée. Les chercheurs ont comparé ces données à celles obtenues sur les génomes de Neandertal et de l’Homme de Denisova. L’étude montre que certaines régions des génomes modernes contiennent parfois des gènes anciens alors que d’autres en sont systématiquement dépourvues.
Ces résultats éclairent – mais compliquent encore – la longue histoire humaine. Selon eux, les gènes néandertaliens se retrouvent en différents endroits du génome. Homo sapiens (notre espèce) s’est donc hybridé plusieurs fois (« au moins trois ») avec Neandertal. En revanche, avec l’Homme de Denisova, l’aventure s’est déroulée durant une seule période, courte. Les gènes qui subsistent aujourd’hui chez les Mélanésiens, expliquent les auteurs, concernent les fonctions immunitaires.
Cet apport génétique aurait aidé les nouveaux habitants de ces îles à résister aux pathogènes locaux. D’autres gènes dénisoviens auraient donné aux Tibétains une meilleure adaptation à l’altitude.
Selon ces travaux, la persistance de gènes archaïques dans notre génome (appelée introgression) s’expliquerait à la fois par les croisements, donc l’histoire des populations humaines, et par l’utilité de ces gènes pour les humains modernes. Là où ils étaient utiles, ils ont été conservés. Ailleurs, ils ont été remplacés.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Plusieurs modèles de véhicules à hydrogène dotés de quatre places étaient déjà sur le marché, mais les progrès du constructeur automobile japonais Honda en matière de miniaturisation et de puissance de ses piles à combustibles lui ont permis d’ajouter une place à sa dernière berline à hydrogène. Selon Honda, 200 modèles devraient être vendus la première année, principalement à des administrations publiques, telles que le ministère japonais de l’environnement, et à des entreprises.
Il s’agit du second modèle de véhicule à hydrogène prévu pour une distribution à une telle échelle, le premier étant la Mirai du constructeur japonais Toyota, dont plusieurs milliers d’unités ont été réservées et plusieurs centaines distribuées depuis le début de sa commercialisation fin 2014.
La voiture à hydrogène présente un double avantage par rapport aux véhicules électriques, autre alternative aux carburants fossiles. Son plein est plus rapide (trois minutes au lieu de plusieurs heures) et son autonomie bien supérieure (750 kilomètres par plein pour la Clarity contre 500 pour la Tesla Model S).
Elle reste néanmoins coûteuse ; elle sera en effet proposée à la vente pour 7,66 millions de yens (environ 60 500 euros), et à la location pour environ 100 000 yens (790 euros) par mois au Japon et 500 dollars (450 euros) par mois en Californie, où elle sera disponible dès la fin de cette année.
Article rédigé par Georges Simmonds pour RT Flash
AP
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|