|
|
|
|
|
NUMERO 1038 |
|
|
|
|
|
|
|
Edition du 14 Février 2020
|
|
|
|
|
Edito
L’ADN : le stockage ultime de l'information ?
Le Web n’a que trente ans mais il a déjà aussi profondément transformé notre monde que l’invention de l’imprimerie, en 1450, ou celle du téléphone (1876), de la radio (1895 ), de la télévision (1926) ou de l’ordinateur (1943), autant de ruptures technologiques majeures qu’il a d’ailleurs intégrées et fusionnées dans son réseau planétaire.
L’année dernière, sur les 7,7 milliards d'humains, 5,1 milliards possédaient un téléphone mobile et 4,4 milliards utilisaient régulièrement l’Internet (soit presque six terriens sur dix). En un an, le nombre d'utilisateurs du web s'est accru de 9,1 %, tandis que la population mondiale n'a progressé que de 1,1 %. Les réseaux sociaux ont eux aussi vu leur public s'accroître et comptent 3,5 milliards d'adeptes, soit 45 % de l'humanité. Et cette révolution numérique va encore s’accélérer : on estime qu’à l’horizon 2030, plus de sept milliards d’humaines – huit sur dix – seront connectés à l’Internet, dont un milliard d’Indiens, ce qui fera de cet immense pays, en plein essor économique, la première puissance numérique du Monde.
D’ici cette échéance, deux autres révolutions techno-économiques vont venir décupler la puissance et les potentialités du Net. D’abord la 5G, qui va permettre, d’ici dix ans, d’acheminer les informations numériques à un débit 100 fois plus rapide, en moyenne, qu’aujourd’hui. Seconde révolution, l’Internet des objets, qui va attribuer une adresse IP à la plupart des objets qui composent notre quotidien, voitures, appareils ménagers, immeubles, vêtements. Selon Strategy Analytics, il y aurait déjà 25 milliards d’objets connectés à Internet (Internet of Things- IoT) en 2020, et ce nombre, dopé par la montée en puissance de la 5G, pourrait dépasser les 100 milliards en 2030…
En 2010, le monde ne produisait que deux zettaoctets de données numériques, soit l'équivalent de deux milliards de téraoctets. En 2020, ce chiffre dépassera les 50 zettaoctets, il attendra 175 zettaoctets en 2025, et 600 zettaoctets vers 2030. Résultat de cette explosion informationnelle : plus de la moitié de toute l’information produite par l’humanité depuis ses origines l’a été depuis moins de trois ans.
Comment continuer à stocker l’immense masse d’informations produites par notre civilisation, sachant que, si l’Internet était un pays, il serait le 3ème consommateur d’électricité au monde, avec environ avec 1500 TWH par an, derrière la Chine et les Etats-Unis. Au total, le Web, avec ses myriades de serveurs et d’ordinateurs, consomme déjà plus de 6 % de la production mondiale d’électricité, et cette consommation pourrait tripler d’ici 2030, sans ruptures technologiques profondes, ce qui n’est pas envisageable, tant pour des raisons économiques qu’environnementales.
Pour relever ce défi technologique, chercheurs et ingénieurs rivalisent d’imagination dans le monde entier et ne cessent de concevoir des mémoires physiques toujours plus performantes, qu’elles soient optiques, magnétiques ou électroniques. Mais ces systèmes physiques, bien qu’ils consomment de moins en moins d’énergie, doivent être multipliés pour faire face à la croissance quasi-exponentielle des demandes diverses de stockage numérique, à court et long terme. En outre, tous ces supports physiques ont une durée de vie très courte, même en prenant beaucoup de précautions et ils sont à la fois victimes de l’usure du temps et de la succession de plus en plus rapide des formats et des technologies, souvent incompatibles entre eux. C’est pourquoi, depuis une dizaine d’années, les chercheurs redoublent d’efforts pour préparer un grand saut technologique, celui du stockage biologique, sur ADN. Cette structure de base du vivant, découverte en 1953 par James Watson et Francis Crick et Rosalyd Franklin, trop longtemps oubliée, l’ADN, a dix milliards de fois la capacité d’un CD. Il ne consomme pas d’électricité et surtout, il peut, même dans des conditions climatiques sévères, se conserver pendant des millions d’années.
En 2012, une équipe de chercheurs de Harvard a réussi à encoder sur ADN un livre de 300 pages, illustrations comprises (Voir Science). En 2016, les équipes du Molecular Information Systems Lab (MISL) de l'Université de Washington et de Microsoft ont réussi à encoder un clip vidéo d'environ 200 Mo sur de l'ADN ; ils sont depuis parvenus à un nouveau record de 1 Go. En 2017, des chercheurs du New York Genome Center et de l'Université de Columbia ont réussi à coder un petit film dans son intégralité. Au total, ils ont stocké 2 mégaoctets de données dans 72.000 brins d'ADN. Mais surtout, ils ont ensuite été capables de les lire en streaming, car il ne s’agit pas seulement de conserver l’information, il faut également pouvoir la lire facilement et rapidement. Cette approche permet déjà de stocker quelque 215 pétaoctets (215 millions de milliards d'octets) de données dans un seul gramme d'ADN, ce qui représente environ deux cent fois tout le contenu de la Bibliothèque Nationale de France (Voir Science).
Début 2018, les chercheurs du Waterford Institute of Technology (WIT) ont, de leur côté, fait la démonstration d'encodage et de décodage d'un message dans une bactérie E.coli. Cette équipe dirigée par Yutaka Takahashi, en collaboration avec les ingénieurs de Microsoft (Voir Microsoft) est parvenue à fabriquer une machine capable de transformer automatiquement des données numériques (suites de 0 et de 1) en séquences ADN (bases azotées A, C, T et G). Fait remarquable, ce prototype a coûté moins de 10 000 euros. Il a été réalisé à l’aide de récipients en verre où sont fabriqués des brins d'ADN synthétiques, et un séquenceur d'Oxford Nanopore a permis de reconvertir ces données en informations numériques.
A l’occasion d’une présentation de cette technologie qui a fait sensation, le dispositif élaboré par le WIT a réussi à traduire le mot « hello » en ADN. L'algorithme de Microsoft a d’abord converti les bits en bases ADN, qui sont obtenus à l'aide d'un synthétiseur en ajoutant des produits chimiques. Les cinq octets de « hello » (01001000 01000101 01001100 01001100 01001111) ont ainsi pu être stockés dans 1 mg d'ADN.
Il reste que, pour l'instant, ce processus de stockage est bien trop lent pour être exploité commercialement. Mais les chercheurs affirment qu’il n’existe aucun obstacle insurmontable pour rendre cette vitesse de conversion et de lecture plus rapide « Notre objectif est de mettre au point un système qui, pour l'utilisateur final, ressemble à n'importe quel autre service de stockage cloud, où les données sont envoyées dans un datacenter ADN, puis sont reconverties en bits lorsque le client en a besoin », explique Karin Strauss, chercheuse principale chez Microsoft.
Selon Microsoft, la totalité de l'information contenue dans un datacenter pourrait tenir dans un volume de la taille d'un dé et la totalité des données produites par l’Humanité, depuis les origines, jusqu’en 2030, pourraient être stockée dans un volume pas plus gros qu’un réfrigérateur. Mais plus encore que sa capacité inouïe de stockage, l’ADN recèle un autre avantage décisif : il reste stable et exploitable pendant des centaines de milliers d’années, contre seulement quelques décennies pour les mémoires magnétiques et électroniques, et au mieux quelques siècles, pour les mémoires de masses en verre spécial. Microsoft estime ainsi qu'il faudra atteindre une vitesse de conversion d'environ 100 Mo par seconde pour être viable commercialement. Le coût de la fabrication d'ADN doit également baisser.
En 2019, des scientifiques irlandais de l’Institut irlandais de technologie de Waterford ont par ailleurs mis au point une solution innovante permettant de stocker des données dans de l’ADN et d’utiliser des bactéries pour archiver jusqu’à un zettaoctet dans un gramme d’ADN (Voir WIT). La technique utilise des molécules d’ADN à double contrainte appelées plasmides pour coder des données qui sont stockées dans la souche Novablue de la bactérie E Coli. Les données stockées peuvent être transférées en libérant une souche HB101 mobile de E Coli qui utilise un processus appelé conjugaison pour extraire les données. Bien que cette méthode soit très fiable, elle reste également lente et coûteuse mais il ne fait guère de doute, qu’au rythme où cette technologie progresse, elle permettra bien plus vite qu’on ne croit un stockage massif, rapide et surtout d’une durabilité à toute épreuve de nos données numériques les plus précieuses.
C’est dans ce contexte que la biotech française DNA Script a annoncé, il y a quelques jours, avoir reçu un financement du gouvernement américain pour mettre au point une technologie de stockage des données dans l’ADN. En partenariat avec des chercheurs du Massachusetts Institute of Technology (MIT), d’Harvard, et d’Illumina – le géant américain du séquençage génétique –, elle a quatre ans pour développer sa technologie originale qui utilise des enzymes génétiquement modifiées et pour concevoir une machine capable d’encoder dans une molécule un téraoctet de données – l’équivalent de 250 films – en vingt-quatre heures pour un coût maximal de 1 000 dollars (902 euros). Le but : développer des technologies de stockage d'information moins coûteuses et moins énergivores en utilisant de l'ADN de synthèse (Voir Business Wire).
Il est vrai que les enjeux économiques et écologiques de ces recherches sont considérables. On estime en effet que le coût de construction d’un centre de données de l’ordre de l’exaoctet est d’environ 100 millions de dollars, sans compter les frais de maintenance et d’exploitation. Par ailleurs, les différents supports de stockage actuels ont une obsolescence rapide et coûteuse et doivent être dupliqués au moins une fois par décennie pour garantir l’intégrité des données. L’ADN, en revanche, s’il est conservé dans de bonnes conditions, peut rester stable et exploitable pendant des durées qui défient l’entendement. Des chercheurs ont par exemple réussi à décrypter le génome d’un cheval vieux de 700 000 ans.
Si cet ambitieux programme de recherche aboutit, le stockage moléculaire sur ADN pourrait être disponible commercialement d’ici dix ans. Il serait réservé dans un premier temps à l’archivage de données particulièrement précieuses, comme des informations portant sur la localisation des déchets nucléaires ou de zones de contamination chimique ou biologique majeures, autant de données qui doivent absolument être transmises intactes pendant de très nombreux siècles. A plus long terme, 20 ou 25 ans, cette technologie de stockage sur ADN se diffuserait dans le grand public et les entreprises, permettant de stocker et de récupérer des masses inimaginables d’informations pour un coût marginal très faible.
La France est également bien consciente de l’importance de cet enjeu technologique et économique. Le CNRS, entre autres, mène des recherches très intéressantes pour inscrire et lire l’information en utilisant des polymères de synthèse. Jean-François Lutz et son équipe travaillent par exemple sur une méthode qui consiste à associer deux monomères artificiels, qu’on définit arbitrairement comme 0 et 1. L’idée est de contrôler l’ordre dans lequel se lient ces monomères, en imaginant des techniques permettant d’attacher les blocs de monomère un à un. « Avec cette méthode, on réussit à écrire quelques mots et on devrait pouvoir coder une phrase entière d’ici quelques mois et écrire l’équivalent d’un livre d’ici quatre ans », préciseJean-François Lutz.
Mais si l’ADN va permettre une véritable révolution en matière de stockage de l’information, il pourrait bien également devenir le moteur d’un nouveau type d’ordinateur, radicalement différent dans son principe de fonctionnement des machines électroniques binaires qui dominent l’informatique depuis 80 ans. Il y a quelques semaines, des chercheurs de l’Université de Rochester, dans l’État de New York, sont parvenus à développer un ordinateur à base d’ADN et à le faire fonctionner pour calculer la racine carrée des nombres 1, 4, 9, 16, 25, 36 et ce jusqu’à 900 (Voir New Scientist).
Pour réaliser cette prouesse, les chercheurs ont utilisé 32 brins d’ADN pour former un « bio-ordinateur » afin de stocker et de traiter les informations de l’ordinateur. Cette machine utilise le phénomène d’hybridation, qui se produit lorsque deux brins d’ADN se lient pour former de l’ADN double brin. L’ordinateur peut « calculer la racine carrée d’un nombre binaire de 10 bits (au sein de l’entier décimal 900) en concevant des séquences d’ADN et en programmant des réactions de déplacement de brin d’ADN. Les signaux d’entrée sont optimisés grâce à la rétroaction de sortie pour améliorer les performances dans les opérations logiques plus complexes » précise l’étude. Selon Chunlei Guo, qui dirige ces recherches, « L’informatique ADN en est encore à ses balbutiements, mais elle est très prometteuse, à l’instar de l’ordinateur quantique, pour résoudre des problèmes qui sont trop difficiles, voire impossibles à gérer par les ordinateurs actuels à base de silicium ».
On le voit à la lumière de toutes ces passionnantes recherches, le « bio-ordinateur », utilisant l’ADN à la fois pour le stockage d’informations et le calcul complexe, ne fait plus partie, désormais, de la science-fiction et sera probablement une réalité avant le milieu de ce siècle. Pour se préparer à cette rupture technologique et sociétale majeure, notre pays, qui possède des compétences mondialement reconnues dans le domaine des sciences physiques, des mathématiques et des sciences de la vie, doit sans tarder lancer un ambitieux plan de recherche sur 20 ans, visant à maîtriser, à l’horizon 2040, l’ensemble de ces extraordinaires technologies informatiques à base d’ADN, qui s’annoncent toute aussi révolutionnaires que l’informatique quantique.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Google a annoncé avoir mis au point un réseau de neurones capable de prédire les précipitations de manière plus précise et sur des zones géographiques affinées par rapport aux prévisions "dans l'heure" actuelles de l'agence météorologique nationale des Etats-Unis.
Aujourd'hui, ces prévisions sont établies par le biais de simulations, basées sur des relevés au sol et des observations satellite, et sont réalisées par des supercalculateurs. Les mêmes modèles qui servent à prédire la météo au cours des 10 prochains jours sont utilisés pour prévoir la pluie dans l'heure qui vient. Si leur précision a augmenté à mesure que les supercalculateurs devenaient plus puissants, le temps nécessaire au calcul limite le nombre de "rafraîchissements" journaliers du modèle à trois ou quatre, et les données utilisées sont toujours vieilles de plusieurs heures. La précision géographique est par ailleurs limitée à des zones de 5 kilomètres pour des raisons de lourdeur de traitement.
C’est là que l'approche de Google pourrait changer la donne. Plutôt qu'une simulation des forces physiques de l'atmosphère, les chercheurs ont entraîné un réseau de neurones à partir d'images de la couverture nuageuse provenant de radars atmosphériques. Pour cela, la firme de Mountain View a nourri ses algorithmes avec des images radar de l’ensemble du territoire américain, collectées par l’Agence américaine d’observation océanique et atmosphérique (NOAA) entre 2017 et 2019. En prenant des périodes de quatre semaines, le système a été entraîné avec les données des trois premières semaines – à raison de 30 images par heure, prises avec deux minutes d'écart – et est parvenu à réaliser les bonnes prédictions pour la quatrième grâce à une analyse purement visuelle.
Le résultat est un système capable de fournir une prédiction toutes les deux minutes, et avec une précision géographique "10 fois plus élevée" que celle du modèle classique, d'après Google. Une faible latence qui s'avérerait être un atout pour les endroits soumis à des événements violents comme des tempêtes. "Il s’agit de s’adapter efficacement au changement climatique, en particulier pour les conditions extrêmes. C’est une avancée dans le cadre de la gestion des crises, via la réduction des pertes en vies humaines et en biens", écrit Jason Hickey, ingénieur logiciel chez Google Research.
A noter que cette technique ne donne de meilleurs résultats que sur le temps court. « Pour des prévisions au-delà de six heures, les simulations 3D actuelles restent meilleures pour l'instant », reconnaît Jason Hickey. Si l’intérêt reste, à cette heure, modéré pour des bulletins météo grand public, il est pertinent pour des besoins spécifiques – tels que des opérations de sauvetage.
Article rédigé par Georges Simmonds pour RT Flash
Google
|
|
|
|
|
|
|
|
Pour la première fois, des chercheurs du Massachusetts Institute of Technology (MIT) sont parvenus à réaliser une échographie laser en détectant à distance les ultrasons à la surface de la peau.
Cette nouvelle technique permet, selon ses auteurs, d’obtenir une image à l’intérieur de l’organisme et ce, sans contact avec le corps, et à distance. Pour beaucoup, l’échographie est une procédure sûre, indolore et non-invasive. Elle consiste à presser une sonde à ultrasons avec du gel sur la surface de la peau pour générer une image à l'endroit désiré.
La sonde émet des ondes sonores dans le tissu et diverses caractéristiques comme les muscles, la graisse, les vaisseaux sanguins et les os réfléchissent le son vers la sonde, qui enregistre les signaux réfléchis et produit une image ultrasonore. Comme la sonde doit entrer en contact avec la surface de la peau pour transmettre et détecter les ultrasons, l'orientation de la sonde sur la surface de la peau et la compression de celle-ci créent des images sensibles au contact.
Pour certaines personnes comme les nouveau-nés, les victimes de traumatismes ou de brûlures ou les patients chirurgicaux, cette sensibilité de contact peut être très mal tolérée. C’est pourquoi cette approche alternative aux ultrasons développée par les chercheurs du MIT est si révolutionnaire.
Dans le détail, le laser d'émission envoie une impulsion lumineuse qui est rapidement absorbée par la peau et convertie en ondes sonores par l'effet photo-acoustique, c’est-à-dire la génération de son par la lumière. Les ondes sonores générées interagissent avec des tissus identiques aux ultrasons conventionnels et les signaux réfléchis sont détectés par un interféromètre laser à la surface de la peau. Les lasers sont ensuite déplacés sur la surface de la peau pour produire une image.
Testé avec succès sur des sujets humains, ce système a montré que les ultrasons laser sont sensibles aux mêmes caractéristiques des tissus que ceux détectés par les ultrasons conventionnels. Il permet par ailleurs d'obtenir des images à des profondeurs de l'ordre du centimètre, ce qui est beaucoup plus profond que les autres techniques d'ultrasons optiques et est comparable aux profondeurs d'imagerie des ultrasons cliniques modernes.
Pour les chercheurs, ces premiers résultats de l’échographie laser sont très encourageants. « Nous sommes au début de ce que nous pourrions faire avec l'échographie laser », explique ainsi Brian W. Anthony, chercheur principal au département de génie mécanique du MIT et à l'Institut de génie médical et des sciences (IMES). « Imaginez que nous arrivions à un point où nous pouvons faire tout ce que l'échographie peut faire maintenant, mais à distance. Cela vous donne une toute nouvelle façon de voir les organes à l'intérieur du corps et de déterminer les propriétés des tissus profonds, sans entrer en contact avec le patient ».
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
"Un écran qui ne gêne jamais". Voici la promesse de la start-up californienne Mojo Vision, qui dévoile son prototype de lentille connectée ce 16 janvier 2020, alors que quelques journalistes ont eu l'information en avant-première lors du CES 2020.
Alors que les casques de réalité augmentée sont encore encombrants et techniquement limités, la jeune pousse s'est montrée très ambitieuse en intégrant un écran directement dans une lentille de contact, qu'elle a baptisée "Mojo Lens". Evidemment, les fonctionnalités sont loin de ce qu'il est possible de faire avec un casque HoloLens 2, on est plus proche ici de lunettes connectées comme les Focals.
La lentille permet d'afficher des informations textuelles, mais peut aussi détecter des objets, suivre le mouvement des yeux, contrôler une interface ou même encore permettre de voir dans l'obscurité. D'après la start-up, "Mojo Lens" comprend un écran MicroLED dont la résolution perçue est de 14 000 pixels par pouce (ppp).
Les écrans MicroLED ont beaucoup d'avantages car ils utilisent 10 % seulement de la puissance des écrans LCD actuels et leur luminosité est 5 à 10 fois supérieure à ceux des OLED. Ils sont encore difficiles à produire à grande échelle, mais la Mojo Lens a l'avantage de n'avoir besoin que d'un tout petit écran. Quant à l'esthétisme de la lentille, Mojo Lens a voulu rendre l'objet le plus "naturel" possible. Toute la partie électronique sera cachée sous un iris artificiel.
Mojo Vision espère, dans un premier temps, proposer ces lentilles aux personnes malvoyantes. L'entreprise travaille donc activement avec la Federal and Drug Administration (FDA) dans le cadre de son programme de dispositifs révolutionnaires, un programme volontaire conçu pour fournir un accès sûr et en temps opportun à des dispositifs médicaux qui peuvent aider à traiter des maladies irréversibles.
Une preuve que cette lentille est très prometteuse. La jeune pousse a également signé un partenariat avec Vista Center for the Blind and Visually Impaired, un organisme basé à Palo Alto qui offre des services de réadaptation à plus de 3000 enfants et adultes atteints de cécité.
Article rédigé par Georges Simmonds pour RT Flash
VB
|
|
|
|
|
|
|
|
Il se prénomme Gutenberg One, du nom de l'inventeur de l'imprimerie moderne, Johannes Gutenberg. Avec son bras robotique, cette machine véloce est capable d’imprimer, en cinq minutes, n’importe quel livre à la demande. Conçu par la jeune pousse française Gutenberg & Co, ce robot maîtrise à la perfection tous les gestes de l'imprimeur, du plieur et du brocheur.
Ce robot maîtrise l'ensemble des étapes nécessaires à la fabrication d'un livre, le tout en un temps record. De ce fait, Gutenberg One permet de supprimer les coûts liés à la logistique et de réduire les délais, tout en répondant aux problèmes de stockage, de rupture de stock ou des invendus auxquels sont confrontés les libraires. Plus économique, mais aussi écologique, ce robot-imprimeur permet en effet de favoriser le circuit-court, en retirant l'étape du transport. De quoi réduire drastiquement l'empreinte carbone du secteur de l'édition, à en croire Hubert Pédurand, inventeur du robot et président de la startup Gutenberg & Co.
Le robot-imprimeur Gutenberg One a pour vocation d’être implanté dans les librairies et les bibliothèques. Son déploiement sera progressif, mais l’entreprise espère installer 1.000 exemplaires d’ici à 2030. Coût de l'installation : 80.000 euros. Il sera commercialisé l'été prochain. Son concepteur le présente comme une alternative à Amazon et aux plates-formes de e-commerce.
En mars dernier, lors du dernier Salon du livre à Paris, Gutenberg One a fait fureur, même si son déploiement marque évidemment la fin d'une époque. Les curieux ont pu découvrir Gutenberg One lors de l’exposition « Fabriqué en France » qui s’est tenue à l’Elysée les 18 et 19 Janvier dernier. Le temps d'un week-end, le Palais de l'Elysée s’est transformé en show-room. L'occasion de découvrir, en action, les prouesses de ce robot innovant.
Article rédigé par Georges Simmonds pour RT Flash
LCI
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l’École polytechnique fédérale de Zurich ont créé une pépite d’or ultra légère de 18 carats, en utilisant une matrice de plastique à la place d’éléments en alliage métallique. Pour parvenir à ce résultat, les scientifiques ont utilisé des fibres de protéines et un latex de polymère pour former une matrice dans laquelle ils ont intégré de minces disques de nanocristaux d’or.
Ils ont d’abord ajouté les ingrédients à l’eau et ont créé une dispersion. Puis, après avoir ajouté du sel pour transformer la dispersion en une sorte de gel, ils ont remplacé l’eau qu’elle contenait par de l’alcool. Après plusieurs autres étapes très techniques impliquant entre autres des pressions élevées et une exposition à une atmosphère de CO2, les scientifiques ont obtenu le résultat qu'ils souhaitaient.
Alors que le mélange habituel est généralement composé de trois quarts d’or et d’un quart de cuivre avec une densité d’environ 15 g/cm3, cette pépite créée par Leonie van’t Hag est composée d’un nouvel or léger d’une densité de seulement 1,7 g/cm3.
Ce sont les amateurs de montres en or et de bijoux précieux qui devront remercier l’équipe du professeur Raffaele Mezzenga, directeur du laboratoire où travaille la doctoresse en ingénierie chimique. Les objets de leur désir pourront un jour devenir beaucoup plus légers, mais sans perdre de leur éclat. Cet or presque dix fois plus léger intéresse particulièrement le secteur de la bijouterie, mais également l'industrie chimique et électronique.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
|
|
|
|
|
|
Une équipe pluridisciplinaire de chercheurs, à l'université du Colorado à Boulder (Etats-Unis), a créé un matériau de construction étonnant. Les scientifiques américains ont utilisé des cyanobactéries du genre Synechococcus. Grâce à la photosynthèse, elles captent la lumière du Soleil et absorbent des nutriments et du dioxyde de carbone pour fabriquer du carbonate de calcium, constituant principal de la coquille des animaux marins et ingrédient de base du ciment.
Ces micro-organismes ont été placés dans un moule dans lequel un milieu de culture, de la gélatine et du sable ont été ajoutés. Tandis que la gélatine sert de support à la croissance des bactéries, le carbonate de calcium généré par celles-ci minéralise l'ensemble qui se solidifie et durcit peu à peu ! On obtient ainsi, en quelques heures seulement, un matériau dont les propriétés mécaniques sont similaires au béton, ou plus exactement au mortier utilisé comme élément de liaison en maçonnerie.
Or ces cyanobactéries survivent plusieurs semaines à de telles conditions. Les briques formées grâce à leur métabolisme peuvent ainsi, partiellement tout du moins, s'autorépliquer ! Il suffit de scinder l'une d'elles et d'ajouter de la gélatine et du sable pour que la croissance bactérienne reprenne et produise deux nouvelles briques, celles-ci pouvant ensuite être divisées pour en former quatre, ces quatre pour en obtenir huit, etc.
Contrairement au béton classique, dont la production nécessite énormément de chaleur et libère de grandes quantités de gaz à effet de serre, ce matériau est en outre particulièrement écologique. Il absorbe en effet le dioxyde de carbone et ne nécessite quasiment aucune source d'énergie extérieure hormis les rayons du Soleil. Un milieu humide (50 % d'humidité relative de l'air) est certes nécessaire, et la résistance mécanique de ces briques "vivantes" est inférieure à celle du béton.
Financés par la Darpa, l'agence du département américain de la Défense en charge de l'innovation technologique de rupture, ces recherches ont toutefois été conduites dans un but très précis : bâtir des infrastructures dans des environnements extrêmes limités en ressources et en matières premières, comme une zone désertique par exemple… ou même, avancent les auteurs de l'étude, sur le sol martien !
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de biologistes de l’Université de Cologne a mis à jour un nouveau mécanisme qui explique comment certaines bactéries parviennent à neutraliser un mécanisme de défense du système immunitaire, appelé mort cellulaire programmée ou « apoptose », en inhibant les molécules effectrices de la mort grâce à des composants de leurs membranes externes. L’exemple est ici donné avec la bactérie Shigella, capable d’annuler cette mort cellulaire programmée, et créant ainsi une « niche à propagation ».
L’apoptose est un mécanisme de défense immunitaire normalement efficace. La propagation intracellulaire d'agents pathogènes entraîne la dégradation des cellules infectées et la libération de micro-organismes qui vont infecter les cellules voisines, se propagent et provoquent des lésions tissulaires et des maladies infectieuses.
Cependant, le corps réagit à cette stratégie bactérienne : la mort cellulaire programmée, ou apoptose, qui répond aux situations de stress cellulaire lors des infections et induit, normalement, un suicide rapide des cellules infectées. En raison de ce programme d'autodestruction rapide de nos cellules corporelles, les agents pathogènes ne peuvent pas se multiplier et le système immunitaire les élimine avec succès.
Certaines bactéries échappent à ce mécanisme de mort programmée : les scientifiques ont observé dans le passé que les agents pathogènes peuvent bloquer efficacement l'apoptose, permettant alors aux bactéries de se reproduire et de se propager par voie intracellulaire. Cependant, le mécanisme moléculaire responsable de la façon dont ces bactéries déjouent le système immunitaire restait inconnu.
L’équipe montre ici que les bactéries Shigella, qui causent la diarrhée, utilisent ainsi des lipopolysaccharides (LPS) à leur surface pour bloquer les « caspases » effectrices de mort cellulaire programmée. Les lipopolysaccharides sont un composant de la membrane externe bactérienne.
Cette stratégie permet aux bactéries de se multiplier au sein de la cellule. C’est, en substance, la démonstration de l’équipe d’Hamid Kashkar, professeur d'immunologie moléculaire à l’Institute for Medical Microbiology and Immunology de l’Université of Cologne. C’est ainsi que différentes bactéries peuvent échapper à notre système immunitaire en restant et en se multipliant à l’intérieur de nos cellules.
Voyons quel est le rôle clé joué par les lipopolysaccharides : les lipopolysaccharides se lient aux caspases et les bloquent. Les bactéries privées de lipopolysaccharides, en revanche, subissent indirectement l’apoptose, ce qui les empêche de se reproduire par voie intracellulaire. Elles sont éliminées avec succès par le système immunitaire et ne peuvent donc plus provoquer de maladies infectieuses.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une étude américaine dirigée par Michael J. Wilkinson (University of California, San Diego) a montré que le fait de limiter sa consommation de nourriture à une fenêtre de 10 heures chaque jour favorisait la perte de poids et améliorait les anomalies cardio-métaboliques chez les individus avec un syndrome métabolique.
Sur la base de ce qui a été observé chez les souris, une fenêtre de 10 heures semble apporter des bénéfices. « Dans le même temps, ce n’est pas contraignant au point ce que les gens ne puissent pas le suivre sur le long terme » ajoute le chercheur (Salk Institute for Biological Studies, La Jolla, California).
Comme la plupart des individus prenaient des statines, des antihypertenseurs ou les deux à l’inclusion dans l’étude, « les bénéfices observés de la consommation alimentaire sur un temps limité sont venus s’additionner à ceux des médicaments… Or, dans cette population à haut risque de maladie cardiovasculaire, une réduction significative des lipides athérogènes, de la pression artérielle et de la glycémie, obtenue sous traitement médical optimal, a d’importantes implications cliniques » affirment les investigateurs.
Dans l’étude, 19 personnes avec un syndrome métabolique (13 hommes et 6 femmes) se sont vues demander de restreindre leur consommation alimentaire à une durée journalière de 10 heures pendant 12 semaines, créant une période de jeûne de 14 heures chaque nuit. En revanche, et c’est important de le noter, on ne leur demandait en aucune façon de réduire leur apport alimentaire ou de changer leur alimentation pendant la fenêtre de consommation de 10 heures, précisent les investigateurs.
Les participants étaient âgés de 59 ans en moyenne. Tous réunissaient au moins 3 critères du syndrome métabolique au moment de l’inclusion. La plupart étaient obèses, avec un index de masse corporelle moyen (IMC) de 33 kg/m2. 16 participants (84 %) prenaient au moins un médicament et 3 (16 %) ne prenaient aucun traitement. Quoiqu’il en soit, l’utilisation de statines et d’antihypertenseur était élevée (79 % et 63 %, respectivement).
« Les participants utilisaient une appli validée intitulée myCircadianClock (mCC) — pour rentrer leur apport calorique pendant les 2 semaines d’inclusion et la période de suivi de 12 semaines » expliquent-ils. Sur les 12 semaines d’étude, les participants ont perdu 3,3 kg, soit approximativement 3 % de leur poids corporel, par rapport à l’entrée dans l’étude. De façon intéressante, la perte de poids atteinte par les participants pendant cette étude était comparable à celle obtenue quand on restreint les calories et augmente l’activité physique, indiquent les chercheurs.
Les participants ont aussi indiqué que ce programme de jeûne intermittent était plus facile à mettre en œuvre que compter ses calories ou augmenter son activité physique.
Intéressant aussi, le Docteur Taub a indiqué que les participants, dont environ la moitié étaient déjà ses patients, ont noté avoir ressenti une grande énergie, et certains ont même été capables de diminuer leur traitement voire de le stopper à la fin de l’étude. En outre, plus d’un quart des participants ont choisi de continuer à suivre ce programme d’alimentation restreinte dans le temps après la fin de l’étude.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Si les protéines tau sont présentes dans les neurones (constituant une famille de six protéines isoformes), mais en quantités trop élevées, elles peuvent s’accumuler et engendrer des amas. Des accumulations de protéines tau sont visibles dans le cerveau des personnes atteintes de la maladie d’Alzheimer.
Cette caractéristique peut commencer des décennies avant l’apparition des symptômes de la maladie. Des études antérieures sur des personnes âgées ont suggéré que la privation de sommeil peut augmenter les niveaux de tau dans le liquide céphalorachidien. Un traumatisme crânien peut également augmenter les concentrations de tau dans le sang.
« Beaucoup d’entre nous éprouvent une privation de sommeil à un moment donné de leur vie en raison du décalage horaire, d’une nuit blanche pour mener à bien un projet, à cause du travail en équipe, de nuits de travail ou d’heures incohérentes », a déclaré l’auteur de l’étude Jonathan Cedernaes, de l’Université d’Uppsala en Suède.
« Notre étude exploratoire montre que même chez des individus jeunes et en bonne santé, une nuit de sommeil manquée entraîne une légère augmentation du taux de tau dans le sang. Cela suggère qu’au fil du temps, des types similaires de perturbation du sommeil pourraient potentiellement avoir des effets néfastes ». Les résultats ont été publiés dans la revue médicale Neurology. L’étude a porté sur 15 hommes en bonne santé, de poids normal et âgés en moyenne de 22 ans. Ils ont tous déclaré avoir régulièrement sept à neuf heures de sommeil de qualité par nuit.
Les tests se sont déroulés en deux phases. Pour chaque phase, les hommes ont été observés selon un programme strict de repas et d’activités pendant deux jours et deux nuits, dans une clinique du sommeil. Des échantillons de sang ont été prélevés le soir et le matin.
Pour la première phase, les participants ont pu dormir normalement durant les deux nuits. Pour la deuxième phase, ils n’ont pu bénéficier que d’une nuit de sommeil complète (uniquement le premier jour), suivie d’une nuit de privation de sommeil. Pendant la nuit de privation de sommeil, les lumières étaient allumées alors que les participants étaient assis dans leur lit pour jouer à des jeux, regarder des films ou discuter.
Les chercheurs ont constaté que les hommes montraient une augmentation moyenne de 17% du taux de tau dans leur sang après seulement une nuit de privation de sommeil, contre une augmentation moyenne de 2 % du taux de tau après une bonne nuit de sommeil. Les chercheurs ont également examiné quatre autres biomarqueurs associés à la maladie d’Alzheimer, mais aucun changement de niveau n’a été observé entre une nuit de sommeil normale et une nuit sans sommeil.
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
|
|
|
|
|
|
Des chercheurs affirment que les enfants qui grandissent pendant au moins dix ans dans des zones avec un air fortement pollué ont un risque plus élevé de développer une schizophrénie plus tard dans leur vie. Le rôle de la génétique, facteur de risque connu, serait à écarter.
Une nouvelle étude menée par des chercheurs de l'Université d'Aarhus (Danemark), et publiée dans la revue scientifique JAMA Network Open, montre une nouvelle fois que la pollution de l'air affecte la santé physique mais aussi la santé mentale. Cette dernière, qui combine des données génétiques avec des données relatives à la pollution de l'air, montre que les enfants qui sont exposés à un niveau élevé de pollution de l'air pendant leur croissance ont un risque accru de développer la schizophrénie. Comme l'explique l'Inserm, il s'agit d'une maladie psychiatrique caractérisée par un ensemble de symptômes très variables dont les plus impressionnants sont les délires et les hallucinations.
L'organisme indique que la schizophrénie est une maladie complexe dont la survenue repose sur la présence d’éléments génétiques et environnementaux. Selon lui, « le poids réel des facteurs environnementaux est encore mal connu, mais des travaux suggèrent que certains éléments influençant le développement cérébral pourraient entraîner un risque de développer une schizophrénie ». Les chercheurs ont voulu répondre à cette question : comment la combinaison de l'exposition des enfants au dioxyde d'azote, dont les émissions proviennent principalement de la combustion, et de la responsabilité génétique pour la schizophrénie est-elle associée au risque de la développer ?
Leur étude comprenait 23 355 personnes qui ont été suivies à partir de leur 10 ans jusqu'à leur émigration, leur décès, la fin de l'étude ou en cas d'hospitalisation pour schizophrénie : ce fut le cas pour 3 531 d'entre elles. Les résultats ont montré que plus le niveau de pollution de l'air est élevé, plus le risque de schizophrénie l'est également. Pour chaque augmentation de 10 μg / m3, ce risque augmente d'environ 20 %. « Les enfants exposés à un taux moyen supérieur à 25 μg/m3 présentent 60 % de risque supplémentaire d’être atteints de cette pathologie, comparés à ceux exposés à des concentrations inférieures à 10 μg/m3. », souligne le Professeur Henriette Thisted Horsdal, principale auteure de l’étude.
Pour mettre ces chiffres en perspective, les chercheurs expliquent que le risque moyen de développer une schizophrénie est d'environ 2 %. Pour les personnes exposées à un faible niveau de pollution atmosphérique, cette moyenne reste pratiquement la même tandis que le risque pour les personnes exposées de manière chronique à un niveau élevé de pollution atmosphérique est d'environ 3 %. Mais ces derniers précisent bien que la pollution n'est pas le seul facteur de risque ayant un fort impact puisqu'une prédisposition génétique à la maladie est un facteur tout aussi important. Cependant, deux éléments seraient bien indépendants l'un de l'autre, tiennent-ils à préciser.
Ainsi, « l'association entre la pollution de l'air et la schizophrénie ne peut pas être expliquée par une responsabilité génétique plus élevée chez les personnes qui grandissent dans des zones à forte pollution atmosphérique », ajoute le Professeur Henriette Thisted Horsdal. Si d'autres travaux doivent être menés dans ce domaine, l'équipe scientifique émet l'hypothèse qu'un mécanisme biologique serait en cause. Par exemple, les polluants atmosphériques pourraient provoquer une inflammation des tissus du système nerveux, un stress oxydatif ou encore une perturbation de la barrière hémato-encéphalique.
Article rédigé par Georges Simmonds pour RT Flash
JAMA
|
|
|
|
|
|
|
|
On connaissait déjà le long cortège de dommages et de risques sur la santé causés par la consommation de tabac : cancers, maladies cardiovasculaires, maladies pulmonaires, hypertension.
Cette fois, l’équipe du Professeur Hagai Levine a suivi 2 000 étudiants, recrutés à l’Université de Pristina (Kosovo) pour le premier groupe, et à l’Université de Belgrade (Serbie) pour le second groupe, pour évaluer le risque de dépression. Résultat, au sein des deux établissements, les fumeurs étaient en moyenne 2 à 3 fois plus exposés au risque de dépression, comparé aux non-fumeurs.
Parmi les adeptes du tabac, 14 % des jeunes souffraient de cette maladie, contre 4 % chez les abstinents dans l’Université de Pristina. Des données respectivement établies à 19 % et 11 % chez les jeunes de l’Université de Belgrade. Le niveau de vitalité et le degré de sociabilité étaient aussi diminués chez les fumeurs.
Ce ne sont pas les premiers travaux à établir un lien entre santé mentale et usage du tabac. Une étude du King’s College de Londres et de l’Université Charles de Prague parue en 2016 avait déjà montré que 66,3 % des personnes souffrant de dépression modérée ou grave voyaient leur santé mentale s’améliorer après avoir arrêté de fumer.
Article rédigé par Georges Simmonds pour RT Flash
Plos
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l’Institut des sciences biomédicales de l’Université d’État de Géorgie a mis au point un nouveau vaccin à nanoparticules capable de protéger durablement la souris du virus de la grippe. Ce qui est intéressant avec ce nouveau vaccin, c’est le niveau de protection apporté. En effet, les souris ayant été immunisées avec le vaccin à nanoparticules ont résisté à six couches différentes du virus de la grippe. Les différentes combinaisons testées suggèrent que ce vaccin a le potentiel d’être un vaccin antigrippal universel ou tout du moins, un composant d’un tel vaccin.
Ye Wang, à l’origine de cette découverte, précise que : “cette combinaison d’antigènes en nanoparticules a conféré aux souris une forte protection. Notre vaccin peut protéger les souris contre différentes souches de virus de la grippe. Au fil des saisons, différentes souches de virus de la grippe nous affectent. Avec cette nouvelle approche, nous espérons que notre vaccin à nanoparticules pourra protéger les humains des différentes souches de virus de la grippe”.
Pendant ce temps, d’autres chercheurs travaillent sur un vaccin qui pourrait contrer le VIH. HVTN 702, Imbokodo ou encore Mosaico, ce sont les noms des vaccins qui ont été testés lors d’expériences, et qui pourraient être rendus disponibles dès 2021, soit dans moins d’un an. Ces trois vaccins, encore expérimentaux, pourraient être d’importants éléments d’avancées dans la lutte contre le VIH, le virus qui donne le SIDA.
La grippe reste l’une des causes principales des décès par infection à travers le monde. Le corps médical estime que les vaccins contre la “grippe saisonnière” sont insuffisants pour prévenir les épidémies de grippe. Un vaccin universel est attendu depuis des dizaines d’années. Concrètement, avec ce vaccin, nous n’aurions plus besoin de nous faire vacciner tous les ans.
Les chercheurs ont créé ce nouveau remède à partir de la protéine M2e du virus de la grippe, qui se retrouve dans toutes les souches du virus. La protéine NA se trouve également à la surface du virus de la grippe. Ces deux protéines ont muté très lentement, ce qui conforte les chercheurs dans l’idée qu’il faut s’en servir de base. Le vaccin à nanoparticules utilise donc la protéine M2e comme noyau et la NA se trouve à la surface.
Gilbert Gonzalez, co-auteur de l’étude, précise que : “avant nous, très peu de vaccins antigrippaux avaient été conçus à partir de la protéine NA. Pourtant, cette protéine est un antigène de plus en plus important pour la recherche sur les vaccins antigrippaux. Auparavant, cette protéine était écartée et l’hémagglutinine (HA) était préférée. Nous nous sommes aperçus que cette protéine mute très rapidement, ce qui explique la nécessité de se refaire vacciner tous les ans”.
Article rédigé par Georges Simmonds pour RT Flash
GSU
|
|
|
|
|
|
|
|
Selon une étude française publiée dans le bulletin épidémiologique hebdomadaire (BEH) de Santé publique France, ainsi que dans une revue scientifique américaine, les enfants exposés de manière précoce aux écrans le matin avant l'école ont davantage de risques de développer des troubles primaires du langage.
Menée par l'Université de Rennes et Santé Publique France, cette étude constate que les enfants exposés de manière précoce aux écrans le matin avant l'école ont davantage de risques de développer des troubles primaires du langage, lesquels affectent la compréhension, l'expression, et peuvent persister à l'âge adulte.
Ces travaux ont porté sur 167 petits âgés de 3 ans et demi à 6 ans et demi, nés entre 2010 et 2012, et diagnostiqués avec des troubles primaires du langage, qui ont participé à l'expérience, ainsi que 109 témoins ne présentant aucun trouble. « Nous avons constaté que les cas (44,3 %) et les témoins (22 %) qui étaient exposés aux écrans le matin avant l’école étaient trois fois plus à risque de développer des troubles primaires du langage. Et lorsque ce risque était associé au fait de discuter rarement, voire jamais, du contenu des écrans avec leurs parents, ils étaient six fois plus à risque de développer des troubles primaires du langage » soulignent les auteurs.
94,2 % des enfants des deux groupes avaient accès à la télévision, la moitié (53,5 %) avait accès à la tablette et un tiers avait accès à un ordinateur (32,4 %), une console de jeu (34,9 %) ou un smartphone (30,2 %). La durée moyenne d’exposition aux écrans le matin était de 20 minutes dans les deux groupes, ce qui permet aux scientifiques d'affirmer que c'est bien le moment de la journée, plutôt que la durée, qui favorise les troubles du langage chez les jeunes. « Cela peut s'expliquer par le fait que l’exposition aux écrans dès le matin épuise l'attention de l'enfant, qui se retrouve moins apte aux apprentissages pour le reste de la journée ».
Article rédigé par Georges Simmonds pour RT Flash
AP
BEH
|
|
|
|
|
|
|
|
Selon une nouvelle étude américaine, l’adoption de cinq comportements sains, comme la pratique du sport et un mode de vie non-fumeur, permettrait d’ajouter jusqu’à 10 années exemptes de maladies chroniques à son espérance de vie. Une équipe de la Harvard T.H. Chan School of Public Health a analysé les données relatives à 73 196 femmes et 38 366 hommes qui ne souffraient ni de cancer, ni de problèmes cardiovasculaires, ni de diabète en début d’étude.
Les chercheurs ont étudié cinq facteurs – mode de vie non-fumeur, maintien d’un IMC normal, pratique d’un minimum de 30 minutes d’activité physique par jour, consommation modérée d’alcool et régime alimentaire équilibré – pour attribuer un score santé allant de 0 à 5 à chaque participant, la note de 5 indiquant le mode de vie le plus sain.
Les résultats montrent qu’après la prise en compte de facteurs tels que l’âge, l’ethnicité et les antécédents familiaux, l’espérance de vie après 50 ans était de 24 ans sans cancer, maladies cardiovasculaires et diabète chez ceux qui n’adoptaient aucun de ces comportements. Chez les femmes qui les adoptaient tous, les scientifiques ont constaté que l’espérance de vie sans ces maladies après 50 ans était de 34 ans.
Les résultats observés chez les hommes sont similaires. Ceux qui n’ont adopté aucun de ces comportements sains témoignaient d’une espérance de vie exempte de maladies chroniques de 24 ans, contre 31 ans chez les hommes qui ont développé quatre ou cinq habitudes saines.
Les femmes ayant maintenu quatre ou cinq de ces habitudes ont vu leur espérance de vie en bonne santé s’allonger de 10,6 ans par rapport à celles qui n’ont tenu compte d’aucun de ces facteurs. Chez les hommes, l’espérance de vie est allongée de 7,6 ans par rapport aux hommes qui n’ont pas adopté ce style de vie.
Les grands fumeurs (15 cigarettes ou plus par jour), ainsi que les hommes et les femmes obèses (IMC de 30 ou supérieur) témoignent de la proportion la plus basse d’espérance de vie sans maladie après 50 ans.
Les chercheurs soulignent que ceci est une étude d’observation et qu’une relation de cause à effet ne peut être clairement établie. L’étude a par ailleurs ses limites. Les informations ont été recueillies via des questionnaires, il existe donc une marge d’erreur dans les réponses. Cependant, l’équipe précise que les participants ont été nombreux et suivis sur du long terme. Adopter un régime alimentaire et un mode de vie sains semble donc tout de même contribuer à l’allongement de l’espérance de vie sans maladies chroniques.
Article rédigé par Georges Simmonds pour RT Flash
BMJ
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Avant d’accueillir les Jeux olympiques d’hiver en 2022, la Chine a décidé de mettre le paquet. L’Empire du milieu a inauguré le 9 janvier une ligne ferroviaire entièrement autonome présentée comme la plus rapide du monde. Elle reliera la capitale chinoise à Zhangjiakou dans le nord de la Chine, qui doit accueillir une partie des jeux d’hiver.
Ce nouveau train, équipé de la technologie ATO (Automatic Train Operation), sera en mesure de parcourir la distance qui sépare Pékin des pistes de ski en 45 minutes, atteignant une vitesse maximale de 350 km/h. En 1909, lorsque la ligne Beijing et Zhangjiakou était inaugurée, 8 heures était nécessaires pour aller d’une ville à l’autre et il y a encore quelques mois, le trajet durait 3 heures.
Un employé de la China Railway Rolling Stock Corporation (CRRC), société d'Etat qui a conçu le "Fuxing", se trouvera dans la cabine pour assurer la sécurité des passagers et prendre le relais en cas de dysfonctionnement, mais le "Fuxing" est capable de moduler sa vitesse en fonction des limitations propres à chaque gare et de s’arrêter puis ouvrir les portes lors des arrêts. Depuis plusieurs années, la Chine mise sur le déploiement d’un vaste réseau ferroviaire pour désenclaver certains territoires, faciliter les déplacements touristiques, et réduire ses émissions de CO2. Plus de 35 000 kilomètres de voies ont été construites (autant qu’en France). Récemment, la CRRC a mis en service deux lignes intercités circulant à une vitesse de 200 km/h avec un système ATO similaire au "fuxing". Pékin dispose également d’un des trains les plus rapides au monde, le Transrapid, qui relie l'aéroport de Pudong à la station de métro Longyang Road à une vitesse maximale de 431 km/h.
Article rédigé par Georges Simmonds pour RT Flash
Rail Tech
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|