RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 927
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Décembre 2017
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le sol devient intelligent
Evaluer le risque individuel de cancer du sein grâce à l'intelligence artificielle
Matière
Toyota mise sur sa batterie solide pour dominer le marché de la voiture électrique
Espace
Un habitat gonflable en orbite autour de la Lune dès 2022 ?
Mais d'où vient l'énergie d'Encelade ?
Vivant
Découverte de nouvelles formes d’expression de la maladie de Creutzfeldt-Jakob
Le cœur serait plus résistant l’après-midi
Découverte d'un mécanisme qui inhibe les pensées indésirables...
Le rêve : un vaccin contre le stress ?
La migraine est-elle un mécanisme de défense du cerveau ?
La guérison des plaies est deux fois plus rapide si on se blesse pendant la journée
Amyotrophies spinales antérieures : deux avancées majeures
Découverte fondamentale en cancérologie : le lien entre microbiote et immunothérapie
Homme
Apprentissage de la langue maternelle : un processus universel ?
Recherche
Véhicule autonome : Renault veut rester dans la course…
Edito
L’agriculture biologique peut-elle nourrir toute la planète ?



Une étude scientifique remarquable publiée récemment mérite d’être méditée, tant elle vient remettre en cause nombre de certitudes et d’idées reçues sur les potentialités réelles de l’agriculture biologique au niveau mondial. Intitulée « Feuille de route pour nourrir le monde de façon durable grâce à l’agriculture biologique » (Voir Nature Communications), cette étude avance qu’il est  possible de nourrir plus de 9 milliards d’êtres humains en 2050 avec 100 % d’agriculture biologique, à deux conditions : réduire le gaspillage alimentaire et limiter la consommation de produits d’origine animale. Et ce, sans hausse de la superficie de terres agricoles et avec des émissions de gaz à effet de serre réduites. Un défi de taille, alors que le bio ne représente que 1 % de la surface agricole utile dans le monde (6 % en France).

« Un des enjeux cruciaux est aujourd’hui de trouver des solutions pour basculer dans un système alimentaire durable, sans produits chimiques dangereux pour la santé et l’environnement », avance Christian Schader, l’un des coauteurs de l’étude, chercheur à l’Institut de recherche de l’agriculture biologique, situé en Suisse. Or cette transformation inclut une réflexion sur nos habitudes alimentaires et pas seulement sur les modes de production ou sur les rendements.

L’intensification de l’agriculture, si elle a considérablement accru la quantité de nourriture disponible au cours des dernières décennies, a simultanément provoqué des conséquences environnementales négatives considérables : hausse des émissions de gaz à effet de serre, déclin de la biodiversité, pollution de l’eau et des terres. Or, selon l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), la production agricole devra encore augmenter de 50 % d’ici à 2050 pour nourrir une population mondiale revue à la hausse et qui attendra au moins 9,5 milliards d’humains en 2050.  

 En se basant sur les données de la FAO, ces chercheurs ont modélisé les surfaces agricoles qui seraient nécessaires pour obtenir le même nombre de calories (2 700 par jour et par personne) en 2050, avec différentes proportions d’agriculture biologique (0 %, 20 %, 40 %, 60 %, 80 % ou 100 %), et en tenant compte de plusieurs niveaux d’impact du changement climatique sur les rendements (nul, moyen, élevé).

Première conclusion : convertir la totalité de l’agriculture au biologique nécessiterait la mise en culture de 16 % à 33 % de terres en plus dans le monde en 2050,  contre 6 % de plus dans le scénario de référence de la FAO, reposant sur l’agriculture conventionnelle. Cela s’explique par des rendements en moyenne plus faibles dans l’agriculture biologique.   

Ce passage à une agriculture totalement écologique entraînerait une réduction des impacts environnementaux : moins de pollution due aux pesticides et aux engrais de synthèse et une demande en énergies fossiles plus faible. Quant au gain en termes d’émissions de CO2, en cas de réalisation de ce scenario vers l’agriculture « tout biologique », il serait assez modeste, de 3 à 7 % inférieures à celles du scénario de référence. 

Mais cette passionnante étude précise qu’il est possible de compenser les effets négatifs du passage à l’agriculture entièrement biologique, à condition de l’accompagner par deux changements majeurs dans le système alimentaire : réduire de moitié le gaspillage et limiter la concurrence entre la production de nourriture pour les humains et celle pour le bétail en divisant à terme par trois la consommation globale de protéines animales provenant des bovins et ovins. Un tiers des terres cultivables de la planète est en effet utilisée pour nourrir les animaux d’élevage, alors que ces céréales pourraient aller à l’alimentation humaine. S’agissant du gaspillage alimentaire, il faut rappeler qu’il est gigantesque : il attendrait 1,3 milliard de tonnes par an, soit un tiers de la production alimentaire destinée à la consommation humaine dans le monde.  

Harold Levrel, professeur à AgroParisTech et chercheur au Centre international de recherche sur l’environnement et le développement, qui n’a pas participé à l’étude, souligne le sérieux de ce travail et le réalisme des hypothèses envisagées, volontairement très prudentes. Pour cet expert reconnu, cette étude fera date car elle montre, pour la première fois, qu’il est envisageable, à certaines conditions précises, d’imaginer une transition mondiale vers des modes de production agricole biologique, plus respectueux de l’environnement et plus sobres en empreinte carbone.

Il faut par ailleurs rappeler qu’une étude prospective réalisée pour la France  par l’association Solagro, la scénario Afterres 2050, avait également montré que le passage à une agriculture biologique à 50 % pourrait satisfaire les besoins alimentaires de 72 millions de Français en 2050, sans augmenter la surface de terres cultivées et en réduisant de moitié les émissions de gaz à effet de serre et la consommation d’énergie et d’eau liées aux activités agricoles.

Mais dans ce scenario Afterres, comme dans celui de la FAO, deux ruptures majeures sont nécessaires, d’une part, une réduction drastique des pertes de production et du gâchis alimentaire, d’autre part, une inversion de la part de protéines végétales par rapport aux protéines animales dans notre régime alimentaire. L’étude souligne que nous consommons deux tiers de protéines animales pour un tiers de protéines végétales et préconise d’inverser cette proportion et de réduire de moitié notre consommation de produits animaux. 

Cette étude est d’autant plus intéressante qu’elle vient confirmer et enrichir une autre étude, publiée début 2016 et réalisée par John Reganold et Jonathan Wachter, agronomes à la Washington State University à Pullman (État de Washington). Dans cette vaste méta-analyse qui ne reprend pas moins de 70 études comparant ces vingt dernières années les agricultures biologiques et conventionnelles, les auteurs en arrivent à la conclusion que l’ensemble des techniques d’agriculture biologique pourraient prendre une place beaucoup plus importante dans la production agricole mondiale (Voir Nature Plants).

Cette étude admet que le passage à l'agriculture biologique peut provoquer des rendements inférieurs allant, selon les cultures, de 8 % à 25 %. Mais ces recherches montrent également que cet obstacle n’est pas insurmontable et qu’il est possible d’obtenir des rendements identiques, voire supérieurs à ceux de l’agriculture actuelle, en actionnant simultanément plusieurs leviers, comme le recours à la polyculture bio, une meilleure rotation des cultures, l’utilisation de semences plus adaptées au changement climatique et la réorientation vers de nouvelles variétés issues de la recherche agronomique.

On mesure mieux l’urgence de cette mutation agricole planétaire quand on sait que, d'ici à 2050, la demande alimentaire mondiale va augmenter de 50 %, à cause notamment d’une progression de 95 % des calories issues de produits animaux, selon une étude du Centre de recherche français dans le domaine de l'économie internationale (Cepii). Cette étude précise que « Si l'augmentation de la consommation de calories animales dans les pays du sud imite celle observée dans les pays du nord, qui a d'ailleurs été encouragée par les producteurs, nous aurons un gros problème ».

Quant à l’objection majeure qui consiste à affirmer que, pour répondre à la demande alimentaire de 9,5 milliards d’habitants en 2050, l’agriculture mondiale ne peut pas se convertir massivement à des productions biologiques et agroécologiques, sous peine de manquer de terres disponibles et de pratiquer une déforestation accrue, elle ne résiste pas à une analyse sérieuse, comme l’ont montré les remarquables travaux de Laurence Roudart, chercheuse reconnue au niveau international de l'Université libre de Bruxelles. 

Cette chercheuse a en effet montré, avec son équipe, qu’il y avait  suffisamment de terres cultivables non encore exploitées, à l'échelle mondiale, pour nourrir notre planète à l'horizon 2050. Pour étayer cette affirmation, elle rappelle que sur les 13,4 milliards d'hectares de terres émergées sur notre planète, au moins 2,5 milliards d’hectares sont considérés comme cultivables sans irrigation, ce qui est considérable. Et même si l'on prend en compte les infrastructures, les forêts et les zones protégées, on constate que la superficie mondiale cultivée pourrait être multipliée par 1,6, soit une extension de 970 millions d'hectares. Cette surface agricole disponible supplémentaire permettrait largement, comme le montre le scénario « Agrimonde 1 », d’assurer à chaque habitant de la planète 3 000 kilocalories par jour, dont 500 kilocalories d'origine animale et cela, même sans gain de productivité important.

Reste que cette transition vers une agriculture biologique et écologique, souhaitable à la fois sur le plan environnemental, climatique et sanitaire, devra également s’appuyer sur les avancées de la recherche agronomique et de la robotique agricole pour atteindre des rendements agricoles suffisamment élevés et stables.

A cet égard, il faut absolument cesser d’opposer, de manière manichéenne et idéologique, l’agriculture biologique et les avancées scientifiques en matière agronomique. Quatre exemples doivent être rappelés qui montrent que le recours judicieux et responsable à des organismes génétiquement modifiés, soit par transgénèse, soit par mutagénèse, peut constituer un réel progrès et ne peut être rejeté par principe, sans un examen approfondi et au cas par cas.

En juin 2012, une équipe de chercheurs de l’Académie des sciences agronomiques de Pékin, en collaboration avec un chercheur de l’Institut national de recherche agronomique (Inra), a mis en évidence l’impact positif sur la biodiversité de la culture d’un coton GM, le coton Bt. Cultivé sur plus de 4 millions d’hectares en Chine, ce coton Bt a permis de réduire de façon drastique les quantités d’insecticides employées pour venir à bout de la noctuelle (Voir Nature ).

L’étude publiée dans « Nature », à partir de données fiables recueillies entre 1990 et 2010 dans 6 provinces du nord de la Chine, montre clairement que la culture à grande échelle de ce coton génétiquement modifié a permis une diminution sensible des quantités d’insecticides utilisés et a favorisé l’augmentation des populations de trois groupes majeurs de prédateurs naturels de la noctuelle : les coccinelles, les araignées et les chrysopes. Cette étude sino-française montre également que l'adoption à grande échelle d’une culture Bt favorise indirectement l'abondance des prédateurs généralistes dans les champs de coton génétiquement modifié (grâce à un usage moins intensif d’insecticides), ce qui participe à une restauration de la biodiversité et à l’amélioration de l’écosystème.

Le deuxième exemple concerne l’arrivée en production du fameux « riz doré », un riz génétiquement modifié pour être enrichi en vitamine A. Après plus de 10 ans d’essais scientifiques rigoureux, ce Riz Doré, conçu initialement par des chercheurs de l’École Polytechnique Fédérale de Zurich en 2000 et dont les semences sont libres d'accès pour les paysans, devrait prochainement être mis sur le marché aux Philippines. Grâce à une série d’améliorations successives, ce riz doré, dans sa version actuelle, contient assez de caroténoïde pour qu’une consommation journalière d’environ 150 grammes couvre les besoins d’un enfant en vitamine A. 

L’OMS rappelle que la carence en vitamine A touche environ 19 millions de femmes enceintes et 190 millions d'enfants d'âge préscolaire, principalement en Afrique et en Asie du Sud-Est. La carence en vitamine A, ou le manque de vitamine A dans l'alimentation, est la principale cause de cécité chez les enfants, avec environ 500.000 cas rapportés chaque année dans le monde entier. En février 2017, l'Institut International de Recherche sur le Riz (IRRI) et l'Institut de Recherche sur le Riz des Philippines (PhilRice) ont déposé une demande de permis de biosécurité auprès du Ministère de l'Agriculture philippin, permettant d'utiliser directement le Riz Doré en tant qu'aliment pour l'homme et les animaux, et pour la transformation. Pourtant, en dépit de ces précautions et essais scientifiques, et malgré un appel solennel en faveur de ce riz doré de 116 Prix Nobel en 2016, peu suspects d’être vendus aux grandes multinationales, une organisation se réclamant de la protection de l’environnement continue à s’opposer par tous les moyens, y compris violents, à la culture de cette nouvelle variété de riz…

Le troisième exemple concerne l’arrivée de la mutagénèse. Cette nouvelle technique, contrairement à la transgénèse qui consiste à introduire un gène extérieur dans une semence, permet de modifier de manière bien plus précise et contrôlée les propres gènes d’une plante. En juillet 2014, des chercheurs chinois ont annoncé qu’ils étaient parvenus, en utilisant la technique d’édition génomique Talen, à obtenir la mutation simultanée de trois gènes portés par trois chromosomes des trois génomes du blé, rendant ainsi cette céréale capable de résister à l'oïdium, un pathogène fongique pouvant détruire les récoltes de blé.

Là encore, répondant à ceux qui rejettent, a priori et par principe cette nouvelle technique prometteuse, ces chercheurs soulignent que, s’ils avaient dû attendre une telle mutation par la sélection traditionnelle, comme le préconisent les opposants à cette méthode, sa probabilité était si faible (10 puissance 21) qu’il aurait fallu observer tous les plants de blé cultivés sur la planète pendant quatre millions d’années pour avoir une chance de trouver une seule plante présentant spontanément les trois bonnes versions du gène… 

Enfin, il faut évoquer le projet de « super-plante, présenté il y a quelques jours par Joanne Chory, généticienne mondialement réputée à l’Institut Salk, en Californie. Cette remarquable chercheuse, dont les travaux ont été récompensés le 3 novembre dernier par le prestigieux Breakthrough Prize 2018 catégorie "sciences de la vie", propose, en s’appuyant sur 30 années de recherche, de concevoir une nouvelle variété de plante, à partir de végétaux contenant de la subérine, une substance qui « permet à une plante d'aspirer de retenir jusqu’à vingt fois plus de CO2 dans le sol pendant des siècles ».  

La plante imaginée par Joanne Chory pourrait, si elle était cultivée sur seulement 5 % des terres arables de la planète (soit environ 700 000 km2) absorber environ la moitié des émissions mondiales de CO2 dues à l’homme. Cette plante qui pourrait aussi bien résister aux inondations qu’à la sécheresse pourrait également être enrichie en protéines et contribuer ainsi à assurer une alimentation suffisante dans de larges régions de la planète.

Ces quelques exemples montrent qu’il n’est pas possible d’écarter d’un revers de main, pour des raisons purement idéologiques, le recours à toutes les avancées agronomiques issues de la génétique. Une utilisation transparente, responsable et contrôlée de certaines de ces avancées scientifiques, après un large débat démocratique, me semble au contraire pleinement compatible avec la nécessaire transition planétaire vers une agriculture écologique et plus respectueuse de l’environnement, du climat et de la santé. 

Tant que nous considérerons qu’écologie et science sont incompatibles, voire irréconciliables, nous ferons fausse route et nous nous enfermerons dans une impasse idéologique stérile. Sortons de cette vision aussi simpliste que dangereuse d’une « bonne » nature opposée à une « mauvaise » science et rappelons-nous que, depuis la révolution néolithique, il y a 10 000 ans, l’homme n’a cessé de modifier de manière profonde et durable son environnement pour survivre et améliorer ses conditions de vie. Faisons confiance à l’imagination et à l’ingéniosité humaines et aux progrès extraordinaires de la connaissance pour aller vers un monde apaisé, qui saura réconcilier science et nature car toutes deux sont essentielles à notre survie et elles doivent s’enrichir mutuellement pour que notre Humanité puisse faire face aux nouveaux défis qu’elle doit relever et écrire une nouvelle page de son histoire.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le sol devient intelligent
Mardi, 12/12/2017 - 08:09

Et si les surfaces sur lesquelles vous marchez étaient capables d’analyser précisément votre passage et votre démarche ? C’est ce que propose la start-up Technis. Issue de l’EPFL, elle a d’abord développé des sols connectés pour le sport, avant d’élargir sa recherche pour répondre aux besoins des organisateurs de manifestations, des centres commerciaux ou encore du milieu hospitalier, en transformant le sol en une zone sensible capable de fournir des informations instantanément.

« Notre but est de connaître en temps réel le nombre de personnes qui entrent et sortent d’un lieu. Le sol connecté est facile à installer sous tout type de surfaces synthétiques et il permet de générer un grand nombre d’informations pour reconnaître et anticiper le comportement des utilisateurs », explique Wiktor Bourée, CEO de Technis.

Ces données issues du sol permettent d’entraîner des algorithmes de plus en plus performants, qui peuvent déjà reconnaître des démarches particulières, des objets à roues ou une chute, par exemple. Un tableau de bord en temps réel sur web et mobile permet de consulter le flux de personnes au cœur de l’infrastructure.

Déjà commercialisée dans de nombreux pôles d’événements en Suisse et en France, dont le SwissTech Convention Center de l’EPFL, la solution de Technis a l’avantage d’être non-intrusive, contrairement à une caméra. Cette caractéristique propre au sol connecté pourrait donc l’amener à se généraliser en milieu hospitalier ou dans les établissements médicaux sociaux, par exemple.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Evaluer le risque individuel de cancer du sein grâce à l'intelligence artificielle
Mardi, 12/12/2017 - 07:55

L'Institut Gustave Roussy a développé le logiciel Mammorisk, pour aller vers un dépistage plus personnalisé et prévoir quelles femmes ont davantage de risques de développer un cancer du sein, et doivent donc être surveillées plus fréquemment.

Le logiciel Mammorisk s'avère très performant car, en plus des facteurs de risques classiques, il intègre également le facteur de la densité mammaire, qui mesure la proportion de tissu glandulaire et canalaire dans le sein par rapport au tissu graisseux.

Autre intérêt du logiciel, le pourcentage calculé est catégorisé (faible, intermédiaire ou élevé) et représenté sur un graphique par rapport aux courbes de la population générale.

Une étude publiée en octobre a montré que "les femmes étaient prêtes à accueillir un score de risque", souligne Nancy Abou-Zeid. Sur 450 patientes, le taux d'acceptation a été de 97 %.

Article rédigé par Georges Simmonds pour RT Flash

The Huffington Post

^ Haut
Matière
Matière et Energie
Toyota mise sur sa batterie solide pour dominer le marché de la voiture électrique
Jeudi, 14/12/2017 - 06:36

Leader mondial incontestable des voitures hybrides, le constructeur automobile Toyota cherche également à s'imposer sur la marché très prometteur du véhicule tout électrique. Pour atteindre son objectif, il mise sur son nouveau type de batterie à électrolyte solide dont il a d’ailleurs annoncé la production, dès la première moitié de la décennie 2020. Une importante annonce qui le propulse par ailleurs à la tête de la course aux progrès techniques sur les véhicules électriques.

L’instabilité : c’est là le principal défaut qui caractérise les batteries électriques d’aujourd’hui. Les électrolytes qui les composent étant sous forme liquide, elles laissent apparaître les dentrites et peuvent être à l’origine de courts-circuits entre les électrodes. S’ensuit alors une production accrue de chaleur, qui elle, peut provoquer l’évaporation de l’électrolyte puis l’inflammation de la batterie mise au contact de l’air ambiant.

Et c’est justement sur ce problème d’instabilité que le constructeur Toyota s’est penché. Pour limiter les risques d’inflammation et d’explosion de la batterie, le constructeur a conçu une batterie pratique et sûre, composée uniquement d’électrolytes solides. Une solution bien vue qui permet d’ailleurs de profiter de certains avantages, dont la réduction du risque de court-circuit. Et parce qu’il n’y a pas de court-circuit, le risque d’explosion de la batterie devient quasi nul.

En plus d’éviter les courts-circuits, les batteries à électrolytes solides sont capables de supporter des charges plus puissantes, sans qu’il soit nécessaire de les compléter avec un système de refroidissement. Les cellules qui les composent étant par ailleurs plus compactes, et disposées les unes serrées contre les autres, la batterie pourra même stocker jusqu’à deux ou trois fois plus d’énergie qu’une unité lithium-ion à électrolyte liquide dans le même volume.

Par ailleurs, selon le constructeur, l’utilisation d’électrolyte solide devrait, normalement, permettre de réduire le coût des batteries, et donc systématiquement, le coût de la voiture électrique.

Article rédigé par Georges Simmonds pour RT Flash

Wired

^ Haut
Espace
Espace et Cosmologie
Un habitat gonflable en orbite autour de la Lune dès 2022 ?
Jeudi, 14/12/2017 - 07:11

La NASA projette de mettre en orbite basse autour de la Lune un module gonflable à l'horizon 2022. Il servirait d'habitat pour des missions lunaires ou d'entrepôt de stockage pour des voyages vers Mars et au-delà. Les sociétés privées Bigelow Aerospace et ULA (United Launch Alliance) viennent en effet de s'associer pour proposer ce projet à la Nasa dans le cadre du futur programme d'exploration interplanétaire américain, qui regroupera des acteurs publics et privés.

Après avoir lancé deux démonstrateurs en 2006 et 2008, un troisième module gonflable a été installé en avril 2016 sur la station spatiale internationale. C'est une version améliorée de Beam, le B330, qui est proposée pour ce projet. Il sera fabriqué avec un matériau multicouche de Vectran, un polyester cinq fois plus résistant que l'acier et dix fois plus que l'aluminium, utilisé pour les voiles et déjà choisi pour les rovers martiens de la Nasa.

Le module de 17 mètres de long pourra ainsi résister aux débris spatiaux et aux radiations, tout en étant moins cher qu'un module classique et plus facile à mettre en orbite. Une fois gonflé jusqu'à trois fois son volume initial, il fournira un espace de 330 m3, permettant d'accueillir 6 astronautes – par comparaison, l'ISS offre 388 m3 de volume habitable. Le B330 disposera de systèmes de support de vie et de moteurs à réaction, ce qui en fait un véhicule autonome. Il sera également équipé d'un port d'arrimage, d'un port pour les sorties extra-véhiculaires et d'un refuge en cas d'urgence. L'électricité sera fournie par des panneaux solaires.

Le voyage vers la Lune se fera en plusieurs étapes. D'abord, le futur lanceur réutilisable Vulcan 562 d'ULA placera le module en orbite basse terrestre, où il sera gonflé et ses différents systèmes activés. Pendant un an, plusieurs équipages pourront l'occuper, de manière à installer des équipements, effectuer réglages et vérifications.

Une fois pleinement opérationnel, deux ACES (Advanced Cryogenic Evolved Stage) seront satellisés à leur tour. L'un servira de ravitailleur pour fournir à l'autre jusqu'à 35 tonnes d'ergols. Le second le propulsera jusqu'à une orbite basse de la Lune. Une fois à poste, le module gonflable pourra servir de base pour des missions lunaires. Ou d'entrepôt de stockage de matériel pour de futures missions martiennes.

Article rédigé par Georges Simmonds pour RT Flash

Space Industry News

Mais d'où vient l'énergie d'Encelade ?
Jeudi, 14/12/2017 - 06:31

En orbite autour de Saturne, à 1,3 milliard de kilomètres du Soleil, Encelade est une petite lune qui n'en finit pas d'étonner les chercheurs. Les observations de la sonde Cassini nous ont montré que cette boule glacée en surface renferme un océan global. De ses fissures au pôle sud, jaillissent des panaches de vapeur d’eau et de glace. Tout indique aussi qu’il y aurait une activité hydrothermale soutenue.

Les survols répétés de Cassini ont appris aux chercheurs que les panaches de vapeur d'eau et de glace jaillissant des fissures concentrées dans la région du pôle sud de l'astre contenaient des sels minéraux et des grains de silice nanométriques. Ceux-ci ne pourraient résulter que d'une chimie hydrothermale à des températures minimales de 90°C.  Mais comment cette lune de 504 km de diamètre parvient-elle à entretenir une activité interne aussi importante ?

Selon une étude réalisée par des chercheurs français et américains, ce serait en fait la structure particulière du noyau rocheux, sous l'océan, qui permet la production de cette énergie. Le noyau de cette petite lune serait en réalité poreux et perméable. Il laisserait s'infiltrer les eaux froides de l'océan. Une fois réchauffées, ces eaux remontent vers le plancher océanique, où se créent alors des points chauds. Ces points chauds formeraient des panaches qui remontent à travers l'océan et amincissent la banquise en surface.

Les chercheurs ont pu constater dans leur modèle que la position des points chauds coïncide avec les régions où la croûte de glace est la moins épaisse, au pôle sud, là même où des fissures laissent passer de la matière dans l'espace. Selon les observations de Cassini, l'épaisseur y varie entre 1 et 5 km seulement. C'est la première fois qu'un modèle prédit les principales caractéristiques d'Encelade observées, et cela sur de grandes échelles de temps.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte de nouvelles formes d’expression de la maladie de Creutzfeldt-Jakob
Jeudi, 14/12/2017 - 07:05

Une équipe de chercheurs français du CEA, de l’AP-HP, du CNRS, de l’Inserm, de l’Inra, de l’ENVT, de l’Institut Pasteur et de MacoPharma, a montré que de multiples variants de prions peuvent coexister et se manifester sous différentes formes cliniques selon les conditions de transmission.

​Moins de 250 cas de variante de la maladie de Creutzfeldt-Jakob (v-MCJ) ont été recensés dans le monde, principalement au Royaume Uni, suite à l’exposition des populations humaines à l’agent de l’Encéphalopathie Spongiforme Bovine (ESB, ou maladie de la vache folle). Cependant, plus de 99 % des infections humaines par ces prions d’origine bovine pourraient demeurer silencieuses selon des études britanniques menées sur des prélèvements d’appendices, ce qui suggère un risque de transmission inter-humaine lié à de tels porteurs apparemment sains, notamment par la voie de la transfusion sanguine.

Dans le cadre de l’évaluation du risque transfusionnel lié à la v-MCJ, les chercheurs du CEA, de l’hôpital universitaire La Pitié-Salpêtrière, de l’AP-HP, du CNRS, de l’Inserm, de l’Inra, de l’ENVT, de l’Institut Pasteur et de MacoPharma ont exposé des souris et des macaques à des produits sanguins issus de donneurs infectés par la v-MCJ.

Au moyen des techniques classiquement utilisées pour le diagnostic des maladies à prion (histologie, biochimie), les chercheurs ont relevé peu de cas de transmission de la v-MCJ sous sa forme classique (moins de 3 % des animaux exposés). Ces cas ont été principalement observés lorsque les donneurs étaient fortement infectés, ce qui correspond à la situation observée chez l’homme.

En revanche, précise Emmanuel Comoy, chercheur au CEA et auteur principal, « dans une proportion nettement plus importante (2 à 5 fois plus selon les modèles étudiés, soit près de 10 % des animaux exposés), des animaux receveurs ont développé des syndromes neurologiques fatals différents de la v-MCJ ». Ces syndromes se révèlent bien faire partie des maladies à prion, puisque leur retransmission aux souris conduit à l’apparition des caractéristiques classiques des maladies à prions.

La forme myélopathique de la maladie a été observée chez des animaux transfusés avec du sang provenant de porteurs apparemment sains, c’est-à-dire de donneurs exposés aux prions et sans pathologie identifiable, ainsi qu’à partir de sang provenant de patients présentant les signes cliniques de la v-MCJ.

Dans un contexte où l’exposition humaine par voie alimentaire à l’agent de l’ESB a pu entraîner l’émergence de nombreux porteurs apparemment sains, les chercheurs relèvent que leur étude, qui remet en question l’unicité de la souche d’ESB/v-MCJ, souligne la difficulté à détecter et prévenir la transmission de toutes les formes d’infections à prions.

Article rédigé par Georges Simmonds pour RT Flash

CEA

Le cœur serait plus résistant l’après-midi
Mercredi, 13/12/2017 - 07:21

Une étude menée par une équipe lilloise vient de montrer que les complications opératoires dans les interventions chirurgicales touchant le cœur, quoique peu fréquentes, sont deux fois plus nombreuses chez les personnes opérées le matin que chez celle opérées l’après-midi. Une différence qui implique l’horloge moléculaire circadienne présente au sein de chaque cellule de notre organisme. Pour arriver à cette conclusion, les professeurs David Montaigne et Bart Staels ont observé les complications survenues au cours de 600 chirurgies cardiaques à cœur ouvert selon l’horaire d’intervention.

« Lors d’une chirurgie cardiaque nous infligeons une souffrance au cœur qui se rapproche dans ses mécanismes de ce qui se passe lors d’un infarctus du myocarde », explique le professeur David Montaigne, cardiologue au CHU de Lille. Lors d’un infarctus, une artère bouchée va provoquer une ischémie, c’est-à-dire une privation d’oxygène. Les cellules musculaires du cœur meurent alors rapidement sur une zone plus ou moins étendue.

La seule solution thérapeutique est de rétablir le plus rapidement possible un apport suffisant en oxygène en débouchant l’artère, c’est ce qu’on appelle la « reperfusion ». Au cours d’une opération, le chirurgien doit arrêter le cœur et l’exclure de la circulation sanguine pour pouvoir réaliser le geste opératoire. Il réalise pour cela un clampage aortique qui, de fait, impose au myocarde une séquence d’ischémie-reperfusion.

Les chercheurs lillois sont allés plus loin en identifiant un récepteur nucléaire impliqué dans ce phénomène : le Rev-erbalpha. Cette découverte laisse entrevoir de nouvelles approches thérapeutiques dans la prise en charge des pathologies comme l’angine de poitrine et l’infarctus du myocarde mais également dans les situations où une ischémie myocardique est imposée par le traitement, comme l’arrêt du cœur durant les chirurgies cardiaques et le transport du greffon avant transplantation cardiaque.

Ainsi, lors d’interventions réalisées le matin, on peut imaginer décaler l’horloge biologique afin de « tromper » le cœur qui se comporterait comme l’après-midi et serait, de fait, moins sensible à l’ischémie. En attendant, les spécialistes lillois suggèrent d’opérer les personnes les plus à risque plutôt l’après-midi.

Il est en revanche difficile d’influer sur le moment de survenue d’une crise cardiaque. Mais il serait possible de berner le cœur. Non pas pour éviter l’infarctus, mais au moment de la reperfusion. « Lorsque l’on remet en route l’afflux de sang dans les coronaires on provoque aussi la mort de cellules. C’est un moment critique. Nous pouvons donc imaginer déphaser le cœur afin d’éviter la lésion de reperfusion », explique le professeur David Montaigne. Le concept est séduisant, reste à trouver les candidats médicaments.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Découverte d'un mécanisme qui inhibe les pensées indésirables...
Mercredi, 13/12/2017 - 07:14

Des scientifiques britanniques de l’Université de Cambridge ont découvert un mécanisme fondamental qui nous aide à inhiber les pensées indésirables et néfastes ; ces chercheurs ont également identifié une substance chimique clé dans la zone « mémoire » du cerveau qui permet d’éliminer ces pensées. Leurs travaux pourraient permettre de comprendre pourquoi les personnes souffrant de troubles de l'anxiété, de dépression, de syndrome de stress post-traumatique et de schizophrénie subissent ces pensées intrusives persistantes.

Nous sommes tous parfois confrontés à des pensées indésirables, des souvenirs ou images désagréables ou à des soucis obsédants. Si ce mécanisme de rappel n’est évidemment pas un problème lorsque les pensées sont positives, lorsque le souvenir concerne un sujet désagréable ou traumatisant, ce phénomène de rappel peut devenir nocif pour la santé mentale et réduire considérablement bien-être et qualité de vie.

Notre capacité à contrôler nos pensées est fondamentale pour notre bien-être, explique le Professeur Michael Anderson de la Medical Research Council Cognition and Brain Sciences Unit de l’Université de Cambridge. Cette capacité à bloquer un tel phénomène de rappel des pensées indésirables doit être comparée à notre capacité à contrôler nos comportements, par des « réflexes » par exemple, qui vont empêcher des actions indésirables de se produire.

Selon ces travaux, qui s'appuient sur des expérimentations au cours desquelles les sujets devaient associer ou dissocier des mots, il existerait dans notre cerveau une procédure pilotée par le cortex préfrontal, appelée « Think / No-Think » : c’est le nom du process utilisé ici par les chercheurs pour identifier un nouveau processus cérébral significatif qui permet au cortex préfrontal de réussir dans son rôle de contrôle et de parvenir ainsi à inhiber certaines de nos pensées.

Cette capacité indispensable permettant d' inhiber les pensées indésirables reposerait sur GABA, connu déjà comme le principal neurotransmetteur « inhibiteur » dans le cerveau : sa libération par une cellule nerveuse peut supprimer l'activité dans d'autres cellules auxquelles elle est connectée.

Ces recherches ont montré que les concentrations de GABA dans l'hippocampe, la zone clé du cerveau impliquée dans la mémoire, prédisent cette capacité à bloquer ce processus de récupération indésirable. En identifiant le rôle spécifique du neurotransmetteur dans cette capacité d’inhibition, les chercheurs vont donc pouvoir préciser le rôle des neurones inhibiteurs.

Article rédigé par Georges Simmonds

Nature

Le rêve : un vaccin contre le stress ?
Mercredi, 13/12/2017 - 06:43

Une étude réalisée par des chercheurs du Centre de recherche en neurosciences de l'Université Rutgers (New-Jersey), dirigés par UniItamar Lerner et Shira M. Lupkin, montre que les mouvements oculaires rapides (MOR), qui se produisent lorsque l'on rêve, peuvent aider le cerveau à mieux répondre aux situations de stress.

Ces travaux expliquent que le cerveau des personnes qui passent davantage de temps en sommeil MOR montre une réaction de peur réduite lorsqu'on l'expose à de faibles décharges électriques le jour suivant. Ces résultats suggèrent que le sommeil MOR peut aider à protéger contre la sensation de "peur accrue". Améliorer ce type de sommeil permettrait donc d'atténuer les problèmes de santé et traumatismes liés à la peur, tels que le stress post-traumatique.

Ces chercheurs forment l'hypothèse que ce phénomène pourrait être lié à la norépinéphrine, une hormone associée au stress. Cette hormone influe sur l'amygdale, le centre de la peur dans le cerveau, ce qui peut rendre plus sensible aux stimuli responsables de la sensation de frayeur. La région du cerveau qui produit la norépinéphrine n'est pas active lors de la phase de MOR (qui serait aussi susceptible de ramener les taux de norépinéphrine déjà emmagasinée à la normale).

Ces travaux viennent confirmer les conclusions d'autres études qui avaient également montré que cette phase du sommeil occasionnait des bénéfices cognitifs nécessaires au fonctionnement cérébral lors de l'éveil. "L'intensité de l'activité cérébrale lors du sommeil MOR est incroyablement similaire à celle qu'on observe en phase d'éveil, en ce qu'elle est très élevée", précise Rebecca Robbins, une chercheuse en modifications du comportement et du sommeil à la NYU's School of Medicine.

Article rédigé par Georges Simmonds pour RT Flash

JDN

La migraine est-elle un mécanisme de défense du cerveau ?
Mercredi, 13/12/2017 - 06:37

Reconnue comme une pathologie, parfois invalidante, à part entière, la migraine pourrait-elle en fait constituer un mécanisme de protection contre le stress oxydant, c’est-à-dire les radicaux libres produits par l'oxygène, néfastes pour le cerveau ?

Telles est la théorie surprenante mais argumentée que propose Jon Borkum, de l'Université du Maine (États-Unis). Pour étayer son hypothèse, le chercheur expose plusieurs arguments. « D'abord, explique-t-il, les migraines sont souvent déclenchées par l'exposition à des facteurs environnementaux, physiologiques ou psychologiques (stress, hypoglycémie, certains composés présents dans l'alimentation, etc.) qui, eux-mêmes, augmentent le stress oxydant. Deuxièmement, les nerfs de la dure-mère —la membrane extérieure du cerveau— ont des capteurs capables de détecter ce stress oxydant.

Des substances bénéfiques pour les neurones sont produites au cours de la migraine. « Enfin, pris séparément, chacun des composants de la migraine (modification du flux sanguin, activation des plaquettes sanguines, etc.) a des vertus neuroprotectrices : ils permettent d'augmenter la production d'enzymes antioxydantes et de facteurs de croissance, limitent la mort des cellules ou encore stimulent la synthèse de nouveaux neurones ».

Selon le chercheur américain, ce mécanisme naturel de protection expliquerait aussi pourquoi la migraine est si fréquente dans la population. Et s'il reconnaît que cette théorie sera difficile à prouver, Jon Borkum considère qu'elle pourrait modifier la façon de traiter ces maux de tête.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

La guérison des plaies est deux fois plus rapide si on se blesse pendant la journée
Mardi, 12/12/2017 - 08:18

Selon une étude britannique dirigée par le Professeur Hoyle, si on se coupe ou on se brûle pendant la journée, les plaies guérissent beaucoup plus vite que si ces blessures se produisent la nuit. Ces recherches montrent l'importance de l'horloge biologique dans le processus de guérison. Cette découverte pourrait avoir des applications pour les interventions chirurgicales et procurer des cibles pour de nouveaux traitements qui accélèrent la guérison, estiment les chercheurs du laboratoire de biologie moléculaire à Cambridge au Royaume-Uni.

Pour le professeur John O'Neill, du laboratoire de Cambridge, ce phénomène "pourrait indiquer que l'organisme humain a évolué pour accélérer la guérison pendant le jour, une période où le risque de blessure est beaucoup plus élevé". Cette horloge, ou rythme circadien, régule quasiment toutes les cellules de l'organisme humain selon des cycles de 24 heures déterminant pour de nombreux processus biologiques, tels que le sommeil, la sécrétion hormonale et le métabolisme.

Des tests effectués en laboratoire sur des cellules de peau humaine, des fibroblastes et des kératinocytes -ces dernières forment la partie superficielle de l'épiderme- ainsi que sur des souris, ont montré que, pendant le cycle diurne de l'horloge biologique, les blessures guérissent presque deux fois plus rapidement.

Ces chercheurs ont constaté le même phénomène avec des brûlures chez des humains en analysant les dossiers médicaux de 118 patients qui avaient été brûlés, provenant des grands centres de soins aux brûlés en Angleterre et au Pays de Galles. Ainsi, des brûlures prennent en moyenne 60 % plus de temps pour guérir si elles se produisent la nuit, entre 20h00 et 08h00.

Leur guérison a mis 28 jours en moyenne, comparativement à 17 jours seulement si elles se sont produites pendant la journée entre 08h00 et 20h00, précisent les chercheurs.

Selon eux, le fait que les cellules de la peau se déplacent beaucoup plus rapidement de jour vers le site de la blessure pour la réparer est la principale raison de la guérison accélérée.

De plus, ces cellules connaissent une activité accrue, en leur sein, de protéines jouant un rôle clé pour la cicatrisation. Enfin, le collagène, la principale protéine formant la structure de l'épiderme, se dépose en plus grande quantité en journée dans la plaie.

Article rédigé par Georges Simmonds pour RT Flash

Science mag

Amyotrophies spinales antérieures : deux avancées majeures
Mardi, 12/12/2017 - 08:03

Deux récentes études annoncent un pas de géant dans la prise en charge des redoutables amyotrophies spinales antérieures. Les amyotrophies spinales antérieures (ASA) constituent un groupe de maladies héréditaires caractérisées par une atrophie progressive des muscles de la racine des membres. Le type I est la forme la plus sévère. Cette ASA dite infantile débute en règle avant l’âge de 6 mois et se manifeste précocement par l’impossibilité d’accéder à la station assise. Pour les enfants atteints de l’ASA de type 1 (60 % des cas d’ASA), la durée de la survie dépasse rarement les deux ans.

Ces maladies génétiques sont rares, puisque l’incidence des ASA dites infantiles (types I, II et III) concernerait de 6 000 à 10 000 naissances. Elles sont dues à la mutation ou à la délétion du gène SMN1 qui code pour la protéine de survie du motorneurone ou survival motor neuron (SMN) 1.

De ce fait, une faiblesse et une atrophie musculaires s’installent en raison de la dégénérescence du motorneurone, ceci plus ou moins rapidement en fonction de la forme clinique, mais aussi de l’intervention possible d’un autre gène dit SMN2 qui est une copie du gène SMN1 et code pour la protéine SMN1, au point de compenser plus ou moins efficacement les altérations du gène SMN1. Les deux études avaient pour but d'augmenter la production de la protéine SMN au sein du motorneurone et améliorer ainsi aussi bien la fonction motrice que la durée de la survie.

Le premier essai repose sur la thérapie génique au travers de l’administration intraveineuse d’une dose unique d’un adénovirus inactif incluant la séquence génique SMN1 normale. A l'issue de cet essai, 9 participants sur 12 ont été capables de se tenir assis sans soutien pendant au moins 30 secondes. Lors du dernier contrôle, tous les participants qui étaient âgés d’au moins 20 mois étaient vivants.

Le deuxième essai, portant sur 122 nourrisons, a utilisé un oligonucléotide anti-sens, le nusinersen. Ce médicament a été conçu pour prévenir l’exclusion de l’exon 7 au sein du gène SMN2 et augmenter ainsi la synthèse de la protéine normale SMN. Dans le groupe traité par le nusinersen, la proportion de patients qui ont atteint un degré de motricité jugé significatif lors d’une analyse intérimaire a atteint 51 %, contre  0 % dans l’autre groupe.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Découverte fondamentale en cancérologie : le lien entre microbiote et immunothérapie
Mardi, 12/12/2017 - 07:43

On sait que, depuis quelques années, les impressionnants progrès de l'immunothérapie ont marqué un tournant dans la lutte contre certains cancers graves. Aujourd'hui, ces traitements parviennent à prolonger de plusieurs années la vie de malades atteints de cancers avancés.

Malheureusement, ces nouveaux traitements ne sont efficaces que sur 25 à 30 % des patients, sans que l'on comprenne réellement pourquoi. Des chercheurs de l'Institut Gustave Roussy (Inserm) viennent de montrer, dans une étude portant sur 249 patients atteints de cancers avancés du poumon, du rein ou de la vessie, que la prise récente d'antibiotiques chez 29 % d'entre-eux diminuait sensiblement l'espérance de vie de ces malades.

En créant un déséquilibre au niveau du microbiote intestinal, les scientifiques ont constaté que la prise d’antibiotiques deux mois avant et jusqu’à un mois après le début du traitement a un impact négatif sur la survie sans progression de la maladie et la survie globale des patients dans ces trois types de cancer.

Dans une deuxième étude, l'équipe de recherche a analysé la composition précise du microbiote intestinal de 153 patients atteints d’un cancer du poumon ou du rein. Une bactérie, nommée Akkermansia muciniphila, est associée à une meilleure réponse des patients à l’immunothérapie. En administrant cette bactérie à des souris comportant un microbiote défavorable (provenant de patients ayant démontré une mauvaise réponse clinique à l’immunothérapie), l'efficacité de l’immunothérapie a été tout bonnement restaurée.

"Cette découverte est majeure et nous avons clairement montré que la prise d’antibiotiques a un impact négatif sur la survie des malades sous immunothérapies. La composition du microbiote est un facteur prédictif de réussite", résument le Docteur Bertrand Routy, médecin hématologue à l’origine de ces travaux et sa directrice, le Professeur Laurence Zitvogel, directrice du laboratoire "Immunologie des tumeurs et immunothérapie" (Inserm/Université Paris-Sud/Gustave Roussy).

Ces chercheurs soulignent que leur découverte est pleinement confirmée par les travaux d'une équipe américaine de Houston, qui vient également de montrer que la composition du microbiote de patients atteints d’un mélanome permet de prédire leur réponse à une immunothérapie ciblant la voie PD-1.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Apprentissage de la langue maternelle : un processus universel ?
Mercredi, 13/12/2017 - 07:08

Comment les enfants appartenant à des sociétés et cultures très différentes apprennent-ils leur langue maternelle aussi facilement ? Pour tenter de répondre à cette question complexe, des chercheurs du Laboratoire de sciences cognitives et psycholinguistique (CNRS/ENS/EHESS) et des spécialistes du développement du langage chez l'enfant se sont intéressés à une population traditionnelle de l'Amazonie bolivienne, les Chimane, en lien avec des bio-anthropologues de l'Université Toulouse 1 Capitole et de celle de Californie - Santa Barbara.

Leur étude montre que la durée moyenne des paroles adressées aux enfants de moins de quatre ans est inférieure à une minute par heure. C'est jusqu'à dix fois moins que pour les enfants du même âge dans les pays industrialisés. Ce constat invite à multiplier ce genre d'étude dans des cultures diverses afin de vérifier si l'apprentissage de la langue maternelle suit un processus universel.

Dans toutes les cultures humaines, les enfants apprennent avec peu d'efforts la langue parlée par ceux qui les entourent. Pourtant, ce processus remarquable reste mal compris. La plupart des théories reposent sur l'étude d'un nombre réduit de cultures, principalement dans les pays industrialisés comme les États-Unis ou la France, où la scolarité est répandue et la taille des familles plutôt réduite.

Cette étude présente donc l'originalité de concerner une population de chasseurs-horticulteurs de l'Amazonie bolivienne, les Chimane. Grâce à une collaboration avec des anthropologues spécialistes de cette ethnie, ils ont noté ce que chaque personne présente faisait, et avec qui.

Sur la base de ces observations, les spécialistes du développement du langage ont constaté que, tous interlocuteurs confondus, le temps consacré à parler à un enfant de moins de quatre ans était de moins d'une minute par heure. C'est quatre fois moins que les estimations faites auprès des personnes plus âgées présentes au même moment et au même endroit. Et jusqu'à dix fois moins que pour les jeunes enfants de pays occidentaux, d'après les estimations de précédentes études.

Si, comme chez nous, la mère est le locuteur principal de l'enfant, la fréquence avec laquelle elle parle au nourrisson est bien moindre. Après l'âge de 3 ans, la majorité des paroles adressées aux jeunes enfants proviennent d'autres enfants, généralement leurs frères et sœurs (les Chimane en ont en moyenne cinq, contre un pour les enfants français et américains).

Ces résultats révèlent donc une grande variation interculturelle dans les expériences linguistiques des jeunes enfants. Or, dans les pays industrialisés, le développement du langage chez l'enfant est corrélé aux paroles qui lui sont adressées directement par des adultes, et non aux autres paroles entendues. Cette corrélation est-elle universelle ?

Les enfants chimane évoluent dans un monde social riche : à tout moment, ils sont entourés par huit personnes en moyenne. Est-ce que les échanges qu'ils entendent, et qui représentent environ dix minutes par heure, contribuent à leur apprentissage ? Toutes ces questions sont loin d'être tranchées et devront faire l'objet d'autres études dans d'autres sociétés.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Véhicule autonome : Renault veut rester dans la course…
Mardi, 12/12/2017 - 07:49

Renault compte bien rester dans la course à la mise au point d'un véhicule autonome fiable et commercialisable. Dans le cadre de ses recherches sur la SACA (Systèmes d'Aides à la Conduite Avancée) et de sa feuille de route visant à commercialiser une voiture autonome dès 2022, Il a annoncé avoir mis au point un système capable de gérer une manœuvre d'évitement à grande vitesse avec autant de dextérité qu'un pilote chevronné…

Le constructeur a fait appel à l'expérience de plusieurs pilotes professionnels au sein de son Renault Open Innovation Lab de la Silicon Valley pour aider au développement du système, qu'il a baptisé Callie. Renault précise aussi que cette avancée est basée sur des recherches publiées par le Dynamic Design Lab de l'Université de Stanford, avec lequel le Renault Open Innovation Lab collabore.

La sécurité des systèmes de conduite autonome reste une préoccupation capitale pour les constructeurs automobiles à mesure que les échéances qu'ils se sont fixées pour leur sortie commerciale se rapproche. Renault affiche l'objectif ambitieux de commercialiser 15 modèles dotés de capacités de conduite autonome d'ici 2022.

Cela inclut des véhicules de grande série capables d'une autonomie de niveau 4 (aucune supervision humaine nécessaire, mais limité à des zones spécifiques, comme des tronçons d'autoroute) et une flotte de navettes autonomes sans chauffeur dans un environnement contrôlé.

Article rédigé par Georges Simmonds pour RT Flash

Renault

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top