|
|
|
|
|
NUMERO 867 |
|
|
|
|
|
|
|
Edition du 30 Septembre 2016
|
|
|
|
|
Edito
La fiction se transforme en réalité : la voiture autonome est pour demain !
Alors que le Mondial 2016 de l'Automobile ouvre ses portes à Paris, faisons le point sur la voiture autonome.
Depuis 1950, le nombre total de véhicules circulant en France a été multiplié par dix : il atteint à présent 38,5 millions de voitures, dont 32 millions de véhicules particuliers, soit plus d’une voiture par ménage (il y a 28 millions de ménages en France). Cette explosion du nombre de voitures en circulation s’est également accompagnée d’une très forte augmentation de l’offre et de la demande de transports : les Français ont accompli, en 2015, 177 millions de déplacements par jour en bus, métro, voiture, tram, soit 64,6 milliards de déplacements, d’une longueur moyenne de 26 km, chaque année.
Selon l’Insee, il faut en moyenne cinquante minutes aux Français pour se rendre sur leur lieu de travail et en revenir, une durée qui s’est allongée de dix minutes en 15 ans. La grande majorité des trajets domicile-travail (73 %) se fait encore en voiture et seuls 12 % de nos concitoyens empruntent les transports en commun pour aller travailler. On notera également, sans surprise, que la distance et la durée moyenne du trajet quotidien domicile-travail n’ont cessé de s’allonger depuis 15ans et qu’aujourd’hui, il y a 17 % de Français dont le trajet est supérieur à une heure et demie, contre 12 % en 2000.
Autre phénomène moins connu mais bien réel : après avoir progressé en moyenne de 2,6 % par an de 2004 à 2014, l’offre de transports, exprimée en kilomètres parcourus, a baissé de 1 % en 2015, pour la première fois depuis 1998. Les raisons de ce coup d’arrêt sont simple : l’Etat et les collectivités locales ont de plus en plus de mal à dégager les ressources financières - 16 milliards par an, contre 12 milliards en 2004 - nécessaires pour répondre à la demande croissante de déplacements des Français.
Pour essayer de sortir de cette quadrature du cercle, les acteurs publics n’ont pas le choix : ils doivent innover et utiliser toutes les potentialités des technologies numériques pour parvenir à proposer de meilleurs services de transports à nos concitoyens à un moindre coût. Parmi les nouveaux leviers mis en œuvre en matière d’amélioration des transports publics, on trouve notamment la mobilité "sur-mesure", qui consiste à répondre par des moyens de transports collectifs aux besoins individualisés.
Ce concept de déplacement « à la carte » s’illustre par exemple avec le service Autolib, les voitures BlueCar de Bolloré à Paris. Mais il faut également évoquer Lohr Industries, une entreprise française qui a développé « Cristal » un véhicule "bi-modal" qu’elle expérimentera à partir de septembre 2017 à Strasbourg. A l’instar de la BlueCar, ces véhicules seront en autopartage en heures creuses, mais se convertiront en une seule navette comportant deux à quatre véhicules, en heures de pointe. Dans une configuration à quatre véhicules, le coût d’une navette pourrait coûter 50 % moins cher qu’avec un bus de capacité équivalente, selon Jean-François Argence, le directeur des Nouvelles mobilités à Lohr Industrie, qui ajoute « Cette solution présente plus de flexibilité que les moyens de transport collectif traditionnels, et pourrait aussi être déclinée en modules non autonomes mais accrochables les uns aux autres derrière une "locomotive de tête".
Cristal peut embarquer cinq personnes assises, à la vitesse maximale de 70 km/h. Mais si 4 véhicules étaient reliés entre eux, cela permettrait de transporter 72 passagers debout, avec une vitesse maximale de 40 km/h. Les flottes de véhicules seront géo localisées et il sera possible de réserver un véhicule en ligne.
Mais ce concept de navette Cristal devra compter avec le véhicule autonome Navya, présenté pour la première fois en septembre 2015 par la start-up lyonnaise Navya. Cette société a conçu un véhicule complétement, sans conducteur et électrique, d’une capacité de 15 personnes, pouvant rouler jusqu’à 45 km/h pendant huit heures. Un système de recharge par induction permettra bientôt d’avoir une autonomie totale du système, sans intervention humaine pour brancher les véhicules qui doivent se recharger en énergie. Exactement comme votre aspirateur robot :-)
La Navya Arma peut effectuer des trajets de point à point, avec des arrêts prédéfinis. Elle est conçue pour offrir à terme la possibilité d’aller chercher un utilisateur qui le lui demanderait depuis une application sur son smartphone, via un court déroutement par rapport à l’itinéraire régulier.
Les différents capteurs du Navya Arma procèdent, lors de ces trajets d'apprentissage, à l’acquisition de l’ensemble des données nécessaires. Celles-ci sont ensuite traitées par un logiciel qui permet de programmer les différents trajets possibles, avec leurs arrêts éventuels. La navette, intelligente, peut prendre des décisions pour emprunter le trajet le plus court, compte tenu de son environnement et des éventuelles perturbations qui l'affectent.
La navette Navya a été testée avec succès à Lyon en février 2016 mais, pour l’instant, la législation internationale ne permet pas à ce type de navette d’évoluer librement dans nos villes. Son utilisation ne peut donc se faire qu’à l’intérieur de sites fermés : aéroports, sites industriels, parcs d’attraction, hôpitaux, campus…
Karos a compris que même si beaucoup de personnes aimeraient se passer d'une voiture pour se rendre au travail, dans les faits ils n'en ont tout simplement pas les moyens, soit parce que les transports publics sont inexistants, soit parce que les connexions entre le domicile et le lieu de travail sont trop complexes. Contrairement aux plates-formes de covoiturage conventionnelles telles que BlaBlaCar qu'on utilise essentiellement le week-end pour des trajets de 300 km en moyenne, Karos est un service spécialisé dans les courtes distances au quotidien. Elle vise à transformer la voiture individuelle en réseau de transport en commun, complémentaire des réseaux publics de bus, métro, etc.
Son concept très novateur est en plein essor : celui du covoiturage intelligent à courte distance. Karos, cette jeune start up parisienne, part du constat qu’une majorité de travailleurs d’Ile de France sont obligés d’utiliser une voiture pour se rendre au travail. Il est vrai que deux tiers des travailleurs franciliens par exemple vivent ou travaillent à plus de 10 min à pied d'une station de transport en commun. L’étalement urbain et la mauvaise desserte de certaines zones franciliennes par les transports publics font que les travailleurs d’Ile de France effectuent chaque jour 15 millions de trajets en voiture, soit en théorie autour de 40 millions de sièges inoccupés. Mais la réalité est plus complexe car il est hors de question pour ces travailleurs, faute de temps, d’organiser un covoiturage deux fois par jour. Karos a donc réussi à automatiser la procédure et en combinant toutes les ressources que permettent l’intelligence artificielle et les données massives, cette société propose automatiquement des covoiturages adaptés aux conducteurs et aux passagers.
Pour réaliser cette prouesse, l'application mobile « apprend » les habitudes de chacun de ses membres : elle identifie leurs destinations, leurs horaires variables en fonction des jours de la semaine, et prédit avec 90 % de réussite leurs trajets quotidiens. Sur le plan financier, conformément à la législation, le conducteur est défrayé, sur la base d'un coût de 0,20 euro par kilomètre. Le service coûte donc 0,10 euro/km à un passager. Ce service, disponible depuis 2014, sous la forme d'une application pour iPhone et smartphone Android, serait selon Karos trois à cinq fois moins cher que le bus. Par son extrême souplesse et sa gestion personnalisée en temps réel, ce concept proposé par Karos pourrait donc constituer le « chaînon manquant » entre les offres actuelles de covoiturage, principalement axées sur les déplacements interurbains et les transports en commun, qui ne parviennent plus à répondre à une demande des usagers toujours plus grande et diversifiée.
Mais la gestion intelligente des déplacements urbains aiguise également, on ne s’en étonnera guère, l’appétit des géants du numérique, qu’il s’agisse d’IBM, de Microsoft ou de Google. Il y quelques semaines, IBM et la société Local Motors, qui fabrique de véhicules par impression en 3D, ont dévoilé un minibus qui se conduit tout seul avec l'assistance du super-ordinateur Watson d’IBM. Ce minibus, baptisé "Olli" peut transporter douze personnes et est en démonstration à Washington D.C. Géré par Watson, le puissant outil d’intelligence artificielle d’IBM, Olli peut non seulement vous mener à votre destination en empruntant le meilleur trajet, compte tenu du trafic, mais il sait également répondre en langage naturel à certaines questions concernant par exemple les quartiers traversés, les musées à visiter ou les adresses de bons restaurants.
De son côté, Google travaille sur un ambitieux programme de gestion intelligente de la circulation urbaine, baptisé "Flow". Ce logiciel est développé par Sidewalk Labs, nouvelle division de Google consacrée à la smart city. Il intègre toutes les ressources technologiques de Google (données massives, apprentissage profond) et est déjà en cours d’expérimentation dans plusieurs villes-pilotes, comme Colombus, en Ohio.
Fidèle à son redoutable modèle économique d’appropriation et de valorisation des données, Google propose à ces métropoles d’essayer gratuitement pendant trois ans "Flow", étant entendu que ce puissant logiciel sera alimenté et amélioré par une multitude de données de toute nature qui seront recueillies et agrégées par Google.
Flow doit permettre à terme de diriger les conducteurs vers les places de parking libres (les possesseurs de parkings privés pourront "louer" leur place ponctuellement en temps réel grâce à ce système) et suggérer aux usagers les offres de transport les plus adaptées à leur trajet. Le logiciel inclura toutes les formes de nouvelle mobilité : vélos en libre-service, co-voiturage, VTC, auto-partage, bus et tramways…
Cette optimisation de la circulation et du stationnement permettra de générer de nouveaux revenus pour les villes et Google, en proposant une tarification variable du stationnement, en fonction de la demande, promet 1500 euros de revenus par place de parking et par an… Dans un deuxième temps, Google compte faire payer l'utilisation de la plate-forme Flow aux villes-partenaires, ce qui les obligerait à adopter ses propres systèmes de paiement et à relayer au niveau local les offres publicitaires « proposées » par Google.
Parallèlement, Google continue depuis 6 ans à travailler sans relâche pour améliorer les performances de sa « Google Car » qui a déjà parcouru 2,7 millions de km en mode autonome sans accidents majeurs. Mais le 14 février dernier, une Google Car a mal interprété la trajectoire d’un bus qui arrivait derrière elle ; elle s’est alors brusquement déportée et est entrée en collision avec ce bus qui a lui-même fait un écart dans sa direction. Bien entendu, Google a immédiatement annoncé que le logiciel de pilotage automatique allait être modifié et complété pour tenir compte de cet accident mais un programme informatique, aussi rapide et sophistiqué soit-il peut-il prévoir l’infinité des situations de conduite auxquelles un conducteur est confronté dans les conditions réelles de circulation ?
Malgré cet accident dont Google se serait bien passé, le géant numérique reste persuadé que la voiture automatique est pour demain et qu’il sera bien sûr leader sur ce marché gigantesque.
Dans cette bataille industrielle et technologique mondiale, la Google Self Driving est opposée à Tesla, dont le pilote automatique a été lancé à la fin de 2015. Toujours en test, il s’agit davantage d’un système d’aide à la conduite, qui ne peut être activé que dans certaines conditions, que d’une véritable fonction autonome. Un conducteur doit toujours être présent, conserver ses mains sur le volant et être prêt à reprendre le contrôle à tout moment. Tesla revendique 209 millions de kilomètres parcourus avec le pilote automatique activé, tandis que Google teste déjà 70 voitures, qui ont parcouru près de 2,5 millions de kilomètres en complète autonomie.
Mais à quelle échéance, ces voitures automatiques seront-elles disponibles sur le marché ? Très optimiste, le directeur de Google X, Chris Urmson, espère que la Google Car sera en vente dès 2020.
Renault-Nissan et Microsoft ont passé, cette semaine, un accord de partenariat pour développer des technologies dans le domaine de la voiture connectée. Avec ce partenariat, Renault voudrait lancer avant fin 2020 plus de 10 véhicules équipés de fonctions de conduite autonome et de services permettant d’utiliser au mieux le temps libre passé à bord.
Il y a quelques jours, Uber et Ford viennent de lancer à Pittsburg, aux Etats Unis, à titre expérimental, la mise en circulation, d’ici la fin de l’année, d’une centaine de voitures autonomes dites « intelligentes ». Volvo est également associé à cette expérimentation.
Pour ajouter à cette effervescence générale, le constructeur BMW a annoncé, il y a quelques semaines, une coopération avec l'américain Intel et l'israélien Mobileye dans la voiture autonome. Les trois entreprises ont décidé de s’allier pour « concevoir des véhicules autonomes et transformer en réalité des concepts de mobilité du futur », ont-elles déclaré dans un communiqué commun. Le constructeur allemand et les deux groupes de technologies expliquent vouloir collaborer avec un objectif très précis : proposer en 2021 un véhicule de série entièrement autonome, baptisé iNext, qui sera le nouveau fer de lance de la stratégie de BMW.
Avec l’objectif de s’investir dans le véhicule autonome, Apple a recruté plusieurs ingénieurs de Tesla (dont les voitures disposent d'un mode conduite autonome) et un ancien dirigeant de Fiat Chrysler spécialisé dans la voiture automatique. Le groupe chinois Baidu espère lui présenter son premier modèle de voiture autonome en 2018.
Ford, Uber, Lyft et Volvo ont lancé un groupe de lobby afin de peser sur les régulations juridiques encadrant cette nouvelle activité de conduite automatique aux États-Unis.
Mais derrière ces effets d’annonces et cette communication spectaculaire parfaitement rodée se cache une réalité plus complexe et moins radieuse : le constructeur californien de véhicules électriques de luxe Tesla a annoncé faire l'objet d'une enquête des autorités américaines. Elle intervient après le décès accidentel d'un conducteur d'une berline « Model S », un de ses deux modèles commercialisés. L'agence américaine de la sécurité routière (NHTSA) a ouvert un « examen préliminaire » sur l’Autopilot, le système informatique et électronique d'aide à la conduite permettant aux voitures Tesla de pouvoir s'auto-conduire ou d'effectuer seules des manœuvres. Ce système était activé lorsque l'accident est survenu le 7 mai dernier sur une route de Floride. C'est le premier accident mortel sur les quelque 200 millions de kilomètres parcourus par des véhicules équipés d'Autopilot, affirme Tesla.
Dans les mêmes temps, et ce n’est sans doute pas sans rapport avec l’accident mortel dans une voiture autonome de Tesla, Mary Barra, patronne de General Motors, a officiellement déclaré, au nom du conseil d’administration de GM, qu’elle souhaitait que la réglementation américaine maintienne l’obligation d’équiper toutes les voitures d’un volant et de pédales. « Nous estimons que nous avons une position de leader sur le secteur de la voiture autonome », a affirmé Mary Barra, mais « il est très important de privilégier la sécurité et nous pensons que de garder un volant et des pédales est un moyen de le faire », a-t-elle estimé.
Il est donc probable que nous assistions d’abord à la montée en puissance des voitures autonomes susceptibles d'être reprises en main par leur conducteur, puis, seulement dans un 2e temps, à l’arrivée de véhicules entièrement automatiques. Il est probable que ceux-ci arrivent en nombre sur nos routes mais pas avant 2025 et ce, pour au moins trois raisons. La première tient à l’extrême complexité de la technologie qui devra être capable de gérer ces véhicules entièrement automatiques en toutes circonstances, y compris lorsque ce véhicule est « aveugle » et n’est plus en mesure d’échanger des données avec le Web. La seconde raison tient à l’évolution des cadres législatifs concernant la responsabilité des passagers et des assurances. Imaginons qu’une personne malveillante parvienne à pirater le logiciel de sa voiture automatique pour accomplir des actes délictueux - agression d’une personne ou attaque d’un bâtiment sensible par exemple -, quelles seront les responsabilités respectives de l’utilisateur, du constructeur et du fournisseur de logiciel de conduite ? Enfin, la dernière raison tient aux dilemmes éthiques que la voiture devra régler seule et très rapidement dans certaines circonstances, par exemple, devra-t-elle choisir de risquer de tuer ses occupants pour éviter une collision avec des piétons ?
Mais il est certain qu’à terme, c’est-à-dire à l’horizon 2025-2030, la généralisation des véhicules entièrement autonomes est inéluctable car elle permettra des économies gigantesques en termes de vies épargnées mais également de dépenses collectives. D'après une étude récente parue dans la revue américaine Science, l'adoption généralisée de voitures autonomes pourrait éliminer jusqu'à 90 % des accidents de la circulation. Or, on l’ignore trop souvent, les accidents de la route représentent au niveau mondial un véritable fléau humain, économique et social. Avec 1,3 million de morts et plus de 30 millions de blessés par an, on estime que ces accidents de la circulation pourraient avoir un coût global - médical, économique et social - d’au moins 3 % du Produit Intérieur Brut Mondial, soit environ 2 000 milliards d’euros par an, l’équivalent du PIB d’un pays comme l’Italie ! Cette évaluation est d’autant plus crédible qu’en 2014, le Département des Transports américain (NHTSA) a estimé à au moins 900 milliards de dollars par an le coût des accidents de la route pour les seuls Etats-Unis…
A ce coût pharamineux des accidents de la circulation, il faut ajouter le coût également considérable provoqué par les embouteillages dans le monde. Rien qu’en France, une étude réalisée par le fournisseur d'informations routières Inrix a estimé fin 2014 ce coût à 17 milliards d'euros par an. Au niveau européen, ce coût a été estimé à 120 milliards d’euros par an et selon le Cabinet Roland, les embouteillages dans les trente plus grandes villes du monde coûtent plus de 200 milliards d’euros par an.
Enfin, à ces coûts liés aux accidents et aux embouteillages, il faut bien sûr ajouter les coûts, également très élevés et largement sous-estimés, liés à la pollution directement provoquée par les transports : environ 500 milliards d’euros par an selon les calculs de l’OCDE.
Mais les transports automatiques ne se limitent pas au ferroviaire et aux voitures. Début juillet, le constructeur de moteurs d’avion Rolls-Royce (à ne pas confondre avec la marque automobile) a annoncé son programme « Ocean Blue » qui vise à faire naviguer dès 2020 sur les mers du globe des bateaux totalement automatiques, dépourvus d'équipage et de capitaine.
A l’instar des drones, ces navires seront dirigés dans des salles de contrôle équipées d’un système très réaliste de réalité virtuelle baptisé xO (Future Operator Experience Concept), permettant aux opérateurs de voir l’environnement intérieur et extérieur dans les moindres détails et d’agir en conséquence sur une multitude de paramètres (vitesse, direction, sécurité incendie). D’après Rolls-Royce, le surcoût de ces navires entièrement autonomes devrait être compensé par les économies induites par l’absence d’équipage et le volume supplémentaire disponible pour les marchandises.
Souhaitons que notre pays, qui dispose d’un savoir-faire mondialement reconnu dans ces technologies de gestion intelligente des transports urbains, soit capable de prendre toute sa place dans cette compétition technologique et économique planétaire qui représente également des enjeux humains et sociaux majeurs et va bouleverser l’organisation de nos sociétés et nos modes de vie.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
TheraScape, une société de biotechnologies strasbourgeoise, va mettre en ligne, en 2017, une plate-forme permettant de simuler la réponse du corps humain au contact d'une molécule en vue d'accélérer la mise au point de médicaments.
Cette équipe a pu identifier, parmi les types de récepteurs sur lesquels elle travaillait, "les RCPG (récepteurs couplés aux protéines G) qui ont un potentiel énorme", ajoute ce manager. Ces récepteurs membranaires, situés à l'interface de l'intérieur et de l'extérieur de la cellule, ont la capacité de transmettre à celle-ci les informations qui induiront en réponse une modulation de son fonctionnement. Ils sont par là un enjeu majeur pour la recherche pharmaceutique et la cible, selon TheraScape, de plus de 30 % des médicaments.
L'entreprise, qui investit 500 000 euros pour développer ce premier biosimulateur, choisit de le commercialiser sous forme d'un logiciel en ligne (ou SaaS, software as a service), pour « démocratiser ce type de technique » et toucher un plus grand nombre de clients. Elle annonce « quelques milliers d'euros » comme ticket d'entrée pour des tests de molécules.
Du côté des utilisateurs, l'enjeu n'est pas tant de s'affranchir des essais cliniques, toujours indispensables, que de valider plus rapidement les médicaments candidats en écartant d'emblée ceux qui se révèlent de fausses pistes pour cause d'inefficacité ou d'effets secondaires trop importants.
Article rédigé par Georges Simmonds pour RT Flash
Ouest France
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs néerlandais ont créé un système de stockage microscopique qui code chaque bit sur un seul atome. 1 Ko peut ainsi être contenu dans un espace de moins de 100 nanomètres. En termes de densité de stockage, on atteint environ 10 Tbits par cm². A titre de comparaison, les disques durs de 4 To disponibles dans le commerce proposent 1 Tbit par cm² et contrairement au système des chercheurs néerlandais, ils utilisent des centaines ou des milliers d’atomes pour stocker un seul bit.
« En théorie, cette densité de stockage permettrait à tous les livres jamais écrits par l’Homme de tenir sur un timbre-poste », précise Sander Otte, chercheur principal à l’Université technologique de Delft.
Pour réaliser cette prouesse, il explique, « chaque bit se compose de deux positions sur la surface d’atomes de cuivre et un atome de chlore que l’on peut inverser pour prendre telle ou telle position », indique le chercheur. Il ajoute que le choix de l’atome de chlore sur des atomes de cuivre a été fait, car il est facile de les positionner et de les lire. Quand un atome est en haut, il s’agit d’un 1, s’il est descendu cela signifie 0. Avec une rangée de 8 atomes de chlore, cela forme un octet.
Mais pour utiliser ce nouveau mode de stockage atomique, les atomes de chlore et de cuivre sont stables sous vide et à une température de l’azote liquide à -196,75°C (77 kelvin). Des conditions freinant le développement commercial d’un système de stockage, mais qui annoncent un tournant dans le stockage atomique.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les futurs bâtiments autonomes en énergie ne pourront se contenter de batteries pour stocker son électricité. L’hydrogène semble le candidat le plus apte à combler les lacunes des accumulateurs. Parmi les jeunes entreprises qui investissent ce créneau, la société Sylfen se singularise par sa technologie et sa stratégie orientées vers la construction.
Alors que les systèmes de batteries dédiées au bâtiment entrent tout juste dans une phase industrielle, l’avenir du stockage d’électricité est déjà sorti des laboratoires. Ces dispositifs, encore artisanaux, adjoignent de l’hydrogène aux batteries. Le surplus de courant alimente un électrolyseur qui produit du gaz à partir d’eau. Une pile à combustible emploie ensuite ce gaz pour générer de la chaleur et des électrons.
Plusieurs jeunes entreprises, dont les françaises PowiDian ou Atawey, se sont emparées de cette idée. Parmi ces nouveaux acteurs, il faut également compter la société grenobloise Sylfen. Créée en juin 2015 par Nicolas Bardi et Caroline Rozain, cette start-up œuvre à adapter une technologie développée par le Commissariat à l’énergie atomique (CEA) aux besoins des immeubles tertiaires, alors que ses concurrentes visent davantage l’habitat isolé. Elle ambitionne d’installer ses premières centrales de stockage d’ici deux ans.
La création de Sylfen découle de dix années de recherche du Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux (Liten) dans le domaine de l’électrolyse de l’eau. Cette méthode consiste à décomposer la molécule aqueuse en dihydrogène et en dioxygène grâce à un courant électrique. En 2014, ses responsables annoncent la validation d’un électrolyseur, l’équipement qui réalise le procédé, à oxydes solides avec un excellent rendement de 90 %.
Mieux encore, l’unité est réversible : elle peut aussi se comporter comme une pile à combustible et convertir l’hydrogène en électricité et en chaleur. "A la suite de cette démonstration, nous nous sommes interrogés sur les applications possibles de cette technologie", explique Nicolas Bardi, ancien membre du Liten et actuel président de Sylfen. "Le stockage d’électricité pour les bâtiments nous semblait la meilleure opportunité".
En effet, dans la perspective de constructions autonomes en énergie, l’hydrogène apparait progressivement comme le complément idéal des batteries. Ces dernières bénéficient d’une grande souplesse. Elles peuvent basculer rapidement de la charge à la décharge en fonction du contexte. Toutefois, leur capacité de stockage reste limitée. A l’opposé, le gaz s’appuie sur des équipements peu réactifs et encore coûteux. Cependant, une fois l’investissement initial passé, accroître ses réserves se révèle plutôt bon marché. « Une bouteille d’un kilogramme d’hydrogène coute environ 500 € et peut contenir 40 kWh d’énergie, soit un rapport de 12,5 €/kWh.
"Aujourd’hui, le prix des batteries lithium s’élève encore à 500 €/kWh", analyse Nicolas Bardi. "Nous combinons le meilleur des deux mondes. Les batteries absorbent les brusques pics de production ou de consommation, et l’hydrogène accroît l’autonomie du site".
Pour se distinguer de la masse, le président de Sylfen met en avant la réversibilité de sa technologie. Pour un site tertiaire de 3000 m², la centrale devrait comporter environ 200 kWh de batteries, accompagnées de la pile à combustible réversible d’une puissance de 90 kW en électrolyse (environ la puissance crête d’une installation photovoltaïque), et 15 kW électrique/10 kW thermique en pile.
Article rédigé par Georges Simmonds pour RT Flash
Le Moniteur
|
|
|
|
|
|
|
|
Au sol, un capteur solaire bénéficie d'un ensoleillement moyen de 1000 KWh/an/m2. Mais sur la terre ferme, les contraintes sont nombreuses (occupation du foncier, poussière, nuages) et rendent la production d'énergie plus aléatoire et variable.
Afin de dépasser ces problématiques et d'optimiser les rendements, Jean-François Guillemoles, Directeur de Recherche au CNRS et directeur du laboratoire franco-japonais NextPV (Laboratoire International Associé (LIA) entre le CNRS et l'Université de Tokyo) propose d'utiliser l'espace aérien pour l'implantation de fermes solaires.
« L'objectif est de capter le soleil à 6 km d'altitude, grâce à des ballons équipés de capteurs solaires. A cette altitude, ils pourront profiter d'un meilleur ensoleillement sans subir l'ombre d'un nuage », explique Jean-François Guillemoles.
Les ballons d'une dizaine de mètres, fabriqués à partir de matériaux polymères, seraient reliés à la terre ferme par un simple fil. « Cette solution permettrait donc une faible emprise au sol et un moindre impact visuel pour les habitants. De plus, cette solution serait rapide à installer – et à désinstaller – et mobile, pour s'adapter aux besoins d'autres populations dans certains zones en Afrique, en Asie ou en Inde, qui n'ont pas ou peu d'accès à l'énergie », souligne M. Guillemoles.
Selon ce chercheur, « la ressource énergétique est 5 fois plus abondante qu’au sol, en prenant en compte un capteur avec tracking en altitude (1200 W/m2 x 4380 h/an soit 5,25 MWh/an/m2) à n'importe quelle latitude ». On pourrait en outre utiliser ces ballons 12 heures par jour, plutôt que 4 h en moyenne sur des installations classiques au sol.
L'autre intérêt de son projet est de proposer une solution de stockage des énergies renouvelables. Le jour, le courant produit serait utilisé par une pile à combustible pour décomposer de l'eau et la transformer en hydrogène, destiné à maintenir les ballons en l'air. De nuit, l'hydrogène serait récupéré en partie par la pile et produirait alors de l'électricité et de l'eau, en réaction avec l'oxygène.
Article rédigé par Georges Simmonds pour RT Flash
Batiweb
|
|
|
|
|
|
|
|
L’Europe s'est fixé l'objectif ambitieux des 20 % d’énergies renouvelables dans son mix énergétique d’ici 2020. Mais pour trouver une bonne adéquation entre demande et production d’énergie et garantir la stabilité des réseaux, il est nécessaire de trouver des solutions pour stocker massivement l’énergie et pour la restituer quand on en a besoin.
Une des pistes les plus prometteuses consiste à transformer l’énergie électrique pour la stocker sous forme de fluides. Le concept Electrolyse-Méthanation-Oxycombustion (EMO) consiste ainsi à transformer le surplus d’électricité en méthane. L’opération se déroule en deux temps : production d’hydrogène et d’oxygène par électrolyse de l’eau, puis de méthane par réaction de l’hydrogène avec du CO2. Le méthane alimente ensuite une turbine pour produire à nouveau de l’électricité. Ce procédé implique le stockage temporaire, massif et réversible d’une grande quantité de fluides (oxygène, CO2 et méthane).
Il est envisagé de stocker ces fluides en cavités creusées dans les couches profondes de sel, du même type que celles utilisées aujourd’hui pour le stockage d’hydrocarbures (réserves stratégiques, stockage saisonnier).
L’objectif principal du projet FluidSTORY est d’étudier la faisabilité, la sécurité et l’intégrité du stockage de l’oxygène et du CO2 nécessaires au concept EMO dans de telles cavités, ainsi que les conditions qui doivent être satisfaites à moyen-long terme (2030-2050), en France, pour atteindre la rentabilité énergétique et économique de cette solution de stockage. Le projet comporte ainsi un volet économique pour estimer les besoins en termes de stockage et le contexte énergétique dans lequel le procédé pourrait apporter une solution.
Parallèlement, un inventaire méthodique des cavités existantes et des formations susceptibles d’abriter de nouvelles cavités permettra de vérifier la disponibilité des volumes de stockage nécessaires au déploiement de cette technique, et de collecter leurs caractéristiques.
Le stockage massif de l’énergie est une des composantes de la transition énergétique, notamment en permettant l’intégration des énergies renouvelables issues de sources intermittentes. Par définition, il nécessite la disponibilité de grands volumes, que le sous-sol peut offrir en fonction de la géologie du site.
Concernant le stockage d’électricité, le BRGM s’intéresse notamment à trois nouvelles technologies : le Power-to-Gas (conversion d’électricité en gaz) utilisant le stockage souterrain d’hydrogène, le CAES (stockage d’énergie sous forme d’air comprimé) dans les cavités salines ou cristallines, et les STEP souterraines (Station de transfert d’énergie par pompage) utilisant les mines abandonnées. Le BRGM mène également des recherches sur le stockage de la chaleur issue de sources d’énergies renouvelables ou de rejets industriels, en aquifère souterrain ou par champs de sondes géothermiques.
Article rédigé par Georges Simmonds pour RT Flash
Fluidstory
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs de la Rockefeller University (États-Unis) et du Research Institute of Molecular Pathology (Autriche) ont montré que certains êtres humains peuvent détecter la présence d’un photon unique !
« C’est presque incroyable ! Imaginez un photon, la plus petite particule de lumière mesurable, qui interagit avec un système biologique constitué de milliards de cellules, le tout dans un environnement chaud et humide, s’émerveille Alipasha Vaziri, physicien à la Rockefeller University et principal auteur de l’étude. Pour atteindre les mêmes performances, n’importe quel détecteur artificiel doit être refroidi et isolé du bruit ambiant. Là, la réponse que le photon génère survit jusqu’au plus profond de notre conscience, malgré un bruit de fond omniprésent.
Pour arriver à leur conclusion, les chercheurs de la Rockefeller University ont mis en œuvre un système d'expérimentation issu de l'optique quantique, dans lequel un photon de haute énergie, à travers un cristal non linéaire, génère deux photons de couleurs complémentaires. Résultats : après l'analyse statistique des milliers de réponses enregistrées, l'étude montre que le taux de bonnes réponses est trop élevé pour relever du hasard et confirme la capacité de détection par l’œil humain d’un photon unique.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude menée par Rachele Malavasi, chercheuse en cognition à l'École d'équitation éthique de Moncigoli Di Fivizzano, en Italie, les liens entre les chevaux et leurs maîtres seraient plus étroits et plus complexes qu'on ne l'imaginait.
Cette scientifique a travaillé en partenariat avec Ludwig Huber, professeur à l'institut de recherche vétérinaire de Vienne, en Autriche, afin de déterminer si une communication entre l'homme et le cheval était possible. Résultats : les chercheurs ont en effet constaté que ces animaux sont capables de "communication référentielle hétérospécifique", soit la capacité de communiquer quelque chose en lien avec l'environnement (souvent une demande de nourriture) à l'homme. "La communication référentielle se produit lorsqu'un émetteur élabore ses gestes pour diriger l'attention d'un destinataire sur son rôle dans la poursuite de l'objectif souhaité, par exemple en pointant ou en montrant un objet, informant ainsi le destinataire de ce qu'il veut", indique l'étude. Ces travaux montrent notamment que les chevaux utilisent non seulement le regard mais aussi la gestuelle, en tapotant par exemple la tête contre le maître pour l'inciter à accomplir une action précise.
Ces recherches suggèrent que les chevaux peuvent mettre au point une résolution de problème stratégique. "Ils ne se comportent pas simplement sans tenir compte des conséquences de leurs actes. Au contraire, ils sont en mesure de créer un plan mental pour évaluer l'état d'attention du public, et de modifier leur stratégie de communication en conséquence", précise la chercheuse.
Article rédigé par Georges Simmonds pour RT Flash
Animal Cognition
|
|
|
|
|
|
|
|
Des chercheurs américains dirigés par Alberto Musto (Université d'Etat de Lousiane) ont mis au point un nouveau traitement qui pourrait guérir certaines épilepsies. Testée sur des souris, la molécule devrait bientôt faire l'objet d'essais cliniques sur l'homme.
Des chercheurs ont réussi à bloquer l'hyperexcitabilité des neurones chez des souris épileptiques grâce à une nouvelle molécule, la Neuroprotectin D-1 (NPD1). Jusqu'à présent, les traitements médicamenteux ciblaient les symptômes de la maladie comme les convulsions, sans arrêter le processus de détérioration des dendrites, voies d'entrées des neurones, qui permettent de communiquer entre eux.
Cette maladie neurologique se traduit en effet par un fonctionnement anormal de certains neurones qui sont hyperexcitables et synchronisent anormalement leur activité, ce qui provoque une décharge électrique excessive dans les réseaux neuronaux. L'effet protecteur de ce nouveau médicament, préventif des crises de convulsions notamment, a été observé jusqu'à 100 jours après la prise du traitement, ce qui laisse penser aux scientifiques que le développement de la maladie a été stoppé. Testée sur des souris, la molécule devrait bientôt faire l'objet d'essais cliniques sur l'homme.
En France, on compte 500.000 personnes atteintes par la maladie, soit 1 % de la population. Elle se résume dans la majorité des cas à des crises impressionnantes de convulsions empêchant les patients d'avoir une vie normale.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude américaine, certaines bactéries présentes dans notre intestin remontent à au moins quinze millions d'années, soit bien avant l'apparition des premiers hominidés. Cette découverte suggère que l'évolution joue un plus grand rôle dans la composition du microbiote intestinal qu'on ne le pensait.
"Nous montrons avec cette recherche que certaines bactéries intestinales humaines descendent directement de celles qui vivaient dans les intestins de nos ancêtres communs avec les singes", indique Andrew Moeller, un chercheur de l'Université de Californie à Berkeley. "Cela prouve qu'il y a une lignée ininterrompue de ces bactéries depuis des millions d'années, depuis l'émergence des singes africains", ajoute celui-ci, un des co-auteurs.
Alors que les humains et les grands singes ont évolué dans des espèces distinctes à partir d'un ancêtre commun, les bactéries présentes dans les intestins de ce dernier ont également évolué dans des souches différentes, selon ces scientifiques.
Ils ont trouvé des preuves génétiques que l'évolution séparée de ces bactéries en souches distinctes s'est produite quand les ancêtres communs ont commencé à évoluer en diverses espèces. Ainsi, le premier clivage des bactéries intestinales s'est produit il y a environ 15,6 millions d'années quand la lignée des gorilles a divergé de celle des autres hominidés. La seconde séparation est intervenue il y a 5,3 millions d'années au moment où la branche humaine s'est séparée de celles des chimpanzés et des bonobos. "Nous savions depuis longtemps que les humains et nos plus proches cousins, les grands singes, ont ces bactéries dans leurs intestins", relève Andrew Moeller.
Pour cette recherche, ces scientifiques ont analysé des échantillons fécaux de chimpanzés, de bonobos et gorilles qui vivent à l'état sauvage en Afrique et d'êtres humains aux Etats-Unis. Des fossiles et des indices génétiques ont permis d'établir que ces quatre espèces d'hominidés ont toutes évolué à partir d'un ancêtre commun qui vivait il y a plus de dix millions d'années.
Les chercheurs ont utilisé le séquençage génétique pour analyser toutes les différentes versions d'un gène bactérien présent dans tous les échantillons fécaux. A partir de ces données, ils ont pu reconstruire les arbres de l'évolution des trois groupes de bactéries intestinales qui forment plus de 20 % du microbiome humain. Deux de ces groupes ont une évolution similaire à celle des autres hominidés.
Article rédigé par Georges Simmonds pour RT Flash
STD
|
|
|
|
|
|
|
|
La L-glutamine est un acide aminé, non essentiel, que l'on trouve dans les œufs, la viande, le poisson, les produits laitiers, les céréales et les légumineuses. Des études ont montré que les tumeurs cancéreuses étaient dépendantes de la L-glutamine pour se développer.
Dans cette étude, les chercheurs ont observé que des cellules cancéreuses du côlon portant la mutation d'un gène, appelé PIK3CA, observable dans la plupart des cellules cancéreuses, étaient particulièrement gourmandes en L-glutamine pour se propager.
Lorsque le professeur Zhenghe John Wang et son équipe ont baissé la quantité de L-glutamine pendant que les cellules cancéreuses "mutantes" se développaient en laboratoire, les cellules cancéreuses sont mortes.
Cette découverte a poussé l'équipe de scientifiques à examiner les effets de cette privation de L-glutamine chez des souris malades. En exposant les rongeurs à une molécule qui bloque le métabolisme de la L- glutamine, les scientifiques ont observé que la tumeur cessait de croître. Cependant, ils n'ont pas observé le même effet sur des tumeurs qui ne présentaient pas de mutation du gène PIK3CA.
Ces résultats, qui font actuellement l'objet d'une demande de brevet, offrent des perspectives d'un nouveau médicament pour lutter contre la maladie, selon les chercheurs. Des premiers essais cliniques concernant un inhibiteur de la L-glutamine chez des patients atteints d'un cancer colorectal avancé, vont prochainement être réalisés. Rappelons qu'en France, le cancer du côlon arrive en troisième position, en terme d'incidence, derrière le cancer de la prostate et le cancer du poumon.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
|
|
|
L’équipe INSERM du Professeur Denis Vivien a présenté une nouvelle stratégie pour lutter contre la sclérose en plaques (SEP). Ces travaux, publiés dans la revue « Brain », portent sur le développement d'un nouvel anticorps monoclonal, le Glunomab, qui montre son efficacité chez la souris. « Une molécule dont les effets thérapeutiques potentiels pourraient offrir une alternative aux patients atteints de SEP qui ne répondent pas aux traitements actuels », espère Fabian Docagne qui a dirigé ces recherches.
La sclérose en plaques représente la cause la plus fréquente d’invalidité neurologique chez l’adulte jeune. Dans cette maladie auto-immune, les cellules immunitaires, en particulier les lymphocytes, entraînent la destruction de la gaine de myéline qui entoure et protège les axones des neurones. Cette démyélinisation, qui marque le début d’une dégénérescence de l’axone, perturbe alors la transmission de l’influx nerveux. Les lésions sous forme de « plaques » sont dispersées au niveau du cerveau et de la moelle épinière.
Pour que les cellules du système immunitaire circulant dans le sang atteignent le système nerveux central, elles doivent franchir la barrière sang-cerveau (barrière hémato-encéphalique) et la barrière sang-moelle osseuse (hémato-médullaire). L'équipe de l'INSERM a étudié tout particulièrement un acteur participant à l’ouverture de la barrière hémato-encéphalique : le récepteur NMDA, et elle a observé que le blocage de l’interaction de ce récepteur avec le tPA (une protéine de la famille des protéases à sérine) a des effets bénéfiques liés au maintien de l’intégrité de la barrière. En effet, bloquer son ouverture en conditions inflammatoires, limite le passage des lymphocytes.
Les chercheurs ont alors développé un anticorps monoclonal, le Glunomab, dirigé contre le site spécifique du récepteur NMDA sur lequel se lie le tPA. Ils ont ensuite testé avec succès les effets thérapeutiques de cet anticorps dans un modèle expérimental de sclérose en plaques chez la souris.
Après une injection intraveineuse du Glunomab, la progression des troubles moteurs (paralysie partielle ou totale des membres), évaluée par un score clinique, s'est trouvée bloquée. Chez les souris traitées, cet effet a été associé à une diminution de l’infiltration des lymphocytes dans le tissu nerveux, et à une démyélinisation réduite.
En prévenant ainsi la destruction de la myéline par les cellules immunitaires, cette stratégie pourrait représenter une thérapie prometteuse contre la SEP et notamment sa forme progressive.
Article rédigé par Georges Simmonds pour RT Flash
Brain
|
|
|
|
|
|
|
|
Une équipe française a découvert que la forte capacité à former des métastases dans certains cancers du sein (les triple-négatifs) est liée à l’activité d'une protéine nommée Prickle1. L'étude a démarré in vitro sur une lignée de cellules tumorales, modèles du cancer du sein triple négatif. Dans un premier temps, les chercheurs ont découvert que ces cellules produisent deux à trois fois plus de protéine Prickle1 que des cellules de cancer du sein classiques.
De plus, ils ont observé que Prickle1 s'y adjoignait les services de deux autres protéines : Mink1 et Rictor. Troisième découverte : une fois formé, ce trio protéique active une enzyme nommée AKT, précisément connue pour son implication dans la croissance et la dissémination des cellules tumorales... En empêchant l'expression du gène codant Prickle1, ou l'interaction de cette dernière avec ses deux partenaires, l'équipe a réduit de 60 % à 90 % la capacité de ces cellules à migrer !
Ces recherches ont ensuite montré sur la souris que, lorsque l’expression de Prickle 1 ou Mink1 est inhibée, on constate à la fois une forte réduction du volume de la tumeur primaire et une diminution sensible du nombre de métastases pour ce type agressif de cancer.
"Une première stratégie pourrait rapidement être testée dans un essai clinique : la prescription de médicaments déjà disponibles capables d'inhiber l'activité de l'enzyme AKT. Testée in vitro par notre équipe, cette stratégie a réduit jusqu'à 95 % la migration des cellules tumorales", indique Jean-Paul Borg. Parallèlement, les chercheurs sont en train de monter un projet avec un laboratoire pharmaceutique pour développer un médicament capable d'inhiber l'activité de Mink1.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Selon une étude américaine de l’Université de Washington, des prédispositions génétiques contribueraient au développement de la forme métastatique du cancer de la prostate. Avec plus de 53 000 nouveaux cas chaque année et moins de 9 000 décès, le cancer de la prostate est le plus fréquent chez l’homme et la 4ème cause de mortalité par cancer en France. Malgré son incidence, les causes de cette maladie sont encore peu connues. Mais les mutations génétiques joueraient un rôle important, notamment celles retrouvées dans les gènes chargés de la réparation des lésions de l’ADN, comme BRCA1 ou BRCA2.
Plus de 10 % des hommes souffrant d’un cancer métastatique seraient porteurs d’au moins une mutation dans l’un des 20 gènes réparateurs de l’ADN, révèlent ces travaux. Cette proportion est 2 fois plus élevée que chez les hommes souffrant d’un cancer de la prostate localisé, et 4 fois plus que dans la population générale. En outre, les hommes atteints d’un stade avancé ont 18 fois plus de risque d’être porteurs d’une mutation dans le gène BRCA2 que les hommes en bonne santé.
Pour parvenir à « ces surprenantes conclusions », les chercheurs américains de l'Université de Washington, en collaboration avec le centre de recherche en oncologie Fred Hutchinson et Memorial Sloan Kettering, ont analysé le génome de 692 patients atteints d’un cancer métastatique. Les données ont ensuite été comparées à des patients souffrant d’un cancer localisé et des volontaires sains.
Les auteurs soulignent que l’identification de ces marqueurs génétiques du cancer de la prostate est une étape importante vers le développement d'un test pronostic plus fiable que celui utilisé aujourd’hui. « Ces résultats apportent donc un argument convaincant pour actualiser nos recommandations de dépistage pour y inclure les tests génétiques », indique l’un des auteurs, le Docteur Peter Nelson du centre de recherche en oncologie Fred Hutchinson.
Le chercheur souligne par ailleurs que ces mutations ne sont pas uniquement liées au cancer de la prostate, à l’instar des gènes BRCA également associés au cancer du sein ou de l’ovaire. Aussi, les familles ayant pu hériter de l’un des ces gènes mutés pourraient bénéficier de consultation oncogénétique afin d’évaluer leur risque de développer un cancer.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Des chercheurs britanniques ont testé avec succès 265 molécules sur un large échantillon de cellules tumorales en laboratoire contenant un très grand nombre de mutations génétiques responsables de différents types de cancer, une avancée jugée importante en médecine de précision. Dans la plupart des cas, ces scientifiques ont constaté que ces anticancéreux, déjà sur le marché ou en développement, détruisaient en laboratoire les cellules porteuses des mutations génétiques de nombreux cancers.
L'étude montre comment les traitements existants pourraient potentiellement être utilisés pour traiter de nouveaux groupes de patients ou être plus efficaces chez des malades dont les tumeurs ont des anomalies génétiques spécifiques. Cette avancée va également aider les chercheurs à concevoir de nouveaux agents capables de cibler des cancers en fonction de leur signature.
« C'est le début d'un processus de recherche visant à déterminer comment cibler différentes populations de malades avec des anticancéreux spécifiques, une recherche encore impossible il y a quelques années parce que nous n'avions pas encore séquencé suffisamment d'ADN de tumeurs de patients », explique le Docteur Mathew Garnett, un biologiste au Wellcome Trust Sanger Institute au Royaume-Uni et l'un des principaux auteurs de l'étude.
Quand des scientifiques développent de nouvelles molécules anticancéreuses, ils dépendent souvent pour commencer de cultures de cellules cancéreuses in vitro. « On ne peut pas tester des centaines de substances anticancéreuses expérimentales sur un seul malade, c'est tout simplement impossible », souligne Ultan McDermott, cancérologue et chercheur au Singer Institute, un coauteur de ces travaux. « Mais il est possible de le faire sur des lignées de cellules en laboratoire qu'on peut exposer à un grand nombre de médicaments différents pour déterminer leur efficacité respective », précise-t-il.
Pour cette étude, ces scientifiques ont utilisé l'Atlas du génome du cancer des Instituts nationaux américains de la santé (NIH) et de l'International Cancer Genome Consortium. Ils ont pu rassembler des informations génétiques sur plus de 11 000 échantillons de tumeurs. Ils les ont ensuite comparés à environ mille lignées de cellules cancéreuses en laboratoire pour déterminer celles qui avaient les mêmes types de mutations que des tumeurs. « Un grand nombre de ces lignées cellulaires contiennent les caractéristiques moléculaires qui sont importantes dans les cancers humains », note le Docteur McDermott. Les chercheurs ont pu ensuite prédire les réponses des différentes cellules tumorales aux 265 molécules anticancéreuses existantes ou en développement.
Article rédigé par Georges Simmonds pour RT Flash
WTSI
|
|
|
|
|
|
|
|
Une vaste étude réalisée par la faculté d'Harvard a montré comment le type de graisses consommées influence la mortalité. Ces travaux confirment les « bienfaits importants des graisses insaturées, surtout quand elles remplacent des graisses saturées et des acides gras trans », indique Dong Wang, un chercheur à la faculté de santé publique de Harvard, principal auteur.
Cette étude a porté sur 126 233 participants de 2 cohortes prospectives américaines (Nurse Health Study et Health, 83 349 femmes ; Professionals Follow-Up Study, 42 884 hommes) suivis pendant 32 ans. Durant la période – les participants ont répondu à un questionnaire tous les 2-4 ans sur leur alimentation, mode de vie et santé –, 33 304 décès ont été enregistrés.
L'étude analyse le lien entre la consommation des différents types de graisses et la mortalité. La consommation d'acides gras trans – résultant de procédés industriels des matières grasses végétales – avait le plus grand impact négatif sur la santé. Une augmentation de 2 % des acides gras saturés est associée à un risque accru de 16 % de la mortalité prématurée. Comparé au même nombre de calories provenant d'hydrates de carbone, 5 % de la consommation en graisses saturées en plus conduit à une hausse de la mortalité toutes causes de 8 %.
En revanche, les graisses poly- et non-insaturées étaient associées à une baisse de la mortalité, respectivement de 11 % et de 19 % comparées à un régime riche en d'hydrates avec le même niveau de calories carbone.
Parmi les graisses poly-insaturées, quel que soit le type, oméga-6 ou oméga-3, la consommation était associée à une baisse de la mortalité prématurée. Les bénéfices étaient particulièrement importants quand les participants remplaçaient les graisses saturées par des graisses insaturées, particulièrement les poly-insaturées : réduction du risque de décès prématuré, du risque de la mortalité cardio-vasculaire, des décès par cancers, par maladies neuro-dégénératives ou respiratoires. Le fait de remplacer seulement 5 % – environ 15 grammes – de leurs calories provenant de graisses saturées par des acides gras insaturés comme l'huile d'olive, est associé à une baisse de 27 % du risque de décès prématuré.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
JAMA
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|