RTFlash

RTFLASH Recherche & Technologie
NUMERO 945
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Avril 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une intelligence artificielle prédit votre risque cardiaque en examinant votre œil
Avenir
Un microrobot « tout terrain »
Un robot a réussi à opérer une tumeur presque inatteignable
Matière
Les énergies renouvelables deviennent une source non négligeable de revenus pour les agriculteurs
Quand les électrons partent en vrille…
Rendre visible la lumière infrarouge pour capter son énergie
Terre
Le niveau des mers monte plus vite que prévu…
Vivant
Une viande artificielle imprimée en 3D
Un nouveau gène impliqué dans une forme grave d'hypertension artérielle
Les nouveaux neurones d'un cerveau adulte participent à l'apprentissage sensoriel
Couper les ressources alimentaires des tumeurs
L’inflammation artérielle prédictive d’événements coronariens chez le sujet âgé
ADN : pourquoi est-il composé de vingt acides aminés ?
Homme
L'homme de Néandertal, premier peintre de l'Humanité ?
Recherche
Le camion à hydrogène accélère !
Edito
L’arrivée des éoliennes marines géantes et flottantes change la donne énergétique



Selon les derniers chiffres de l’AIE, la production énergétique mondiale - ou énergie primaire - a doublé depuis 1980, passant de 7 à 14 milliards de tep, dont 81 % sont encore issus des énergies fossiles (charbon, pétrole et gaz). Quant à la production électrique mondiale, elle représente aujourd’hui 20 % de cette production d’énergie, contre seulement 10 % en 1980. Il en résulte que cette production électrique a triplé depuis 40 ans, pour atteindre aujourd’hui plus de 22 000 TWh par an et, en dépit de la forte progression des énergies renouvelables depuis 10 ans, les deux tiers de cette production électrique restent assurés à partir des énergies fossiles, fortement émettrices de CO2, responsable du réchauffement climatique. Soulignons également qu’au moins 20 % de l’électricité produite dans le monde  (soit environ 4500 TWH par an, l’équivalent de la production électrique des Etats-Unis) sont perdus au cours de sa transformation et de sa distribution et n’arrivent pas jusqu’à l’utilisateur final…

Dans le cadre de la nécessaire transition énergétique que nous imposent à la fois l’épuisement inévitable des ressources fossiles et la lutte contre le changement climatique, notre pays s’était fixé en 2010, à l’occasion du Grenelle de l’environnement, l’objectif ambitieux d’atteindre les 6 000 MW de puissance installée - soit 500 à 600 machines de grande puissance - sous forme d’éolien marin. En 2015, la loi « de transition énergétique » avait confirmé ces objectifs et précisé qu’en 2030, 40 % de notre électricité devraient être issus des énergies renouvelables.

Pourtant, force est de constater qu’aujourd’hui le constat est très décevant dans ce domaine. Bien que la France possède le deuxième gisement d’éolien en mer d’Europe et que le premier appel d’offres concernant la réalisation de parcs offshore remonte à 2011, notre pays ne compte toujours aucune éolienne offshore en activité, alors qu’il en existe désormais plus de 4 000 installées dans dix pays européens. De manière incompréhensible, aucun parc éolien marin ne devrait être opérationnel en France avant la fin du quinquennat, en 2022.

Nos voisins européens ont, en revanche, déjà pris le large et continuent de développer à un rythme soutenu leurs capacités de production éolienne offshore. Selon le bilan annuel de la filière publié il y a quelques jours par l’association du secteur WindEurope, 2017 a été une année record pour l’éolien offshore en Europe. Les pays membres de l’UE, principalement la Grande Bretagne et l’Allemagne, ont installé l’an dernier 3,1 GW supplémentaires, soit une augmentation de 25 % en l’espace d’une année seulement. Treize nouveaux parcs éoliens offshore ont été raccordés, y compris le premier parc éolien offshore flottant au monde en Ecosse.

Comme le souligne Giles Dickson, président de WindEurope, pour expliquer cette croissance, « Investir dans l’éolien offshore aujourd’hui ne coûte pas plus cher que d’investir dans les systèmes plus conventionnels de production d’électricité ».  Au total, l’Europe compte aujourd’hui plus de 4000 éoliennes offshore dans onze pays, soit une capacité totale installée et connectée au réseau de 16 GW. Onze autres parcs éoliens offshore sont actuellement en construction, pour une puissance cumulée de 2,9 GW ; la barre des 25 GW devrait être atteinte dès 2020 et l’objectif des 100 GW de puissance installée en éolien marin est envisagé pour 2030, de quoi fournir 20 % de la consommation électrique des ménages européens à cette échéance….

La clé de voute de cette production européenne d’énergie éolienne marine pourrait être le gigantesque projet « Dogger Bank » défendu par TenneT. Ce distributeur d’électricité néerlandais propose de construire une île artificielle à 125 kilomètres au large des côtes britanniques du Yorkshire. Ce complexe, capable d’accueillir un parc éolien de 6.000 km2 deviendrait le plus grand centre de production d’électricité offshore au monde, avec une capacité de 30GW, et permettrait également d’interconnecter tous les parcs éoliens futurs de la mer du Nord.

Pendant ce temps, pour des raisons à la fois industrielles, politiques, administratives et juridiques, les six projets français de parcs éoliens sont encore dans les limbes et la récente décision, au demeurant compréhensible, compte tenu des avancées technologiques majeures, du Gouvernement de renégocier fortement à la baisse les tarifs de rachat de l’électricité qui sera produite par ces parcs éoliens en mer, est venue rajouter de l’incertitude quant à la viabilité économique de ces projets et à leurs délais de réalisation…

Heureusement, l’Agence française pour la biodiversité (AFB) a rendu, il y a quelques semaines, un avis favorable avec réserves sur le projet modifié et amélioré de parc éolien en mer Dieppe-Le Tréport dont la partie nord-est du périmètre est située dans le Parc naturel marin des estuaires picards et de la mer d’Opale. Porté par le groupe Engie et ses partenaires, réunis au sein de la société EMDT, ce projet était contesté pour son impact sur la biodiversité marine de cette zone protégée.

Dans sa décision, l’AFB souligne de manière sage et judicieuse qu’il est possible de concilier la protection des sites et de l’environnement et le développement économique et énergétique d’une région. L’Agence précise que « Le Parc naturel marin des estuaires picards et de la mer d’Opale et l’ensemble des 9 parcs naturels marins français ont vocation à rester des lieux d’expérimentation des projets du futur ». Ce projet prévoit l’installation de 62 éoliennes offshore d’une puissance unitaire de 8 MW à 17 km de Dieppe et 15,5 km du Tréport, sur une profondeur de fond marin variant de -6 mètres à -25 mètres. Avec une puissance totale de 496 MW, le parc devrait produire en moyenne 2 TWh par an, soit l’équivalent de la consommation électrique annuelle de 450 000 foyers, correspondant aux deux tiers de la population de Seine-Maritime.

Bien loin des atermoiements et incohérences sans fin de notre pays, l’Ecosse vient de mettre en service, à 25 kilomètres des côtes de l'Aberdeenshire, le premier parc éolien flottant au monde, « Hywind Scotland », qui a commencé à alimenter, en octobre dernier, le réseau électrique terrestre. Ce parc se compose de cinq éoliennes de 6 mégawatts chacune, hautes de 253 mètres pour capter des vents soufflant en moyenne à 10 mètres par seconde. Mais l’innovation tout à fait décisive de cette installation est que ces machines géantes ne sont pas fixées dans le sol, mais flottent sur la mer ! Conçu et réalisé par la compagnie pétrolière norvégienne Statoil, ce parc éolien marin est capable d'alimenter jusqu'à 20.000 foyers.

Chaque éolienne, d’une hauteur de 235 mètres et d’un poids de 12 000 tonnes, est installée sur un énorme flotteur semi-immergé de 90 mètres de long et 14 mètres de diamètre pesant 3.500 tonnes. Ce cylindre est lesté avec 5.000 tonnes de minerai de fer. Il ne repose pas sur le fond marin mais est relié par des câbles à trois systèmes d'ancrage mesurant chacun 5 mètres de diamètre pour 16 mètres de haut et un poids de 111 tonnes. Ces ancres sont enfoncées dans le sol par succion. Un logiciel gère la flottaison de l'éolienne en jouant sur l'orientation des pales pour assurer un maximum de stabilité. Le parc éolien Hywind Scotland déployé par Statoil s’étend sur une surface d’environ 4 km2 dans des profondeurs variant entre 95 et 129 mètres. Mais ce système très sophistiqué d’arrimage a été conçu de manière à pouvoir installer des éoliennes marines en haute mer, jusqu’à 800 mètres de profondeur.

On comprend immédiatement qu’une telle rupture technologique ouvre des perspectives très prometteuses pour le déploiement de champs éoliens marins, car il élargit considérablement le périmètre d'exploitation et permet d’installer en toute sécurité des machines immenses (plus de 300 mètres de haut), qui peuvent tirer le meilleur parti de vents plus forts et plus réguliers. En outre, cet éolien marin en haute mer supprime le problème lié à l’impact visuel de ces gigantesques machines et réduit très sensiblement les risques de conflits d’usage avec les pêcheurs et les plaisanciers. Selon Statoil, les trois quarts des ressources éoliennes marines seraient en eaux profondes et le recours à des machines moins nombreuses mais plus puissantes et bénéficiant d’un meilleur rendement permettrait de réduire, d’ici à 2030, le coût du kWh produit à moins de 50 euros le MW, le rendant ainsi compétitif par rapport au nucléaire, surtout si l’on intègre le coût considérable du démantèlement des centrales et du stockage des déchets ultimes.

C’est dans ce contexte que GE Renewable Energy, la division énergies renouvelables du géant américain General Electric, a annoncé, il y a quelques jours, la construction de la plus grande et plus puissante éolienne offshore jamais créée : Haliade X. Avec un générateur à entraînement direct de 12 mégawatts (MW), elle devrait pouvoir produire 45 % d'énergie supplémentaire par rapport aux turbines actuellement sur le marché. Culminant à 260 mètres de hauteur, cette turbine géante sera composée d'un rotor de 220 mètres, lui-même équipé de pâles de 107 mètres de long, et disposera d'une envergure de 17.000 m2 (Voir GE).

La technologie utilisée pour le rotor de ces géantes est à entraînement direct de type D, c’est-à-dire sans boîte de vitesse, ce qui facilite la maintenance et en réduit le coût. Par ailleurs, toute son exploitation sera numérisée, ce qui permettra d'optimiser son fonctionnement et ses capacités de production. Ces caractéristiques qui la rendent moins sensible aux variations de vitesse du vent devraient lui conférer un facteur de charge accru de 63 %, supérieur de 10 % à celui des machines actuellement disponibles sur le marché. Au total, une Haliade-X 12MW devrait pouvoir produire 67 millions de kWh d’électricité par an, soit assez d’énergie pour répondre aux besoins totaux de 15 000 foyers européens…

Mais malheureusement, alors que la production de l'Haliade-X sera essentiellement assurée en France, nous ne sommes pas prêts de voir ce géant des mers au large de nos côtes puisque, nous l’avons vu, aucun parc éolien ne devrait être en activité dans nos eaux territoriales avant 2022. Pourtant, malgré ce désolant retard français en matière d’éolien marin, certains visionnaires ont compris que l’immense avenir de l’énergie éolienne se jouerait sur les mers, à condition de relever simultanément trois défis : concevoir des machines beaucoup plus puissantes pour réduire le coût de production de l’électricité, imaginer des solutions techniques audacieuses qui permettent l’installation de ces machines en haute mer, loin des côtes, et enfin développer de nouvelles technologies de stockage (comme le Power-to-Gas) et de transport de l’énergie, (comme l’utilisation de câbles supraconducteurs ou de réseaux à grande échelle à courant continu)  pour mettre en phase l’offre et la demande et limiter les pertes considérables entres sites de production et lieux de consommation.

Parmi ceux qui ont compris que l’avenir de l’énergie et de l’éolien se jouerait sur les mers, on trouve la jeune entreprise Eolink, fondé en 2015 à Brest par Marc Guyot, qui travaille sur un projet d'éolienne flottante à quatre mâts, permettant une meilleure stabilité grâce à une répartition des contraintes. Un prototype au 1/10e, haut de 22 mètres, va être testé en mer au printemps.

En taille réelle, cette éolienne flottante géante, soutenue activement par l’Ifremer, aura une puissance de 12 mégawatts, équivalente à celle de l’Haliade X, non flottante, et deux fois plus élevée que les machines flottantes récemment installées en Ecosse par Statoil, sur le site d'Hywind. Selon Eolink, les premières éoliennes flottantes géantes pourraient être commercialisées en 2021, pour un coût unitaire qui sera de l'ordre de 20 millions d'euros, soit 50 % de moins que les éoliennes écossaises d’Hywind…

Sachant que seize de ces monstres des mers suffisent à produire, en moyenne annuelle, 1 TWh d’électricité, on estime, si l’on tient compte des inévitables pertes liées au transport et à la distribution, que 800 de ces éoliennes géantes flottantes pourraient fournir, à elles seules, le quart des besoins en électricité (soit environ 41 TWH) des foyers français à l’horizon 2030, et 1000 de ces machines de nouvelle génération pourraient produire, à l’horizon 2040, plus de 10 % de l’électricité consommée dans notre pays, c’est-à-dire l’équivalent de toute la production hydroélectrique annuelle moyenne de la France.

Au niveau mondial, si l’on prend comme référence une moyenne des différentes prévisions de l’AIE, environ 35 000 TWH par an de consommation électrique à l’horizon 2040, on peut calculer qu’il suffirait d’environ 70 000 éoliennes marines géantes de 12 mégawatts pour produire (en tenant compte des pertes liées à la distribution) 10 % de l’électricité qui sera consommée dans le monde à cette échéance, c’est-à-dire une part équivalente (mais plus importante en valeur absolue, compte tenu de l’augmentation de la consommation électrique mondiale) à celle assurée aujourd’hui par l’énergie nucléaire au niveau mondial.

Quant à l’empreinte carbone de la filière éolienne, l’ADEME l’estime, en considérant l’ensemble du cycle de vie, à moins de 15g CO2eq/kWh, contre 55g CO2eq/kWh pour la filière photovoltaïque, 418 gCO2eq/kWh pour le gaz, 730 gCO2eq/kWh pour le fioul et 1060 gCO2eq/kWh pour le charbon. L’éolien est donc, de très loin, le mode de production d’énergie le moins émetteur de CO2 : il émet notamment 66 fois moins de CO2 que le charbon pour produire un kWh d’électricité…

Or, on le sait, le charbon continue encore aujourd’hui à assurer 40 % de la production électrique mondiale, c’est-à-dire 8 800 TWh par an. Si d’ici 2040, on parvenait à faire passer de 40 à 30% la part du charbon dans la production électrique mondiale, objectif réaliste, et à monter à 10 % la part total de l’éolien (marin et terrestre) dans cette production, on pourrait réduire de 8,5 gigatonnes (sur la base d’une estimation volontairement très prudente) les émissions de CO2 liées à la production d’électricité. Pour mieux se rendre compte de l’ampleur d’une telle réduction, elle correspond à plus de 20 % des émissions mondiales de CO2, ou encore à plus de 80 % des émissions actuelles de la Chine, premier émetteur mondial de carbone.

On le voit, le développement de l’éolien marin de nouvelle génération (flottant et de très grande puissance) est donc susceptible d’apporter une contribution tout à fait décisive, si nous voulons parvenir à réduire de moitié - soit environ 18 gigatonnes par an - nos émissions humaines annuelles de carbone d’ici le milieu du siècle, et parvenir ainsi à limiter les effets dévastateurs du changement climatique en cours.

Dans une telle perspective, il faut absolument que notre pays, avec ses quatre façades maritimes, ses 3 430 km de côtes et son immense domaine maritime de 11 millions de km2, se donne les moyens de devenir leader mondial dans cette rupture technologique, industrielle et économique majeure que représente l’éolien marin de nouvelle génération. Espérons que nos dirigeants sauront faire preuve d’une volonté politique sans faille et regarder vers le grand large pour relever ce grand défi de société.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Une intelligence artificielle prédit votre risque cardiaque en examinant votre œil
Mercredi, 18/04/2018 - 01:40

Une étude américaine a montré que l'intelligence artificielle est capable, à partir d'une image d'un fond de l'œil, de déterminer le risque d'avoir un problème cardiovasculaire dans les 5 ans. En analysant la photo, le logiciel devine un certain nombre d'informations : l'âge de la personne, son sexe, si elle fume, ou sa pression artérielle et ce avec un taux d'erreur assez bas, 3 ans par exemple pour l'âge.

Ces Informations lui permettent ensuite d'avancer une prédiction de risque de maladies cardiovasculaires. Et les résultats sont assez impressionnants puisque son taux de détection est légèrement en dessous (deux pourcents de moins) que celui réalisé avec l'outil de référence du monde médical SCORE, système qui, lui, oblige le patient à faire une prise de sang.

Cette intelligence artificielle est basée sur le deep learning, l'apprentissage profond, une technique qui consiste à "nourrir" le logiciel de nombreuses données pour qu'il fasse lui-même les corrélations. Pour cette étude, près de 285 000 images de rétine de patient ont été utilisées, associées à leurs données médicales. C'est le logiciel qui a trouvé seul sa méthode d'analyse.

Ce qui est d'autant plus intéressant c'est que les chercheurs ont regardé ensuite quels critères, quelles parties de l'œil le logiciel avait utilisé parce que comme il a travaillé tout seul, ils ne savaient pas. Ils ont pu voir, par exemple, que pour déterminer l'âge ou le tabagisme, le programme analysait les vaisseaux de l'œil ou la papille optique pour savoir s'il s'agissait d'un homme ou d'une femme. Des informations qui permettent de donner de nouvelles pistes de recherches au monde de la médecine qui n'avait pas forcément fait ce genre de corrélation.

Ce n'est pas la première fois qu'une intelligence artificielle est utilisée pour analyser des images médicales et ce sera loin d'être la dernière. Les radiologues seront certainement les prochaines victimes de l'intelligence artificielle. Capable de comparer des milliers de clichés en quelques secondes, le logiciel pourrait très vite être plus performant pour déceler certaines pathologies que l'œil humain, notamment pour la détection précoce de cancer du sein ou de la vessie.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Avenir
Nanotechnologies et Robotique
Un microrobot « tout terrain »
Jeudi, 19/04/2018 - 01:30

Des chercheurs de la Purdue University's School of Mechanical Engineering et de la Lawrence Technological University ont conçu et testé avec succès un étonnant microrobot "tout terrain". Ce minuscule engin, baptisé μTUM, est capable de franchir des bosses et des fossés, dans des milieux secs, humides ou visqueux, tels l'eau, l'huile de silicone, le miel... Il peut également escalader une pente inclinée de 60°, sèche ou humide.

μTUM se déplace en culbutant sur lui-même grâce à un champ magnétique. L'objet en polymère, façonné par photolithographie - un procédé couramment employé dans la production des semi-conducteurs -, prend la forme d'un rectangle plat, dont les deux bouts plus épais sont aimantés, tandis que la zone du milieu est non magnétisée.

Le microrobot mesure 400 × 800 μm, soit 0,4 sur 0,8 mm, ce qui le rend plus petit qu'une tête d'épingle. Il peut rouler sur son côté le plus long, ou sur son côté le plus court, selon l'alignement des particules magnétiques incrustées à ses extrémités. Il peut atteindre une vitesse de 48 mm/s en milieu sec, ce qui équivaut à une distance égale à 60 fois sa taille par seconde ! Dans les milieux humides, μTUM peut atteindre une vitesse de 13,6 mm/s, soit 17 fois sa taille.

Les champs d'applications potentielles d'un tel robot sont considérables. μTUM pourrait par exemple être utilisé en médecine pour explorer tissus et organes mais il intéresse également l'industrie et la défense, en raison de sa taille minuscule et de ses capacités de déplacement au sein d'environnements très variés.

Article rédigé par Georges Simmonds pour RT Flash

MDPI

Un robot a réussi à opérer une tumeur presque inatteignable
Mardi, 17/04/2018 - 01:20

Grâce au robot Da Vinci Xi, des chirurgiens de l'hôpital Gustave Roussy de Villejuif ont annoncé, pour la première fois en Europe, qu'ils avaient réussi à enlever une tumeur située dans le rhinopharynx d'un homme de 28 ans. Grâce au robot, le chirurgien a pu intervenir par la bouche du patient tout en réalisant une endoscopie par le nez ce qui a permis l'ablation de la tumeur. L'opération a donc été peu invasive alors même que sans le robot l'opération n'aurait pas eu lieu ou aurait été traumatisante.

"En introduisant par la bouche les instruments du robot Da Vinci Xi qui possède des angles d’attaque différents des instruments d’endoscopie classique, nous avons pu retirer cette tumeur qui était située près du voile du palais sans que le patient n’ait de séquelles fonctionnelles importantes", explique le Docteur Antoine Moya-Plana, chirurgien ORL à Gustave Roussy, dans un communiqué. Et "le robot permet également de mieux voir dans la zone opératoire avec la caméra 3D", ajoute-t-il.

Le Da Vinci Xi est un robot chirurgical de quatrième génération développé par la société américaine Intuitive Surgica et commercialisé depuis l'été 2014. L'hôpital Gustave Roussy a été le premier à s'en procurer un en France en 2016. Et d'autres hôpitaux ont rapidement suivi. Mais son coût élevé d'environ 2 millions d'euros auquel il faut ajouter 150 000 euros annuels de maintenance peut freiner un tel achat.

Les quatre bras du robot permettent d'avoir une vision 3D tout en faisant des interventions à l'aide des trois autres bras auxquels sont fixées des pinces articulées miniaturisées permettant de manipuler les différents instruments. Ces pinces reproduisent très précisément les mouvements du chirurgien qui est placé derrière une console de contrôle réglable et donne les instructions à l'aide d'un joystick et de pédales. Ces bras robotisés peuvent être tournés et pliés bien au-delà de ce que peut faire une main humaine, le robot dispose donc d'une précision accrue et d'angles que ne pourrait pas avoir un humain.

Le Da Vinci Xi est utilisé dans de nombreuses spécialités, que ce soit la digestion, la gynécologie, l'urologie, l'ORL ou les chirurgies cardiaque et thoracique. Il permet de réduire les séquelles lors des chirurgies et de diminuer la durée de l'hospitalisation et des douleurs post-opératoires. Autre avantage, ce robot Da Vinci Xi contribue à réduire les risques d'infection, les probabilités de transfusion sanguine et d'avoir un temps de rétablissement beaucoup plus court, précise l'hôpital Gustave Roussy. En l'occurrence, le Da Vinci Xi leur a permis de réaliser l'ablation d'une tumeur placée dans un endroit quasi-inaccessible.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Nouvelle

^ Haut
Matière
Matière et Energie
Les énergies renouvelables deviennent une source non négligeable de revenus pour les agriculteurs
Jeudi, 19/04/2018 - 01:00

Selon une récente étude de l'Ademe, le secteur agricole a produit 20 % des énergies renouvelables, au niveau national, en 2015, à travers plus de 50.000 exploitations. Avec 4,5 millions de tonnes équivalent pétrole (Mtep) produites, "l'agriculture produit aujourd'hui autant d'énergies renouvelables qu'elle consomme d'énergies conventionnelles", souligne ce rapport.

Cette contribution prend plusieurs formes, explique l'étude : autoconsommation de chaleur et d'électricité pour réduire la facture énergétique de l'exploitation, production et vente de biomasse pour la production d'EnR, vente d'électricité ou de gaz directement sur les réseaux, ou encore mise à disposition de surfaces pour les installations de panneaux solaires ou d'éoliennes.

L'étude précise que ce sont les grandes cultures qui sont les plus contributrices via les biocarburants et l'installation d'éoliennes. Logiquement, ce sont donc les régions où ces filières sont les mieux représentées qui arrivent en tête de la production : Grand Est, Hauts-de-France et Centre-Val de-Loire.

En termes de revenus, la contribution du secteur agricole à la production d'EnR représentait un chiffre d'affaires de 1,4 milliard d'euros (Md€) en 2015, soit l'équivalent de 2 % du chiffre d'affaires de l'agriculture française.

Ces revenus sont portés principalement par les agrocarburants (1 Mds€), suivis du photovoltaïque (105 M€), de la méthanisation (88 M€), de la biomasse chaleur (85 M€) et, enfin, de l'installation d'éoliennes (34 M€). "A ce chiffre d'affaires s'ajoutent 112 millions d'euros d'économies sur la facture énergétique des exploitations par l'autoconsommation de biomasse, la mise en place d'installations de solaire thermique et de pompes à chaleur", précise l'étude.

L'Ademe souligne que ces EnR permettent aux agriculteurs de diversifier leurs revenus pour des montants allant de quelques milliers d'euros de réduction de leur facture énergétique à plus de 15.000 euros de revenus supplémentaires par an, souligne l'étude. Des chiffres, ajoute-t-elle, qui sont à mettre en perspective avec le revenu agricole moyen, évalué à 25.400 euros par an en 2015.

Ces revenus, même s'ils restent encore modestes et proviennent essentiellement des grandes cultures à travers les agrocarburants, sont appelés à croître. L'étude estime que la production d'EnR pourrait être multipliée par deux (9 Mtep) à l'horizon 2030 et par trois en 2050 (15,8 Mtep).

Cette évolution quantitative s'accompagnerait d'une évolution du mix énergétique : "selon les hypothèses prises pour cette prospective, l'éolien et le biogaz deviendraient les premières énergies renouvelables issues du secteur agricole", révèle l'Ademe. La baisse des agrocarburants agricoles devrait notamment résulter du développement des biocarburants de deuxième génération qui utilisent davantage de biomasse forestière et de déchets.

Article rédigé par Georges Simmonds pour RT Flash

Ademe

Quand les électrons partent en vrille…
Mercredi, 18/04/2018 - 01:10

Comme nos mains, certaines molécules ne sont pas superposables à leur image miroir. Identifier ces molécules droites ou gauches, qu’on dit « chirales », est une étape cruciale de nombreuses applications en chimie et en pharmaceutique.

Une équipe de recherche internationale (INRS/ MBI/CNRS/CEA/Université de Bordeaux) a conçu une nouvelle méthode très originale pour y parvenir. Les chercheurs font bouger les électrons des molécules dans une direction à l’aide d’impulsions laser ultracourtes, ce qui révèle cette caractéristique moléculaire.

Les gauchers le savent : de nombreux objets sont conçus pour être manipulés avec la main droite et ne conviennent pas à la main gauche. Pour les molécules, ce type de phénomène se produit également: certaines réactions biochimiques sont spécifiques à une seule des deux versions d’une molécule, appelée «énantiomère». En conséquence, certains médicaments doivent leur efficacité uniquement à un de leur énantiomère, l’autre pouvant même être toxique dans certains cas.

Mais, comme le savent tous les chimistes, il est très difficile de reconnaître les énantiomères dont les différences intrinsèques sont aussi subtiles que celles existant entre une personne et son reflet dans le miroir. On parvient à les distinguer uniquement lorsqu’elles interagissent avec un autre objet chiral, comme un gant permet d’identifier si la main qui s’y glisse est droite ou gauche.

On connaît la chiralité moléculaire depuis les travaux de Pasteur, au 19e siècle, sur des cristaux chiraux. L’exemple le plus célèbre est probablement l’ADN, dont la structure ressemble à un tire-bouchon tournant vers la droite. De nombreuses autres molécules présentes dans le monde vivant sont également chirales. Habituellement, on détermine la chiralité en utilisant de la lumière « circulaire » dont le champ électromagnétique tourne dans le sens horaire ou antihoraire en formant des spirales gauches ou droites. Cette lumière chirale est absorbée différemment par les énantiomères d’une molécule. La différence est cependant très ténue, car la longueur d’onde de la lumière dépasse largement la taille des molécules ; la spirale de la lumière est trop grande pour que la molécule « perçoive » le sens de sa rotation efficacement.

Il en va autrement avec la nouvelle méthode présentée par l’équipe constituée de chercheurs du Centre lasers intenses et applications (CELIA, CNRS/Université de Bordeaux/CEA), en collaboration avec le Max Born Institute, le synchrotron SOLEIL, le Laboratoire interactions, dynamiques et lasers (LIDYL, CNRS/CEA)et l’INRS. Cette dernière amplifie grandement le signal chiral. « Pour y arriver, des impulsions laser ultra-brèves et polarisées circulairement sont envoyées sur des molécules chirales » explique Samuel Beaulieu, doctorant en sciences de l’énergie et des matériaux à l’INRS et premier auteur de l’article.

Les impulsions laser utilisées durent seulement quelques millionièmes de milliardièmes de seconde et transfèrent leur énergie aux électrons des molécules. Les électrons ainsi excités décrivent un mouvement circulaire dans le sens de la lumière excitatrice, tout en restant liés à la molécule. La molécule transforme alors ce mouvement circulaire en une spirale vers l’avant ou vers l’arrière, selon sa chiralité, comme un écrou sur un boulon. Ayant une taille similaire à celle de la molécule, la spirale électronique permet d’en sonder les propriétés géométriques telles que la chiralité.

À son tour, la spirale peut être détectée à l’aide d’une seconde impulsion laser suffisamment courte pour capter la direction dans laquelle l’électron part en vrille. Selon qu’ils bougent suivant le sens horaire ou antihoraire, les électrons seront éjectés dans la direction de propagation du faisceau laser ou en sens opposé.

Les chercheurs ont nommé cette nouvelle méthode le dichroïsme circulaire de photoexcitation. Elle permet d’initier et de suivre dans le temps les dynamiques ultrarapides dans les molécules chirales. En plus de son intérêt fondamental, cette technique à la frontière du domaine de la « physique moléculaire aux temps ultra-courts » pourrait être extrêmement utile dans des domaines tels que la chimie, la biochimie, la catalyse ou la pharmaceutique pour lesquelles la chiralité est un enjeu central.

Article rédigé par Georges Simmonds pour RT Flash

CEA

Rendre visible la lumière infrarouge pour capter son énergie
Mardi, 17/04/2018 - 01:30

La lumière visible pour l’œil humain se situe entre l’ultraviolet (haute énergie) et l’infrarouge (basse énergie). C’est dans cette fenêtre que les cellules solaires captent la lumière pour produire de l’énergie. Or, près de 50 % du rayonnement solaire se situe dans la zone de basse énergie qu’est l’infrarouge proche et lointain, souligne des chercheurs de l'Université de Genève (UNIGE).

Les chimistes de l’UNIGE, en collaboration avec le Centre de biophysique moléculaire du CNRS d’Orléans, se sont demandé s’il serait possible de combiner des molécules de terres rares afin de promouvoir les photons de la zone infrarouge vers la lumière visible et de les rendre utilisables par les cellules solaires.

Quinze éléments du tableau périodique sont qualifiés de terres rares, non pas parce qu’ils sont difficiles à trouver sur le globe, mais parce qu’ils possèdent des caractéristiques propres aux niveaux chimique, magnétique et optique. Ils sont utilisés dans la grande majorité des objets de notre quotidien : aimants, lampes, batteries, catalyseurs, entre autres.

Pour créer une chaîne moléculaire de terres rares, dite polymérique, il faut sélectionner deux terres rares, l’ytterbium et l’erbium, et les alterner dans les petits récepteurs moléculaires qui constituent la chaîne, afin de permettre le transfert de l’énergie. Mais les molécules d’ytterbium comme celles d’erbium ont tendance à se regrouper aux mêmes endroits de la chaîne, empêchant l’alternance.

"Il fallait trouver un moyen pour que lorsqu’une molécule de terre rare remplit un récepteur, elle rejette ensuite les molécules semblables des récepteurs voisins", explique Claude Piguet, professeur au Département de chimie minérale et analytique de l’UNIGE, cité dans le communiqué.

Les chimistes de l’UNIGE ont donc manipulé directement les molécules de terres rares à l’aide de groupes d’atomes qui déstabilisent la symétrie de ces éléments. "En détruisant le centre de symétrie de la molécule, nous avons changé ses propriétés et construit son caractère asocial qui la pousse à rejeter toute molécule qui voudrait s’installer dans le récepteur voisin", précise Claude Piguet.

"Pour le moment, nous ne pouvons pas encore alterner un ytterbium et un erbium, mais nous pouvons faire en sorte que lorsqu’un ytterbium prend place, aucune autre terre rare ne vienne s’installer à sa gauche ou à sa droite, grâce au principe de coopérativité qui lui fait rejeter tout voisin possible", ajoute le spécialiste.

Les chimistes de l’UNIGE sont donc à la première étape de l’organisation de la chaîne polymérique qui, à terme, devrait permettre de rendre l’énergie infrarouge visible, une fois les vides comblés par les molécules d’erbium.

"Il y a 15 ans, il semblait impossible de pouvoir manipuler et empiler les photons en utilisant des molécules de terres rares. Aujourd’hui, nous pouvons les organiser et les trier comme nous le souhaitons. C’est une immense avancée vers l’usage de la lumière infrarouge dans de nouveaux outils que nous pourrons reproduire à volonté et utiliser dans notre quotidien", conclut Claude Piguet.

Article rédigé par Georges Simmonds pour RT Flash

UNIGE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le niveau des mers monte plus vite que prévu…
Mercredi, 18/04/2018 - 01:30

Selon une étude publiée dans les annales de l'Académie des Sciences Américaines, la hausse annuelle du niveau des océans pourrait plus que doubler d'ici la fin du siècle.

Le rythme d'élévation du niveau de la mer est actuellement évalué entre trois et quatre millimètres par an. Mais il pourrait atteindre dix millimètres chaque année selon ces recherches, et encore, les scientifiques du PNAS précisent qu'il s'agit là d'une "estimation prudente".

Par ailleurs, la fonte accélérée du Groenland et de l'Antarctique pourrait contribuer aussi à une hausse du niveau de la mer d'au minimum 60 centimètres de plus, menaçant les villes côtières de la planète. Elle pourrait mettre en danger les réserves d'eau potable par l'intrusion d'eau salée dans les aquifères selon Steve Nerem de l'Université du Colorado.

Le changement climatique entraîne la montée des océans via deux phénomènes : la fonte rapide des glaces dans les pôles et les concentrations accrues de gaz à effet de serre dans l'atmosphère. Ce dernier phénomène réchauffe la température de l'eau. Or l'eau chaude -moins dense que l'eau froide- prend plus de place. Ce mécanisme est déjà responsable de la moitié des sept centimètres de hausse constatés au cours de 25 dernières années, selon le professeur Nerem.

Les résultats de ces travaux basés sur des données d'observation collectées par satellite depuis 25 ans sont en accord avec les projections du rapport AR5 du GIEC, le groupe d'experts sur le climat de l'ONU, publié en 2014, à partir de projections par ordinateur. L'étude ne prend pas en compte d'autres facteurs, tels que le phénomène El Niño qui augmente la température de l'eau et les précipitations, ou une éruption volcanique comme celle du Pinatubo en 1991 qui, à l'inverse, la refroidit.

La dernière fois que la terre a été aussi chaude qu'elle l'est actuellement, il y a environ 125 000 ans, le niveau de la mer était de 6 mètres plus élevé qu'aujourd'hui, ajoute le scientifique. "La question est de savoir dans combien de temps nous y parviendrons." 

Article rédigé par Georges Simmonds pour RT Flash

PNAS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une viande artificielle imprimée en 3D
Jeudi, 19/04/2018 - 01:20

La fabrication additive ne révolutionne pas seulement l'industrie et la construction ; elle  pourrait également contribuer à nourrir les dix milliards d'humains qui vivront sur Terre en 2050.

La technologie de bioimpression mise au point par une jeune pousse américaine du New Jersey, Modern Meadow, vise en effet à proposer des aliments carnés non issus d’un animal vivant. Elle s’appuie sur la technologie de la société Organovo, spécialisée dans la production de tissus organiques de synthèse.

L’imprimante biologique à la base du processus est la NovoGen MMX Bioprinter. Le procédé s’appuie sur des encres biologiques (bio-ink), comprenant des cellules musculaires, des adipocytes pour le stockage de la graisse et des fibroblastes, une cellule de soutien qui assure la cohérence du muscle imprimé.

Pour imprimer des lambeaux de viande, il suffit d’effectuer une biopsie sur un animal pour récupérer quelques cellules. Elles sont ensuite cultivées pour devenir des cellules souches et servir « d’encre » pour l’imprimante. Un substrat à base d’agarose, un polymère de galactose purifié, issu d’une algue rouge et  particulièrement utilisé pour la culture in vitro de micro-organisme, est utilisé en tant que base pour guider le développement des cellules souches.

Selon Gabord Forgacs, fondateur de Modern Meadow, le procédé est identique à celui conçu par Organovo, dont il est également co-fondateur, pour la création d’organes humains transplantables. « Le procédé permet de produire une viande sans porter atteinte aux animaux, en économisant les ressources nécessaires à leur élevage et sécurise le consommateur par rapport à certaines maladies, comme la maladie de Creutzfeldt-Jacob », souligne Gabord Forgacs.

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

Un nouveau gène impliqué dans une forme grave d'hypertension artérielle
Jeudi, 19/04/2018 - 01:10

Une équipe de recherche franco-allemande, associant notamment l'Inserm et l'Université Paris-Descartes, a découvert un nouveau gène impliqué dans une forme d'hypertension souvent grave (les patients ont plus de risques de développer infarctus du myocarde ou AVC) et résistante aux traitements habituels : l'hyperaldostéronisme primaire.

L'hyperaldostéronisme primaire concerne environ 10 % des cas d'hypertension artérielle et est dû au dysfonctionnement de la glande surrénale (située juste au-dessus du rein) qui produit en excès l'aldostérone, une hormone qui régule la pression artérielle. Afin de mieux comprendre les causes de cette maladie, Maria-Christina Zennaro et ses collègues ont analysé les exomes (la part du génome codant pour les protéines) de patients atteints d'hyperaldostéronisme primaire avant l'âge de 25 ans.

Cette approche a permis d'identifier une mutation dans un gène jusqu'à alors inconnu, CLCN2. Ce gène code pour un canal chlorure (impliqué dans l'entrée et la sortie d'ions chlorures Cl- dans la cellule), dont la présence et les effets dans la glande surrénale étaient alors inconnus. "Nous connaissions jusqu'à présent 7 gènes pour l'hyperaldostéronisme primaire (2 supplémentaires dans des formes particulières mais moins fréquentes de la maladie)", précise Maria-Christina Zennaro.

Les chercheurs ont étudié les mécanismes par lesquels cette mutation pouvait induire une production autonome d'aldostérone et déclencher une hypertension artérielle. Ils ont découvert que la mutation entraîne une ouverture permanente du canal chlorure dans la zone des surrénales produisant l'aldostérone.

Par des expériences d'électrophysiologie et de biologie cellulaire, ils ont découvert que l'influx de chlorure à travers le canal muté aboutit à une augmentation des flux de chlorure. Les cellules de la glande surrénale produisent alors plus d'aldostérone en présence du canal muté et expriment davantage les enzymes impliqués dans sa biosynthèse.

Non seulement cette découverte révèle un rôle jusqu'alors inconnu d'un canal chlorure dans la production d'aldostérone mais elle ouvre des perspectives tout à fait nouvelles dans la prise en charge de l'hypertension artérielle.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Les nouveaux neurones d'un cerveau adulte participent à l'apprentissage sensoriel
Mercredi, 18/04/2018 - 01:00

Même si la plupart des neurones sont générés au cours du développement embryonnaire, certaines régions du cerveau des mammifères ont la capacité, à l’âge adulte, de renouveler continuellement leurs neurones. Si l’existence de ces néo-neurones adultes est désormais établie, de nombreuses questions sur la fonction et la manière dont ils s’intègrent dans leur territoire cible demeurent toujours sans réponse.

Pour mieux comprendre ce processus, l’équipe Perception et Mémoire (Institut Pasteur/CNRS), dirigée par Pierre-Marie Lledo, directeur de recherche CNRS, a étudié le rôle particulier de ces neurones produits tardivement dans le cerveau adulte.

Cette étude démontre ainsi que l’attribution de valeurs plaisantes aux expériences sensorielles repose étroitement sur l’activité des neurones produits chez l’adulte et non ceux formés peu après la naissance. C’est grâce à l’activité de ces premiers qu’un sujet pourrait anticiper l’arrivée d’une récompense.

Pour cela, les chercheurs se sont intéressés à la production de nouveaux neurones chez des souris adultes, et plus particulièrement ceux qui s’intègrent dans la région du cerveau responsable de l’analyse des odeurs, le bulbe olfactif. Ces néo-neurones sont considérés comme des acteurs majeurs de flexibilité pour l’apprentissage et la mémoire des expériences sensorielles olfactives.

Les scientifiques ont remarqué que les néo-neurones étaient capables de réagir différemment à une odeur en fonction des conséquences associées à cette expérience sensorielle, comme l’obtention ou non d’une récompense. Ils ont également montré qu’un apprentissage olfactif, durant lequel les souris devaient associer une odeur avec un renforcement positif, était facilité dès lors que les néo-neurones étaient activés. Finalement, la simple activation de ces neurones générés chez l’adulte pouvait être assimilée à une odeur prédictive d’une récompense.

En conclusion, c’est à travers la valeur attribuée aux sensations, et non à la simple identification de la nature de cette sensation, qu’il faut appréhender la fonction des neurones produits tardivement dans le cerveau adulte. Ce travail démontre que l’apprentissage motivé par l’obtention d’une récompense dépend étroitement de la neurogenèse du cerveau adulte.

Transposés à l’humain, ces résultats pourraient permettre de mieux appréhender le rôle joué par les néo-neurones de l’hippocampe adulte dans les processus d’apprentissage associatif.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Couper les ressources alimentaires des tumeurs
Mardi, 17/04/2018 - 01:40

Pour qu’une tumeur devienne dangereuse et puisse se disséminer, elle doit grandir et être capable de développer des vaisseaux sanguins lui permettant de s’approvisionner en nutriments et en oxygène. Couper cet approvisionnement en empêchant la tumeur de se vasculariser constitue donc une stratégie de lutte intéressante, explorée depuis une dizaine d’années.

Les cellules endothéliales forment la couche interne des vaisseaux sanguins – l’endothélium – et ont la fonction de contenir le sang à l’intérieur des vaisseaux tout en permettant le passage des substances nutritives aux tissus. Quand un nouveau vaisseau est nécessaire, ce sont les cellules endothéliales qui dirigent le processus en autorisant le recrutement des cellules sanguines indispensables à la néovascularisation, aussi appelée angiogenèse.

Les monocytes, quant à eux, font partie des globules blancs circulant dans le sang. Éléments clés du système immunitaire, ils ont aussi la capacité de se transformer en plusieurs types de cellules une fois passée la barrière endothéliale, afin de remplir différentes fonctions selon le tissu concerné.

Une sous-population particulière de monocytes a ainsi des propriétés angiogéniques et permet justement la vascularisation des tissus. En cas de cancer, la tumeur doit donc recruter ces monocytes pour se vasculariser. Mais comment ce processus se déroule-t-il ? « Notre laboratoire est spécialisé dans le déchiffrage des mécanismes moléculaires impliqués dans le recrutement des globules blancs », explique le Docteur Adama Sidibé, chercheur à la Faculté de médecine de l’UNIGE et premier auteur de ces travaux. « Nous nous sommes donc intéressés de près à ces mécanismes de recrutement dans le but d’en identifier les failles ».

L’un des premiers traitements de ce type, mis au point dès 2004, vise précisément à ralentir la croissance de nouveaux vaisseaux sanguins et empêcher la néovascularisation des tumeurs. Il s’agit d’un inhibiteur du facteur de croissance de l’endothélium vasculaire, une cytokine appelée VEGF. Si ce médicament fait aujourd’hui encore partie de l’arsenal pharmaceutique contre le cancer, il a de nombreux effets secondaires indésirables, comme l’hypertension ou l’insuffisance rénale, et perd rapidement de son efficacité.

D’autres stratégies visant globalement les monocytes ont ensuite vu le jour avec une efficacité limitée. « Il était alors essentiel de connaître en détail les mécanismes de recrutement de la sous-population monocytaire en charge de la néovascularisation : cela devrait permettre d’empêcher leur recrutement, sans pour autant perturber le reste du système », souligne Beat Imhof, professeur à la Faculté de médecine de l’UNIGE, qui a dirigé ces travaux.

Dans un premier temps, les chercheurs genevois ont observé les processus de vascularisation de cellules tumorales humaines issues de différentes lignées cellulaires. En effet, toutes les tumeurs n’ont pas la même agressivité, ni la même capacité angiogénique ; il s’agissait donc d’observer si le recrutement de ces cellules se déroulait différemment, selon le type de cellules malignes impliqué. Et effectivement, les scientifiques ont constaté une différence dans leur capacité à recruter les monocytes pro-angiogéniques. Ces travaux ont notamment montré que la capacité des tumeurs à recruter les monocytes angiogéniques est due à la capacité des tumeurs elles-mêmes à produire des cytokines.

Troisième étape : les chercheurs ont testé, dans un modèle in vitro de recrutement cellulaire, l’une après l’autre la dizaine de cytokines identifiées dans cette étude. Les cytokines TNF-alpha et VEGF se sont révélées particulièrement efficaces : TNF-alpha permet l’adhésion aux cellules endothéliales, alors que VEGF donne l’autorisation de traverser la paroi endothéliale. Or, les deux sont essentielles à l’angiogenèse.

L’effet combiné de TNF-alpha et de VEGF permet donc le recrutement efficace des monocytes pro-angiogéniques essentiels à une vascularisation des tumeurs. "Notre étude montre qu’il faut viser les bonnes cytokines au bon moment, et surtout qu’il faut utiliser les mécanismes que nous avons découverts pour définir de nouvelles lignes de traitements contre le cancer". 

Article rédigé par Georges Simmonds pour RT Flash

UNIGE

L’inflammation artérielle prédictive d’événements coronariens chez le sujet âgé
Mardi, 17/04/2018 - 01:10

On sait que l’inflammation artérielle est un facteur important qui favorise le risque d'athérosclérose. Elle est déclenchée par le dépôt du LDL-cholestérol sous sa forme oxydée au niveau des lésions endothéliales, avant d’intégrer l’intima. C’est ainsi que débutent les plaques d’athérome, mais l’inflammation va, par la suite, être retrouvée à tous les stades de l’athérosclérose qui constitue ainsi une véritable maladie inflammatoire chronique des grosses artères.

La formation des stries lipidiques riches en macrophages, la captation des cellules musculaires lisses dans les zones de fibrose artérielle, la déstabilisation et in fine la rupture de la plaque, la formation du thrombus sont autant d’étapes où l’inflammation intervient.

Le F-fluorodéoxyglucose (FDG) qui est un biomarqueur couramment utilisé en tomographie par émission de positons (TEP) permet de visualiser non seulement les lésions malignes - c’est même sa principale indication -, mais aussi l’inflammation des gros troncs artériels en cas de vascularite ou d’athérosclérose évolutive.

Une étude rétrospective a inclus 309 patients âgés qui n’avaient aucun antécédent de maladie coronarienne. Le critère de jugement était la survenue d’événements cardiovasculaires imputables à une maladie coronarienne (ECV).

Au cours d’un suivi d’une durée médiane de 3,9 années, 28 participants ont été victimes d’un ECV, tandis que 12 autres sont décédés pour d’autres causes qu’une maladie coronarienne. Les valeurs du TBR situées dans le tertile supérieur de la distribution de cette variable sont apparues significativement associées à une fréquence élevée d’ECV, comparativement au tertile inférieur.

Cette analyse a montré que le TBR était effectivement associé à un risque élevé d’ECV indépendamment du score prédictif de Framingham. Selon cette étude rétrospective, l’inflammation artérielle évaluée par FDG-TEP-TDM permettrait de prédire le risque d’ECV en rapport avec une maladie coronarienne.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

ADN : pourquoi est-il composé de vingt acides aminés ?
Mardi, 17/04/2018 - 01:00

C'est une énigme de la biologie vieille de 80 ans qui a été résolue par des biochimistes de l'Université Johannes Gutenberg de Mayence (Allemagne) : pourquoi les briques élémentaires de tous les organismes vivant sur Terre sont au nombre de 20 alors que 13 suffiraient à construire la même chose ?

Pour rappel, ces briques élémentaires sont des "acides aminés" : de petites molécules d'une vingtaine d'atomes environ, dont 20 types différents sont inscrit au patrimoine génétique de la vie terrestre au titre de "grands constructeurs" de toutes les structures d'un organisme vivant, sauf l'ADN et ses dérivés.

En effet, des millions d'exemplaires de ces 20 types d'acides aminés, tels des pièces de Lego de 20 couleurs différentes, se combinent entre eux pour former de très longues molécules, les protéines et les polypeptides, qui vont bâtir les cellules et servir également de messagers de l'ADN pour que les cellules accomplissent leurs différentes fonctions.

Reste que les modèles et les simulations montrent que ces structures et fonctions pourraient être assurées par 13 d'entre eux seulement. En outre, ces treize acides aminés sont apparus en premier dans l'évolution, ce qui rend encore plus étrange la permanence jusqu'à aujourd'hui des sept "inutiles". En effet, durant l'évolution, tout ce qui apparaît et ne présente aucun avantage améliorant la reproduction d'une espèce finit statistiquement (après des milliers de cycles reproductifs) par disparaître au gré des micro-mutations aléatoires de l'ADN à chaque génération.

Pourquoi l'ADN a-t-il conservé le code des 20 acides aminés et non seulement des 13 premiers ? Selon ces travaux, parce que l'atmosphère s'est remplie d'oxygène. C'est ce qu'on appelle la Grande Oxygénation ou Oxydation : voici 3,5 milliards d'années, les êtres unicellulaires qui peuplaient la Terre se sont mis à consommer le CO2 atmosphérique et à rejeter de l'O2 par photosynthèse. Un milliard d'années après ce démarrage, l'oxygène, qui était sous forme de traces dans l'atmosphère primitive, a atteint quelques % et commencé à faire sentir ses effets oxydants. Toute la vie planétaire s'en est trouvée chamboulée.

En particulier, l'oxygène créait des radicaux libres toxiques dans les organismes. Selon les chercheurs, les sept plus récents acides aminés se sont donc greffés progressivement à la machinerie cellulaire, par sélection naturelle, non pas pour participer à la structure des cellules mais pour faire rempart aux radicaux libres. Les chercheurs ont ainsi montré que les nouveaux venus captaient ces molécules toxiques et les neutralisaient sans grand dommage...

Article rédigé par Georges Simmonds pour RT Flash

NCBI

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'homme de Néandertal, premier peintre de l'Humanité ?
Mercredi, 18/04/2018 - 01:20

Selon une étude publiée dans la prestigieuse revue Science, les plus anciennes peintures rupestres connues ont été exécutées par des hommes de Néandertal plus de 20.000 ans avant l'arrivée de l'homme moderne en Europe, ce qui conforte l'hypothèse selon laquelle nos cousins disparus étaient dotés d'une pensée symbolique proche de la nôtre.

Ces travaux s'appuient sur une nouvelle technique qui a permis de dater plus précisément des peintures ornant les parois de trois sites archéologiques en Espagne. "C'est une découverte absolument exaltante qui suggère que les hommes de Néandertal étaient beaucoup plus évolués que ce que l'on pense d'ordinaire", souligne Chris Stands, archéologue à l'Université britannique de Southampton.

"Nos résultats démontrent que les peintures que nous avons datées sont, de loin, les fresques rupestres connues les plus anciennes du monde", a-t-il dit. Puisqu'elles ont été élaborées il y a quelque 64.000 ans - soit au moins 20.000 ans avant l'arrivée de l'homme moderne en Europe depuis l'Afrique -, "elles doivent avoir été peintes par des Néandertaliens", poursuit-il.

Employant surtout des pigments rouges et parfois noirs, des groupes d'animaux, empreintes de mains, points, cercles et autres motifs géométriques ornent les parois de ces grottes espagnoles situées à La Pasiega (nord-est), Maltravieso (ouest) et Ardales (sud). Ces représentations dénotent une intelligence que l'on n'attribuait jusqu'ici qu'à l'homme moderne. "L'émergence d'une culture matérielle symbolique marque une avancée fondamentale dans l'évolution de l'humanité", explique Dirk Hoffmann, de l'Institut allemand Max Planck.

"Ces dernières années, des études ont montré que les hommes de Néandertal avaient fait un usage intensif d'objets de décoration, avaient peut-être construit des structures et, plus généralement, semblaient être bien plus capables de conduire des processus cognitifs symboliques que ce qui avait été historiquement avancé jusqu'ici", explique Adam Van Arsdale, professeur d'anthropologie au Wellesley College, un établissement américain.

Jusqu'à présent, déterminer l'époque d'une peinture rupestre sans la détruire était difficile. La nouvelle méthode cherche à déterminer leur âge minimum "en utilisant l'uranium-thorium qui date les croûtes de carbonate recouvrant les pigments", explique Dirk Hoffmann. Se basant sur la radioactivité restante d'isotopes d'uranium dans le thorium, elle peut remonter jusqu'à 500.000 ans en arrière.

Article rédigé par Georges Simmonds pour RT Flash

Science

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le camion à hydrogène accélère !
Jeudi, 19/04/2018 - 01:40

Nikola Motors, le constructeur américain de camions à moteur hydrogène, annonce avoir accumulé plus de 8 000 commandes pour ses deux futurs poids lourds, les modèles Nikola 1 et Nikola 2, équipés de pile à combustible, qui devraient être commercialisés en  2021. Le site de production sera établi à Buckeye, près de Phoenix en Arizona, pour un montant d’investissement d’un milliard de dollars. Le complexe de 200 hectares comptera 2 000 employés.

Les camions pourront être achetés ou loués par l’intermédiaire quasi exclusif du leader de la location nord-américaine Ryder, ce dernier gérant une flotte de 234 000 camions en Amérique du Nord. Ryder s’occupera également des aspects de maintenance, et ceci aux USA, au Canada et au Mexique.

Le coût d’approvisionnement en hydrogène sera inclus dans le prix d’achat ou de la location (jusqu’à 1 million de miles), sachant que Nikola a prévu de couvrir le pays d’un réseau de 376 stations de ravitaillement.

L’utilisation d’un réservoir à hydrogène de 220 litres autorisera une autonomie de 800 à 1200 miles (1290 à 1930 km), pour un plein réalisé en 15 minutes et zéro émission. La charge utile des deux modèles (à cabine courte et longue) est annoncée à près de 30 T. Les premiers véhicules en présérie sont attendus pour 2019 et seront intégrés en test auprès d’entreprises clientes.

Article rédigé par Georges Simmonds pour RT Flash

Clean Technica

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top