RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 866
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Septembre 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Découverte d'une clé pour optimiser l'envoi d'informations
Un ordinateur quantique parvient à simuler le comportement d'une molécule !
Matière
L’hydrogène apprivoisé dans un groupe électrogène
Terre
Le génome du tournesol décodé
Un outil de simulation pour évaluer la capacité du sol à stocker du CO2
Vivant
Un vecteur vaccinal à base de bactéries
Des noix pour prévenir les risques de cancer du côlon
L’incessant dynamisme du cerveau adulte
Prédire le risque cardio-vasculaire à partir d'une simple prise de sang
Les omege-3 réduisent bien le risque d'infarctus
Vers une prévention active du cancer du foie
Découverte d'une molécule brûleuse de graisse
Cancer : vers une nanothérapie ciblant la P-sélectine
Cancer du sein : une molécule utilisée contre l'alcoolisme efficace contre les cellules cancéreuses
Plus de 500 gènes se réveillent après la mort
Edito
Stocker l'énergie dans les réseaux : le nouveau défi mondial



Au début du mois d’août, NOAA, l’agence américaine océanique et atmosphérique, annonçait dans son rapport annuel de référence une dégradation inquiétante des principaux indicateurs du climat sur la planète en 2015 : selon cet organisme réputé, 2015 a été l’année la plus chaude depuis plus d’un siècle, surpassant de 0,1°C le record de 2014. Les températures à la surface de la Terre ont excédé de plus de 1°C la moyenne des relevés établis depuis le début de l’ère industrielle. La NOAA précise que la Terre a connu son mois de juillet le plus chaud depuis 137 ans, avec une moyenne s'élevant à 16,67°C au-dessus des terres et à la surface des océans. Cette moyenne est supérieure de 0,79°C à la moyenne établie au cours du 20e siècle (Voir NOAA).

Heureusement, les Etats-Unis et la Chine viennent d’annoncer il y a quelques jours qu’ils ratifiaient les accords de Paris conclus fin 2015 à l’issue de la COP 21. Comme ces deux géants économiques représentent à eux-seuls 45 % des émissions mondiale de CO2, cette double ratification devrait avoir un effet d’entraînement et permettre une entrée en vigueur plus rapide que prévue de cet accord international conclu en décembre dernier.

La dynamique de la transition énergétique est elle aussi bien engagée : près de 20 % de l’énergie au niveau mondial est issue de sources renouvelables (26 % en France), et leur coût ne cesse de décroître. A cet égard, le dernier rapport de l’organisation WWF est particulièrement instructif. Il montre que la transition énergétique est non seulement bien en route au niveau mondial, mais qu’elle est irréversible et qu’elle se déroule plus vite que prévu (Voir WWF).

Ce rapport souligne notamment que, sur l’ensemble des installations de production d'électricité construits depuis un an dans le monde, 90 % étaient des sites d'énergies renouvelables (des centrales solaires, des parcs éoliens ou des barrages). Autre indicateur important : les coûts de production d'électricité photovoltaïque ont chuté de plus de 80 % depuis 2009 et les prévisions indiquent que ces coûts vont encore diminuer de 59 % d’ici 2025. Dans une telle perspective, l'électricité issue de l’énergie solaire photovoltaïque deviendrait d’ici 10 ans moins chère et plus compétitive que l’électricité produite à partir des énergies fossiles, surtout si les principales entités géopolitiques polluantes de la planète (Europe, USA, Chine et Inde) mettent en place une taxation coordonnée des émissions de CO2. 

Cette étude souligne également que les investissements mondiaux dans la production basée sur les énergies renouvelables ont atteint 286 milliards de dollars dans le monde (dont un tiers en Chine), un niveau record. Autre indicateur remarquable : les énergies propres représentent à présent plus de huit millions d’emplois dans le monde, dont 2,8 millions pour la seule énergie solaire.

Mais surtout, cette étude de WWF souligne que, fait sans précédent, les émissions mondiales de CO2 liées à l’énergie ont stagné en 2015 pour la deuxième année consécutive, et cela en dépit de la reprise de la croissance économique mondiale, estimée à 3 % par an ! L’étude conclut que « Les États et organismes internationaux ont sous-estimé le potentiel des technologies des énergies renouvelables et que l’évolution constatée montre un changement important, rapide et irréversible dans notre consommation mondiale d'énergie ».

Reste que cet essor irrésistible des énergies renouvelables doit encore surmonter plusieurs défis de taille. Il faut en effet que nos réseaux de distribution d’énergie se réorganisent complètement, de façon à ce que, d’une part,  la demande puisse s’adapter de manière intelligente à l’offre (C’est tout l’enjeu de la généralisation des compteurs intelligents et communicants et des appareils électriques connectés via le Web des objets) et, d’autre part, l’offre puisse  répondre de manière souple à la demande. Mais pour relever ce dernier défi, nos réseaux devront non seulement gérer les fluctuations considérables inhérentes à une production massive d’énergie issue du vent et du soleil mais également s’adapter à la décentralisation des moyens de production vers des centaines de milliers de sites dispersés sur l’ensemble du territoire. Un seul chiffre illustre l’ampleur de cette mutation et de ce défi : notre pays compte aujourd’hui près de 350.000 producteurs d’énergie renouvelable, contre moins d’une centaine il y a seulement dix ans…

On comprend mieux, dans une telle perspective énergétique, à quel point la question du stockage massif, souple et peu coûteux de l’énergie est devenue stratégique pour nos économies et nos sociétés. Heureusement, en seulement quelques années, des ruptures technologiques majeures se sont produites et elles devraient permettre de relever ces défis et d’accélérer encore ce basculement énergétique si nécessaire pour la bonne santé de la planète. Il nous est impossible ici de passer en revue toutes les solutions techniques à l’étude pour répondre à ce défi du stockage massif d’énergie mais nous pouvons néanmoins évoquer quelques tendances qui semblent particulièrement intéressantes.  

Un programme de recherche piloté par le BRGM (Bureau de Recherche Géologique et Minière) et baptisé FluidStory étudie actuellement la possibilité de stocker les excédents d’électricité sous forme de gaz dans des cavités salines souterraines. Pour ce projet, les chercheurs du BRGM ont travaillé à améliorer le processus de méthanation qui repose sur une cascade de réactions chimiques successives. La première est l’électrolyse qui consiste à utiliser le surplus d’électricité pour produire du dihydrogène et du dioxygène par électrolyse de l’eau (H2O). Deuxième étape, la méthanation durant laquelle le méthane se forme par réaction entre le dihydrogène et du dioxyde de carbone (CO2). Enfin, dernière étape, l’oxycombustion qui combine le méthane au contact du dioxygène au sein d’une turbine à gaz, ce qui permet la production d’électricité.

« L’avantage du concept EMO est de tourner en cycle fermé : le CO2 produit par l’oxycombustion est réutilisé pour la réaction de méthanation », souligne le professeur Behrooz Bazargan-Sabet, en charge du projet. La méthanation (procédé industriel permettant de transformer les excédents d’électricité en méthane) offre donc la possibilité de stocker de grandes quantités d’énergie dans le réseau gazier, dans l’attente d’une reconversion en électricité.

L’objectif principal de FluidStory est de démontrer la faisabilité du stockage temporaire, massif et réversible d’une grande quantité de fluides (O2, CO2, CH4). Dans cette perspective, les cavités salines souterraines constituent autant de volumes de stockage potentiels. « Le sel est un milieu à très faible perméabilité permettant une remarquable étanchéité des cavités », précise M. Behrooz Bazargan-Sabet, qui ajoute que le BRGM a commencé un inventaire méthodique des formations salifères pouvant servir au stockage énergétique.

Outre-Rhin, nos voisins allemands travaillent également sur des solutions de stockage massif de l’énergie dans des cavités salines souterraines mais explorent également d’autres voies prometteuses. La première est le CAES (Compressed Air Energy Storage ou Stockage de l’Energie par Air Comprimé). L’idée, comme celle à la base de FluidStory, est de stocker l’électricité excédentaire issue des énergies propres sous forme d’air comprimé (à 200 bars), dans des cavernes souterraines. Il suffit alors de procéder à la détente de cet air comprimé pour produire de l’électricité. L’avantage de cette technique est qu’elle est relativement simple à mettre en œuvre et permet de surcroît de stocker de grandes quantités d’énergies, de l’ordre de plusieurs centaines de mégawatts par site, soit l’équivalent d’un barrage.

En outre, ce procédé peut être adapté aux différentes sources d’énergie. En Allemagne, le site d'Huntorf utilise le CAES pour stocker 290 MW d’électricité et ce pays, en pointe dans ce domaine, développe à présent le projet ADELE qui devrait permettre de fournir 80 MW sur 5 h en continu à partir d'énergie éolienne. Soulignons également que cette technique de stockage par air comprimé ne cesse d’être améliorée : son rendement qui est de l’ordre de 50 % pourrait en effet être porté à 70 %, en récupérant la chaleur produite lors de la compression pour le restituer à la détente.

Mais l’Allemagne, décidément très offensive sur cet enjeu industriel et technologique majeur du stockage d’énergie, mise massivement sur le développement du concept de "Power to Gas". L'idée de base est de stocker la grande quantité d'électricité produite par les énergies renouvelables intermittentes (éoliennes par exemple) en produisant de l'hydrogène par électrolyse de l'eau. Ce dernier gaz peut ensuite être combiné à du dioxyde de carbone pour obtenir du méthane de synthèse, aux propriétés identiques à celles du gaz naturel: le gaz ainsi produit peut ensuite être réinjecté dans le réseau de transport. La plus puissante installation de Power To Gas au monde, développée conjointement par E.O.N et l’institut Fraunhofer, est entrée en service fin 2015 à Hambourg ; elle atteint une puissance de 1,5 MW et peut produire et injecter dans le réseau urbain de gaz, 290 m3 de dihydrogène par heure.

En France, GRTgaz et le Grand Port Maritime de Marseille (GPMM) ont annoncé en mars 2016 la prochaine installation sur le port du démonstrateur "Jupiter 1000", un projet de conversion et de stockage de l'électricité sous forme de gaz. Ce démonstrateur sera le premier projet "Power to gas" relié au réseau de transport de gaz en France. Il doit permettre d'évaluer la faisabilité et la rentabilité du procédé et de faire émerger une nouvelle filière de production de gaz renouvelable à l'horizon 2030.

« Le Power to gas " favorise le développement des énergies renouvelables en facilitant l'équilibrage des réseaux électriques et en valorisant les surplus de production », soulignent les acteurs de ce projet, qui associe, outre GRTgaz et le Port, Atmostat, CNR, le CEA, Leroux & Lotz Technologies, McPhy Energy et TIGF. Le démonstrateur devrait être mis en service en 2018. Le montant du projet s'élève à 30 millions d'euros et est subventionné à hauteur d'un tiers par l'Union européenne, l'Etat et la région Paca. Ce projet tout à fait novateur au niveau européen doit permettre de montrer qu'il est possible de faire d'une pierre deux coups : recycler le CO2 issu des activités industrielles, d'une part, et stocker massivement sous forme de gaz la production excédentaire d'électricité issue des énergies propres, d'autre part. Il s'agit là d'un enjeu technologique, économique et politique majeur, surtout quand on sait que plus du quart de la production européenne d'électricité sera assurée par les énergies renouvelables dans dix ans.

Autre exemple des avancées rapides vers la transformation de nos réseaux d'énergie : la coentreprise Areva H2Gen a inauguré en juin dernier une usine de fabrication d’électrolyseurs PEM aux Ulis dans l’Essonne. Cette unité de production unique en France marque une autre étape déterminante dans le développement de la filière de stockage de l’énergie du « Power to gas » qui permet notamment d'utiliser la production d’hydrogène pour le stockage des énergies renouvelables. Créée en 2014 par Areva, SMART ENERGIES et l’Ademe (dans le cadre du Programme des Investissements d’avenir), la coentreprise AREVA H2Gen, a pour objectif de fabriquer des électrolyseurs par membrane à échange de protons, semblables à ceux utilisés dans le projet allemand d’Hambourg.

Cette technologie PEM, conçue pour répondre aux besoins de l’industrie, se répand à présent dans le secteur du stockage des énergies renouvelables afin d’alimenter en hydrogène les stations-service pour les véhicules à pile à combustible ou les réseaux de gaz naturel (Power-to-Gas). L’hydrogène constitue en effet, à condition d’être produit à partir des énergies propres, un excellent vecteur pour stocker et restituer la production électrique excédentaire issue des énergies solaires et éoliennes. Comme l’explique Luc Oursel, président du directoire d’AREVA, « l’électrolyse PEM est une solution pertinente car le marché du stockage d’énergie à base d’hydrogène croît rapidement. Elle répond notamment aux attentes des clients qui cherchent à optimiser l’utilisation des sources d’énergies renouvelables locales ». 

Parallèlement à ce développement des technologies de stockage « Power To Gas », la capacité totale du système de stockage d'énergie par batterie devrait passer au niveau mondial de 1,5 gigawatt (GW) en 2015 à plus de 14 GW d'ici 2020, selon le cabinet d'analyse GlobalData. D'après ce dernier, un grand nombre de projets devrait être mis en service durant cette période du fait de l'augmentation des installations d'énergies renouvelables et la recherche de la stabilité du réseau. "Les systèmes de stockage par batterie en cours d'installation dans les réseaux d'électricité permettront une alimentation à partir de sources d'énergie renouvelables plus lisses et plus fiables", considère Swati Gupta, une des analystes de GlobalData. Ce cabinet estime également que le prix de ces dispositifs devrait chuter de près de moitié de 2015 à 2020 grâce à l'innovation technologique, l'amélioration des procédés de fabrication et la compétitivité croissante. 

Mais une autre solution de stockage encore plus innovante est en cours d’expérimentation : le stockage sous-marin. En Allemagne, l’Institut Fraunhofer travaille sur un projet baptisé Stored Energy in the Sea (StEnSEA). Plus efficace et moins coûteuse que le concept de pompage-turbinage, l’idée est d’utiliser des sphères en béton plongées dans l’eau et capables de produire de l’énergie une fois immergées. Ces sphères creuses sont assez lourdes pour s’installer dans l’eau à 800 mètres de profondeur sans avoir besoin d’ancre. Chaque sphère fait 30 mètres de diamètre, avec des parois de 3 mètres d’épaisseur. Le rendement est de 20 MW par unité. Un parc de 200 sphères pourrait alors produire jusqu’à 4 GW d’énergie en quelques heures d’après les chercheurs.

Comme dans les bassins d’accumulation traditionnels, la force qu’engendre le déplacement de l’eau permet de produire l’énergie. La sphère fait ici office de réservoir d’eau et va se remplir en cas de besoin d’électricité. Le mouvement de l’eau actionne une turbine qui génère du courant et fournit de l’énergie au réseau. Si le réseau sature à cause d’un afflux d’énergie trop important, l’eau est directement pompée dans la boule et l’énergie est stockée. Selon l’Institut Fraunhofer, ce nouveau concept de stockage massif d’énergie pourrait être opérationnel dès 2020.

Autre innovation de taille : celle présentée par General Electric en mars dernier. Il s'agit d’un nouveau type de turbine fonctionnant spécifiquement avec du CO2 et stockant l’énergie sous forme de sels fondus (Voir GE REPORTS).

Cette turbine combine deux technologies complémentaires : d’une part, le stockage de la chaleur avec des sels fondus, notamment utilisé pour le solaire à concentration, où des miroirs concentrent l’énergie solaire pour chauffer un fluide. La chaleur est ainsi stockée assez longtemps pour être ensuite réutilisée pendant les heures sans soleil. D’autre part, les chercheurs de GE ont utilisé du CO2 en lieu et place de l’eau pour faire tourner la turbine. Sous l’effet de la chaleur libérée par les sels fondus, le CO2 sous forme de glace carbonique passe sous haute pression en phase supercritique à 700°C. La turbine développée par GE et baptisée "Sunrotor" est capable de convertir jusqu’à 68 % de l’énergie stockée (contre 60 % pour les centrales à gaz) sous forme de chaleur en électricité. En outre, ce nouveau type de turbine présente l’avantage de monter en puissance en seulement deux minutes, contre une demi-heure pour une turbine classique à vapeur. General Electric devrait commercialiser un système de ce type capable de stocker 100 MWh (suffisant pour alimenter une ville de 100 000 habitations) pour un coût de production du MWh 2,5 inférieur à celui d’une centrale à gaz. 

Dans cette compétition mondiale, la France n'est pas en reste et en avril dernier, une équipe de recherche de la fédération FCLAB-CNRS de Belfort (intégrant notamment le laboratoire AMPÈRE associé à l’école centrale, l’INSA et l’université de Lyon I) a présenté un remarquable prototype de groupe électrogène hybride, intégrant une pile à combustible.

Ce système très compact permet de délivrer une puissance de 1000W, pèse une quinzaine de kilogrammes, est silencieux et totalement respectueux de l’environnement, car il ne rejette que de l’eau. Celui-ci embarque une pile à combustible, qui produit l’électricité, associée à une batterie, qui la stocke temporairement. Ce système est contrôlé par des logiciels qui peuvent réguler les flux d’énergie dans le module. Il est également possible de contrôler et de piloter à distance et en temps réel ce groupe hybride.

Cette nouvelle génération de groupe électrogène à hydrogène, couplé à des sources d'énergies renouvelables, pourrait permettre de rendre autonome sur le plan énergétique des habitations individuelles ou des immeubles. La production excédentaire d’électricité issue de l'éolien ou du solaire, pourrait en effet être convertie beaucoup plus facilement en hydrogène via l’électrolyseur. Cet hydrogène pourrait alors être réutilisé, pour compenser les périodes de faible production d’électricité par les énergies renouvelables.

Actuellement, les énergies renouvelables représentent environ 20 % de la consommation énergétique globale de la planète (13 Gigateps en 2015) et si nous voulons diminuer au moins de moitié nos émissions de gaz à effet de serre d’ici 2050 – condition absolue pour contenir le changement climatique en cours dans des limites supportables – nous devons porter cette part des énergies propres dans le mix énergétique mondial à plus de 50 % dans les 25 prochaines années. Le rapport intitulé "Feuille de route pour un futur renouvelable", présenté en mars dernier à Berlin, dans le cadre d’une conférence internationale sur la transition énergétique, montre que pour parvenir à porter la part de ces renouvelables à 36 % de la consommation énergétique mondiale d’ici 2030, il faudrait que la planète investisse chaque année 260 milliards d’euros de plus dans cette transition énergétique. Mais l’étude souligne que chacun de ces euros permettrait de réaliser au moins quatre euros d’économie, sous forme de vies sauvées (4 millions de morts par pollution en moins par an) et de dommages évités à l’environnement (Voir IRENA).

Face à de tels enjeux, nous devons faire preuve d’un volontarisme politique sans faille et mettre à profit ces avancées technologiques décisives dans le domaine du stockage de l’énergie pour accélérer cette transition énergétique mondiale, désormais inévitable, et faire en sorte que celle-ci se déroule pour l’essentiel avant le milieu de ce siècle. C’est à ce prix que nous aurons une chance raisonnable de laisser un monde vivable à nos enfants et petits-enfants et que nous pourrons reconstruire les bases du développement humain et économique en y intégrant le principe de coexistence harmonieuse et mutuellement profitable entre l’homme et la nature.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective de Sénat


TIC
Information et Communication
Découverte d'une clé pour optimiser l'envoi d'informations
Jeudi, 22/09/2016 - 18:15

Nos sociétés reposent à présent sur la circulation et l'échange massif d'informations numériques de toute nature : son, vidéo, photos. Mais tous ces canaux de communication peuvent être brouillés, et une partie des données perdue en route. Comment éviter cette déperdition d’information ? Étonnamment, cette question résiste aux scientifiques depuis les années 1960. Mais des chercheurs de l’EPFL ont trouvé la clé du mystère : leur travail a été primé lors du symposium STOC 2016 (Symposium on the Theory of Computing), qui s'est tenu aux États-Unis.

Concrètement, les chercheurs ont défini comment envoyer assez d’informations pour tenir compte d’une déperdition possible, mais sans surcharger le canal pour ne pas nuire à la rapidité de la communication. Le point de départ de cette analyse était la conception d’un code composé d’un schéma de répétition, ce qui permet d’éliminer le bruit pendant le transfert de données. A l’arrivée, ils ont fait une découverte révolutionnaire : la symétrie du code garantit à elle seule un résultat optimal.

Ils ont ainsi prouvé qu’une famille de codes plus large que prévu permet d’arriver à un bon résultat. « Nous avons déterminé que, si on connaît le canal d’information utilisé, alors nous pouvons prédire exactement quel sera le code optimisé à envoyer : il lui suffit d’être structuré et symétrique », explique Marco Mondelli, chercheur au Laboratoire de théorie des communications de l’EPFL et l’un des auteurs de la publication.

Dans le futur, cette découverte devrait donner lieu à de nombreux développements et possibilités d’amélioration de l’envoi de code dans tous les domaines, permettant par exemple de meilleures performances des ordinateurs, des téléphones portables ou des systèmes de sauvegardes de données.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Un ordinateur quantique parvient à simuler le comportement d'une molécule !
Mercredi, 21/09/2016 - 21:12

Un prototype d'ordinateur quantique développé par Google, en coopération avec les universités américaines d'Harvard, Berkeley et Santa Barbara, a réussi,pour la première fois à simuler le comportement d’une molécule d’hydrogène. L'informatique classique utilise une mémoire composée de bits – des 0 et des 1 -. Dans un ordinateur quantique, les bits sont remplacés par des "q"bits", qui peuvent prendre la valeur 0 ou 1 mais également prendre les deux valeurs en même temps, ce qui permet  des vitesses de calcul bien plus élevées.

Pour réaliser cette prouesse, Google a utilisé son D-Wave X2 – une machine qui, selon le géant, pourrait être « 100 millions de fois plus rapide » qu’un ordinateur traditionnel. C'est cette puissance qui a permis aux chercheurs de modéliser parfaitement le comportement complexe d'une molécule de dihydrogène (H2), constituée de deux atomes d'hydrogène qui interagissent ensemble. Définir cette molécule, c'est étudier l'ensemble des combinaisons possibles, en prenant en compte la longueur de la liaison, l'angle de cette liaison, et tous les états qui sont associés à ces situations. Une fois calculées toutes les énergies qui correspondent à ces états, on définit ce qu'on nomme la surface d'énergie potentielle.

Article rédigé par Georges Simmonds pour RT Flash

Chemistry World

^ Haut
Matière
Matière et Energie
L’hydrogène apprivoisé dans un groupe électrogène
Jeudi, 22/09/2016 - 17:57

Utiliser l’hydrogène comme vecteur d’énergie pour le futur est devenu un objectif stratégique majeur pour l'industrie. Le prototype de groupe électrogène hybride mis au point au FCLAB (Fuel Cell Lab), une fédération de recherche vouée aux questions d’énergie et de transport avec la technologie hydrogène pour valeur ajoutée, constitue une nouvelle étape vers ce but et cette transition énergétique.

Car un groupe électrogène intéresse le fonctionnement des hôpitaux autant que la signalisation routière lors de travaux sur une départementale, l’alimentation des modules d’énergie de secours pour les antennes de télécommunication ou pour les data-centers. Quelle que soit l’application recherchée, le système intégré au groupe est le même : une pile à hydrogène (ou pile à combustible - PAC), un système de stockage électrique et une carte électronique de gestion.

Sébastien Faivre à présenté le prototype de ce groupe électrogène à hydrogène au salon Micronora à Besançon. Sébastien Faivre est ingénieur au FCLAB et responsable du projet : « La gestion de l’énergie en temps réel est un point fort du système ; la carte électronique oriente la consommation d’énergie vers la pile à hydrogène ou vers la batterie en fonction de différents paramètres tels que l’état de charge ou la puissance demandée par le consommateur. » C’est aussi cette carte qui, par l’intermédiaire de convertisseurs électroniques, sait adapter les tensions et les courants aux besoins, et permet d’équiper le groupe électrogène d’une prise en 230 V, comme à la maison.

Premier prototype du genre en France, le groupe électrogène signé FCLAB est aussi plus compact que son concurrent allemand, et plus puissant que son concurrent chinois. « De dimensions 47 x 34 x 35 cm, il est plus petit qu’un four à micro-ondes et restitue une puissance de 1000 W. » Des qualités auxquelles s’ajoutent le silence, l’absence de pollution, puisqu’une PAC ne rejette que quelques gouttes d’eau à l’utilisation, et un faible coût de fonctionnement, intégrant seulement le remplacement de filtres à air.

Mené en collaboration avec l’Institut FEMTO-ST et FEMTO Engineering, avec le soutien de la région Bourgogne - Franche-Comté, de la SATT Grand Est et de la Direction de la valorisation de l’université de Franche-Comté, le projet est désormais dans une phase de maturation, qui, après les études de marché, tests produits et expérimentations de rigueur, pourrait déboucher dès l’an prochain sur la création d’une start-up pour assurer le développement et la commercialisation de ce groupe électrogène de nouvelle génération.

Article rédigé par Georges Simmonds pour RT Flash

Université de Franche-Comté

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le génome du tournesol décodé
Mercredi, 21/09/2016 - 07:49

Des scientifiques de l’Inra ont achevé le séquençage du génome de la lignée de tournesol XRQ, parent d'une variété cultivée, développée par l'Inra. Pour la première fois, l’ADN du tournesol a été décrypté complètement. C'est-à-dire que l’ensemble de ses gènes (son génome) a été décodé, assemblé et ordonné. La séquence du génome du tournesol a été mise à disposition des programmes de sélection des partenaires du projet SUNRISE et de la communauté académique.

Pour obtenir ce résultat, la principale difficulté a été d’assembler, comme les pièces d’un puzzle, les gènes dans le bon ordre. Ce puzzle géant, 20 % plus grand que le génome humain, est d’autant plus difficile à construire que le génome du tournesol est constitué de très nombreuses pièces qui se ressemblent. Plus de 80 % du génome du tournesol sont constitués de parties quasi identiques que les programmes informatiques ont beaucoup de difficultés à différencier.

Grâce à une stratégie innovante utilisant le robot de séquençage de dernière génération PacBio RS II4, les scientifiques ont obtenu une séquence de référence de qualité. En effet, le séquenceur PacBio RS II est capable de lire des fragments d’ADN 100 fois plus longs que les générations précédentes de robots. Les fragments sont ensuite plus facilement assemblés dans le bon ordre. Cette nouvelle technologie est désormais appliquée au séquençage des génomes d’autres plantes cultivées ou de plantes parasites, comme l’Orobanche cumana, une plante parasite du tournesol.

Le tournesol est une espèce de grande culture, dont 80 % de la production sont assurés en Europe, et qui possède un fort potentiel d’amélioration génétique. La cartographie précise de l’ensemble des gènes du tournesol ouvre de nouvelles potentialités pour l'identification de gènes d’intérêt agronomique ou intervenant dans les débouchés industriels ou alimentaires. Ce résultat permettra d’accélérer l’efficacité des programmes nationaux et internationaux de sélection sur le tournesol et la mise sur le marché de variétés améliorées pour leur adaptation aux différentes pratiques agricoles. Ce décryptage sera en particulier utilisé, dans le cadre du projet SUNRISE, pour identifier des gènes de tolérance à la sécheresse, en réponse au changement climatique.

Article rédigé par Georges Simmonds pour RT Flash

INRA

Un outil de simulation pour évaluer la capacité du sol à stocker du CO2
Mardi, 20/09/2016 - 08:27

Séquestrer le CO2 dans le sous-sol va probablement jouer un rôle-clé pour atteindre les objectifs de réduction fixés fin 2015 à Paris. Des chercheurs de l’EPFL ont développé un outil de simulation afin d'évaluer l’impact du processus d’injection dans la roche hôte. En quatre ans et demi, le sol autour de la centrale à gaz d'In Salah, dans le désert algérien, s'est élevé de seize millimètres. Cette élévation est provoquée par l'injection des émissions de dioxyde de carbone capturées sur le site dans un aquifère à 1800 mètres de profondeur.

Le soulèvement du socle rocheux à In Salah est bénin, mais l'injection de quantités excessives de gaz dans le sous-sol pourrait fracturer les couches de roche imperméables qui maintiennent le gaz en place. Des chercheurs de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont développé un modèle informatique qui simule l'impact géologique de l'injection de CO2 dans le sous-sol et détermine la quantité de gaz qu'un réservoir peut accueillir en toute sécurité.

La séquestration de CO2 est déjà utilisée dans certains sites du monde, afin de moins rejeter le gaz à effet de serre dans l'atmosphère. L'Accord de Paris, qui vise à limiter l'impact du changement climatique anthropique, pourrait accélérer l'usage de cette technologie.

La géologie complexe et très diverse des sites potentiels de séquestration dans le monde nécessite de développer des outils. Ceux-ci doivent déterminer dans quelles conditions leur imperméabilité peut être assurée. La phase d'injection est très critique, estime Li Chao, coauteur de l'étude avec Lyesse Laloui. "Lorsque le CO2 est injecté dans un aquifère profond, parfois à des milliers de mètres, il est beaucoup plus froid que la roche environnante et compressé à tel point qu'il occupe 500 fois moins de volume qu'il ne le ferait dans l'atmosphère", explique-t-il. En raison de sa température, de sa pression et du volume qu'il occupe, le CO2 interagit avec la roche environnante. Cela peut déformer la roche et provoquer ainsi des instabilités géologiques. Dans le pire des cas, cela peut fracturer la roche supérieure qui scelle l'aquifère, laissant le gaz s'échapper à la surface.

Selon Li Chao, cette simulation peut servir à déterminer la pression jusqu'à laquelle le CO2 peut être injecté sans danger dans un site géologique donné. Pour la tester, les chercheurs ont tenté de reproduire le soulèvement observé à In Salah, provoqué par quatre ans et demi de séquestration de CO2. Tandis que le gaz froid contracte la roche hôte située autour du site d'injection, sa pression élevée accroît la taille des pores de la roche.

En associant les processus thermiques, hydrauliques et géomécaniques dans une simulation unique, les auteurs ont pu déterminer comment ces forces conspirent pour former le réservoir et les couches rocheuses au-dessous et autour de celui-ci. "Les résultats de notre simulation approchent de très près les observations par satellite", résume Chao. A l'avenir, il espère développer son modèle et l'appliquer à d'autres types de sites de séquestration de CO2, tels que champs gaziers abandonnés ou aquifères salins, afin de simuler la formation de fractures dans le socle rocheux. 

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un vecteur vaccinal à base de bactéries
Jeudi, 22/09/2016 - 18:04

Des chercheurs de l’Université de Buffalo ont réussi à utiliser une version inoffensive  d’une bactérie bien connue, comme E. coli, pour transporter des vaccins (ici à base de protéines), qui développe ainsi, autour de la bactérie, une petite capsule de transport très efficace.

Ces travaux apportent une preuve de concept de l’efficacité de cette capsule mi bactérie, mi polymère dans la lutte contre les maladies à pneumocoques, une infection qui peut entraîner la pneumonie, la septicémie, les infections de l'oreille et la méningite.

Les chercheurs utilisent des souches inoffensives de E. coli pour mettre au point cette capsule de transport conçue pour optimiser l’efficacité de vaccins de nouvelle génération. Selon l’auteur principal, le Professeur Blaine A. Pfeifer de l’université de Buffalo, de nombreuses bactéries ont un vrai potentiel dans cette lutte contre les maladies : le principe est d’utiliser une bactérie inoffensive comme noyau autour duquel on enveloppe un polymère synthétique appelé « poly » (ester aminé beta) un peu comme une cotte de mailles.

Le polymère est chargé d’ions positifs pour s’assembler avec la paroi cellulaire des bactéries chargée d’ions négatifs, le tout formant une sorte de capsule hybride. Dans la capsule on insère un vaccin, ici à base de protéines, et ici anti-pneumococcique.

Testé chez la souris, le vaccin sous capsule E. coli entraîne des résultats « impressionnants » dont une réponse immunitaire suffisante pour entraîner une protection forte contre les infections pneumococciques. La capsule serait relativement peu coûteuse à développer et flexible en termes d'utilisation.

Article rédigé par Georges Simmonds pour RT Flash

Science Advances

Des noix pour prévenir les risques de cancer du côlon
Mercredi, 21/09/2016 - 07:57

On savait déjà que les noix étaient excellentes pour la bonne santé cadio-vasculaire mais, selon une étude menée par une équipe de chercheurs de l’université du Connecticut et du Jackson Laboratory for Genomic Medicine, aux États-Unis, manger régulièrement des noix permettrait aussi de réduire les risques de développer un cancer du côlon. En France, le cancer colorectal se situe au troisième rang des cancers les plus fréquents : le deuxième chez les femmes et le troisième chez les hommes. Il est responsable de la mort de 17 500 Français chaque année. Or, selon une étude publiée dans la revue spécialisée Cancer Prevention Research, 30 grammes de noix par jour, à partir de 50 ans, se révélerait efficace en guise de prévention, en particulier chez les hommes.

Pour parvenir à ces conclusions, les chercheurs ont constitué deux groupes de souris. Le premier groupe recevait une ration de nourriture classique, le second des noix à hauteur de 7 à 10,5 % de son apport calorique quotidien. Résultats : les rats mâles qui avaient mangé des noix avaient deux à trois fois moins de risque de développer un polype adénomateux, la tumeur à l’origine du cancer du côlon. Selon les chercheurs, c’est la teneur des noix en acides gras polyinsaturés, notamment en omega-3 et en omega-6, et en vitamine E, qui favoriserait un équilibre de la flore intestinale.

« En quelque sorte, on pourrait dire que les noix agissent comme des probiotiques » ont avancé les auteurs de l’étude. « Cette hypothèse est spécifiquement valable chez les souris de sexe masculin ; en revanche, nous n'avons pas constaté de différences significatives au niveau de la flore intestinale chez les souris de sexe féminin ».

Article rédigé par Georges Simmonds pour RT Flash

Medical News Today

L’incessant dynamisme du cerveau adulte
Mercredi, 21/09/2016 - 07:42

On sait depuis quelques années que, contrairement à ce que les scientifiques ont longtemps pensé, certaines régions du cerveau, comme le bulbe olfactif chez le rongeur ou l’hippocampe chez l’humain, ont la capacité, à l’âge adulte, de renouveler continuellement leurs neurones. Si l’existence de ces néoneurones adultes est bien établie, leur fonction demeure, elle, encore inexpliquée, principalement en raison de leur inaccessibilité chez les animaux vivants.

Des chercheurs de l’unité1 dirigée à l’Institut Pasteur par Pierre-Marie Lledo, chercheur CNRS, ont montré une nouvelle preuve du caractère hautement dynamique des modifications observées au niveau neuronal dans le cerveau adulte. En observant sur plusieurs mois l’évolution de neurones apparus à l’âge adulte dans le bulbe olfactif de souris, les chercheurs ont en effet pu suivre en direct, de façon exceptionnelle, la formation de connexions entre neurones, leur stabilisation ou leur élimination. Ils ont ainsi mis en évidence, dans le bulbe olfactif, où naissent les nouveaux neurones, un important remaniement des connexions entre ces nouveaux neurones et les cellules voisines, qui se poursuit tout au long de la vie.

L’ensemble de ces cellules réorganisent ainsi constamment les milliards de contacts dits « synaptiques » qu’elles établissent entre elles. Pour les chercheurs, cette observation est une surprise. "Nous nous attendions à voir les synapses se stabiliser progressivement, comme cela se produit au cours du développement chez l’embryon. Mais, étonnamment, ces synapses se sont révélées très dynamiques, de la naissance à la mort des néo-neurones". Les observations des chercheurs ont permis d’établir que 20 % des synapses entre les nouveaux neurones et ceux préexistants étaient modifiées quotidiennement. A l’aide de modèles informatiques, les auteurs ont montré qu’un tel dynamisme permettait au réseau synaptique de s’adapter, de manière rapide et efficace, aux modifications sensorielles de l’environnement toujours changeant.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Prédire le risque cardio-vasculaire à partir d'une simple prise de sang
Mercredi, 21/09/2016 - 07:34

Selon des chercheurs norvégiens de la Norwegian University of Science and Technology (NTNU), la détection de nouveaux biomarqueurs, des microARNs circulant dans le sang, devrait permettre d’évaluer, à partir d'une simple prise de sang,  le risque de maladie cardiaque et avec plus de précision qu’avec les facteurs de risque traditionnels.

Il existe aujourd’hui de multiples modes diagnostiques du risque cardiaque, dont les calculateurs de risque qui vont pondérer les différents facteurs pour obtenir un score global du risque cardiaque. Cependant, l'utilisation de ces calculateurs de prédiction est moins fréquente en soins primaires car ils ne permettent en pratique que de détecter une faible partie de l’incidence. Les chercheurs précisent ainsi que 15 à 20 % des patients victimes de crise cardiaque seront classés par ces calculateurs comme à faible risque.

De nombreuses tentatives au cours de ces dernières années ont cherché à améliorer ces calculateurs de prédiction du risque en ajoutant de nouveaux marqueurs biologiques, comme la protéine C-réactive -un marqueur de l'inflammation-, le taux d’hémoglobine glycosylée (HbA1c) -un marqueur de diabète- mais sans parvenir aux niveaux de précision nécessaires.

Il y a aussi la méthode la plus courante, où le médecin prescrit une analyse de sang avec les mesures du cholestérol et des triglycérides, pour se faire « une première idée » du risque de maladie cardiovasculaire de son patient. La connaissance de ses antécédents de santé, de son IMC, ses habitudes tabagiques et la mesure de la pression artérielle vont lui permettre de préciser ce risque.

Ces recherches montrent qu’en mesurant une combinaison de 5 microARN et en combinant ces données aux facteurs de risque traditionnels de maladies cardiovasculaires, ils sont capables d’identifier, avec une très grande précision, les patients à risque élevé d’infarctus.

Anja Bye, auteur principal de l’étude, souhaitait explorer le potentiel de ces nouveaux biomarqueurs que sont les microARNs en circulation, pour prédire le risque de 10 ans pour l'infarctus du myocarde. L’étude menée sur 212 participants en bonne santé et âgés de 40 à 70 ans a permis d’identifier 179 microARN différents dans les échantillons de sang et sélectionner ceux spécifiques aux participants victimes d’infarctus dans les 10 ans. Il reste à répliquer ces résultats dans de nouvelles études avant de passer à la mise en œuvre du test en routine clinique.

Article rédigé par Georges Simmonds pour RT Flash

JMMC

Les omege-3 réduisent bien le risque d'infarctus
Mercredi, 21/09/2016 - 06:53

L’infarctus représente 44 500 décès déclarés par an en France et  concerne principalement les personnes âgées de 65 à 85 ans (45 %). Une étude a prouvé que les omega-3 réduiraient le risque de contracter la maladie.

Les acides gras, contenus en grande quantité dans certains poissons, permettraient de réduire de 10 % le risque de mourir d’un infarctus. Une étude a été menée par des scientifiques et découvre une nouvelle vertu aux omega-3. Cette méta-analyse reprend 19 études menées dans 16 pays. Les chercheurs ont tenté d’établir un lien entre les omega-3 et la fréquence des infarctus.

Ces 19 études regroupées représentent un échantillon total de 45 637 personnes. Parmi eux, 7 973 ont eu une crise cardiaque pour la première fois et 2 781 sont décédés. De plus, 7 157 personnes ont eu des infarctus non-mortels. Souvent, les personnes qui subissent un infarctus meurent faute d’intervention précoce avec un massage cardiaque ou un défibrillateur.

Dans 70 % des cas, les crises cardiaques interviennent devant des témoins, mais seuls 20 % d’entre eux connaissent les gestes nécessaires à la survie du patient. Les chercheurs américains ont étudié les échantillons sanguins des patients pour observer le lien entre omega-3 et crise cardiaque. Les participants ont également fourni des renseignements sur leur consommation de poissons gras. Et le résultat est sans appel : la consommation d’omega-3, quels que soient l’âge, le sexe, l’ethnie, la présence de diabète ou l’utilisation d’aspirine, est associée à une baisse de 10 % de la mortalité cardiaque.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Vers une prévention active du cancer du foie
Mardi, 20/09/2016 - 08:35

Des travaux pilotés par le Centre International de Recherche sur le Cancer (CIRC) de Lyon ont montré qu'une prévention alimentaire active du cancer du foie est belle et bien possible.

Pour arriver à cette conclusion, les chercheurs se sont appuyés sur les données de l'étude européenne EPIC. Cette vaste étude suit 500 000 Européens de 10 pays différents. L’objectif : mieux comprendre le lien entre alimentation et cancer. Les chercheurs ont donc sélectionné 121 patients atteints de cancer du foie, 140 souffrant d’un cancer de la vésicule biliaire ou des voies biliaires, et autant de personnes en bonne santé. Ils ont découvert que la consommation d'aliments riches en selenium, fruits de mer, oignons, œufs et noix, avait un effet bénéfique sur le système immunitaire.

Les participants qui possèdent de hauts niveaux de sélénium dans le sang sont moins à risque de développer une tumeur. Le risque de carcinome hépatocellulaire est particulièrement diminué, au vu des résultats. Pour chaque hausse de 20 μg de sélénium par litre de sang, le risque est réduit de 59 %.

De fortes concentrations de séléno-protéine P (SePP) s’avèrent également bénéfiques. Cette protéine est chargée de la distribution du sélénium dans le foie et le reste de l’organisme. Chaque hausse de 1,5 mg par litre de sang se traduit par un risque de carcinome hépatocellulaire réduit de 63 %. En revanche, aucune association n’émerge avec les cancers de la vésicule biliaire et des voies biliaires, situées en dessous du foie.

Les auteurs de cette étude soulignent que ces résultats sont encourageants. Augmenter ses apports en sélénium, lorsqu’ils sont insuffisants, pourrait agir en prévention, au même titre que l’arrêt du tabac, une faible consommation d’alcool et un IMC normal. « Mais ces résultats s’appuient sur une seule étude, avec un nombre réduit de cancers du foie, nos résultats doivent donc être validés par d’autres travaux avant que des recommandations de santé publique ne soient émises », souligne le Docteur David Hughes, du Collège Royal des Chirurgiens d’Irlande. Les concentrations en sélénium varient selon la région. Bétail et cultures d’Europe en contiennent moins, car le sol est pauvre en ce micronutriment. A l’inverse, les populations d’Amérique du Nord sont mieux loties.

Définir des stratégies préventives est important au vu du poids important du cancer du foie dans la mortalité mondiale. En 2012, il représentait 9 % des décès par cancer. « L’incidence des cancers du foie augmente dans les pays développés, rappelle le Docteur Mazda Jenab, du CIRC. Les cancers du foie sont souvent diagnostiqués à des stades tardifs et les options thérapeutiques sont limitées ».

Article rédigé par Georges Simmonds pour RT Flash

AJCN

Découverte d'une molécule brûleuse de graisse
Mardi, 20/09/2016 - 08:19

Des scientifiques du Dana-Farber Cancer Institute ont mis à jour un mécanisme biologique jusqu'ici inconnu et l'existence d'une molécule qui permet aux cellules de brûler des calories sous forme de chaleur plutôt que de les stocker sous forme de graisse.

Leurs travaux montrent la capacité de l'enzyme PM20D1 à brûler les cellules graisseuses brunes et beiges. Il existe en effet trois variétés de cellules graisseuses : les cellules adipeuses blanches stockent les calories en excès, les cellules adipeuses brunes produisent de la chaleur en brûlant les calories stockées dans la graisse et les cellules adipeuses beiges récemment découvertes par cette même équipe de chercheurs seraient également capables de brûler les graisses.

"La graisse brune est présente chez les animaux et en petites quantités chez l'homme. Elle est mélangée avec de la graisse blanche dans ce qu'on appelle des cellules beiges", expliquent les chercheurs. Ils ont constaté que l'enzyme PM20D1 produit des composés appelés acides aminés N-acylés qui "boostent" le processus naturel de combustion des cellules adipeuses brunes et beiges.

Quand ils ont injecté ces acides aminés à des souris obèses, les chercheurs ont constaté une perte de poids significative après huit jours de traitement, localisée exclusivement dans le tissu adipeux."Ces données suggèrent que la PM20D1 peut être utilisée comme thérapie pour l'obésité et d'autres troubles qui y sont associés comme le diabète et la maladie du foie gras", explique Bruce Spiegelman, principal auteur de l'étude.

Mais plusieurs études doivent encore être menées avant d'espérer une nouvelle approche thérapeutique. A l'heure actuelle, aucun moyen n'est plus efficace qu'une alimentation saine et une activité physique suffisante pour prévenir la prévalence de l'obésité.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Cancer : vers une nanothérapie ciblant la P-sélectine
Mardi, 20/09/2016 - 08:08

Des chercheurs américains du Memorial Sloan Kettering Cancer Center de New York travaillent sur la P-sélectine, une protéine de liaison surexprimée par de nombreux cancers, comme nouvelle cible possible pour une administration plus efficiente de la chimiothérapie sur le primitif et les métastases. Une nanoparticule vectrice synthétisée à partir d'une algue marine a été testée avec succès chez l'animal. Même les tumeurs n'exprimant pas la sélectine seraient candidates grâce à l'effet inducteur d'une irradiation.

Les sélectines, qui sont impliquées dans la circulation des globules blancs et des cellules tumorales, peuvent être habilement utilisées comme cible de médicaments et de nanoparticules contre le cancer. Pour se propager à des organes éloignés, les cellules cancéreuses qui circulent dans le sang s'agrippent à des molécules d'adhésion dans les parois des vaisseaux sanguins, les P-sélectines. Yosi Shamay et ses collègues ont en outre constaté que, contrairement aux tissus normaux, de nombreux cancers humains - notamment du poumon, de l'ovaire, du sein et du foie - surexpriment la P-sélectine sur les cellules tumorales et dans les vaisseaux sanguins environnants.

Pour exploiter cette molécule comme une cible thérapeutique, les chercheurs ont conçu des vecteurs de médicaments nanoparticulaires composés de fucoïdane, un composé dérivé d'algues qui se lie naturellement à la P-sélectine. Ces travaux ont permis, dans un modèle murin de cancers du poumon, du mélanome et du sein métastatiques, lesquels expriment la P-sélectine, de délivrer des nanoparticules chargées en molécules de chimiothérapie anticancéreuses.

Pour les tumeurs qui n'expriment généralement pas la P-sélectine, ces chercheurs ont utilisé la radiothérapie qui permet de stimuler l'expression de P-sélectine dans les tissus, afin de guider les nanoparticules sur le site de la tumeur. Les premiers essais sur la souris montrent que, combinée avec le rayonnement, cette nanothérapie permet de réduire sensiblement certaines tumeurs du poumon n'exprimant pas de P-sélectine.
 
Article rédigé par Georges Simmonds pour RT Flash

Science Mag

Cancer du sein : une molécule utilisée contre l'alcoolisme efficace contre les cellules cancéreuses
Mardi, 20/09/2016 - 08:02

Des chercheurs britanniques de l'Université de Londres ont découvert que le naltrexone, une molécule bien connue réservée au traitement des addictions à l'alcool et à l'héroïne, permettrait, à de faibles doses, de stopper l'évolution du cancer du sein et de détruire les cellules malades.

Les chercheurs ont en effet observé que la molécule, administrée à de faibles doses, pouvait non seulement freiner la progression des cellules cancéreuses, mais également les détruire grâce à un système immunitaire rendu plus combatif. En changeant le mode, la posologie et la fréquence du médicament, le naltrexone s'est révélé agir comme un traitement anticancéreux : "Nous avons vu qu'en donnant le médicament pendant deux jours, et en le retirant ensuite, les cellules cancéreuses arrêtaient de proliférer et qu'elles mourraient", indique le Docteur Liu, auteur de l'étude et chercheur en cancérologie depuis 20 ans.

Les chercheurs espèrent démarrer rapidement des essais cliniques avec le naltrexone pour compléter les traitements des patients. De précédentes études ont montré que le naltrexone diminuait les symptômes liés à la maladie de Crohn, la fibromyalgie et la maladie de Parkinson.

Article rédigé par Georges Simmonds pour RT Flash

International Journal of Oncology

Plus de 500 gènes se réveillent après la mort
Mardi, 20/09/2016 - 07:52

A la mort d’un individu, son système cardiovasculaire et respiratoire cesse de fonctionner. Pourtant, aussi étrange que cela puisse paraître, la vie ne s'arrête pas complètement. En effet, selon une étude réalisée par des chercheurs de l’Université de Washington (Etats-Unis), certains gènes pourraient survivre plusieurs jours après le décès…

Pour cette étude, ils ont étudié les gènes de souris décédées pendant deux jours. Ceux des poissons-zèbres ont été observés sur une période de quatre jours. Verdict : des centaines de gènes continuent leur activité même après la mort du cobaye, et ce chez les deux espèces. Plus précisément, 515 gènes de la souris fonctionnaient encore le premier jour. Du côté du poisson-zèbre, 548 étaient encore actifs quatre jours après le décès de l’animal.

Parmi ces gènes, certains stimulaient l’inflammation et le système immunitaire. Une réaction bénéfique en cas d’urgence. Mais fait plus surprenant, d’autres gènes, qui ne s’expriment qu’à l’état d’embryon, se sont réveillés, alors même que ce type de gène n’est plus nécessaire après la naissance. Peter Noble explique que les cellules de l’organisme se retrouvent dans une situation similaire à celle d’un embryon qui se développe très vite. Les gènes chercheraient donc à recréer des éléments de l’organisme. Ces recherches pourraient permettre de dater plus précisément  le moment d'un décès, ce qui constituerait une avancée intéressante en criminologie.

Article rédigé par Georges Simmonds pour RT Flash

Science

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top