RTFlash

RTFLASH Recherche & Technologie
NUMERO 977
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 30 Novembre 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
L'intelligence artificielle pour mieux trier des déchets
Les nanotechnologies passent au vert
Matière
Bioénergies : un potentiel encore sous-estimé au niveau mondial
Un matériau tissé en 3D pour amortir les vibrations
Les pesticides participent au déclin des abeilles
Des déchets radioactifs piégés dans les minéraux
Le premier kilomètre d'autoroute au monde rénové avec du bitume 100 % recyclé
Vivant
Quand nos gènes nous empêchent d'arrêter de fumer…
Un nouveau vaccin contre la coqueluche plus efficace
Cancer de la prostate : une avancée majeure au CHRU de Brest
Un implant bioadhésif qui illumine les cellules cancéreuses
Maladie d’Alzheimer : un espoir de traitement nommé caspase
Arthrose : un nouveau médicament révolutionnaire
Le dépistage massif des gros fumeurs pourrait sauver 7 500 vies par an en France…
Recherche
Un avion électrique révolutionnaire, sans pièces mobiles, a effectué son premier vol
Edito
Droits d’auteurs : L’Europe et les GAFA



Il y a quelques semaines, le 12 septembre dernier, le Parlement européen, après un premier rejet le 5 juillet dernier, a adopté, à l’occasion d’un vote historique le projet très attendu de Directive portant sur la réforme du droit d’auteur. Réunis en séance plénière à Strasbourg, les 703 élus présents dans l’hémicycle ont avalisé une nouvelle version du texte qui crée notamment un nouveau « droit voisin du droit d’auteur » pour les éditeurs de presse. Ce projet de directive « copyright » a été adopté avec 438 votes pour, 226 contre et 39 abstentions.

Les objectifs de cette proposition de directive sont clairs : concilier la nécessité de faciliter l’accès aux contenus avec la protection de leurs créateurs et combattre la disparité de rémunération entre diffuseurs de contenus numériques et titulaires de droits, autrement appelée "value gap". Cette Directive pose en outre une obligation de transparence : les sociétés du Net devront communiquer aux créateurs des informations sur l’exploitation de leurs œuvres (modes d’exploitation, recettes générées et rémunération due). La proposition de directive précise que cette obligation doit être proportionnée et effective.

Cette réforme importante part du principe qu’actuellement, l’adaptation des contrats permettant aux auteurs de demander une rémunération additionnelle lorsque leur rémunération initiale s’avère trop faible par rapport aux recettes de l’exploitation de l’œuvre. La future Directive prévoit donc un nouveau recours auprès d’un organisme impartial et expérimenté à la demande d’une partie qui est instauré. Les Etats membres devront par ailleurs instituer une procédure spécifique volontaire de règlement extrajudiciaire des litiges.

En France, on se souvient qu’une récente tribune signée par la ministre de la Culture, plus de 200 personnalités du monde de la culture et des médias et quatre anciens de ses prédécesseurs rue de Valois (Jean-Jacques Aillagon, Renaud Donnedieu de Vabres, Aurélie Filippetti et Jack Lang) avait solennellement rappelé l’importance que représentait pour la presse, et plus largement pour la création numérique, la reconnaissance d’un droit voisin afin d’aboutir à une « meilleure rémunération lors de la reproduction de leurs articles en ligne ». Cette tribune plaidait également pour « une rémunération juste et proportionnée pour les créateurs ».

Dans le texte finalement adopté le 12 septembre, les eurodéputés se sont prononcés en faveur d’un texte certes complexe et très technique, mais équilibré et cohérent, même si d’importantes modalités de contrôle et d’application demandent encore à être précisées rapidement, à l’occasion du « trilogue » qui va se poursuivre plusieurs mois entre le Parlement européen, la Commission et les Etats-membres.

Les Parlementaires ont notamment adopté le fameux article 13, consacré aux contenus culturels hébergés et diffusés sur les plates-formes de partage de contenus. Cet article prévoyait notamment que, faute d’un accord de licence entre ayants droit et les plates-formes, les hébergeurs de contenus seraient contraints de prendre des mesures « appropriées et proportionnées » afin de bloquer les œuvres protégées par le droit d’auteur postées par les internautes. Concrètement, cela suppose la mise en place de mécanismes de filtrage automatique a priori des contenus, ce que plusieurs plates-formes, comme YouTube, ont déjà fait, avec l’outil Content ID. Conscients cependant des difficultés techniques que représente la mise en place d’un tel filtrage (qui devra recourir massivement à l’intelligence artificielle pour apprendre à gérer la complexité et le diversité des droits nationaux sur le droit d’auteur), les Eurodéputés ont complété cet article par des amendements qui prévoient « Qu’une attention particulière devra être apportée au respect des droits fondamentaux et à l'utilisation d'exceptions et de limites » et « Qu’il faudra s'assurer que le poids pour les petites et moyennes entreprises reste adapté et éviter le blocage automatique de contenus ».

Notons que, toujours dans un souci d’équilibre, les amendements qui prévoyaient de renforcer fortement la responsabilité des hébergeurs ont été rejetés. Sur ce point central, les eurodéputés ont préféré consacrer le principe des « négociations de bonne foi » avec les titulaires de droits pour empêcher l’accessibilité des œuvres protégées, dans l’hypothèse où ces derniers n’ont pas souhaité conclure de licences. La Directive ne prévoit donc pas, en la matière, de mesures contraignantes qui risquaient d’être contreproductives sur le plan économique et politique. Le texte précise qu’il reviendra aux Etats membres de veiller à ce que ces prestataires mettent en place des mécanismes de plaintes et de recours effectifs et rapides en cas d’un retrait de contenus injustifié.

L’autre grande rupture juridique qu’introduit ce texte concerne, à l’article 11, la création d’un « droit voisin » pour les éditeurs de presse. Il s’agit d’un droit dérivé du droit d’auteur, qui donnera la possibilité aux médias de négocier une rémunération en échange de la diffusion ou de l’agrégation d’extraits d’articles accompagnés d’un lien hypertexte. Sur cette question fondamentale, on peut cependant s’interroger sur le risque que les géants du numérique, plutôt que d’avoir à rétribuer la presse, préfèrent fermer leurs services comme Google News l’a fait en Espagne.

Le Parlement a également ajouté deux exceptions au texte proposé par la Commission. D’une part, ce droit voisin ne pourra pas s’appliquer aux simples hyperliens accompagnés de « mots isolés ». Cette exception qui, malgré une rédaction un peu floue, vise les liens hypertextes, selon le rapporteur de ce texte, a vraisemblablement été ajoutée afin de rassurer les sites internet tels que WIKIPEDIA. Il appartiendra aux Etats de préciser le champ de cette disposition, sous peine de la voir devenir une source sérieuse de contentieux juridique.

D’autre part, ce droit ne peut empêcher l’utilisation légitime, à titre privé et non commercial, de publications de presse par des utilisateurs particuliers. Il s’agit d’une extension de l’exception pour copie privée, connue en droit d’auteur, à ce nouveau droit voisin. Enfin, le texte prévoyait que ce nouveau droit des éditeurs expirait 20 ans après la publication de la publication de presse, le point de départ étant fixé au 1er janvier de l’année suivant la date de la publication. Le Parlement a quant à lui réduit cette durée à 5 années et précisé que ce droit ne s’appliquait pas avec effet rétroactif.

Outre ces articles 11 et 13, considérés comme les points centraux de cette réforme des droits d’auteurs numériques, il faut également évoquer l’article 12, portant sur l’attribution du bénéfice de la compensation équitable aux éditeurs. Cet article prévoit que les États membres auront la liberté de prévoir dans leurs législations que les éditeurs peuvent bénéficier d’une part de la compensation équitable versée pour l’utilisation d’une œuvre faite en vertu d’une exception ou d’une limitation, lorsqu’un auteur leur a cédé ou concédé sous licence un droit.

Enfin, les articles 14 à 16 de cette Directive prévoient que les auteurs, interprètes et exécutants, doivent recevoir une rémunération juste et proportionnée pour l’exploitation de leurs œuvres, ainsi qu’une rémunération supplémentaire appropriée en cas de rémunération initiale trop faible, au regard de celle perçue par l’exploitant. En cas de manquement à ces obligations, elle crée un droit de révocation au profit des auteurs, interprètes et exécutants, ainsi que la possibilité de recourir à une procédure extrajudiciaire de règlement des litiges.

D’ici l’adoption définitive de cette Directive, l’article 13, concernant les conditions de diffusion des contenus culturels par les plates-formes numériques pourrait à nouveau opposer certains Etats membres et le Parlement quant à l’éventuelle obligation de filtrage automatique qu’il imposerait aux plates-formes. Le document final devra ensuite à nouveau être soumis au vote ultime du Parlement avant que les Parlements nationaux s’en saisissent pour les transposer dans leurs droits respectifs. En fait, la portée réelle de cette Directive dépendra de ses modalités d’application, de la capacité d’organisation des différents acteurs concernés et de la volonté politique dont feront preuve les états-membres de l’Union pour transposer rapidement et complètement ce texte fondamental dans leur droit national.

Reste que ce débat a été largement biaisé par une présentation simpliste et fallacieuse de la réalité, qui opposerait, d’un côté, les intérêts de l’industrie du droit d’auteur et, de l’autre côté, les tenants de la liberté d’expression et du logiciel libre. Mais, si l’on observe la réalité des rapports de force économiques et industriels, on s’aperçoit que le véritable combat est celui dans lequel s’affrontent l’industrie numérique et culturelle européenne et les géants numériques américains, les fameux GAFA, qui veulent contrôler totalement l’ensemble de la chaîne de valeur de l’économie numérique : production, transformation, transports et vente.

Si cette Directive a pu finalement être adoptée, en dépit d’un lobbying absolument massif des grands acteurs américains du numérique, c’est parce que l’Europe a enfin pris conscience qu’elle courait à sa perte si elle ne réagissait pas face au pillage numérique de ses ressources et qu’elle devait absolument parvenir à faire respecter une concurrence équitable dans ce domaine-clé pour sa compétitivité économique et sa souveraineté politique. Il faut par ailleurs rappeler qu’aux Etats-Unis et en Chine, le copyright est bien mieux protégé par la loi qu’en Europe, sans que cela n’entrave le moins du monde le développement des industries et des technologies de l’information.

L’autre argument-massue invoqué sans cesse par les opposants à cette Directive est que ce nouveau cadre législatif européen va porter un coup fatal au principe de gratuité de l’information et du contenu sur le Net. Mais dans une remarquable et récente tribune, Sammy Ketz, directeur de l’AFP à Bagdad, souligne que « Les médias qui produisent les contenus et qui envoient leurs journalistes risquer leur vie pour assurer une information fiable, pluraliste et complète, ne sont pas ceux qui en tirent les bénéfices, ce qui est injustifiable, à la fois sur le plan moral et démocratique » (Voir AFP).

Sammy Ketz rappelle également qu’avec les recettes publicitaires pharamineuses que récoltent les GAFA –16 milliards de dollars pour Facebook  en 2017 et 12,7 milliards dollars pour Google – ces géants américains ont tout à fait les moyens de rétribuer au juste prix les medias sans faire payer les consommateurs, et cela d’autant plus que les GAFA n’emploient aucun journaliste, ne produisent aucun contenu éditorial et se rémunèrent par la publicité liée au contenu que les journalistes produisent.

Il faut voir la réalité en face : si les géants du numérique sont si forts et ont pu jusqu’à présent imposer leur loi aux états européens, c’est précisément parce que ceux-ci se sont montrés faibles et divisés. Mais il n’y a pas de fatalité et l’Europe a tout fait les moyens politiques, juridiques et économiques de contraindre ces grands acteurs du numérique à respecter, pour le bien de tous, les principes de libre et loyale concurrence dont ils se réclament !

Dans le même esprit, ces géants du numérique, dont il n’est pas question ici de contester le rôle absolument majeur en matière d’innovation et de développement de la société de l’information, sont en train de comprendre qu’ils ne sont pas au-dessus des lois et qu’ils ont des devoirs et des responsabilités à la hauteur de leur puissance économique et de leur extraordinaire capacité d’inventivité technologique.

A cet égard, outre l’adoption de cette Directive « Copyright », le 12 septembre dernier, deux décisions majeures marquent un tournant dans l’affirmation de la volonté politique de l’Europe de mieux défendre sa souveraineté et ses intérêts vitaux. La première concerne Google qui, le 18 juillet dernier, a été condamné par la Commission européenne à une amende de 4,34 milliards d'euros pour abus de position dominante à propos de son système d'exploitation pour smartphones et tablettes Android qui équipe plus de 90 % des appareils du marché.

La seconde décision concerne Apple : il y a quelques jours, le gouvernement irlandais a annoncé avoir enfin récupéré les avantages fiscaux d'Apple, plus les intérêts, soit 14,3 milliards d'euros. Ce transfert résulte de la décision de la Commission européenne, qui, en 2016, a jugé que le géant américain des nouvelles technologies avait bénéficié de dispositions fiscales particulières, lui permettant d'échapper en partie aux impôts en Irlande pendant plusieurs années. Elle avait alors réclamé au gouvernement irlandais qu'il récupère la somme estimée de ces avantages fiscaux, ce que cet état a fini par faire, bien que, pour la forme, il ait fait appel de cette décision européenne.

Tout en accentuant leurs efforts pour se hisser au niveau de leurs concurrents en matière d’innovation technologique et numérique, notre pays et l’Europe doivent poursuivre dans cette voie claire et volontariste et affirmer, face aux Etats-Unis, mais également face aux nouvelles puissances numériques émergentes comme la Chine, une volonté politique sans faille de préserver et d’exploiter eux-mêmes l’immense gisement de valeur que représente leur création numérique, cognitive et culturelle.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
L'intelligence artificielle pour mieux trier des déchets
Jeudi, 29/11/2018 - 06:38

Installé depuis juin sur un site du groupe Veolia à Amiens, le robot « Max AI », fabriqué par une société américaine, est capable de reconnaître certains types de déchets indésirables sur le tapis roulant d’une chaîne de tri et, avec un bras articulé, de les en écarter. « Nous l’avons installé sur une chaîne de déchets fibreux (petits papiers et cartons, NDLR), et on lui demande de reconnaître et d’enlever tout ce qu’on ne veut pas », par exemple des pots de yaourt ou des canettes en aluminium, explique Anne Thevenot, directrice technique et performance France du groupe. « C’est une première européenne sur une chaîne de tri de déchets ménagers », assure Bernard Harambillet, directeur de la branche Recyclage et valorisation de l’entreprise pour la France. Ses équipes ont formé l’algorithme de Max AI à reconnaître des dizaines de milliers de types d’objets.

Il peut effectuer 3.600 gestes de tri par heure, contre environ 2.200 pour un opérateur humain. Pour l’instant, il apprend et il a encore des ratés. Un opérateur passe donc derrière lui pour une ultime sélection. Dans un rapport de 2014, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) estimait que l’automatisation des centres de tri allait engendrer la suppression de 3.500 à 5.000 emplois.

« Les robots vont diminuer le nombre d’opérateurs sur les opérations les plus complexes, les plus sales, mais il y en aura plus sur le contrôle-qualité. Et étant donné le volume de déchets qu’on va devoir traiter à l’avenir, on n’anticipe pas de baisse d’emplois », veut rassurer M. Harambillet, alors que les centres de tri emploient de nombreuses personnes en insertion.

La France s’est fixé comme objectif de réduire de moitié le volume de déchets mis en décharge d’ici à 2025, ce qui implique de mieux trier pour améliorer le recyclage, et surtout de recycler 100 % des plastiques à cet horizon, contre autour de 26 % aujourd’hui. Dès 2022, tous les Français devront aussi mettre dans leur poubelle dédiée aux déchets à recycler tous les emballages, y compris les pots de yaourt et les barquettes alimentaires, qui vont actuellement pour la plupart dans la poubelle « grise ». Les collectivités et les professionnels s’attendent donc à une augmentation massive du volume de plastiques à collecter et à trier.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

Les nanotechnologies passent au vert
Mardi, 27/11/2018 - 06:23

Des chercheurs de l’Institut des nanotechnologies de Lyon, du laboratoire Ingénierie des matériaux polymères, de l’Institut de science des matériaux de Mulhouse et de l’Institut lumière matière, ont mis au point un procédé de lithographie pour façonner des substrats utilisant des produits respectueux de l’environnement, en l’occurrence de l’eau et du chitosane (un biopolymère issu de déchets agroalimentaires). Leurs travaux montrent que non seulement ce procédé peut se passer des réactifs issus du pétrole, mais qu’il est plus économique et permet des impressions de lithographie à l'échelle nanométrique.

Le chitosane est un polysaccharide hydrophile, biosourcé, biocompatible, biodégradable et soluble en milieu aqueux. Utilisé dans ces travaux comme résine, il est fabriqué de manière industrielle à partir de la chitine, extraite de déchets comme les carapaces de crabes et de crevettes. Le chitosane est le second biopolymère le plus abondant sur Terre après la cellulose. Il est donc peu coûteux, environ dix fois moins cher que les résines classiques et, du fait de son innocuité, son utilisation est peu contraignante.

Ce n’est pas la première fois que les scientifiques essayent d’utiliser des biopolymères pour la lithographie mais, jusqu’à maintenant, cela nécessitait de les transformer ou les activer chimiquement par des réactions utilisant des produits chimiques toxiques, dangereux, ou encore des opérations complexes. L’objectif final d’une chimie plus verte ne pouvait donc pas être vraiment atteint.

Il ressort notamment de ces travaux que le chitosane peut être utilisé sans autre opération chimique supplémentaire pour fournir une résine photopositive (la gravure finale est identique à celle de la résine) et que de l’eau acidifiée avec un peu d’acide acétique suffit comme solvant.

En utilisant un faisceau d’électrons, la résine photopositive a pu fournir des traits de 30 nm espacés de 200 nm, et en utilisant des UV courts (193 nm) des traits de 100nm de largeur. L’ajout d’un colorant, la riboflavine, à la résine de chitosane a permis de la rendre sensible à des UV à 248 nm et d’obtenir des gravures de taille submicronique de l’ordre de 0,3 µm avec utilisation d’eau comme développeur. Dans tous les cas, les motifs ont ensuite été transférés sur du silicium par gravure au plasma.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

^ Haut
Matière
Matière et Energie
Bioénergies : un potentiel encore sous-estimé au niveau mondial
Jeudi, 29/11/2018 - 06:46

L'Agence internationale de l'énergie (AIE) estime, dans son dernier rapport, que les énergies renouvelables vont poursuivre leur progression, surtout dans le secteur de l'électricité : elles pourraient représenter un tiers de la production électrique mondiale dans cinq ans. Toujours dans l'électricité, les capacités renouvelables ont progressé de 178 gigawatts (GW) l'an dernier, tirées par le solaire (97 GW), dont plus de la moitié ont été installées en Chine. La croissance de l'éolien terrestre a en revanche ralenti pour atteindre 44 GW de capacités nouvelles.

Mais "les usages des renouvelables s'étendent beaucoup plus lentement dans les secteurs des transports et de la chaleur", regrette l'AIE, qui conseille des pays développés sur leur politique énergétique. Elle en profite pour souligner le rôle important mais sous-estimé de la bioénergie, produite à partir de biomasse, qui constitue la plus grosse source d'énergie renouvelable en raison de son utilisation pour le chauffage et les transports. Ces usages recouvrent l'utilisation de la biomasse pour l'électricité, le chauffage et l'industrie, ou encore les biocarburants pour les transports.

L'énergie peut être extraite par combustion directe ou par combustion après un processus de transformation de la matière première, par exemple la méthanisation (biogaz, ou sa version épurée le biométhane) ou d'autres transformations chimiques (pyrolyse, carbonisation hydrothermale et les méthodes de production de biocarburants ou « agrocarburants »).

"Sa part dans la consommation totale d'énergie renouvelable dans le monde est d'environ 50 % aujourd'hui, en d'autres termes autant que l’hydraulique, l'éolien, le solaire et toutes les autres énergies renouvelables combinées", souligne le directeur exécutif de l'AIE, Fatih Birol.

Article rédigé par Georges Simmonds pour RT Flash

AIE

Un matériau tissé en 3D pour amortir les vibrations
Jeudi, 29/11/2018 - 06:19

Une équipe composée de chercheurs des universités de Surrey (Royaume-Uni), de Californie et Johns Hopkins (États-Unis), pense avoir trouvé la solution qui rendra les voitures de demain beaucoup plus confortables. Il s'agit d'un matériau tissé en 3D pour former un treillis complexe qui réussit le tour de force de combiner la rigidité du métal avec les capacités d'amortissement du caoutchouc.

Ce matériau est composé de fils métalliques tissés en empilant des fils de chaîne et de trame selon un schéma orthogonal. Des fils en Z s'étendent sur toute l'épaisseur et s'enroulent autour des fils de trame supérieurs et inférieurs reliant le tout ensemble. Des points de soudure placés à des intervalles réguliers créent la rigidité du treillis porteur tout en laissant des parties flottantes qui vont pouvoir absorber les vibrations.

Les échantillons de matériaux produits sont comparables aux polymères en termes de coefficient d'amortissement, mais ils sont poreux et ont une température d'utilisation maximale beaucoup plus élevée. Selon eux, cette technologie pourrait bénéficier non seulement à l’automobile mais aussi aux trains et à l'aéronautique.

Article rédigé par Georges Simmonds pour RT Flash

University of Surrey

Les pesticides participent au déclin des abeilles
Mardi, 27/11/2018 - 19:44

Des chercheurs de l’Université d’Almeria (UAL) démontrent que l’exposition des abeilles aux pesticides affecte leurs fonctions cérébrales, en provoquant une baisse des neuropeptides, molécules qui sont essentielles pour réguler les mécanismes nerveux d’apprentissage et de mémorisation, l’appétit, le comportement sexuel…

Concrètement, l’étude a été menée sur un échantillon de 60 ruches, chacune comprenant 500 abeilles, et six de ces ruches ont été sélectionnées au hasard. L’expérience s’est déroulée en deux étapes. On a d’abord analysé et quantifié les neuropeptides les plus connus et utiles chez les abeilles.

Puis on a mesuré le niveau de 260 pesticides que l’on a pu prélever par dissection des abeilles sélectionnées. Un tel travail a nécessité l’utilisation de techniques avancées telles que la chromatographie liquide combinée ou la spectrométrie de masse de basse et haute résolution. Suite à cette analyse, les chercheurs ont trié et mis en évidence les neuropeptides les plus importants, par le biais d’un programme informatique spécial.

Il est maintenant prouvé que certains groupes de pesticides sont des perturbateurs endocriniens, qui viennent altérer l’équilibre hormonal et le métabolisme de ces neuropeptides. Ce qu’il reste à découvrir à présent, c’est l’action de chacune de ces molécules chez les insectes, et à quelles fonctions cérébrales elles se rapportent.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

Des déchets radioactifs piégés dans les minéraux
Mardi, 27/11/2018 - 06:30

En 1972, le grand physicien français Francis Perrin fit une découverte étonnante dans une mine d’uranium sur le site d’Oklo, au Gabon : du minerai d’hexafluorure d’uranium dont la teneur en uranium 235 était anormalement faible par rapport à sa concentration naturelle. Pour expliquer ce curieux phénomène, Perrin émit alors l'hypothèse que, d’une façon ou d’une autre, une réaction de fission nucléaire autoentretenue pendant plusieurs années avait consommé une partie de cet isotope dans le minerai.

Depuis, 16 autres de ces "réacteurs naturels", situés entre 12 et 250 mètres de profondeur, ont été identifiés sur le site d’Oklo, dont certains remontent à près de 2 milliards d’années. Ces réacteurs sont tous à l’arrêt depuis plusieurs centaines de millions d’années, mais ils intéressent les géologues car, durant leur activité, ils ont émis des radio-isotopes similaires aux produits de fission engendrés dans les centrales nucléaires actuelles, c’est-à-dire des « déchets nucléaires ». Aussi voit-on dans le site d’Oklo un modèle d’étude pour la gestion des déchets radioactifs par enfouissement.

En 2000, des chercheurs de l’Université Washington, à Saint-Louis, ont ainsi montré que certains minéraux (des phosphates) dans le réacteur 13 d’Oklo avaient piégé des isotopes radioactifs du xénon dans des proportions plus importantes que n’importe quel autre minéral sur Terre. À présent, Evan Groopman, du laboratoire de recherche navale américaine, à Washington, et ses collègues ont découvert qu’un métal présent dans le même réacteur, le ruthénium, a piégé des radio-isotopes de césium et de baryum particulièrement difficiles à traiter, notamment du césium 135 et 137.

Comment fonctionne un réacteur nucléaire naturel et, surtout, que deviennent ses déchets radioactifs ? Cinq conditions sont nécessaires pour qu’un réacteur nucléaire, naturel ou non, s’allume et se maintienne en activité. D’abord, il faut des atomes lourds, dont le noyau contient beaucoup de protons et de neutrons. À Oklo, il s’agit de l’uranium 235. Instables, ces atomes se divisent en atomes plus légers, en général après avoir capturé un neutron : c’est la fission nucléaire. La présence de neutrons, provenant d’un autre élément ou d’un isotope – l’uranium 238 à Oklo –, favorise donc le déclenchement du réacteur.

La fission dégage alors elle aussi des neutrons, mais très rapides. Or plus un neutron est rapide, moins il a de chances d’être capté par les noyaux lourds (ici l’uranium 235). Il est ainsi nécessaire que les neutrons soient freinés par un agrégat d’atomes légers. Dans les centrales nucléaires, on utilise de l’eau. À Oklo, l’eau infiltrée dans la roche remplissait également cette fonction. Ralentis, les neutrons provoquent à leur tour la fission d’atomes d’uranium 235, entraînant une réaction en chaîne, qui est à la base du fonctionnement des réacteurs nucléaires industriels.

Enfin, cette réaction en chaîne ne doit ni s’emballer ni s’arrêter. Dans les réacteurs industriels, des barres de contrôle contenant des matériaux capteurs de neutrons, comme le carbure de bore ou le cadmium, régulent la réaction nucléaire en absorbant l’excès de neutrons. À Oklo, les cycles d’apport d’eau et d’évaporation entretenaient la réaction en chaîne. Les matériaux environnants ne devaient par ailleurs pas trop modérer le flux de neutrons, sans quoi la réaction en chaîne se serait rapidement arrêtée.

Ainsi, les gisements d’Oklo réunissaient toutes les conditions pour devenir des réacteurs nucléaires. Leur production d’énergie a été évaluée à 100 kilowatts en moyenne par réacteur ; 100 000 fois moins que la production des réacteurs industriels. Ils ont fonctionné pendant 100 000 à 800 000 ans. En conséquence, ils ont produit des déchets radioactifs. Une partie de ces déchets a été évacuée dans par les eaux d’écoulement, mais l’étude des couches géologiques environnantes a montré que les matériaux proches du gisement en avaient retenu une autre partie.

C’est ce qu’ont montré Evan Groopman et ses collègues. Ils ont étudié la composition isotopique des roches environnant le réacteur 13 d’Oklo à l’aide d’un dispositif combinant un spectromètre de masse à ionisation secondaire et un spectromètre de masse par accélérateur. Le premier appareil bombarde la surface de l’échantillon de minerai avec un faisceau d’ions. Une partie de la surface pulvérisée est ionisée et ensuite accélérée dans le deuxième appareil permettant d’identifier les atomes, molécules ou isotopes de l’échantillon et de mesurer leur concentration.

La technique de spectrométrie de masse par accélérateur permet de mesurer des concentrations très faibles de radio-isotopes, dans un environnement complexe. L’équipe d’Evan Groopman a ainsi pu estimer précisément les différences de masses d’isotopes du baryum et du césium et en déduire l’âge du réacteur depuis son arrêt. En outre, ils ont constaté qu’une phase métallique à base de ruthénium a fixé en quantités égales du césium 134 et 137, deux produits de la fission de l’uranium 235, environ cinq ans après l’arrêt du réacteur. Ces produits sont ainsi restés piégés dans le ruthénium pendant 2 milliards d’années.

Le césium est un élément radioactif hautement volatil. Après les catastrophes de Tchernobyl et de Fukushima, du césium 134 et 137 a été relâché dans l’environnement. Ces radio-isotopes, très incompatibles avec le combustible nucléaire, se retrouvent piégés entre le combustible et la gaine du réacteur. Si ce gainage venait à rompre, le césium serait relâché instantanément vers l’extérieur, ce qui représente un réel danger. Le ruthénium constituerait ainsi un élément intéressant pour piéger le césium produit par les réacteurs.

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

Le premier kilomètre d'autoroute au monde rénové avec du bitume 100 % recyclé
Mardi, 27/11/2018 - 06:15

Eurovia, en collaboration avec VINCI Autoroutes, vient de dévoiler la première « route 100 % recyclée » au monde, rendue possible grâce à la conception, en partenariat avec la société Marini-Ermont (groupe Fayat), d’une usine d’enrobés mobile continue innovante (TRX100 %), permettant de recycler de 0 à 100 % d’agrégats d’enrobés.

Une portion d'autoroute a été rénovée entièrement à partir de l’ancien revêtement sur un chantier de l'A10 reliant Bordeaux à Paris. Selon le constructeur, il s'agit d'une première mondiale qui limiterait l'empreinte environnementale des travaux routiers.

Jusqu'à présent, on ne pouvait utiliser que 50 à 60 % d'enrobés recyclés pour façonner de nouvelles routes. Pour dépasser cette limite, Eurovia Grands Travaux a travaillé sur une technologie qui permet la rénovation des chaussées en recyclant à 100 % l'ancien revêtement. En Gironde, dans le cadre d'un chantier de rénovation portant sur 40 km du réseau autoroutier, une portion de 1 km a été rénovée via ce processus. La société applique les principes de l'économie circulaire en utilisant les chaussées existantes en guise de matières premières.

Si le recyclage à chaud des enrobés existe depuis le milieu des années 80, les taux de recyclage n'ont pas dépassé pendant longtemps 20 à 30 %, puis 50 % dans les années 2000. Aujourd'hui, la technologie du 100 % recyclable existe déjà dans des usines fixes mais sur de petits volumes. La nouveauté est le recyclage du bitume sur place, à la vitesse d'un chantier autoroutier et en produisant dans cette usine mobile un enrobé qui répond aux mêmes spécifications de performance qu'une chaussée habituelle.

L'usine mobile installée pour le temps du chantier peut produire entre 250 et 400 tonnes d'enrobés recyclés par heure. Suffisant pour concevoir son utilisation sur de plus grands chantiers. Ce nouveau processus pourrait ainsi limiter l'empreinte environnementale des travaux routiers. En effet, pour fabriquer un kilomètre d'autoroute, il faut environ 30.000 tonnes d'enrobés, habituellement acheminés par camion vers le chantier. Ce type de rénovation réduirait le nombre de ces transports.

Article rédigé par Georges Simmonds pour RT Flash

Eurovia

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Quand nos gènes nous empêchent d'arrêter de fumer…
Jeudi, 29/11/2018 - 06:11

Tout le monde a pu le constater : nous ne sommes pas égaux devant l'arrêt du tabac et certains gros fumeurs parviennent facilement à arrêter définitivement la cigarette, alors que d'autres, qui fument pourtant moins, ne vont pas y parvenir. Des chercheurs français du CNRS et de l’Inserm viennent de montrer que l'addiction à la nicotine semble liée à une mutation présente dans le gène CHRNA5, connu pour coder la sous-unité a5 des récepteurs nicotiniques. Les personnes touchées par la mutation de ce gène seraient prédisposées à refumer et ce, même après s’être sevrées.

Cette dépendance à la cigarette s’explique par la présence de la nicotine, une substance psychoactive qui agit sur le cerveau en se fixant sur les récepteurs nicotiniques des neurones et la modification des neurotransmetteurs. Ceux-ci produisent alors de la dopamine, une hormone qui donne une sensation de bien-être et de satisfaction. Plus l’on fume, plus le cerveau s’habitue à la présence de la nicotine, et plus les récepteurs sont sensibles : c’est ce qui explique l’addiction au tabac. Quand on arrête de fumer pendant trop longtemps, notre corps est alors en manque de nicotine et une sensation de malaise apparaît.

Pour Benoît Forget, chercheur au sein de l’Unité de Neurobiologie Intégrative des Systèmes Cholinergiques (Institut Pasteur/ CNRS) et principal auteur de l’étude, cette addiction à la nicotine peut toutefois être renforcée par la mutation du gène CHRNA5. "Plusieurs études de génétique humaine ont déjà démontré que cette mutation génétique accroît le risque d’addiction au tabac", explique-t-il. "Partant de ce postulat, nous avons cherché à déterminer quelle phase de l’addiction à la nicotine était affectée par la présence de cette mutation et quel pouvait être son rôle dans la rechute".

Ces chercheurs ont introduit chez des rats de laboratoire la mutation génétique responsable de l’addiction au tabac chez les humains. Les chercheurs ont ensuite observé le comportement des rongeurs. "Nous avons à la fois constaté que cette mutation génétique entraînait une plus forte consommation de nicotine à des doses élevées, et découvert qu’elle induisait une proportion plus élevée de rechute après sevrage nicotinique", explique le chercheur.

Il est aussi apparu au cours des recherches que ces rechutes fréquentes après sevrage sont liées à une "réduction de l’activation des neurones du noyau inter-pédonculaire", une zone spécifique du cerveau qui contient la majorité des sous-unités Alpha5 des récepteurs nicotiniques et qui est "composée essentiellement de neurones inhibiteurs". Selon Benoît Forget, en réduisant l’activité du noyau inter-pédonculaire, "la mutation génétique pourrait participer à l’activation d’autres structures cérébrales impliquées dans la rechute et donc conduire le fumeur sevré à retomber dans l’addiction lorsqu’il est exposé de nouveau à une cigarette".

Cette découverte pourrait en grande partie expliquer l’addiction à la nicotine de nombreux fumeurs. En effet, affirme le chercheur, 35 % des Européens et 50 % de la population du Moyen Orient sont porteurs de cette mutation génétique. Pour Benoît Forget, cette découverte est aussi déterminante pour l’avenir du sevrage thérapeutique au tabac car elle va permettre une action très ciblée. "Un médicament capable d’augmenter l’activité des récepteurs nicotiniques contenant la sous-unité Alpha5 pourrait permettre de réduire la consommation de tabac et le risque de rechute après sevrage", détaille Uwe Maskos, responsable de l’unité de Neurobiologie intégrative des systèmes cholinergiques (Institut Pasteur/CNRS), coauteur de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

Current Biology

Un nouveau vaccin contre la coqueluche plus efficace
Mardi, 27/11/2018 - 20:19

Actuellement, les vaccins disponibles contre la coqueluche procurent une protection pendant un peu plus de 10 ans, après quoi un rappel est nécessaire. C'est pour étendre cette période de protection que le laboratoire Thaïlandais Bionet a mis au point un nouveau vaccin acellulaire, comprenant des toxines pertussiques inactivées par manipulation génétique (PTgen), en remplacement des toxines pertussiques inactivées par voie chimique (PTchem) classique.

Le concept consiste à modifier le génome de Bordetella pertussis cultivées in vitro, afin qu'elles produisent des toxines non pathogènes, mais dont les antigènes sont plus immunogènes que ceux dégradés par une inactivation chimique.

Des chercheurs de Bionet, associés aux infectiologues du centre de d'essai vaccinal de l'Université de Mahidol, à Bangkok, ont pu démontrer que ce nouveau candidat vaccin entraîne une meilleure séroconversion que les vaccins acellulaires incluant des PTchem, un an après l'injection.

Les auteurs ont recruté 450 adolescents âgés de 12 à 17 ans, enrôlés entre le 6 juillet 2015 et le 20 août 2015, puis répartis en 3 groupes égaux. Le premier groupe a reçu une dose unique de vaccin monovalent acellulaire contenant du PTgen et des hémagglutinines filamenteuses (FHA) de Bordetella pertussis. Le 2e groupe a reçu une dose de vaccin monovalent PTgen/FHA et une dose de vaccin contre la diphtérie, le tétanos et la coqueluche (DTaP). Le dernier groupe n'a reçu qu'une dose de DTaP.

L'étude du « Lancet » a analysé les données de 150 volontaires. L'intensité de la séroconversion a été évaluée en mesurant le pourcentage de volontaires qui, un an après la vaccination, ont un taux d'IgG dirigé contre la toxine pertussique 4 fois supérieure à celui qu'ils avaient avant l'injection.

C'était le cas de 76 % des participants du premier groupe (PTgen/FHA), de 81 % de ceux du groupe ayant reçu les 2 vaccins, et de seulement 8 % du groupe comparateur n'ayant reçu que le vaccin DTaP.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Cancer de la prostate : une avancée majeure au CHRU de Brest
Mardi, 27/11/2018 - 20:14

Depuis quelques semaines, un nouvel examen du cancer de la prostate est pratiqué dans le service de médecine nucléaire du CHRU de Brest. Il permet de détecter beaucoup plus précocement les récidives. Selon ce CHU, "L’utilisation en imagerie médicale du PSMA, un marqueur spécifique, va révolutionner la prise en charge de la maladie.

Le cancer de la prostate est le cancer le plus fréquent chez l’homme de plus de 50 ans avec près de 50 000 nouveaux cas par an. Il représente la seconde cause de décès (9 000 par an) chez l’homme après le cancer pulmonaire. Le professeur Georges Fournier, chef du service d’urologie du CHRU de Brest, détaille : "Même découvert à un stade précoce et traité par chirurgie ou radiothérapie, le cancer de la prostate comporte un taux de 30 % de récidives, ce qui est une incidence assez élevée".

Jusqu’ici, l’augmentation d’un indicateur nommé PSA (antigène spécifique de la prostate), établie par une simple prise de sang, permettait de suspecter l’apparition d’une récidive. Mais en dépit des examens complémentaires effectués comme la scintigraphie osseuse, l’IRM ou la TEP F-Choline, la localisation de la récidive n’était pas mise en évidence à un stade précoce dans plus de la moitié des cas.

L’utilisation en imagerie du marqueur spécifique, le Ga-PSMA (antigène membranaire spécifique de la prostate) est très récente et pratiqués dans moins de dix centres en France. Elle a permis d’obtenir des résultats même à un stade très précoce de récidive car le PSMA permet de détecter un très faible nombre de cellules cancéreuses.

Cet examen est proposé aux patients ayant été traités pour un cancer de la prostate, qui se retrouvent avec un taux de PSA en augmentation et pour lesquels les examens traditionnels n’ont rien donné.

Des études sont actuellement en cours pour deux autres indications. La première concerne un bilan d’extension avant traitement. Dans un certain nombre de cas, des ganglions lymphatiques autour de la prostate sont touchés. Le Ga-PSMA pourrait permettre de les détecter. Un protocole de recherche est en cours au CHRU de Brest.

La deuxième indication pourrait s’appliquer aux cancers évolués avec métastases. Dans ce cas, le vecteur PSMA pourrait transporter directement sur le site métastasique un rayonnement ciblé grâce à un marquage avec le lutetium. Les résultats de premiers essais seraient prometteurs.

Article rédigé par Georges Simmonds pour RT Flash

Actu

Un implant bioadhésif qui illumine les cellules cancéreuses
Mardi, 27/11/2018 - 20:07

Des scientifiques japonais de l’Université Waseda ont mis au point un nouveau dispositif qui pourrait offrir un traitement anticancéreux efficace et peu invasif adapté aux organes délicats. Le principe est celui d’une thérapie photodynamique qui consiste à « brûler » les cellules cancéreuses par émission métronomique de lumière (c’est-à-dire à faible et à long terme).

Le dispositif optoélectronique sans fil se fixe de manière stable sur la surface interne d'un tissu comme un autocollant doté de nanoparticules élastiques et bioadhésives, permettant une diffusion de lumière locale continue vers la tumeur, explique l’auteur principal, Toshinori Fujie, professeur agrégé de génie biomédical à l'Université de Waseda. Ces nanosheets sont composées de polymère polydopamine, un polymère inspiré des protéines de moules, capable de stabiliser le dispositif sur un tissu humide pendant plus de 2 semaines sans suture chirurgicale ni colle médicale. Les puces à diodes électroluminescentes de l'appareil sont alimentées sans fil.

L’efficacité du dispositif est démontrée chez la souris, modèle de tumeur, ayant reçu l’implant, et une injection d’agent photosensibilisant. L’animal est exposé à une lumière rouge et verte, environ 1.000 fois plus faible que dans les approches photodynamiques conventionnelles, pendant 10 jours consécutifs. L'expérience montre que la croissance tumorale est globalement réduite. Surtout sous lumière verte et chez certaines souris, la tumeur est complètement éradiquée.

Cet implant  ne nécessite pas de suture chirurgicale ; il est par ailleurs adapté au traitement de tumeurs situées à proximité de nerfs de vaisseaux sanguins ou d’organes fragiles, comme le cerveau, le foie et le pancréas. Il devrait donc permettre de faciliter le traitement de microtumeurs difficiles à détecter et à atteindre, sans avoir à se soucier du risque d'endommager les tissus sains.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Maladie d’Alzheimer : un espoir de traitement nommé caspase
Mardi, 27/11/2018 - 19:54

Pour lutter contre la maladie d'Alzheimer, l’un des enjeux majeurs de la Recherche est de trouver des traitements médicamenteux qui ne vont pas uniquement ralentir la progression des symptômes de la maladie mais pouvoir les inverser durablement.

Récemment, une équipe de chercheurs de l’Université McGill et de l’Institut Lady Davis (ILD) de Montréal a montré chez la souris, modèle de référence de la maladie, que l’administration d’un médicament, le VX-765, inverse les troubles de la mémoire et diminue l’inflammation des tissus cérébraux.

Andréa LeBlanc, professeure en neurologie et neurochirurgie à l’université McGill, travaille depuis plusieurs décennies sur les processus cellulaires et moléculaires à l’origine de la survenue de la neuro-dégénération comme la perte de mémoire liée à l’âge. Dès 2006, elle a réussi à découvrir une enzyme, la Caspase 6, qui avait la particularité d’être très activée dans les lésions cérébrales associées à la maladie d’Alzheimer (MA) tout en ayant un rôle dans la perte de mémoire.

Comme il n’existait pas d’inhibiteur de cette enzyme, la chercheuse québécoise s’est intéressée à déchiffrer le mécanisme de fabrication de cette enzyme. En amont des étapes de formation de la Capsase 6, elle a découvert l’enzyme Caspase 1, responsable de l’activation de la Caspase 6.

Dans ces travaux menés sur des souris atteintes de la MA, l’équipe de chercheurs s’est rendu compte que l’administration de VX-765, un inhibiteur de la caspase-1, entraînait, dans un délai de trois mois, une inversion de la perte de mémoire (mémoire spatiale et mémoire de travail), une diminution de l’accumulation des peptides amyloïdes associée à la maladie d’Alzheimer dans le cerveau et enfin un retour à la normale des niveaux de protéines : la synaptophysine (une protéine impliquée dans la communication entre les neurones) dans l’hippocampe (structure cérébrale impliquée dans la mémoire à court terme).

Inversement, l’arrêt de l’administration de VX-765 a provoqué, dans un délai d’un mois, la réapparition de déficits de mémoire chez les souris. Ensuite, en modifiant génétiquement une souris pour qu’elle n’exprime pas la protéine Caspase-1, les chercheurs ont constaté que cette dernière était davantage protégée contre les déficits de mémoire, la neuroinflammation et l’accumulation de peptides béta-amyloïdes. Pris dans leur ensemble, ces résultats fournissent la preuve in vivo de l’intérêt d’inhiber la Caspase-1 pour prévenir mais aussi pour lutter contre les déficits cognitifs liés à l’âge et l'Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

SSLN

Arthrose : un nouveau médicament révolutionnaire
Mardi, 27/11/2018 - 05:55

Des chercheurs canadiens ont présenté un nouveau traitement qui, expérimenté sur l'animal, semble capable d’arrêter la progression de l'arthrose, redoutable maladie articulaire. Pour arriver à mettre au point ce médicament, le Docteur Mohit Kapoor, Directeur du Centre sur l’Arthrite à l’Université Health Network et ses collègues de l’Institut de Recherche Krambil, ont utilisé une variété de modèles expérimentaux, parmi lesquels des modèles animaux et des échantillons de tissus humains de personnes souffrant d’arthrose.

Ils ont alors découvert une molécule, du nom de microRNA-181a-5p, qui serait un médiateur très impliqué dans le déclenchement de l’inflammation, de la destruction du cartilage et de l’épuisement du collagène. Il s'agit d'un ARN messager qui est produit par un gène en cas d'agression du cartilage et qui est chargé d'aller activer l'inflammation et bloquer la cellules du cartilage, le chondrocyte.

Les chercheurs ont ensuite mis au point un bloqueur spécifique de cet ARN messager sous la forme d'un "antisens", une séquence acide nucléique complémentaire de l'ARN messager afin de le bloquer en se fixant sur lui. Avec cet antisens, l’équipe a réussi à arrêter la destruction des articulations et à protéger le cartilage, chez la souris.

"Le bloqueur est basé sur une technologie antisens. Quand vous injectez cet antisens dans les articulations, cela bloque l’activité destructrice provoquée par le microRNA-181-5p et cela stoppe la dégradation du cartilage", explique le Docteur Akihiro Nakamura, co-auteur de l’étude. "Ces résultats sont très importants car actuellement il n’y a aucun traitement ou médicament disponible pour arrêter la progression de l’arthrose", poursuit le Docteur Kapoor.

L'arthrose est la première cause d'incapacité fonctionnelle pour les plus de 40 ans en France. "Les traitements courants de l’arthrose traitent des symptômes tels que la douleur mais sont incapables d’arrêter la progression de la maladie", détaille-t-il. Et de préciser : "le bloqueur que nous avons testé modifie la maladie. Il a l’habileté d’empêcher une destruction plus poussée de l’articulation dans la colonne vertébrale et dans le genou".

"La technologie antisens sur l’arthrose en est à ses débuts mais la recherche a fait un grand pas en avant. Si nous étions capables de développer une injection simple et efficace pour les patients, cette découverte pourrait changer la donne", s’enthousiasme Docteur Raja Rampersaud, chirurgien de la colonne vertébrale et chercheur au Toronto Western Hospital, ayant également participé à l’étude.

Désormais, les scientifiques doivent lancer des études cliniques sur l'homme, afin de déterminer le dosage adéquat et développer une méthode pour injecter le bloqueur directement dans les articulations du genou et de la colonne vertébrale.

Article rédigé par Georges Simmonds pour RT Flash

BMJ

Le dépistage massif des gros fumeurs pourrait sauver 7 500 vies par an en France…
Mardi, 27/11/2018 - 05:47

Le cancer du poumon est devenu un véritable fléau au niveau mondial, avec 1,6 million de morts par an et, malheureusement, 60 % des cancers du poumon sont diagnostiqués tardivement, à un stade où les chances de guérison sont faibles. Face à cette situation alarmante, certains pays, comme les Etats-Unis, ont décidé de mettre en place un dépistage du cancer du poumon des gros fumeurs. Une très large étude conduite Outre-Atlantique baptisée National Lung Screening Trial (NLST) a estimé qu’un tel programme permet de réduire de 20 % la mortalité liée à cette maladie.

En France, un tel dépistage a été jugé inutile en 2016 par la Haute Autorité de Santé à cause d’un possible nombre trop important de faux positifs (des anomalies non cancéreuses pourraient être opérées inutilement) et de résultats américains non transposables au contexte français. Mais une nouvelle vaste étude européenne, l'étude NELSON, menée en Belgique et aux Pays-Bas sur 15 792 patients présentant un risque élevé de cancer du poumon, vient de confirmer sans ambiguïté l'intérêt d'un tel dépistage massif pour les gros fumeurs.

Les participants ont été répartis aléatoirement dans deux groupes : le premier a bénéficié d’un dépistage, l’autre non. Le dépistage consistait à réaliser à intervalles réguliers des scanners thoraciques (cet examen permet de radiographier le thorax du patient sous plusieurs angles pour reconstituer une image détaillée). L’enjeu est de détecter le cancer du poumon à un stade où il peut être traité plus facilement (par la chirurgie notamment). Le suivi de cette étude a été de 10 ans pour juger de l’impact d’une telle procédure en termes de survie des patients.

Résultats : le dépistage a réduit de 26 % les décès dus au cancer du poumon chez les hommes. Le recours à la chirurgie a été possible chez 67,7 % des patients dépistés atteints de cancer contre seulement 24,5 % du groupe non dépistés, ce qui témoigne d’une détection plus tardive de la maladie. Extrapolés au nombre de malades en France, ces résultats signifient qu'il serait possible de sauver 7 500 vies par an, simplement en faisant systématiquement passer un scanner à tous les gros fumeurs…

"Ces résultats montrent que le dépistage par tomodensitométrie constitue un moyen efficace d’évaluer les nodules pulmonaires chez les personnes à risque élevé de cancer du poumon", a déclaré le Docteur De Koning, principal auteur de l'étude.

Pour l’European Respiratory Society (ERS), cette étude marque un tournant et doit conduire les pays européens à instaurer sans tarder des programmes de dépistage du cancer du poumon pour les personnes à haut risque.

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un avion électrique révolutionnaire, sans pièces mobiles, a effectué son premier vol
Mardi, 27/11/2018 - 06:09

Même si de nombreuses années de recherche seront encore nécessaires pour mettre au point un tel avion, on peut dire que l'aviation vient d'entrer dans une nouvelle ère, avec le premier vol expérimental, en laboratoire, d'un nouveau type d'appareil volant utilisant la  propulsion électroaérodynamique (Voir article et vidéo Technology review).

Dans un article publié dans la prestigieuse revue "Nature", des chercheurs du MIT viennent en effet de révéler qu'ils ont conçu et développé le premier avion ne nécessitant aucune pièce mobile. Cet avion expérimental de 2,45 kilogrammes n'a pas fait tourner les aubes de turbines pour se propulser sur 60 mètres : il utilisait directement de l'électricité.

Si cette technologie doit encore être améliorée - et les ingénieurs du MIt sont convaincus qu'elle peut l'être -, les futurs aéronefs seraient beaucoup plus sûrs, plus silencieux et plus faciles à entretenir. Plus important encore, ce nouveau mode de propulsion entièrement électrique éliminerait les émissions de polluants et de CO2.

Ce récent vol inaugural a été rendu possible grâce à un processus appelé propulsion électroaérodynamique, une idée qui existe depuis plus de 50 ans. Le concept lui-même est beaucoup plus difficile à visualiser qu'une hélice en rotation et tire parti d'un phénomène physique appelé "vent ionique".

Utilisant de très hautes tensions (40 000 volts dans le cas de ce prototype), le propulseur génère des ions dans l'air autour de deux électrodes. Le champ électrique créé entre ceux-ci transfère alors un flux ionique d'une électrode plus petite à une plus grande. Dans leur déplacement, ces ions entrent en collision avec des molécules d’air, créant le vent ionique et poussant l’avion vers l’avant. Comme les ions produits se déplacent entre deux électrodes fixes, aucune pièce mobile n'est nécessaire pour faire fonctionner ce type d'avion.

Alors pourquoi cette technologie n'est-elle pas utilisée depuis longtemps dans l'aviation ? Parce que, lors de sa conception dans les années 1960, les chercheurs en sont venus à la conclusion qu'ils ne pouvaient obtenir en continu la puissance électrique nécessaire pour qu'un tel avion puisse voler. Mais lorsque Steven Barrett, professeur d'aéronautique et d'astronautique au MIT, a repris ces recherches en 2009, il n'a pas été découragé par ces résultats et a senti qu'il y avait là un immense potentiel à exploiter. "J'ai été inspiré par les idées de science-fiction sur les avions et les vaisseaux spatiaux", déclare Barrett.

Neuf ans plus tard - et de nombreux échecs- , Barrett et son équipe peuvent être fiers de l'immense travail accompli : ils viennent en effet de réussir, contre toute attente, le premier vol en milieu fermé d'un petit avion à propulsion ionique. Barrett reste cependant prudent et modeste et déclare "N'oubliez pas que l'avion d'essai ne comportait personne à bord et, qu'à ce stade, il peut à peine se tenir dans les airs pendant quelques secondes".

Ces scientifiques sont donc tout à fait conscients du chemin qu'il reste à parcourir pour rendre cette technologie révolutionnaire utilisable à grande échelle. Mais il n'en reste pas moins vrai que ce premier vol constitue une véritable rupture et démontre la faisabilité de ce saut technologique majeur.

"Il  reste encore beaucoup de chemin à parcourir avant que votre voyage de Los Angeles à New York puisse se faire sans pièces mobiles, mais même si elle est encore loin de la phase  commerciale, la propulsion électroaérodynamique pourrait changer la donne pour les vols de drones et de petits appareils à courte portée et à faible charge utile", explique Priyanka Dhopade, chercheuse à l'Oxford Thermofluids Institute.

Ce nouveau mode de propulsion n'a de toute façon pas vocation, dans un avenir prévisible, à être appliqué aux gros avions de ligne. Barrett pense que, dans un premier temps, il pourrait en revanche venir s'intégrer dans certains avions, en complément des moteurs à réaction. Selon lui, ces systèmes de propulsion électroaérodynamique pourraient être intégrés dans les ailes et le fuselage de certains appareils  pour redynamiser l'air qui circule dans l'avion. Actuellement, cet air se retrouve derrière l'avion, se déplaçant lentement et le traînant vers l'arrière. Mais l'ajout de nouveaux systèmes de propulsion pourrait éliminer cette traînée et augmenter l'efficacité énergétique.

Incorrigible optimiste, Barrett rappelle que "Nous avons réussi en moins de dix ans à démontrer la viabilité de cette technologie de propulsion, alors que l'aviation a plus d'un siècle ; nous avons donc un énorme retard à rattraper. Mais je suis persuadé qu'avant le milieu de ce siècle, nous verrons une multitude de drones et de petits avions électrodynamiques voler au-dessus de nos têtes !".

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top