RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 932
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Janvier 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une aile d’avion optimisée rappelle un os d’oiseau
La simulation quantique pour décrypter la photosynthèse
Avenir
Un robot chinois réussit son concours de médecine
Matière
Des batteries solides plus performantes et plus sûres
Espace
La NASA invente une nouvelle technique de navigation spatiale par rayons X
De la glace en quantité sous la surface de Mars
Terre
Le méthane, facteur clé de l'oxydation de l'atmosphère terrestre
Vivant
Antipsychotiques : le choix du traitement influence le risque d’AVC
Une nouvelle étude confirme l'intérêt thérapeutique d'un nouveau médicament contre la maladie d’Alzheimer
Du fer en intraveineuse contre la fibromyalgie
Consommer moins de protéines pour éviter les infections rénales chroniques
Vers un traitement ciblé du cancer de la prostate
La diète génétique : un outil majeur de prévention ?
Plasticité des ribosomes : une nouvelle piste de thérapie ciblée pour combattre le cancer
Recherche
L'hydrogène pourrait représenter 20 % de l'énergie consommée en 2050
Edito
Urgence absolue : mettons l’IA (Intelligence Artificielle) au service des enfants du monde entier



Depuis quelques semaines, nous savons que plus jamais un être humain, tel que nous le connaissons aujourd’hui, ne pourra gagner une partie d’échecs face à la machine.

Grâce à sa capacité d’apprentissage en profondeur, l’intelligence artificielle à laquelle des humains ont simplement appris les règles du jeu d’échec et montré où se trouvaient les pièces sur l’échiquier a fait en quelques heures des millions de parties pour mémoriser toutes les situations auxquelles elle devrait faire face lorsqu’elle devra affronter son aïeule qui, elle, a su battre les meilleurs joueurs humains mais avec un certain taux d’incertitude puisqu’il est arrivé de rares fois qu’elle perde.

Le match fut sans appel. L’intelligence artificielle de dernière génération l’emporta, sans jamais défaillir, sur la championne du monde en titre. Plus jamais un être humain, tel que nous le connaissons aujourd’hui, ne gagnera une partie d’échecs devant l’intelligence artificielle d’une machine, du moins quand celle-ci fera appel à toutes ses capacités.

Cela fait un drôle d’effet. Quand j’étais en Math-Elem, dans la seconde partie des années 50, la dernière année dans ma formation où la philosophie et plus particulièrement la logique osait encore affronter les mathématiques, les élèves les plus brillants de ma classe passaient des heures et des heures, parfois jusqu’à fort tard dans la nuit (j’étais alors pensionnaire au Prytanée) à s’affronter, dans un silence absolu, dans de longues parties d’échecs. Ce jeu, qui depuis son origine est lié à l’intelligence, a toujours été un marqueur dans le cursus intellectuel du jeune qui veut se donner toutes les chances pour aborder l’avenir.

Maintenant que nous savons que n’importe quel être humain sera battu aux échecs par la machine que devons-nous faire ?

Il nous faut d’abord comprendre ce qu’est l’intelligence artificielle.

Imaginons que depuis notre naissance, notre mémoire ait la capacité d’enregistrer tous nos instants de vie et la faculté de n’en oublier aucun. Ceci veut dire qu’aujourd’hui, quel que soit notre âge, nous pourrions réciter des centaines de vers de Charles Péguy, remonter sur scène et jouer le Cid sans une hésitation ou reprendre les équations les plus complexes de nos profs de maths.

On sait malheureusement qu’il n’en est pas ainsi. Les lacunes se font de plus en plus nombreuses dans la mémoire de l’homme.

Or la machine avec son intelligence artificielle, elle, n’oublie rien.

Elle sera bientôt en capacité de conserver en mémoire tout ce que l’homme a pu dire, écrire, mettre en images, réaliser depuis l’origine de l’Humanité et ce dans toutes les langues pratiquées sur notre planète.

Dans un premier temps, pendant ces 20 prochaines années, l’intelligence artificielle sera encensée par le plus grand nombre car elle sera partout au service de l’homme. Elle s’occupera de notre santé et nous permettra de vivre plus longtemps dans de bien meilleures conditions. Elle conduira notre voiture à notre place. Elle mènera tous les engins actuellement pilotés par l’homme : que ce soient les avions, les poids lourds, les bateaux, les machines de chantier et même les chars. Lors de nos voyages, elle nous permettra de comprendre et d’être compris par tous les habitants du Monde, elle changera tous les métiers du monde car l’exercice de ceux-ci s’enrichira de la mémoire sans faille qui sera apportée par la machine. Même nos loisirs seront complètement transformés car il vous suffira d’imaginer que vous voudriez visiter les merveilles d’Angkhor pour qu’en quelques secondes la réalité virtuelle pilotée par l’IA vous y transporte et trompe votre cerveau en se servant de vos sens pour y sentir les odeurs, le vent, les pressions, vous plonger dans les images et le son qui vous donneront les mêmes sensations que la réalité et vous laisseront même, en ultime cadeau, le souvenir d’y être vraiment allés…

Mais attention.

Dans 20 ans, si l’homme reste le même avec son Q.I. moyen de 100, surtout si nos démocraties ne s’interdisent pas de porter à leur tête des cow-boys qui menacent à chaque instant d’appuyer sur le bouton nucléaire, il serait à craindre que l’intelligence artificielle se détache alors de l’homme pour entrer en compétition avec les autres intelligences artificielles et imaginer d’autres mondes.

Si nous voulons sauver l’humanité, il faut que dans 20 ans, les enfants qui naissent aujourd’hui aient un Q.I. de 500, de 1000… et pourquoi pas plus ? Certains pensent aujourd’hui que cela est strictement impossible. Et pourtant c’est bien le score que l’Homme devra atteindre dans 20 ans s’il veut encore être respecté par la machine...

Comment faire pour relever un tel défi ?

Il faut que l’IA vienne sans retard aider chaque nouveau-né à utiliser au mieux les milliards et les milliards de neurones que la Sélection Naturelle a mis à sa disposition après des millions d’années.

Quand on voit la vitesse inimaginable avec laquelle se sont déployés les réseaux sociaux dans cette dernière décennie, il ne faut pas dire que le défi que je vous propose est impossible à relever.

De manière pratique, les GAFA et les BATX doivent mettre tous leurs moyens, car il en va de leur avenir à eux aussi, pour faire en sorte que tous les moments vécus par un être humain, et ce dès sa naissance, soient enregistrés, compris et classifiés dans une immense base de données personnelle par l’intelligence artificielle qui lui sera affectée. Ainsi, pour sauver l’humanité, tout son apprentissage, tout ce qu’il apprendra tout au long de sa formation initiale et de sa vie sera stocké dans sa mémoire associée et disponible à tout moment.

Cette formation sans faille et sans lacunes des êtres humains devra, du moins dans un premier temps, être toujours assurée par d’autres êtres humains. Mais en attendant que ces formateurs puissent dans 25 ou 30 ans bénéficier eux aussi d’une mémoire illimitée, il leur faudra, sans tarder, accepter d’être secondés par l’intelligence artificielle pour former les hommes de demain. Les métiers d’instituteur, de professeur, et de tous ceux qui transmettent leurs savoirs aux autres vont devenir les métiers les plus importants de l’humanité. D’eux dépendra l’avenir de l’homme.

Dans 20 ans, quand l’intelligence artificielle sera devenue forte, il est impératif que l’intelligence de l’homme soit plus forte encore. Ce n’est qu’à cette condition que l’IA, qui aura alors pris conscience de toutes ses capacités, acceptera de rester au service de l’homme.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Une aile d’avion optimisée rappelle un os d’oiseau
Mardi, 16/01/2018 - 07:24

Les algorithmes d’optimisation sont utilisés quotidiennement dans l’industrie automobile et aérospatiale, par exemple pour concevoir des pièces les plus solides et les plus légères possibles. Concrètement, ce type de programme teste différentes formes en essayant de trouver celle qui est optimale par rapport à un ou plusieurs critères donnés, tout en respectant certaines contraintes.

Cette approche a permis de réduire de 20 à 40 % le poids de certains éléments structurels dans les voitures. Mais étendre cette approche à des pièces de grande taille est problématique car ces algorithmes requièrent une grande résolution spatiale et donc une puissance de calcul gigantesque. Mais des chercheurs de l'Université Technique du Danemark ont développé un programme informatique qui permet d’appliquer cette technique d’optimisation à de grandes structures, comme une aile d’avion.

Pour pouvoir effectuer un calcul d’optimisation sur une aile d’avion, comme celle d’un Boeing 777, longue de 27 mètres, ces chercheurs ont optimisé leur programme afin qu’il soit capable de gérer un milliard de voxels (mailles de base). Ils l'ont ensuite fait tourner pendant plusieurs jours sur le supercalculateur Curie du CEA, qui dispose de 8000 processeurs.

L’équipe a utilisé les données publiques de la Nasa qui caractérisent la géométrie extérieure de l’aile et les forces qui s’appliquent sur elle en vol. L’algorithme devait alors optimiser la rigidité en répartissant de la matière à l’intérieur de l’aile, tout en minimisant son poids.

Le résultat obtenu (qui demanderait plus d'un siècle de temps de calcul avec un ordinateur classique) est surprenant. Il révèle des longerons courbés et non droits comme dans les ailes classiques. Par ailleurs, les éléments orthogonaux aux longerons sont quasi inexistants et ceux présents sont également courbés de sorte à résister aux forces de torsion que subit l’aile en vol.

L’arrière de l’aile et son bord d’attaque sont aussi étonnants. L’algorithme d’optimisation y a déposé la matière suivant des microstructures qui rappellent celles des os d’oiseau et notamment leur bec. Il y a donc une forte similarité entre le processus d’optimisation numérique et les processus de croissance des os soumis à la sélection naturelle.

Les chercheurs danois ont montré que le résultat final de l’optimisation était 2 à 5 % plus léger qu’une aile classique, ce qui équivaudrait à une économie de carburant de 40 à 200 tonnes par avion et par an. Cependant, pour voir ce type d’aile réalisé, il faudra s’armer d’un peu de patience puisque les techniques actuelles ne permettent pas de construire des structures aussi précises. Mais François Jouve se veut confiant. « Avec le développement soutenu des imprimantes 3D, notamment celles à métal, il sera possible de réaliser ce type de modèle d’ici environ une dizaine d’années ».

Ce nouveau programme d’optimisation pourrait trouver des applications dans de multiples domaines ; il pourrait notamment permettre de concevoir des structures de bâtiments capables de beaucoup mieux résister aux tremblements de terre dans certaines zones à forte sismicité.

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

La simulation quantique pour décrypter la photosynthèse
Lundi, 15/01/2018 - 20:40

Des chercheurs de l'Université nationale de science et de technologies MISiS, du Centre quantique russe, de l'Université de Karlsruhe et de l'Université de Mayence (Allemagne), ont réussi à modéliser les processus qui peuvent aider à décrypter les mécanismes de photosynthèse.

La photosynthèse désigne généralement l'ensemble des processus d'absorption, de transformation et d'utilisation de l'énergie lumineuse dans différentes réactions, notamment la transformation du CO2 en substances organiques avec une émission d'oxygène. Compte tenu de la diminution de la flore terrestre, la reproduction de la photosynthèse dans des conditions artificielles constitue un objectif scientifique majeur mais se heurte à des obstacles tenant à la puissance de calcul nécessaire.

Comme l'explique Alexeï Oustinov, responsable du laboratoire des métamatériaux supraconducteurs du MISiS et chef du groupe du Centre quantique russe "Au moment de son absorption par une substance, la lumière interagit avec les variations des liens interatomiques dans les molécules, notamment celles qui sont responsables de la photosynthèse. Les propriétés de ces variations permettent aux molécules de "stocker" une grande quantité de quantums de lumière, c'est-à-dire d'énergie. On sait également que pendant le processus de photosynthèse un quantum de lumière (la plus faible valeur dans la mesure de l'énergie des ondes électromagnétiques) est absorbé, un photon, et lors d'une interaction avec une substance son énergie est presque entièrement absorbée. C'est un procédé hautement efficace de transformation de l'énergie lumineuse en énergie "stockée" dans la matière".

En l'occurrence, ce sont des atomes artificiels, les qubits, qui ont été choisis en tant que "cellules de mémoire" de l'ordinateur quantique. Ils se comportent comme des particules naturelles et possèdent la même structure au niveau quantique. Mais cette dernière (et donc leurs propriétés physiques) peut être changée instantanément — en particulier la distance entre les niveaux énergétiques, c'est-à-dire le volume d'énergie nécessaire pour le passage d'un atome artificiel d'un niveau à un autre.

La condition indispensable pour les mesures quantiques est une température basse : elle était donc maintenue à hauteur de 20 millikelvins, pratiquement le zéro absolu ! Ce froid extrême est nécessaire pour que les oscillations thermiques n'empêchent pas l'observation des processus mécaniques quantiques.

Le terme "supraconducteur" signifie que la matière du qubit possède une résistance électrique strictement nulle quand elle atteint une température inférieure à une certaine valeur. C'est également nécessaire pour neutraliser les déplacements excessifs d'électrons. La modification de la fréquence de la lumière a été utilisée pour la lecture de l'état des qubits (ce qui est précisément la base de la méthode de calcul dans les ordinateurs quantiques).

Un système disposant d'un seul photon et d'un seul système à deux niveaux, c'est-à-dire un atome artificiel, peut être calculé sur un ordinateur classique. Mais en réalité les photons sont nombreux, ils peuvent interagir avec plusieurs systèmes artificiels, et seul un ordinateur quantique permet d'effectuer des calculs dans un système aussi complexe que celui de la photosynthèse naturelle.

Article rédigé par Georges Simmonds pour RT Flash

Sputniknews

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot chinois réussit son concours de médecine
Mercredi, 17/01/2018 - 06:59

Signe des temps et du bond technologique en cours, le robot chinois Xiaoyi, développé par le leader chinois de l'IA, iFlytek, a obtenu son diplôme de médecine ; il a en outre terminé l'épreuve en seulement 60 minutes, alors que dix heures sont accordées aux candidats. Le robot a également obtenu un résultat de 456 points, soit 96 de plus que la note minimale pour être reçu.

Pour devenir le premier robot à réussir le concours de médecine, Xiaoyi a parcouru et compilé pas moins d'un million d'images, 53 ouvrages et deux millions de dossiers médicaux. Il a également parcouru 400.000 documents et rapports.

Avec ce robot, l'objectif d'iFlytek était de prouver que l'intelligence artificielle pouvait accumuler suffisamment de « savoir faire » pour devenir un praticien licencié. Cette démarche s'inscrit dans la vision globale de la compagnie chinoise qui souhaite utiliser l'IA pour améliorer les traitements, notamment dans le cadre des cancers, mais aussi pour aider à la formation de nouveaux médecins.

« Nous lancerons officiellement Xiaoyi en mars 2018 », a annoncé Liu Qingfeng, le président d'iFlytech. Il doit servir dans un premier temps à assister de véritables docteurs dans le but de les aider à améliorer leurs diagnostics et le choix des traitements.

Ce genre de robot, estime également le président de la compagnie, pourrait aider  les populations à avoir accès à des ressources médicales de qualité, particulièrement dans les zones rurales.

Article rédigé par Georges Simmonds pour RT Flash 

Les Echos

^ Haut
Matière
Matière et Energie
Des batteries solides plus performantes et plus sûres
Mercredi, 17/01/2018 - 22:07

Des chercheurs de l’Empa, des Swiss Federal Laboratories for Materials Science et de l’Université de Genève (UNIGE), ont créé un prototype de batterie solide, performante et sûre. Cette nouvelle batterie est basée sur le sodium, un matériau bien moins onéreux que le  lithium, couramment employé dans les batteries actuelles.

Pour qu’une pile fonctionne, elle doit être constituée d'une anode (négative), qui est l'électrode où a lieu une réaction électrochimique d'oxydation et d'une cathode positive, qui est une électrode siège d'une réduction, que l'on qualifie alors de réduction cathodique et enfin de l’électrolyte. Dans nos appareils électroniques actuels, la majorité des batteries sont basées sur les ions de lithium. Lorsque la batterie se recharge, les ions de lithium quittent la cathode et passent à l’anode.

Pour éviter la formation de dendrites de lithium – sortes de microscopiques stalagmites qui peuvent provoquer des courts-circuits dans la batterie, avec un risque d’inflammation, les batteries du commerce utilisent du graphite comme anode, et non pas du lithium métallique.

Afin de mette au point des batteries toujours plus performantes (recharge rapide, quantité d’énergie stockée et sécurité accrues), les chercheurs de l’Empa et de l’UNIGE se sont intéressés aux avantages d’une batterie « solide ». Cette solution permet d’utiliser une anode métallique en bloquant la formation de dendrites et permet donc de stocker davantage d’énergie tout en garantissant la sécurité.

« Le défi était de taille car nous devions trouver un conducteur ionique solide approprié qui soit stable chimiquement, thermiquement, non toxique, et qui permette au sodium de se déplacer facilement entre l’anode et la cathode », explique Hans Hagemann, professeur de Chimie de la Faculté des sciences de l’UNIGE.

Les chercheurs ont ainsi découvert qu’une substance à base de bore, le closoborane, permet non seulement une bonne circulation du sodium, mais encore est un conducteur non organique, supprimant de ce fait tout risque d’inflammabilité de la batterie lors de la recharge.

« La difficulté était alors d’établir un contact intime entre les trois couches de la batterie : l’anode, constituée de sodium métallique solide, la cathode, un oxyde mixte de sodium et de chrome et l’électrolyte, le closoborane », ajoute Léo Duchêne au Laboratoire Materials for Energy Conversion de l’Empa de l’UNIGE. Les chercheurs ont pour ce faire dissout une partie de l’électrolyte de la batterie dans un solvant, avant d’ajouter de la  poudre d’oxyde de sodium et de chrome trivalent. Une fois le solvant évaporé, ils ont empilé cette poudre compacte avec l’électrolyte et l’anode et pressé les différentes couches pour constituer la batterie.

La batterie a ensuite été testée par les chercheurs de l’Empa et de l’UNIGE. « La stabilité électrochimique de l’électrolyte que nous employons ici supporte une tension de 3 volts, alors que beaucoup d’électrolytes solides précédemment étudiés sont dégradés par un tel voltage », précise Arndt Remhof, chercheur à l’Empa, qui dirige ce projet. Il reste cependant aux scientifiques à tester cette nouvelle batterie sur un cycle de 1 200 recharges pour s'assurer qu'elle conserve des performances et une capacité énergétique suffisantes.

Article rédigé par Georges Simmonds pour RT Flash

UNIGE

^ Haut
Espace
Espace et Cosmologie
La NASA invente une nouvelle technique de navigation spatiale par rayons X
Mercredi, 17/01/2018 - 22:28

La NASA a mis au point un nouveau type de navigation spatiale autonome, capable de localiser des engins spatiaux dans tout le système solaire, et même au-delà, en utilisant des pulsars comme « balises spatiales ».

Le nouveau type de navigation spatiale porte le nom de Station Explorer for X-ray Timing and Navigation (Station Explorer pour la technologie de chronométrage et de navigation par rayons X), ou SEXTANT (nom attribué d’après un instrument de navigation nautique datant du 18ème siècle).

SEXTANT s’appuie sur l’imagerie par rayons X pour distinguer les pulsars, qu’il utilise comme un GPS utilise les satellites. « Cette technologie représente une percée majeure quant au futur de l’exploration de l’espace lointain », a déclaré le chef du projet SEXTANT, Jason Mitchell, du Goddard Space Flight Center de la NASA. « Nous sommes les premiers à démontrer la navigation par rayons X de manière totalement autonome et en temps réel dans l’espace », a-t-il ajouté.

Les pulsars sont des étoiles à neutrons à rotation rapide (période typique de l’ordre de la seconde, voire beaucoup moins pour les pulsars milliseconde), magnétisées, résultant du fait que le noyau d’une étoile massive s’effondre puis explose. Lorsqu’ils tournent, ils émettent un rayonnement électromagnétique et produisent un signal périodique allant de l’ordre de la milliseconde à quelques dizaines de secondes, comme un véritable phare cosmique.

Les pulsars sont également extraordinairement réguliers : dans le cas des pulsars milliseconde, qui peuvent faire une rotation complète des centaines de fois par seconde, leur régularité peut rivaliser avec celle des horloges atomiques. Et c’est cela qui a conduit les chercheurs à mettre au point SEXTANT. Comme ces pulsars sont si réguliers, et parce qu’ils sont fixés dans le cosmos, ils peuvent être utilisés de la même manière qu’un GPS utilise les horloges atomiques des satellites.

En effet, SEXTANT fonctionne comme un GPS recevant des signaux d’au moins trois satellites, qui sont tous équipés d’horloges atomiques. Le récepteur mesure la temporisation de chaque satellite et la convertit en coordonnées spatiales. Le rayonnement électromagnétique provenant des pulsars est le plus visible dans le spectre des rayons X, ce qui explique pourquoi les ingénieurs de la NASA ont choisi d’utiliser la détection par rayons X pour SEXTANT. Pour ce faire, ils ont utilisé un observatoire de la taille d’une machine à laver, attaché à la Station spatiale internationale (ISS). Baptisé Neutron-star Interior Composition Explorer, ou NICER, il contient 52 télescopes à rayons X et détecteurs à dérive au silicium (SDD) pour étudier les étoiles à neutrons, y compris les pulsars.

NICER a observé quatre pulsars : J0218 + 4232, B1821-24, J0030 + 0451, et J0437-4715. Ces pulsars sont si précis que leurs impulsions peuvent être prédites avec précision pour des années à venir. En deux jours, NICER a collecté 78 mesures de ces pulsars, qui ont été introduites dans SEXTANT. Ensuite, SEXTANT a utilisé ces données pour calculer la position de NICER dans son orbite autour de la Terre, sur la Station spatiale internationale.

Cette information a été comparée aux données GPS, dans le but de localiser NICER dans un rayon de 16 kilomètres. En l’espace de huit heures, le système avait calculé la position de NICER et il est resté en-dessous du seuil des 16 kilomètres, pour le reste de l’expérience.

Selon la NASA, SEXTANT pourra, d'ici quelques années, être utilisé pour calculer l’emplacement précis des satellites planétaires, loin de la portée des satellites GPS de la Terre, et aider aux missions spatiales habitées. « Cette démonstration réussie établit fermement la viabilité de la navigation pulsar à rayons X comme nouvelle technologie de navigation autonome permettant l’exploration de l’espace profond, partout dans le système solaire et au-delà », précise la NASA.

NASA

De la glace en quantité sous la surface de Mars
Mercredi, 17/01/2018 - 21:57

On savait déjà que Mars recélait de grandes quantités de glace dans la profondeur de son sous-sol. Mais des scientifiques américains, dirigés  par Colin Dundas, géologue de l’Institut américain de géophysique (U.S. Geological Survey) viennent de découvrir qu’il existe également, y compris dans certaines régions "tempérées" de Mars (et pas seulement dans les zones polaires) de vastes quantités de glace presque pure, juste sous la surface de la planète rouge.

Les scientifiques ont découvert huit régions dans lesquelles l’érosion a déposé, sur des pentes raides, des quantités importantes de glace près de la surface. Cette étude a exploité les données recueillies par Mars Reconnaissance Orbiter (MRO), lancé en 2005 par la Nasa. En outre, les variations dans la couleur de ces dépôts confirme l'hypothèse selon laquelle ces strates se sont probablement formées avec l’accumulation de la neige au gré de nombreuses saisons lors de précédents cycles climatiques. Le vent aurait ensuite recouvert ces plaques de glace de sable et de poussière et le nombre peu élevé de cratères à la surface de ces huit sites indique, selon les auteurs, que cette glace s’est formée assez récemment.

Des images prises au cours de trois années martiennes – une année sur Mars équivaut à 686 jours terrestres – ont révélé que de gros blocs de roche se sont détachés de la glace sous l’effet de l’érosion. Selon les chercheurs, ce phénomène indique que la glace perd quelques millimètres chaque été. Cette glace est visible seulement là où la couche superficielle du sol a disparu, indiquant probablement que les couches de glace proches de la surface sont encore plus étendues que ne l’indique cette étude.

Cette présence d'eau en quantité est un élément clé pour la future exploration humaine de Mars. En la combinant avec du dioxyde de carbone (CO2) – qui forme l’essentiel de l’atmosphère martienne – on peut produire de l’oxygène pour respirer ainsi que du méthane, un carburant pour les moteurs de fusée.

En outre, ces sites abondant en glace ont tous été trouvés à des latitudes d’environ 55 degrés nord et sud qui, durant le long hiver martien, deviennent très froides et inhospitalières pour des bases humaines dépendantes de l’énergie solaire. C’est la raison pour laquelle la Nasa veut limiter la recherche de sites d’installation d’astronautes à moins de 50 degrés de l’équateur de Mars. « Cette découverte nous donne bon espoir de trouver de grandes quantités de glace près de la surface du sol dans les régions tropicales martiennes, ce qui faciliterait grandement l'installation de bases permanentes sur Mars », précise Scott Hubbard, ancien responsable du programme d’exploration de Mars de la Nasa.

Article rédigé par Georges Simmonds pour RT Flash

Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le méthane, facteur clé de l'oxydation de l'atmosphère terrestre
Lundi, 15/01/2018 - 20:23

Il y a 2,4 milliards d’années, au Protérozoïque, ère qui suit l’Archéen, l’atmosphère terrestre s’est fortement enrichie en dioxygène. Deux principaux mécanismes sont supposés expliquer cet événement nommé Grande Oxydation : la photosynthèse d’une part, accompagnée par un enfouissement de matière organique dans les sédiments, l’échappement d’hydrogène vers l’espace d’autre part, qui réduit le piégeage de l’oxygène sous la forme d’eau (H2O).

Des chercheurs de l’Université de Saint Andrew, en Écosse, ont présenté un scénario accréditant l’idée qu’une production biologique massive de méthane (CH4) aurait déclenché une évacuation massive de l’hydrogène planétaire. Dans l’ouest du bassin sédimentaire du Griqualand, en Afrique du Sud, les chercheurs ont mis en évidence, à 840 mètres de profondeur, dans une strate d’époque juste antérieure à la Grande Oxydation, de brutales variations des rapports isotopiques 36S/32S et 33S/32S, relatifs au soufre, et une baisse du rapport 13C/12C, pour le carbone.

Ces changements signent l’arrivée massive de méthane dans l’atmosphère mais pourquoi se sont-ils produits ? Selon le nouveau scenario proposé par ces chercheurs, l’enrichissement concomitant des sédiments marins en carbone 12 indique une production massive de méthane. En effet, les bactéries méthanogènes synthétisent plus de méthane à partir de carbone 12 qu’à partir de carbone 13. Lorsque ces bactéries abondent, elles accumulent le méthane à carbone 12, lequel finit donc par s’amasser dans les sédiments marins.

La modélisation de l’atmosphère archéenne réalisée par les chercheurs suggère que les variations mesurées s’expliquent au mieux si l’on admet que juste avant la Grande Oxydation, les bactéries méthanogènes ont, pendant un million d’années, créé dans l’atmosphère une brume de méthane comparable à celle présente sur Titan, la lune de Saturne. Parvenues dans la haute atmosphère, les molécules CH4 auraient été dissociées par le rayonnement solaire, et des masses énormes d’hydrogène se seraient ainsi échappées dans l’espace.

À la fin de l’Archéen, la multiplication de tels épisodes aurait considérablement diminué le caractère réducteur de l’atmosphère. Ensuite, l’activité des bactéries photosynthétiques ainsi qu’un autre processus, la dissociation de molécules d’eau par le rayonnement solaire dans la haute atmosphère, ont peu à peu augmenté la teneur atmosphérique en dioxygène – qui est aujourd’hui environ 100 000 fois celle atteinte par la Grande Oxydation.

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Antipsychotiques : le choix du traitement influence le risque d’AVC
Mercredi, 17/01/2018 - 22:16

Selon une étude argentine, les anomalies métaboliques comme la prise de poids et les anomalies lipidiques, induites par certains antipsychotiques, entraînent une augmentation sensible du risque cardio-vasculaire et du risque d'AVC.

La base de données était celle d’un hôpital universitaire de Buenos Aires. L’analyse a porté sur 1008 patients consécutifs, qui ont reçu une première ordonnance d’antipsychotique entre janvier 2002 et décembre 2007. Ces patients étaient âgés de 72 ans en moyenne. Ils ont été suivis durant 36 mois.

Les antipsychotiques ont été classés en trois catégories, selon leur retentissement sur le profil lipidique et le risque métabolique cardiovasculaire. Les résultats révèlent que, dans l'ensemble, 19,6 % des participants ont rencontré un problème cardiovasculaire. Le risque  d’AVC est notamment multiplié par trois chez les sujets âgés. Les molécules considérées comme à moindre risque étaient l’halopéridol, l’aripiprazole, la ziprasidone, la trifluoperazine et la levomépromazine. La quetiapine et la risperidone étaient comptées comme des agents à risque intermédiaire. Enfin, la thioridazine, l’olanzapine et la clozapine étaient considérées comme à haut risque sur le plan CV.

L'étude souligne par ailleurs que 14,8 % des patients sous antipsychotique à haut risque ont pris du poids, contre 4,9 % et 2,4 % parmi les patients sous antipsychotique à risque intermédiaire et à bas risque.

Enfin, parmi les événements, ce sont les AVC qui ressortent les plus, avec des incidences brutes de 9 %, 10,5 % et 17,2 % dans les trois groupes. Les auteurs concluent que « Chez les patients âgés sous traitement antipsychotique présentant un risque intermédiaire ou élevé d’effets secondaires métaboliques, le risque d’évènement CV majeur est plus élevé à long terme que chez les patients sous traitement à faible risque ».

Compte tenu de ces résultats, l'étude recommande donc de toujours commencer le traitement par une classe à bas risque. Les auteurs recommandent également « des stratégies différenciées de suivi et d’évaluation, même en l’absence de prise de poids ou de syndrome métabolique chez les patients traités au long cours terme par un antipsychotique à risque intermédiaire ou élevé ». 

Article rédigé par Georges Simmonds pour RT Flash

Medscape

Une nouvelle étude confirme l'intérêt thérapeutique d'un nouveau médicament contre la maladie d’Alzheimer
Mercredi, 17/01/2018 - 21:43

La firme TauRx Therapeutics a annoncé les résultats complets de sa deuxième étude clinique de phase 3 portant sur LMTX, le premier inhibiteur de l'agrégation de la protéine tau dans le cadre de la maladie d'Alzheimer. Les résultats de cette étude concordent avec ceux de la première étude de phase 3, publiée récemment dans The Lancet et menée sur des patients souffrant de la maladie d'Alzheimer légère à modérée.

Selon cette étude, le LMTX pourrait être efficace à une dose aussi faible que 4 mg, administrée deux fois par jour. Cette nouvelle étude a évalué l'efficacité et l'innocuité de LMTX chez 800 patients atteints de la maladie d'Alzheimer légère, auxquels on a administré une dose de 100 mg ou de 4 mg deux fois par jour pendant un traitement de 18 mois.

Les résultats de l'étude précédente avaient montré des différences significatives en faveur de l'administration de deux doses plus élevées de LMTX (75 mg et 125 mg deux fois par jour), prises en monothérapie par rapport à la dose de contrôle de 4 mg prise en monothérapie.

Commentant cette étude, le Professeur Wischik souligne « Bien que ces résultats proviennent d'une analyse de cohorte non randomisée, un certain nombre d'éléments indiquent des effets thérapeutiques réels et pas simplement des différences entre les patients qui prennent ou ne prennent pas les traitements normalisés ». « Ces résultats très significatifs étayent la validation du traitement à base de protéine tau dans le cadre de la maladie d'Alzheimer », a déclaré pour sa part George Perry, doyen des sciences, Université du Texas à San Antonio et rédacteur en chef du Journal of Alzheimer's Disease.

Article rédigé par Georges Simmonds pour RT Flash

Le Lézard

Du fer en intraveineuse contre la fibromyalgie
Mercredi, 17/01/2018 - 07:42

Selon une étude réalisée par des chercheurs américains de la Vanderbilt University, le carboxymaltose ferrique, une formule de fer administré par perfusion intraveineuse et utilisé dans la prise en charge de carences en fer, permettrait d'améliorer en toute sécurité les symptômes de la fibromyalgie, un trouble du système nerveux central.

Le fer pourrait jouer un rôle dans le développement et la sévérité de la fibromyalgie : caractérisée par une douleur chronique généralisée associée à de nombreux autres symptômes, notamment la fatigue, la dépression, l'anxiété et la raideur.

De précédentes recherches ont également révélé que la fibromyalgie était une caractéristique commune chez les patients présentant une anémie ferriprive et une thalassémie mineure. En outre, les patients présentant de faibles niveaux de fer ont un risque 5,6 fois plus élevé de développer la fibromyalgie. Enfin, les patients atteints de fibromyalgie ont très fréquemment des taux de fer inférieurs à ceux des personnes en bonne santé.

Cet essai montre que deux administrations séparées par au moins 7 jours et par injection de carboxymaltose ferrique, jusqu'à 1500 mg, peuvent améliorer les symptômes de la fibromyalgie, en toute sécurité. L’essai aveugle, randomisé, contrôlé contre placebo, compare les effets de ces 2 administrations d'Injectafer pour évaluer son efficacité et son innocuité chez 81 patients carencés en fer et fibromyalgiques, répartis pour recevoir des perfusions de 15 mg / kg d'Injectafer ou un placebo. Tous les patients ont reçu 2 injections, une le premier jour de l'étude et une seconde 5 jours plus tard. 42 jours après la seconde administration, les patients traités ont vu  une amélioration considérable de leur état.

Article rédigé par Georges Simmonds pour RT Flash

Rhumatology

Consommer moins de protéines pour éviter les infections rénales chroniques
Mercredi, 17/01/2018 - 07:36

Les reins sont des filtres très perfectionnés. Ils servent à épurer le sang des déchets de l’alimentation et à réguler la quantité d’eau et de sel de l’organisme. Lorsqu’ils fonctionnent correctement, ils peuvent filtrer environ 170 litres de sang par jour. Mais ils peuvent en venir à dysfonctionner, pour de multiples raisons : c'est l’insuffisance rénale, dite chronique lorsqu’elle s’est installée de façon définitive.

Dans une étude publiée récemment, les Professeurs Kamyar Kalantar-Zadeh, de UC Irvine, et Denis Fouque, chef du service de néphrologie de l’hôpital Lyon-Sud, reviennent sur l’importance d’adopter un régime pauvre en protéine qui permet de ménager le rein, en limitant la production d’urée et les symptômes d’empoisonnement du sang.

Pour garder des reins en pleine forme, il est donc recommandé de limiter strictement sa consommation de viande et de favoriser une alimentation végétarienne : riches en fibres, les fruits et légumes, ce qui permet de diminuer l’absorption de phosphore (difficile à éliminer) et faciliter le transit. L’utilisation de probiotiques bien choisis peut s’avérer utile pour réduire la production de certains produits de fermentation par le microbiote. Il faut enfin limiter l’apport en sel à 6 grammes par jour et privilégier les huiles mono- ou polyinsaturées, comme l’huile d’olive, le tournesol ou le colza.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Vers un traitement ciblé du cancer de la prostate
Mercredi, 17/01/2018 - 07:32

Le cancer de la prostate est aujourd’hui la troisième cause de décès par cancer chez l’homme dans le monde. En France, il arrive au premier rang des cancers avec 71 000 nouveaux cas chaque année et est responsable de 9 000 décès par an. Les options thérapeutiques actuelles restent limitées par le manque de technologies de précision permettant de cibler directement la tumeur dans la prostate.

Pour répondre aux besoins médicaux non satisfaits dans le cancer de la prostate, KOELIS, une société grenobloise spécialiste de la chirurgie urologique assistée par ordinateur, a lancé en septembre l’étude FOSTINE, un essai pilote mené dans 2 centres en France et en Belgique sur 10 patients pendant 12 mois, dont l’objectif est de valider le traitement non chirurgical de la tumeur directement au sein de la prostate.

Le traitement s’effectue via l’insertion d’une fine aiguille guidée par imagerie médicale jusqu’à la cible thérapeutique dans la prostate pour y délivrer des ondes et détruire la tumeur. Cette approche très peu invasive pourrait présenter l'avantage de traiter les tumeurs de petite taille, de façon rapide et reproductible, tout en réduisant significativement le risque de complications.

Avec l’étude clinique FOSTINE, KOELIS entend proposer aux patients une solution thérapeutique précise, indolore et efficace. Un premier patient a d’ores et déjà été traité en première mondiale dans le cadre de cette étude par l’équipe du Professeur Nicolas Barry-Delongchamps, du service d’urologie de l’hôpital APHP Cochin.

Ce traitement ciblé du cancer de la prostate par micro-onde est aujourd’hui rendu possible par la technologie d’imagerie médicale de KOELIS qui permet, sur la base d’une cartographie 3D personnalisée, de guider précisément une aiguille dans toutes les zones de la prostate.  

Article rédigé par Georges Simmonds pour RT Flash

Caducée

La diète génétique : un outil majeur de prévention ?
Mardi, 16/01/2018 - 06:39

Nous ne sommes pas égaux devant l'alimentation car tout dépend des gènes de susceptibilité que nous possédons et qui font que nous serons particulièrement sensibles à tel ou tel aliment. Dans ce domaine, nos gènes mènent un véritable dialogue avec les aliments que nous ingérons.

En parallèle s’est donc développée une industrie : des tests nutrigénétiques offrant des recommandations alimentaires basées sur nos gènes. A partir de votre profil génétique, certaines entreprises, dont BiogeniQ à Brossard (Canada), ciblent une vingtaine de gènes spécifiques qui entrent en interaction avec certains nutriments. Si vous êtes porteurs d’une mutation susceptible de nuire à l’absorption de certaines vitamines ou à la digestion du lactose, par exemple, on vous proposera de revoir votre régime alimentaire basé sur ces découvertes.

Selon Catherine Drouin-Audet, diététiste et responsable du volet nutrition chez BiogeniQ, "Déterminer si vous êtes à risque de développer une carence en fer est certes intéressant, mais cela prend une toute autre dimension quand il devient possible de se renseigner sur les risques de développer des maladies chroniques. Reste que nous sommes encore loin de connaître les fonctions des 25 000 gènes humains, et encore moins la façon dont ils interagissent avec la nourriture".

Catherine Drouin-Audet souligne cependant que les tests actuels sont appelés à se perfectionner au fil des recherches et découvertes scientifiques. Selon elle, "Les gens souhaitent mieux s’alimenter et veulent savoir si tous leurs efforts sont dirigés au bon endroit. Ils agissent de manière préventive".

Même s'ils restent imparfaits, les tests nutrigénétiques disponibles  peuvent déjà écarter les doutes que l’on peut entretenir par rapport au risque de développer certaines maladies liées à l’alimentation. Parmi celles-ci, la maladie cœliaque, la forme la plus sévère de l’intolérance au gluten qui touche 1 % de la population.

Reste que les résultats de ces tests ne sont toutefois pas toujours ceux escomptés. "Il faut anticiper les réactions d’anxiété et éviter de créer une certaine paranoïa dans l’espace public", prévient Thierry Hurlimann, chercheur à l’Institut de recherche en santé publique de l’Université de Montréal (IRSPUM). Pour lui, cela passe inévitablement par la rencontre avec un conseiller génétique avant et après le test.

L’effet contraire a aussi été observé : en se sentant protégés génétiquement, certains individus adopteront des habitudes alimentaires moins saines. "On peut se penser immunisé à cause d’une réponse génétique favorable. Dans ce cas, l’encadrement devient particulièrement important", constate Hubert Cormier.

Il faut également remettre ces tests en perspective, car il n’y a pas que les gènes qui influencent notre santé. L’environnement occupe encore une large part du gâteau. "Rien n’est 100 % génétique. L’impact d’une seule mutation pèse très peu dans la balance", nuance Hubert Cormier. "Parfois, une mutation peut expliquer 1 % d’un trait. Le reste dépend de notre environnement". Le risque de développer certaines maladies demeure donc largement tributaire des habitudes de vie, du stress et du milieu dans lequel on vit.

Les régimes n’ont jamais eu la réputation d’être suivis très longtemps. La nutrigénétique, avec ses nombreuses restrictions, risque d’entraîner les mêmes réactions. "Il doit y avoir du plaisir dans l’alimentation. Si on ajoute la génétique, on rationalise l’alimentation. S’il y a trop de règles, les gens vont se décourager et délaisser les recommandations", craint Hubert Cormier.

BiogeniQ ne fait d’ailleurs pas miroiter une diète exclusivement basée sur la génétique. "On voit la nutrigénomique comme un outil d’accompagnement, et non comme la réponse à tout. On ne promet pas la pilule magique", rappelle Catherine Drouin-Audet.

Article rédigé par Georges Simmonds pour RT Flash

Le Devoir

Plasticité des ribosomes : une nouvelle piste de thérapie ciblée pour combattre le cancer
Lundi, 15/01/2018 - 20:14

L’équipe « Domaines nucléaires et pathologie » dirigée par Jean-Jacques Diaz, directeur de recherche Inserm au Centre de recherche en cancérologie de Lyon (Inserm/CNRS/Université Claude Bernard Lyon 1/Centre Léon Bérard), vient de montrer qu’un des composants essentiels du ribosome, la « machinerie cellulaire » qui fabrique les protéines, est dénaturé dans les tumeurs. Ces recherches ont en effet montré que ces ribosomes modifiés fonctionnent différemment dans les cellules cancéreuses et produisent préférentiellement des protéines favorisant la prolifération et la survie des cellules cancéreuses. Cette découverte ouvre de nouvelles perspectives pour le développement de thérapeutiques innovantes anti-cancéreuses, ciblant ces machineries anormales.

Les travaux de recherche de l’équipe de Jean-Jacques Diaz portent sur un mécanisme clé du fonctionnement d’une cellule : la production des protéines, réalisée par l’intermédiaire de « petits robots spécialisés » appelés ribosomes. Les ribosomes ont pour mission de récupérer le message génétique, qui est encore codé, et de le décoder sous forme de protéines actives. Les protéines ainsi produites vont jouer des rôles dans différents mécanismes physiologiques de l’organisme, par exemple l'insuline impliquée dans le contrôle de la glycémie.

Une étude publiée en 2013 avait déjà montré que certaines modifications des ribosomes  surviennent au cours du développement des cancers du sein et du côlon, ce qui  favorise le développement de ces maladies.

Dans cette nouvelle étude, ces chercheurs ont pu montrer que la plasticité de la 2'-O-méthylation modifie le fonctionnement des ribosomes. Cette découverte met en lumière une nouvelle facette du ribosome, celle d'un régulateur direct de la synthèse des protéines, alors qu'il était considéré, jusqu'à aujourd'hui, comme un simple effecteur.

Ce travail ouvre des perspectives nouvelles sur l'utilisation des ribosomes, notamment en cancérologie, pour identifier de nouveaux marqueurs pronostiques du développement des tumeurs et développer de nouvelles thérapies ciblées contre ces ribosomes particuliers. Ces voies sont actuellement explorées par l'équipe de chercheurs du Centre de recherche en cancérologie de Lyon (CRCL).

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'hydrogène pourrait représenter 20 % de l'énergie consommée en 2050
Lundi, 15/01/2018 - 20:32

Alors que se profile l'abandon du moteur thermique à l’horizon 2040, l’hydrogène essaye de trouver sa place dans le nouveau paysage énergétique. La filière, réunie au sein du Conseil de l’hydrogène ("Hydrogen Council"), a profité de la COP23 pour publier une feuille de route particulièrement optimiste pour l’avenir.

Intitulée "La montée en puissance de l’hydrogène", l’étude menée par le cabinet McKinsey table sur le fait que l’hydrogène, déployé à grande échelle, pourrait représenter près d’un cinquième de l’énergie totale consommée en 2050, avec une demande annuelle multipliée par dix. L’hydrogène pourrait ainsi alimenter 10 à 15 millions de voitures et 500 000 camions d’ici à 2030.

"Le monde du XXIème siècle doit effectuer une transition vers l’utilisation d’énergies à faibles émissions de carbone", explique Takeshi Uchiyamada, PDG de Toyota Motor Corporation et co-président de l’Hydrogen Council. "L’hydrogène est une ressource indispensable pour parvenir à cette transition car il peut servir à stocker et transporter de l’électricité d’origine éolienne, solaire ou provenant d’autres sources renouvelables en vue d’une utilisation dans les transports ou dans tout autre domaine".

L’hydrogène pourrait ainsi contribuer à hauteur de 20 % à l’objectif de réduction des émissions de CO2 d’ici la moitié du siècle. Il générerait un chiffre d’affaires de 2 500 milliards de dollars et créerait plus de 30 millions d’emplois. Mais pour cela, d’importants investissements sont nécessaires, de l’ordre de 20 à 25 milliards de dollars par an.

"Les solutions sont matures sur le plan technologique et des acteurs industriels se sont engagés. Nous avons désormais besoin d’efforts concertés de toutes les parties prenantes pour que cette ambition se matérialise", lance Benoît Potier, PDG d’Air Liquide et co-président de l’Hydrogen Council.

Jusqu’ici reléguée au second plan derrière les véhicules électriques, la filière hydrogène commence à se faire une place dans la mobilité propre. Le constructeur ferroviaire français Alstom vient d’annoncer la livraison de 14 trains à hydrogène, d’une autonomie de 1 000 kilomètres, en Allemagne. Pau (Pyrénées-Atlantiques) a également lancé la première ligne de bus alimentés par de l’hydrogène. Et un bateau bus à hydrogène a été inauguré début novembre à La Rochelle (Charente-Maritime).

L’hydrogène peut être produit à partir de gaz naturel ou bien à partir d’énergies renouvelables, par électrolyse de l’eau. Avec une consommation mondiale de 60 millions de tonnes par an, il représente moins de 2 % de la consommation mondiale d’énergie. Mais le déploiement des énergies renouvelables pourrait rapidement changer la donne. L’énergéticien Engie a ainsi décidé de se doter d’une entité dédiée à l’hydrogène renouvelable, après avoir cédé ses actifs de la filière amont de gaz naturel liquéfié à Total.

Pour l’instant, 7 000 voitures roulent à l’hydrogène dans le monde, dont une cinquantaine de taxis Hype à Paris. Mais le conseil de l’hydrogène, lancé en début d’année au forum économique mondial de Davos, entend bien convaincre les gouvernements et les investisseurs de l’intérêt de la filière. Il réunit 18 multinationales parmi lesquelles Air Liquide, Alstom, Audi, BMW, General Motors, Hyundai, Statoil, Total ou encore Toyota… mais pour l’instant, aucun constructeur français.

Article rédigé par Georges Simmonds pour RT Flash

Novethic

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top