RTFlash

RTFLASH Recherche & Technologie
NUMERO 879
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Décembre 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Auchan teste des robots pour porter vos courses
Matière
Semi-conducteurs : découverte d’une nouvelle méthode de dissipation thermique
Une nouvelle étape vers un réseau quantique de communication
Mesurer les sauts quantiques !
Première puce neuromorphique photonique
Terre
Vers l'amélioration de l'efficacité de la photosynthèse des plantes
Le changement climatique s'accélère
Vivant
Maladie d'Alzheimer : le rôle-clé de l'activité physique
Maladie d'Alzheimer : le rôle des plaques amyloïdes remis en cause
Les mitochondries sont essentielles à la mémoire
Grippe : la vulnérabilité face au virus dépend de l'année de naissance
Des chercheurs prolongent la vie de souris en reprogrammant leurs cellules
Devenir mère plus tard augmenterait l'espérance de vie
Abeilles : des infrarouges contre les effets néfastes des insecticides
Découverte d'une molécule qui augmenterait la longévité
Edito
Galileo : un formidable moteur de compétitivité numérique pour l'Europe !



Le 17 novembre dernier, les quatre derniers satellites de la Phase 1 du système européen de GPS Galileo ont été lancés et, après un vol parfait de 3h56, mis sur la bonne orbite par une fusée Ariane 5, depuis le centre spatial guyanais à Kourou. C’est la version Ariane 5 EPS (étage à propergols stockables) qui a été choisie pour accomplir cette mission délicate et complexe car cette fusée a été conçue de manière à pouvoir rallumer le dernier moteur pour qu’il monte les quatre satellites jusqu’à leur orbite à 23 000 km. Les opérations de mise à poste ont été réalisées par le CNES depuis Toulouse, en partenariat avec l’ESOC, le centre européen d’opérations spatiales, à Darmstadt.

Ces quatre nouveaux satellites sont venus rejoindre les 14 satellites déjà  mis en orbite mais seuls onze d’entre eux sont opérationnels : un est définitivement hors service à la suite d’une panne d’antenne et deux autres, placés sur une mauvaise orbite, ne pourront être utilisés que pour les missions de recherche et de sauvetage. Avec ce nouveau succès, le système GPS Galileo va pouvoir commencer à fonctionner dans quelques semaines. Les 12 prochains satellites de Galileo de la Phase 2 seront lancés par une version spécialement modifiée d’Ariane 5 qui permettra, à chaque tir, de mettre de façon plus rationnelle sur orbite quatre satellites, ce qui constitue un avantage compétitif décisif sur ses concurrents. Si tout va bien, le système devrait être achevé en 2020, avec 30 satellites en orbite, dont 24 opérationnels.

Cette mission était d’une importance capitale, à la fois pour confirmer la fiabilité exceptionnelle du lanceur Ariane 5 – 76 lancements consécutifs réussis depuis 2003 – et rendre enfin opérationnel Galileo qui a connu bien des vicissitudes. Le programme Galileo a été initié en 1999 par la Commission européenne pour doter l’Europe de son propre système de positionnement et de datation et garantir l’indépendance européenne face aux autres systèmes existants, notamment l’américain GPS, le russe Glonass et le chinois Beidou.

Bénéficiant des dernières avancées technologiques, Galileo est plus précis que le GPS, avec une précision inférieure au mètre, contre plus de dix mètres pour ses concurrents. En matière de datation, Galileo sera d’une précision tout simplement redoutable – de l’ordre de quelques milliardièmes de seconde – ce qui va permettre de déployer des services de traçabilité d’une exceptionnelle précision, notamment en matière de transports. En outre, la qualité sans égal du signal de Galileo permettra une couverture bien plus fine et complète dans des zones difficiles, comme les milieux urbains. S’agissant des performances remarquables de GALILEO, il faut rappeler qu’elles doivent beaucoup au CNES, qui en a conçu l’architecture.

Au total, Galileo devrait coûter, lorsqu’il sera entièrement terminé, 10,5 milliards d'euros à l'Europe : 3,5 milliards pour la phase initiale (2008-2013) et 7 milliards pour la phase actuellement en cours (2014-2020). Trois acteurs majeurs sont impliqués dans le système Galileo : d’abord la Commission européenne qui décide et fixe le cadre politique (répartition du financement entre états, performances du système, services prioritaires etc.). Ensuite, l’ESA qui joue le rôle de maître d’ouvrage et assure la construction et le déploiement du système. Enfin, la GSA (Agence de navigation par satellite européenne) basée à Prague, qui est l’exploitant désigné du système et doit proposer les services publics et privés les plus attractifs.

Dans un premier temps, Galileo va proposer quatre services. Le premier sera un service universel, accessible gratuitement à tout le monde. Outre le service de positionnement et de datation, il permettra, contrairement à ses concurrents, une authentification très robuste du signal utilisé. Le second service, à finalité commerciale, permettra un positionnement d’une précision inégalée (quelques centimètres). Le troisième service, dit « PRS » (service public réglementé), permettra de disposer de signaux particulièrement réfractaires aux perturbations électromagnétiques et sera rendu accessible par les Etats membres au cas par cas, en fonction de l’appréciation des demandes formulées. Enfin, le dernier service, « Recherche et sauvetage », s’adressera tout particulièrement aux avions et bateaux en détresse et permettra, contrairement au système actuel (Cospas-Sarsat), une localisation en temps réel.

Nous allons très vite pouvoir réaliser concrètement l’avancée que représente Galileo car le grand public pourra dès ces prochains jours accéder à ce système européen de positionnement. Il suffira pour cela de se procurer un terminal de réception bi compatible, pouvant recevoir à la fois les signaux de Galileo et ceux de son rival américain GPS, grâce à des puces hybrides. Bien que concurrents sur le plan commercial, les signaux de Galileo et de GPS pourront être utilisés en synergie, pour obtenir à la fois une meilleure couverture et une plus grande précision.

Sur le plan politique et géostratégique, Galileo permettra enfin aux Européens d'être totalement indépendants dans son utilisation des signaux satellite à des fins militaires ou sécuritaires (lutte contre le terrorisme et la criminalité).

Sur le plan économique, industriel et commercial, Galileo va booster de manière considérable l’ensemble des multiples équipements et services liés à l’utilisation des signaux satellitaires. Les seuls équipements nécessaires à la localisation représentent déjà un marché global de plus de 50 milliards d’euros et la barre des 100 milliards d’euros sera dépassée d’ici 2020. On comprend mieux les enjeux économiques de Galileo quand on sait que 10 % de l'activité économique européenne dépendent déjà de l'utilisation du GPS et qu’un tiers de cette activité devrait en dépendre d’ici 15 ans, selon la Commission européenne. Quant aux revenus générés par Galileo, ils pourraient atteindre plus de 100 milliards d’euros par an à l’horizon 2030-2035, soit dix fois le coût total de réalisation de ce système européen tant attendu.

Certains experts pensent même que ces prévisions de développement pourraient être largement dépassées car la montée en puissance des véhicules autonomes risque de bouleverser la donne économique. D’après une enquête du cabinet de conseil américain McKinsey, les voitures sans chauffeur représenteront 15 % du parc automobile mondial en 2030, soit environ 225 millions de véhicules. Un tel essor n’est bien sûr envisageable qu’à condition que toutes ces voitures puissent disposer partout et tout le temps d’un accès fiable à un système de positionnement par satellite, et la mise en service progressive de Galileo va évidemment contribuer de manière décisive à atteindre cet objectif.

Mais même s’il est l’en est l’une des plus éclatantes réussites, Galileo n’est qu’un des exemples de ce que peuvent faire la technologie et l’industrie spatiale, qui n’en est encore qu’à ses débuts. Outre Galileo, parmi les applications et services par satellites en cours de déploiement ou en projets, certains méritent d’être évoqués pour leur caractère particulièrement innovant. Il y a quelques semaines, Airbus a par exemple annoncé une nouvelle initiative remarquable qui devrait encore accroître la place désormais essentielle des satellites en matière de protection des forêts et de l’environnement au niveau planétaire. En collaboration avec The Forest Trust et l’entreprise SarVision, spécialisée dans la télédétection, Airbus a présenté un système révolutionnaire d’observation des surfaces forestières, baptisé « Starling. »

S’appuyant sur des photos satellitaires haute résolution, le système Starling va photographier mais aussi cartographier les différentes plantations de palmiers à huile, responsables en partie de la déforestation mondiale. Starling est si précis qu’il peut permettre aux organismes de compter le nombre d’arbres et ainsi constater rapidement s’il y a un changement au niveau de la zone observée. Il peut également permettre d’observer une zone même si celle-ci est cachée par des nuages tropicaux.

Il est important de souligner que, grâce aux nouveaux et puissants outils satellitaires qui permettent, comme Starling, un contrôle et une prévision sans équivalent des ressources forestières, de nombreux pays ont pris conscience de la nécessité de mettre en œuvre une gestion durable de leurs forêts, à la fois pour des raisons écologiques, économiques et sociales. Et le résultat est là : depuis 15 ans, le nombre d'hectares de forêts certifiés dans le monde a connu une croissance exponentielle : il a été multiplié par 20 entre 2000 et 2014, passant de 18 millions d’hectares à plus de 430 millions d’hectares et les forêts certifiées représentent ainsi près de 11 % de la surface forestière mondiale. A cet égard, l'étude de la FAO intitulée « Évaluation des ressources forestières mondiales 2015 » portant sur la période 1990-2015 (Voir FAO) souligne que le rythme de la déforestation mondiale a considérablement ralenti au cours de ces dernières années. Cette étude montre en effet que la superficie forestière de la planète a diminué de seulement 3,1 % en 25 ans.

Exemple d’application qui serait impossible sans les satellites : celle que Google a lancé le 16 novembre dernier, sous le nom de « Google Earth VR » et qui est téléchargeable gratuitement. Il s’agit d’une déclinaison en réalité virtuelle de sa célèbre application Google Earth. Cette application est tout simplement bluffante et permet à l’utilisateur d’évoluer, à différentes échelles, dans des régions, pays où villes de son choix.

Cette application utilise un puissant moteur de numérisation terrain et elle n’a pu être conçue et développée que grâce au traitement informatique d’une gigantesque quantité de photos satellites en haute résolution. Le champ d’utilisation de Google Earth VR est pratiquement illimité et concerne tous les domaines d’activité : industrie, agriculture, environnement transport, sécurité, tourisme, culture…

Pour l’instant, cette application n’a intégré que le paramètre spatial mais, n’en doutons pas, Google réfléchit certainement à enrichir son service de réalité virtuelle planétaire en y greffant une dimension temporelle. Il deviendra alors possible, moyennant rétribution évidemment, d’aller se promener dans Rome, non pas telle qu’elle se présente aujourd’hui, mais telle qu’elle apparaissait au voyageur à l’époque de Marc-Aurèle… Mais ce qui est vrai pour le passé l’est également pour le futur et un tel système pourrait permettre à un responsable politique ou économique de se rendre virtuellement dans une grande métropole et de pouvoir observer très rapidement le déploiement de différents scénarii d’infrastructures et d’urbanisme…

Enfin, parmi les nombreux projets moins futuristes et utopiques qui impliquent des technologies spatiales, il faut évoquer celui que vient de proposer il y a peu Elon Musk, patron de SpaceX, qui ne fait pas mentir sa réputation de visionnaire. Après la conquête de Mars et le train hypersonique, la dernière idée de cet entrepreneur hors norme est de déployer une flotte immense de 4.425 satellites pour couvrir l’ensemble de la planète avec l’Internet haut débit (sur des bandes de fréquences Ku et Ka, entre 12 et 18 GHz pour les premières et entre 26,5 et 40 GHz, pour les secondes).

Pour parvenir à déployer de manière cohérente l’ensemble de ces satellites, chacun pesant 385 kg et mesurant 4 x 1,8 x 1,2 m, Elon Musk a imaginé de les lancer par vagues successives de 50 et 75 unités et de les placer sur plusieurs niveaux d’orbite, à 1.110, 1.130, 1.150, 1 275 et 1.325 km d'altitude. En utilisant les technologies spatiales aujourd’hui disponibles, notamment les lanceurs Falcon 9 et Falcon Heavy, 16 lancements suffiraient pour le premier essaim de 800 satellites qui seraient destinés à couvrir l’ensemble de l’Amérique du Nord. Selon Elon Musk, le coût total de ce projet serait de l’ordre de 10 milliards d’euros, un coût équivalent à celui de l’ensemble du projet Galileo. Et comme pour le projet européen de GPS, ce coût, quand on y réfléchit, apparaît presque comme dérisoire au regard des immenses potentialités de développement économique, numérique et humain que permettrait un accès universel et planétaire à l’Internet haut débit.

Ces différents exemples, qu’il s’agisse de réalisations concrètes comme Ariane, Galileo, Starling ou Google Earth VR, ou de projets qui restent à réaliser, comme celui d’Elon Musk, nous montrent à quel point les technologies spatiales sont devenues une dimension stratégique essentielle du développement de l’économie numérique mais également un instrument majeur de puissance géopolitique.

Dans ce siècle, où demain, la Chine et l’Inde deviendront, soyons-en convaincus, de grandes puissances spatiales, l’Europe doit être capable de se projeter dans le long terme et d’imaginer dès à présent des projets et des services qui, s’appuyant sur ces technologies spatiales, bouleverseront nos sociétés et nos vies quotidiennes dans 20 ou 30 ans. Les magnifiques aventures humaines, scientifiques et techniques que représentent Ariane et Galileo nous montrent à quel point l’Espace, qui fait rêver l’homme depuis la nuit des temps, est bien devenu notre destin et le nouvel horizon de l’espèce humaine.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Auchan teste des robots pour porter vos courses
Mercredi, 21/12/2016 - 11:38

Auchan Retail France, entreprise autonome de la holding Auchan, a commencé à tester le robot wiiGO dans son magasin d’Englos, près de Lille. Dans un premier temps, cette solution sera d’abord proposée aux personnes à mobilité réduite et aux femmes enceintes.

Le robot wiiGO ressemble davantage à Wall-E qu’au droïde C3-PO de Star Wars. Mais s’il n’est pas très sexy, il est en revanche bien pratique. Inventé par la start-up portugaise Follow Inspiration, wiiGO est une sorte de caddie autonome qui suit son « maître » comme un petit chien mécanique : « Le système de reconnaissance visuelle identifie la personne, lui permettant ensuite de suivre celle-ci partout dans le magasin », explique Denis Vanbeselaere, directeur de l’innovation chez Auchan Retail.

Une fois que le client a été « reconnu » par le robot, il accroche son cabas sur celui-ci et ne s’en occupe plus. « wiiGO va toujours rester à une distance maximum de 1,50 m de son utilisateur et n’a pas besoin de plus de 90 cm de largeur pour circuler. Le passage en caisse sera aussi facilité par le biais d’un balisage spécifique », poursuit le directeur de l’innovation.

En France, le wiiGO va entrer dans une période de test d’un mois minimum dans les allées du magasin Auchan Englos. « L’opération a commencé le 21 novembre et est réservée aux personnes à mobilité réduite et aux femmes enceintes », déclare l’enseigne de grande distribution. « La version du robot testée est encore un prototype qui coûte quand même plusieurs milliers d’euros. On attend les retours d’expérience pour voir si cette solution satisfait les clients et envisager de la déployer plus largement », annonce Denis Vanbeselaere.

Article rédigé par Georges Simmonds pour RT Flash

20 minutes

^ Haut
Matière
Matière et Energie
Semi-conducteurs : découverte d’une nouvelle méthode de dissipation thermique
Mercredi, 21/12/2016 - 12:11

Réussir à bien contrôler le flux de chaleur des appareils électroniques à travers des semi-conducteurs est essentiel pour développer des puces électroniques plus rapides et petites, des panneaux solaires plus puissants et des technologies biomédicales avancées.

Un progrès dans ce sens a été réalisé par un groupe de scientifiques internationaux guidé par Alexander Balandin, professeur de l’Université de Californie Riverside, qui a modifié le spectre d’énergie des phonons acoustiques, des excitations élémentaires qui se propagent en vagues de chaleur à travers des matériaux cristallins.

Initialement, les scientifiques ont utilisé des nanofils en arséniure de gallium (GaAs) et une technique d’imagerie appelée Spectroscopie de Dispersion Lumineuse de Brillouin-Mandelstam (BMS) pour étudier le mouvement des phonons. En exploitant les microstructures en GaAs, les scientifiques ont su contrôler la dispersion des phonons acoustiques - donc leur vitesse, leur interaction avec les électrons, les magnons, leur transfert thermique –, une question essentielle pour pouvoir distribuer et évacuer au mieux la chaleur des nano-appareils électroniques. En outre, cela permettra aussi de générer de manière plus efficace de l’énergie thermoélectrique.

Selon le Professeur Balandin, cela apportera un double bénéfice pour les appareils thermoélectriques qui produisent de l’énergie en appliquant un gradient thermique aux semi-conducteurs. En effet, le professeur a affirmé que cela pourrait conduire à de nouvelles méthodes pour régler les propriétés thermiques et électroniques des matériaux constitutifs des semi-conducteurs et, par conséquent, développer des technologies à la fois plus petites et plus efficaces.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une nouvelle étape vers un réseau quantique de communication
Mercredi, 21/12/2016 - 12:02

Des chercheurs de l'Ecole Polytechnique de Montréal et du CNRS ont réussi à produire un qubit dans le séléniure de zinc, un matériau semi-conducteur bien connu. Cette avancée, qui utilise les propriétés quantiques de la matière à l’échelle du nanomètre et le transfert de l’information à la vitesse de la lumière, ouvre la voie à la fabrication de réseaux quantiques de communication.

Dans les ordinateurs d’aujourd’hui, c’est la physique classique qui s’applique. Les milliards d’électrons qui forment le courant électrique coopèrent pour former un bit d’information : 0, les électrons sont absents, et 1, les électrons sont présents. En physique quantique, on travaille avec un seul électron, ce qui lui permet d’exprimer une propriété étonnante de la nature : il peut être, à la fois, un 0, un 1, ainsi que la superposition simultanée de ces deux états.

Le qubit offre des possibilités inouïes aux chercheurs car l’électron tourne sur lui-même, un peu comme une toupie. Cette propriété s'appelle le spin et en appliquant un champ magnétique, ce spin pointera vers le haut, vers le bas, ou simultanément vers le haut et le bas, de manière à former un qubit. Mais il y a mieux encore. Au lieu de se servir d’un électron, on peut utiliser son absence  ; c’est ce que les physiciens appellent un « trou ». Comme son cousin l’électron, le trou possède un spin à partir duquel on peut former un qubit. Reste que le qubit est fragile et ne peut persister que dans un environnement propice.

Le séléniure de zinc, le ZnSe, est un cristal où les atomes sont strictement ordonnés. C’est aussi un semi-conducteur dans lequel il est facile d’introduire, délibérément, des impuretés, comme le tellure, un proche parent du sélénium dans le tableau périodique, dans lequel les trous seront emprisonnés, un peu comme des bulles d’air dans le verre.

Cet environnement permet au spin du trou, notre qubit, de préserver son information quantique plus longtemps et plus fidèlement ; c’est le temps de cohérence, temps que les physiciens de par le monde tentent d’allonger de toutes les manières possibles. Voilà pourquoi le choix du séléniure de zinc n’est pas anodin. Il offre au trou un voisinage tranquille et, par conséquent, un temps de cohérence accru.

Cette équipe du professeur Sébastien Francoeur utilise des photons générés par un laser pour initialiser le trou et y enregistrer l’information quantique. Pour en faire la lecture, il excite le trou et recueille les photons émis. Résultat : un transfert quantique d’information entre le qubit stationnaire, généré par le spin du trou captif dans le cristal, et le qubit volant, le photon qui, bien sûr, se déplace à la vitesse de la lumière.

Cette nouvelle technique montre qu’il est possible de fabriquer un qubit plus rapidement qu’avec toutes les autres méthodes utilisées jusqu’à maintenant. En effet, il suffit d’une centaine de picosecondes, soit moins d’un milliardième de seconde, pour passer d’un qubit volant à un qubit stationnaire, et vice-versa.

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

Mesurer les sauts quantiques !
Mardi, 20/12/2016 - 17:27

On sait que les particules peuvent rapidement changer d’état quantique. Ce processus est connu comme un saut quantique. Un atome peut absorber un photon pour avoir un état d’une énergie plus élevée. On a longtemps considéré que de tels processus se produisent instantanément. Mais avec de nouvelles méthodes développées à TU Wien, il est maintenant possible d’étudier la structure temporelle de ces états de changement quasi instantanés.

De la même manière qu’un microscope électronique nous permet de voir l’infiniment petit, des impulsions ultra-courtes de laser permettent d’analyser les structures temporelles. L’hypothèse théorique a été effectuée par l’équipe du professeur Joachim Burgdörfer à TU Wien tandis que l’expérience a été menée par le Max-Planck-Institute for Quantum Optics en Allemagne.

Un atome d’hélium neutre possède 2 électrons. Quand il est frappé par une pulsion de laser à haute énergie, cet atome peut être ionisé. L’un des électrons est arraché de l’atome et ce processus se produit en une attoseconde, soit un milliardième de milliardième de seconde.

De ce fait, il est possible de distinguer 2 processus d’ionisation, le premier dans lequel l’atome restant va gagner de l’énergie et l’autre qui va avoir un état d’énergie minimal. En utilisant l’expérimentation, il a été possible de démontrer que la durée de ces 2 processus n’est pas la même.

Ces travaux montrent que lorsqu'un électron restant « saute » dans un état excité, le processus d’ionisation est légèrement plus rapide d’environ 5 attosecondes. Et il est remarquable de voir que les résultats expérimentaux correspondent avec les calculs théoriques et les simulations informatiques qui ont été effectués par le Vienna Scientific Cluster qui est le plus puissant supercalculateur en Autriche. La précision de l’expérience est supérieure à une attoseconde.

Il y a une décennie, on pensait que le concept d’instantané ne pouvait pas être mesuré, mais aujourd’hui ce processus instantané peut être calculé, mesuré et même testé. Cela permet de mieux comprendre les lois fondamentales de la nature mais cela offre également des possibilités pour manipuler la matière au niveau quantique.

Article rédigé par Georges Simmonds pour RT Flash

Nature Physics

Première puce neuromorphique photonique
Mardi, 20/12/2016 - 17:20

Une équipe de chercheurs de l’Université de Princeton (New Jersey), dirigée par Alexander Tait, vient de dévoiler un prototype de puce neuromorphique photonique, composée de 49 neurones artificiels. Cette puce serait 1960 fois plus rapide qu’un processeur classique.

Une puce neuromorphique est une puce bioinspirée qui vise à reproduire dans le silicium un réseau de neurones artificiels. L’objectif de cette nouvelle famille de dispositifs est d’augmenter significativement leur puissance de calcul par rapport aux processeurs classiques, tout en limitant leur consommation énergétique pour faire tourner des algorithmes d'intelligence artificielle, très prisés pour la reconnaissance d’objets, la reconnaissance faciale, le traitement de langage naturel ou encore la traduction automatique.

Il existe de nombreux modèles de puces neuromorphiques. Les chercheurs de l’Université de Princeton ont, eux, choisi la voie de la lumière pour développer leur prototype. Le principal défi technique a consisté à mettre au point un dispositif photonique dans lequel chaque nœud présente les mêmes caractéristiques de réponse qu'un neurone. Ces 49 nœuds photoniques prennent la forme de petits guides d’ondes circulaires sculptés dans le silicium, dans lesquels la lumière peut circuler.

Les chercheurs ont utilisé cette puce neuromorphique photonique pour résoudre un problème mathématique qui consiste à émuler un certain type d’équations différentielles. Ils ont comparé les performances de leur prototype pour cette application à celles d’un processeur classique. Selon eux, leur prototype est 1960 fois plus rapide pour cette tâche spécifique, soit une accélération de trois ordres de grandeur.

D’après les chercheurs, un tel dispositif pourrait avoir un réel impact dans le traitement de l’information pour des applications de radio, de contrôle et pour l’informatique scientifique. A plus long terme, les systèmes auto-apprenants pourraient se rapprocher davantage des performances humaines en termes de temps et de précision.

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Vers l'amélioration de l'efficacité de la photosynthèse des plantes
Mardi, 20/12/2016 - 17:35

Des chercheurs américains de l’Université de Berkeley ont réussi à modifier trois gènes clés dans la photosynthèse des plantes, ce qui a permis de doper jusqu’à 20 % le rendement de cultures expérimentales de tabac. Ces travaux s’inscrivent dans les efforts entrepris par les scientifiques pour augmenter les rendements des grandes récoltes comme celles du riz et du maïs, de manière à faire face à l’accroissement de la population mondiale qui, selon l’ONU, devrait passer de 7,2 milliards actuellement à 9,6 milliards de personnes en 2050. L’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) estime que la production alimentaire devra quasi doubler pour faire face à la demande.

« Nous avons utilisé des cultures de tabac comme modèle de recherche parce qu’elles sont plus simples pour faire des expériences, mais nous effectuons aussi les mêmes modifications génétiques sur des cultures de riz et d’autres récoltes », explique Krishna Niyogi, chercheur au laboratoire de biophysique moléculaire à l’Université de Berkeley en Californie, un des principaux coauteurs de ces travaux. « Les processus moléculaires que nous modifions sont fondamentaux pour que les plantes puissent effectuer la photosynthèse et nous espérons de ce fait obtenir des résultats similaires pour accroître les rendements des autres récoltes », souligne-t-il.

Avec la photosynthèse, les plantes utilisent l’énergie des rayons solaires pour extraire le dioxyde de carbone (CO2) de l’atmosphère et le convertir en biomasse, ce qui peut être utilisé comme aliment, carburant ou fibres. S’il y a trop de luminosité, les mécanismes de la photosynthèse peuvent être endommagés. Les plantes ont recours dans ce cas à un système de protection pour éliminer l’excès d’énergie emmagasiné. Mais ce mécanisme est lent à se désamorcer quand il n’est plus nécessaire, quand le ciel se couvre par exemple. Ces scientifiques ont découvert les gènes permettant de désactiver rapidement cette sorte de soupape de sécurité, permettant des gains de 14 à 20 % des rendements.

La moitié de la photosynthèse des récoltes se produit quand elles sont à l’ombre. Accélérer la désactivation du mécanisme d’élimination de l’excès d’énergie solaire peut fortement accroître la productivité des récoltes et répondre à l’accroissement du risque de pénurie alimentaire avec la croissance démographique mondiale, font valoir ces chercheurs. Selon eux, cette lenteur à désamorcer ce système de protection et à redémarrer la photosynthèse se traduit par des pertes de production de biomasse pouvant atteindre 30 %, selon le type de plante et la température ambiante.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Le changement climatique s'accélère
Mardi, 20/12/2016 - 16:38

Selon le dernier rapport de l’Agence américaine océanique et atmosphérique (NOAA), l’Arctique vient de connaître ses douze mois les plus chauds depuis le début des relevés de températures dans cette région en 1900. Sa température s’est située à 3,5 degrés Celsius au-dessus de celle de 1900 pendant la période allant d’octobre 2015 à septembre 2016. « Rarement nous avons observé l’Arctique montrer un signal aussi fort et clair ou plus prononcé d’un réchauffement persistant et de ses effets en cascade sur l’environnement que cette année », a estimé dans un communiqué Jeremy Mathis, le directeur du programme de la recherche arctique de la NOAA. Cette région se réchauffe deux fois plus vite que le reste de la planète, qui devrait enregistrer en 2016 son année la plus chaude des temps modernes et ce pour la troisième année d’affilée.

Ce rapport, effectué par 61 scientifiques dans le monde, pointe le fait que cette chaleur record a retardé à l’automne le moment où les eaux de l’océan regèlent et a aussi entraîné une fonte étendue des glaces du Groenland et des couches de neige sur le sol.

L'étendue moyenne des glaces de l'océan Arctique, particulièrement sensible au réchauffement, a été de 6,4 millions de kilomètres carré en octobre, soit 28,5 % de moins que la moyenne de 1981-2010 et la plus faible depuis le début des relevés satellitaires en 1979, selon le Centre national de la neige et de la glace américain.

Pour les climatologues, ce réchauffement résulte en grande partie des émissions de gaz à effet de serre émis dans l’atmosphère par la combustion des énergies fossiles, exacerbées cette année par le courant équatorial chaud du Pacifique El Nino.

Et alors que l'Arctique se réchauffe à une vitesse alarmante, une autre étude publiée dans la revue britannique Nature Geoscience vient de montrer que la fonte accélérée des glaciers a bien comme principale cause les activités humaines. Pour parvenir à ce résultat, les auteurs de ce travail dirigé par Gerard Roe, professeur à la faculté des sciences de la Terre et de l'espace à l'université Washington, ont sélectionné 37 glaciers répartis tout autour du globe. Ils ne les ont pas choisis au hasard, mais ont étudié ceux pour lesquels on dispose d'informations sur de longues périodes. L'intérêt de cette démarche étant d'éliminer les variations météorologiques naturelles, celles qui font qu'une année peut être plus chaude que la précédente. La méthode permet ainsi de dégager une tendance de fond.

A titre d'exemple, l'Hintereisferner, un glacier autrichien, a reculé de presque trois kilomètres en 130 ans. La cause ne peut être qu'un changement du climat sur une aussi longue période, dont l'homme est très probablement le responsable. Les auteurs de l'étude estiment en effet que la durée du phénomène et le fait qu'il soit observé sur des glaciers répartis sur toute la planète montrent que ce recul ne peut pas être causé par des variations climatiques naturelles, mais bel et bien par les activités humaines et leurs conséquences sur le climat.

Article rédigé par Georges Simmonds pour RT Flash

NOAA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Maladie d'Alzheimer : le rôle-clé de l'activité physique
Mercredi, 21/12/2016 - 21:40

Des recherches réalisées par une équipe de l’Université du Kansas rappellent que rien ne vaut, pour garder son cerveau en bonne santé, de bonnes habitudes quotidiennes d’activité physique. Pour les personnes âgées, l’activité physique va apporter, aussi, une protection significative contre le déclin cognitif et les différentes formes de démence dont la maladie d’Alzheimer. Pourtant, la tendance est contraire avec le vieillissement : lorsque les personnes âgées commencent à présenter des troubles cognitifs, elles deviennent de moins en moins actives physiquement.

"L’activité physique est très importante pour la fonction cérébrale", rappelle en préambule l’auteur principal, le Docteur Amber Watts, professeur de psychologie clinique à l’Université du Kansas. "Nous savons que les personnes physiquement actives sont moins susceptibles de développer la maladie d’Alzheimer. Mais nous savons aussi que chez les personnes déjà atteintes de la maladie, l’activité physique contribue à un meilleur fonctionnement, à un déclin cognitif ralenti et à des symptômes apaisés".

La recherche a suivi 92 volontaires avec et sans diagnostic d’Alzheimer, suivis à Alzheimer’s Disease Center de l’Université du Kansas, équipés d’accéléromètres pendant une semaine. Les chercheurs ont pu suivre ainsi l’activité physique des participants tout au long de la journée mais aussi identifier les cycles de sommeil perturbés. Leur analyse constate que les participants atteints de la maladie d’Alzheimer ont des profils quotidiens d’activité différents vs les participants en bonne santé.

Résultats : les patients "Alzheimer" pratiquent moins d’activité physique : ils passent moins de temps aux activités d’intensité modérée et organisent différemment cette activité au cours de la journée. En particulier, ils sont beaucoup moins actifs le matin : un point qui peut orienter les professionnels de santé pour stimuler les personnes atteintes de démence. Selon ces travaux, marcher reste la meilleure des activités : la marche régulière permet en effet ce que les auteurs appellent la "planification motrice", c’est-à-dire l'établissement d' un programme d’activités, quotidien et personnalisé.

Article rédigé par Georges Simmonds pour RT Flash

KU

Maladie d'Alzheimer : le rôle des plaques amyloïdes remis en cause
Mercredi, 21/12/2016 - 21:32

Le débat récurrent sur les causes profondes de la maladie d'Alzheimer vient d'être à nouveau relancé à l'occasion du congrès de la Société américaine des neurosciences. Jusqu'à présent, la majorité des scientifiques pensaient que les fameuses "plaques" dans le cerveau, qui sont des accumulations de protéines beta-amyloïdes, seraient la cause de la dégradation de nos fonctions cognitives.

Or, des autopsies réalisées sur huit personnes de 90 à 100 ans qui avaient une excellente mémoire jusqu’à leur décès, ont pourtant révélé la présence de ces plaques chez trois d’entre elles. L’échantillon a beau être petit, cette recherche s’inscrit dans une remise en question de plusieurs années sur le rôle attribué traditionnellement à ces "plaques" dites amyloïdes.

Pourrait-il y avoir des facteurs environnementaux ou génétiques qui entrent en ligne de compte, demande Changiz Geula, de l’Université Northwestern, qui a dirigé la nouvelle étude. Autrement dit, des facteurs, innés ou acquis, qui immuniseraient certaines personnes contre les effets délétères de ces plaques ? S’il était possible d’identifier ces facteurs, la recherche sur d’éventuels traitements aurait tout à coup de nouveaux objectifs...

Article rédigé par Georges Simmonds pour RT Flash

Statnews

Les mitochondries sont essentielles à la mémoire
Mercredi, 21/12/2016 - 21:26

Des chercheurs de l’Inserm sous la direction de Giovanni Marsicano (NeuroCentre Magendie, U1215) ont montré que les mitochondries (les centrales énergétiques des cellules qui utilisent l’oxygène pour transformer les nutriments en ATP) jouent un rôle essentiel dans le processus de mémorisation par le cerveau. Si le cerveau ne représente que 2 % du poids du corps, il consomme en effet jusqu’à 25 % de son énergie. Par conséquent, l’équilibre énergétique du cerveau est quelque chose de très important pour ses fonctions.

Plusieurs études ont montré que des altérations chroniques des fonctions mitochondriales (par ex. dans les maladies mitochondriales) produisent d’importants symptômes neurologiques et neuropsychiatriques. Cependant, l’implication fonctionnelle directe des mitochondries dans les fonctions supérieures du cerveau, comme l’apprentissage et la mémoire, était jusqu’à présent inconnue. En d’autres termes, nous servons-nous des mitochondries de notre cerveau quand nous apprenons ou quand nous nous souvenons de quelque chose ?

Cette étude, qui s’appuie sur la découverte du fait que le récepteur cannabinoïde CB1 est aussi présent sur les mitochondries du cerveau (appelées mtCB1) révèle que c’est bien le cas. À l’aide d’outils innovants, les chercheurs de l’Inserm ont montré que le composant actif du cannabis, le THC (delta9-tétrahydrocannabinol), provoque de l’amnésie chez les souris en activant les mtCB1 dans l’hippocampe. "Nous pensons donc que les mitochondries développent notre mémoire en apportant de l’énergie aux cellules du cerveau", souligne Giovanni Marsicano.

Cette étude est importante, non seulement parce qu’elle présente un nouveau mécanisme qui sous-tend les effets du cannabis sur la mémoire, mais aussi parce qu’elle révèle que l’activité mitochondriale fait partie intégrante des fonctions du cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Grippe : la vulnérabilité face au virus dépend de l'année de naissance
Mercredi, 21/12/2016 - 11:51

Selon des chercheurs américains de l'Université de Tucson et de l'Université de Los Angeles (États-Unis), le risque de souffrir de la grippe dépendrait de notre année de naissance. En effet, la toute première exposition au virus déclenche une réaction immunitaire qui déterminera ensuite la sévérité des symptômes tout au long de la vie.

Selon ces recherches, il semble que la toute première exposition à la maladie conditionne la réponse immunitaire face au virus durant le reste de la vie. Les scientifiques ont étudié plus particulièrement deux types de virus d’origine aviaire, passés de l’animal à l’homme : H5N1 et H7N9. S'ils sont à l'origine d'infections particulièrement sévères chez l'homme, tous les patients ne développent pas les mêmes complications.

La raison ? "Lorsqu'il est exposé à une première grippe, le système immunitaire développe des anticorps contre une protéine du virus appelée l’hémagglutinine. C'est cette réaction qui déterminera ensuite la sévérité des symptômes. Cette protection est de l’ordre de 75 % pour une grippe carabinée et de 80 % pour un décès", illustre Michael Worobey, co-auteur de l'étude.

Ainsi, les personnes nées avant les années 1960 seraient particulièrement protégées contre le virus H5N1, tandis qu'elles souffriront davantage de complications face à H7N9. Le phénomène contraire se produit chez les patients nés après 1960. Les scientifiques estiment « que leurs travaux constituent une base de travail pour la mise au point d’un vaccin universel contre la grippe qui protégerait chacun de manière beaucoup plus spécifique, selon son âge ».

Article rédigé par Georges Simmonds pour RT Flash

Science Mag

Des chercheurs prolongent la vie de souris en reprogrammant leurs cellules
Mardi, 20/12/2016 - 17:09

Des chercheurs du célèbre Salk Institute de San Diego sont parvenus à prolonger de 30 % la vie de souris génétiquement modifiées en reprogrammant des cellules pour qu'elles rajeunissent jusqu'à atteindre quasiment le stade de cellules souches pluripotentes induites (cellules iPS), à partir de la technique du "père" de ces cellules, le prix Nobel de médecine 2012, Shinya Yamanaka.

L'équipe de recherche est partie d’un modèle de souris transgénique présentant tous les symptômes de la progéria, une maladie génétique très rare chez l'humain (on recense une centaine de cas dans le monde), qui entraîne un vieillissement prématuré et une durée de vie plus courte. En plus d'une mutation génétique, les patients subissent des modifications épigénétiques prématurément, un phénomène également constaté chez le rongeur.

Les modifications épigénétiques, qui ont lieu au cours de la vie en réponse aux changements environnementaux, sont matérialisées par des marques biochimiques présentes sur l’ADN. Elles n’entraînent pas de modification de la séquence d’ADN mais induisent toutefois des changements dans l’activité des gènes.

Les chercheurs ont également modifié génétiquement d'autres souris pour que leurs cellules adultes, de peau par exemple, soient reprogrammées en cellules iPS. Ces dernières sont capables de se transformer en n'importe quel type cellulaire. La "recette" de Shinya Yamanaka consiste à induire l'expression de quatre facteurs dans les cellules (déjà présents mais inactifs).

Ces facteurs doivent être exprimés pendant deux à trois semaines pour que les cellules atteignent la pluripotence. Toutefois, les chercheurs n'ont pas souhaité que les cellules atteignent ce stade, seulement qu'elles rajeunissent un peu. L'expression des facteurs a été limitée à deux ou quatre jours, ce qui veut dire qu'une cellule de la peau, par exemple, a gardé sa spécificité.

De plus, pour garder le contrôle de ce rajeunissement cellulaire, les scientifiques ont trouvé une astuce : activer l'expression de ces facteurs uniquement lorsque les souris reçoivent un antibiotique, la doxycycline. Lorsque ces souris ingurgitent cet antibiotique, chacune de leurs cellules adultes rajeunit... Bonne surprise pour les chercheurs : cette reprogrammation cellulaire n'a pas causé de tumeurs ou de décès chez l'animal, contrairement à des tentatives précédentes réalisées par d'autres équipes.

Les chercheurs ont ensuite croisé les deux lignées de souris pour obtenir des animaux souffrant de progéria et capables d’exprimer les facteurs susceptibles de transformer chacune de leurs cellules en iPS. Ils ont testé plusieurs doses d'antibiotique afin d'obtenir le résultat "miracle" : un allongement de l'espérance de vie (de 18 à 24 semaines) et une meilleure santé générale, les effets du vieillissement étant contrés. Donner de la doxycycline deux fois par semaine s'est révélé être le dosage idéal.

Les chercheurs ont également voulu tester si leur technique est efficace sur des atteintes à différents organes : peau, muscles, rate, rein, pancréas, estomac, système cardiovasculaire... Et effectivement, ces organes présentent "un meilleur aspect au microscope". Moins détériorés, ils ont rajeuni, en somme. Les cellules bêta du pancréas, qui ont pour rôle de produire l'insuline et diminuent naturellement avec l'âge, se voient remplacées par de nouvelles cellules. "Le système cardiovasculaire, qui provoque la mort précoce chez ces souris vieillissant prématurément, a également montré des améliorations dans sa structure et sa fonction", précisent les chercheurs.

Les chercheurs veulent désormais comprendre le déroulé de ces modifications épigénétiques pendant la reprogrammation partielle. "Nous devons revenir en arrière et explorer les marques biochimiques qui changent et influent sur le processus de vieillissement", conclut Izpisua Belmonte, co-auteur de l'étude, qui ajoute "Il faudra au moins encore dix ans de recherche avant d'envisager des essais cliniques sur l'homme mais nos recherches prouvent que les changements épigénétiques influent sur le processus de vieillissement et qu'ils peuvent être malléables, ce qui change les perspectives en matière de contôle biolgique du vieillissement".

Article rédigé par Georges Simmonds pour RT Flash

Salk

Devenir mère plus tard augmenterait l'espérance de vie
Mardi, 20/12/2016 - 16:59

Si les grossesses tardives sont liées à plus de complications de santé pour la mère et pour le futur bébé, elles pourraient également favoriser une hausse de la longévité. Les chercheurs de l’Université de Californie, aux Etats-Unis, ont analysé les données d’une cohorte de 28 000 femmes ménopausées dont environ la moitié a vécu jusqu’à l’âge de 90 ans. Or, selon ces travaux, le point commun entre ces femmes est qu'elle étaient toutes légèrement plus âgées que les autres au moment de leur première grossesse.

Ces recherches montrent que les femmes qui ont accouché après leurs 25 ans avaient 11 % plus de chances de vivre jusqu’à 90 ans. Le fait d’avoir entre deux et quatre enfants est également un indice de longévité, ajoutent les auteurs de l’étude. Même après avoir pris en compte des facteurs comme l’origine, l’éducation, la situation économique, l’IMC, la consommation de tabac et/ou d’alcool et la contraception, les résultats étaient les mêmes.

Les auteurs évoquent deux explications : premièrement, les femmes ayant plusieurs enfants seraient en meilleure santé que les femmes qui ont un seul enfant. Le nombre de grossesses serait un indice de bonne santé globale, donc de plus de chances de vivre longtemps.

Mais il est également possible que des facteurs sociaux tels que le revenu et l’éducation, souvent associés au choix d’une première grossesse tardive, indiquent un meilleur accès aux soins de santé, ce qui permet d’augmenter la longévité.

Les scientifiques précisent que retarder volontairement la première grossesse n’est pas une bonne idée à cause des risques pour la santé de la mère et du fœtus, mais cette étude fournit une base pour les recherches futures afin de mieux comprendre les mécanismes qui influencent le vieillissement des femmes, estiment-ils.

Article rédigé par Georges Simmonds pour RT Flash

Time

Abeilles : des infrarouges contre les effets néfastes des insecticides
Mardi, 20/12/2016 - 16:53

On sait que depuis plusieurs années, les abeilles connaissent une mortalité anormale sous les effets conjugués de plusieurs facteurs, parmi lesqels on trouve les néonicotinoïdes, un insecticide très violent qui décime les butineurs – abeilles bourdons, papillons.

Glen Jeffery a peut-être trouvé la solution dans son laboratoire de l’Institut d’ophtalmologie de l’University College de Londres. Ce scientifique anglais a testé sur des abeilles infectées aux néonicotinoïdes un traitement aux infrarouges. Les abeilles ayant bénéficié des infrarouges ont survécu.

Selon ces travaux, la lumière infrarouge à 670 nanomètres stimule la résistance des abeilles empoisonnées par les pesticides. Dans son expérience, les deux groupes d’abeilles ont été exposés aux néonicotinoïdes pendant dix jours. Le premier a été de moins en moins mobile et sa mortalité a fortement augmenté. Le second, traité aux infrarouges deux fois par jour pendant la période dite, a résisté, en se maintenant en pleine forme.

Ce traitement peut également être utilisé comme un préventif : « Cela bénéficie même aux abeilles qui ne sont pas contaminées par les pesticides, si bien que la thérapie lumineuse peut être une façon efficace de prévenir la mortalité des colonies exposées aux néonicotinoïdes », explique Glen Jeffery. Aujourd’hui, il travaille pour mettre au point une lampe pouvant être disposée dans les ruches.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Découverte d'une molécule qui augmenterait la longévité
Mardi, 20/12/2016 - 16:47

Selon une étude internationale, une consommation régulière de spermidine, une substance qu'on trouve notamment dans le fromage, pourrait accroître la longévité chez l'homme.

Une équipe internationale de chercheurs a mené une expérience sur des souris afin de déterminer les bénéfices d’un composé alimentaire présent dans de nombreux aliments, la spermidine. Il s’agit d’un polyamine qui tient son nom du sperme, où il a été découvert pour la première fois. C’est une molécule présente chez tous les êtres vivants qui peut être synthétisée par l’organisme ou absorbée avec la nourriture comme le fromage affiné, les légumes et les céréales complètes mais aussi les petits pois, le maïs et le soja.

Pour leur étude, les chercheurs ont séparé les souris en deux groupes à qui ils ont donné respectivement de l’eau avec de la spermidine ajoutée et de l’eau plate classique afin d’en comparer les effets. Il s’avère que les rongeurs qui buvaient de la spermidine présentaient une meilleure santé cardiovasculaire avec l’âge que leurs semblables qui n’en ont pas bénéficié. Les souris qui recevaient l’enzyme affichaient moins de problèmes cardiaques en vieillissant comme l’hypertrophie ou l’insuffisance cardiaque mais elles ont également vu leur durée de vie rallonger.

Ces travaux montrent que le groupe ayant bu la molécule toute sa vie avait une durée de vie médiane plus longue avec 98 jours supplémentaires par rapport au groupe témoin n’ayant jamais reçu la molécule. De même, un autre groupe qui n’avait reçu la molécule qu’a partir de 18 mois affichait 77 jours de longévité en plus. Les chercheurs ont ensuite cherché à vérifier ces résultats chez l’homme en questionnant 800 habitants de la ville italienne de Brunico. Il s’avère que ceux qui consommaient le plus d’aliments riches en spermidine avaient moins de maladies cardiovasculaires et une pression artérielle moins élevée…

Article rédigé par Georges Simmonds pour RT Flash

Medical Daily

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top