|
|
|
|
|
NUMERO 817 |
|
|
|
|
|
|
|
Edition du 16 Octobre 2015
|
|
|
|
|
Edito
L’Aventure quantique
La mécanique quantique, élaborée entre 1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe d’incertitude d’Heisenberg) reste, avec la relativité générale d’Einstein, l’une des plus extraordinaires avancées scientifiques et conceptuelles réalisée par l’esprit humain. Défiant le sens commun et les réalités apparentes et perceptibles, cette théorie étrange constitue une rupture radicale avec la représentation que l’homme se faisait du monde depuis Aristote : désormais il nous faut admettre qu’à certains niveaux de « réalité », les principes d’identité et de causalité n’ont plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose sur un formalisme mathématique d’une extrême abstraction, cela signifie notamment qu’une « particule » ne peut plus être appréhendée isolément, comme un objet parfaitement délimité dans l’espace et dans le temps mais doit être considérée plutôt comme une manifestation particulière d’un système physique global et « intriqué » intégrant l’Univers dans son ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du monde sont redoutables et déroutantes. En mécanique quantique, on ne peut, par exemple, connaître à la fois avec précision la position et la vitesse d’une particule et l’on doit également admettre qu’une particule interagit avec l’observateur et va se comporter tantôt comme un objet « ponctuel », tantôt comme une onde, en fonction du dispositif expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique dans son ensemble accepte enfin ce renversement de perspectives de la physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série d’expérimentations remarquables, le physicien français Alain Aspect a montré de manière très convaincante que, contrairement à ce que pensait Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR - et conformément aux prévisions de la physique quantique, deux photons issus d’une même source puis envoyés dans des directions opposées restaient à jamais « intriqués », c’est-à-dire liés dans leurs propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de physiciens néerlandais vient de franchir une nouvelle étape décisive dans la confirmation expérimentale de la physique quantique. Dirigés par Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces scientifiques, qui avaient déjà réussi il y a un an à transférer une information d’un bit quantique (qbit) à un autre, situé à 3 mètres de distance, sont cette fois parvenus à mettre en évidence ce phénomène d’intrication quantique à une distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir Hanson Lab et article intitulé « Constatation expérimentale de la violation des inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km » Cornell University Library). Les physiciens ont utilisé deux diamants permettant de produire des photons polarisés intriqués avec des électrons. Ces diamants, qui étaient séparés par une distance de 1,28 kilomètre, émettait chacun un photon. Ces deux photons s’éloignaient ensuite en direction d’un détecteur situé entre les diamants à plusieurs centaines de mètres de distance. Grâce à ce dispositif expérimental très ingénieux, les physiciens ont pu effectuer des mesures de spins des électrons sur presque toutes les paires de particules intriquées et combler ainsi l’une des dernières failles méthodologiques qui auraient pu biaiser les résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, même à la vitesse de la lumière, n’avait eu le temps de voyager entre les deux diamants au cours des mesures, pour « informer » ces diamants du résultat de ces dernières. Le résultat de ces expériences est sans appel : les corrélations de mesures de spin constatées sont en parfait accord avec le théorème des inégalités de John Bell (1964) et confirment de manière remarquable la théorie quantique, en excluant de manière encore plus rigoureuse l’hypothèse de « variables cachées » locales qui pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique fondamentalement différent de celui qui prévaut à notre échelle (thermodynamique) ou à l’échelle cosmique (relativité générale), au sein duquel s’exprime de manière non réductible, ce que le regretté Bernard D’Espagnat, qui vient de disparaître, appelait un « réel voilé », organisé selon un principe de non-séparabilité. A ce niveau de réalité insaisissable, matière et énergie, ondes et particules, espace et temps sont enchevêtrés de manière inextricable. Cette dimension quantique du monde ne résulte pas de notre ignorance, ni de l’imprécision de nos instruments de mesure mais constitue bien une dimension fondamentale de la nature…
Mais la physique quantique, après être restée longtemps une curiosité théorique, s’est avérée depuis une vingtaine d’années une extraordinaire source de ruptures et d’innovations technologiques. Il faut par exemple savoir que c’est la physique quantique qui a permis la naissance et l’essor de la spintronique et l'introduction des têtes de lecture à magnétorésistance géante, à l'origine de l'augmentation considérable (par un facteur 100) de la densité de stockage d'information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui constituent aujourd’hui notre quotidien, comme le microprocesseur, le laser, le GPS, ou encore l’imagerie par résonance magnétique, n’existeraient pas sans la théorie quantique. Mais, comme le souligne Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, « aussi importantes soient-elles, ces applications s’appuient seulement sur une compréhension passive des lois quantiques et désormais, les chercheurs veulent aller plus loin, en contrôlant activement les objets à cette échelle. » C’est là qu’intervient une jeune discipline pleine de promesses, le contrôle quantique, qui vise à organiser et à manipuler atomes et particules variées afin de leur conférer des fonctions spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont notamment appuyés sur la théorie du contrôle optimal qui consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a permis, il y a presque un demi-siècle, au cours du programme lunaire américain Apollo, de déterminer les trajectoires minimisant le plus possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a permis récemment au contrôle quantique de réaliser des pas de géant dans plusieurs domaines. Par exemple, il est à présent possible de contrôler certaines réactions chimiques complexes par laser en calculant l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à créer, à l’aide du contrôle quantique, une liaison entre deux atomes de magnésium2.
Mais ces outils de contrôle quantique sont également en train de bouleverser un autre domaine hautement stratégique, celui de l’informatique quantique. Actuellement, les ordinateurs reposent sur une logique binaire, issus de l’architecture imaginée par Van Neumann, l’un des pères de l’informatique. Dans cette configuration, la plus petite unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, selon le passage ou non du courant électrique à travers un transistor. Mais, dans un ordinateur quantique, les choses se passent de manière radicalement différente. Le bit quantique (ou qbit), repose sur l’état d’un système quantique et peut de ce fait s’affranchir de cette logique binaire et utiliser les étranges propriétés quantiques d’intrication et de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de calculs pour parvenir à un résultat final, l’ordinateur quantique peut donc, en théorie, avoir accès à la totalité des résultats en une seule étape, ce qui laisse espérer des machines dont la puissance de calcul serait des milliers de fois supérieure à celles de nos superordinateurs d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique opérationnel est semé d’embûches. L’un des principaux obstacles que doivent par exemple surmonter les chercheurs est lié au nombre de qbits pouvant fonctionner simultanément au sein d’une même machine. En effet, pour être réellement efficace, un ordinateur quantique doit en théorie pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus ces qbits sont nombreux et plus les risques d’interaction avec l’environnement augmentent. Or ces interactions entraînent ce que les physiciens appellent une décohérence, c’est-à-dire un brusque effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les erreurs dues à la décohérence et à les corriger en temps réel. En 2011, une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer des photons sans les détruire, ces chercheurs ont réussi à stabiliser le nombre de photons piégés dans une cavité supraconductrice en générant un signal micro-onde approprié. Cette avancée remarquable confirme qu’il est possible de corriger en temps réel les bits d’un ordinateur quantique, ce qui lève un verrou majeur dans la conception de ces machines.
Le domaine biologique et médical va également connaître une révolution grâce à l’application du contrôle quantique. En imagerie IRM par exemple, en utilisant la théorie du contrôle optimal, des chercheurs sont parvenus à déterminer les profils de champ magnétique à appliquer pour obtenir le meilleur contraste possible d’une image pour des conditions expérimentales données. Les physiciens ont validé ensuite avec succès cette approche par une expérience test in vitro. Quant aux premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 et, selon le physicien Dominique Sugny, ils devraient permettre d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra de nouveaux progrès pour de nombreuses pathologies, en matière de détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber et véhiculer des quantités d’informations toujours plus grandes et vont devoir intégrer demain l’Internet des objets et la visiophonie personnelle en 3D, le déploiement des réseaux et des composants optiques permet également d’avoir recours au contrôle quantique pour décupler la rapidité et la fiabilité de ces échanges de données numériques. Au Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue à utiliser la photonique quantique pour produire directement des paires de photons ayant une polarisation croisée (orthogonale), une première en optique quantique intégrée sur puce. Grâce à cette avancée, il devient possible de recourir à la polarisation des photons pour améliorer considérablement le débit et la rapidité des communications optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique est également en train de s’imposer. En début d’année, des chercheurs de l’Université nationale australienne (ANU) et de l’Université d’Otago en Nouvelle-Zélande Dr Jevon Longdell ont créé un prototype de disque dur quantique qui peut modifier fondamentalement le domaine du cryptage de données sécurisé, à longue distance. Utilisant des atomes de l’élément europium de terre rare intégré dans des cristaux d’orthosilicate d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de stockage capable de maintenir jusqu’à six heures une information à l’état quantique (Voir Australian National University).
Toujours en matière de cryptage quantique des communications, la firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait commencé des tests de transmission sécurisée de données génétiques par cryptographie quantique, une méthode de cryptage en théorie totalement inviolable puisque chaque bit d’information est associé à un photon et que toute tentative d’intrusion entraîne immédiatement la destruction de l’information ainsi véhiculée (Voir Toshiba). Toshiba a précisé que son système de cryptographie quantique devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities Space Research Association) ont annoncé qu’ils avaient décidé de s’associer dans le cadre d’un projet de recherche destiné à rendre opérationnel un ordinateur quantique. Pour atteindre cet objectif, les deux partenaires vont s’équiper du D-Wave 2X, la dernière machine quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une puce quantique composée pour la première fois de 1000 qbits, contre 512 pour la génération actuelle. "Avec ce programme de recherche, nous espérons montrer que l’informatique quantique et les algorithmes quantiques pourraient un jour améliorer radicalement notre capacité à résoudre des problèmes d’optimisation complexes pour l’aéronautique, les sciences de la Terre et de l’espace ou encore la conquête spatiale", a déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu, dans le communiqué de D-Wave (Voir D-Wave).
On voit donc que, presque 90 ans après sa formalisation très confidentielle par une poignée de physiciens de génie, parmi lesquels il faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie quantique, qui ne s’est pas imposée facilement dans le monde scientifique tant elle remettait en cause les fondements mêmes de notre représentation physique du réel, a gagné ses lettres de noblesse en se manifestant de manière de plus en plus concrète, d’abord comme instrument de recherche fondamentale et plus récemment comme outil irremplaçable et extrêmement puissant d’innovation et de rupture technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà présents, sans que nous nous en rendions compte, dans de nombreux objets de notre vie quotidienne et demain ils seront absolument partout et permettront des avancées que nous ne pouvons même pas imaginer dans des domaines aussi variés que l’énergie, les transports, la médecine, l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à court terme et voudraient enfermer la Recherche dans une finalité exclusivement utilitariste. Comme le disait avec humour, peu de temps avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré en 1958, « Le transistor qui est la base du microprocesseur et de l’informatique actuelle n’est pas une simple amélioration de l’ampoule électrique ou du tube à vide mais constitue une véritable rupture technologique ». Cet ingénieur hors pair faisait également remarquer qu’il avait fallu 30 ans entre l’invention du transistor et la commercialisation des premiers ordinateurs personnels. Il a fallu le même laps de temps entre la découverte du concept d’images télévisées, au milieu des années 1920 et la commercialisation des premiers téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets d’annonces médiatiques et dominée par l’écume des choses, nous devons comprendre qu’il existe un « temps long », qui est de l’ordre du quart du siècle, entre une avancée théorique fondamentale et sa traduction concrète pour le grand public, sous forme de produits, de systèmes ou de services nouveaux. Si l’aventure quantique nous prouve une chose à méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et abstraite et de l’autre une Recherche uniquement orientée vers des applications concrètes. Le processus qui va de la découverte théorique à l’invention, l’innovation et la production industrielle de produits et services radicalement nouveaux est un long continuum qu’il faut préparer et alimenter en ayant une vision stratégique et prospective à très long terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la fois une Recherche fondamentale du plus haut niveau en physique et en mathématiques et qui dispose d’un savoir technologique et industriel reconnu au niveau mondial, sache mieux penser, préparer et accompagner les prochaines révolutions scientifiques et techniques qui bouleverseront notre société d’ici 2050.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
Des scientifiques de Disney Research et de l’Ecole Polytechnique de Zurich ont mis au point la Visible Light Communication - VLC (communication par lumière visible) de LED en LED. Celle-ci rend possible l’interaction non seulement entre deux ampoules LED, mais aussi entre une LED et un objet ou entre une LED et Internet (les signaux étant rendus compatibles avec le protocole IP).
"Cette technologie pourrait tout à fait s'appliquer à des jeux pour enfants comportant des LED, créant un ‘Internet des jouets’ au sein duquel les jeux seraient accessibles, gérés et actionnés à distance", explique Stefan Mangold, leader du groupe de recherche, dans un communiqué de presse. Les wearables pourraient également être concernés.
Article rédigé par Georges Simmonds pour RT Flash
Disney
|
|
|
|
|
|
|
|
La firme américaine IBM fait de la France l’un des quatre pays prioritaires dans le développement de son système d’intelligence artificielle Watson. Des équipes américaine et française collaborent pour le rendre accessible en français en 2016. Avec en appui, une dizaine de cas d’usage dans l’Hexagone. "Mon objectif est de rendre Watson accessible à tous en France" a souligné Nicolas Sekkaki, le nouveau PDG d’IBM France, en ouverture de la deuxième édition de BusinessConnect qui se tenait à Paris.
Watson est le grand projet d’informatique cognitive (ou d’intelligence artificielle) d’IBM. Basé sur la puissance de stockage et de traitement dans le cloud, le système vise à assister médecins, juristes, conseillers ou agents de centres d’appels en leur apportant des réponses à des questions posées en langage naturel. "C’est plus qu’un moteur de recherche", explique Nicolas Sekkaki. "C’est aussi un moteur cognitif qui fonctionne sur le modèle du cerveau humain par réseaux de neurones et apprentissage statistique pour fournir des réponses les plus pertinentes."
IBM fait de ce projet une priorité stratégique. Début 2014, le groupe a créé une division dédiée à Watson. A la clé, un investissement de 1 milliard de dollars. Objectif : générer un chiffre d’affaires de 10 milliards de dollars en 2024. Cette division autonome fonctionne comme une start-up avec 2000 personnes dans le monde.
IBM France travaille déjà sur une dizaine de cas d’usage dans la banque, la santé, la règlementation ou les centres d‘appels. Parmi les partenaires figurent la banque en ligne Boursorama, l’Assistance Publique des Hôpitaux de Paris, et des start-up. Pour les plus grands projets, l’investissement du client atteint plusieurs millions d’euros.
Sur le plan matériel, le système de base est organisé autour de 16 à 32 coeurs et 256 Go de mémoire. IBM peut désormais coupler plusieurs « systèmes Watson » les uns aux autres afin de décupler ses capacités, à la demande.
Article rédigé par Georges Simmonds pour RT Flash
IBM
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs du Olin College, de l’Université de Miami et de l’Université de Californie San Diego se sont intéressés aux mécanismes du sourire des bébés. Leur hypothèse était que les bébés ne souriaient que pour faire sourire les adultes autour d’eux, utilisant ce geste comme un moyen de communication. Après une première phase d’observation, les chercheurs ont utilisé le robot Diego-San, un robot conçu pour imiter le comportement et la gestuelle d’un enfant d’un an, pour tenter de confirmer leur hypothèse.
Lors de la première phase, les chercheurs ont analysé les interactions entre 13 “couples” mère-enfant, avec des enfants allant de 4 à 17 semaines. En analysant statistiquement les moments durant lesquels la mère et l’enfant souriaient, et les effets qu’avaient ces actions, les chercheurs ont pu déterminer quel était l’effet recherché le plus probable.
Les résultats montrent que tandis que les mères tentaient, à 70 %, de maximiser le temps de sourire simultané, les enfants, eux, préféraient favoriser le temps de sourire de la mère à 80 %. Les chercheurs vont plus loin en indiquant que les enfants préféraient même ne pas sourire lorsque leur mère souriait. Selon les chercheurs, “les enfants font preuve de comportements de synchronisation sophistiqués pour atteindre leur but.”
Afin de valider leurs résultats, les chercheurs ont utilisé le robot Diego-San, un bébé robotique standardisé. Le robot a été placé devant 32 étudiants de l’Université San Diego au cours de quatre périodes individuelles de trois minutes chacune, durant lesquelles le robot testait la stratégie supposée des enfants.
De manière surprenante, les résultats ont été les mêmes que ceux obtenus avec les mères. Selon les chercheurs, “le temps de sourire du participant seul était considérablement plus long lors de l’utilisation de l’objectif supposé des enfants, que lors de l’utilisation des 3 autres objectifs.”
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs indiens a mis au point la « photo battery », une pile capable de faire fonctionner de petits appareils électriques et de se recharger sans alimentation extérieure autre que le soleil ou la lumière. Si cette pile n’est pas encore assez puissante pour être combinée à des smartphones par exemple, il s’agit, d’après les chercheurs, d’un « premier pas significatif ».
La « photo battery » utilise une anode composée de nitrure de titane (TiN), ce qui lui permet également d’être plus écologique que les piles au lithium (Li), dominantes sur le marché. La pile au lithium présente par ailleurs des inconvénients que la pile au nitrure de titane minimise ou résout : durée du temps de chargement, risque de surchauffe. Lors des premières expériences, pour une petite pile et à lumière ambiante, une tension de 1,1 Volt a été obtenue (suffisamment pour alimenter une LED ou un petit ventilateur) et la pile n’a nécessité que 30 secondes pour se recharger.
« Nous essayons à présent d’augmenter la capacité d’absorption de lumière par l’anode de nitrure de titane, et d’améliorer l’efficacité globale de la pile afin de pouvoir alimenter des appareils plus demandeurs en énergie, tels que des téléphones ou des ordinateurs portables » a expliqué Musthafa Ottakam Thotiyl, qui a dirigé l’équipe de chercheurs. Les chercheurs qui ont participé à l’étude sont issus de l’Indian Institute of Science Education and Research (IISER) de Pune, du National Chemical Laboratory de Pune, et de l’Acharya Institute of Technology de Bangalore.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Des chercheurs du CNRS et de l’Université Blaise Pascal de Clermont-Ferrand ont peut-être résolu une vieille énigme entourant les origines de la Terre qui s’est formée il y a environ 4,5 milliards d’années à partir de l’agglomération de corps rocheux comme les astéroïdes et les météorites. Ces scientifiques estiment avoir compris pourquoi la composition chimique de notre planète diffère de celle de météorites ayant participé à sa formation, alors que l’on aurait pu s’attendre à ce qu’elles soient très semblables.
La Terre a en effet moins de silicium et plus de magnésium que les météorites étudiées par ces chercheurs, les chondrites à enstatite, qui sont considérées comme le matériau primordial de notre planète. Selon ces scientifiques, ce sont les nombreux impacts de météorites subis par la Terre dans sa jeunesse qui lui auraient fait perdre de la masse et auraient modifié sa composition chimique.
« Nous proposons un scénario complet de la formation de la Terre à partir d’un échantillon de chondrites à enstatite, ce qui n’avait jamais été fait auparavant », souligne Denis Andrault, du laboratoire Magmas et volcans de l’Université Blaise Pascal. Les chercheurs ont mené des expériences à hautes pressions et hautes températures afin de reconstituer en laboratoire le processus de formation de la Terre et de déterminer la composition chimique de sa croûte primitive. Ils ont ensuite modélisé l’évolution de la composition chimique de la planète après l’érosion de cette première croûte par les multiples impacts de météorites.
Résultat : la Terre aurait perdu ainsi environ 15 % de sa masse au cours de sa formation, ont calculé les chercheurs. « Si l’on conjugue le processus d’érosion de la croûte terrestre et un phénomène de recondensation à la surface d’autres éléments comme l’aluminium et le calcium, on parvient à réconcilier la composition chimique des chondrites à enstatite avec celle de la Terre », souligne Denis Andrault.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une étude réalisée par le Centre de coopération internationale en recherche agronomique pour le développement (CIRAD) révèle que les forêts amazoniennes sont capables de reconstituer leur stock de carbone initial en 7 à 21 ans lorsqu'elles sont exploitées selon des techniques respecteuses de l'environnemt.
Ce résultat montre que les forêts durablement exploitées jouent un rôle fondamental dans le stockage de carbone et donc dans la lutte contre le changement climatique. Il montre également que la durée du cycle de rotation de 20 à 30 ans, imposée par les lois forestières en Amazonie en parallèle d'une exploitation sélective, est suffisante pour la reconstitution des stocks carbonés.
Cette étude est la première à s'intéresser, à l'échelle de l'Amazonie, à la reconstitution de la biomasse forestière aérienne après exploitation. Les chercheurs du réseau ont travaillé sur 10 sites expérimentaux répartis dans tout le bassin amazonien et regroupant un total de 79 parcelles sur une surface totale de 376 ha. Ils ont estimé le temps nécessaire après exploitation pour que la forêt reconstitue son stock de carbone initialement contenu dans la partie aérienne des arbres et perdu pendant l'exploitation.
Leur étude révèle d'une part que, dans les conditions actuelles d'intensité de prélèvement - entre 10 et 30 m3 de bois d'œuvre/ha - le temps de reconstitution de la biomasse varie entre 7 et 21 ans. « Il s'agit d'une durée très courte, comparé au temps nécessaire pour récupérer le volume de bois exploités, qui peut être lui d'une centaine d'années ou même plus » souligne Ervan Rutishauser, consultant du Cirad et premier auteur de l'article. D'autre part, le temps de reconstitution ne varie pas selon la localisation géographique, malgré les différences notoires des conditions environnementales dans la région.
Cette étude montre de manière solide que les forêts tropicales amazoniennes, exploitées de façon raisonnée, peuvent reconstituer leur stock de carbone au cours d'un cycle de rotation légal de 20 à 30 ans, et jouent donc un rôle clé dans le stockage de carbone.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Que se passera-t-il si nous continuons à brûler nos réserves d'énergie fossile – charbon, pétrole, gaz, ainsi que sables bitumineux, gaz et pétroles de schiste – jusqu'à leur épuisement ? Une étude de chercheurs allemands, anglais et américains a essayé de répondre à cette question. Et la conclusion est simple : « Si on brûle tout, tout fondra », résume son auteure principale Ricarda Winkelmann, chercheuse à l'Institut de Potsdam en Allemagne. Dans ce scénario-catastrophe, l'étude prévoit des températures augmentant de 20°F (11°C) et un niveau des océans s'élevant de 60 mètres.
Avec un tel réchauffement, c'est en effet toute la glace de l'Antarctique qui fondrait en un temps record. A la surprise des scientifiques, si la fonte des glaces à grande échelle met du temps à démarrer – un siècle peut-être –, elle pourrait, une fois enclenchée, voir s'évanouir la moitié des glaces de l'Antarctique en un millier d'années. L'océan s'élèverait alors de 30 centimètres par décennie, soit environ dix fois plus qu'aujourd'hui, et de larges pans de la Terre seraient noyés : une montée du niveau de la mer de 60 mètres entraînerait la submersion de presque toute la Floride, la plupart de la Louisiane et du Texas, toute la côte Est des Etats-Unis, une grande partie de la Grande-Bretagne, la majeure partie de la grande plaine européenne, de vastes zones des côtes de l'Asie.
Du côté des villes noyées, on compterait Miami, La Nouvelle-Orléans, Houston, Washington, New York, Amsterdam, Stockholm, Londres, Paris, Berlin, Venise, Buenos Aires, Pékin, Shanghaï, Sydney, Rome et Tokyo. Quant à cette hausse à deux chiffres des températures, elle causerait l'extinction de la plupart des plantes et des animaux, et rendrait de vastes zones de la planète incultivables et inhabitables par l'homme. Si les politiques échouent à limiter l'usage de ces énergies, les gisements fossiles seront totalement brûlés d'ici le milieu du XXIIe siècle, calcule l'étude.
Article rédigé par Georges Simmonds pour RT Flash
The New York Times
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Lors du Congrès européen sur le cancer qui se déroulait à Vienne, les chercheurs du Wellcome Trust Sanger Institute de Cambridge (Grande-Bretagne) ont annoncé avoir découvert un indice génétique qui permettrait de repérer de manière précise les cancers du sein risquant de récidiver.
Chez une personne sur cinq atteinte d'un cancer du sein, la maladie va récidiver, soit au même endroit que la tumeur d'origine, soit dans une autre partie du corps. Le Docteur Lucy Yates, oncologue à l'Institut Sanger de Cambridge, et son équipe, ont analysé les données sur les tumeurs de plus de 1000 patientes, dont 161 personnes atteintes de récidive.
En comparant les tumeurs primaires et secondaires, le chercheurs ont trouvé des différences génétiques notables ainsi que des mutations génétiques propres aux cancers secondaires.
Selon les chercheurs, les médecins pourraient, à l'avenir, être en mesure d'utiliser ces nouveaux indices pour identifier les patientes à haut risque de récidive afin de choisir le meilleur traitement. "D'autres travaux seront nécessaires pour valider ces résultats sur de plus vastes bases de données mais nous espérons que, dans le futur, il sera possible d'identifier les gènes propres au cancer de chaque individu pour sélectionner une thérapie personnalisée" à déclaré le Docteur Yates lors du congrès.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
|
|
|
|
|
|
la dépression représente un vrai problème de santé publique, avec un adolescent sur dix touché, selon la Haute Autorité de Santé (HAS). L’adolescence est une période de transition pendant laquelle les jeunes sont souvent sujets à des épisodes de déprime, ce qui complique souvent le diagnostic de cette pathologie. D’après certaines études, les adolescents souffrant de dépression avérée semblent présenter des altérations de zones du cerveau impliquées dans la réponse à la récompense. Cela expliquerait que le manque d’intérêt et la morosité soient des symptômes plus fréquents que la tristesse.
Pour mieux comprendre ce phénomène, des chercheurs de l’Unité Inserm 1 000 « Neuroimagerie et psychiatrie » dirigée par Jean-Luc Martinot, en collaboration avec une équipe du King’s College (Londres), ont étudié par imagerie par résonance magnétique (IRM), dans le cadre de l’étude européenne IMAGEN, plus de 1 500 jeunes (à 14 ans et deux ans plus tard). Les participants étaient répartis en trois groupes : un groupe souffrant de dépression, un second ayant des symptômes de dépression isolés sans diagnostic réel et enfin un groupe de sujets sains.
Chaque participant devait réaliser une tâche permettant d’évaluer la réponse du cerveau à la récompense (gagner des points dans un jeu). Les résultats de l’IRM simultanée confirment l’hypothèse des scientifiques : les adolescents dépressifs ou présentant des symptômes de dépression ponctuels ont une activité réduite d’une zone spécifique du cerveau, le striatum ventral, impliquée dans le circuit de la récompense. La réponse de cette région est d’autant plus faible que la perte d’intérêt de la personne dépressive est importante.
Cette étude montre donc que l’altération du fonctionnement du circuit de la récompense constitue un facteur de vulnérabilité de la dépression chez les adolescents. La détection de symptômes de perte d’intérêt chez l’adolescent et leur prise en compte précoces pourraient permettre de prévoir l’apparition de la maladie ou de récidives, et donc d’intervenir précocement et de manière ciblée en amont de celles-ci.
Article rédigé par Georges Simmonds pour RT Flash
AJP
|
|
|
|
|
|
|
|
Sera-t-il bientôt possible de produire des cellules osseuses à partir d’un peu de graisse pour réparer des os malades ? Oui, si l'on en croit les recherches menées par le Docteur Denis Dufrane (Université Catholique de Louvain). Cette idée peut paraître saugrenue. "En réalité, cela passe par les cellules souches", commente le chercheur. "Dans le cadre de Novadip, nous prélevons chez les patients un échantillon de graisse abdominale de la taille d‘un sucre. Les cellules souches adipeuses sont isolées. Elles sont mises en culture puis reprogrammées (« ou différenciées ») en cellules osseuses. Le procédé prend trois mois environ. Cet agglomérat de cellules osseuses est ensuite réimplanté par le chirurgien".
Cette structure tridimensionnelle permet de réparer l’os malade. Mieux encore, de redonner vie à la partie reconstruite. Ces cellules sont aptes à être revascularisées et surtout, elles affichent la même signature génétique que les autres cellules du patient. Ce sont ses propres cellules qui sont réimplantées, ce qui élimine les problèmes de rejets liés aux greffes étrangères.
Au cours des 5 dernières années, 15 patients atteints de pathologies graves ont pu être traités aux Cliniques St-Luc à l’aide du Creost, le nom commercial donné à ce procédé. Des interventions qui ont montré des résultats cliniques prometteurs. A tel point que les fondateurs de Novadip veulent désormais passer à la vitesse supérieure et mener un large essai clinique de phases 1 et 2 afin de valider l’intérêt thérapeutique et l’innocuité de cette thérapie cellulaire.
Article rédigé par Georges Simmonds pour RT Flash
UCL
|
|
|
|
|
|
|
|
Prendre des décisions adaptées en vue de subvenir à ses besoins est une nécessité pour tous les organismes vivants. De telles prises de décision font intervenir le cortex préfrontal, une structure cérébrale parmi les plus développées et connue pour assurer les processus décisionnels.
L'équipe « Décision et adaptation » à l'INCIA s'est intéressée aux zones du cerveau connectées au cortex préfrontal. Par une technique de marquage, elle a mis en évidence une région particulière, le thalamus submédian, au rôle fonctionnel inconnu, qui est fortement connectée au cortex préfrontal.
Les scientifiques ont par la suite testé le rôle de ces deux structures cérébrales, thalamus submédian et cortex préfrontal, dans la prise de décision et l'adaptation à l'environnement. Pour cela, ils ont considéré trois groupes de rats : le premier présentant des lésions du cortex préfrontal, le deuxième au niveau du thalamus submédian, et le troisième regroupant des rats témoins sans lésion. Il s'agissait de tester leur capacité à établir un lien entre un son et l'obtention d'une récompense alimentaire.
L'expérience s'est déroulée en deux étapes. La phase d'apprentissage a d'abord permis aux animaux d'apprendre que deux sons différents (S1 et S2) prédisent chacun la survenue d'une récompense alimentaire spécifique. Les trois groupes d'animaux visitent donc la mangeoire dès qu'un signal auditif est perçu. Les lésions n'empêchent pas les animaux d'apprendre qu'un stimulus auditif prédit l'obtention de la récompense.
Lors de la deuxième étape, la procédure reste inchangée pour le premier son, mais pour le son S2, les chercheurs ont distribué des récompenses alimentaires durant et surtout en dehors des périodes sonores. Ce son perd donc sa valeur prédictive et un animal sans lésion en vient à négliger ce stimulus auditif S2 pour ne venir à la mangeoire que lorsqu'il entend le son S1. En revanche, les animaux présentant une lésion, que ce soit au niveau du cortex préfrontal ou du thalamus submédian, se montrent incapables de faire une telle distinction, et donc de s'adapter.
Cette étude permet d'identifier l'existence d'un circuit entre le thalamus et le cortex qui s'avère primordial dans la prise de décision adaptée à l'environnement. L'originalité de cette découverte provient du rôle fondamental que les chercheurs attribuent au thalamus submédian, une structure jusqu'à présent ignorée dans le domaine des comportements adaptatifs.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Des chercheurs de l’Inserm ont découvert une enzyme capable d’éliminer le cholestérol en excès dans le cerveau et qui permet aussi de corriger la perte de fonction de Tau. Cette enzyme exercerait donc ainsi un effet bénéfique dans la maladie d’Alzheimer en ralentissant le développement de la maladie. Ces travaux confirment ainsi un lien direct entre la composante Tau de la maladie d’Alzheimer et le cholestérol.
Alors qu’une enzyme, CYP46A1, permet d’éliminer le cholestérol cérébral en excès, les chercheurs de l’INSERM ont fait l’hypothèse qu’augmenter ses niveaux permettrait d’augmenter l’élimination du cholestérol du cerveau et entraîner un effet de réduction dans la pathologie Alzheimer. C’est le cas lorsqu’ils injectent CYP46A1, via un vecteur viral, dans l’hippocampe de souris modèles pathologie amyloïde. Lorsqu’ils inhibent l’enzyme chez les souris, l’augmentation de Tau anormale entraîne, a contrario, la mort des neurones et une atrophie de l’hippocampe à l’origine de troubles de la mémoire.
On savait déjà que le cholestérol était sans doute un facteur-clé de la maladie d’Alzheimer mais ces résultats démontrent le rôle clé du cholestérol dans la pathologie et suggèrent l’enzyme CYP46A1 comme une cible thérapeutique prometteuse, dans le cadre d’une thérapie génique à tester chez des patients atteints de formes précoces et sévères de la maladie d’Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
Oxford Journals
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Jacques Monod ont découvert un nouveau mécanisme de contrôle de la survie cellulaire en démontrant que le récepteur transmembranaire Kremen1 est capable de déclencher une mort cellulaire par apoptose. Des mutations observées dans des tumeurs humaines diminuent l'activité pro-apoptotique de Kremen1, ce qui pourrait conférer une capacité de survie anormale aux cellules cancéreuses. Ces travaux ouvrent la perspective d'utiliser sur le plan thérapeutique cette nouvelle voie de signalisation afin de favoriser la mort des cellules cancéreuses.
Au cours du développement embryonnaire des mammifères, la mise en place harmonieuse des différents organes et tissus de l'embryon repose sur un contrôle précis de la survie cellulaire. Une altération de ces programmes, ou leur réactivation à l'âge adulte, peut aboutir à des pathologies délétères, et en particulier des cancers.
Les travaux réalisés au sein de l'équipe d'Alessandra Pierani à l'Institut Jacques Monod ont permis de mettre en évidence un rôle de facteur de survie pour la protéine sécrétée Dickkopf1 (Dkk1) à des étapes précoces du développement du système nerveux. Les chercheurs ont alors posé l'hypothèse que l'un des récepteurs transmembranaires de Dkk1 se comporte comme un récepteur à dépendance. Ils ont ainsi pu montrer que le récepteur Kremen1 présente une activité apoptotique intrinsèque, indépendante de la voie Wnt.
De manière intéressante, l'expression de Kremen1 est souvent diminuée dans les tumeurs humaines par rapport au tissu sain tandis que celle de Dkk1 est augmentée. De plus, des mutations somatiques observées dans certains cancers se sont révélées délétères pour la fonction apoptotique de Kremen1, suggérant un rôle de suppresseur de tumeurs. Il est donc envisageable que certaines cellules cancéreuses acquièrent des capacités de survie anormales en réduisant l'activité apoptotique de Kremen1. Ces travaux ouvrent donc des perspectives diagnostiques et thérapeutiques.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Les résultats de l’essai EMPA-REG, au Congrès annuel européen de diabétologie de Stockholm, ont fait sensation ! Ils ont en effet montré, pour la première fois, un effet bénéfique d’un anti-diabétique sur le système cardiovasculaire. L’empaglifozine réduirait de 30 % la mortalité chez les patients diabétiques de type 2 à haut risque cardiovasculaire.
Les conséquences cardiovasculaires néfastes du diabète ne sont plus à démontrer. A long terme, les patients diabétiques peuvent en effet souffrir de complications (infarctus, AVC…), et ce, d’autant plus que leur glycémie est mal contrôlée. Pourtant, "intervenir sur le diabète n’avait pas, jusque-là, clairement montré un bénéfice sur les événements cardiovasculaires", explique Samy Hadjadj, diabétologue à Poitiers.
L’étude EMPA-REG, menée sur plus de 7 000 patients atteints de diabète de type 2, était destinée à vérifier la sécurité de l’empaglifozine pour le cœur et les vaisseaux. Cette molécule appartient à la famille des inhibiteurs de SGLT2 (cotransporteur glucose-sodium) ; elle agit en augmentant l’élimination de sucre dans les urines.
Pour cet essai, les scientifiques ont comparé la survenue d’événements cardiovasculaires, le nombre de décès, mais aussi les hospitalisations consécutives à un problème cardiaque ou vasculaire, chez des patients prenant un traitement standard pour le diabète (sulfamide, metformine) avec ou sans empaglifozine.
"Les événements cardiovasculaires ont diminué de 14 % dans le groupe qui recevait cette molécule ; c’est un très bon résultat", commente Samy Hadjadj. Dans les faits, le nombre d’infarctus ou d’AVC n’est pas significativement plus petit, mais ce sont les décès de causes cardiovasculaires qui sont significativement moins nombreux dans le groupe traité.
Mais le véritable enseignement de cette étude est que la molécule – administrée une fois par jour par voie orale – a également permis de réduire de 32 % la mortalité, toutes causes confondues : "Une puissance d’efficacité presque inattendue", pour Bruno Guerci. Reste toutefois à comprendre les mécanismes qui expliquent comment l’empaglifozine parvient à réduire la mortalité…
L’efficacité de l’empaglifozine avait déjà été démontrée précédemment pour réduire la glycémie, administrée seule ou en combinaison avec un traitement standard. La molécule dispose d'une autorisation de mise sur le marché européenne pour le traitement du diabète de type 2, depuis 2014.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les Pays-Bas viennent de s'équiper d'un prototype de bus autonome et connecté qui assurera une liaison prédéfinie aux côtés des autres véhicules en circulation. Le tout à une vitesse de 25 km/heure.
Ce prototype d’autobus sans chauffeur a été mis en service dans la ville universitaire de Wageningen. Appelé WEpod, ce bus d’un nouveau genre est entièrement automatisé de la même manière que le sont certaines rames du métro parisien. Grâce à un cocktail de technologies (laser, capteurs pour détecter les obstacles, etc.), le bus opère en toute sécurité.
Derrière la création de ce bus magique, une joint venture répondant au nom d’EasyMile, entre l’éditrice de logiciel Robosoft et le constructeur Ligier Group. Ces derniers ont déjà développé une solution similaire sur le campus de l’Ecole Polytechnique de Lausanne, ils ont également été présents à Lyon lors du salon Innorobo cet été.
L’originalité du WEpod, qui couvrira une distance de 10 km, réside dans le fait qu’il ne roulera pas sur une voie réservée, séparée des autres véhicules mais bel et bien sur la route principale. Une première en Europe. Sa faible capacité d’accueil – 6 personnes – et sa vitesse réduite – 25 km/h – peuvent faire sourire. Pourtant, si l’expérience de navette universitaire est concluante, le WEpod pourrait se retrouver massivement sur les routes néerlandaises dès 2016.
Article rédigé par Georges Simmonds pour RT Flash
Davi
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|