RTFlash

RTFLASH Recherche & Technologie
NUMERO 742
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Mars 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une bague qui scanne un texte et vous le lit !
Les caméras connectées : nouveaux outils indispensables à la télésanté
Avenir
Des lunettes pour visualiser les cellules cancéreuses
Les nanogrilles ouvrent la voie aux écrans flexibles
Des muscles artificiels en fil de pêche
Matière
Contrôler la douleur grâce à la lumière !
Terre
Google va-t-il sauver les forêts tropicales ?
Vivant
L'exposition au DDT augmenterait le risque de maladie d'Alzheimer
Une alimentation végétarienne réduirait le risque d'hypertension
Paludisme : une seule mutation génétique peut rendre les moustiques invulnérables…
Un test sanguin pour détecter la maladie d'Alzheimer d'ici 2017 ?
Cancer du sein : deux avancées majeures !
Prévention de l'hypertension artérielle : c'est la dépense énergétique qui compte, pas le type d'exercice !
Une marche quotidienne augmenterait la taille du cerveau !
SIDA : deux avancées majeures
Edito
Les données massives : nouvel eldorado numérique ?



Cette année, la grande star du salon des technologies numériques CeBIT, qui vient de se terminer à Hanovre, a été incontestablement la « Datability », c’est-à-dire l’exploitation des données massives. Tous les géants du numérique se ruent en effet vers cette nouvelle mine d’or numérique qui est en train de bouleverser l’économie mais également les systèmes politiques et les structures sociales partout dans le monde.

Comme le souligne dans un récent article le Professeur Gary King, spécialiste de l’innovation et des ruptures technologiques à l’Université Harvard (Voir HARVARD Magazine), « Rien qu’au cours de ces deux dernières années, l’Humanité a produit un zettabyte d’informations, c’est-à-dire mille milliards de terabytes, ce qui représente un nombre un million de fois plus grand que tous les mots prononcés par les 100 milliards d’hommes qui ont vécu sur Terre depuis l’aube des temps… »

Mais Gary King souligne que la révolution technologique ne réside pas dans la quantité de données produites mais bien dans la capacité nouvelle d’exploiter rapidement cet océan immense d’informations. « Grace aux extraordinaires progrès dans le domaine des algorithmes, une analyse de données qui nécessitait il y a encore quelques années un gros ordinateur à deux millions de dollars et plusieurs dizaines d’heures de calcul, peut à présent être effectuée en quelques minutes avec un simple ordinateur portable et cela change tout », ajoute ce chercheur.

Il est vrai que les progrès de l’intelligence artificielle permettent à présent non seulement de prévoir l’évolution de systèmes de plus en complexes mais également de prédire le comportement d’un individu, ce qui ouvre évidemment des perspectives vertigineuses dans tous les domaines.

Signe des temps, la nouvelle dirigeante d’IBM, Ginni Rometty, vient de confirmer que les données massives constituaient désormais la priorité stratégique du géant informatique, rappelant au passage qu’IBM a déjà investi plus de 24 milliards de dollars et déposé plus de 4000 brevets dans ce domaine.

Comme chaque année, IBM a par ailleurs présenté ses prédictions sur les tendances technologiques à 5 ans et cette année, IBM parie sur l’informatique cognitive, c’est-à-dire sur des logiciels capables d’apprendre de manière autonome en s’adaptant à leur environnement et en exploitant les ressources contenues dans les mégabases de données qui sous-tendent l’essor fulgurant de l’Internet des objets (Voir IBM Research).

IBM compte bien capitaliser son avance dans le domaine de l’intelligence artificielle en utilisant pleinement les immenses potentialités de son système informatique « Watson », capable de comprendre le langage naturel. « Big Blue » vient ainsi d’annoncer l’ouverture prochaine au grand public d’une multitude de services et applications qui seront dérivés de Watson.

La ville intelligente constitue certainement l’un des principaux enjeux de cette mutation techno économique représentée par l’informatique cognitive. A Amsterdam, la ville a lancé en 2009 un ambitieux projet de « gestion informatique collaborative », associant notamment IBM et Cisco. Cette démarche très novatrice s’est inscrite délibérément dans le cadre d’un projet urbain global intégrant la réduction de la consommation d’énergie, la diminution des émissions de gaz à effet de serre, l’optimisation des transports et déplacements urbains et la création de pôles d’activités numériques pouvant accueillir les travailleurs « nomades ».

Il est intéressant de souligner que dans cette métropole européenne, caractérisée par son dynamisme économique, son ouverture au monde et son pragmatisme, le choix de l’innovation technologique et de la transition vers la « ville intelligente » n’est pas séparable de la volonté d’innovation sociale de ses habitants.

En France, la ville de Besançon a été l’une des premières, dès 1993 à faire le choix d’une gestion informatique intégrée en choisissant le système Maximo d’IBM qui gère à présent l’ensemble des infrastructures, bâtiments et équipements urbains de cette agglomération. Au fil des années, ce système intégré n’a cessé de s’enrichir en accueillant de nouvelles applications, tel le cartable électronique dans les écoles, un projet qui a été récompensé par l'Intelligent Community Forum de New York.

L’informatique cognitive  et les « big data » vont également bouleverser les services publics en ligne et l’administration électronique. Un système issu de Watson est en effet en mesure de fournir aux citoyens des réponses précises et complètes à des questions complexes, telles que « combien d’impôt vais-je payer l’année prochaine compte tenu de l’évolution de ma situation familiale et professionnelle ? » ou encore « Ai-je besoin d’un permis de construire pour réaliser une véranda de 20 m² attenante à ma maison ? »

L’éducation et l’apprentissage constituent un autre axe majeur de développement pour les données massives et l’intelligence artificielle. Là encore, IBM, porté par la vague irrésistible des MOOC (Cours massif ouvert en ligne), propose de multiples solutions intégrées pour faire basculer l’enseignement dans l’ère numérique. En Géorgie par exemple, dans le comté de Gwinnett, IBM a développé un programme d’éducation qui combine modélisation prédictive et analyse de contenu avec un apprentissage traditionnel en classe (Voir IBM).

Troisième axe stratégique en pleine révolution : le commerce et la distribution. Dans le cadre de son projet de commerce intelligent, IBM propose à la distribution traditionnelle toute une palette de nouvelles applications informatiques intégrant notamment l’essayage virtuel, la réalité augmentée et la géolocalisation portable.

Il s’agit de proposer aux détaillants des outils extrêmement sophistiqués, issus de Watson et permettant grâce à l’analyse intelligente de l’ensemble des bases de données de cerner parfaitement et en temps réel le profil et les attentes du client. Avec ces nouveaux outils, un distributeur de produits numériques sera par exemple capable de déterminer immédiatement, grâce à l’analyse intelligente d’une multitude d’informations éparses, quel type d’appareil et quelles prestations il a intérêt à proposer à un client particulier pour  améliorer ses profits et bien entendu fidéliser son client en répondant exactement à son attente.

Le quatrième domaine qui va être révolutionné grâce à cette exploitation des données massives par l’intelligence artificielle est bien entendu celui de la santé et de la médecine. La communauté scientifique s’accorde à prédire qu’avant cinq ans, les médecins pourront disposer du séquençage complet du génome d’un patient en moins d’une journée pour un coût raisonnable. Mais les professionnels de santé pourront également utiliser des systèmes d’expertise d’une incroyable puissance présents sur le cloud, comme le « WatsonPaths » qui peut fournir aux médecins des recommandations en analysant et en recoupant l’ensemble des données médicales disponibles sur une pathologie précise.

Certains hôpitaux américains ont déjà commencé à utiliser en cancérologie la technologie dérivée de Watson, ce qui leur permet de disposer d’une aide précieuse puisque ce système peut explorer, en fonction du tableau clinique particulier du malade, l’ensemble des solutions et combinaisons thérapeutiques disponibles.

Mais le développement du système d’intelligence informatique Watson s’inscrit dans un projet encore plus vaste et ambitieux baptisé SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) qui associe IBM et de nombreuses universités et laboratoires américains et qui vise à concevoir et à programmer des puces neuronales capables de simuler certaines fonctions du cerveau humain.

A l’occasion de la conférence internationale sur les réseaux de neurones qui s’est tenue à Dallas en août 2013, IBM a présenté la troisième phase du projet SyNAPSE, essentiellement financé par les services de recherche de l’armée américaine (DARPA). Les composants et processeurs du projet SyNAPSE veulent rompre avec le modèle d’architecture séquentielle de Van Neumann sur lequel repose l’informatique depuis maintenant trois quarts de siècle.

« Notre objectif final vise à reproduire certaines fonctions et capacités propres au cerveau humain » a déclaré Dharmendra Modha, responsable de ce projet de recherche. SyNAPSE s’appuie sur des noyaux neuro-synaptiques qui possèdent leur propre mémoire (« les synapses »), un processeur (« le neurone »), et le circuit de communication (« les axones »). Tout l’enjeu de ce projet consiste à faire fonctionner de façon coordonnée l’ensemble de ces noyaux de manière à reproduire certaines fonctions cognitives du cerveau.

On voit donc que l’informatique cognitive et l’exploitation des données massives représentent non seulement un enjeu économique, industriel majeur mais également un défi scientifique fondamental. À cet égard, il est bon de rappeler que ce projet SyNAPSE entre directement en compétition avec le « Human Brain Project » européen qui vise lui aussi à mettre au point, d’ici 10 ans, un nouveau type d’ordinateur capable de rivaliser avec le cerveau humain.

Autre exemple d’avancée scientifique reposant sur l’exploitation des données massives : The Immunity Project, initié par des chercheurs des universités de Stanford, Harvard et du MIT. Ce projet particulièrement innovant utilise toutes les ressources du « crowdsourcing » (externalisation ouverte et collaborative) et vise la mise au point et la distribution d’un vaccin contre le Sida d’ici 2016.

Ce projet va d’abord s’atteler à identifier les facteurs immunitaires rendant certains patients naturellement résistants au virus. Pour atteindre cet objectif, les chercheurs ont mis au point, avec la collaboration de Microsoft, un algorithme qui s’inspire des logiciels anti-spams. Ce programme, développé par le Professeur David Heckerman, utilise un algorithme d’apprentissage automatique capable de scanner un type très rare de cellules immunitaires jouant un rôle-clé dans la mobilisation des défenses naturelles de l’organisme contre ce virus.

Rompant avec le modèle économique classique de l’industrie pharmaceutique, cette initiative inaugure une nouvelle voie de développement pour les vaccins et médicaments en exploitant une grande masse d’informations anonymes et en recourant au financement volontaire. Ce futur vaccin devrait être distribué gratuitement sous forme de spray nasal, une technique de production moins onéreuse que les méthodes industrielles actuelles. Si ce projet aboutit, c’est toute la chaîne de valeur de la recherche médicale et pharmaceutique qui s’en trouvera bouleversée…

Sous la houlette de son nouveau directeur de la prospective, le futurologue Ray Kurzweil, Google n’est pas en reste dans cette nouvelle quête du Graal des « infomines » et compte bien valoriser ses nombreuses acquisitions récentes dans le domaine de l'intelligence artificielle (DeepMind Technologies) et des objets connectés (Nest Labs). Google s’est également associé à une quarantaine de partenaires privés et publics dans un vaste projet lancé le 20 février, le « Global Forest Watch » (GFW), une initiative mondiale de surveillance des forêts tropicales.

Grâce à la constitution d’une gigantesque base de données dynamique comportant plus de 700 000 images satellite, le GFW va pouvoir surveiller en temps réel de manière très précise l’évolution de la déforestation mondiale. L’idée est de disposer d’un outil d’observation assez fiable et puissant pour pouvoir repérer immédiatement tout déboisement illégal et intervenir le plus rapidement possible pour y mettre fin. Ce projet s'est inspiré du savoir-faire du Brésil en matière de surveillance spatiale des forêts. Dans ce pays, le taux de déforestation a pu en effet être réduit de 70 % en 10 ans.

On voit donc à quel point les « Big data », un concept né il y a seulement 16 ans (fin 1997), est en train de révolutionner l’ensemble des économies développées et de bouleverser nos sociétés. Cette révolution n’en est pourtant qu’à ses prémices car, selon le cabinet IDC, un quart des données numériques pourraient être exploitées en tant que big data si elles étaient correctement indexées et analysées. Or, aujourd’hui, à peine 5 % de l’ensemble des données numériques sont utilisées comme big data…

Selon IDC, le marché mondial de ces « données massives » atteignait déjà 20 milliards d’euros en 2012 et devrait doubler en quatre ans pour atteindre 40 milliards de dollars dès 2016. Quant aux investissements mondiaux relatifs aux logiciels de big data, ils devraient passer de deux à 5 milliards d’euros d’ici 2016. Le cabinet américain Gartner estime pour sa part que le big data créera 4,4 millions d'emplois au cours des deux prochaines années.

Un autre cabinet réputé, Mac Kinsey, estime quant à lui que l’ensemble des administrations publiques de l’Union européenne pourrait réduire ses coûts de fonctionnement de 15 % grâce à l’utilisation judicieuse de ces big data. Ce même cabinet de prospective souligne par ailleurs que l’utilisation généralisée des big data pourrait permettre un gain d’environ 60 % de la rentabilité pour l’ensemble du secteur du commerce et la distribution.

Mais ces données massives représentent également un enjeu social majeur car la généralisation aurait un impact considérable en termes de consommation et de pouvoir d’achat. Mac Kinsey évalue en effet à 700 milliards d'euros le montant annuel des économies qui pourraient être réalisées au niveau mondial par les consommateurs grâce à l’optimisation et à la désintermédiation des achats et des ventes.

Il reste que cette extraordinaire évolution techno économique ne pourra pas s’accomplir pleinement sans la mise en place d’un cadre de contrôle politique et juridique européen et mondial garantissant la protection des données personnelles et réglementant strictement l’utilisation par les Etats de ces informations d’autant plus précieuses qu’elles concernent souvent notre vie dans ce qu’elle a de plus personnel et d’intime. Or, il faut bien reconnaître que les révélations d’Édouard Snowden, malheureusement confirmées par les autorités américaines, concernant les agissements de l’Agence nationale de sécurité des États-Unis, ont sérieusement ébranlé la confiance des opinions publiques dans la capacité ou la volonté de leurs gouvernements d’assurer une protection efficace de ces informations numériques.

Nous devons donc souhaiter que ce basculement accéléré vers l’exploitation des données massives, l’information cognitive et l’Internet des objets qui en est la manifestation physique, soit également le moteur d’un véritable débat démocratique qui définisse de nouvelles règles de contrôle de l’utilisation de ces données, tant par les Etats que par les géants du numérique dont le pouvoir n’a souvent rien à envier à celui des gouvernements…

Mais plus largement encore, l’avènement de cette « société cognitive », selon l’expression chère à Michel Serres, va profondément transformer la nature et le fonctionnement de nos systèmes démocratiques et de nos modes de gouvernance. Les individus ne sont pas seulement des consommateurs, ils sont également des citoyens et il serait illusoire de penser qu’ils ne vont pas utiliser aussi les extraordinaires potentialités de ces nouveaux outils pour exiger d’être mieux entendus par leurs gouvernants et pratiquer une évaluation permanente des politiques mises en œuvre par les autorités politiques, qu’elles soient locales ou nationales.

16 ans après la publication de mon rapport sénatorial «Des pyramides du pouvoir aux réseaux des savoirs», publié en 1998, (voir Rapport), le futur que je prédisais alors nous a bel et bien rattrapés et les pyramides multiséculaires du pouvoir sont en train de se désintégrer sous nos yeux. Mais il nous reste la partie la plus difficile du chemin à accomplir : penser et construire ensemble ces réseaux de savoirs de façon à ce que chacun puisse bénéficier de ces nouveaux outils technologiques prodigieux pour se réaliser pleinement, exprimer toute sa créativité, accéder à la connaissance et participer activement à l’extension de l’intelligence collective planétaire qui s’affirme.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Une bague qui scanne un texte et vous le lit !
Mercredi, 12/03/2014 - 18:53

Des chercheurs du Fluid Interface Group au MIT Media Lab ont développé une bague qui permet de scanner un texte pour le lire à voix haute. Ce nouvel outil qui lit n’importe quel texte devrait bientôt permettre aux personnes aveugles ou handicapées d’obtenir une vaste quantité d’informations du bout du doigt, sans avoir besoin d’un texte en braille.

Développé par Fluid Interface Group au MIT Media Lab, ce dispositif nommé FingerReader vise à remplacer les logiciels audio-visuels actuels et pourrait être très utile à de nombreux publics et notamment aux personnes ayant une déficience visuelle qui ont besoin d'aide pour lire un texte imprimé ou à celles qui souhaitent traduire un texte ou apprendre une langue.

Le prototype FingerReader permet à son utilisateur de scanner les lignes d’un texte avec son doigt et de recevoir un retour audio sur les mots. Le lecteur suit les lignes de texte avec son index, de la même façon qu’il pourrait le faire en lisant réellement.

Une caméra est intégrée dans la bague et une voix répète à voix haute les mots scannés. Ce système est également capable de vibrer pour prévenir l’utilisateur lorsqu’il s’éloigne du texte ou lorsqu’il saute des lignes. Enfin ce dispositif devrait pouvoir traduire le texte dans une autre langue.

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

Les caméras connectées : nouveaux outils indispensables à la télésanté
Mardi, 11/03/2014 - 14:33

Le groupe Xerox vient de publier les résultats d'une expérimentation très intéressante de télésanté qui a été menée dans l'hôpital indien de Manipal.

Au lieu de recourir à un système de capteurs et de bracelets directement en contact physique avec les malades, cette expérimentation a uniquement utilisé des caméras couplées avec des logiciels spécifiques qui permettent d'analyser les différents paramètres corporels et biologiques des patients : tension, température, rythme cardiaque etc.

Grâce aux nouveaux algorithmes de traitement des données utilisés, les médecins participant à cette expérience ont pu recueillir et analyser de manière très efficace l'ensemble des informations en provenance des malades. Concrètement, le système utilise les flux lumineux émis par les caméras pour extraire de la peau des patients les données médicales qui sont ensuite analysées et commentées par les médecins. Le nouveau type de caméra utilisé pour ces expériences peut en effet mesurer, simplement en analysant les variations de la couleur de la peau, le rythme cardiaque des malades.

Comme le précise Lalit Mestha, responsable de ce projet innovant, "nous avons d'abord mis en place les outils dans le service de néonatalité pour évaluer les algorithmes de surveillance des signes vitaux des enfants. Mais ce système est tellement efficace que nous l'avons rapidement utilisé dans les autres services de l'hôpital".

Autre avantage de cette approche du télédiagnostic et de la télésurveillance médicale, elle est plus légère et moins coûteuse que celle des objets connectés et surtout bien moins intrusive pour les malades. Lalit Mestha est d'ailleurs persuadé que ce nouveau  type de caméra de télésurveillance médicale peut non seulement s'imposer rapidement dans les établissements hospitaliers mais également devenir un outil indispensable du maintien et de la surveillances à domicile des personnes âgées ou malades.

Article rédigé par Georges Simmonds pour RT Flash

Xerox

^ Haut
Avenir
Nanotechnologies et Robotique
Des lunettes pour visualiser les cellules cancéreuses
Lundi, 10/03/2014 - 18:59

Des scientifiques de la Washington University School of Medicine, dirigés par le Professeur Samuel Achilefu, spécialiste en radiologie et en ingénierie biomédicale à l'Université Washington, ont développé des lunettes qui aident les chirurgiens à visualiser les cellules cancéreuses. Elles ont été testées pour la première fois le 10 février dernier au Siteman Cancer Center à l'occasion d’une chirurgie du sein.

"Nous n'en sommes qu'à la première phase d'utilisation de cette technologie et de nouveaux tests et développement devront être effectués, mais le bénéfice potentiel pour les patients est très encourageant", souligne Julie Margenthaler, spécialiste de la chirurgie du sein à l'Université de Washington.

Ce système qui associe une source de lumière située dans le proche infra-rouge, un capteur CMOS et un produit chimique, permet de faire apparaître en surbrillance bleue les cellules cancéreuses. "Nous espérons que cette nouvelle technologie éliminera à terme la nécessité d’avoir recours à une nouvelle intervention pour des tissus cancéreux non enlevés lors de la première opération", précise Julie Margenthaler.

D’autres chirurgiens ont l'intention de commencer à utiliser prochainement ces lunettes pour enlever un mélanome chez leurs patients. Malgré la marge de sécurité appliquée par les chirurgiens, on considère qu’actuellement entre 20 et 25 % des patientes opérées d’un cancer du sein nécessitent une deuxième intervention.

Article rédigé par Georges Simmonds pour RT Flash

Siteman Cancer Center

Les nanogrilles ouvrent la voie aux écrans flexibles
Lundi, 10/03/2014 - 18:53

Des chercheurs de l'Université américaine de Houston (Texas) ont montré qu'en utilisant des nanogrilles d'or, il était possible de créer une surface parfaite pour l'électronique : à la fois flexible, conductrice, mais aussi transparente.

Pour le moment, aucun constructeur n'est en mesure de proposer un écran souple qu'il est possible de plier ou de rouler car un tel écran doit combiner trois propriétés : flexibilité, conductivité et transparence.

Ces chercheurs de Houston ont donc entrepris de travailler sur la conception de nanofils d'or, qu'ils ont réussi à tresser sous la forme d'une grille. Ce nouveau matériau a ensuite été encapsulé dans un polymère transparent. La grille ainsi obtenue peut être étirée de 160 % sans dommage…

Cette découverte pourrait déboucher sur de véritables écrans pliables et transparents de grande taille, présentant une excellente définition.

Article rédigé par Georges Simmonds pour RT Flash

PVEN

Des muscles artificiels en fil de pêche
Vendredi, 07/03/2014 - 14:17

Une équipe internationale de l’Université du Texas, dirigée par Carter Haines, est parvenue à transformer de simples fils de pêche en muscles artificiels en les torsadant de façon contrôlée jusqu’à ce qu’ils forment une sorte de ressort constitué de fibres polymères.

Ce dernier possède la propriété de se contracter ou de se détendre en fonction de la température qui lui est appliquée. Ce muscle torsadé, bien meilleur marché (5 dollars le kg) que des alliages à mémoire de forme, a une capacité de contraction de 49 % et peut ainsi soulever des masses cent fois plus élevées que ne le ferait un muscle humain de la même longueur et du même poids. Il peut générer 5,3 kilowatts de travail mécanique par kilogramme de masse musculaire, l'équivalent de la puissance d'un moteur à réaction.

Ce textile modifie sa porosité en fonction de la température et pourrait notamment être utilisé pour l’ouverture et la fermeture automatiques de volets en fonction de la chaleur, ou des textiles qui auraient la faculté de laisser passer plus ou moins la transpiration en ouvrant des pores dans le tissu.

Article rédigé par Georges Simmonds pour RT Flash

Science

cbc

^ Haut
Matière
Matière et Energie
Contrôler la douleur grâce à la lumière !
Jeudi, 13/03/2014 - 14:33

Des chercheurs de l'Université de Stanford ont réussi à modifier des souris par thérapie génique afin que leurs "nocicepteurs" (récepteurs sensibles à la douleur) soient contrôlés par la lumière.

Ces scientifiques ont ainsi pu montrer qu'une couleur rendait la souris plus sensible à la douleur alors qu'une autre couleur réduisait sa sensibilité. L'optogénétique est une discipline récente qui associe l’optique et la génétique. Elle consiste à rendre certaines cellules sensibles à la lumière. En utilisant des lumières de longueurs d'onde différentes, il devient alors possible de moduler l’expression d’un gène en fonction de sa photosensibilité.

Les douleurs chroniques touchent de nombreux malades dans le monde et ne peuvent pas toujours être soulagées efficacement, même en recourant à tout l'arsenal pharmaceutique disponible. Cette avancée ouvre donc la voie vers une meilleure prise en charge de ce type de douleurs en utilisant l'optogénétique.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Google va-t-il sauver les forêts tropicales ?
Jeudi, 13/03/2014 - 14:28

Le think-tank américain World Resources Institute (WRI), associé à une quarantaine de partenaires, dont Google et l'Université du Maryland, ont lancé le 20 février le « Global Forest Watch » (GFW), une initiative mondiale de surveillance des forêts tropicales.

Ce projet s'appuie sur une base de données très sophistiquée destinée à suivre la déforestation liée à l'abattage illégal ou aux feux de défrichement. On estime que 85 % des forêts primaires de la planète ont déjà disparu et, selon les informations réunies par Google et l'Université du Maryland, la terre a perdu 2,3 millions de km2 de forêts entre 2000 et 2012.

Pour constituer sa base de données, Google a travaillé avec la NASA à la compilation, à l'extraction et à la transformation de millions d'images satellite accumulées par le programme Landsat depuis plus de quarante ans. L'équipe du géographe Matthew Hansen, de l'Université du Maryland, a ensuite pu dresser, grâce à l'analyse de 700 000 images satellite, une carte en haute résolution de l'état des forêts de la planète.

Cet outil d'observation d'une valeur inestimable va être enrichi et mis à jour par deux programmes satellite qui vont l'alimenter en images de très haute résolution observant des carrés de 30 m de côté au sol. "Plus d'un milliard de personnes dépendent des forêts pour leur emploi, leur alimentation, leur eau et plus de la moitié de la biodiversité terrestre vient des forêts qui stockent 45 % du carbone émis par l'homme", souligne Andrew Steer, directeur du WRI.

Cet outil très précis du GFW devrait pouvoir permettre d'intervenir immédiatement, dès qu'une déforestation ou qu'une utilisation illégale de la forêt est repérée. Ce projet s'est inspiré du savoir-faire du Brésil en matière de surveillance spatiale des forêts. Dans ce pays, le taux de déforestation a pu en effet être réduit de 70 % en 10 ans.

Au niveau mondial, la déforestation a détruit en moyenne chaque année 13 millions d'hectares (5 millions d'hectares en perte nette, grâce au reboisement) au cours de la décennie 2000-2010, contre 16 millions d'hectares pour la décennie 1990-2000.

Article rédigé par Georges Simmonds pour RT Flash

WRI

Google

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'exposition au DDT augmenterait le risque de maladie d'Alzheimer
Jeudi, 13/03/2014 - 14:38

Une équipe regroupant des chercheurs de plusieurs universités américaines (Rutgers, Emory et Texas) vient de montrer, à partir des analyses de sang de 86 personnes malades et 79 sujets sains, l'existence d'un lien entre une forte exposition au DDT et un risque accru de maladie d'Alzheimer.

Selon ces travaux, les personnes atteintes de la maladie d'Alzheimer présenteraient en moyenne des taux de DDT dans le sang quatre fois plus importants que ceux observés chez les personnes saines. Des analyses biochimiques post-mortem réalisées sur les cerveaux des malades ont par ailleurs confirmé une concentration anormalement élevée de DDT.

Bien que cette substance soit interdite aux États-Unis depuis 1972, elle reste fortement utilisée dans de nombreuses régions du monde pour lutter contre le paludisme. Cette molécule mettant plusieurs décennies à se dégrader complètement dans l'environnement, il est probable qu'un certain nombre d'Américains aient pu en absorber sans le savoir, en consommant des produits cultivés dans des régions touchées par le paludisme.

Selon cette étude, la molécule active du DDT, le dichlorodiphényldichloroéthylène (DDE), pourrait participer à l'augmentation anormale de la production de protéines bêta-amyloïdes, un phénomène caractéristique chez les malades d’Alzheimer. À cet égard, l'étude montre d'ailleurs l'existence d'une corrélation entre le niveau de concentration de DDT dans le sang et la gravité des symptômes observés chez les malades.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Une alimentation végétarienne réduirait le risque d'hypertension
Mercredi, 12/03/2014 - 18:49

On savait déjà, grâce à plusieurs études scientifiques, qu'un régime végétarien pouvait diminuer le risque de maladies cardio-vasculaires et réduire le niveau de cholestérol. Mais une vaste méta-analyse réalisée par des chercheurs japonais du centre de recherche cardio-vasculaire d'Osaka, sous la direction du professeur Yoko Yokoyama, a montré qu'une alimentation végétarienne pouvait également permettre de réduire la pression artérielle.

Dans ce travail, les chercheurs japonais ont repris les données provenant de 7 essais cliniques et de 32 études réalisés entre 1900 et 2013 et concernant l'impact d'un régime végétarien sur la pression artérielle. Cette investigation a permis de montrer que les personnes adoptant un régime végétarien présentaient une baisse significative de la pression artérielle : en moyenne de 5 mm de mercure (mm Hg) pour la pression artérielle systolique et 2,2 mm Hg pour la pression artérielle diastolique.

À titre de comparaison, l'étude rappelle que si l'on parvenait à baisser de 5 mm Hg la pression systolique de toute la population, la mortalité globale diminuerait de 7 % et celle résultant des AVC baisserait de 14 %…

Il faut toutefois préciser que ce travail révèle une association et non un lien direct de cause à effet entre une alimentation végétarienne et une réduction de la pression artérielle. Les chercheurs soulignent qu'il faut en effet tenir compte de l'effet d'intrication des différents facteurs de risque ou de protection et rappelle que les personnes végétariennes boivent moins d'alcool, fument moins, font plus d'exercice et ont moins de problème de surpoids que la population générale, ce qui a un effet bénéfique sur leur pression artérielle.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Paludisme : une seule mutation génétique peut rendre les moustiques invulnérables…
Mercredi, 12/03/2014 - 18:26

Des chercheurs britanniques de l'Ecole de médecine tropicale de Liverpool, dirigés par le Professeur Charles Wondji, ont montré qu'une seule et unique mutation génétique semble suffire à rendre un moustique résistant à la fois au DDT et à d'autres types d'insecticides utilisés dans la lutte contre le paludisme.

"Nous avons pu montrer l'existence d'une population de moustiques devenue entièrement résistante non seulement au DDT mais aussi aux pyréthrinoïdes, le type d'insecticide le plus utilisé dans les moustiquaires imprégnées", précise Charles Wondji.

Pour mener à bien leurs travaux, les chercheurs ont d'abord prélevé au Bénin des moustiques anophèles résistant à ces deux types d'insecticides. Ils ont ensuite comparé leur génome avec celui d'une souche similaire élevée en laboratoire et ne présentant pas de résistance. Ce travail leur a permis de découvrir qu'un gène, baptisé "GSTe2", était particulièrement actif chez les moustiques résistants provenant du Bénin.

Poursuivant leurs investigations, les chercheurs ont montré qu'il suffisait d'une seule mutation ("L119F") sur ce gène GSTe2 pour que les moustiques qui n'étaient pas résistants aux différents insecticides le deviennent.

Ces recherches ont également pu établir qu'au niveau mondial, l'ensemble de ces moustiques résistant au DDT étaient porteurs de cette mutation spécifique. Le recours à la cristallographie aux rayons X a enfin permis aux scientifiques de montrer que ces moustiques devenus résistants du fait de cette mutation génétique particulière avaient acquis la capacité de dégrader les molécules de DDT pour les transformer en substances inoffensives.

Ces scientifiques ont enfin pu montrer, en introduisant un gène mutant chez des mouches drosophiles, que celles-ci développaient également une résistance aux insecticides. Ces découvertes ouvrent la voie à de nouveaux outils qui permettront de détecter très précocement la résistance spécifique de telle ou telle population moustiques à certains insecticides, ce qui permettra de cibler les actions d'éradication de ces moustiques de manière beaucoup plus efficace.

Article rédigé par Georges Simmonds pour RT Flash

Genome Biology

Un test sanguin pour détecter la maladie d'Alzheimer d'ici 2017 ?
Mardi, 11/03/2014 - 14:25

Des chercheurs de la Georgetown University travaillent sur la mise au point d'un test sanguin qui pourrait permettre, d'ici 3 ans, de détecter précocement la maladie d'Alzheimer.

Ce test repose sur l'identification de 10 des lipides dans le sang qui prédisent l’apparition de la maladie et comme le souligne le Professeur Howard J. Federoff, principal auteur de l’étude, "Notre nouveau test sanguin offre la possibilité d’identifier les personnes à risque de déclin cognitif progressif et peut changer la façon dont les patients, leurs familles et leurs médecins traitants vont gérer la maladie."

Ces travaux ont permis de suivre, pendant 5 ans, 525 participants en bonne santé, âgés de 70 ans et plus, qui ont donné des échantillons de sang au départ et à plusieurs reprises au cours de l’étude. Au cours du suivi, 74 participants ont reçu le diagnostic soit de maladie d’Alzheimer légère, soit de déficience cognitive légère amnésique. Parmi ces 74 participants, 46 avaient été diagnostiqués au tout début de l’étude et 28 ont développé ces troubles durant l’étude.

A l'issue de l'étude, les chercheurs ont réussi à identifier les 10 marqueurs spécifiques d'Alzheimer grâce aux analyses pratiquées sur 53 participants ayant développé un trouble cognitif (dont 18 au cours de l’étude) et sur 53 témoins non touchés par la maladie. L'étude précise que ce test encore expérimental aurait une fiabilité de détection de 90 % pour la prévision du déclin cognitif résultant de la maladie d'Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Cancer du sein : deux avancées majeures !
Mardi, 11/03/2014 - 14:19

Deux avancées majeurs ont été publiées cette semaine dans le domaine de la lutte et de la détection précoce du cancer du sein. Il s'agit, en premier lieu, des conclusions de l'étude SAFIR 01, coordonnée par le Professeur Fabrice André, oncologue à Gustave Roussy. Ces résultats montrent que l'analyse étendue du génome tumoral permet bien de déterminer si une patiente atteinte d'un cancer métastatique du sein doit ou on bénéficier de certaines thérapies ciblées.

Cette première mondiale ouvre enfin la voie à un traitement personnalisé de ce cancer très répandu grâce à l'identification d'anomalies dans le génome de la tumeur pour laquelle il existe un médicament ciblé agissant spécifiquement sur les cellules tumorales qui présentent ces anomalies, et permet de proposer un traitement sur mesure aux patientes.

Plus de 400 femmes atteintes d'un cancer du sein avancé ont participé à cette étude. Pour 46 % d'entre elles, une mutation génétique de la tumeur correspondant à un traitement ciblé a été identifiée et 28 % d'entre elles ont pu bénéficier d'une nouvelle thérapie dans le cadre d'un essai clinique. Elles sont 30 % à avoir présenté des signes d'effet antitumoral. L'analyse génomique a également révélé des mutations rares pour lesquelles il n'existe actuellement aucun traitement chez 39 % des patientes.

Comme le souligne Fabrice André, « Pour la première fois, nous démontrons que des technologies d'analyse étendue du génome tumoral permettent, en identifiant les mutations rares et fréquentes, d'orienter les patientes atteintes d'un cancer métastatique du sein vers des thérapies mieux ciblées. Ainsi, nous validons véritablement la faisabilité du concept de médecine personnalisée en pratique clinique ».

La seconde avancée, réalisée par des chercheurs américains et néerlandais dans le cadre d'une étude sur 244 femmes, résulte de plus de 20 ans de recherche et concerne la possibilité, d'ici quelques années, de pouvoir dépister de manière fiable le cancer du sein à partir d’un simple test respiratoire.

Le principe de ce test consiste à analyser des molécules volatiles contenues dans le souffle des patientes et qui pourraient s'avérer être des biomarqueurs permettant de détecter la présence de tumeurs. Reste cependant à s'assurer, par des études complémentaires, que les marqueurs identifiés sont suffisamment spécifiques pour permettre la détection fiable de tous les cancers du sein, ce qui nécessitera encore plusieurs années de travail.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

PLOS One

Prévention de l'hypertension artérielle : c'est la dépense énergétique qui compte, pas le type d'exercice !
Lundi, 10/03/2014 - 18:49

Selon l'OMS, un adulte sur trois dans le monde souffrirait d'hypertension artérielle (près d'un milliard d'êtres humains) et cette pathologie serait la première cause de mortalité au niveau mondial, devant le tabagisme, l'hyperglycémie, l'inactivité physique et l'obésité. En 2012, l'hypertension aurait été responsable de 9,4 millions de morts dans le monde, soit un peu plus de 17 % des décès sur la planète.

On sait depuis longtemps que l’hypertension artérielle est un facteur de risque important en matière cardio-vasculaire et que l'hygiène de vie joue un rôle majeur dans la prévention et la lutte contre ce fléau planétaire. Il a été également établi par de nombreuses études scientifiques que l'arrêt du tabac, la prévention du surpoids et la pratique régulière d'une activité physique pouvaient contribuer de manière sensible et durable, en association ou non avec des médicaments, à faire baisser la tension artérielle.

Mais une étude américaine dirigée par Paul T Williams, laboratoire Lawrence Berkeley en Californie, vient de montrer, à l'issue du suivi pendant 10 ans d'une population de 6 973 marcheurs et 3 907 coureurs sous traitement antihypertenseur, que le facteur déterminant en matière de prévention de l'hypertension semblait être l'intensité de la dépense énergétique et non, comme on le croyait jusqu'à présent, le mode d'exercice pratiqué, à savoir marche ou course à pied.

Selon cette étude, courir ou marcher en dépensant 1,8 à 3,6 METh/j (metabolic equivalent par jour) entraînerait finalement une réduction équivalente de 29 % du risque de décès par maladies cardio-vasculaires et une diminution de 55 % du risque de décès par AVC. En outre, cette intensité d'exercice diminuerait les troubles du rythme de 47 % et de 51 % le risque de décès par insuffisance cardiaque.

Selon ces recherches, il semblerait donc que ce soit bien le niveau de dépense énergétique qui soit à l'origine de l'effet protecteur en matière d'hypertension et non le type d'exercice pratiqué. Affaire à suivre…

Article rédigé par Georges Simmonds pour RT Flash

EPCCS

Une marche quotidienne augmenterait la taille du cerveau !
Vendredi, 07/03/2014 - 14:12

On savait déjà que la marche était excellente pour le cœur et les artères et permettait de faire baisser la tension artérielle et le cholestérol. Mais des chercheurs américains de l'Université de Pittsburgh viennent de montrer qu'une marche quotidienne pouvait également augmenter légèrement le volume de l'hippocampe, une ère cérébrale impliquée dans la mémoire qui est particulièrement touchée dans certaines pathologies comme la maladie d'Alzheimer.

Les scientifiques ont demandé à 120 personnes âgées de 55 à 80 ans d’effectuer trois fois par semaine une promenade rapide de 40 minutes, et ce pendant un an. Alors que le volume de notre cerveau diminue progressivement avec l'âge, ils ont pu constater que, chez les participants à cette étude, le volume de certaines zones cérébrales comme l’hippocampe et le cortex préfrontal augmentait d'environ 2 à 3 %.

En revanche, dans le groupe témoin ou les participants ne pratiquaient que de simples étirements, les chercheurs ont constaté que les mêmes aires cérébrales avaient rétréci d'environ 1,5 % au cours de la même période.

Commentant ces recherches, le professeur Kirk Erickson, qui a dirigé ces travaux, souligne que "Cette découverte ne constitue pas le remède miracle contre les différentes forme de démence mais nous pensons qu'une marche quotidienne régulière constitue une méthode simple et efficace pour prévenir le déclin cérébral, d'autant qu'il n'est pas nécessaire d'avoir une activité physique très soutenue pour obtenir ces bénéfices cérébraux. Il est enfin très encourageant de constater que notre cerveau, même âgé, peut encore être modifié par nos choix de vie".

Article rédigé par Georges Simmonds pour RT Flash

NZH

The Guardian

SIDA : deux avancées majeures
Vendredi, 07/03/2014 - 14:06

Deux avancées majeures contre le virus du Sida viennent d'être annoncées aux Etats-Unis. La première concerne l'efficacité thérapeutique d'un nouveau traitement précoce efficace. Des médecins de l'Université de Californie ont en effet annoncé qu'une petite fille, infectée par le virus du sida à la naissance, ne présentait plus aucune trace d'infection après onze mois de traitement avec des antirétroviraux. C'est la deuxième fois au monde, après le cas d'une autre petite fille née en 2013 au Mississipi, que les chercheurs obtiennent une éradication complète du virus à la suite d'un traitement précoce.

Cette enfant a bénéficié d'un traitement immédiat par antirétroviraux dès le premier jour de sa vie et cette prise en charge a fait disparaitre le virus au bout d'une semaine. Comme le souligne la Professeure Yvonne Bryson qui a supervisé ce traitement, "Il est remarquable de constater que notre action précoce a permis de faire disparaître complètement, jusqu'à présent, le virus chez ce bébé. Il faut néanmoins rester prudent et nous ne parlons pas encore de guérison mais de rémission".

La seconde avancée, qui a été publiée dans le NEJM du 6 mars 2014, a été réalisée par des chercheurs américains qui ont réussi à modifier génétiquement des cellules immunitaires de 12 malades infectés par le VIH pour créer une résistance naturelle au virus. Cette modification génétique a permis, pour certains malades, l'arrêt complet de leur thérapie antirétrovirale pendant trois mois.

Selon le Professeur Carl June, de l'Université de Pennsylvanie, "Ces travaux montrent qu'il est possible de modifier de manière sûre et efficace les cellules immunitaires d'un patient séropositif pour créer une résistance naturelle et durable au VIH".

Dans ce travail, les chercheurs ont modifié des lymphocytes T de certains patients afin de reproduire, dans le gène CCR5, une mutation, présente chez environ 1 % de la population, qui empêche le VIH de pénétrer dans les cellules immunitaires.

Article rédigé par Georges Simmonds pour RT Flash

Web Pro News

NEJM

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top