|
|
|
|
|
NUMERO 826 |
|
|
|
|
|
|
|
Edition du 18 Décembre 2015
|
|
|
|
|
Edito
L’exploitation intelligente du Big Data ouvre l’ère de la société prédictive
Certaines ruptures technologiques sont particulièrement visibles et frappent les esprits : c’est par exemple le cas pour les tablettes numériques, les voitures électriques ou encore de l'éclairage par LED. Mais certaines révolutions techniques se déroulent sous nos yeux sans que nous en soyons vraiment conscients : tel est le cas des « Données massives » (Big Data). En seulement cinq ans, les données massives et leur traitement intelligent ont déjà profondément bouleversé l’ensemble des secteurs d’activité économique et scientifique… et ce n’est qu’un début !
Dans le domaine capital de la production d’énergie propre par exemple, nous allons être confrontés au cours du prochain quart de siècle à un redoutable défi mondial : assurer au moins la moitié de notre production totale d’énergie à partir de sources d’énergies renouvelables, principalement le vent, le soleil, et les énergies marines. Mais ces sources d’énergie, si elles présentent l’immense avantage d’être à la fois gratuites, inépuisable et très faiblement émettrices de gaz à effet de serre, présentent aussi le redoutable inconvénient d’être diffuses et intermittentes. Dès lors, pour que les réseaux de distribution -et notamment le réseau électrique- soient capables d’absorber une part de plus en plus importante d’énergie issue de ces sources renouvelables, il est absolument capital de pouvoir lisser et gérer les fluctuations considérables de production liées aux brusques changements météorologiques. Les outils de prévision de production d’énergie solaire ont d’ailleurs été désignés comme « technologie de rupture majeure » par le MIT en 2014.
La jeune société Reuniwatt, basée à la Réunion et fondée en 2010, a décidé de relever ce défi en combinant les technologies du Big Data, Intelligence Artificielle, météorologie, traitement d’images-satellites et d’images grand-angle du ciel. En quelques années seulement, Reuniwatt est devenue l’un des leaders mondiaux de la prévision d’énergie solaire grâce à son outil d’aide à la décision Soleka. Ile très ensoleillée, La Réunion souhaitait intégrer dans son mix énergétique une part majoritaire provenant des énergies renouvelables. Mais une telle montée en puissance des énergies propres, et notamment de l’énergie solaire, n’était envisageable qu’à la condition de pouvoir prévoir de manière particulièrement fiable l’évolution de la production d’électricité solaire en fonction des aléas de la météo.
Au terme de cinq années de recherche, Reuniwatt a réussi à mettre au point un remarquable logiciel prédictif, baptisé Soleka. Cet outil, reconnu au niveau mondial pour son excellence, fonctionne à trois horizons temporels (les prévisions allant de la minute à plusieurs jours à l’avance) et pour l’ensemble des acteurs de l’énergie, producteurs, distributeurs et consommateurs. En utilisant de manière intelligente et particulièrement ingénieuse des données massives, Soleka a donc réussi à faire sauter un obstacle très important vers la production prévisible à très grande échelle d’énergie solaire.
Autre domaine dans lequel les données massives sont en train de s’imposer : la biologie et la médecine. A l’institut Pasteur, le professeur Marco Vignuzzi et son équipe ont développé une méthode très innovante pour comprendre les mutations virales des ARN à partir de souches du Chikungunya ayant été isolées avant qu’elles ne mutent. Appliqué au virus du Chikungunya, de l’hépatite C ou de la grippe, cet outil permet de comprendre et de prévoir ce mécanisme de progression infectieuse. « Avant, on était obligé de séquencer un seul génome de virus à la fois ; mais à présent le séquençage à haut débit permet de couvrir la totalité d’une population virale qui existe au sein d’un même échantillon », souligne M. Vignuzzi.
Cette nouvelle approche prédictive devrait non seulement permettre de repérer en amont les mutations virales au potentiel épidémique important, mais devrait également déboucher sur la conception d’une nouvelle génération de vaccins plus efficaces, créés à partir des données observées et des schémas de mutations qui en découlent.
Une autre équipe américaine de l’Université d’Harvard, dirigée par le professeur Kou, a présenté il y a quelques semaines un modèle baptisé ARGO (AutoRegression with GOogle search data), capable de suivre en temps réel différentes épidémies de grippe. Ce modèle statistique de nouvelle génération, qui utilise notamment les données de Google, est présenté comme « flexible, robuste, auto-correctif et évolutif ». Bientôt disponible en « open source », ARGO va constituer un outil particulièrement précieux pour les pouvoirs publics et autorités de santé qui vont pouvoir planifier et gérer de manière beaucoup plus fiable les campagnes de vaccination contre la grippe. Il faut en effet rappeler que cette maladie, parfois présentée à tort comme bénigne, tue environ 500 000 personnes dans le monde chaque année. Il faut également rappeler qu’en France, plus de 18 000 personnes sont mortes de la grippe l’année dernière…
On peut aussi évoquer le lancement cet été par la fédération Unicancer d'un outil d'analyse sémantique appelé ConSoRe (Continum soins-recherche) qui va exploiter l’ensemble des données générées par les 18 centres de lutte contre le cancer (CLCC) afin notamment de simplifier la mise en place de programmes de recherche. Il permet d'effectuer des recherches en texte libre, "à la Google", ou multicritères. Le système fonctionne comme "une moulinette de traitement" qui effectue "une analyse sémantique des dossiers". Son point fort est qu’il peut lancer des requêtes sur l'ensemble du corpus documentaire du patient. Concrètement, l'outil peut faire le lien entre un critère A présent dans un compte rendu et un critère B présent dans la base pharmaceutique, par exemple.
Cet outil permet de simplifier la mise en place de programmes de recherche par la constitution facilitée de cohortes de patients. Mais à terme, ConSoRe a des objectifs bien plus vastes et ambitieux et permettra, comme le fait déjà Watson, l’ordinateur intelligent d’IBM aux Etats-Unis, de proposer à chaque patient un traitement entièrement « sur mesure », conçu en fonction des spécificités biologiques et génétiques individuelles du malade.
Comme je vous l’ai déjà dit il y a quelques semaines, l’utilisation de ces données massives s’est également imposée dans le domaine de la sécurité et de la lutte contre le crime. L’année dernière par exemple, la ville de Santa Cruz, en Californie, a réussi à faire baisser de 27 % sa criminalité globale grâce à l’utilisation du nouveau logiciel PredPol. Cet outil de prévision criminelle est également utilisé depuis un an par la police du Kent, en Grande-Bretagne. Se présentant sous la forme d’une carte, actualisée en permanence, PredPol existe aussi en version « mobile », pour smartphone ou tablette, et permet aux policiers de mieux prévenir activement la criminalité en concentrant leurs actions sur les zones à risques.
PredPol est dérivé des programmes de prévention des séismes. Il analyse, grâce à des algorithmes spécifiques, une multitude d’informations contenues dans une gigantesque base de données qui recense toutes les infractions passées dans une aire précise (quartier, ville ou région). À présent, de nombreuses grandes villes américaines, comme New York ou Los Angeles, utilisent avec beaucoup de satisfaction PredPol.
En Europe, des chercheurs ont mis au point après cinq ans de travaux, dans le cadre d’un programme européen de recherche, l’outil Indect qui vise à mieux lutter contre les activités criminelles ou terroristes grâce à la détection automatique intelligente d’événements et de situations « à risque ». Ce système permet, notamment, d’effectuer, avec des taux de réussite pouvant dépasser les 90 %, le traçage et le suivi de personnes et d’objets, ainsi que leur identification. Couplé aux caméras de vidéosurveillance, Indect peut aussi repérer des comportements anormaux dans une foule, ce qui peut évidemment s’avérer extrêmement précieux dans le nouveau contexte actuel de lutte mondiale contre le terrorisme.
En France, la gendarmerie expérimente depuis quelques mois un nouveau logiciel prédictif pour anticiper les grandes tendances de la délinquance sur le territoire. L’idée est d’analyser certaines catégories de délits fréquents – les cambriolages, les vols, les trafics de stupéfiants ou encore les agressions sexuelles – s’étant produits au cours des cinq dernières années, pour en extraire les points de comparaison et les singularités et essayer de prévoir où et quand ces types de crimes et délits risquent de se reproduire dans un proche avenir.
Outre-Atlantique, la ville de New York utilise depuis juillet 2013 un nouvel outil logiciel destiné à mieux prévenir les 3 000 incendies majeurs qui se déclenchent chaque année dans cette mégapole. Cet outil prédictif explore et recoupe 60 critères, puis attribue une note de risque à chacun des 330 000 immeubles répertoriés dans sa base de données. Chaque semaine, ce logiciel peut ainsi fournir aux pompiers de la ville la liste des bâtiments à aller inspecter car pouvant être le foyer du prochain incendie (Voir The Wall Street Journal).
Les outils d’analyse prédictive ont également récemment fait leur apparition dans le secteur de l’industrie aéronautique. Depuis quelques mois, l’ensemble des 1,6 giga-octets de données provenant de 24 000 capteurs embarqués et correspondant à chaque vol d’un Airbus A380, sont récupérées par Wi-Fi puis transmises au centre d’ingénierie et de maintenance d’Air France KLM à Toulouse. Ces données sont alors comparées et recoupées, grâce à un moteur d’analyse prédictive, avec des données d’exploitation de toute la flotte des A380 pendant les deux dernières années. Ce nouvel outil a fait la preuve de son efficacité pour prévoir et détecter les pannes sur la pompe de circulation, le composant le plus fragile du circuit qui amène le carburant aux moteurs. A partir de janvier 2016, le système sera étendu à d’autres équipements fragiles des A380 puis à d’autres avions de la compagnie comme les Boeing 777.
Ce système est si fiable et si précis que les techniciens peuvent à présent intervenir rapidement et directement sur la pièce responsable de la panne, sans suivre le manuel technique de l’avion. Le temps d’identification et de localisation de l’origine de la panne passe ainsi de 6 heures à seulement 5 minutes, ce qui permet un gain de temps et d’argent très important pour la compagnie.
À Lyon, la start-up ForCity, fondée en janvier 2014, a développé une plate-forme du même nom qui permet de modéliser une ville miroir numérique. Cette ville miroir est ensuite rendue dynamique par des modèles mathématiques simulant l’évolution du territoire au cours du temps. Cet outil de simulation numérique permet alors aux collectivités et aux entreprises de simuler une multitude de scénarios correspondants à des évolutions de territoire, en faisant varier de nombreux paramètres (population, transports, énergie, attractivité d’un quartier, etc). Parmi les clients de ForCity, on trouve par exemple Veolia Asia pour qui cette société a développé une maquette numérique de Hong Kong, afin d’étudier les interactions entre le territoire et les métiers de Veolia : valorisation des déchets, cycle de l’eau, distribution de froid dans les bâtiments.
La gestion et la comptabilité des entreprises n’échappent pas non plus à cette révolution des données massives : Cegedim SRH a ainsi développé une solution de pilotage pour gérer la masse salariale et formuler des hypothèses de manière prédictive. Cet outil est entièrement dédié au pilotage de la masse salariale. Il permet aux entreprises d’anticiper les départs à la retraite, d’évaluer les futurs besoins en compétences, ou encore de bâtir un plan prévisionnel de gestion des ressources humaines en tenant compte de l’évolution de la pyramide des âges dans l’entreprise…
Là encore, ce logiciel exploitant le Big Data a permis d’effectuer un saut décisif entre la simulation et la prédiction. Grâce à ce système, lorsqu’une entreprise octroie une augmentation ou une prime à ses collaborateurs, elle peut désormais avoir une vue d’ensemble, sur le long terme, des impacts que sa politique salariale va avoir sur les charges sociales et patronales, sur les mutations, sur les processus de mobilité interne.
Mais cette analyse d’une masse gigantesque de données peut également permettre aux recruteurs publics ou privés de mieux cerner le profil et les aptitudes d’un candidat pour un poste donné. Il existe déjà des tests, comme le questionnaire de personnalité PAPI, qui consiste à vous faire répondre à une longue série de questions, qui croisées, créent une sorte d’organigramme reflétant votre comportement en entreprise. Mais en combinant les potentialités des données massives et de l’apprentissage automatique, on peut aller encore plus loin. Ainsi, le service Watson Developer Cloud BlueMix d’IBM permet d’analyser votre personnalité, et d’en dresser là aussi une carte.
En outre, les algorithmes peuvent même permettre de prédire le départ d’un salarié. Le Crédit Suisse utilise ainsi ses données pour évaluer les risques qu’un employé quitte l’entreprise, en fonction de ses performances, de son lieu de vie, de ses traits de personnalité, ou encore de ses interactions sociales. L’objectif est bien sûr de repérer les collaborateurs les plus précieux qui risquent de partir, afin de les garder au moyen de primes et d’augmentations de salaires… (Voir The Wall Street Journal).
Les outils prédictifs intelligents sont également en train de révolutionner le secteur de la vente et de l’immobilier. Aux États-Unis, Smartzip propose par exemple à un agent immobilier de scanner une zone, à partir du code postal, ce qui correspond aux Etats-Unis à un quartier. Ce logiciel permet d’analyser l’ensemble des données associées à toutes les adresses répertoriées et le professionnel peut ainsi savoir très rapidement si tel ou tel résident est propriétaire, depuis quand et quel est le montant et la durée de son crédit immobilier. Au final, cet outil permet d’identifier les biens immobiliers qui ont le plus de chances d’être vendus dans l’année qui suit. Signalons au passage qu’en France, l’utilisation de ce type d’outils prédictifs extrêmement puissants n’est pas encore possible car il se heurte à un cadre législatif et réglementaire européen et national plus strict qu’aux États-Unis et qui restreint de manière beaucoup plus drastique l’utilisation à des fins commerciales des données personnelles sans le consentement exprès des consommateurs…
Il faut encore évoquer l’outil prédictif très futuriste mis au point par une jeune chercheuse israélienne, Kira Radinsky, qui a été classée parmi les 35 jeunes les plus innovants au monde, par le magazine MIT Tech Review. L’algorithme imaginé par cette brillante scientifique repose sur un vaste ensemble de faits de toute nature (épidémies, guerres, catastrophes, crises économiques) qui se sont déroulés dans le passé. Selon Kira Radinsky, même si, chaque événement survient dans des circonstances particulières, il obéit tout de même à un modèle déjà observé dans le passé et qui obéit à certaines lois subtiles et utilisables. Ce logiciel de recoupement de données (Link Data), croise des milliards d’informations afin d’en extraire les corrélations et points communs. Il est alors possible, en recourant à des modèles mathématiques de prévisions, de calculer les probabilités d’occurrence de faits semblables. Cet outil serait capable, selon sa conceptrice, de prévoir 90 % des risques épidémiques, une performance hors d’atteinte pour le cerveau humain.
L’exploitation intelligente des données massives est donc devenue très rapidement l’un des nouveaux moteurs de mutation numérique en cours dans nos économies développées. Il suffit d’ailleurs pour s’en convaincre d’observer la progression de ce marché au niveau mondial. Selon une récente étude du cabinet IDC, celui-ci passera globalement de 3,2 milliards de dollars en 2010 à 48 milliards en 2019 ! On le voit, cette révolution des données massives n’en est encore qu’à ses prémices : selon une étude réalisée par Pure Storage, trois entreprises sur quatre déclarent collecter des informations qui ne sont pas exploitées, soit par manque de moyens humains et techniques soit par manque de temps.
Soulignons enfin que les enjeux liés à la généralisation de ces nouveaux outils de prédiction intelligente ne sont pas seulement scientifiques et économiques mais également sociaux et humains. Face à un chômage de masse persistant, l’utilisation intelligente des données massives pourrait en effet permettre une mise en relation beaucoup plus fluide et efficace de l’offre et de la demande de compétences sur le marché du travail. Il faut en effet savoir qu’en France, on estime (selon les données de Pôle Emploi et du Medef) à 570 000 par an le nombre de postes qui ne peuvent être pourvus qu’avec de grandes difficultés et à 400 000 chaque année celui des emplois qui ne trouvent pas preneurs, faute de candidats possédant les compétences requises…
L’utilisation généralisée de ces nouveaux outils extrêmement puissants dans les domaines du travail et de la formation professionnelle devrait donc permettre d’exploiter bien plus efficacement de vastes gisements d’emplois, aujourd’hui inaccessibles mais également d’adapter et d’anticiper de manière active l’évolution des filières de formation professionnelle, ce qui permettrait à chacun de trouver sa place dans notre société, et à notre Pays de tirer pleinement profit les mutations techno économiques en cours au lieu de les subir.
Reste que l’utilisation de plus en plus pertinente et pointue d’une quantité toujours plus grande de données concernant nos activités et nos vies soulèvent de réelles interrogations éthiques et politiques. Comment en effet s’assurer que l’utilisation à des fins scientifiques mais également commerciales, sociales ou politiques de toutes ces données, se fait bien avec le consentement « libre et éclairé », selon la formule juridique consacrée, de tous les acteurs ? Jusqu’où sommes-nous prêts à limiter la protection de nos données personnelles pour vivre dans une société plus efficace, plus performante et plus confortable ? Ces questions essentielles, qui ne peuvent avoir de réponses simples, seront, soyons-en assurés, au cœur du débat démocratique de ces prochaines années.
René TRÉGOUËT
Sénateur honoraire
Président Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Atos vient de livrer à la Direction des applications militaires du CEA (CEA/DAM) la première tranche du nouveau supercalculateur Tera 1000. Celui-ci a une puissance théorique de calcul double par rapport à la génération précédente de calculateur Tera 100 (première machine conçue et réalisée en Europe à avoir dépassé le pétaflops en 2010), tout en divisant sa consommation énergétique par cinq.
On sait que la course à la puissance de calcul risque d’être interrompue à cause de la consommation électrique des supercalculateurs si l’on n’effectue pas des progrès fondamentaux sur les composants et les architectures matérielles, ainsi que sur la régulation des flux de données. C’est pourquoi le CEA, gros consommateur de simulations numériques multi-physiques et multi-dimensionnelles, a travaillé en collaboration avec Atos et Intel pour maximiser les performances des futures machines.
« Tera 1000 est la troisième génération de supercalculateurs issue du partenariat entre Bull et le CEA/DAM entrepris depuis le début des années 2000. La puissance de calcul aura été multipliée par 5 000, ce qui accroît très fortement la qualité prévisionnelle des outils numériques pour les usages de Défense, mais aussi industriels et de recherche. Cette étape laisse entrevoir avec confiance l’obtention nécessaire de l’exaflop à l’horizon 2020 avec le bilan énergétique visé », a estimé François Geleznikoff, Directeur des applications militaires du CEA, lors de la réception de cette machine.
Cette installation préfigure la future génération de calculateurs de classe Exascale (1018Flops) qui sera mise en service à l’horizon 2020. La deuxième tranche de Tera 1000 qui sera mise en service en 2017 sera constituée d’une trentaine de cellules Bull Sequana, intégrant plus de 8 000 processeurs Intel Xeon Phi couplés au réseau d’interconnexion à très hautes performances BXI. Elle fournira une puissance théorique de calcul de 25 pétaflops (25 x 1015 FLoating-point Operations Per Second), avec une performance énergétique améliorée d’un facteur 20 par rapport à celle de Tera 100. Un pas important dans la maîtrise de la consommation énergétique, qui est l’un des défis majeurs pour réaliser des calculateurs de classe Exascale d’ici 2020.
Article rédigé par Georges Simmonds pour RT Flash
Industrie & Technologies
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les installations éoliennes et solaires assurent une part de plus en plus conséquente de la production mondiale d'électricité. Toutefois, malgré les excellents résultats de ces dispositifs, nous sommes encore obligés de recourir à des sources d’énergie traditionnelles pour répondre aux besoins énergétiques durant les heures de pointe ou durant les périodes de rendement plus faible, comme la nuit par exemple.
Pour remédier à cette problématique, l'entreprise canadienne Hydrostor a conçu un dispositif capable de stocker l’électricité issue de sources renouvelables pour la mettre à disposition en cas de besoin. Le système se présente sous la forme de six ballons géants sous-marins pressurisés qui ont été installés dans un premier temps sous le lac Ontario, non loin de Toronto.
Les ballons se trouvent à 55 mètres en dessous de la surface de l’eau et sont connectés à un réseau pneumatique via un pipeline. Le dispositif fonctionne sur le principe de la transformation d’énergie. L’excès d’électricité produite par les sources renouvelables est ainsi converti en air comprimé.
Concrètement, le système d’Hydrostor transfère l’air de la station jusqu’aux ballons, ou accumulateurs, à travers le pipeline. Lors des périodes de pointe, l’air fait le chemin inverse et retourne à l’envoyeur où il est de nouveau transformé en électricité pour alimenter le réseau.
Selon l’entreprise canadienne, la solution pourrait durer deux fois plus longtemps que les meilleures batteries de stockage actuellement disponibles sur le marché et pour un coût beaucoup plus faible. L’idée est d’offrir à terme une alternative pour réduire les besoins en énergie fossile lorsque les dispositifs photovoltaïques et éoliens ne peuvent plus assurer en temps réel l’approvisionnement énergétique mondial.
Article rédigé par Georges Simmonds pour RT Flash
Hydrostor
|
|
|
|
|
|
|
|
Des scientifiques israéliens de la Faculté du Technion de Haïfa et de l'Institut Russell Berrie pour les nanotechnologies ont réussi à mettre au point un nouveau matériau flexible et sensible au toucher, capable de se réparer et de se reconstituer de lui-même en cas de dommages comme le ferait une peau qui cicatrise.
Selon les chercheurs, ce matériau révolutionnaire, qui dispose de capteurs sensibles à la pression, à la chaleur et aux particules volatiles, pourrait notamment servir en matière de technologie applicable aux écrans tactiles, mais aussi permettre de surveiller et de corriger les imperfections dans les circuits électriques.
En outre, il pourrait servir comme "peau électronique" capable de surveiller l'état de santé de son utilisateur. Le Docteur Tan-Phat Huynh, un des chercheurs du Technion, et le Professeur Hossam Haick, chef de l'un des laboratoires de l'Institut, ont expliqué que : "(leur) développement est basé sur de nouveaux types de polymères synthétiques avec des propriétés électriques et chimiques."
Les chercheurs ont également déclaré que si le matériau est endommagé, il pourrait retrouver sa forme initiale 10 à 30 minutes après avoir été abîmé. "La fonction d'auto-réparation est susceptible d'agir sur n'importe quelle partie du matériau, de sorte qu'il puisse se renouveler entièrement" a ajouté le professeur Haick. Les expériences menées au cours de la recherche ont montré que pendant une période de six mois d’utilisation en continu, et même en subissant des dommages, le matériau a perdu moins de 10 % de ses capacités sensibles.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
|
|
|
|
|
|
Comment utiliser la lumière pour stocker des données de manière permanente : c’est à ce défi technologique que s'est attaquée l’équipe de chercheurs de Harish Bhaskaran, expert en nanoingénierie de l’Université d’Oxford. Ces chercheurs travaillent sur une puce photonique, faite d’un matériau présent dans les DVD réinscriptibles, et qui permettrait de lutter contre la perte de mémoire, d’améliorer la puissance des CPU, et d’augmenter la capacité de stockage.
Concrètement, la puce hypothétique utiliserait des photons plutôt que des électrons pour stocker des données de manière permanente. Une puce utilisant les photons et non les électrons permettrait d'échanger les données bien plus rapidement qu'aujourd'hui. En effet, les électrons “s’entrechoquent” quand ils se déplacent dans les composants d’une puce électronique, ralentissant le transfert de données, et chauffant le matériel. Or, les photons, qui voyagent à la vitesse de la lumière, ne s’entrechoqueraient pas, et le transfert serait quasi-instantané.
Les chercheurs menés par Harish Bhaskaran utilisent le GST (germanium-antimony-tellurium), une fine couche d’alliage de germanium, d’antimoine et de tellure, qui se trouve dans les CD et DVD réinscriptibles. Bombardé par un laser, comme le font les lecteurs de CD/DVD, le film GST change sa structure atomique, absorbant puis reflétant alors la lumière.
Les scientifiques d’Oxford ont tenté d’utiliser le GST pour stocker et lire des données, de manière permanente. Pour cela, ils ont équipé une puce électronique standard d’un appareil de nitrure de silicium (un guide à ondes), qui canalise et permet de transférer des pulsations de lumière. Puis ils ont placé un film GST, d’une taille nano, au-dessus de l’appareil.
En envoyant de faibles pulsations de lumière via le “guide à ondes”, les scientifiques ont réussi à écrire des données sur la puce et à les lire. En envoyant plusieurs longueurs d’onde de lumière en même temps à travers le guide à ondes - la lumière se diffusant partout en même temps -, les chercheurs ont même réussi à écrire et à lire des données simultanément. Selon Harish Bhaskaran, ces puces photoniques "pourraient être cent fois plus rapides que nos meilleurs microprocesseurs actuels…"
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon le dernier rapport des Nations unies, le réchauffement climatique serait responsable de plus de 600 000 morts depuis 20 ans. La majorité des victimes se trouvent dans les pays pauvres. Cette étude précise que 90 % des victimes vivaient dans des pays dits du sud, au sens large du terme puisqu'on y trouve par exemple la Chine, nation la plus touchée. Viennent ensuite l'Inde, le Bangladesh, les Philipinnes et la Thaïlande. Au total, une moyenne de 335 catastrophes liées au climat ont été observées chaque année entre 2005 et 2014, soit une augmentation de 14 % par rapport à la période 1995-2004 et près du double que pendant la période 1985 et 1995.
En Afrique, ce sont le Kenya et l'Ethiopie qui payent le plus lourd tribut aux catastrophes climatiques. L'étude détaille aussi avec précision le nombre de catastrophes par catégorie, rendant le tableau encore plus saisissant. En première place, les inondations meurtrières, il y en a eu 3 062 en 20 ans, responsables de 157 000 décès.
Les tempêtes, ensuite, avec plus de 240 000 morts. Enfin, les épisodes de températures extrêmes ont fait 165 000 victimes. Outre les pertes humaines, l'ONU souligne également l'impact économique de ces différentes catastrophes. Plus de 2 700 milliards de dollars depuis 1995, soit en moyenne 135 milliards de dollars par an…
Pour limiter cette hausse à +2°C, il faudrait ne plus émettre dans l'atmosphère que 42 gigatonnes (Gt) équivalent CO2 en 2030, contre 52,7 Gt aujourd'hui. Si rien n'était entrepris, on serait à 60 Gt en 2030. Mais, même si tous les pays tiennent leurs promesses, 54 Gt seront encore émises en 2030, soit 12 de trop. Les deux tiers du chemin restent donc à parcourir.
Article rédigé par Georges Simmonds pour RT Flash
ONU
|
|
|
|
|
|
|
|
Selon le dernier rapport de l'Organisation météorologique mondiale, la température moyenne à la surface du globe en 2015 "devrait être la plus élevée jamais constatée et franchira sans doute le seuil, aussi symbolique que significatif, que constitue un réchauffement de 1 degré Celsius par rapport à l'époque préindustrielle". Le phénomène El Niño pourrait, lui, être particulièrement puissant.
D'après l'estimation préliminaire de l'OMM, "la température moyenne en surface pour les dix premiers mois de l'année présente une anomalie positive de quelque 0,73°C par rapport à la normale calculée pour la période 1961-1990 (14,0°C), soit environ 1°C de plus que durant les années 1880-1899 de l'ère préindustrielle". Cette tendance "laisse supposer que cette année sera très probablement la plus chaude jamais constatée". Effectivement, si les mois de novembre et décembre ne sont pas particulièrement froids, le précédent record de 2014 (+0,6°C par rapport à la moyenne 1961-1990) devrait tomber.
Par ailleurs, l'OMM précise que les années 2011 à 2015 représentent la période de cinq ans la plus chaude jamais enregistrée, ce qui "révèle une tendance à plus long terme".
Quant aux masses océaniques, l'OMM annonce que les températures de surface de la mer "atteignent des niveaux sans précédent depuis qu'il existe des observations".
Article rédigé par Georges Simmonds pour RT Flash
World Meteorological Organization
|
|
|
|
|
|
|
|
Algues unicellulaires, les coccolithophores sont couverts de petites plaques calcaires, les coccolithes, constituant un exosquelette les protégeant du zooplancton, plancton animal. Organismes calcifiants, ils sont vulnérables face à la montée du CO2 et à l’acidification qui en résulte : depuis l’ère préindustrielle, le pH moyen des océans est passé de 8,2 à 8,1, et pourrait descendre à 7,8 d’ici 2100.
Pourtant, selon une étude dirigée par Sara Rivero-Calle, de l’Université Johns Hopkins de Baltimore (Maryland), c'est l’effet inverse qui se produit : elle révèle au contraire que les coccolithophores pullulent lorsque la température et le CO2 s’élèvent, comme s’ils faisaient fi de l’acidification ambiante. Selon ces recherches, la hausse du CO2, source de carbone, favoriserait la croissance de ces algues. A l’inverse, d’autres types de phytoplancton, dont les diatomées et les dinoflagellés, ont connu une forte baisse depuis 1965.
Parmi les hypothèses expliquant cette apparente divergence, il est possible que certains coccolithophores puissent se passer de leurs coccolithes. D’autre part, certaines espèces pourraient être remplacées par d’autres dont la calcification est moins affectée par l’acidification.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Leeds travaillent sur un projet de 5 millions d'euros dont l’ambition est d’aboutir à l'auto-réparation des villes. Le but est de développer des petits robots capables d'identifier tout problème lié aux infrastructures, aux canalisations, routes ou encore éclairages municipaux, et de les réparer avec un impact environnemental minimal et sans troubler le fonctionnement de la ville ou déranger les citoyens.
Le professeur Phil Purnell de l'École de génie civile dirige l'équipe de recherche. Il travaille en collaboration avec le Conseil de la ville de Leeds et le UK Collaboratorium for Research in Infrastructure and Cities, pour s’assurer de pouvoir tester en toute sécurité les robots. Grâce à ces derniers, fini les engins de construction qui bloquent les routes et perturbent le trafic. Le docteur Rob Richardson, directeur de la National Facility for Innovative Robotic Systems à l’Université de Leeds considère que détecter au plus tôt les faiblesses des infrastructures municipales est la clef qui permet ensuite de réaliser des réparations intelligentes, sans paralyser la ville.
Des drones seront chargés de surveiller les infrastructures urbaines pour réparer le moindre dysfonctionnement. Un autre programme a vocation à développer des drones capables d’inspecter, diagnostiquer et réparer de manière autonome les incidents liés aux routes pour prévenir les nids-de-poule et autres types de crevasses sur les voies. Enfin, les canalisations vont également avoir leurs robots, chargés de les surveiller, mesurer et retaper, tout en informant la Ville des tâches accomplies. La smart-city de demain pourra se régénérer.
Article rédigé par Georges Simmonds pour RT Flash
University of Leeds
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
le groupe pharmaceutique Sanofi-Pasteur a annoncé, le 9 décembre, avoir reçu le feu vert des autorités mexicaines pour commercialiser son vaccin "Dengvaxia"contre la dengue, une maladie tropicale transmise par les moustiques. Il n’existait jusque-là aucun moyen de prévenir cette infection virale, dont les symptômes s’apparentent à ceux de la grippe (fièvre, douleurs articulaires), mais qui existe aussi sous une forme plus sévère. « C’est un jour historique. Par son impact sur la santé publique, Dengvaxia est une innovation comparable au vaccin contre la rage ou la polio », se félicite Olivier Charmeil, qui dirige Sanofi-Pasteur, la division vaccins du laboratoire.
Sanofi a dépensé près de 1,3 milliard d’euros dans le développement de ce vaccin et investi 300 millions d’euros dans la construction d’une usine à Neuville-sur-Saône (Rhône). Sa capacité annuelle est de 100 millions de doses (de quoi vacciner 33 millions de personnes). « Nous estimons qu’en vaccinant 20 % de la population, on peut réduire de 50 % le nombre de cas », souligne Sanofi.
Dengvaxia immunise contre les quatre souches du virus, mais avec un niveau de protection variable. Son efficacité est plus importante chez les enfants de 9 à 16 ans (deux tiers sont immunisés) et chez les individus qui ont déjà été infectés. Le vaccin semble en revanche contre-productif chez les enfants plus jeunes sans que les chercheurs sachent pourquoi.
Selon l’Organisation mondiale de la santé, la progression de la dengue a été "spectaculaire" au cours des dernières décennies. Elle estime à 390 millions le nombre de cas par an. Moins dangereuse que le paludisme, une autre maladie transmise par les moustiques, la dengue est peu mortelle (moins de 1 % des cas) si les patients sont correctement pris en charge.
Article rédigé par Georges Simmonds pour RT Flash
Sanofi Pasteur
|
|
|
|
|
|
|
|
Des chercheurs de l’école de médecine de l’Université de Washington à Saint-Louis et de l’Université de l’Illinois à Urbana-Champaign ont développé un petit appareil électronique, souple et implantable dans le corps, qui pourrait permettre d'atténuer ou de supprimer certaines douleurs rebelles. Le dispositif a été injecté dans une souris et utilisé pour manipuler les circuits neurologiques connus pour leur implication dans la création de la perception de la douleur.
La technique consiste à modifier l’ADN des souris de manière à ce qu'elles produisent certaines protéines sensibles à la lumière dans certaines de leurs cellules nerveuses. L’idée est que ces cellules nerveuses puissent être stimulées ou au contraire bloquées par la lumière. Il s'agit par cette approche de combattre la souffrance qui ne répond plus à aucune autre thérapie classique en arrêtant les signaux de douleur avant qu’ils n’atteignent le cerveau. Les chercheurs utilisent l’optogénétique, une méthode qui, depuis une dizaine d’années, associe l’optique à la génétique et qui permet de mieux connaître les réseaux de neurones.
Grâce à leur caractère souple et extensible, les implants peuvent être laissés longtemps dans le corps sans léser les tissus ou altérer les fonctions moteurs. Les scientifiques doivent cependant encore trouver le moyen de faire que les cellules nerveuses humaines réagissent à la lumière.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Les troubles du spectre autistique (TSA) désignent un ensemble hétérogène de pathologies du cerveau qui affectent les relations sociales et la communication. Ils se manifestent aussi par des comportements inhabituels (répétitifs, notamment) et le traitement anormal de l'information sensorielle chez les personnes qui en sont atteintes.
Les TSA, qui englobent l'autisme, le syndrome d'Asperger ou le trouble envahissant du développement - non spécifié (TED‑ns), toucheraient plus de 3 millions de personnes dans l'Union européenne dont environ 650 000 en France. Un enfant sur 68 serait ainsi atteint de TSA, selon des estimations récentes du Centre pour le contrôle des maladies aux États-Unis.
À l'aide de l'Imagerie par résonance magnétique (IRM), une équipe de chercheurs, dirigée par Andréas Frick de l'Inserm, a observé, chez une souris affectée par le syndrome de l'X fragile (un trouble neurodéveloppemental étroitement lié à l'autisme), une altération des connexions et de la communication entre différentes zones du cerveau. Ces nouvelles données pourraient expliquer certains symptômes des troubles du spectre autistique comme l'hypersensibilité aux informations sensorielles ou les altérations de la perception visuelle.
Ces résultats vont dans le sens de l'hypothèse selon laquelle le cerveau des personnes atteintes de TSA serait "hyper-connecté" à un niveau local, mais qu'à une échelle globale, les différentes zones du cortex seraient au contraire "déconnectées" les unes des autres. Or, dans le cerveau, les connexions locales traitent une information spécifique (certains aspects de la vision, par exemple) alors que les connexions "longue distance" traitent des informations plus complexes (par exemple, la combinaison de différentes informations sensorielles). Ce dernier type de connexion est nécessaire pour une perception et une compréhension fine de l'environnement extérieur.
Article rédigé par Georges Simmonds pour RT Flash
Science Advances
|
|
|
|
|
|
|
|
Développer une intelligence artificielle qui puisse rivaliser avec le cerveau humain est un défi immense, si l'on considère nos milliards de neurones, de connexions et de synapses. Cette fois, c’est une équipe chinoise de l’Université de Tsinghua (Beijing) qui tente pourtant de développer sa synapse artificielle.
Au cours de ces dernières années, des tentatives de développement de synapses biologiques ont vu le jour, basées sur des circuits électroniques (de type CMOS : Complementary metal oxide semi-conductor), des mémoires non volatiles "encapsulées" sur des micropuces hyperperformantes (resistive switching memories) et des transistors à effet de champ (Field Effect Transistor).
Cependant, une synapse artificielle avec plasticité intégrée n'avait jamais encore été réalisée en tant que telle. Les chercheurs chinois affirment avoir réalisé une synapse dynamique, à base d’oxyde d'aluminium et de graphène et dont la plasticité serait "adaptable". Ils ongt utilisé les propriétés bipolaire du graphène, pour reproduire les 2 fonctions, excitatrice et inhibitrice de la synapse et la densité du graphène pour réguler la plasticité synaptique. Cette synapse synthétique qui pourrait ainsi reproduire une forme de plasticité, marque une étape vers l'intelligence artificielle…
Article rédigé par Georges Simmonds pour RT Flash
Nano Letters
|
|
|
|
|
|
|
|
Elue "avancée biologique majeure" de l'année 2013 par la revue "Science", l’immunothérapie, qui consiste à traiter le cancer en utilisant notre propre système de défense, ne cesse de confirmer son efficacité et d'étendre son champ d'application.
Actuellement, les différentes stratégies d’immunothérapie font l’objet de nombreux essais partout dans le monde dans diverses localisations tumorales : sein, ORL, côlon, ovaires, glandes surrénales, sarcomes, mélanome, poumon, rein, vessie…
"A l’Institut Curie, pas moins de 10 essais cliniques d’immunothérapie sont actuellement en cours, dont un tout nouvel essai avec un immuno-modulateur, le pembrolizumab, pour les patientes atteintes de cancer du sein triple-négatif", observe le Docteur Delphine Loirat, médecin-chercheur, spécialiste des essais clinique en immunothérapie. Cet anticorps cible PD-1, une molécule présente à la surface des lymphocytes T, les cellules de l’immunité censées éliminer les cellules dangereuses présentes dans l’organisme.
"PD-1 se lie à une autre molécule présente à la surface des cellules tumorales, PDL-1. Cette association rend les cellules tumorales invisibles au système immunitaire", explique Delphine Loirat. En se fixant sur PD-1, le pembrolizumab empêche les cellules tumorales de passer inaperçues aux yeux du système immunitaire.
Cette molécule a montré un signal d’activité dans un essai clinique précoce pour les femmes atteintes de cancer du sein triple négatif. Par ailleurs, le pembrolizumab est actuellement en développement plus avancé pour les cancers de la tête et du cou, les cancers pulmonaires et d’autres localisations. Il est utilisé pour prendre en charge les mélanomes avancés en pratique courante.
"Dans les autres études cliniques précoces, le pembrolizumab a induit une réduction tumorale, de façon durable, chez environ 20 % des patients traités pour des cancers de la tête et du cou métastasés. Il a également entraîné une réponse immunitaire durable chez 38 % des patients traités pour des tumeurs très agressives : les mélanomes cutanés métastatiques, indique la médecin-chercheur. Un autre essai porte sur la vaccination thérapeutique, explique le Docteur Marie-Paule Sablin, oncologue médical. Il consiste donc à éduquer le système immunitaire pour qu’il reconnaisse les cellules tumorales et les considère comme dangereuses."
Article rédigé par Georges Simmonds pour RT Flash
Institut Curie
|
|
|
|
|
Un nouveau vaccin prophylactique contre la tuberculose a été testé pour la première fois chez l’homme avec succès. Ce vaccin vivant atténué de la bactérie Mycobacterium tuberculosis est aussi inoffensif et au moins aussi immunogénique que le BCG.
Dans un essai randomisé en double aveugle auprès de 36 volontaires sains de 18 à 45 ans, et n’ayant jamais reçu de vaccin contre la tuberculose, les patients ayant reçu le MTBVAC présentent une bonne réponse immunitaire et aucun n’a développé la tuberculose.
Pour les chercheurs, il s’agit d’un « événement majeur dans la recherche d’un vaccin » car la tuberculose fait son retour dans les pays occidentaux alors que le BCG est devenu totalement inefficace dans certains pays comme l’Inde.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
La photothérapie dynamique existe déjà dans le traitement du cancer : elle consiste à administrer au patient des molécules photosensibles qui ne deviennent actives que sous l'action d'une lumière à une certaine longueur d'onde. Mais de telles thérapies n'ont jamais été utilisées pour des maladies neurodégénératives comme la maladie d'Alzheimer.
La maladie d'Alzheimer se caractérise par la formation et le dépôt de protéines bêta-amyloïdes dans le cerveau du patient. Ces protéines anormalement repliées endommagent les cellules du cerveau, conduisant à la détérioration des fonctions cérébrales et à une démence. C'est pourquoi des chercheurs américains dirigés par Chan Beum Park, ont voulu savoir s'il était possible d'empêcher la formation des bêta-amyloïdes au stade précoce en utilisant la photothérapie dynamique dans un modèle animal : la drosophile, ou mouche du vinaigre.
Le principe de la technique employée était le suivant : en absorbant l'énergie de la lumière, la porphyrine, une molécule photosensible, passe à un état excité. La porphyrine revient ensuite à son état initial en relâchant de l'oxygène, ce qui empêche la formation des dépôts des bêta-amyloïdes.
Les chercheurs ont testé cette technique sur des drosophiles modèles pour la maladie d'Alzheimer. En utilisant de la lumière Led bleue et un composé organique biocompatible (les porphyrines), ils ont observé que des symptômes de cette pathologie du cerveau étaient soulagés chez la mouche. Ces travaux ouvrent donc de nouvelles pistes thérapeutiques pour traiter les maladies neurodégénératives, comme la maladie d'Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|