RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 708
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Juin 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le développement de l'Internet entraînera une création de valeur de plus de 600 milliards de dollars en 2013
Matière
Observer en temps réel la transformation des molécules
Espace
Une carte dynamique à grande échelle de l'Univers
Terre
Le pergélisol pourrait commencer à fondre massivement dès 2025
Le réchauffement climatique augmente sensiblement le risque de pénuries alimentaires mondiales
L'homme a profondément modifié le cycle global du carbone au niveau planétaire
Vivant
Découverte de deux gènes fortement impliqués dans les maladies cardiaques
Quand l'activité de notre cerveau révèle nos émotions
La neurogenèse tout au long de la vie prouvée grâce aux essais nucléaires
Mieux comprendre la schizophrènie grâce aux cellules-souches
Détecter le cancer de l’oropharynx 10 ans avant qu'il ne survienne
Le rat-taupe détient-il la clé anti-cancer ?
Les microcapteurs au service de la prévention cardiovasculaire
Le repas du matin diminue les risques de diabète
Arthrose : une thérapie cellulaire à l'essai
Edito
Protection des données personnelles : un enjeu démocratique majeur !



Depuis quelques mois, le projet de révision de la directive européenne sur la protection des données personnelles est entré dans une phase décisive. Ce nouveau texte vise à étendre et à améliorer la protection des informations numériques personnelles concernant les citoyens européens, lorsque celles-ci sont stockées dans des bases de données ou qu'elles circulent sur l’Internet.

Présenté début 2012 par la Commission européenne, ce projet vise à unifier et à renforcer au niveau européen le cadre de protection pour ce type de données. Concrètement, un guichet unique sera instauré : si un internaute britannique ou allemand est en conflit avec une entreprise située en Espagne, il ne sera plus obligé d’effectuer des démarches auprès de l’agence espagnole de protection des données et pourra saisir directement l’agence britannique ou allemande.

Mais le point central de ce projet de directive, celui qui suscite les débats les plus vifs entre états et provoque également une forte opposition de la part des États-Unis, est la modification de la règle du "consentement explicite". Cela signifie que ce texte prévoit d’inverser la logique actuelle : aujourd’hui, les grands du numérique peuvent utiliser vos données personnelles, sauf si vous vous y opposez expressément. Demain, si cette directive est adoptée, les géants du Net devront d’abord obtenir votre autorisation pour se servir des informations vous concernant.

Autre modification considérable prévue par ce texte : l’acquisition, le stockage et l’utilisation d’informations numériques par les entreprises devra s’inscrire dans un cadre strictement défini et correspondre à ses « intérêts légitimes ». Le problème est qu’une telle notion, très floue, est par nature très difficile à définir précisément et que tout dépendra de l’interprétation juridique qui sera faite de ce principe général.

Ce nouveau cadre législatif européen prévoit également le "droit à l'oubli numérique". Il s’agit de prévoir la possibilité d’effacer totalement certaines informations personnelles ne tombant pas sous le coup de la Loi, au terme d’un certain délai. Toutefois ce nouveau droit ne sera sans doute pas étendu aux informations mises en ligne volontairement sur un réseau social. Or, c'est bien ce type d'information qui risque le plus de porter un préjudice ultérieur.

Enfin, et ce point est très important, contrairement au cadre actuel, le projet européen s’appliquerait à tous les responsables de traitements, et notamment aux sous-traitants, offrant des biens ou des services à des personnes résidant dans l’Union Européenne.

La future directive prévoit que les responsabilités du sous-traitant seront clairement fixées par contrat avec le donneur d’ordres. Si le sous-traitant ne respecte pas ses obligations contractuelles, il sera considéré comme juridiquement et pénalement responsable.

Depuis un an, ce projet est examiné par le Parlement européen et il pourrait être adopté d’ici la fin de l’année et entrer en vigueur en 2016. La portée de ce texte et ses conséquences en matière économique, commerciale et financière sont considérables, ce qui explique qu’il fasse l’objet d’intenses discussions entre les états membres et qu’il subisse également une action de lobbying à un niveau d’intensité rarement atteint, de la part des États-Unis.

Il est vrai que l’entité économique mondiale à présent désignée sous le sigle de « GAFA », (Google, Apple, Facebook, Amazon), sera touchée au cœur si cette directive est adoptée dans sa forme actuelle. Le modèle économique de ces géants mondiaux du numérique repose en effet sur la fourniture de services gratuits toujours plus attractifs pour les internautes en échange de la possibilité d’utiliser les données personnelles concernant ces derniers, à des fins publicitaires et commerciales.

On comprend mieux l’enjeu économique que représentent la collecte, le contrôle et l’exploitation de ces données quand on sait que le chiffre d’affaires du commerce électronique dépasse à présent les 312 milliards de dollars en Europe, ce qui représente 38 % du chiffre d’affaires mondial du commerce en ligne.

Les États-Unis voient d’un très mauvais œil l’adoption prochaine de ce nouveau cadre réglementaire européen et s’y opposent avec vigueur. Non seulement ils ont envoyé une délégation de parlementaires américains pour essayer de convaincre leurs homologues européens que ce texte, dans sa version actuelle, allait constituer une entrave insupportable à la liberté des affaires et à l’essor du commerce en ligne, mais ils ont également actionné un lobbying extrêmement méthodique et efficace qui a conduit au dépôt de milliers d’amendements visant à réduire le plus possible le nombre et l’étendue des nouvelles contraintes envisagées par l’Union européenne.

Ce texte déchaîne également les passions au sein des états membres de l’Union et sa mouture actuelle a fait l’objet, il y a deux semaines, d’un rejet par les Ministres de la Justice de l'Union européenne qui ont considéré que ce projet était trop confus et trop pénalisant pour les petites entreprises. Justifiant ce rejet, le Ministre britannique de la justice, Chris Grayling, a souligné « nous faisons une législation pour les PME, pas seulement pour Google ».

Mais derrière ce débat législatif et juridique, qui peut sembler aride et très technique aux non-initiés, se dissimule une confrontation entre deux conceptions morales de l’économie.

La première, celle de l’Europe, considère, comme dans le cas de l’exception culturelle en matière d’audiovisuel, qu’on ne peut pas considérer les informations personnelles concernant les individus comme de simples marchandises commerciales et que chaque personne possède un droit inaliénable de regard sur les données la concernant.

La vision anglo-saxonne considère au contraire que l’exportation numérique des données personnelles est devenue l’un des principaux moteurs du commerce mondial et de la croissance économique et, qu’à ce titre, elle ne doit pas faire l’objet, sauf exceptions, d’entraves ou de restrictions.

Or, il est vrai, et beaucoup d’états européens le reconnaissent implicitement ou non, que l’instauration d’un cadre de protection des données personnelles trop rigide au niveau européen risquerait de constituer un handicap de concurrence très pénalisant, particulièrement pour les petites entreprises. Mais l’Europe est également consciente qu’elle ne peut pas laisser les acteurs américains du numérique faire ce qu’ils veulent de ces données personnelles et les exploiter comme bon leur semble, au nom de la liberté du commerce.

En dehors de toute considération politique ou idéologique, chacun sent bien en effet qu’il y a, face au développement fulgurant des « big data » et aux progrès dans les techniques qui permettent leur exportation intelligente, une exigence démocratique et morale de contrôle et de régulation afin que chacun d’entre nous puisse garder la maîtrise des informations les plus intimes le concernant.

A ce sujet, il faut d’ailleurs souligner que, parallèlement au débat européen sur l’adoption de cette directive fondamentale concernant la protection des données personnelles, la Commission Nationale de l'Informatique et des Libertés (CNIL) a mis en demeure Google le 20 juin, de se plier au droit français, sous peine de sanctions financières.

La CNIL reproche en effet au géant numérique de ne pas prendre de mesures concrètes permettant aux utilisateurs « d’être en mesure de connaître l'utilisation qui peut être faite de leurs données et les maîtriser». Face à ces injonctions, Google souligne que sa politique de confidentialité respecte la loi européenne.

Il faut également signaler l’initiative prise il y a quelques jours par un certain nombre d’autorités de régulation des principaux pays développés pour demander à Google des éclaircissements sur le champ d’application de ses futures lunettes (voir courrier à Google).

Les états cosignataires souhaitent notamment savoir comment ces lunettes respecteront les lois sur la protection des données personnelles, quelles sont les informations que Google collectera grâce à ce nouveau produit et comment ces informations seront utilisées ?

Le  géant américain de l'Internet Google a par ailleurs été sommé, le 21 juin, par les autorités britanniques de détruire sous 35 jours des données privées collectées via son service de cartographie Street View, sous peine de poursuites judiciaires. Le Bureau de l’Information britannique, en charge de la protection des données personnelles en Grande Bretagne, a adressé à Google l'injonction de détruire plusieurs disques durs contenant ces informations récupérées sur des réseaux Wi-Fi non sécurisés.

Le site incriminé, Street View, permet d’accéder à des vues panoramiques en trois dimensions des rues mais, depuis quatre ans, des protestations de plus en plus vives s’expriment dans différents pays contre les méthodes employées par Google pour établir cette cartographie virtuelle et le géant numérique a fini par reconnaître qu’à l’occasion du quadrillage des rues par ses véhicules de prise de vue, des informations « inappropriées » et « personnelles » avaient été transmises par inadvertance sur son site.

Ces défaillances techniques ou logicielles – qui peuvent parfois entraîner de graves atteintes à la confidentialité des données personnelles - sont de plus en plus fréquentes car la complexité de gestion informatique de ces données, toujours plus nombreuses et hétérogènes, est devenue extrême, notamment sur les réseaux sociaux.

Le 21 juin, une gigantesque panne de logiciel a ainsi provoqué le partage involontaire des numéros de téléphone et des adresses courriels de six millions d'utilisateurs de Facebook, ce qui a provoqué de vives réactions des intéressés, bien que le célèbre réseau social se soit immédiatement employé à minimiser cet « incident » et ait formellement démenti une possible action malveillante...

Enfin le 25 juin, un article paru dans la revue du MIT (MIT Technology Review) soulignait, qu'en dépit de l'engagement pris en 2011 par Apple, près de la moitié (48 %) des 225 000 applications installées au cours de l'année 2012 sur un échantillon étudié  de 90 000 iPhones, ont été effectuées sans respecter le système de protection de la vie privée (ProtectMyPrivacy) équipant ces appareils et censé garantir l'anonymat des utilisateurs en empêchant leur identification.

On comprend mieux dès lors les réactions des états mais également des citoyens qui commencent à prendre très aux sérieux la question de la protection et de la confidentialité des informations personnelles et celle, connexe, de leur utilisation à des fins commerciales, sans le consentement explicite des intéressés…

Il est frappant de constater qu’en France, les internautes ont également bien pris conscience de l’enjeu majeur que représentent le respect de la confidentialité et la protection de leurs données personnelles sur les réseaux numériques. À cet égard, une récente étude réalisée par Ipsos est révélatrice : elle indique que 81 % des utilisateurs d’Internet ont des craintes quant à l’utilisation qui pourrait être faite de leurs données personnelles.

Elle révèle également que 73 % ont déjà modifié différents paramètres de sécurité sur leurs terminaux numériques et sur les réseaux sociaux auxquels ils appartiennent, de manière à mieux protéger leur anonymat. Mais cette enquête révèle surtout, et ce chiffre doit être médité par les géants du numérique, que 87 % des internautes ne sont pas disposés à permettre une utilisation de leurs données personnelles en « échange » de la gratuité des applications et services que les grands acteurs du numérique leur proposent.

Le dernier rapport de la CNIL, publié fin avril, confirme également cette montée en puissance des contentieux et recours juridiques concernant les atteintes à la vie privée et aux données personnelles. Ce rapport montre que, non seulement  le nombre total de plaintes a atteint un niveau record en 2012 (6 017) mais il révèle également que l’opposition à figurer dans un fichier numérique a augmenté de 75 % en un an et  constitue à présent le principal motif de plaintes (46 % soit 2767 plaintes pour l’année 2012).

La CNIL rappelle également que, selon la loi française de 1978, les données personnelles ne se limitent pas aux informations concernant l’état-civil mais s’étendent également aux informations permettant d’identifier un individu : photos, vidéos, codes d’accès, données biométriques, examens médicaux etc.

Depuis l’ouverture au grand public du Web, il y a maintenant presque un quart de siècle, nous avons vécu sur une grande illusion : celle d’un Internet qui serait un espace mondial totalement libre et gratuit, où n’existerait aucune des contraintes légales et morales qui s’imposent dans la « vraie » vie.

Nous n’avons pas voulu voir que la gratuité générale et absolue sur le Net était une fiction que les géants du numérique ont su parfaitement entretenir et faire prospérer, parce qu’au lieu de se rétribuer directement en exigeant un paiement des utilisateurs, ils pouvaient se rétribuer indirectement et de manière différée en exploitant d’une manière de plus en plus efficace les plus immenses gisements constitués par les données personnelles auxquelles ils avaient accès.

Mais à présent que l’Internet a conquis le monde et s’est banalisé et que, pour l’immense majorité d’entre nous, nous ne pouvons même plus concevoir l’existence sans être connecté en permanence au Web et sans pouvoir échanger des quantités inouïes d’informations multiformes, les inquiétudes et les craintes concernant le respect de la vie privée et des informations personnelles commencent à l’emporter sur l’euphorie des premiers temps et la fascination face à une rupture de civilisation majeure.

On voit bien, en dépit des immenses pressions exercées par les géants du numérique que, au moins en Europe, l’opinion publique est en train de basculer massivement en faveur de l’adoption d’un nouveau cadre réglementaire comprenant au moins trois principes fondamentaux : le consentement explicite des utilisateurs à l’utilisation des données les concernant, l’utilisation non extensive par les entreprises de ces données personnelles et enfin un droit de « prescription numérique » (le fameux droit à l’oubli) qui soit effectif.

Je suis convaincu que l’adoption et l’application de ces trois principes au niveau européen non seulement n’entraînera pas l’effondrement de l’économie numérique, comme certains acteurs voudraient nous en convaincre, mais provoquera un rééquilibrage salutaire et extrêmement bénéfique entre le pouvoir des entreprises et les droits des utilisateurs.

Je crois même que les entreprises qui seront les premières à anticiper cette évolution et à l’intégrer dans leur modèle économique et leur stratégie de développement en tireront finalement un avantage compétitif décisif sur leurs concurrents.

Économie et démocratie numériques doivent aller de pair et ne peuvent être dissociées. C’est pourquoi l’Europe a raison, sur cette question capitale, de montrer la voie et d’affirmer sa singularité et sa volonté politiques.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le développement de l'Internet entraînera une création de valeur de plus de 600 milliards de dollars en 2013
Mercredi, 26/06/2013 - 17:07

Selon une étude réalisée par Cisco, à partir de données du MIT et intitulée "l'Internet partout", le Web devrait engendrer, en 2013, 465 milliards d'euros de richesse dans le monde, soit un peu plus d'1 % du Produit Mondial Brut de la planète. L'Internet partout est défini par Cisco comme la connexion des personnes, des processus, des données et des objets.

Ce rapport souligne que le développement de l'Internet pour améliorer la productivité économique financière et commerciale pourrait entraîner une création de valeur d'environ 3 500 milliards d'euros (soit environ l'équivalent de 140 % du PIB de la France), d'ici 2025.

L'étude précise que, pour 2013, ce sont les États-Unis qui créeront le plus de valeur numérique avec 193 milliards d'euros, suivis par la Chine (59 milliards d'euros), l'Allemagne (41,5 milliards d'euros), le Japon (31 milliards d'euros), l'Australie (27 milliards d'euros) et enfin la France (32,2 milliards d'euros, soit 1,6 % de son PIB).

Il est intéressant de recouper cette étude Cisco avec la dernière étude de l'INSEE qui nous apprend que l'usage d'Internet s'est banalisé en France depuis 2007, puisque la part de Français ayant utilisé Internet est passée de 56 % à 75 %.

Cette étude révèle également qu'en 2012, 78 % des Français possédaient un accès à l'Internet depuis leur domicile, contre 54 % en 2007. On y découvre, sans surprise, que les adultes de moins de 30 ans sont 96 % à disposer d'un accès à l'Internet, contre seulement 23 % pour ceux de plus de 75 ans.

Quant au palmarès des usages, il reste dominé par l'envoi des courriels (67 %), l'accès à son compte bancaire (49 %), la recherche d'informations médicales (41 %) et enfin, l'achat en ligne (39 %).

Article rédigé par Georges Simmonds pour RT Flash

MW

INSEE

^ Haut
Matière
Matière et Energie
Observer en temps réel la transformation des molécules
Dimanche, 23/06/2013 - 19:49

Des chercheurs du Département de chimie de l’Université de Fribourg sont parvenus, en utilisant un spectromètre à électrons spécialement conçu pour la circonstance, à mesurer des données concernant la dynamique de réaction de la molécule d’acrylonitrile et à en faire une représentation en deux dimensions.

La molécule d’acrylonitrile, présente dans l’espace interstellaire, intervient dans la complexification moléculaire qui mène à la formation de molécules qui constituent les "briques" du vivant.

Lorsque se déroulent des réactions chimiques, les atomes se réorganisent et les molécules constituent de nouvelles structures. Dans ce phénomène, la façon dont les flux d'énergie interviennent joue un rôle-clé.

En effet, compte tenu des lois de la physique et notamment des principes de la mécanique quantique, les atomes ont besoin d’énergie pour franchir les obstacles, puis redescendre de l’autre côté, un peu comme un alpiniste doit d'abord faire un effort particulier pour atteindre le sommet d'une montagne, avant de redescendre dans la vallée.

L'environnement dans lequel ces atomes évoluent est appelé "surface de potentiel". L'équipe de Michael Allan est parvenue à visualiser et à modéliser les différents itinéraires possibles que les atomes peuvent emprunter, compte tenu des contraintes physiques.

Jusqu'à présent, les techniques spectroscopiques utilisées permettaient d'observer les atomes et les molécules avant et après la réaction chimique mais il restait très difficile de les observer au moment même de cette réaction.

Cette difficulté vient du fait que les techniques spectroscopiques sont conçues pour suivre le déplacement des atomes uniquement sur un plan vertical et non pas latéral.

Pour contourner cet obstacle, les chercheurs ont eu l'idée d'exploiter un phénomène physique, en l'occurrence la perte spontanée d'électrons. Concrètement, ils ont accroché un électron supplémentaire à la molécule d’acrylonitrile pour fabriquer un ion négatif. De cette façon, au cours de la réaction chimique, les ions négatifs ont perdu spontanément des électrons, laissant ainsi une "trace", indiquant l'itinéraire emprunté.

Cette technique de spectrométrie à électrons devrait permettre d'étudier une grande variété de molécules et de mieux en comprendre leur formation et leur comportement.

Article rédigé par Gaël Orbois pour RT Flash

PRL

^ Haut
Espace
Espace et Cosmologie
Une carte dynamique à grande échelle de l'Univers
Dimanche, 23/06/2013 - 19:28

Une équipe de recherche internationale, associant notamment l’Institut de physique nucléaire de Lyon (Université Claude Bernard Lyon 1 / CNRS) et le CEA-Irfu, vient d’établir une cartographie dynamique de l’Univers "proche", c’est-à-dire compris dans une "bulle" de 300 millions d'années-lumière autour de notre système solaire.

Cette représentation en trois dimensions, consultable sous la forme d'une vidéo, permet de mieux apréhender la structure singulière de notre Univers, fait de grands amas de matière séparés par de gigantesques zones de vide.

Le film de démonstration permet de situer la Terre, dans un bras spiral en périphérie de notre galaxie : La Voie Lactée. Notre galaxie fait elle-même partie d'un super-amas de 100 000 galaxies. A cette échelle, l’Univers ressemble à une mousse de bulles de savon : de très grands vides sont connectés par des filaments et des super-amas de galaxies.

Pour la première fois, un film accompagnant cette publication présente des cartes qui intègrent les mouvements des grandes structures de galaxies.

De la même manière que la tectonique des plaques permet de comprendre de quoi est fait l'intérieur de la Terre et quelles sont les forces qui s'y manifestent, les mouvements d’ensemble des galaxies permettent de mieux comprendre les structures et composantes fondamentales de l’Univers et notamment l’énergie noire et la matière noire, qui en constituent 95 %.

C'est la première fois qu'une telle cartographie en 3D de la matière totale (noire et lumineuse) est réalisée à une si grande échelle et ce travail fait apparaître une  corrélation entre les puits de matière noire et la position des galaxies, ce qui conforte le modèle standard actuel en cosmologie.

Article rédigé par Georges Simmonds pour RT Flash

CU

Video

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le pergélisol pourrait commencer à fondre massivement dès 2025
Jeudi, 27/06/2013 - 22:22

Le pergélisol (ou permafrost en anglais) est constitué d’un sol gelé en permanence et, de ce fait, imperméable. Il couvre plus de 20 % de la surface terrestre. Selon une étude réalisée par l'Université anglaise d'Oxford, ce pergélisol pourrait commencer à fondre à partir d'un réchauffement du globe de 1,5°C, un seuil qui pourrait être atteint dès 2025.

La température globale moyenne a déjà augmenté de 0,8 degré depuis le début de la Révolution industrielle, et si la tendance actuelle se poursuit, le seuil critique risque d’être atteint dans 10 à 30 ans, estime l'équipe dirigée par Gideon Henderson, de l'Université d'Oxford, en Grande-Bretagne.

Ces chercheurs ont réalisé leurs études à partir de stalagmites et de stalactites prélevées dans une grotte située à Lensk, dans la partie orientale de la  Sibérie.

En mesurant la concentration d'uranium et de plomb, les scientifiques ont pu déterminer qu'une fonte massive du pergélisol avait déjà eu lieu il y a environ 945 000 ans, puis à nouveau il y a 400 000 ans. Ils ont par ailleurs montré que ces périodes de dégel correspondaient à des époques où la température moyenne à la surface de la terre était plus élevée d'environ 1,5°C, par rapport au niveau préindustriel.

L'étude rappelle que ce pergélisol  couvre environ un quart de la surface des terres dans l'Hémisphère nord. Au niveau mondial, cette couche de sol gelé en permanence retient environ 1 700 milliards de tonnes de carbone (soit l'équivalent de 50 ans d'émissions mondiales de CO2 au niveau de 2012 ), ou encore deux fois plus que le carbone déjà présent dans l'atmosphère.

Une fonte accélérée de ce pergélisol pourrait donc avoir des effets catastrophiques sur le réchauffement climatique en augmentant de manière dramatique les émissions de CO2 dans l'atmosphère.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Science

Le réchauffement climatique augmente sensiblement le risque de pénuries alimentaires mondiales
Mercredi, 26/06/2013 - 17:29

La dernière étude de la Banque mondiale souligne que, si le rythme actuel du réchauffement climatique mondial se poursuit, la Planète pourrait connaître, dès 2040, de graves pénuries alimentaires ainsi qu'une intensification sensible des catastrophes naturelles.

Le rapport précise que "Des températures extrêmes pourraient affecter les récoltes de riz, de blé, de maïs et d'autres cultures importantes, et menacer la sécurité alimentaire des pays pauvres, entraînant un quasi doublement du nombre de personnes sous-alimentées dans certains pays africains". Selon cette étude, ce scénario-catastrophe pourrait se réaliser en moins d'une génération si le monde reste sur le même rythme d'accroissement de ses émissions de gaz à effet de serre et de réchauffement climatique.

En Afrique subsaharienne, les sécheresses et la chaleur risquent de réduire de 40 % d'ici 2030 la surface de terres agricoles cultivées en maïs et la hausse des températures risque également de réduire sensiblement les surfaces de prairies, ce qui porterait gravement atteinte à l'élevage extensif dans ces régions.

En Asie, il est à craindre que le réchauffement climatique perturbe gravement l'intensité et la régularité des cycles de mousson sur lesquels se basent l'ensemble des productions agricoles.

Un préambule de ce dérèglement a pu être observé en 2010, avec les inondations catastrophiques qui ont eu lieu au Pakistan et affecté plus de 20 millions de personnes.

Le rapport précise toutefois qu'en maintenant le réchauffement climatique sous la barre des 2°C, il est encore possible d'éviter un grand nombre des conséquences désastreuses envisagées par cette hypothèse.

Le rapport souligne également que l'élévation globale du niveau de la mer a été sensiblement plus rapide que prévu et pourrait atteindre jusqu'à 50 cm au milieu de ce siècle et dépasser un mètre vers 2100. Mais bien avant cette échéance, certaine grande mégapoles, comme Bangkok, subiront de plein fouet cette montée rapide du niveau de la mer dès 2030.

Article rédigé par Georges Simmonds pour RT Flash

World Bank

L'homme a profondément modifié le cycle global du carbone au niveau planétaire
Vendredi, 21/06/2013 - 19:31

Une étude internationale qui a notamment associé le CEA, le CNRS et l'université Paul Sabatier de Toulouse a procédé à une évaluation précise des flux d'émissions et de capture des gaz à effet de serre au niveau des rivières, estuaires et des zones côtières.

Ces recherches ont confirmé que les activités humaines ont profondément modifié les différents flux du cycle du carbone allant des écosystèmes terrestres vers les rivières et les estuaires.

Ces travaux montrent notamment qu'une part croissante du carbone émis depuis la période pré-industrielle reste séquestrée dans les sédiments du «continuum aquatique terre-mer» au lieu d’être stockée dans les écosystèmes terrestres. Le solde de ces émissions de carbone est relâchée sous forme de CO2 vers l’océan et ensuite vers l’atmosphère.

Résultat de cette évolution rapide : les écosystèmes terrestres stockent environ une gigatonne de carbone chaque année et ce carbone séquestré par ces écosystèmes migre massivement, sous l'effet de la déforestation, vers les systèmes aquatiques, avant de s'accumuler dans l'atmosphère. 

Selon ces recherches, il n'y aurait que 10 % de ce carbone qui se retrouverait finalement en haute mer, un chiffre qui devrait conduire la communauté scientifique à revoir à la fois les capacités de stockage du carbone par les écosystèmes terrestres et l'intensité des flux carbone terre-mer.

La majorité des scientifiques considère que les émissions anthropiques de CO2, principalement liée à l'utilisation massive des énergies fossiles mais également aux activités agricoles et à la déforestation,  représentent chaque année neuf gigatonnes. La moitié environ de ce carbone est piégée et stockée par les écosystèmes océaniques et terrestres.

Mais le solde excédentaire de ces émissions vient augmenter le "stock " de carbone atmosphérique, ce qui explique que la concentration de CO2 dans l'atmosphère est passée en deux siècles de 280 ppm à plus de 400 ppm, soit une augmentation de plus de 40 %.

Article rédigé par Georges Simmonds pour RT Flash

NATURE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte de deux gènes fortement impliqués dans les maladies cardiaques
Jeudi, 27/06/2013 - 22:38

Des chercheurs anglais de l’Université de Leicester ont découvert, pour la première fois, plusieurs facteurs génétiques puissants qui déterminent le risque de maladie cardiaque.

Ces deux gènes ont été identifiés chez les hommes qui portent un type particulier de chromosome Y et ils augmentent le risque de maladies cardiaques de 50 %.

C’est la première fois que des gènes sont associés au risque de maladie coronarienne. Cette association est constatée chez les hommes porteurs du chromosome Y de l’halogroupe I, un halogroupe majoritairement présent en Europe occidentale.

Ces chercheurs ont passé au crible les gènes de près de 2000 hommes appartenant à quatre populations européennes. Cette vaste analyse génétique comparative a permis de montrer que les hommes de l’halogroupe I présentent une baisse du nombre de copies de deux gènes du chromosome Y.

Or ces gènes spécifiques (les gènes UTY et PRKY) sont fortement impliqués dans la production de certains types de globules blancs qui se mobilisent à la fois contre les infections et l’athérosclérose.

Cette avancée majeure dans la connaissance du rôle du chromosome Y humain en matière de prédisposition aux maladies cardiovasculaires et du rôle de régulation des gènes UTY et PRKY pourrait déboucher sur une prévention personnalisée et une détection précoce des maladies cardio-vasculaires.

Article rédigé par Georges Simmonds pour RT Flash

ATVB

Quand l'activité de notre cerveau révèle nos émotions
Jeudi, 27/06/2013 - 22:32

Des chercheurs de l’Université Carnegie Mellon, dirigés par Marcel Just and Tom M. Mitchell, ont montré qu'il était possible, en combinant l'utilisation de l'IRM fonctionnelle et d'un programme informatique, d'identifier certains types d'émotions ressenties par une personne. Ce "décodage "émotionnel " restait jusqu'à présent assez aléatoire en l'absence de techniques fiables et en raison de la nature inconsciente d'un grand nombre d'émotions. Les scientifiques américains ont conçu un modèle informatique qui parvient à établir des correspondances assez précises entre les types de pensées observées par imagerie et des objets concrets.

Selon cette étude, cette technique permettrait d’identifier et de classer les émotions provoquées par une large catégorie de stimulus, qu'il s'agisse d'un objet physique, d'un concept ou encore d'un homme politique.

Ces recherches ont permis de montrer qu'il existerait des structures d’activation cérébrale relativement permanentes d’une personne à l'autre. Les scientifiques ont pu produire chez les sujets de cette expérience différents types d'états émotionnels en les confrontant à des acteurs de théâtre qui ont joué ces différents sentiments.

Pendant que les sujets assistaient à ces scènes de théâtre, leur activité cérébrale était observée par IRM. Les acteurs ont successivement mimé neuf émotions fondamentales, la colère, le dégoût, l’envie, la peur, le bonheur, la luxure, l’orgueil, la tristesse et la honte.

Grâce à leur modèle informatique, les chercheurs ont ensuite pu identifier, avec un taux d'exactitude de 84 %, le type d'émotion ressentie par les participants.

Fait remarquable, quand ce modèle informatique est utilisé sur un nouvel individu, en l’exposant à un stimulus émotionnel, il atteint tout de même une précision de 71 %, ce qui montre qu'en dépit des personnalités différentes, les structures d'activation cérébrale restent relativement stables et similaires.

L'étude souligne enfin que chaque émotion produit une "signature" en terme d'activité fonctionnelle, qui ne se limite pas à une zone particulière mais semble s'étendre à l'ensemble du cerveau.

Article rédigé par Georges Simmonds pour RT Flash

PLOS

La neurogenèse tout au long de la vie prouvée grâce aux essais nucléaires
Mercredi, 26/06/2013 - 17:19

Une équipe de recherche internationale, basée à l’Institut Karolinska de Stockholm et dirigée par Jonas Frisén, a réussi à prouver que les neurones de l’hippocampe cérébral humain se renouvellent durant toute la vie.

Cette démonstration a pu être faite en mesurant, dans les cerveaux de 55 personnes décédées en Suède, âgées de 19 à 92 ans, le rapport entre le carbone 12 (le carbone normal) et le carbone 14 (son isotope radioactif).

Les chercheurs savaient déjà qu'il existait une neurogenèse limitée à l'hippocampe chez les mammifères. Mais la question de l'intensité et de la durée de la neurogenèse chez l'homme restait en suspens.

Grâce à cette méthode rigoureuse de comparaison des ratio de carbone, les chercheurs ont non seulement montré que les neurones de l'hippocampe se renouvelaient mais ils ont également réussi à évaluer l'intensité de ce processus.

« Nous avons exploité la situation créée par les centaines d'essais nucléaires jusqu'en 1963. Ces essais ont relâché une grande quantité de carbone 14 dans l'atmosphère et ce carbone s'est alors diffusé dans l'ensemble de la chaîne alimentaire. Ce stock de carbone a ensuite commencé à décroître à un rythme que nous connaissons très précisément, ce qui nous a permis d'en déduire à quel moment et à quelle vitesse se sont créés ces nouveaux neurones dans l'hippocampe », précise Samuel Bernard, bio-mathématicien à l'Institut Camille Jordan de l'Université Lyon 1 et co-auteur de cette étude.

Ces mesures ont finalement pu montrer que le taux de renouvellement des neurones de l'hippocampe chez l'homme était d'environ 1,8 % par an, ce qui correspond à la production moyenne de 1 400 nouveaux neurones par jour dans l'hippocampe d'un adulte. Ces recherches ont également révélé, de manière surprenante, que ce taux de renouvellement restait constant tout le long de la vie.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Mieux comprendre la schizophrènie grâce aux cellules-souches
Mardi, 25/06/2013 - 14:50

À partir de cellules de cheveux issus de trois patients, des chercheurs de l’Inserm, dirigés par Daniel Aberdam, en collaboration avec une équipe israélienne du Technion, ont réussi à mettre au point un modèle original de cellules-souches iPS pour mieux comprendre la schizophrénie.

En remontant ainsi du cheveu à la cellule-souche, il devient possible d'identifier les particularités cellulaires spécifiques aux patients schizophrènes. Ces travaux ont par ailleurs permis de montrer, en retransformant ces cellules iPS en neurones, un défaut de maturation et de connexion entre les neurones, qui semble associé à une altération du fonctionnement des mitochocondries.

L'idée de départ des chercheurs consistait à transformer des cellules de cheveux de patients en cellules pluripotentes induites ou iPSC (c’est-à-dire des cellules immatures capables de redonner n’importe quelle sorte de cellules de l’organisme en culture), puis à les différencier en neurones.

Les cellules de cheveux étant issues de l'ectoderme, comme les neurones du cerveau, les scientifiques espéraient que les altérations qui se seraient produites au cours de la neurogenèse seraient conservées. Ils ont donc commencé par reprogrammer les cellules prélevées en souches pluripotentes induites.

Dans un deuxième temps, les chercheurs ont programmé ces cellules afin qu'elle deviennent des neurones dopaminergiques spécialisés dans la transmission des informations.

C'est alors que les chercheurs ont pu constater que les neurones dopaminergiques ainsi obtenus présentaient des altérations majeures empêchant leur différenciation. En outre, ces recherches ont montré que la sensibilité des mitochondries à la dopamine est perturbée chez les patients, ce qui entraîne une fonction respiratoire altérée des neurones dopaminergiques et glutaminergiques.

Ce modèle cellulaire original pourrait donc permettre de mieux comprendre les bases neurobiologiques complexes de la schizophrénie et de développer de nouvelles molécules thérapeutiques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Détecter le cancer de l’oropharynx 10 ans avant qu'il ne survienne
Mardi, 25/06/2013 - 14:42

Selon l'Organisation Mondiale de la Santé, un cancer de l’oropharynx sur trois serait provoqué par une infection due à un papillomavirus humain (HPV).

Selon des recherches qui viennent d'être publiées par le Centre international de recherche contre le cancer de Lyon (CIRC), un dépistage précoce des anticorps anti-HPV 16 dans le sang pourrait permettre de détecter la présence de la maladie de nombreuses années avant les premiers signes cliniques.

L’oropharynx est la région anatomique de la gorge qui comprend les amygdales, le voile du palais, l’arrière de la langue et de la gorge. On connaît déjà un certain nombre de causes associées à ce type de cancer : tabagisme et consommation excessive d'alcool notamment.

Mais selon ces recherches, menées à partir de la vaste étude EPIC qui concerne 500 000 Européens dans 10 pays, un tiers des patients présenterait des anticorps anti-HPV 16 E6 dans le sang plus de 10 ans avant le diagnostic de la maladie !

"Compte tenu de l'augmentation sensible de l'incidence de ce type de cancer, cette découverte est importante", a déclaré le Docteur Christopher Wild, Directeur du CIRC qui ajoute "si l'existence de ces marqueurs et confirmée, nous disposerons d'un outil précieux pour mettre en place un dépistage précoce de ce cancer, ce qui permettra d'en améliorer très sensiblement les chances de guérison".

Article rédigé par Georges Simmonds pour RT Flash

IARC

Le rat-taupe détient-il la clé anti-cancer ?
Mardi, 25/06/2013 - 14:32

Décidément, le rat taupe nu (Heterocephalus glaber), un petit rongeur vivant en Afrique de l'Est, n'en finit pas de passionner chercheurs et biologistes. Ce petit animal, au physique pour le moins particulier, possède plusieurs caractéristiques assez extraordinaires. Il semble insensible à la douleur, il ne développe jamais de cancer et vit plus de 30 ans en captivité, c'est-à-dire 10 fois plus qu'un rat de laboratoire.

Des travaux réalisés par une équipe de recherche de l'Université de Rochester (New York), dirigée par Andrei Seluanov et Vera Gorbunova, viennent de montrer que ce petit rat produisait une forte concentration d'acide hyaluronique, une sécrétion cellulaire sucrée utilisée notamment pour le traitement des rides, qui pourrait expliquer le fait qu'il ne développe jamais de cancer.

Selon ces travaux, cet acide jouerait un rôle clé en activant le gène P 16, un gène régulateur de tumeurs. Dans une précédente étude, ces chercheurs avaient déjà montré que le gène p16 chez les rats-taupes bloquent la dissémination des cellules tumorales. Dans la présente étude, ils ont identifié l'acide hyaluronique comme étant la substance qui active la réponse anti-cancer du gène p16.

En principe, cet acide est produit par les fibroblastes qui forment une matrice extracellulaire conférant aux tissus leur forme et leur élasticité. Le rat taupe semble produire d'importantes quantités de cet acide, ce qui provoquerait la formation de "micro cages" cellulaires qui rendrait impossible le développement d'un cancer. Les chercheurs ont d'ailleurs montré qu'en bloquant la production de cet acide par les fibroblastes, le rat taupe peut alors développer un cancer.

Toutefois, si ce mécanisme semble jouer un rôle important dans la protection étonnante dont bénéficie cet animal contre le cancer, il n'est pas certain que d'autres mécanismes encore inconnus ne soient pas également à l'œuvre pour protéger ce petit rat de cette maladie tant redoutée.

Cette équipe de recherche va donc poursuivre ses travaux et essayer, en recourant au génie génétique, de transférer aux souris cette protection naturelle contre les tumeurs, en leur permettant de produire ces longues chaînes d'acide hyaluronique.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Les microcapteurs au service de la prévention cardiovasculaire
Dimanche, 23/06/2013 - 21:07

Peu de gens le savent mais l'hypertension artérielle entraîne chaque année plus de 9, 5 millions de décès au niveau mondial et constitue de ce fait la première cause de mortalité planétaire, devant le tabagisme, la sédentarité et l'obésité.

Pourtant, en dépit de ces chiffres, moins d'un patient sur deux mesure régulièrement sa pression artérielle et un milliard d'hypertendus dans le monde ne contrôlent pas régulièrement leur tension. Les raisons de cette négligence, dont les conséquences médicales sont considérables, sont connues : beaucoup de patients considèrent comme fastidieux la surveillance régulière de leur tension, surtout quand celle-ci se fait à l'aide d'un brassard qui se déclenche automatiquement tous les quarts d'heure et comprime le bras.

Pour surmonter cet obstacle, la société STBL Medical Research AG a développé un dispositif de la taille d'une grosse montre qui enregistre la pression artérielle en permanence à l'aide de plusieurs microcapteurs qui mesurent simultanément la pression de contact, le pouls et le flux sanguin à la surface de la peau au niveau du poignet.

Mais la grande innovation de cet appareil réside dans l'utilisation d'un capteur intégrant des fibres piézorésistives, capables de mesurer en temps réel et très précisément la pression de contact de l'appareil sur la peau et d'éviter ainsi des erreurs de mesure provoquées par un glissement de l'appareil ou une tension musculaire. Cette technique permet d'accroître la précision de la mesure de 70 % par rapport aux autres systèmes couramment utilisés.

Avec un tel appareil, qui présente en outre l'avantage d'être beaucoup moins coûteux à réaliser sur les systèmes actuels, il serait possible de mettre en place à grande échelle une prévention beaucoup plus efficace des accidents cardiaques ou vasculaires cérébraux, dont la plupart sont précédés par une onde de pression accrue, détectable et identifiable par l'appareil.

Article rédigé par Georges Simmonds pour RT Flash

Empa

Le repas du matin diminue les risques de diabète
Vendredi, 21/06/2013 - 19:18

Des chercheurs de l'Université américaine du Colorado , dirigée par Elizabeth Thomas, viennent de montrer que les femmes présentant un surpoids qui sautent le petit déjeuner augmentent sensiblement leur résistance à l'insuline.

Or cette résistance, lorsqu'elle devient chronique est un facteur majeur de risque de diabète. Ces travaux montrent donc que le fait de sauter régulièrement le petit déjeuner augmente sensiblement le risque de diabète de type 2.

Ces recherches montrent également, de façon plus étonnante, qu'une résistance forte à l'insuline s'installe au bout de seulement quelques jours sans petit déjeuner. Or, on sait qu'une résistance à l'insuline va entraîner une rapide perturbation du cycle du glucose.

Selon cette étude, cette réponse métabolique pourrait constituer un nouveau facteur à prendre en compte dans la prévention d’une résistance chronique à l’insuline qui ouvre la voie au diabète.

Article rédigé par Georges Simmons pour RT Flash

EUREKALERT

Arthrose : une thérapie cellulaire à l'essai
Vendredi, 21/06/2013 - 18:49

Des chercheurs de l'institut de biologie et de génétique moléculaire de l'Université espagnole de Valladolid ont développé une thérapie cellulaire à base de cellules souches pour traiter des patients atteints d'arthrose résistante du genou.

Les premiers essais montrent que ce nouveau traitement pourrait permettre d'améliorer la qualité de vie des malades pour lesquels les traitements standards ne donnent pas de résultats suffisants.

L'arthrose est une pathologie qui affecte les articulations et détruit progressivement le cartilage, ce qui finit par altérer gravement la qualité de vie des patients pour lesquels il devient très difficile d'accomplir les gestes simples de la vie quotidienne. 

Dans cette étude, les chercheurs ont utilisé des cellules mésenchymales provenant de la moelle osseuse des patients traités, ce qui limite considérablement les risques de rejets.

Après avoir cultivé pendant plusieurs semaines ces cellules, les chercheurs les ont réinjectées dans les articulations endommagées. Douze mois après le début de ces essais, les médecins ont constaté une amélioration sensible de la qualité du cartilage chez 11 des 12 patients et ont estimé à 70 % l'efficacité thérapeutique de ce nouveau traitement.

La même équipe espagnole avait déjà utilisé cette voie de la thérapie cellulaire il y a deux ans pour le traitement des lombalgies dues à une détérioration des disques séparant les vertèbres.

Cet article a été rédigé par Georges Simmonds pour RT Flash

NCBI

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top