RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 707
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Juin 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet : couvrir le monde entier grâce à un réseau de ballons stratosphériques !
Un système de télélocalisation reposant sur la reconnaissance faciale
Un système de télélocalisation reposant sur la reconnaissance faciale
Avenir
Des nanotraceurs pour lutter contre la contrefaçon
Un robot-chat pour aider les sauveteurs
Un superordinateur hybride pour simuler le fonctionnement du cerveau humain
Espace
La gravitation obéit-elle encore à la loi de Newton à l'échelle microscopique ?
Terre
Grands fonds océaniques : une vie foisonnante!
Énergie nucléaire contre énergies fossiles : combien de morts respectifs au niveau mondial ?
Le réchauffement océanique serait le principal responsable de la fin de l'Antarctique
Vivant
Dyslexie : une possible base génétique
Des avatars pour soigner la schizophrénie
La dépression chronique augmenterait le risque de démence
Pollution et autisme : un lien possible
Utilisation des pesticides : des effets sur la santé humaine et sur la biodiversité
Bloquer le cancer à la source : un rêve qui pourrait devenir réalité
Le fœtus est capable d'exprimer des émotions sur son visage
Obésité et troubles compulsifs : une base neurobiologique commune?
Le réchauffement climatique menace un nombre croissant d'espèces !
Hygiène des mains : peut mieux faire!
Le génome du phytoplancton décrypté
La spectrométrie de masse révolutionne la détection des bactéries
Le diabète altère le système immunitaire
Vers un vaccin contre la tourista
La cour suprême américaine refuse la brevetabilité de l'ADN
Faire 5000 pas par jour pour avoir un cœur en pleine forme !
Vaccins : le patch pourrait remplacer la seringue d'ici 2020
Le cannabis est nocif pour le cerveau… et le cœur
Vers un dépistage sanguin simple et fiable de la maladie d'Alzheimer
Vers une prévention alimentaire de la schizophrénie ?
Le cancer de la prostate n'aime pas l'huile d'olive !
Cancer du sein : l'imagerie PET devient un instrument d'évaluation du traitement
Femmes hypertendues : une carence en vitamine D ?
Homme
La population mondiale pourrait frôler les 11 milliards d'habitants en 2100
Edito
Jusqu’où pourra-t-on manipuler le cerveau humain ?



En seulement quelques années, la connaissance neurobiologique et neurochimique de la structure et du fonctionnement de notre cerveau a fait de tels progrès que des scénarios qui auraient relevés, il y a à peine 10 ans, de la science-fiction  sont aujourd’hui en train de se réaliser, sans que le grand public n’ait encore pleinement conscience des bouleversements médicaux mais également sociaux, politiques, juridiques et éthiques qui en résultent.

Si nous avons tous pu nous émerveiller devant les dispositifs d’interface et de commandes cérébrales qui fleurissent depuis quelques années dans de nombreux laboratoires et qui permettent à des personnes lourdement handicapées de commander directement par la pensée des ordinateurs ou des prothèses robotisées, nous devons toutefois nous interroger sur d’autres aspects de ces fulgurantes avancées scientifiques qui présentent un risque tout à fait réel de manipulation et d’asservissement de l’être humain.

En juin 2011, une étude réalisée par des chercheurs américains des Universités de Caroline du Sud et de Californie avait fait grand bruit. Ces scientifiques avaient en effet réussi à mettre au point un implant cérébral utilisé sur des rats de laboratoire qui a permis de rétablir des souvenirs perdus (Voir IOPSCIENCE)

Ces scientifiques, dirigée par Sam Deadwyler, avaient en outre montré que si l'implant était utilisé sur un rat n’ayant pas de problème de mémoire, le dispositif était capable de renforcer ou d’améliorer leur capacité de mémorisation.

En septembre 2011, une nouvelle étape est franchie quand des chercheurs japonais, dirigés par Shinji Nishimoto, parviennent, à l’aide un scanner et d'un ordinateur, à décrypter des signaux cérébraux et à retrouver les images d'un film visionné par trois sujets. (Voir CELL )

En janvier 2012, une équipe de recherche américaine de l'Université de Berkeley, dirigée par Brian Pasley, va encore plus loin dans le contrôle du cerveau humain  en décodant des mots, pensés par les participants à une étude.

En plaçant des électrodes  à la surface du lobe temporal supérieur de 15 sujets, ces chercheurs ont pu enregistrer leur activité neuronale pendant qu’ils écoutaient des mots et phrases pré-enregistrés. Les scientifiques ont ensuite réussi à retrouver ces mots en analysant les ondes cérébrales de ces sujets à l’aide d’un logiciel spécifique (Voir PLOSBIOLOGY )

En septembre 2012, une autre équipe de recherches américaine a réussi à « greffer » des souvenirs artificiels à des portions de cerveau prélevées sur l’encéphale de rongeurs ( Voir NATURE )

Dirigés par Ben W. Strowbridge et Robert A. Hyde, ces scientifiques de la Case Western Reserve University School of Medicine de Cleveland ( Ohio), ont réussi pour la première fois à stocker des souvenirs artificiels à court terme dans l’hippocampe de plusieurs rats.

Les chercheurs ont pu montrer ensuite que les circuits neuronaux impliqués dans ce processus étaient capables de mémoriser l’information ainsi créée pendant plus de 10 secondes.

Ces travaux ont également pu montrer qu’un type particulier de cellules cérébrales, les "cellules granules semilunaires", jouaient un rôle-clé dans ce type de mémorisation.

Bien entendu, ces recherches présentent un grand intérêt sur le plan de la connaissance fondamentale du cerveau mais également en matière thérapeutique, pour essayer de proposer des traitements plus efficaces aux patients souffrant de graves troubles de la mémoire provoqués par des maladies neurodégénératives, comme la maladie d’Alzheimer.

Enfin, il y a quelques semaines, une autre expérience fascinante a été présentée par des chercheurs néerlandais de l’université d’Utrecht. (Voir EUROJNLOFPSYCHOTRAUMATOL ).

Ces scientifiques ont travaillé sur un contingent de soldats néerlandais qui ont rempli différentes missions en Afghanistan au cours de ces cinq dernières années. La finalité initiale de ces recherches était l’étude des facteurs provoquant le «  stress post-traumatique », un état d’angoisse particulier qui s’installe chez certains militaires gravement affectés par les situations violentes qu’ils ont dû vivre sur le terrain des opérations militaires.

Dans le cadre de ce travail, les 200 soldats qui avaient fait l’objet d’un premier entretien avant leur départ en mission, ont été soumis  à un "débriefing" quelques semaines après leur retour.

Officiellement, cet entretien était simplement censé permettre l’évaluation du niveau de stress ressenti par ces militaires. Mais en fait, tout au long de l’entretien, les chercheurs ont savamment distillé de fausses informations se rapportant à des événements qui n’avaient pas eu lieu mais qui auraient tout à fait pu se produire dans ce contexte de guerre. Ce « faux souvenir »  faisait mention d’une attaque terroriste du camp où se trouvaient basés ces militaires, la veille du Nouvel An.

Six mois après cet entretien, ces soldats ont à nouveau été convoqués au motif de passer une nouvelle évaluation de routine. C’est alors que les chercheurs ont été stupéfaits de constater que 26 % de ces militaires évoquaient spontanément cette attaque terroriste en étant manifestement persuadés qu’ils avaient bien vécu cet événement.

Cette expérience est réellement impressionnante car elle montre qu’un faux souvenir peut-être instillé de manière judicieuse au moment opportun et peut-être mémorisé à long terme et approprié pleinement par le sujet. 

Il y a quelques jours,  dans la revue du MIT, un long article, intitulé « Modifier la mémoire », a fait le point sur les dernières recherches d’une équipe de neurobiologistes américains du   Mount Sinai School of Medicine, dirigée par Daniela Schiller. ( Voir MIT )

Cette équipe de recherches affirme, en s’appuyant sur leurs derniers travaux, que les souvenirs, même les plus solides, ne sont pas fixés une fois pour toutes dans le cerveau et s’apparentent à des structures souples qui doivent être reconstruites à chaque fois qu’elles sont sollicitées. 

Selon ces recherches, une modification programmée de certains souvenirs et même une production de souvenirs artificiels pourrait constituer une nouvelle voie thérapeutique très prometteuse pour prendre en charge de lourdes pathologies psychiques ou certains troubles plus communs mais néanmoins invalidants.

Ces chercheurs ont développé une théorie neurobiologique selon laquelle il est possible de modifier le contenu et l’impact émotionnel d’un souvenir en y ajoutant de manière soigneusement coordonnée, sur le plan temporel, certaines informations qui en transforment le contexte général. 

Cette approche est  notamment développée dans un article de référence publié en janvier 2010 dans la revue Nature par  les chercheurs Daniela Schiller, Joseph E. LeDoux et Elizabeth A. Phelps. Ces scientifiques y développent leur thèse et montrent que les souvenirs, loin d’être figés,  sont en fait reconstruits et réécrits à chaque fois qu’ils sont remémorés par le sujet (voir NATURE )

Ces chercheurs montrent également qu’il est possible d’atténuer, de modifier et parfois de supprimer le souvenir d’un événement traumatisant en instillant certaines informations dans une fenêtre temporelle étroite suivant la remémoration de cet événement.

Cette théorie s’appuie sur plusieurs décennies de recherche qui ont permis de défricher le mécanisme complexe et à niveaux multiples de la mémoire et de comprendre comment s’effectue la consolidation des souvenirs au niveau des réseaux de neurones et des échanges de protéines.

Selon ce nouveau cadre théorique, plusieurs types de mémoire coexistent et correspondent à différentes fonctions reposant sur différents mécanismes biologiques et utilisant des réseaux neurones spécifiques.

Il existerait ainsi une mémoire «épisodique», centrée sur le souvenir d’événements passés particuliers, une mémoire «procédurale», concernant pour sa part la capacité de se rappeler certaines séquences motrices très utiles dans la vie quotidienne (faire du vélo, effectuer un créneau en voiture, ouvrir un nouveau dossier sur son ordinateur, etc…) et une mémoire émotionnelle, liée à des expériences qui peuvent être physiquement ou psychiquement désagréables ou traumatisantes.

Mais ce qui est remarquable, c’est que ces recherches montrent qu’il est possible de leurrer la mémoire émotionnelle, même sans recourir à l’utilisation de molécules thérapeutiques qui vont bloquer la synthèse des protéines impliquées dans ces traces mémorielles.

Thomas Agren et ses collègues de l'Université d'Uppsala en Suède ont ainsi confirmé en 2012 qu’il était possible de modifier ou d’effacer certains souvenirs en utilisant le levier de la mémoire émotionnelle. Ces modifications de la mémoire au niveau de l’amygdale ont d’ailleurs été confirmées par l’imagerie cérébrale.

Des chercheurs chinois de l’université de Pékin, dirigée par Yan-Xue Xue, ont pour leur part réussis à manipuler la mémoire de certains toxicomanes, sans utiliser la voie chimique, dans le but de réduire leur addiction à la drogue et de leur permettre un sevrage plus efficace.

Daniela Schiller souligne avec beaucoup d’arguments et de conviction que nos souvenirs ne cessent d’être transformés et réactualisés à chaque fois que nous les évoquons, un peu à la manière d’un scénario de film qui serait sans cesse réécrit.

Cette scientifique reconnue insiste également sur la nature multidimensionnelle de la mémoire, un phénomène dynamique qui ne peut en aucun cas se réduire à des échanges biochimiques et comporte une dimension affective, émotive et symbolique irréductible qui nous conduit à refabriquer en permanence nos souvenirs en les inscrivant dans notre propre histoire relationnelle.

Nous rejoignons ici la théorie de « l’inscription corporelle de l’esprit » développée depuis plus de 20 ans par le grand neurobiologiste américain Antonio Damasio.

Mais ces recherches récentes, quoiqu’enthousiasmantes et fascinantes sur le plan de la connaissance fondamentale de notre cerveau, posent également de redoutables questions morales, sociales et politiques qu’il va nous falloir affronter sous peine de risquer des dérives de grande ampleur.

On voit bien en effet quel immense pouvoir de contrôle et de manipulation vont conférer ces techniques à ceux qui les maîtriseront, qu’il s’agisse de pouvoirs politiques autoritaires, de pouvoirs économiques, de pouvoirs religieux ou de pouvoirs médiatiques.

Ces techniques sont en effet d’autant plus redoutables qu’elles pourraient produire leurs effets à grande échelle sur certains groupes, ou même sur toute une population, sans que les personnes visées puissent en avoir clairement conscience.

Or, il devient non seulement envisageable, dans un futur relativement proche, de lire dans les pensées, à l’insu d’une personne, ce qui est déjà très inquiétant mais il sera sans doute également possible de modifier en profondeur ce qui constitue notre identité, c’est-à-dire nos souvenirs et notre mémoire.

De telles manipulations posent en outre des problèmes moraux et juridiques considérables : quelqu’un pourra-t-il être encore considéré comme responsable de ses actes à partir du moment où, à son insu, le souvenir de certaines de ses actions aura été modifié ou effacé ?

A contrario, en implantant chez certaines personnes fragiles certains types de souvenirs on disposera d’un moyen de manipulation et de conditionnement absolument redoutable, dans l’hypothèse où ces techniques seraient utilisées en dehors d’un strict cadre thérapeutique et sans contrôle démocratique ou garde-fous éthiques.

Et même en restant  dans la perspective d’une utilisation médicale, comment ne pas voir qu’il sera très difficile, en disposant de moyens aussi puissants de manipulation psychique, de ne pas succomber à certaines formes d’eugénisme visant à « améliorer » des performances mentales et cognitives.

Il faut bien entendu se garder de « jeter le bébé avec l’eau du bain » et ne pas tomber dans l’écueil d’une technophobie sans discernement qui pourrait conduire au rejet violent et global de ces nouveaux outils, même lorsqu’ils ont une réelle efficacité thérapeutique pour soulager de nombreuses pathologies très invalidantes.

Mais il faut également ne pas pécher par excès de naïveté et d’angélisme et être bien conscient que toutes les formes de pouvoir et tous les groupes d’intérêts voudront, avec les meilleures intentions du monde, disposer de ces nouveaux moyens.

Il y a plus de 12 ans, alors que ces techniques étaient encore balbutiantes mais qu’on pouvait néanmoins déjà en imaginer le potentiel, j’avais proposé ( voir RT Flash )  que soit mise en place, parallèlement au cadre de réflexion bioéthique, une réflexion « neuroéthique », destinée à permettre la création d’instruments de contrôle démocratique pour ces nouvelles technologies neuroactives et à réfléchir sur les conséquences éthiques de ces avancées scientifiques extraordinaires.

Les progrès qui ont été bien plus rapides que prévu, tant en matière théorique que  technique, dans la connaissance du cerveau humain et les moyens d’influer sur son fonctionnement, montrent que le moment est aujourd’hui venu d’ouvrir sans tarder cette réflexion autour d’un vaste débat démocratique et moral.

C’est à cette condition que nous parviendrons à rendre socialement et humainement acceptable ces avancées vertigineuses et à faire en sorte qu’elles demeurent au service de l’homme et ne deviennent jamais les outils de son asservissement.

René TREGOUET

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet : couvrir le monde entier grâce à un réseau de ballons stratosphériques !
Jeudi, 20/06/2013 - 10:55

Décidément, Google s'inspire de plus en plus dans ces recherches des romans de science-fiction. Après la voiture automatique sans pilote et les lunettes virtuelles, le géant numérique vient de dévoiler un nouveau projet, baptisé "Loon".

De l'avis même de son concepteur, Richard DeVaul, qui dirige le laboratoire GoogleX, "ce projet est un peu dingue mais pourtant il est tout à fait réalisable d'un point de vue technique et surtout répond à un immense besoin planétaire non satisfait : actuellement deux terriens sur trois n'ont aucun accès bon marché au Web et nous avons décidé de relever ce défi qui consiste à fournir à chaque habitant de la planète, ou qu'il soit, un accès Internet".

Google s'est donc associé avec un certain nombre de fournisseurs d'accès Internet dans le but de maîtriser l'envoi de flux numérique à haut débit vers des petits ballons situés dans la stratosphère. Ces ballons doivent servir de réémetteurs et permettrent, pour un coût bien inférieur à celui du satellite, d'arroser de larges zones terrestres et d'assurer ainsi une bonne couverture d'accès à l'Internet.

Concrètement, chaque ballon mesure 15 m de diamètre et peut prendre en charge une surface de couverture d'environ 40 km de diamètre. Toute la difficulté de ce projet consiste à placer les ballons à la bonne hauteur et à maîtriser suffisamment leur trajectoire pour éviter qu'ils ne dérivent de manière excessive par rapport à leur position.

Selon Google, ces défis sont tout à fait surmontables à condition de recourir à une analyse très fine des données météorologiques pour déterminer l'altitude et la position exacte de chaque ballon. Pour l'instant, Google n'en dit pas plus mais précise tout de même que ces ballons seraient positionnés à au moins 20 000 m d'altitude, de façon à éviter toute interférence avec des appareils volants.

Après une première expérimentation en cours, Google souhaite étendre ses essais à d'autres pays situés sur le même parallèle, dont l'Afrique du Sud, le Chili et l'Australie. La couverture de ce parallèle sur toute sa longueur devrait nécessiter environ 400 ballons de ce type et, si cette expérience grandeur nature est concluante, Google envisage rien de moins qu'une couverture mondiale grâce à cette technologie

Article rédigé par Georges Simmonds pour RT FLash

ET

BBC

Un système de télélocalisation reposant sur la reconnaissance faciale
Jeudi, 20/06/2013 - 10:48

Des chercheurs de la Carnegie Mellon University, dirigée par Alexander Hauptmann, Shoou-I Yu et Yi Yang, ont développé un système de surveillance vidéo qui permet de suivre en temps réel les déplacements de plusieurs individus simultanément à l'intérieur d'un bâtiment.

En exploitant grâce à un nouvel algorithme les archives vidéo d’un établissement hospitalier, ces chercheurs sont parvenus à localiser avec un bon niveau de précision le personnel de cet hôpital. Cet algorithme combine plusieurs facteurs d'identification et notamment la couleur des vêtements, les habitudes de déplacement à l'intérieur du bâtiment et la reconnaissance faciale. 

L’algorithme utilisé permettrait, selon ces scientifiques, de localiser un individu avec une précision de moins d'un mètre dans 88 % des cas.

Ce système devrait d'abord être utilisé dans les hôpitaux et centres de soins afin d'améliorer la prise en charge des patients et de pouvoir informer en permanence médecins et soignants de l'état de santé de leurs malades.

Mais bien entendu, un tel outil de traçabilité et de cartographie des itinéraires de déplacement personnel intéresse au plus haut point le gouvernement pour améliorer le dispositif de prévention et de lutte contre la criminalité et le terrorisme et de mieux protéger certains bâtiments sensibles, tels que les aéroports ou encore les centres commerciaux.

Article rédigé par Georges Simmonds pour RT Flash

Carnegie

Un système de télélocalisation reposant sur la reconnaissance faciale
Jeudi, 20/06/2013 - 10:39

Des chercheurs de la Carnegie Mellon University, dirigée par Alexander Hauptmann, Shoou-I Yu et Yi Yang, ont développé un système de surveillance video qui permet de suivre en temps réel les déplacements de plusieurs individus simultanément à l'intérieur d'un bâtiment.

En exploitant grâce à un nouvel algorithme les archives vidéo d’un établissement hospitalier, ces chercheurs sont parvenus à localiser avec un bon niveau de précision le personnel de cet hôpital. Cet algorithme combine plusieurs facteurs d'identification et notamment la couleur des vêtements,  les habitudes de déplacement à l'intérieur du bâtiment et la reconnaissance faciale. 

L’algorithme utilisé permettrait, selon ces scientifiques, de localiser un individu avec une précision de moins d'un mètre dans 88 % des cas.

Ce système devrait d'abord être utilisé dans les hôpitaux et centres de soins afin d'améliorer la prise en charge des patients et de pouvoir informer en permanence médecins et soignants de l'État de l'état de santé de leurs malades.

Mais bien entendu, un tel outil de traçabilité et de cartographie des itinéraires de déplacement personnel intéresse au plus haut point le gouvernement pour améliorer le dispositif de prévention et de lutte contre la criminalité et le terrorisme et de mieux protéger certains bâtiments sensibles, tels que les aéroports, l'écart ou encore les centres commerciaux.

Article rédigé par Georges Simmonds pour RT Flash

Carnegie

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanotraceurs pour lutter contre la contrefaçon
Jeudi, 20/06/2013 - 09:27

Une société canadienne, PhotonEtc, qui travaille dans le domaine de l'analyse optique et photonique, a développé, conjointement avec l'Université de Montréal, un système très innovant de micro-imagerie Raman qui permet une analyse extrêmement fine de plusieurs types de nanomatériaux mais également de tissus biologiques, en proposant une qualité d'image exceptionnelle.

S'appuyant sur cette innovation technologique, cette société a eu l'idée d'utiliser des nanorécepteurs 100 000 fois plus fin qu'un cheveu pour développer un nouveau système de lutte contre la contrefaçon.

Ces nanotraceurs ont la particularité d'être inviolable et quasiment impossible à reproduire. En outre, ils  peuvent être intégrés dans différents types de matériaux mais également dans des encres ou des vernis. Il devient alors possible de marquer à peu près n'importe quel objet et il suffit d'un appareil portable de lecture utilisant l'imagerie Raman pour authentifier avec un très haut niveau de sûreté l'objet photosensible.

Comme le souligne Sébastien Blais-Ouellette, fondateur de cette entreprise et ancien chercheur au MIT, "Ce qui est remarquable avec notre procédé, c'est que chaque objet possède son empreinte unique et infalsifiable. En outre le coût de cette protection est dérisoire au regard de la valeur des objets à protéger de la contrefaçon et le système de lecture est très fiable".

Article rédigé par Georges Simmonds pour RT Flash

OPLI

Un robot-chat pour aider les sauveteurs
Jeudi, 20/06/2013 - 09:01

Des chercheurs de l'école polytechnique fédérale de Lausanne (E.P.F.L.) viennent de présenter leur "robot chat", un petit robot quadrupède  qui doit servir de plate-forme de recherche pour la mise au point d'un futur modèle opérationnel destiné à pouvoir se faufiler partout et à faire preuve de la même agilité que nos amis félins, notamment dans la recherche de survivants après une catastrophe.

Ce prototype est encore loin d'être aussi rapide et précis qu'un véritable chat mais il peut déjà parcourir sept fois sa propre longueur en une seconde. Il est également doté d'un système d'auto-stabilisation qui lui permet d'évoluer facilement dans un environnement escarpé et complexe.

Pour concevoir ce nouveau type de robot, les chercheurs suisses se sont directement inspirés de l'anatomie et de la démarche des chats et reproduits dans ce système robotique, dans les mêmes proportions, les caractéristiques félines . Le but de ces recherches n'est pas, en effet de développer un robot très puissant mais une machine capable de se faufiler à peu près partout et d'aller explorer des endroits inaccessibles pour l'homme.

Ce robot-chat a également été conçu de manière à être le plus autonome et le plus fiable possible car il doit pouvoir évoluer dans des environnements très difficiles où l'homme ne pourra pas le suivre.

Le professeur Auke Ijspeert, qui dirige ces recherches, souligne "qu'il ne s'agit là que d'une première étape mais que notre but est bien, à terme, de fabriquer en série des petits robots qui seront aussi rapides et agiles que nos amis félins et pourront accomplir toutes sortes de missions d'exploration et de sauvetage ».

Article rédigé par Georges Simmonds pour RT Flash

STD

JRR

Un superordinateur hybride pour simuler le fonctionnement du cerveau humain
Mardi, 18/06/2013 - 20:26

La firme informatique IBM, l'école polytechnique fédérale de Lausanne et l'école polytechnique de Zurich se sont associées pour développer un nouveau type de mémoire hybride qui sera utilisée dans les superordinateurs destinés à modéliser le fonctionnement du cerveau humain, dans le cadre des projets de recherche européen "Blue Brain Project" et "Human Brain Project".

Cette mémoire hybride associera une mémoire de type DRAM (direct random access memory) et une technologie de type flash, comme celle qui équipe les clés USB.

Dans le projet " Blue Brain", qui constitue l'un des volets du projet plus global "Cerveau humain", les chercheurs doivent relever un défi de taille : parvenir à modéliser la structure et le fonctionnement d'un cerveau de souris comportant environ 70 millions de neurones.

Une telle modélisation informatique, pour être réaliste, suppose la mémorisation, le stockage et le traitement d'une énorme quantité d'informations. Il faut donc non seulement disposer d'ordinateurs plus puissants qu'actuellement mais également modifier l'architecture même de ces machines et le mode de fonctionnement de leurs composants.

Le projet "Blue Brain" vient d'acquérir un nouveau superordinateur IBM Blue Gene/Q de dernière génération qui sera installé à Lugano, en Suisse. Cette machine surpuissante est dotée d’une DRAM de 64 térabits mais, et c'est là son point faible, cette technologie mémoire est volatile et ne conserve pas les informations quand l'ordinateur est éteint.

D'où l'idée de combiner dans cette nouvelle machine la mémoire DRAM et la mémoire flash. Ce superordinateur sera donc équipé, en plus des 64 térabits de DRAM, de 128 térabits de mémoire flash.

«Notre superordinateur ne sera pas le plus rapide du monde, mais son architecture et son mode de fonctionnement lui permettront d'ouvrir de nouvelles voies dans le traitement massif de données, non seulement dans le domaine des neurosciences mais également dans le domaine médical ou industriel "précise Thomas Schulthess, chercheur à l'école polytechnique de Zurich.  

Article rédigé par Georges Simmonds pour RT Flash

NMN

^ Haut
Espace
Espace et Cosmologie
La gravitation obéit-elle encore à la loi de Newton à l'échelle microscopique ?
Mercredi, 19/06/2013 - 18:20

Depuis au moins 7 milliards d'années, notre univers connaît une phase d'expansion accélérée, sous l'effet d'une mystérieuse énergie noire qui contrebalance la gravitation et dont la nature reste à ce jour controversée et inconnue.

Face à ce défi théorique majeur, des chercheurs français (CNRS et Université  Sabatier de Toulouse), viennent de proposer une nouvelle hypothèse pour expliquer l'origine et la nature de cette énergie noire. Selon cette théorie, cette énergie noire résulterait de l'effet gravitationnel du vide quantique qui serait issu d'une quatrième dimension spatiale, s'ajoutant aux trois dimensions qui constituent notre environnement familier.

Ces chercheurs ont montré que si l'on admet l'hypothèse d'une dimension supplémentaire très petite et repliée sur elle-même, il devient possible, d'un point de vue théorique, que le vide quantique gravitationnel participe à la densité de l’univers et en détermine la valeur actuelle.

Récemment, les remarquables observations réalisées par le satellite Planck ont confirmé que la matière telle que nous la connaissons représente à peine 5 % de la densité totale de l'univers.  25 % de cette densité serait constitué par la fameuse "matière noire", dont l'origine reste à ce jour inconnue et qui interagit très peu avec la matière ordinaire.

Le reste, c'est-à-dire 70 %, provient de l'énergie noire (encore appelé énergie sombre ), qui s'oppose victorieusement à la gravitation et accélère l'expansion de l'univers depuis sept à 8 milliards d'années.

Face à cette structure cosmique mystérieuse et assez déroutante, les physiciens en sont arrivés à se demander si le cadre théorique de la relativité générale ne doit pas être sérieusement complété et modifié, de manière à mettre en accord l'ensemble des observations et données expérimentales et le cadre théorique de référence.

L'hypothèse d'une existence de dimensions spatiales supplémentaires et notamment d'une cinquième dimension très petite enroulée sur elles-mêmes, n'est pas nouvelle et a été formulée entre 1919 et 1926 par le physicien allemand Théodore Kazula et son collègue suédois Oskar Klein. Cette hypothèse avait d'ailleurs suscité un grand intérêt de la part d'Einstein lui-même. Depuis presque un demi-siècle, cette idée n'a cessé de progresser, à mesure que s'élaborait la théorie des cordes, née en 1968.

Si cette hypothèse est exacte, le rôle du vide quantique dans la production de la gravitation serait équivalent à une constante cosmologique, une idée défendue en son temps par Einstein lui-même, avant que celui-ci ne se rétracte.

Reste à présent à imaginer et à réaliser des expériences qui démontreraient formellement l'existence d'une cinquième dimension minuscule (quelques dizaines de microns )et enroulée sur elle-même. Si cette dimension cachée existe bel et bien, toute la physique, de l'infiniment petit à l'infiniment grand, s'en trouverait bouleversée et l'articulation conceptuelle tant attendue entre la physique quantique et la relativité générale serait peut-être enfin réalisée.

Article rédigé parf Georges Simmonds pour RT Flash

IRAP

AANDA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Grands fonds océaniques : une vie foisonnante!
Mercredi, 19/06/2013 - 18:06

Selon une étude réalisée par Virginia Edgcomb, de l'université du Delaware et publiée dans " Nature", les couches de sédiments qui constituent les grands fonds océaniques regorgent de micro-organismes vivants de toute nature qui se nourrissent, se reproduisent et se déplacent…

Pour parvenir à cette conclusion, les chercheurs ont analysé des échantillons de sédiments prélevés au large des côtes du Pérou entre 5 mètres et 160 mètres sous le niveau du fond de l'océan.

Les scientifiques ont pu identifier un grand nombre de fragments d'ARN , ce qui prouve qu'il existe une vie abondante et très diversifiée au fond des océans. Ces recherches ont notamment permis de montrer pour la première fois que les micro-organismes vivant sous le plancher océanique étaient capables de se reproduire par division cellulaire.

Les chercheurs ont également observé que cette vie des grands fonds océaniques consommait des acides aminés, issus eux-mêmes d'autres organismes vivants ou morts.

L'étude souligne que l'existence de cette intense activité biologique au fond des océans doit avoir un impact considérable, bien que très peu connue, sur le cycle du carbone et sur le climat mondial. "L'extraordinaire diversité de cette vie sous-marine et son rôle majeur en matière environnementale et climatique constitue l'un des grands défis pour la science de ce siècle", précise l'étude.

Article rédigé par Georges Simmonds pour RT Flash

NATURE

UDEL

Énergie nucléaire contre énergies fossiles : combien de morts respectifs au niveau mondial ?
Mercredi, 19/06/2013 - 17:39

Voici une étude qui ne va pas manquer de déchaîner les passions et d'alimenter le débat sur la transition énergétique planétaire.

Deux climatologues de renommée mondiale, Pushker Kharecha, et James Hansen, qui travaillent tous deux à l'institut Goddard d'études spatiales (GISS) de la NASA, viennent de publier une analyse visant à évaluer les avantages pour la planète, en termes d'émissions de gaz à effet de serre et de mortalité globale, de l'utilisation de l'énergie nucléaire par rapport à l'ensemble des énergies fossiles.

Dans cette étude de 13 pages, intitulée "Analyses prospectives de la mortalité et des émissions de gaz à effet de serre liés à l'utilisation d'énergie nucléaire ", les deux scientifiques rappellent que l'augmentation considérable des émissions de CO2 ( qui ont été multipliées par 10 depuis un siècle) a porté la concentration de CO2 dans l'atmosphère à un niveau - 400 ppm - jamais atteint depuis le pliocène, il y a plus de 3 millions d'années. Aujourd'hui, on estime le stock de carbone présent dans l'atmosphère à environ 830 gigatonnes dont plus de 200 gigatonnes sont issues de l'utilisation des énergies fossiles.

Ce travail a essayé d'évaluer le plus rigoureusement possible, en partant de l'ensemble des données disponibles, l'impact réel de l'utilisation d'énergie nucléaire depuis sa création, en matière d'environnement et de santé humaine.

Cette étude montre qu'en dépit des trois accidents nucléaires majeurs de l'ère  moderne, cette énergie a évité au bas mot  1,84 million de décès dans le monde depuis 40 ans. L'étude précise « finalement, une analyse rigoureuse des données disponibles nous conduit à constater que l'utilisation d'énergie nucléaire a permis d'éviter infiniment plus de décès qu'elle n'en a provoqué." Selon les calculs de ces scientifiques, l'utilisation du nucléaire permettrait d'éviter en moyenne 76 000 morts par an au niveau mondial.

Autre constatation éclairante : l'énergie nucléaire a globalement  permis d'économiser en moyenne l'émission nette de 64 gigatonnes d'équivalent CO2 depuis 40 ans, ce qui correspond à deux années d'émissions mondiales de CO2 (au niveau de 2012) ou encore à sept années d'émissions européennes de carbone (valeur 2012). " Depuis qu'elle est utilisée pour produire de l'électricité, l'énergie nucléaire a permis d'éviter la construction de plusieurs centaines de centrales thermiques au charbon, épouvantablement polluantes "indiquent Pushker Kharecha et James Hansen.

Enfin, cette étude imagine un scénario dans lequel le monde se passe complètement de l'énergie nucléaire et se tourne, en attendant que les énergies renouvelables ne soient en mesure de répondre à la demande énergétique mondiale, vers les centrales thermiques, fonctionnant au gaz ou charbon.

Dans cette hypothèse, la sortie du nucléaire entraînerait globalement une mortalité supplémentaire de 420 000 à 7 millions de personnes et se traduirait par des émissions supplémentaires de CO2 allant de 80 à 240 gigatonnes, ce qui risquerait de faire basculer le réchauffement climatique au-delà de la limite des 2°C considérée comme le seuil tolérable.

En conclusion, Pushker Kharecha et James Hansen considèrent que «L'énergie nucléaire, malgré les différents défis qu'elle pose, doit continuer à être utilisée dans la production globale d'électricité afin de réduire les conséquences catastrophiques que pourraient avoir un réchauffement climatique incontrôlable."

NASA

Rapport complet NASA

Le réchauffement océanique serait le principal responsable de la fin de l'Antarctique
Mardi, 18/06/2013 - 14:28

Selon une étude réalisée par une équipe franco-américaine, le réchauffement des océans serait le principal responsable de la fonte des plateformes glaciaires entourant l'Antarctique. 

Après avoir analysé l'évolution des taux de fonte de la glace à la base des masses glaciaires qui prolongent la calotte antarctique dans l'océan, les chercheurs sont arrivés à la conclusion que ce réchauffement en profondeur serait à l'origine de la majeure partie des pertes glaciaires.  

Ces recherches ont pris en compte pour la première fois l'ensemble des plates-formes glaciaires qui ceinturent l'Antarctique. Selon les calculs des chercheurs,  la fonte de leur base pourrait représenter environ 55% de la perte totale de leur masse de 2003 à 2008, ce qui représente une perte bien plus grande que celles admises jusqu'à présent. Selon cette étude, au total, la banquise antarctique aurait perdu 1,3 millions de tonnes de glace par an entre 2003 et 2008.

Jusqu'à présent, il était admis par la communauté scientifique que l'essentiel de la perte de masse glaciaire de l'Antarctique provenait de la fonte des icebergs. "Mais nos recherches démontrent qu'en fait, c'est bien la fonte des plates-formes de glace qui est la principale cause de la perte glaciaire de ce continent", précise le chercheur Éric Rignot, qui a dirigé ce travail.

Cette étude devrait permettre de mieux prévoir l'évolution et l'impact futur du réchauffement océanique sur l'Antarctique et de réévaluer les hypothèses d'élévation du niveau des mers.  

Article rédigé par Gaël Orbois pour RT Flash

JPL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Dyslexie : une possible base génétique
Jeudi, 20/06/2013 - 14:28

La dyslexie, qui se caractérise par des difficultés d'apprentissage du langage et d'expression orale, aurait-elle un fondement génétique ? Peut-être, si l'on en croit une étude qui vient d'être réalisée par des chercheurs de l'Université américaine de Yale.

Ces scientifiques, dirigée par Jeffrey R. Gruen avaient déjà montré dans d'une précédente étude que 2 gènes liés à la dopamine, ANKK1 et DRD2, étaient impliqués dans l’apprentissage du langage, et que le gène DCDC2 semblait également impliqué dans l'apprentissage de la lecture.

Cette fois, la même équipe à analysé les données génétiques de 10 000 enfants nés entre 1991 et 1992. Ces chercheurs ont pu montrer un lien de régulation entre les gènes DCDC2 e READ1, qui semble impliqués dans l’apparition des troubles du langage et de la lecture.

Selon ces travaux, la présence de certaines variantes de READ1 et du gène KIAA0319, augmenterait sensiblement les risques de survenue de ce type de trouble.

Si la spécificité de ces biomarqueurs génétique est confirmée par d'autres études, il serait donc envisageable de mettre en place un dépistage fiable et très précoce de certains troubles du langage, dont la dyslexie, ce qui permettrait une prise en charge médico-éducative beaucoup plus efficace de ces enfants .

Article rédigé par Georges Simmonds pour RT Flash

AJHG

Des avatars pour soigner la schizophrénie
Jeudi, 20/06/2013 - 10:34

Une équipe britannique du collège universitaire de Londres, dirigée par le Professeur Julian Leff, a mis au point un outil original destiné à traiter les hallucinations auditives qui affectent environ la moitié des patients schizophrènes. Il faut en effet savoir qu’actuellement les traitements classiques par médicaments ne sont efficaces que pour la moitié environ des patients souffrant de ce type d'hallucinations.

Les chercheurs ont conçu un logiciel informatique qui permet de créer un portrait robot de l'être imaginaire qui hante le patient et de lui associer une voix dont les caractéristiques sont proches de celles que croit entendre le malade.

Un groupe de patients, réfractaires au traitement habituel, a ensuite été invité à "rencontrer " ces avatars  et à dialoguer avec eux. Cet échange se déroule par l'intermédiaire d'un écran informatique sur lequel apparaît l'avatar. Les patients sont alors incités à demander à leur avatar de les laisser tranquille et de sortir de leur vie.

Le programme informatique modifie alors progressivement la résistance de l'avatar et conduit celui-ci à finalement accepter  les demandes du malade.

Les résultats de cette expérimentation ont été très positifs et ont montré, au terme de seulement six séances  de 30 minutes, à raison d'une séance par semaine, une diminution sensible du degré et de la fréquence des hallucinations auditives ainsi qu'une baisse du risque de suicide.

L'étude souligne néanmoins que ces résultats encourageants ne doivent pas faire oublier que ces hallucinations auditives ne constituent qu'un des symptômes de la schizophrénie et que leur diminution ne signifie pas forcément que cette pathologie a régressé.

Article rédigé par Georges Simmonds pour RT Flash

BBC

La dépression chronique augmenterait le risque de démence
Jeudi, 20/06/2013 - 09:37

Une étude réalisée par l'Université nouvelle de Lisbonne, sous la direction du professeur Da Silva rappelle qu'environ 36 millions de personnes dans le monde vivent avec une démence, et souligne que ce nombre va sans doute doubler d'ici 2035.

Cette vaste  méta-analyse a décortiqué une cinquantaine d'études scientifiques et confirme que la dépression pourrait bien constituer un facteur de risque en matière de démence , l'augmentation de ce risque étant proportionnel à la gravité et à la fréquence des épisodes dépressifs.

Selon cette étude, la dépression augmente la probabilité d'évolution d’une déficience cognitive légère vers une démence. Mais ces travaux montrent également que le lien de corrélation entre les phases de dépression et le risque de démence ne se limite pas aux dépressions tardives mais s'étend également aux dépressions précoces survenues pendant l'adolescence du sujet.

Les chercheurs émettent l'hypothèse que la dépression pourrait constituer un facteur de risque de démence dans la mesure où ce trouble de l’humeur représente « une réaction fréquente aux déficits émotionnels associés au déclin cognitif ».

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Pollution et autisme : un lien possible
Jeudi, 20/06/2013 - 09:15

Depuis quelques années, les études épidémiologiques se succèdent pour essayer de dégager les différents facteurs biologiques, génétiques et environnementaux qui pourraient augmenter le risque de troubles autistiques.

C'est ainsi que certaines études mettent en avant le rôle possible d'une carence en vitamine D et en vitamine B9 (acide folique ) dans l'augmentation du risque d'autisme. Il existe également certaines présomptions concernant un possible rôle du gluten et de la caséine mais il n'y a aujourd'hui aucune certitude scientifique définitivement établie sur le rôle de ces différents facteurs alimentaires dans le déclenchement de cette pathologie complexe.

Récemment, les travaux d'Angela Sirigu, du centre de neurosciences cognitives de Lyon, ont montré que l'administration intranasale d'ocytocine, une hormone favorisant la lactation et l'accouchement, pourrait réduire chez certains patients la sévérité et la fréquence des troubles autistiques.

Une autre étude récente, dirigée par Abraham Reichenberg de l'Ecole de médecine du Mont Sinaï et portant sur plus de 130 000 enfants, a montré que les nouveaux-nés dont le père avait plus de 40 ans ont un risque six fois plus important de développer des troubles autistiques, par rapport aux nouveaux-nés dont le père a moins de 30 ans.

Mais cette fois, c'est une autre équipe de recherche américaine, de la faculté de santé publique d' Harvard qui s'est penchée sur les liens possibles entre l'exposition à la pollution et le risque d'autisme. Ces chercheurs ont analysé des données médicales concernant 116 000 femmes suivies pendant plus de 20 ans.

lls ont également passé au crible la qualité de l’air et son évolution dans différents lieux des naissances, tout en intégrant dans leur étude d'autres facteurs environnementaux, comme le tabagisme et le niveau socioprofessionnel des parents. 

Ce travail a finalement montré que dans les zones plus polluées, le risque de développer des troubles autistiques était multiplié par deux par rapport aux lieux de vie les moins exposés à la pollution.

Il semblerait, selon ces travaux, qu'une exposition prolongée à une trop forte concentration de particules fines, notamment émises par les véhicules diesels ou la combustion de bois, pourrait avoir des effets irréversibles sur le développement des fonctions cérébrales des enfants.

En France, des recherches de l'Inserm, menées sur plus de trois millions d'enfants suivis pendant 20 ans, ont par ailleurs montré que l'exposition à une trop forte pollution altérait le système immunitaire des fœtus pendant la grossesse de la mère.

Ces différentes études ne vont donc pas manquer de relancer le débat sur la sous-estimation des conséquences médicales et sanitaires de la pollution aux particules fines en France, pays dont le parc automobile compte la plus forte proportion de véhicules diesels en Europe et qui promeut par ailleurs le développement du chauffage au bois, dont beaucoup de petites installations domestiques ne sont pas équipées d'un système de filtration efficace…

Article rédigé par Georges Simmonds pour RT Flash

EHP

Utilisation des pesticides : des effets sur la santé humaine et sur la biodiversité
Jeudi, 20/06/2013 - 08:46

Décidément, les pesticides n'ont pas bonne presse. Il y a quelques jours l'Inserm publiait un rapport concernant les effets des pesticides sur la santé humaine. On n'y apprenait qu'il existait aujourd'hui plus de 1000 substances actives réparties en une centaine de familles de pesticides, dont 309 substances sont autorisées en France.

Au total, notre pays consomme environ 64 000 tonnes par an de fongicides, d'herbicides et d'insecticides, soit presque 1 kg par habitant et par an!

Bien qu'il soit très difficile d'établir formellement sur le plan scientifique une relation de cause à effet entre l'exposition aux pesticides et le déclenchement, souvent plusieurs décennies plus tard, d'une pathologie précise, l'Inserm fait état dans son étude d'un certain nombre de présomptions de nocivité concernant notamment une possible augmentation du risque de malformation congénitale, en cas d'exposition des femmes enceintes à certaines substances contenues dans les pesticides.

L'Inserm n'exclut pas par ailleurs une possible augmentation du risque, qui reste à évaluer pour certaines personnes, de leucémie ou de cancer du cerveau et souligne que certaines substances contenues dans les pesticides agissent comme des perturbateurs endocriniens et pourrait donc, à ce titre avoir un effet néfaste sur la fertilité humaine.

On sait également que certains types de cancer, comme les myélomes ou les lymphomes, semble plus fréquent chez certaines professions, comme les viticulteurs et il est possible que l'utilisation des pesticides soit en partie responsable de l'augmentation constatée de l'incidence de ces cancers.

Le rapport de l'Inserm souligne par ailleurs que l'on retrouve des traces de pesticides, à différents niveaux de concentration, dans environ 70 % des eaux de surface et 64 % des eaux souterraines. Une étude récente réalisée par 60 millions de consommateurs a même montré qu'on retrouvait également des traces de pesticides et de médicaments dans environ 10 % des eaux en bouteille.

Mais les pesticides ne sont pas seulement dangereux pour la santé humaine. Une vaste étude qui vient d'être publiée aux États-Unis et a été réalisé par le centre de recherche sur l'environnement de Leipzig (Allemagne ) et l'Université de Technologie de Sydney (Australie ), vient en effet de montrer que 42 % des différentes espèces vivantes présentes dans les cours d'eau et les espaces humides en France, en Allemagne et en Australie, étaient affectées par l'exposition accrue à ses traces de pesticides.

Ces recherches montrent une forte diminution de ces espèces dans les plans et cours d'eau douce. Les scientifiques ont notamment montré que la diminution de la biodiversité aquatique provenait essentiellement de la raréfaction de plusieurs espèces particulièrement vulnérables aux pesticides,  notamment certaines mouches et libellules jouant un rôle important dans la chaîne alimentaire.

Ces travaux ont également pu montrer que l'impact biologique de ces traces de pesticides dilués dans l'eau se manifestait même à de faibles niveaux de concentration, ce qui pose la question d'un réexamen du cadre réglementaire européen fixant les normes admissibles de concentration de ces différentes substances chimiques.

Article rédigé par Georges Simmonds pour RT Flash

PNAs

PLOSONE

INSERM

Bloquer le cancer à la source : un rêve qui pourrait devenir réalité
Mercredi, 19/06/2013 - 19:41

Des chercheurs britanniques du collège universitaire de Londres, dirigée par le professeur Roberto Mayor ont découvert un mécanisme cellulaire fondamental dont l'utilisation pourrait peut-être, à terme permettre de bloquer le cancer dans sa phase initiale et éviter la formation de métastases.

Dans ces travaux, les chercheurs ont montré l'existence d'une interaction forte lors de la migration des cellules de la crête neurale vers les cellules plascodales. Il semble en effet que la dissémination des cellules de la crête neurale se déclenche sous l'action d'un signal moléculaire que leur envoient les cellules plascodales.

À partir de ce processus initial, une boucle infernale se met en place entre les cellules de la crête neurale et les cellules placecodales et , comme l'explique par une métaphore le professeur Mayor, "c'est un peu l'histoire de la carotte et de l'âne : l'âne suit la carotte mais celle-ci ne cesse de s'éloigner et d'entraîner l'âne toujours plus loin. En matière de cancer, le processus est similaire. Les cellules saines du corps tentent de s'éloigner des cellules tumorales mais celles-ci finissent souvent par les rattraper car les cellules saines produisent, à leur insu, une substance attractive pour les cellules cancéreuses."

Le professeur Mayor est persuadé qu'il est possible de bloquer ce mécanisme et d'empêcher ainsi la dissémination d'un cancer initial et la formation de métastases distantes.  Celui-ci souligne "Il faut bien comprendre que c'est très rarement la tumeur primitive qui tue le malade mais le plus souvent les métastases qui se forment dans différents organes, comme les poumons et le cerveau. Si nous parvenons à empêcher la formation de ces métastases, nous ferons du cancer une maladie chronique et contrôlable. »

Article rédigé par Georges Simmonds pour RT Flash

NATURE

DT

EUREKALERT

Le fœtus est capable d'exprimer des émotions sur son visage
Mercredi, 19/06/2013 - 18:32

Une étude réalisée par des chercheurs britanniques des Universités de Durham et Lancaster a montré que le fœtus commence très tôt, dans le ventre de sa mère, à exprimer par des mimiques ou des grimaces les émotions et les sensations qu'il ressent.

Comme le souligne Nadja Reissland, qui a dirigé ce travail « il est vital pour les nourrissons d'être capables d'exprimer la peur et la souffrance dès la naissance afin de pouvoir communiquer leurs émotions à leurs parents».

Ces recherches ont consisté à observer 15 fœtus, au cours des six derniers mois de grossesse, à l'aide d' un dispositif photographique spécial, permettant l'acquisition d'images 3D en haute définition.

Les chercheurs ont découvert que les fœtus réalisaient leurs premières mimiques à 24 semaines de grossesse. À partir de la 36e semaine , les fœtus franchissent un pallier et sont capables d'expressions complexes qui expriment notamment la douleur ou le bien-être.

Selon les chercheurs, ces recherches montrent  que ces expressions du visage sont intimement liées au processus de développement. Il reste cependant à déterminer si l'élaboration de ces expressions complexes a pour cause principale le développement cérébral ou les sensations éprouvées par le fœtus.

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Obésité et troubles compulsifs : une base neurobiologique commune?
Mercredi, 19/06/2013 - 16:59

Des chercheurs américains des universités de l'Iowa, du Texas, de Stanford et de Harvard , ont montré qu'il existait des réseaux cérébraux intriqués et communs à l'obésité et aux troubles obsessionnels compulsifs.

Pour en arriver à cette conclusion, les scientifiques ont travaillé sur 2 modèles de souris, dont l'un est privé du gène SAPAP3, fortement impliqué dans les TOC et l'autre est privé d'une protéine du cerveau (MC4R) qui reproduit sur le plan génétique une forme héréditaire de l'obésité humaine.

Ces travaux ont pu montrer que les circuits du cerveau qui commandent le comportement obsessionnel et compulsif sont étroitement intriqués avec ceux qui contrôlent l'appétit.

Ce lien résulterait, d'après cette étude, d'une contrainte de l'évolution qui conduit l'homme à privilégier les aliments sains en période d'abondance mais l'incite à manger tout ce qu'il trouve en période de fortes disettes, quand sa survie est en jeu.

Ce réseau cérébral commun pourrait donc être impliqué dans certains types de troubles conduisant à une consommation sélective croissante de nourriture, comme l'anorexie mentale, ou menant au contraire à une consommation excessive d'aliments gras et sucrés pour apaiser un état anxieux.

Cette surprenante correspondance neurobiologique pourrait permettre de développer de nouveaux moyens thérapeutiques permettant de mieux lutter contre certains troubles du comportement désocialisants et parfois très invalidants.

Article rédigé par Elisa Tabord pour RT Flash

PNAS

Le réchauffement climatique menace un nombre croissant d'espèces !
Mardi, 18/06/2013 - 20:13

Une vaste étude réalisée par une équipe internationale de scientifiques, dirigés par Wendy Foden, a montré qu'un nombre croissant d'espèces animales tropicales étaient directement menacées par le réchauffement climatique mondial.

Selon ce travail, 41% des espèces d'oiseaux, 29% des amphibiens et 22% des coraux, sont à présent entrés en situation de fragilité face au changement climatique d'une ampleur sans précédent, par sa rapidité, que connaît la planète.

Compte tenu de ces observations, l'étude propose de revoir les priorités dans le domaine de la protection naturelle. Selon les chercheurs, les principales menaces qui pèsent sur ces espèces sont constituées par la pression démographique humaine mais également par l'extension d'espèces animales envahissantes.

Dans la nouvelle échelle de vulnérabilité définie par ces recherches, au moins un quart des espèces vivantes de la planète sont exposés à un risque sérieux de disparition si la température mondiale augmente de plus de 3° au-dessus des valeurs moyennes qui prévalaient avant le début de la révolution industrielle.

Article rédigé par Georges Simmonds pour RT Flash

PLOS

CT

Hygiène des mains : peut mieux faire!
Mardi, 18/06/2013 - 19:58

Selon une étude réalisée par l'université américaine du Michigan sur 3 700 personnes, seule une personne sur 20 se lave correctement les mains.

Les participants à cette étude ont été filmés en caméra cachée et cette méthode a permis d'observer qu'un tiers des sujets n'utilisaient pas de savon et que la majorité des participants se passaient les mains moins de 10 secondes sous le robinet.

Les autorités sanitaires américaines recommandent pourtant, pour une désinfection efficace et une bonne élimination des germes pathogènes, de se laver les mains vigoureusement au savon pendant au moins vingt secondes, sans oublier un rinçage et un séchage suffisamment longs.

La presse américaine rappelle par ailleurs que le niveau d'hygiène des Américains laisse à désirer dans d'autres domaines, notamment en matière dentaire. Plusieurs études ont en effet montré que plus la moitié des Américains allaient se coucher sans se laver les dents…

Article rédigé par Georges Simmonds pour RT Flash

MSU

Le génome du phytoplancton décrypté
Mardi, 18/06/2013 - 19:43

Une équipe internationale de recherche intégrant des chercheurs français du CNRS, de l'UPMC, de l'INRA et de l'École normale supérieure, vient d'achever la cartographie complète du génome d'un phytoplancton marin: l'Emiliania huxleyi .

Ces chercheurs ont découvert que le génome de ce micro-organisme marin unicellulaire contenait plus de 40 000 gènes (dont la plus de la moitié n'étaientt pas connus jusqu'à  présent), c’est-à-dire 10 000 gènes de plus que le génome humain. 

Le phytoplancton océanique assure à lui seul la production de plus de la moitié de l'oxygène de la planète. C'est pourquoi la connaissance de son génome et de son cycle biologique est d'une importance capitale. 

Ces recherches ont également permis de constater que les treize souches séquencées ne partagent en moyenne que 75% de leurs gènes, ce qui est une véritable surprise. Une telle proportion de gènes spécifiques expliquerait sans doute en grande partie l'extraordinaire capacité d'adaptation de ces micro-organismes.

Article rédigé par Georges Simmonds pour RT Flash

NATURE

La spectrométrie de masse révolutionne la détection des bactéries
Mardi, 18/06/2013 - 14:20

Deux études de l’Inserm menées par Bernard La Scola, du centre hospitalier de la Timone à Marseille, viennent de confirmer la supériorité en matière d'analyse biologique d'un nouveau système, baptisé MALDI-TOF, qui permet, grâce à l'utilisation de la spectrométrie de masse, une analyse beaucoup plus rapide et plus fiable des grosses molécules.

Ce spectromètre est en effet capable d'identifier 92 % des bactéries (contre 70 % pour les méthodes classiques) très rapidement et de délivrer une véritable signature biochimique spécifique à chaque germe.

Concrètement, les protéines présentes dans les bactéries sont ionisées à l'aide d'un faisceau laser ce qui leur permet de traverser une colonne de vide. Comme le temps de la traverse est lié à la masse de ces protéines, il devient possible d'établir très rapidement et de manière très fiable le profil spectrométrique d'une protéine particulière puis de comparer automatiquement son profil avec ceux contenus dans une vaste base de données.

Après 11 ans d'utilisation, ces études montrent que cette technique est à la fois plus rapide, plus efficace et moins coûteuse que les techniques d'analyses traditionnelles et permet d'identifier plus facilement de nouvelles souches pathogènes.

Article rédigé par Georges Simmonds pour RT FLash

JCM

Le diabète altère le système immunitaire
Mardi, 18/06/2013 - 14:12

On sait depuis plusieurs années que les malades du diabète de type 2 possèdent moins de cellules immunitaires que les personnes saines. Les scientifiques ont également constaté récemment que les diabétiques avaient un risque accru de développer certains cancers. Mais on ignorait toujours jusqu'à présent pourquoi le diabète altérait à ce point les défenses immunitaires des malades.

Des chercheurs de l'Inserm, dirigés par le professeur Berrou, ont pu montrer que la glycémie élevée de ces patients était responsable de cet affaiblissement chronique de leur système immunitaire.

L'équipe de l'Inserm a montré, grâce à une analyse comparative de la formule sanguine de 51 diabétiques, que deux catégories spécifiques de cellules du système immunitaire NK, "Natural Killer" (NKG2D+ et NKp46+) était à la fois moins actives et en sous nombre chez ces patients. Ces recherches ont également montré un lien direct de causalité entre le niveau de glycémie et la faible quantité de cellules NKG2D+ .

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Vers un vaccin contre la tourista
Lundi, 17/06/2013 - 15:41

Des chercheurs britanniques de l’Université de Cambridge, dirigés par le professeur Nigel Slater, viennent de mettre au point un vaccin permettant de lutter contre la diarrhée des voyageurs, plus communément appelée tourista. Ce type de diarrhée très répandue est généralement provoquée par une consommation d'eau ou de nourriture contaminée.

Le vaccin développé par ces chercheurs cible à la fois les bactérie E. coli (entéro-invasif) responsable de 40% des cas de maladies et les salmonelles (agent de la salmonellose) responsable d' environ 10% des maladies.

La forme de ce vaccin est particulièrement innovante puisqu'il s'agit d'un vaccin "sec", qui ne s'administre pas par piqûre et se prend en avalant une gélule, ce qui en facilite considérablement la conservation et l'utilisation dans les pays tropicaux.

L'étude britannique montre que les premiers essais sur la souris sont encourageants et que les essais cliniques sur l'homme devraient commencer d'ici un an. À terme, ce vaccin pourrait permettre d'éviter chaque année plus de 10 millions de cas de tourista dans le monde.

Article rédigé par Georges Simmonds pour RT Flash

UC

La cour suprême américaine refuse la brevetabilité de l'ADN
Lundi, 17/06/2013 - 15:29

La cour suprême des États-Unis a rendu le 13 juin, à l'unanimité des neuf juges qui la composent, un arrêt historique qui stipule que l'ADN humain est un produit issu de la nature et ne peut pas, par conséquent, être breveté. Cette instance juridique a par ailleurs estimé que seul l'ADN complémentaire pouvait éventuellement faire l'objet de brevets.

Au terme d'un long parcours juridique, la haute Cour américaine a donc débouté Myriad, une société de biotechnologies qui a déposé neuf brevets visant à faire reconnaître sa propriété intellectuelle sur des gènes isolés il y a 20 ans et dont les mutations héréditaires augmentent considérablement le risque de cancer de l'ovaire et du sein.

Dans son arrêt particulièrement attendu, la cour suprême a considéré que "l'ADN produite naturellement est un produit de la nature et n'est pas éligible pour un brevet, simplement parce qu'il a été isolé". L'arrêt précise par ailleurs que " Les lois de la nature, les phénomènes naturels et les idées abstraites sont des outils fondamentaux du travail scientifique et technologique et n'entre pas, à ce titre, dans le champ de protection des brevets".

La Haute cour a toutefois autorisé le dépôt de certains brevets par Myriad, notamment ceux relatifs à l'ADN complémentaire, c'est-à-dire copié de l'ADN d'une cellule et produit de manière artificielle.

Dans ce cas, la cour suprême a considéré que "l'ADN complémentaire peut être breveté car il n'est pas produit naturellement et constitue bien une forme d'invention".

Article rédigé par Georges Simmonds pour RT Flash

WP

Faire 5000 pas par jour pour avoir un cœur en pleine forme !
Lundi, 17/06/2013 - 15:10

Des chercheurs japonais de l'École de Médecine de l'Université de Kanazawa , dirigée par Kasuhiro Izawa , ont réalisé une étude portant sur l'effet d'une marche quotidienne sur 170 sujets atteints d'insuffisance cardiaque, ayant en moyenne 65 ans.

Tout au long de cette étude, qui a duré quatre ans et demi, les chercheurs ont mesuré quotidiennement le nombre de pas effectués par les participants. À l'issue de cette étude, 31 des participants étaient décédés à la suite d'une pathologie cardio-vasculaire.

Les chercheurs ont alors constaté que, par rapport au 139 participants toujours en vie, les sujets décédés avaient effectué en moyenne un nombre de pas quotidiens inférieur de 47 % au nombre de pas accomplis chaque jour par les sujets survivants (4 350 contre 6410)

Ces recherches ont également permis de montrer qu'il existait un "seuil de basculement ", en l'occurrence 4 890 pas quotidiens , au-delà duquel le risque de mortalité cardio-vasculaire chutait fortement, indépendamment de tous les autres facteurs de risque.

Cette étude japonaise montre donc pour la première fois que le nombre moyen de pas accomplit chaque jour constitue un bon indicateur de pronostic de mortalité pour les patients souffrant d'insuffisance cardiaque.

Article rédigé par Georges Simmonds pour RT Flash

NBCI

Vaccins : le patch pourrait remplacer la seringue d'ici 2020
Lundi, 17/06/2013 - 09:55

À l'occasion du congrès TEDGlobal, qui vient d'avoir lieu en Écosse, à Edimbourg, le chercheur australien Mark Kendall, qui travaille à l'université du Queensland, a présenté la dernière version de son patch qui pourrait, d'ici 2020, se substituer aux seringues pour la vaccination, entraînant une véritable révolution thérapeutique.

Ce "Nanopatch" se présente sous la forme d'un petit carré d'une surface de 1 cm2, recouvert de 4 000 micro-picots qui peuvent pénétrer dans l'épiderme de manière totalement indolore.

Les chercheurs australiens ont rappelé, qu'en dépit des précautions prises, il existait un risque intrinsèque de contamination liée à l'utilisation des seringues. On estime en effet, selon les chiffres de l'OMS, que sur les 16 milliards d'injections réalisées chaque année dans le monde, 1 million provoque le décès par contamination virale.

Autre inconvénient, la seringue injecte le principe actif dans le muscle et pas dans les cellules immunitaires présentes en grande quantité dans la peau.

Le Nanopatch permet au contraire de stimuler directement ces cellules immunitaires, ce qui rend possible la réduction par un facteur 100 de la dose vaccinale. L'intérêt est non seulement médical (diminution des effets secondaires et des réactions du système immunitaire ) mais économique car une dose de vaccin qui revient par exemple à cinq euros verrait son coût tomber à cinq centimes avec ce Nanopatch.

Dernier avantage considérable de cette nouvelle technique, elle permet d'utiliser le vaccin sous forme liophylisée. Celui-ci peut alors être stocké à 20° pendant un an sans dégradation de son efficacité thérapeutique, ce qui permet une utilisation et une diffusion bien plus simple et bien moins coûteuse dans les pays tropicaux.

Ce procédé a déjà été expérimenté sur l'animal avec succès, notamment contre le Chikungunya, la grippe et le papillomavirus. Les premiers essais cliniques sur l'homme devraient avoir lieu en 2014 en Australie. Si ces essais confirment l'efficacité thérapeutique de ce nouveau mode d'administration des vaccins, ce Nanopatch pourrait commencer à être utilisé à grande échelle à l'horizon 2020.

Article rédigé par Elisa Tabord pour RT Flash

Independent

BBC

Le cannabis est nocif pour le cerveau… et le cœur
Lundi, 17/06/2013 - 09:46

La dernière étude de l'observatoire des drogues et des toxicomanies nous apprend qu'un adolescent sur cinq a déjà fumé du cannabis et que plus d'un million de personnes consommerait régulièrement cette drogue en France.

La substance active présente dans le cannabis  est le tétrahydrocannabinol (THC), dont la concentration varie sensiblement, de 5 % à 30 %,  selon les différentes variétés utilisées et le mode de consommation.

Contrairement à une idée reçue tenace, le cannabis n'a rien d'une drogue douce ou festive et de récentes études scientifiques ont révélé son action particulièrement néfaste en matière de santé.

En 2012, la fondation britannique pour le poumon a notamment publié une étude qui montre que la consommation journalière d'un seul joint de cannabis augmentait le risque de cancer du poumon de 8 %, une augmentation supérieure à celle provoquée par la consommation d'un paquet entier de cigarettes !

Mais les dégâts provoqués par cette drogue ne s'arrêtent pas là. Plusieurs études françaises ont montré que la consommation régulière de cannabis doublait le risque d'accident de la route et il faut également rappeler que le cannabis est impliqué dans un accident mortel sur 8 en France…

Mais ce n'est pas tout. Une Étude australienne publiée en janvier 2013 (Voir http://f1000.com/prime/reports/m/5/1/) montre en effet que la consommation régulière de cannabis augmente sensiblement le risque de troubles mentaux et notamment de psychose. Cette étude confirme donc les résultats d'une autre recherche publiée en 2007 et réalisée  par des chercheurs des universités de Bristol et Cardiff, en Grande-Bretagne, qui montre que la consommation de cannabis augmente de 41 % le risque de troubles psychotiques. 

Par ailleurs, une vaste  étude scientifique suédoise, réalisée depuis 1988 et portants sur 45 000 jeunes suivis pendant 15 ans, a montré que la consommation régulière de cannabis multipliait par six le risque de schizophrénie.

Une autre étude réalisée par le professeur Churchwell, de l'université de l'Utah, a montré que la consommation de cannabis entraînait une réduction du cortex préfrontal et que cette diminution était d'autant plus importante que les fumeurs avaient commencé tôt à consommer cette drogue.

Enfin plusieurs études ont également montré que la consommation de cannabis augmentait sensiblement les risques de maladies cardio-vasculaires (AVC ou infarctus). Une autre étude de grande ampleur publiée en 2011 et portant sur 50 000 personnes a notamment montré que la consommation de cannabis multipliait par cinq le risque d'infarctus.

Article rédigé par Elisa Tabord pour RT Flash

LANCET

NCBI

Vers un dépistage sanguin simple et fiable de la maladie d'Alzheimer
Lundi, 17/06/2013 - 09:32

Des chercheurs australiens, dirigés par les professeurs  Burnham et Faux, de l'Institut de mathématiques et d’informatique de Perth et et de l'université de Melbourne , ont mis au point une méthode statistique fiable de prédiction du risque de maladie d'Alzheimer permettant d'envisager un dépistage généralisé de cette pathologie neurodégénérative.

Les chercheurs australiens ont travaillé sur une population de 1 090 sujets de plus de 60 ans qui ont subi des analyses sanguines poussées, incluant la recherche de l’apolipoprotéine E et les taux d’Aβ1-40 et d’Aβ1-42 plasmatiques.

En outre, un quart des participants ont également été suivi par imagerie afin d'observer l'évolution des plaques de peptides bêta-amyloïde.

Les chercheurs ont ensuite traité l'ensemble de ces paramètres génétiques, biologiques et biochimiques ainsi que les différents facteurs environnementaux et sociaux (sexe, âge, profession, niveau d'études) pour élaborer un modèle mathématique baptisée M1.

Ce modèle a été appliqué à chaque participant n’ayant pas été suivi par imagerie et a permis de prévoir avec un taux de réussite allant de 79 à 84 %, l'évolution de cette pathologie chez les sujets testés.

Ces travaux pourraient donc déboucher sur l'élaboration d'un outil fiable et relativement peu coûteux, par rapport aux méthodes existantes d'évaluation des risques d'évolution de la maladie d'Alzheimer, à partir des marqueurs sanguins.

Article rédigé par Georges Simmonds pour RT FLash

NATURE

Vers une prévention alimentaire de la schizophrénie ?
Samedi, 15/06/2013 - 19:59

Est-il possible de prévenir ou du moins de diminuer sensiblement les risques de développement d'une schizophrénie à l'âge adulte en modifiant plusieurs dizaines d'années avant le développement de cette pathologie, l' alimentation des mères ?

Bien que la communauté scientifique reste partagée sur cette question, plusieurs études scientifiques récentes semblent indiquer qu'une telle perspective n'est pas impossible et mérite d'être explorée.

Ces études tendent à montrer que l'administration d’une supplémentation en choline aux femmes enceintes durant le second et le troisième trimestre de la grossesse, pourrait avoir un effet bénéfique beaucoup plus tard chez ses enfants devenus adultes, à cause de l'action de la choline sur le développement des récepteurs α7-nicotiniques dans le cerveau.

Une étude réalisée par le professeur Robert Freedman, du département de psychiatrie de l'université du Colorado a notamment montré les effets thérapeutiques, chez la femme enceinte, d'un complément alimentaire, la phosphatidylcholine, qui se transforme en choline.

Cette supplémentation, correspondant la consommation d'environ trois œufs par jour, permettrait de diviser pratiquement par 2 le risque de troubles schizophréniques ultérieurs pour ses enfants à naître.

Ces études laissent entrevoir la possibilité d'une prévention, par une modification spécifique de l'alimentation des mères pendant la grossesse, des risques de certains troubles et pathologie psychiques.

Article rédigé par Georges Simmonds pour RT Flash

POL

PSY

Le cancer de la prostate n'aime pas l'huile d'olive !
Samedi, 15/06/2013 - 19:40

On savait déjà grâce à plusieurs études scientifiques que la consommation régulière d'huile d'olive diminuait les risques de cancer du colon ( voir http://www.rtflash.fr/l-huile-d-olive-reduit-risques-cancer/article) et de cancer du sein (http://www.sciencedaily.com/releases/2010/06/100630115019.htm) mais selon une nouvelle étude menée par l'université de Californie, la consommation de certaines huiles d'origine végétale comme l’huile d'olive et l’huile de noix, diminuerait sensiblement le risque d'un cancer agressif de la prostate chez l'homme et augmenterait les chances de survie pour les malades déjà touchés par ce cancer.

Cette étude a analysé la consommation d’acides gras saturés, monoinsaturés, polyinsaturés et trans ainsi que de graisses d'origines animale et végétale chez une population de 4 500 hommes atteints de cancer de la prostate non disséminée.

Au cours des huit ans qu'a durés cette étude, 1 064 hommes sont décédés dont 31% de maladies cardio-vasculaires, 21% de cancer de la prostate et près de 21% d'autres cancers.

Mais les chercheurs ont observé de manière très étonnante que les hommes qui avaient remplacé les graisses saturées et trans par des huiles d'origine végétale , comme l'huile d'olive ou de noix, avaient réduit (après ajustement des différents facteurs de risque), de 29 % leurs risques de cancer agressif de la prostate  et avait également réduit de 26 % leur risque global de décès, toutes causes confondues.

Cette étude vient donc confirmer les bénéfices considérables liés à l'adoption d'une alimentation de type méditerranéen, non seulement en matière de protection contre les cancers les plus fréquents (colon, sein et prostate notamment) mais également en matière de mortalité globale.

Bien que ces mécanismes de protection soient loins d'avoir été entièrement élucidés, il semblerait, selon ces chercheurs, que ce type d'alimentation exerce son effet protecteur de plusieurs façons : par des antioxydants , l'action anti-inflammatoire, la régulation de la tension, du taux de cholestérol et de l'insuline.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Cancer du sein : l'imagerie PET devient un instrument d'évaluation du traitement
Samedi, 15/06/2013 - 19:19

Le Docteur Olivier Humbert, qui travaille au Centre Georges-François-Leclerc de Dijon vient de présenter au Congrès américain de cancérologie (ASCO) une étude remarquée  qui montre les potentialités d'une association de l’imagerie médicale par émissions de positons (PET scan) et d'un traceur radioactif au glucose fluoré, le FDG, dans l’évaluation très précoce de l’efficacité de la chimiothérapie des patientes traitées pour un cancer du sein.

La tomographie par émission de positons (TEP), ou PET scan permet de visualiser en 3D l'activité d'un organe grâce aux émissions produites par les positons provenant de la désintégration d'un produit radioactif injecté au préalable.

Il s'agit donc d'une imagerie fonctionnelle qui permet de voir à la fois la morphologie des tumeurs et l’activité des cellules tumorales. Dans le cancer du sein, traité par une chimiothérapie, l’évaluation du traitement se fait en général après plusieurs cycles de chimiothérapie.

Mais l'étude du docteur Imbert montre que l'imagerie par TEP associée à ce nouveau marqueur permettent d’évaluer très précocement, après une seule cure de chimiothérapie, la baisse d’activité des cellules cancéreuses, ce qui constitue un gain de temps précieux pour le patient et les médecins.

"À terme, la généralisation de cette méthode devrait permettre de prendre en charge les patientes de manière beaucoup plus personnalisée en leur proposant d'emblée les combinaisons chimiothérapiques plus efficaces compte tenu de leur type de tumeur", souligne le docteur Humbert, qui ajoute "Cette nouvelle technique permettra d'identifier dès la fin de la première cure de chimiothérapie la réponse au traitement»

Comme le précise pour sa part le Professeur Fumoleau " L'imagerie par TEP sera de plus en plus utilisée pour évaluer l’efficacité d’un traitement et plus seulement pour localiser une tumeur ou déceler des métastases".

Cet article a été rédigé par Georges Simmonds pour RT Flash

JNN

Femmes hypertendues : une carence en vitamine D ?
Vendredi, 14/06/2013 - 17:01

Une vaste étude britannique, la plus grande méta-analyse jamais réalisée (35 études portant sur 155 000 personnes) vient de montrer qu'une carence en vitamine D augmente sensiblement le risque d'hypertension chez la femme. A contrario, plus le taux de vitamine D dans le sang est important, moins la tension artérielle est élevée.

"Ces travaux démontrent qu'il existe un fort lien de causalité entre la concentration en vitamine D et le risque d'hypertension artérielle chez les femmes", souligne Vimal Karani qui a dirigé cette étude. Celui-ci ajoute "Nous sommes persuadés qu’une supplémentation en vitamine D permettrait de diminuer le risque de maladie cardio-vasculaire chez les femmes tout en prévenant le risque d’ostéoporose".

Ces recherches ont montré que chaque augmentation de 10 % de la concentration de vitamine D dans le sang entraînait une diminution de 8 % du risque d'hypertension artérielle chez la femme.

Une étude danoise récente avait déjà montré qu'une supplémentation en vitamine D pendant les mois d'hiver pouvait réduire la pression artérielle d'une manière aussi efficace que les médicaments hypotenseurs.

Cette nouvelle étude montre qu'une proportion importante de maladies cardio-vasculaires pourraient tout simplement être évitées chez les femmes grâce à une consommation accrue de vitamine D.

Les chercheurs rappellent toutefois qu'une telle supplémentation doit obligatoirement être prescrite par un médecin car elle peut présenter des risques chez certains sujets.

Aricle rédigé par Elisa Tabord pour RT Flash

Daily Mail

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La population mondiale pourrait frôler les 11 milliards d'habitants en 2100
Mercredi, 19/06/2013 - 17:24

Selon le dernier rapport des Nations Unies, intitulé "Perspectives démographiques mondiales", la population de la planète devrait atteindre les 9,6 milliards d'habitants en 2050 et grimper à 10,9 milliards d'habitants en 2100 (selon l'hypothèse médiane de ses prévisions).

Ce rapport, qui est une vraie mine d'informations, confirme que l'Afrique deviendra incontestablement le poids lourd démographique de la planète au cours de ce siècle : sa population qui dépasse aujourd'hui le milliard d'habitants, atteindra 2,4 milliards d'habitants 2050 et 4,2 milliards d'habitants en 2100, soit près de 40 % de la population mondiale à cette échéance.

Un seul exemple frappant suffit à montrer cette vitalité démographique africaine : le seul Nigéria devrait dépasser les 400 millions d'habitants au milieu de ce siècle, devenant le troisième pays le plus peuplé du monde, devant les États-Unis et pas très loin derrière la vieille Europe dont la population pourrait décliner de 15 % d'ici 2050.

Ce rapport de l'ONU souligne également le vieillissement accéléré de la population mondiale: d'ici 2100, les plus de 60 ans seront trois fois et demi plus nombreux sur la terre, passant de 840 millions à à 3 milliards en 2100. Dans les pays en développement, la proportion senior passera de 9% à 19 % en 2050, pour atteindre 27 % 2100. Quant aux plus 80 ans leur nombre sera multiplié par sept d'ici la fin de ce siècle.

L’espérance de vie moyenne, au niveau mondial, qui a déjà gagné six ans au cours des 20 dernières années et atteint aujourd'hui 70 ans, va continuer à augmenter. Elle devrait atteindre, en moyenne, 76 ans en 2050 et 82 ans à la fin du siècle. À cet horizon, des habitants des pays développés pourraient avoir une espérance de vie de 89 ans, contre 81 ans pour ceux des actuels pays en développement.

L'ONU souligne enfin, qu'en matière d'immigration, les Etats-Unis devraient rester en tête d'ici 2050, avec en moyenne 1 million d'immigrés par an. Les autres pays arrivent loin derrière. Il s'agit du Canada (205.000), du Royaume-Uni (172.500), de l'Australie (150.000), de l'Italie (131.250), de la Russie (127.500), et enfin de la France (106.250).

Article rédigé par Georges Simmonds pour RT Flash

ONU

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top