RTFlash

RTFLASH Recherche & Technologie
NUMERO 634
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Janvier 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les réseaux de capteurs doivent être moins énergivores pour durer
Une nouvelle box pour Numéricable ?
Fibre optique jusqu'à l'abonné : Orange et SFR s'allient pour couvrir tout le Grand Lyon
Les réseaux sociaux, principale source d'intérêt des internautes
L'intelligence artificielle se met au service des médecins
Avenir
Les "robots de soins" se multiplient au Japon
Cancer du poumon : un biocapteur pour le détecter à partir du souffle
Matière
Photoniques sur silicium : une nouvelle avancée
La bouteille de Coca-Cola 100 % verte
De la lumière créée à partir du vide à l'université de Göteborg
Des physiciens conçoivent une cape d'invisibilité proche de celle d'Harry Potter !
Vers des circuits électroniques autocicatrisants
Stocker l’énergie avec de l'air comprimé
Eolien terrestre : GDF Suez veut doubler son parc français
Lyon, vitrine japonaise de l'"énergie intelligente"
Espace
Les Chinois veulent conquérir la Lune
Terre
Structure bois pour le théâtre éphémère de la Comédie-Française
Des cyclones intensifiés par la pollution
Des résultats de datation extrêmement différents selon la méthode utilisée
Vivant
Nos glandes endocrines ont une mémoire !
Un nouveau virus géant venu des mers
Cancer : rôle de l'hormone de croissance PDGF-BB et de la protéine EPO
Première européenne : un bébé opéré à l'aide d'un robot
Cellules souches : des souris vivent trois fois plus longtemps !
Le déclin cognitif apparaît dès 45 ans
Tester des médicaments contre le cancer sur ses propres cellules
Un nouvel antidote contre les irradiations mortelles
Un peu d’hormone dans le nez pour vaincre sa timidité
Gliome de l'enfant : une avancée majeure
Un plus grand volume cérébral chez les garçons souffrant d’autisme régressif
Kanzi, le singe bonobo qui sait faire du feu et se cuire un steak
On peut mieux prédire les effets secondaires des médicaments
Manger moins maintiendrait la jeunesse du cerveau
Mélanome : nouvelle avancée
Homme
Hommes et grands singes, un cerveau pas si différent
Edito
Prévenir et soigner la maladie d'Alzheimer : un défi de société majeur !



Chacun d'entre nous connaît un membre de sa famille ou un proche touché par la maladie d'Alzheimer. Au niveau mondial, le nombre de malades devrait doubler d'ici 2030 et tripler d’ici 2050, passant de 36 millions aujourd’hui à 115 millions - soit la population cumulée de l’Espagne et de la France - en raison du vieillissement de la population mondiale et l’accroissement sensible de l'espérance de vie. Quant aux coûts de prise en charge de cette affection neurologique, ils pourraient atteindre plus de 450 milliards d’euros en 2050 selon Allianz.

Au niveau européen, le nombre de patients souffrant d’Alzheimer devrait doubler d'ici 2050 et atteindre près de 20 millions de personnes, passant de deux patients atteints d’Alzheimer pour cent personnes actives à cinq patients pour cent actifs d’ici 2050. Contrairement aux idées reçues, la maladie d’Alzheimer touche également de plein fouet les pays en développement : en Asie, 60 millions de personnes seront atteintes par cette maladie d’ici 2050.

En France, on estime qu'au moins 850 000 personnes sont aujourd’hui atteintes d'une forme de maladie d’Alzheimer, ce qui représente un senior sur vingt et ce nombre pourrait malheureusement doubler d'ici 20 ans. A titre de comparaison, l'ensemble des nouveaux cas de cancers et de maladies cardio-vasculaires représente moins de 600 000 personnes par an en France.

Depuis sa description par le docteur allemand Aloïs Alzheimer en 1906, les chercheurs ont fait beaucoup de progrès dans la compréhension de cette maladie complexe et multifactorielle mais, contrairement à la mortalité par cancer et maladies cardio-vasculaires qui ne cesse de diminuer grâce à de nouveaux traitements toujours plus efficaces, on ne peut aujourd'hui que retarder les effets dévastateurs de cette maladie, sans pouvoir parler de guérison.

Néanmoins, la recherche progresse, notamment sur les causes intriquées de cette terrible affection. Une étude américaine réalisée sur 840 patientes suivies pendant 13 ans et publiée début 2012 vient ainsi de révéler un nouveau facteur de risque chez les femmes : il s'agit de l'adiponectine, une hormone issue de « la graisse viscérale » qui double le risque d'Alzheimer. Cette découverte est très intéressante car elle démontre un lien puissant entre résistance à l’insuline, diabète de type 2 et risque d'Alzheimer.

Cette hormone joue un rôle anti-inflammatoire et intervient dans le métabolisme du glucose et des lipides. « La signalisation de l'insuline est dysfonctionnelle dans le cerveau des patients atteints d’Alzheimer, et comme l'adiponectine augmente la sensibilité à l'insuline, un niveau élevé d'adiponectine est bien associé à un risque accru de démence chez les femmes » souligne cette étude rigoureuse. L’adiponectine va donc devenir un biomarqueur précieux pour évaluer le risque de maladie d’Alzheimer.

Une autre équipe américaine du Rensselaer Polytechnic Institute (New York) a mis au point une technique de production d'anticorps ciblant spécifiquement les protéines impliquées dans la maladie d’Alzheimer. Ces anticorps semblent en mesure de prévenir ou d'inverser les effets biochimiques néfastes de l'Alzheimer sur les cellules et cette nouvelle technique pourrait permettre de concevoir de nouveaux médicaments plus efficaces, non seulement contre la maladie d'Alzheimer mais aussi contre la maladie de Parkinson.

En matière alimentaire, une autre étude réalisée sur 104 personnes âgés de 87 ans en moyenne, montre que les personnes âgées qui consomment beaucoup de vitamines B, C, D et E, d'acides gras oméga 3 conservent de meilleures facultés cognitives que celles consommant des aliments à faible teneur en vitamines et acides gras insaturés. Cette étude a monté en outre que les seniors consommant ce type d'aliments gardent le même volume cérébral alors que ce volume diminue chez les malades d'Alzheimer.

"Les résultats de cette étude montrent clairement qu'il est possible, en modifiant ses habitudes alimentaires, de stopper la réduction du volume de son cerveau et de mieux préserver ses capacités cognitives", souligne Gene Bowman, de l'Université d'Oregon, co-auteur de l'étude. Cette étude est confirmée par une autre étude, réalisée par l'Université de Pittsburgh sur 260 patients tous âgés d’au moins 71 ans, qui montre que la consommation régulière de poisson exerce un effet positif en matière de prévention de la maladie d'Alzheimer et préserve également le volume cérébral. Selon cette étude, il suffirait de consommer au moins une fois par semaine du poisson pour diviser par cinq les risques de démences séniles.

Parmi les autres découvertes récentes qui éclairent les causes de la maladie d'Alzheimer, il faut également évoquer le rôle des accidents vasculaires cérébraux (AVC) non détectés. Ces "micro-accidents", souvent silencieux, semblent être fortement impliqués dans les troubles de la mémoire et le déclenchement de la maladie d'Alzheimer, comme le montre une étude réalisée par l’Université Columbia de New-York.

En France, signalons qu' Exonhit vient de commencer une étude visant à évaluer les performances d'AclarusDx, un test sanguin d'aide au diagnostic de la maladie d'Alzheimer. Actuellement, le diagnostic de la maladie d'Alzheimer repose toujours sur un examen clinique, des tests psychométriques, des évaluations du comportement et l'imagerie cérébrale. La mise au point d'un test sanguin fiable et simple à utiliser constituerait donc une avancée majeure dans la lutte contre ce fléau.

Il faut enfin évoquer une récente étude franco-britannique qui montre que, contrairement aux idées reçues, la mémoire et les capacités cognitives commencent à décliner dès l’âge de 45 ans. Cette étude, menée conjointement par l'Inserm et le Collège universitaire de Londres, a porté sur 5 198 hommes et 2 192 femmes âgés de 45 à 70 ans. Elle a révélé qu'un déclin cognitif apparaissait dès 45 ans et s'accélérait avec l'âge : 3,6 % chez les hommes entre 45 et 49 ans, et 9,6 % chez les hommes entre 65 à 70 ans. Chez les femmes, ce déclin était respectivement de 3,6 % et 7,4 %.

Ce déclin cognitif précoce ouvre de nouvelles perspectives en matière de prévention et pose la question de la généralisation et de l’adaptation des outils d’évaluation des démences séniles. La mise en place généralisée d’une Evaluation Gérontologique Standardisée de premier niveau à domicile, à partir de 75 ans par exemple, pourrait permettre, de l’avis d’un grand nombre d’acteurs du secteur médical, une prise en charge médico-sociale plus précoce et plus efficace des personnes les plus vulnérables et donc, à terme, une économie sensible pour la collectivité. Cette Evaluation Gérontologique Standardisée de premier niveau pourrait bien entendu être complétée, le cas échéant, en établissement hospitalier par une consultation gérontologique plus poussée.

En attendant la mise au point d'outils thérapeutiques véritablement capables de stopper la maladie d'Alzheimer, qu'il s'agisse de vaccins ou de nouveaux médicaments, nous devons mettre en place sans tarder, en nous appuyant sur les connaissances accumulées ces dernières années, une politique beaucoup plus volontaire de prévention ciblée de cette terrible maladie en utilisant notamment le puissant levier alimentaire et en améliorant sensiblement la prise en charge du surpoids, de l'hypertension et du cholestérol qui semblent jouer un rôle important dans l'apparition précoce de cette affection neuro-dégénérative.

Défi scientifique et médical, la maladie d'Alzheimer est également un défi social et culturel dont nous devons prendre toute la mesure et que nous devons affronter en nous fixant l'objectif ambitieux mais réalisable de stabiliser puis de diminuer, par un changement profond de nos modes de vie, le nombre de nouveaux malades à l'horizon d'une génération, d'ici 2030.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les réseaux de capteurs doivent être moins énergivores pour durer
Jeudi, 12/01/2012 - 00:30

Pour rendre ces systèmes capables d’effectuer les mêmes opérations mais sans consommer beaucoup d'énergie, une solution est de diviser l’ensemble en couches, sur le principe du clustering.

Comment rendre les réseaux de capteurs sans fil moins gourmands en énergie ? C’est la problématique que deux chercheurs de l’école Doctorale en Informatique UAMB à l’Université de Bejaïa, en Algérie ont tenté de résoudre. La consommation énergétique est en effet trop importante, induite par le routage des données collectées à chaque noeud. “C'est une contrainte cruciale puisque généralement les capteurs sont déployés dans des zones inaccessibles, et il est difficile voire impossible de remplacer les batteries après leur épuisement”, expliquent les chercheurs dans leur papier de recherche. “De ce fait, la consommation d'énergie a une grande influence sur la durée de vie du réseau tout entier”. En partie, le problème vient du protocole de routage utilisé. Ces protocoles deviennent moins performants, à mesure que le nombre de noeuds augmente, notamment à cause de l’accroissement du nombre d’interférences entre noeuds voisins. Pour résoudre le problème, les chercheurs de l’UAMB proposent donc un protocole de routage plus efficace en consommation énergétique, s’inspirant des techniques qui ont fait leurs preuves dans le domaine du clustering.

  • Trop gourmands en énergie

Ce protocole permet d’organiser le réseau en couches et assure un routage par multi-saut entre chaque noeud. Selon les chercheurs, ce routage permet plus de souplesse dans le cas de réseaux avec un grand nombre de noeuds, et exploite plus équitablement l’énergie des noeuds du réseau. “Les résultats des simulations ont montré que notre protocole permet une réduction de la dissipation d'énergie et une durée du réseau plus grande”, assurent les chercheurs. Les résultats indiquent jusqu'à moins de 10 % de moyenne d’énergie consommée (pour 400 nœuds par exemple) par rapport au protocole LEACH, habituellement utilisé dans ce type de réseau et qui a servi de référence, et une durée de vie allongée de quelques 28 %, si l’on en croit l’article.

  • Un nouveau protocole capable de réduire la consommation

Ce gain en énergie est dû à l’équilibrage dans la distribution de la charge ainsi que le choix des noeuds effectués, comme dans un cluster. Comme leur nom l’indique, les réseaux de capteurs sans fil (Wireless Sensor Networks, WSN) sont composés d’une multitude de mini-capteurs déployés aléatoirement dans une zone donnée. Leur objectif est de récupérer les données de leur environnement de manière autonome, et de les acheminer vers une station de collecte à travers un réseau sans fil. Dans leur structure, ils s’apparentent aux réseaux ad-hoc. Ils sont utiles dans les domaines de l’industrie, de l'écologie, de la santé ou de la sécurité (monitoring de la température, de la pression, de la radioactivité, suivi des malades, contrôle du trafic urbain etc...) Le MIT les a même catégorisé dans les dix technologies qui ont bouleversé notre manière de vivre.

L'Atelier

Une nouvelle box pour Numéricable ?
Lundi, 09/01/2012 - 00:30

L'opérateur organise une conférence ce mardi 10 janvier. Ce rendez-vous serait l'occasion de présenter sa nouvelle box, qui proposerait jusqu’à 660 Go de stockage et une télécommande avec un clavier.

Numéricable organise une conférence le 10 janvier pour présenter ses nouveautés dans le domaine d’Internet et du mobile. Selon le site Univers Freebox, l’opérateur dévoilerait lors de ce rendez-vous sa nouvelle box, la One Power Box. Ce dernier n’a pas voulu confirmer cette nouvelle. Un porte-parole a cependant reconnu « qu’il y avait de ça » dans les annonces qui seront faites cette semaine.

Selon les informations qui ont filtré, cette box serait compatible avec la norme DOCSIS 3. Rien d’étonnant à cela puisque que l’opérateur a commencé à la déployer depuis plusieurs mois sur les points les plus surchargés de son réseau. Cette norme permet d’atteindre des débits théoriques pouvant aller jusqu’à 200 Mbit/s, soit le double de ce qui est actuellement proposé.

En option un second disque dur

La nouvelle box de Numéricable disposerait d’un disque dur de 160 Go, que les abonnés pourront compléter par un autre disque dur de 500 Go, en option. Elle intégrerait également quatre tuners et permettrait d’afficher deux chaînes en miniature en plus du programme principal.

Numericable aurait aussi soigné la télécommande, qui disposerait d’un clavier. Celui-ci permettrait de saisir du texte pour les différents services et applications accessibles sur le téléviseur (Twitter, Facebook, Dailymotion...).

Reste à savoir si la One Power Box s’accompagne d’une offre premium, tout comme Free et SFR ont choisi de le faire avec leur box de dernière génération.

01net

Fibre optique jusqu'à l'abonné : Orange et SFR s'allient pour couvrir tout le Grand Lyon
Lundi, 09/01/2012 - 00:20

Déjà opérationnelle en zone très dense, la fibre optique devrait couvrir dans les cinq ans suivant son déploiement l’ensemble des communes du Grand Lyon. Orange et SFR ont signé un accord pour mutualiser les coûts de son déploiement en dehors des zones très urbanisées. Objectif : couvrir l’ensemble des foyers des grands Lyonnais au plus tard en 2020.

Après avoir déployé chacun leur réseau de fibre optique sur les zones d’habitat très dense - Lyon et dix communes mitoyennes - les deux opérateurs se partageront les coûts d’infrastructures pour amener dans les zones moins urbanisées ce que Bruno Janet, directeur Collectivités d’Orange, nomme les "cheveux de lumières." L’homme aurait d’ailleurs fait un directeur commercial efficace. "Le haut débit (ADSL) c’est bien, mais on se rend bien compte que ce n’est qu’une autoroute à deux voies, compare-t-il. Les besoins explosent avec la télé HD, la 3D. Ce qu’il faut, c’est élargir le tunnel, et cela passe par la fibre. C’est une autoroute à dix voies dans les deux sens, en émission de contenus et en téléchargement."

Pour ne pas louper ce nouveau rendez-vous technologique, Orange et SFR vont lancer conjointement le déploiement de la fibre sur 47 communes du Grand Lyon situé hors zone très dense, et sur 14 communes de la périphérie communautaire . "Quand nous commençons une ville, nous nous engageons à la fibrer dans les cinq ans", précise Janet. A Lyon, où Orange a entamé ses travaux en 2007, près de 98 % du territoire est desservi. Seul hic, le déploiement vertical de la fibre dans les immeubles d’habitation pose encore problème. "L’autorisation des syndics est un goulet d’étranglement. Nous sommes obligés de l’obtenir pour rentrer la fibre dans un immeuble. Tant que nous n’avons pas cette autorisation, nous ne pouvons pas agir", regrette-t-il. Car la fibre nécessite un double déploiement, horizontal (rue et voiries) et vertical (immeubles), pour pouvoir arriver jusque dans les foyers.

Les deux opérateurs se partageront ainsi la totalité des coûts d’investissement. "En dehors de la partie zone très dense, une partie sera fibrée par Orange, plutôt au nord du Grand Lyon, et le sud pour SFR, explique Janet. Mais l’accord prévoit que lorsque Orange fibre, SFR investit sur l’infrastructure, et réciproquement." Impossible de savoir le coût en local pour chacun des opérateurs. Pour Orange, ce sont 2 milliards d’euros qui sont déjà et seront investis au niveau national sur la période 2010-2015. SFR assure de son côté avoir déjà déboursé près de 150 millions d’euros par an depuis 2008 au niveau national pour déployer la fibre optique. "Et 1,3 milliard d’euros pour équiper les zones moins denses", précise le directeur Collectivités du groupe SFR Cyril Luneau. Le réseau sera toutefois disponible à la location pour les autres opérateurs, qui pourront également proposer leur offre commerciale à l’usager. Autre conséquence, le Grand Lyon ne dépensera pas un euro pour mettre en place ces infrastructures.

Lyon Mag

Les réseaux sociaux, principale source d'intérêt des internautes
Samedi, 07/01/2012 - 00:30

Le tchat et l'e-mail ont du souci à se faire. Ces usages sont en recul, au profit des réseaux sociaux. Selon une étude réalisée par l’institut Comscore, 82 % des internautes consultent les réseaux sociaux, soit 1,2 milliard de personnes dans le monde. En moyenne, ils y passent 19 % du temps total passé en ligne. Ce phénomène touche tous les pays et toutes les catégories de population. En France par exemple, 91 % des internautes utilisent les réseaux sociaux, ce chiffre grimpe à 98 % aux Etats-Unis, en Angleterre et en Espagne.

Les jeunes (15-24 ans) demeurent les plus accros : 84,4 % d’entre eux se connectent aux réseaux. Les plus de 55 ans s’y mettent aussi et sont en train de rattraper leur retard. En juillet 2010, 70,6 % les consultaient, en octobre 2011, ils sont 79,9 %. Quel que soit le pays, les femmes sont plus accros aux réseaux sociaux, elles sont 83,9 % à les consulter alors que 81 % de la gent masculine s'y adonnent.

Sans surprise, Facebook est le plus populaire. En moyenne, les internautes y sont restés 6,3 heures au cours du mois d’octobre, soit 40 % de temps en plus qu’il y a un an. Mais Comscore souligne que le petit nouveau Google+ enregistre déjà 25 millions de visiteurs en octobre 2011 et souligne la rapidité avec laquelle il a obtenu cette popularité. En  comparaison, Facebook a atteint cette audience en 36 mois et Twitter, en 33 mois.

01Net

L'intelligence artificielle se met au service des médecins
Samedi, 07/01/2012 - 00:00

IBM et WellPoint, le plus grand programme de santé du Blue Cross Blue Shield, ont mis au point des applications qui vont transformer le supercalculateur Watson en conseiller spécialisé, au service des oncologues du département Samuel Oschin Comprehensive Cancer Institute de l'hôpital Cedars-Sinai de Los Angeles, comme l'a indiqué Steve Gold, directeur du marketing mondial d'IBM Watson Solutions.

La base de données que possède déjà le Cedars-Sinai sur le cancer, mais aussi les dossiers cliniques de patients en cours de traitement, vont être versés dans la mémoire d'une déclinaison du supercalculateur Watson d'IBM, qui sera installée au siège de WellPoint. L'ordinateur va servir de référentiel en matière de données médicales sur de multiples types de cancer. WellPoint travaillera ensuite avec les médecins du Cedars-Sinai Hospital pour concevoir et développer des applications, et valider leurs capacités. Le Docteur M. William Audeh, directeur médical de l'institut de recherche pour le cancer, travaillera en étroite collaboration avec des experts cliniciens de WellPoint pour fournir des conseils sur la meilleure façon dont Watson peut être utilisé dans la pratique médicale et apporter une meilleure compréhension des connaissances acquises sur le cancer, y compris sur des thérapies alternatives moins bien connues des médecins. IBM avait fait savoir plus tôt cette année que la santé serait la première application commerciale de l'ordinateur qui avait réussi à battre les deux champions « humains » du jeu Jeopardy au mois de février.

Cet automne, WellPoint s'est associé avec IBM pour développer des applications pour le supercalculateur Watson, destinées à améliorer les soins aux patients en mettant à profit des pratiques médicales qui ont pu faire leur preuve. L'idée est aussi de normaliser les traitements aux patients après avoir identifié les meilleures pratiques. Un exemple de cette médecine fondée sur la pratique, c'est quand un professionnel de santé met systématiquement un patient qui a subi une crise cardiaque sous aspirine au moment de sa sortie de l'hôpital. Cedars-Sinai est la première émanation de ce partenariat. « Là où Watson se montre vraiment utile dans ce contexte, c'est sur la richesse des informations qu'il est capable de traiter, informations en constante évolution, qui lui parviennent sous différentes formes, structurées et non structurées, depuis des systèmes eux-mêmes disparates », a expliqué Steve Gold. « Le secteur de la santé est particulièrement bien adapté pour tirer profit de cette compétence. »

Le Monde

^ Haut
Avenir
Nanotechnologies et Robotique
Les "robots de soins" se multiplient au Japon
Mardi, 10/01/2012 - 00:00

Au Japon comme ailleurs les années filent, vite, mais ici plus qu'ailleurs la population vieillit rapidement, posant nombre de problèmes sociaux que les Nippons ont tendance à vouloir résoudre par la technique, un de leurs domaines de prédilection.

C'est ainsi que des entreprises de divers secteurs, comme les constructeurs d'automobiles Toyota et Honda, investissent dans la recherche et le développement de robots pour les soins médicaux des personnes âgées ou plus ou moins valides.

Toyota ambitionne de contribuer à la réalisation d'une société dans laquelle tout le monde puisse s'épanouir et mener une vie heureuse. Dans cet objectif, nous développons depuis 2007 des "robots partenaires" pour offrir un nouveau style de vie dans lequel les humains sont soutenus dans leurs activités quotidiennes », expliquait début novembre le premier groupe d'automobiles japonais. Toyota s'est fixé comme but de créer des automates pour quatre grands domaines : la mobilité personnelle, l'aide à la fabrication de produits en usine, le soutien aux tâches domestiques et enfin les soins aux personnes.

Début novembre, il a montré pour la première fois les quatre premiers prototypes d'engins entrant dans cette quatrième catégorie et pour laquelle les recherches robotiques sont fortement encouragées par les pouvoirs publics.

Le premier appareil ressemble à une jambière robotique dotée de capteurs et moteurs qui assistent et soutiennent le mouvement d'un membre inférieur pour permettre à des personnes quasi handicapées de se déplacer seules. Ce prototype rappelle un peu l'exosquelette HAL conçu, fabriqué et vendu par la jeune société Cyberdyne, un modèle qui est d'ailleurs déjà réellement employé dans diverses maisons de soins. Toyota teste pour sa part le sien dans un hôpital appartenant au groupe ainsi que dans un autre établissement partenaire.

Le deuxième robot est un système complémentaire qui permet de faire faire des exercices de marche pour la rééducation notamment, grâce à un dispositif informatique qui synchronise le mouvement d'un tapis à celui de la jambière, l'ensemble s'adaptant progressivement aux capacités de la personne au fur et à mesure qu'elle progresse dans son apprentissage.

Le troisième sert, lui, à l'entraînement au maintien debout d'un individu. Il est notamment destiné aux personnes âgées qui peinent à conserver le sens de l'équilibre et la position du centre de gravité. L'engin ressemble un peu à un Segway associé à un écran vidéo qui présente un jeu dont le but est de maintenir debout le personnage principal ou de le déplacer dans un espace déterminé, le tout en balançant légèrement son corps dans le sens du mouvement désiré. Le fait d'avoir recours à un exercice ludique permet de motiver les personnes pour aller un stade plus loin, souligne un ingénieur de Toyota.

Le quatrième robot enfin est destiné à faciliter le transfert d'un patient du lit aux toilettes ou vers un autre emplacement, sans doute l'une des tâches les plus délicates qu'aient à accomplir les personnels de soins. Il s'agit de l'engin le plus étonnant des quatre présentés. Il est assez difficile à décrire, mais il ressemble un peu à un gros scooter sans la partie arrière. L'aide soignant l'approche par l'arrière au bord du lit. Le patient vient plaquer son corps contre ce qui ressemble à un gros guidon. Des accoudoirs se positionnent sous ses bras et soulèvent progressivement son corps. L'engin est ensuite un peu éloigné du lit avant qu'un siège ne vienne se placer sous les fesses du patient. Il peut ensuite se déplacer automatiquement.

Ce prototype est assez voisin d'un modèle conçu par une équipe de chercheurs en technologies pour robots Veda Center et la firme spécialisée nippone Tmsuk. Leur véhicule unipersonnel intelligent pour handicapé, présenté en 2009, est en fait l'inverse d'un fauteuil roulant et résout ainsi nombre de problèmes. Ressemblant aussi à une sorte de scooter écourté futuriste, il permet à une personne à mobilité réduite de se hisser dessus par l'arrière, en se faisant glisser sur le siège à hauteur ajustable. Elle plaque ensuite son buste contre une plaque de maintien, s'arrime à un guidon et peut diriger, via une manette latérale, ce moyen de locomotion électrique.

« Le plus pénible pour le personnel de soin est de transférer une personne handicapée du lit au fauteuil ou de ce dernier aux toilettes », explique Shinichiro Takasugi, spécialiste de rééducation au centre hospitalier universitaire de Kyushu. « Avec ce nouveau véhicule, les manipulations nécessaires sont réduites de moitié », assure-t-il. L'utilisateur peut aussi aller aux toilettes en reculant et abaisser le siège de son véhicule à hauteur de la cuvette pour s'y glisser avec aisance.

Cet engin appelé Rodem, a aussi vocation à "normaliser" la vie des handicapés en leur redonnant une liberté de déplacement et une autonomie perdues. « Quelque effort de design que l'on fasse sur un traditionnel fauteuil roulant, il garde l'image d'un outil pour une personne dégradée », déplore M.Takasugi. Dès lors, un moyen de locomotion moderne, également destiné à la mobilité des personnes valides, réduit ce complexe, selon ce spécialiste. Avant de commercialiser un modèle de base, « nous devons penser à plusieurs options pour adapter le véhicule aux différents types d'utilisateurs en fonction de leur degré de validité », nous déclarait mi-2009 le roboticien Hirokai Kitano.

Les versions les plus élaborées devraient être dotées de systèmes médicaux qui suivent l'état du passager durant ses déplacements, de commandes vocales, d'un dispositif de géolocalisation et autres fonctions pour le rendre plus intelligent et en faire vraiment un robot-automobile.

Clubic

Cancer du poumon : un biocapteur pour le détecter à partir du souffle
Vendredi, 06/01/2012 - 05:20

Certaines maladies comme le cancer du poumon et de l’intestin ou encore comme les maladies du foie présentent des difficultés de diagnostic, en raison de symptômes communs avec de petits maux quotidiens. Dans la plupart des cas, la maladie n'est détectée qu’à un stade avancé. C’est pourquoi il y urgence de développement de nouvelles méthodes de détection précoce. Un nouveau détecteur de marqueurs tumoraux du cancer du poumon dans l'air expiré vient d’être développé par des chercheurs espagnols. En collaboration avec l’Université de Perpignan.

Tecnalia, dans le cadre du projet Interreg Medisen, développe justement des biocapteurs capables de détecter la présence de marqueurs tumoraux du cancer du poumon dans l'air expiré. Les évolutions internes à l'organisme d'une personne malade se reflètent dans l'air expiré du patient et peuvent permettent d’identifier la maladie, à un stade plus précoce. Dans la même veine, on avait beaucoup parlé du Na-Nose, un nez électronique à échelle “Na”-nométrique capable de détecter des changements chimiques microscopiques émis par le souffle de patients atteints de tumeurs de la tête et du cou.

Le souffle de l'homme, qu'il s'agisse d'une personne saine ou malade, est composé d'une centaines de composés organiques tels que l’acétone, le méthanol, le butanol, des hydrocarbures... Il n'y a pas un seul composant spécifique dans l'air expiré capable d'agir comme marqueur de diagnostic du cancer du poumon. Seule une combinaison de biomarqueurs peut être caractéristique de la maladie. Les composés à rechercher sont généralement présents à raison d’1 à 20 parties par milliard (ppb) dans la respiration humaine de quelqu’un en bonne santé mais peuvent être multipliés par 10 à 100 dans le souffle de patients malades. Afin d'être en mesure de détecter ces changements, le développement de nouveaux matériaux s’imposait.

Durant la première phase du projet, des échantillons d'haleine ont été recueillis par les personnels hospitaliers sur des patients atteints de cancer du poumon, traités dans le service d'oncologie médicale de l'Hôpital Donostia (IDOH). Une analyse détaillée des échantillons d'haleine a été effectuée pour identifier les combinaisons de composés pouvant constituer des marqueurs de la présence d'un cancer du poumon et fournir des informations de base pour la conception du capteur. En parallèle, de nouveaux matériaux pour la détection des composés organiques sélectionnés ont été développés par Tecnalia en vue d'accroître la sensibilité des appareils, en collaboration avec l'Université de Perpignan.

Santé Log

^ Haut
Matière
Matière et Energie
Photoniques sur silicium : une nouvelle avancée
Jeudi, 12/01/2012 - 00:00

Et ce n’est ni IBM, ni Intel, deux industriels à la pointe des recherches dans ce domaine, mais Molex qui donne le coup d’envoi. Le spécialiste américain de l’interconnexion électronique lance une solution de connexion optique de bout-en-bout basée sur des puces photoniques sur silicium. Les composants actifs de cette solution combinent quatre canaux d’émission et de réception optique à 28 Gbit/s chacun alimentés à partir d’un laser unique. De quoi offrir un débit composite de 100 Gbit/s.

Pour l’heure, il ne s’agit pas de remplacer les interconnexions électriques entres cartes et entre puces dans des systèmes comme les serveurs, les PC ou les téléviseurs. Cette solution se substitue aux dispositifs traditionnels d’interconnexion optiques des centres de données et de l’informatique à hautes performances (par exemple les châssis composant un supercalculateur). Ces dispositifs utilisent aujourd’hui des composants optoélectroniques construits avec des matériaux et procédés exotiques qui les rendent volumineux, chers et complexes à utiliser.

Le passage à la photonique sur silicium, le matériau de base de la plupart des puces électroniques, rend possible la fabrication avec les mêmes procédés Cmos banalisés dans la production des processeurs, mémoires et autres circuits intégrés logiques. De quoi en réduire les coûts et en ouvrir les applications. Il promet également la miniaturisation de façon à ce que cette technologie devienne intégrable dans un serveur, un PC ou un téléviseur, en lieu et place des solutions d'interconnexion électriques actuelles.

La solution de Molex est développée en partenariat avec Luxtera, une jeune société californienne spécialisée dans la photonique sur silicium. Elle se destine aux applications d’interconnexion InfiniBand, OTN (réseaux optiques) et Ethernet à 100 Gbit/s sur une distance atteignant 4 Km. Molex promet dans l’avenir des puces photoniques sur silicium offrant une connectivité à 1 Tbit/s, voire plusieurs térabits par seconde.

Industrie & Technologies

La bouteille de Coca-Cola 100 % verte
Mercredi, 11/01/2012 - 00:40

Jusqu’ici, le polyéthylène des bouteilles végétales contient encore une fraction dérivée du pétrole. Coca-Cola a signé un accord avec une biotech hollandaise pour développer un polymère entièrement issu de végétaux.

Du Polyéthylène-furanoate (PEF), retenez ce nom, car il pourrait bien venir concurrencer l’incontournable PET d’ici peu. Le polyester des bouteilles végétales produites par Coca-Cola ou Danone n’est en effet pas encore tout à fait vert, la part non-dérivée du pétrole n’étant au mieux que de 30 %.

Ce que propose la société hollandaise Avantium, a contrario, est un nouveau polyester obtenu à 100 % grâce à des ressources végétales. Il est constitué du même monomère biosourcé que le PET ''vert'', du monoéthylène glycol issu de la transformation de la canne à sucre. C’est la deuxième partie de la molécule qui change : au lieu de l’acide téréphtalique dérivé du pétrole, on trouve un acide furanique, le FDCA, synthétisé à partir de plantes alimentaires ou de résidus agricoles.

La production de PEF prend un tournant décisif grâce à l’accord signé avec Coca-Cola. Cela a permis à Avantium d’inaugurer le 8 décembre 2011 une unité pilote d’une capacité de 40 tonnes par an. « Nous avons produit des bouteilles en PEF avec une imperméabilité et des propriétés thermiques prometteuses […] Notre processus de production correspond à l'offre et aux chaînes de fabrication existantes et nous visons la commercialisation dans les prochaines années ", explique Tom van Aken, le PDG d’Avantium.

Comme la Plantbottle de Coca-Cola, les bouteilles en PEF seront entièrement recyclables.

Industrie & Technologies

De la lumière créée à partir du vide à l'université de Göteborg
Mercredi, 11/01/2012 - 00:10

Des chercheurs de l'Université de technologie Chalmers, à Göteborg, en Suède, ont réussi à créer de la lumière à partir du vide, phénomène de mécanique quantique prédit il y a plus de 40 ans mais jamais démontré. L'expérience est basée sur l'un des plus importants principes de mécanique quantique selon lequel le vide n'est pas réellement vide. Il serait constitué de particules dont la durée de vie est tellement brève qu'elles sont appelées particules virtuelles.

Le professeur Christopher Wilson et son équipe ont réussi à exciter des photons d'un état virtuel à un état réel dans lequel la lumière est émise. Ce phénomène est l'effet dynamique Casimir selon lequel un miroir soumis à un mouvement en relativité restreinte pourrait convertir les photons virtuels en photons réels directement observables. Ce phénomène vient d'être observé pour la première fois grâce à une expérience innovante mise au point par l'équipe du professeur Christopher Wilson.

Elle consistait en un circuit supraconducteur constitué d'une ligne de transmission coplanaire de longueur d'onde réglable. Le taux de variation de la longueur d'onde peut être très rapide (jusqu'à 25 % de la vitesse de la lumière) en modulant l'inductance du dispositif supraconducteur à des fréquences élevées (> 10 gigahertz). Ce dispositif est appelé SQUID (Superconducting Quantum Interference Device) et est extrêmement sensible aux champs magnétiques faibles.

Des paires de photons sont apparues dont l'existence a pu être confirmée sous la forme de rayonnement micro-ondes, a déclaré Per Delsing, professeur de physique expérimentale à l'Université de technologie Chalmers. Au cours de l'expérience, le SQUID transfère une partie de son énergie cinétique aux photons virtuels, les obligeant à se matérialiser. Selon les fondamentaux de mécanique quantique, de nombreux types de particules virtuelles sont présentes dans le vide. Le professeur de physique théorique, Göran Johansson, explique l'apparition des photons par le fait qu'ils n'ont pas de masse. Par conséquent, relativement peu d'énergie est nécessaire pour les exciter en dehors de leur état virtuel. En principe, d'autres particules telles que des électrons ou des protons pourraient être créées mais davantage d'énergie serait nécessaire.

La principale valeur ajoutée de cette expérience est une meilleure compréhension des concepts physiques de base, tels que les fluctuations quantiques du vide. Il est possible que ces fluctuations soient reliées à la présence de l'énergie noire ou sombre ("dark energy" en anglais) responsable de l'expansion accélérée de l'univers dont la découverte a été récompensée par le prix Nobel de Physique 2011.

Bulletins Electroniques

Des physiciens conçoivent une cape d'invisibilité proche de celle d'Harry Potter !
Mardi, 10/01/2012 - 00:20

De la Fiction à la réalité, il n'y a souvent qu'un pas ! La célèbre "cape d'invisibilité" d'Harry Potter est en train de devenir  réalité. Des physiciens travaillant pour la Défense américaine, ont en effet conçu un système d'"invisibilité temporelle" capable de rendre un événement totalement indétectable pendant une infime fraction de seconde. Inspiré de recherches sur la fameuse "cape d'invisibilité" popularisée par Harry Potter, ce dispositif expérimental en diffère quelque peu : au lieu de chercher à masquer un objet dans l'espace, elle le dissimule à la vue dans le temps (Nature). "Nos résultats représentent un pas significatif vers la réalisation d'une cape spatio-temporelle complète", estime Moti Fridman, de l'Université Cornell de l'Etat de New York, qui a dirigé ces recherches.

Pour réussir cette prouesse, les physiciens ont utilisé les propriétés du spectre lumineux visible et le fait que les différentes couleurs qui le composent se déplacent à des vitesses très légèrement différentes. Cette cape d'invisibilité "temporelle" commence par diffuser un rayon de lumière verte dans un câble en fibre optique. Ce rayon traverse ensuite une lentille qui le divise en deux fréquences distinctes : une lumière bleue qui se propage un petit peu plus rapidement que le rayon vert d'origine, et une lumière rouge légèrement plus lente. La différence de vitesse entre les deux rayons ainsi obtenus est encore accentuée en interposant un obstacle transparent.

Un "décalage temporel" est ainsi créé entre les rayons rouge et bleu qui voyagent dans la fibre optique. Une faille minuscule, de seulement 50 picosecondes (50 millionièmes de millionième de seconde), mais suffisante pour y intercaler une décharge de laser d'une fréquence différente de la lumière passant dans la fibre optique. Après cette brève décharge de laser, les rayons rouges et bleus subissent un traitement inverse : un nouvel obstacle accélère cette fois-ci le rouge et ralentit le bleu, et une lentille reconstitue les deux faisceaux pour produire un unique rayon vert. La décharge de laser, d'une durée de 40 picosecondes, est toujours bien présente, mais comme elle ne fait pas partie du flux de photons de la lumière reconstituée, elle reste totalement indétectable ! Le procédé s'apparente à un passage à niveau coupant une route encombrée, expliquent dans un commentaire séparé Robert Boyd et Zhimin Shi, de l'Université de Rochester, dans l'Etat de New York.

La prochaine étape pour les chercheurs est de parvenir à accroître suffisamment la "faille temporelle" masquant un événement, soulignent MM. Boyd et Shi. Mais ils estiment que cette invisibilité temporelle pourrait déjà avoir des applications immédiates pour sécuriser les communications. Car ce procédé permet de fractionner les signaux optiques et de les faire voyager à des vitesses différentes avant de les réassembler, ce qui rend les données particulièrement difficiles à intercepter.

The Washington Post

Nature

Vers des circuits électroniques autocicatrisants
Mardi, 10/01/2012 - 00:10

Un appareil électronique ou une batterie peuvent cesser de fonctionner pour une minuscule rupture dans une connexion électrique, même si elle est à peine visible à l’œil nu. L’équipe de Jeffrey Moore, à l’université de l’Illinois, s’acharne depuis des années à trouver une solution élégante en utilisant des matériaux autocicatrisants. Ils ne sont pas les seuls à vouloir imiter cette merveilleuse fonction connue des animaux et des végétaux : la cicatrisation.

On peut même dire que le domaine passionne les scientifiques. En France, Ludwik Leibler, et son équipe du laboratoire Matière molle et chimie (une unité commune au CNRS et à l'ESPCI, École supérieure de physique et de chimie industrielles, Paris), celle-là même qui vient d’inventer un extraordinaire matériau plastique déformable, avait présenté une sorte de caoutchouc capable de cicatriser. Les constructeurs de voitures sont intéressés par des peintures et des vernis antirayures et, en aéronautique, on cherche à lutter contre les criques.

Jeffrey Moore, lui, veut aussi restaurer la conduction électrique. Trop bête, vraiment, explique-t-il en substance, de voir un appareil électronique intégralement hors d’usage pour une misérable fissure. Premier essai en 2009 avec des microcapsules emplies de nanotubes de carbone. Elles se brisent sous l’effet d’un choc, libérant les nanotubes, qui se répandent dans la fissure et, puisqu’ils conduisent l’électricité, rétablissent la conduction.

La méthode avait été démontrée entre deux fils séparés de 100 nanomètres (pour simuler une rupture) mais elle présentait quelques difficultés, comme la taille des capsules, qui doivent être petites, et, qui plus est, précisément dimensionnées, entre 280 et 350 nm.

L’équipe vient de récidiver avec une autre recette. Les capsules, faites d’un polymère, sont plus grosses – de 10 et 200 micromètres dans les tests – et elles ne contiennent pas de nanotubes de carbone mais une solution métallique liquide composée de gallium et d’indium (un mélange liquide au-dessus de 16°C). Cette fois, l’équipe a testé sa poudre sur un véritable conducteur, en or, soumis à une tension électrique et sur lequel ont été créées des fractures interrompant la connexion. Résultat : ça marche ! La décoction de microcapsules incluses dans un matériau isolant (une résine époxy) adhérant au conducteur se comporte comme prévu. En se rompant au niveau des fissures, ces minuscules bonbonnes libèrent le métal liquide qui se répand dans les fentes et rétablit le passage du courant, « à plus de 99 % » précise la publication dans la revue Advanced Materials. La réparation prend 160 microsecondes, notent les chercheurs, si bien qu’une cassure cicatrisée de cette manière n’aurait pas d’effet sur un appareil électronique, qui continuerait à fonctionner.

Les chercheurs ont testé l’effet de la taille et du nombre de microcapsules. La conclusion est que les petites donnent un meilleur résultat que les grosses. Les préparations utilisant des capsules de 10 micromètres rétablissent la circulation électrique dans la totalité des tests alors que le taux descend à 90 % des essais avec les capsules de 200 micromètres. Mais il suffit alors d’en mettre davantage dans la résine époxy pour améliorer la performance.

Futura Sciences

Stocker l’énergie avec de l'air comprimé
Dimanche, 08/01/2012 - 00:20

Classée par le magazine Forbes parmi les espoirs américains de moins de 30 ans, Danielle Fong, 24 ans, travaille sur une nouvelle manière de stocker les énergies renouvelables : l’air comprimé. Selon le magazine américain, cette jeune femme pourrait rien moins que sauver le monde.

LightSail Energy, la start-up confondée par cette jeune surdouée entrée à l’âge de 12 ans à l’Université de Dalhousie et à 17 ans à celle de Princeton pour y réaliser un doctorat en physique nucléaire, est parvenue à diminuer les pertes caloriques des compresseurs conventionnels réputés pour leur inefficacité énergétique. Comment ? Avec de l'eau qui abaisse la température de l'air comprimé.

En fait, cette entreprise n’est pas la seule à miser sur le potentiel de l'air comprimé. Le développement du solaire et de l'éolien a créé un énorme marché pour le stockage d’énergie. Car c’est le seul moyen qui permette à des sources d’énergies intermittentes de fournir de l’électricité lors des pics de la demande et la nuit.

Jusqu’ici, les producteur d’électricité se proposaient de turbiner l’eau pompée dans des barrages d’altitude durant les périodes de faible consommation grâce aux énergies renouvelables. Mais il faut transporter l’électricité verte parfois sur de grandes distances. Ce qui occasionne des pertes importantes.

Selon Danielle Fong, la compression efficace de l’air autorise pour un coût très modeste le stockage de l’énergie sur les lieux de production - fermes solaires ou éoliennes - et de la réinjecter dans le réseau en la turbinant au moment voulu.

20 minutes

Eolien terrestre : GDF Suez veut doubler son parc français
Samedi, 07/01/2012 - 00:40

Après dix ans d'efforts, le groupe a inauguré le 4 janvier un petit parc de 12 mégawatts en Normandie. Il passe ainsi le cap des 1.000 MW de capacités installées en France.

GDF-Suez vient de franchir un cap dans l'éolien. Sous un vent glacial, le groupe d'énergie vient d’inaugurer, en Normandie, un parc d'éoliennes qui lui permet d'atteindre le seuil des 1.000 mégawatts (MW) de capacités installées en France.

« 1.000 MW, c'est un symbole, c'est grosso modo la puissance d'une centrale nucléaire », a souligné le PDG, Gérard Mestrallet. Avec 16 % du marché, le groupe est aujourd'hui le premier producteur éolien de l'Hexagone. « Notre ambition est de doubler notre parc éolien terrestre d'ici à 2016 », a ajouté Gérard Mestrallet. Le groupe compte cinq filiales dans ce domaine, mais il entend rationaliser ses activités en centralisant la surveillance des éoliennes sur un seul site à Châlons-en-Champagne.

GDF Suez compte aussi devenir l'un des acteurs clés de l'éolien marin, un secteur naissant en France. Le groupe va répondre au grand appel d'offres lancé par le gouvernement pour développer cette énergie au large de la France.

L'éolien est cependant une oeuvre de longue haleine en France. Il aura fallu dix ans d'efforts à GDF Suez et à sa filiale la Compagnie Nationale du Rhône (CNR) pour mettre en service ce petit parc de cinq éoliennes d'une capacité totale de 12 mégawatts. Situé à Guerville et Melleville, le projet a été initié en 2002. Il aura nécessité 9 ans d'instruction, et un de construction. De quoi décourager les plus tenaces. « C'est une particularité de notre pays. A l'étranger, le développement d'un parc éolien nécessite environ deux ans, contre de 6 à 8 ans en France », explique Yves de Gaulle, le PDG de la CNR.

Placées à 85 mètres de hauteur, les éoliennes sont largement visibles de la ville. « Le projet a suscité l'adhésion de nos deux communes, explique le maire de Guerville, Moïse Sauveur. Le parc va nous rapporter environ 30.000 euros par an. » Mais la présence d'un couloir de l'aviation civile et d'un radar de surveillance ont, semble-t-il, ralenti le processus. Et aujourd'hui, quelques manifestants déroulaient des banderoles près des éoliennes.

Dans la région, un autre projet de 7 éoliennes mené par le groupe allemand Juwi à Crosville-sur-Scie suscite de vives réactions. « Nos maisons vont perdre entre 30 et 60 % de leur valeur si ce parc est réalisé », tempête Didier Marchand, le président d'Addicc, une association qui s'oppose à la construction des parcs éoliens dans la région.

Les Echos

Lyon, vitrine japonaise de l'"énergie intelligente"
Samedi, 07/01/2012 - 00:10

Le Japon va-t-il révolutionner les pratiques des Lyonnais en matière de consommation d'énergie ? Le quartier baptisé Confluence, sur la presqu'île lyonnaise, a été choisi par la New Energy and Industrial Technology Development Organization (NEDO), l'agence publique de soutien à l'innovation rattachée au ministère de l'environnement nippon, pour accueillir son premier démonstrateur de "réseau d'énergies intelligent" (smart community) en Europe. Ce projet en gestation depuis près de deux ans a été officialisé, jeudi 15 décembre, par la signature d'une convention avec la communauté urbaine du Grand Lyon. Le NEDO financera les 50 millions d'euros d'investissements jugés nécessaires au cours des quatre prochaines années. L'entreprise Toshiba dirigera le consortium japonais qui équipera 150 hectares de ces nouvelles technologies.

"Confluence est l'un des grands chantiers urbains en Europe", a expliqué Hideo Hato, président du NEDO, pour justifier le choix du site français. Cette ancienne zone industrielle en pleine reconversion s'est déjà vu attribuer le label "écoquartier" par le ministère de l'écologie, et celui de "quartier durable" décerné par WWF, le Fonds mondial pour la nature.

Avec le projet de smart community, elle ambitionne désormais de devenir la vitrine d'un modèle auquel les grandes agglomérations pourraient se convertir pour maîtriser leur consommation d'énergie. "Notre objectif est qu'en 2025 le quartier ne consomme pas plus d'électricité qu'aujourd'hui", a précisé le maire de la ville et président du Grand Lyon, Gérard Collomb. Confluence, qui doit permettre de doubler la superficie du centre-ville de la capitale rhodanienne, sera alors bien plus densément peuplée : 25 000 habitations et 22 000 emplois sont anticipés.

Le projet "vendu" par le Japon repose sur quatre piliers.

Premièrement, la construction de bâtiments à énergie positive. Un bâtiment modèle en termes d'efficacité énergétique et d'intégration des énergies renouvelables va être construit sur 12 000 m2. Il comportera bureaux, habitations et locaux commerciaux afin de tester la complémentarité dans les usages. Le week-end, l'énergie excédentaire des bureaux sera acheminée vers les logements résidentiels. La mise en communauté des infrastructures est aussi proposée pour réduire les gaspillages. Les installations bureautiques (imprimantes, télécopieurs...), aujourd'hui possédées par chaque entreprise, seront remplacées par des équipements partagés à faible consommation. Le téléphone sera géré de façon centralisée.

Deuxièmement, les entreprises installées sur le site auront accès à un parc de véhicules électriques en autopartage. Les véhicules, conçus par PSA et Mitsubishi, seront principalement alimentés par des sources photovoltaïques que le Grand Lyon prévoit de déployer sur les toitures du quartier. Une trentaine de véhicules devraient être mis en circulation en 2013.

Troisièmement, les habitants pourront gérer leur consommation grâce à l'installation d'energy boxes. Ces boîtiers fourniront des courbes de consommation en fonction du coût pour l'utilisateur, annonceront par alertes les pics de consommation et enverront des recommandations pour économiser l'énergie. 275 logements situés dans les bâtiments écorénovés de la cité Perrache devraient être les premiers équipés.

Enfin, l'ensemble de ces informations sera mis en réseau pour pouvoir anticiper et gérer globalement les besoins du quartier. "Les usages des consommateurs vont être passés à la loupe. Car il ne sert à rien de déployer un réseau électrique intelligent si les usagers ne surveillent pas et n'adaptent pas leur consommation.

Le Monde

^ Haut
Espace
Espace et Cosmologie
Les Chinois veulent conquérir la Lune
Dimanche, 08/01/2012 - 00:40

La Chine va conduire des «études préliminaires en vue d'envoyer des hommes sur la Lune». Plus de quarante ans après les premiers pas de Neil Armstrong sur notre satellite, un livre blanc, publié par le gouvernement chinois, confirme les ambitions spatiales de l'empire du Milieu et sa volonté de rééditer l'exploit du mythique programme Apollo. Probablement aux alentours de 2020, le document ne mentionnant aucune date précise. Outre la (re)conquête de l'astre sélène, ce plan à cinq ans prévoit la construction d'une station spatiale et la mise en orbite d'un système indépendant de positionnement et de navigation par satellites, à l'instar du GPS américain, du Glonass russe ou du futur Galileo européen.

Récemment, la presse chinoise saluait cette décision avec des titres laudateurs. «Mission sur la Lune à l'horizon», clamait en une le China Daily, pour qui ce livre blanc constitue un«pas de géant». Le Global Times insistait, de son côté, sur le fait que la Chine est en passe de «réaliser son ambition de construire une station spatiale d'ici à 2020». D'autant que le mois dernier, l'Administration nationale spatiale chinoise (CNSA) est parvenue, pour la première fois, à assembler deux modules inhabités en orbite. Par ailleurs, un laboratoire spatial pourrait être opérationnel dès 2016.

Publié dans son intégralité par le Quotidien du peuple, ce fameux livre blanc indique que la nouvelle génération de fusées Longue Marche-5, prévue pour effectuer ces missions lunaires, «utilisera un carburant non toxique et non polluant». Selon Zhang Wei, le porte-parole de la CNSA, elles seront capables d'emporter de lourdes charges (environ 25 tonnes) dans l'espace. Le tout à partir d'une nouvelle base spatiale construite sur l'île de Hainan, dans le sud du pays.

Lancé au début des années 1990 grâce à des achats de technologie russe, le programme de vols habités chinois n'a cessé de monter en puissance au cours des vingt dernières années. Le 15 octobre 2003, la Chine devenait ainsi le troisième pays au monde, derrière la Russie et les États-Unis, à être capable d'envoyer un homme dans l'espace par ses propres moyens. Deux autres missions suivront, notamment en 2008 avec la sortie extra-véhiculaire dutaïkonaute Zhai Zhigang. Les sondes lunaires Chang'e, dont le deuxième exemplaire a été envoyé l'an dernier, constituent le troisième pilier d'un projet spatial considéré par les autorités de Pékin comme emblématique de la montée en puissance du pays sur la scène mondiale.

Si une mission d'exploration vers la Lune n'est pas dénuée d'intérêt sur le plan scientifique (notre satellite recèle notamment de précieux indices sur l'origine et l'évolution du système solaire), il est clair qu'un succès aurait des répercussions considérables en terme d'image. D'autant que les Soviétiques ont échoué dans les années 1960 et que les Américains ont finalement renoncé à faire leur come-back, après l'annulation par Barack Obama, pour des raisons financières, du programme Constellation de la Nasa qui prévoyait l'installation de bases lunaires vers la fin de la décennie actuelle. En outre, depuis l'arrêt des navettes, les Américains sont dépendants des Soyouz russes pour faire voler leurs astronautes…

Toute la question maintenant est de savoir si les Chinois iront au bout de leur entreprise. «Cela reste dans l'horizon des possibles, explique Isabelle Sourbès-Verger, géographe et spécialiste des politiques spatiales au CNRS. Comme toutes les puissances spatiales, les Chinois ont besoin de se fixer des objectifs ambitieux pour créer une dynamique.

Le Figaro

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Structure bois pour le théâtre éphémère de la Comédie-Française
Jeudi, 12/01/2012 - 00:40

Frédéric Mitterrand, ministre de la Culture, a inauguré récemment le nouvel équipement temporaire installé pour un an dans une cour du Palais-Royal (Paris Ier). Lever de rideau

« Etrenner un théâtre est un rêve. Construire un théâtre est un cadeau. » C’est en ces termes que Muriel Mayette, administratrice générale du Français, a salué l’ouverture de ce projet « rare, vivant et fou », où « l’éphémère offrira la possibilité d’une permanence ». En effet, à partir du 11 janvier 2012, cette nouvelle salle aux odeurs d’épicéa se substitue à la salle Richelieu, voisine, qui fera l’objet de travaux de remise aux normes et d’accessibilité pendant un an. Réalisé en ossature et panneaux contrecollés de bois massif (KLH de Lignatec) de grandes dimensions assemblés in situ en quatre mois, le théâtre éphémère de 750 places occupe une emprise de 26m x 65m. Ce « gros Lego », selon Muriel Mayette, s’installe galerie d'Orléans, entre les colonnades qui séparent les jardins du Palais-Royal et la cour qui accueille les colonnes de Buren. Il a été conçu sous la responsabilité d'Alain-Charles Perrot, architecte en chef des monuments historiques (ACMH), par l'architecte Florent Richard.

  • Tentures écarlates

La scène, sans cintres ni dessous, est équipée d’un plateau de mêmes dimensions que celui de l’ancienne salle. Chauffage et électricité sont acheminés directement depuis le bâtiment historique, distant de quelques mètres. De même, les acteurs qui y conservent leurs loges, accèdent au nouveau théâtre par les corridors et les salles de répétitions situés sous les colonnes de Buren. L’acoustique naturelle du lieu est maîtrisée à l’aide de réflecteurs plans en bois disposés au-dessus de la salle et, en abat-son, en partie haute du cadre de scène. Ailleurs, des tentures écarlates disposées sur les parois latérales réalisent l’absorption nécessaire. Lieu du « jeu des passions et de l’éphémère », selon Frédéric Mitterrand, ce « temple de la parole » sera démonté entre janvier et mars 2013 pour être ensuite revendu. Mais il ne disparaîtra pas tout à fait de la mémoire des spectateurs puisque, ainsi que l’a rappelé Muriel Mayette en citant André Breton : « Ce que j’ai aimé, que je l’aie gardé ou non, je l’aimerai toujours. »

Le Moniteur

Des cyclones intensifiés par la pollution
Mardi, 10/01/2012 - 00:30

Rares sont les cyclones qui naissent en mer d’Arabie. Les conditions de température et d’humidité y sont pourtant favorables. Mais pour qu’un cyclone grossisse et s’épanouisse, encore faut-il que les vents soient faibles et gardent une même direction sur les 10 premiers kilomètres de l’atmosphère, pour ne pas déformer et cisailler le tourbillon.

Or, en mer d’Arabie ce cisaillement vertical est fort, notamment en juillet et août, en pleine mousson asiatique. Les cyclones n’apparaissent donc qu’avant la mousson, en mai et juin, ou après, en septembre et octobre, lorsque le cisaillement vertical faiblit. Les deux ou trois qui se forment annuellement restent en général modérés.

Toutefois, des chercheurs américains affirment aujourd’hui que, depuis une quinzaine d’années, ces cyclones ont gagné en intensité. Le responsable serait le nuage brun de pollution qui plane au-dessus du nord de l’océan Indien et du continent asiatique.

Amato Evan, de l’université américaine de Virginie, et ses collègues ont passé au crible de l’analyse statistique les données climatologiques accumulées entre 1979 et 2010 dans cette région. Ils ont ainsi constaté que depuis 1997 l’intensité des cyclones (mesurée par la vitesse des vents) d’avant mousson est environ trois fois supérieure à celle des cyclones survenus à la même période entre 1979 et 1996. Autre constat : cette intensification est concomitante d’une réduction du cisaillement vertical des vents.

  • Piège à chaleur

Or, les simulations numériques faites à l’aide d’un modèle climatique montrent que la présence du nuage brun affaiblit justement ce cisaillement. « Ce nuage, épais de 3 kilomètres, qui s’étire sur plusieurs milliers de kilomètres, est un véritable piège à chaleur », souligne Frank Roux, qui dirige le laboratoire d’aérologie de l’université de Toulouse.

Composé d’un cocktail d’aérosols (suies, sulfates, nitrates, poussières, etc.) émis par les activités humaines en Inde et en Chine notamment, il absorbe en effet une partie de la lumière solaire, ce qui conduit à réchauffer l’atmosphère mais aussi à refroidir la surface de la Terre.

« Ce faisant, le nuage diminue les contrastes de température, d’une part, entre la surface et l’atmosphère et, d’autre part, entre le continent et l’océan. La force et la direction des vents dominants sur la mer d’Arabie dépendant de ces contrastes thermiques, le nuage atténue le cisaillement vertical des vents. D’où une intensification des cyclones », poursuit Frank Roux.

Ce résultat doit toutefois être considéré avec précaution. L’analyse statistique ne concerne en effet qu’un nombre limité de données (une vingtaine de cyclones en trente ans), ce qui est peu. Mais pour le chercheur toulousain, l’intérêt de l’étude réside surtout dans la chaîne de causalités, jamais mise en évidence auparavant. « Elle montre comment les activités humaines, qui agissent d’abord sur l’environnement local puis à plus grande échelle sur le système climatique, peuvent avoir de fil en aiguille un impact sur un phénomène se produisant à plusieurs milliers de kilomètres de là. »

La Recherche

Des résultats de datation extrêmement différents selon la méthode utilisée
Dimanche, 08/01/2012 - 00:00

Une différence de datation de 100 millions d'années a été mise en évidence par une équipe internationale de chercheurs, dirigée par Hervé Sauquet du laboratoire Ecologie, Systématique et Evolution (Université Paris-Sud/CNRS), en fonction de la manière dont sont combinées les données paléontologiques et génétiques d'un même groupe d'espèces. Ces résultats viennent d'être publiés en ligne dans la revue Systematic Biology.

Toutes les espèces qui ont vécu sur Terre n'ont pas laissé de traces fossiles et tous les fossiles n'ont pas encore été découverts et décrits. Certains fossiles sont très rares, voire complètement inconnus parmi les groupes de plantes et d'animaux. Par exemple, seuls trois fossiles ont été découverts pour les orchidées, l'une des plus grandes familles de plantes au monde comptant plus de 22 000 espèces vivantes.

Or l'étude des fossiles combinée aux données génétiques est une méthode utilisée par les chercheurs afin d'approcher le moment et les causes d'une divergence entre deux espèces. Mais des résultats extrêmement différents obtenus selon la façon dont sont utilisés les fossiles pour « calibrer » les échelles de temps génétiques ont mis en évidence la nécessité d'améliorer les méthodologies utilisées aujourd'hui.

Une équipe de quatorze chercheurs, coordonnée par Hervé Sauquet, enseignant-chercheur au laboratoire Ecologie, Systématique et Evolution (Université Paris-Sud / CNRS), et Simon Ho de l'Université de Sydney (Australie), a étudié les Hêtres austraux (genre Nothofagus). Ces arbres forment l'essentiel de la canopée des forêts humides du Chili, d'Argentine, d'Australie du sud-est, de Nouvelle-Zélande et de Nouvelle-Guinée. Ces chercheurs ont compilé, d'une part, un ensemble de fossiles connus pour Nothofagus et ses plus proches parents (Hêtres, Chênes, etc…), dont la diversité de fossiles connus apparaît supérieure à la plupart  des autres groupes de plantes à fleurs. D'autre part, ils ont rassemblé les séquences d'ADN de la plupart des 35 espèces vivantes de Nothofagus et de 21 autres espèces apparentées.

Par combinaison des données fossiles (comparaison morphologique) et des données génétiques (variation des gènes), les chercheurs sont arrivés à la conclusion que le groupe Nothofagus pourrait avoir un âge totalement différent, d'une expérience à une autre. En effet, pour certaines, le groupe comprenant toutes les espèces vivantes de Nothofagus pourrait ne dater que de 13 millions d'années, un âge relativement jeune à l'échelle des temps géologiques, ou remonter jusqu'à 113 millions d'années. A cette époque, l'Amérique du Sud, l'Afrique, l'Australie et l'Antarctique formaient encore le supercontinent du Gondwana et les Dinosaures peuplaient la planète.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Nos glandes endocrines ont une mémoire !
Jeudi, 12/01/2012 - 00:20

A l'instar du cerveau, une équipe de chercheurs de l'Inserm et du CNRS dirigée par Patrice Mollard à l'Institut de génomique fonctionnelle1 (Montpellier) vient de montrer, chez la souris, que les cellules endocrines hypophysaires qui régulent la lactation s'organisent en réseau lors d'un premier allaitement. Ce réseau est alors conservé, comme « mis en mémoire » pour être encore plus opérationnel lors de l'allaitement d'une seconde portée. C'est la première fois qu'une forme de mémoire dans le système endocrinien est mise en évidence.

La plasticité des systèmes biologiques permet à des organismes de modifier dynamiquement leur physiologie de façon à s'adapter aux conditions environnementales existantes. Au niveau cellulaire, ce processus est associé habituellement au système immunitaire ; au niveau tissulaire, il a été caractérisé il y a plusieurs années dans le cerveau et est au cœur d'une intense recherche en neurobiologie. En dehors de ces deux systèmes permettant de garder en mémoire des informations à long terme, rien n'indiquait que d'autres cellules pouvaient fonctionner de façon similaire.

L'hypophyse est un organe qui constitue un modèle idéal pour vérifier cette hypothèse car elle comprend des populations distinctes de cellules endocrines organisées en réseaux et qui régulent une multitude de fonctions physiologiques par la sécrétion de différentes hormones. L'équipe de Patrice Mollard à Montpellier a travaillé avec celle de Paul Le Tissier à Londres (NIMR-MRC2) afin de déterminer si les réseaux de cellules endocrines possèdent des capacités de mémorisation. Ils ont pris comme modèle les cellules qui sécrètent la prolactine (l'hormone de la lactation). La sécrétion de prolactine commande un éventail de réponses cruciales pour permettre de nourrir des souriceaux, comprenant la production de lait.

CNRS

Un nouveau virus géant venu des mers
Jeudi, 12/01/2012 - 00:10

Le Mimivirus, un virus à ADN infectant l’amibe Acanthamoeba polyphaga, était jusqu’à présent le plus grand virus connu en termes de taille et de génome (qui code 979 protéines).

Des virologues marseillais viennent de découvrir, en collaboration avec les Chiliens, un virus géant cousin du Mimivirus dans les eaux situées au large du Chili. Le Megavirus chiliensis, un virus géant de près de 0,5 micromètre se réplique chez les 3 espèces d’ Acanthamoeba (polyphaga, griffini, castellanii) et possède un génome à ADN de 1 259 197 paires de bases, codant 1 120 protéines. Mimivirus et Megavirus chilensis font partie d’une nouvelle famille virale, celle des Megaviridae, qui regrouperait les virus dont le génome dépasse un million de paires de bases.

Les deux virus possèdent 594 gènes en commun, dont des gènes jamais identifiés auparavant ailleurs que dans des génomes cellulaires : ceux codant pour la traduction en protéines (Aminoacyl tRNA synthetases ArgRS, CysRS, MetRS, TyrRS), dont sont théoriquement dépourvus les virus. Mais  Megavirus chiliensis possède en supplément 3 autres gènes  « pseudo-cellulaires » (IleRS, TrpRS, AsnRS). La première hypothèse serait un « pickpocket » génétique expliquant le gigantisme génomique des Megaviridae par d’innombrables transferts horizontaux de gènes des cellules hôtes. Cependant, la divergence génomique observée entre Mimivirus et Megavirus chilensis est plutôt en faveur de l’hypothèse selon laquelle les virus géants sont issus d’une cellule ancestrale, qui possédait un appareil de traduction. La présence de 3 gènes « pseudo-cellulaires » supplémentaires chez Megavirus chilensis exclut pour les auteurs le mécanisme de transfert horizontal (qui correspondrait à l’acquisition indépendante de 7 gènes). La réduction génomique est un processus évolutif rapide, commun à tous organismes intracellulaires, qui pourrait expliquer l’évolution des Megaviridae depuis des ancêtres communs plus complexes.

Ces résultats surprenants illustrent l’intérêt de cette nouvelle famille de virus géants, vus comme des fossiles vivants d’organismes cellulaires ancestraux qui ne sont peut-être plus représentés aujourd’hui.

JIM

Cancer : rôle de l'hormone de croissance PDGF-BB et de la protéine EPO
Mercredi, 11/01/2012 - 00:20

Une étude publiée par des chercheurs de l'Institut Karolinska (KI) dans le journal Nature Medicine a montré qu'une hormone de croissance, la PDGF-BB et une protéine, l'EPO (érythropoïétine), sont impliquées dans le développement des tumeurs cancéreuses et leur prolifération dans le corps. Ces nouveaux résultats précliniques pourraient permettre d'avancer sur l'inhibition de la croissance tumorale et le contournement des problèmes de résistance qui existent avec de nombreux médicaments d'usage courant.

L'équipe du professeur Yihai Cao de KI travaille sur l'angiogenèse, notamment son lien avec le cancer et d'autres maladies. L'angiogenèse est un processus qui repose sur la formation de nouveaux vaisseaux sanguins à partir de vaisseaux présents. Beaucoup des recherches actuelles se concentrent sur l'inhibition de l'angiogenèse tumorale, i.e. le moyen d'empêcher la formation des vaisseaux qui facilitent la croissance de la tumeur. Ces travaux montrent le rôle significatif joué par l'hormone de croissance PDGF-BB.

D'après l'étude qui a porté sur les souris, lorsque l'hormone de croissance PDGF-BB se lie à son récepteur, il stimule la protéine EPO qui à son tour contrôle la production des globules rouges qui apportent plus d'oxygène à la croissance tumorale et aux métastases. Le professeur Yihai Cao explique : "L'EPO a plusieurs fonctions. Elle augmente la production de sang (hématopoïèse) et stimule l'angiogenèse. Nous avons mis en évidence le mécanisme sous-jacent à ce phénomène. L'EPO agit également sur l'angiogenèse tumorale en stimulant directement la prolifération, la migration et la croissance des cellules endothéliales et leur capacité à former ce que l'on appelle le tube épithélial. L'hormone PDGF-BB favorise la stimulation de l'hématopoïèse extramédullaire, l'hypertrophie du foie et de la rate, ce qui augmente l'approvisionnement en oxygène et la prévention contre l'anémie."

Les chercheurs poursuivront leur étude sur des modèles de souris afin d'explorer à terme les opportunités d'études cliniques sur des patients.

Bulletins Electroniques

Première européenne : un bébé opéré à l'aide d'un robot
Mercredi, 11/01/2012 - 00:00

Une malformation congénitale de l'oesophage dont souffrait un bébé de quelques heures a été opérée en octobre au CHU de Limoges avec un robot, ce qui constitue "une première en Europe", a annoncé, récemment, Laurent Fourcade, chirurgien à l'origine de l'intervention. Le professeur Fourcade, chirurgien viscéral au CHU de Limoges, a relaté avoir réalisé avec ses "collaborateurs anesthésistes et infirmiers une opération unique en Europe sur un nourrisson tout juste né". Mi-octobre, il a fait le choix de réaliser une chirurgie reconstructrice sur la petite Louise, 3,2 kg, qui venait de voir le jour au CHU, avec un outil plus précis et moins invasif, un robot chirurgical baptisé Da Vinci dont l'hôpital s'est doté il y trois ans.

Le chirurgien viscéral a attendu deux mois et demi après l'intervention pour révéler l'information, afin d'être sûr du succès de l'opération. "C'est une première en Europe, car nous avons démontré pour la première fois que ce robot était opérationnel dans l'urgence (...) mais aussi parce que c'est la première fois qu'un tel appareil est utilisé sur un si petit enfant", a-t-il dit. "La petite Louise a pu être réalimentée huit jours seulement après l'opération et, aujourd'hui, elle va très bien", a précisé le professeur Fourcade.

L'atrésie de l'oesophage est une malformation de l'oesophage présente à la naissance. Elle s'opère habituellement via l'ouverture chirurgicale du thorax. L'oesophage est le "tube" qui relie la bouche à l'estomac. Chez les nouveau-nés présentant cette malformation, celui-ci est interrompu et se termine en cul-de-sac, ce qui interdit l'accès des aliments et de la salive à l'estomac. Environ un enfant sur 3 000 naît avec cette malformation qui touche autant les filles que les garçons, dans toutes les populations. Elle est deux à trois fois plus fréquente chez les vrais jumeaux.

Le Point

Cellules souches : des souris vivent trois fois plus longtemps !
Mardi, 10/01/2012 - 00:40

Des souris atteintes de progéria, une maladie qui accélère le vieillissement, ont vu leur espérance de vie multipliée par trois grâce à l’injection de cellules souches jeunes.

Le vieillissement est un processus universel. Il s’accompagne d’un renouvellement tissulaire moins rapide et moins efficace. En cause : les cellules souches chargées de se multiplier. Les années passant, elles assurent moins bien leur fonction. On ne sait d’ailleurs pas bien s'il s'agit de la cause du vieillissement ou, à l'inverse, de sa conséquence.

Depuis des années maintenant, les scientifiques cherchent à ralentir voire à stopper le processus. Personne n’y est encore parvenu, mais des étapes sont régulièrement franchies. La dernière en date a été révélée par Nature Communications dans son édition du 3 janvier, publiant les travaux de chercheurs de l’université de Pittsburgh (États-Unis).

En étudiant les cellules souches de souris atteintes de progéria, une maladie génétique qui se caractérise par un vieillissement accéléré, ils ont remarqué les mêmes caractéristiques que chez une souris sauvage très âgée : des cellules moins nombreuses, présentant une faible réplication et une différenciation peu importante.

  • Des cellules souches contre la progéria

Ils ont injecté dans l’abdomen de rongeurs de 17 jours atteints de progéria des cellules souches provenant de jeunes individus non atteints de la pathologie. En moyenne, les souris malades vivent 21 jours, et les plus âgées ne dépassent pas les 28 jours, contre 800 en moyenne pour un individu sain.

Résultat : les souris traitées ont survécu jusqu’à l’âge de 66 jours, soit trois fois plus longtemps que leurs congénères n’ayant pas subi l’injection. De plus, ces rongeurs étaient globalement en meilleure santé. Leur croissance était normale et des examens ont montré l’émergence de nouveaux vaisseaux sanguins dans le cerveau et les muscles, alors que les cellules souches injectées n’étaient pas détectées dans ces tissus.

« Ceci nous amène à penser que les cellules saines sécrètent des substances qui corrigent les dysfonctionnements constatés dans les populations cellulaires originelles » résume Laura Niedernhofer, l’une des auteurs de l’étude. « Dans une expérience in vitro, nous avons placé des cellules souches jeunes à côté de cellules de progéria, mais sans qu'elles n'entrent en contact. Nous avons observé que les cellules malades ont récupéré leur fonctionnalité. »

Ces découvertes ne semblent cependant pas applicables à l’Homme dans l’immédiat. Des chercheurs, dont Amy Wagers, spécialiste des cellules souches à l’université d’Harvard, rappellent que les modèles de progéria sont malgré tout très différents physiologiquement de ce que l’on observe dans le vieillissement naturel.

Si effectivement l’espérance de vie de ces souris a été multipliée par trois, leurs deux mois d’existence restent très faibles comparés aux deux années que peuvent atteindre les rongeurs sains. Le traitement n’a pas soigné la maladie mais a simplement ralenti sa progression, ce qui en soi est un premier pas intéressant. Les auteurs de l’étude sont bien conscients qu’ils n’ont pas trouvé la source de la fontaine de jouvence, mais ce travail pourrait entrouvrir de nouvelles pistes de recherche.

Futura Sciences

Le déclin cognitif apparaît dès 45 ans
Lundi, 09/01/2012 - 00:40

Il est clairement établi qu’il existe une association inverse entre l'âge et les performances cognitives, mais l'âge auquel le déclin cognitif commence est controversé. Jusqu’à présent, il était généralement admis qu’il n’y avait pas de déclin avant 60 ans. Dans une étude publiée dans le British Medical Journal, une équipe de recherche de l’Inserm dirigée par Archana Singh-Manoux, montre que notre mémoire, notre capacité à raisonner et à comprendre commencent à décliner dès l’âge de 45 ans. Cette étude issue de la cohorte Whitehall II a été menée sur plus de 7000 personnes pendant 10 ans.

L’augmentation de l'espérance de vie implique des changements fondamentaux dans la composition des populations avec une augmentation importante du nombre de personnes âgées. Ces changements auront probablement une influence profonde sur la vie des individus et la société en général. Il est clairement établi qu’il existe une association inverse entre l'âge et les performances cognitives, mais l'âge auquel le déclin cognitif commence est controversé. Des études récentes avaient conclu qu'il y avait peu d'arguments en faveur du déclin cognitif avant l'âge de 60 ans.

Toutefois, des études cliniques montrent une corrélation entre la présence de plaques amyloïdes dans le cerveau et la sévérité du déclin cognitif. Or, ces plaques amyloïdes semblent exister dans le cerveau de jeunes adultes. Les évaluations de l'effet de l'âge sur le déclin cognitif grâce à des données recouvrant plusieurs années sont rares. C’est précisément l’objet de l’étude menée par les chercheurs de l’Inserm et d’University College London.

Dans le cadre de l'étude de cohorte Whitehall II, les données médicales de 5 198 hommes et 2 192 femmes âgés de 45 à 70 ans au début de l'étude et suivis pendant 10 ans ont été extraites. Les fonctions cognitives des participants ont été évaluées 3 fois au cours de ces 10 années. Des tests individuels ont permis d’évaluer la mémoire, le vocabulaire, le raisonnement et la fluence verbale.

Les résultats montrent que les performances cognitives (sauf pour les tests de vocabulaire) déclinent avec l’âge et ce d’autant plus rapidement que les gens sont âgés. Le déclin est significatif dans chaque tranche d'âge. Par exemple, au cours de la période de l’étude, le déclin des scores du raisonnement était de 3,6 % pour les hommes âgés de 45 et 49 ans et de 9,6 % chez ceux âgés de 65 à 70 ans. Les chiffres correspondants pour les femmes étaient respectivement de 3,6 % et 7,4 %.

Les auteurs soulignent que la preuve de ce déclin cognitif avant l'âge de 60 ans a des conséquences importantes. « Déterminer l'âge auquel le déclin cognitif commence est important parce que des interventions comportementales ou pharmacologiques conçues pour changer les trajectoires de vieillissement cognitifs sont probablement plus efficaces si elles sont appliquées dès le début du déclin. » souligne Archana Singh-Manoux. « Alors que l’espérance de vie continue à augmenter, comprendre le déclin cognitif lié à l’âge est l’un des défis du 21e siècle » ajoute-t-elle.

Inserm

Tester des médicaments contre le cancer sur ses propres cellules
Lundi, 09/01/2012 - 00:10

On pourrait bientôt tester des médicaments anti-cancer en laboratoire sur ses propres cellules, grâce à une avancée scientifique réalisée par des chercheurs américains.

Richard Schlegel et son équipe du Georgetown Lombardi Comprehensive Cancer Center à Washington, ont en effet réussi à maintenir en vie des cellules normales et des cellules cancéreuses en laboratoire durant deux ans. Cela pourrait constituer le premier pas vers une nouvelle ère de médecine personnalisée contre le cancer.

Grâce à cette découverte, on pourrait en effet tester en laboratoire l'efficacité des médicaments sur les propres cellules cancéreuses d'une personne, et avant même qu'ils ne lui soient administrés. Actuellement, les pathologistes ne travaillent pas sur des cellules vivantes, mais sur des cellules congelées ou conservées au moyen de substances chimiques.

Pour parvenir à ce résultat, les chercheurs ont utilisé un procédé qui ramène les cellules à un état proche de celui de cellules souches, lesquelles peuvent donc se multiplier et se diviser à l'infini, ce qui était impossible jusqu'à présent.

Chaque tumeur étant spécifique, cette découverte pourrait permettre aux oncologues de trouver pour chaque personne, le traitement adéquat qui tuera les cellules cancéreuses tout en épargnant les cellules normales. Les résultats de cette recherche ont été publiés dans la revue scientifique American Journal of Pathology.

Canoé

Un nouvel antidote contre les irradiations mortelles
Lundi, 09/01/2012 - 00:00

Sauver des souris mor­tellement irradiées est possible grâce à un nouveau traitement mis au point par des chercheurs américains de l'Institut contre le cancer Dana Farber et de l'université de Harvard à Boston. Publié dans la revue Science Translational Medicine, «ce résultat ouvre une nouvelle piste de recherche pour tenter de soigner des personnes irradiées à de très fortes doses», confirme Marc Benderitter, chercheur à l'Institut de radioprotection et de sûreté nucléaire (IRSN) à Fontenay-aux-Roses (Hauts-de-Seine).

Le moyen trouvé par Eva Guinan, Ofer Levy et leurs collègues pour protéger les animaux exposés à une irradiation considérable de 7 grays, consiste à leur administrer pendant deux semaines un antibiotique de la classe courante des fluoroquinolones et une petite protéine antibactérienne appelée BPI. Ces produits, destinés à l'origine à neutraliser les effets toxiques des bactéries qui traversent la muqueuse intestinale après exposition à de très fortes doses de rayonnements, s'avèrent capables de protéger aussi la moelle osseuse, premier tissu endommagé par les irradiations. À la fin du traitement, 80 % des souris étaient encore en vie alors que leurs semblables irradiées et non traitées étaient mortes.

Même si plusieurs substances radioprotectrices sont déjà connues des chercheurs, cette bithérapie est unique sur au moins trois points. D'abord, elle est la seule à pouvoir agir jusqu'à 24 heures après une irradiation de tout le corps, ce qui permet d'envisager son utilisation chez l'homme à la suite d'une attaque ou d'un accident nucléaire. Ensuite, l'antibiotique et la BPI ont déjà fait la preuve de leur innocuité chez l'homme, ce qui les dispense de longs et coûteux tests de toxicité tout en rendant possible leur usage à titre préventif chez des personnes qui ignorent encore le degré de leur irradiation. Enfin, ces médicaments peuvent être facilement stockés : un avantage important s'il faut intervenir rapidement auprès d'un grand nombre de victimes.

Un tel traitement a-t-il une chance d'être utile en dehors de scénarios catastrophes imaginés par les militaires américains ? «Pas pour l'instant, nuance Marc Benderitter, car nous traitons déjà des personnes fortement irradiées en leur injectant dès que possible trois facteurs de croissance des cellules souches de la moelle osseuse. L'IRSN l'a encore fait dernièrement pour huit patients adressés par l'AIEA après leur irradiation accidentelle par des doses supérieures à 1 gray, seuil de la nocivité certaine des rayonnements ionisants. Ce type de traitement aurait probablement été très utile aux liquidateurs les plus irradiés qui sont intervenus dans la centrale nucléaire de Tchernobyl après son explosion en 1986.» En cas d'échec, une greffe de moelle osseuse nécessaire à la restauration des cellules sanguines reste toujours possible «mais le plus souvent, ajoute le spécialiste, une irradiation accidentelle ne touche qu'une partie du corps et les cellules souches de la moelle osseuse épargnées peuvent alors être stimulées avec simplement les facteurs de croissance».

Un seul produit en cours de développement a jusqu'à présent montré des résultats aussi spectaculaires. En 2008, l'équipe d'Andreï Gudkov, de l'Institut du cancer de Roswell Park et de la société Cleveland Biolabs aux États-Unis, a montré que l'injection du fragment d'une protéine bactérienne pouvait protéger des souris, et même des singes. Ce traitement restait efficace même s'il était appliqué une heure après l'irradiation et pour de très fortes doses d'au moins 9 grays.

Le Figaro

Un peu d’hormone dans le nez pour vaincre sa timidité
Dimanche, 08/01/2012 - 00:30

Hormone impliquée dans un certain nombre de mécanismes parmi lesquels l'accouchement, l'ocytocine est sécrétée par l’hypophyse. Cette dernière joue aussi un rôle dans les comportements entre individus et dans les interactions sociales.

Mark Ellenbogen et ses collègues de l'université Concordia de Montréal ont souhaité en savoir plus sur cette hormone particulière. En étudiant le comportement d’une centaine de femmes et d’hommes, âgés entre 18 et 35 ans, ils ont découvert que des inhalations ou des injections d'ocytocine pourraient permettre à certaines personnes de vaincre leur timidité et d'avoir davantage confiance en elles. D’après les travaux des chercheurs canadiens, l’ocytocine permettrait de désinhiber les personnes introverties, en leur donnant un peu plus de confiance en elles.

Ainsi, l’injection d’ovocytine permettrait d’amplifier certains traits de caractère tels que la cordialité, la confiance, l'altruisme et l'ouverture vers les autres. Suite à ce constat, les chercheurs estiment que cette hormone pourrait traiter certains symptômes de troubles tels que l’autisme. Des travaux sont en cours pour déterminer les potentialités d’un tel traitement.

Information Hospitalière

Gliome de l'enfant : une avancée majeure
Dimanche, 08/01/2012 - 00:10

Des chercheurs français dirigés par Jacques Grill, pédiatre-cancérologue à l’Institut de cancérologie Gustave Roussy (IGR). viennent d'identifier des mutations dans plusieurs gènes, dont le PI3KCA, impliquées dans le développement des gliomes infiltrants du tronc cérébral chez l’enfant. Ces travaux marquent une réelle avancée dans le traitement de cette pathologie dont le diagnostic reposait exclusivement sur l’imagerie et les symptômes déclarés.

Ces recherches ont été effectuées en collaboration avec les équipes de l’hôpital Necker-Enfants Malades de Paris et du Dana-Farber Cancer Institute de Boston (USA) à partir de biopsies tumorales réalisées sur 20 enfants atteints de gliomes infiltrant du tronc cérébral. Le test, élaboré par le Dana-Farber Cancer Institute a permis de mettre en évidence des mutations du gène TP53 dans 40 % des cas de cette série, du gène PI3KCA dans 15 % et du gène ATM/MPL dans 5 %. La mutation identifiée de l’oncogène PI3KCA s’avère présente dans 15 % des cas.

Cette découverte est importante et pourrait bouleverser le pronostic vital des enfants atteints. Elle permet d’envisager dans un futur proche l’utilisation de thérapies ciblées pour les enfants atteints de gliomes infiltrants du tronc cérébral porteurs de cette mutation spécifique : Il existe en effet déjà plusieurs molécules de thérapie ciblée contre la mutation du gène PI3KCA, en développement pour d’autres types de cancer chez les adultes et cela permet d’envisager rapidement la mise au point d’un traitement, adapté aux enfants.

Le gliome infiltrant du tronc cérébral est un cancer rare mais mortel, précise l’IGR, avec entre 30 et 40 nouveaux cas par an en France. Ce cancer touche les enfants jeunes d’une moyenne d’âge de 6 ans. La difficulté de réaliser des biopsies de cette tumeur rendait le diagnostic, le traitement et le pronostic incertains et l’issue était malheureusement le plus souvent fatale.

Ce nouvel espoir, relevant de la médecine personnalisée, permet d’identifier différentes formes de gliome infiltrant du tronc cérébral, de concevoir les futurs essais cliniques à mener, notamment avec cette thérapie ciblée contre la mutation de PI3KCA. Par ailleurs, l'absence de mutations dans les autres oncogènes habituellement mutés dans les cancers justifie des études plus approfondies.

National Center for Biotechnology Information

Un plus grand volume cérébral chez les garçons souffrant d’autisme régressif
Samedi, 07/01/2012 - 00:20

L’autisme est caractérisé par des difficultés d’interaction sociale et de communication ainsi qu’un manque d’intérêt, avec des comportements restreints et répétitifs. Sa grande hétérogénéité représente un obstacle à la détermination des étiologies, lesquelles pourraient conduire à la mise en place de meilleures procédures de prévention et d’intervention. Dans ce cadre, le programme APP (Autism Phenome project) représente un effort multidisciplinaire pour caractériser les phénotypes distincts de l’autisme.

L’altération de la croissance cérébrale est souvent considérée comme au centre de la neuropathologie de l’autisme. Des travaux antérieurs ont en effet révélé une croissance accélérée et un développement exagéré du cerveau chez les enfants autistes pendant les premières années de leur vie, alors qu’à la naissance, ils présentaient un cerveau de taille normale.

Dans cette étude américaine qui porte sur 180 enfants de 2 à 4 ans du projet APP, dont 114 atteints de troubles autistiques, l’évolution de la taille du cerveau est déterminée par imagerie par résonance magnétique (IRM) à l’âge de 3 ans et par des mesures rétrospectives du périmètre crânien de la naissance à 18 mois. L’objectif est d’examiner la relation entre la taille du cerveau et le statut régressif ou non de l’autisme. Certains enfants souffrant de troubles autistiques régressent en effet vers les âges de 12 à 24 mois, perdant une partie de leurs acquis des mois précédents.

Cette étude est la première à suggérer que la surdimension du cerveau serait caractéristique d’un sous-groupe de garçons atteints d’autisme régressif (n = 63). Chez ces enfants, le volume cérébral total est à 3 ans supérieur de 6 % à celui des enfants contrôles. Ils ont un périmètre crânien normal à la naissance qui diverge ensuite de la normalité vers les âges de 4/6 mois pour augmenter rapidement, bien avant la perte de leurs acquis, et ce jusqu’à l’âge de 18 mois environ. Vingt deux pour cent des garçons ayant un autisme régressif présentent une macroencéphalie, contre seulement 5 % de ceux sans régression. Aucune différence de périmètre crânien n’est observée entre des enfants autistes qui ne régressent pas et des enfants témoins (n = 66). L’étude ne met pas en évidence d’altération de la croissance cérébrale chez les filles autistes, une donnée à confirmer car la prévalence de l’autisme est 4 fois plus importante chez les garçons que chez les filles.

En conclusion, ces résultats suggèrent l’existence d’une neuropathologie de l’autisme différente chez les garçons atteints d'autisme régressif. Les auteurs estiment qu’une croissance cérébrale rapide dès l’âge de 4/6 mois pourrait représenter un facteur de risque précoce d’autisme régressif. Un progrès dans la connaissance des phénotypes de l’autisme, avec des causes qui restent néanmoins à déterminer.

JIM

Kanzi, le singe bonobo qui sait faire du feu et se cuire un steak
Vendredi, 06/01/2012 - 05:40

Kanzi, le célèbre bonobo qui sait déjà communiquer avec un clavier, est désormais capable de faire du feu, de cuire un steak et de faire fondre un marshmallow au bout d’un bâton, rapporte The Daily Mail.

Agé de 31 ans et élevé par Sue Savage-Rumbaugh –primatologue experte dans la science du langage chez les singes– au Great Ape Trust de la ville de Des Moines (Iowa), le singe a développé un sens primitif de l’art culinaire. Sue Savage-Rumbaugh assure que cela montre la profonde intelligence du singe, notamment par l’effet d’un mimétisme. En effet, Kanzi a «longtemps été fasciné par la manière dont les gardiens de son camp faisaient cuire les aliments, puis on l’a encouragé à interagir avec les humains et à les copier», ajoute-t-elle. Sur une vidéo, on peut le voir faire du feu, en ramassant du bois et des feuilles mortes, tout en tenant compte de la position du vent. Puis saisir une poêle, la mettre sur une grille et laisser le tout mijoter.

Bien que les singes bonobos et les chimpanzés utilisent de grandes brindilles et des feuilles comme des outils, aucun n'avait jamais montré une telle habileté pour la cuisson des aliments. Aussi, quand Kanzi a terminé avec le feu, le Docteur Savage-Rumbaugh lui demande de l’éteindre à l'aide d'une bouteille d'eau. Le singe va ainsi verser délicatement le liquide sur le feu jusqu'à ce qu'il s'éteigne. Mais ce n'est pas tout. Par exemple, Kanzi prend une guimauve, la colle au bout d'une brindille et la maintient soigneusement sur les flammes, en s’assurant qu'il ne brûle pas.

Sue Savage-Rumbaugh ajoute que cela ne résulte pas du hasard et que «Kanzi fait du feu parce qu’il le souhaite. Très jeune, il a regardé le film La guerre du Feu qui met en scène le premier homme qui lutte pour faire du feu. Il était fasciné par ce film, il l'a regardé des centaines de fois». Et Kanzi s’en est probablement inspiré.

Son apprentissage est d’autant plus important qu’il serait à même de le transmettre, comme il l’a montré avec son fils Téco, dans le même centre de recherche que lui. De plus, son intelligence ne se borne pas à ses capacités culinaires, Kanzi est aussi capable de comprendre la signification de 3.000 mots, selon Smithsonian et peut en «lire/dire»environ 500 via un clavier.

«Qu'arriverait-il s’il était libéré dans la nature, où les autres bonobos pourraient copier son comportement? Est-ce que les bonobos sauvages pourraient apprendre à maîtriser le feu de façon indépendante tout comme nos propres ancêtres?» s’interroge le Daily Mail. Avant de s’inquiéter de ces avancées fulgurantes, mentionnant le film La Planète des Singes où ces derniers menacent la suprématie de l’humanité sur Terre.

Slate

On peut mieux prédire les effets secondaires des médicaments
Vendredi, 06/01/2012 - 05:30

Prédire les effets secondaires d'un futur médicament serait possible avec un modèle mathématique exploitant les énormes bases données existantes affirment des chercheurs de l’hôpital pour enfants de Boston. Un outil supplémentaire pour éviter des scandales sanitaires ?

Un médicament n’est pas un produit comme les autres. Avant son autorisation de mise sur le marché, il doit d’abord franchir de nombreux obstacles, à commencer par des tests de son efficacité et de sa non-toxicité chez différents modèles animaux, avant une longue phase de tests cliniques sur des cobayes humains volontaires.

Une fois ces étapes validées, les autorités sanitaires, comme l’Afssaps en France ou la FDA aux États-Unis, autorisent à la vente la molécule. Seuls 10 % des médicaments parviennent jusqu'à ce stade. Malgré tous les tests effectués, on détecte parfois des effets indésirables imprévus aux conséquences parfois lourdes, obligeant les plus hautes instances à revoir leur position et parfois à retirer le produit du marché.

Des chercheurs américains de l’hôpital pour enfants de Boston présentent dans la revue Science Translational Medicine un modèle mathématique capable d’évaluer plus précisément les associations médicaments-effets indésirables qui risqueraient de se manifester dans les mois ou les années à venir.

Étant donné le recul dont on dispose avec toutes les molécules mises sur le marché, ainsi que tous les retours qui sont parvenus, les médecins ont envisagé de se servir de cette immense base de données pour établir un lien entre les différents principes actifs et les potentiels effets secondaires qu’ils déclenchent.

Pour tester leur modèle, les auteurs se sont servis des informations contenues dans une base de données de sécurité des médicaments datant de 2005 comportant toutes les informations nécessaires sur la chimie des médicaments. À partir de 809 molécules et de leurs 852 effets indésirables associés, ils se sont projetés sur les médicaments susceptibles d’entraîner des symptômes similaires. Ils ont alors comparé leurs résultats avec des données datant de 2010.

  • Jusqu’à 42 % des effets indésirables révélés

Bilan ? Les mathématiques ont pu prévoir des relations médicaments-effets secondaires alors inconnues en 2005 mais documentées en 2010, attestant de la capacité du modèle à anticiper des effets jusque-là jamais constatés. Ce modèle a également pu identifier 42 % des effets indésirables révélés entre 2006 et 2010. Enfin, il a confirmé l'absence d'effets secondaires pour 95 % des médicaments.

Si la méthode n’est pas entièrement fiable, elle permet de pointer du doigt les produits ayant une forte probabilité d’engendrer leur lot de symptômes non souhaités et donc de permettre une réévaluation ou un renforcement des contrôles par les autorités sanitaires. Aujourd’hui, il faut attendre que des patients se plaignent et souffrent pour reconsidérer l’intérêt d’un médicament. Un tel outil, même s’il reste perfectible, pourrait ainsi prédire certains scandales sanitaires avant qu’ils ne se produisent.

Futura Sciences

Manger moins maintiendrait la jeunesse du cerveau
Vendredi, 06/01/2012 - 05:10

Une réduction sensible des calories absorbées aurait, selon une étude italienne, des effets positifs sur la santé en préservant la jeunesse des cellules du cerveau et donc en prévenant les maladies cérébrales. Si l’obésité pourrait provoquer un vieillissement prématuré et favoriser l’apparition de maladies comme Alzheimer ou Parkinson, le contraire semble donc aussi vrai, rapporte le blog scientifique IO9.

Dans une étude publiée dans les Proceedings of the National Academy of Sciences fin décembre, des chercheurs mettent en exergue le rôle fondamental joué par une molécule, CREB1, activée par la restriction calorique. «La restriction alimentaire permet la libération d’une molécule qui joue un rôle essentiel dans le bon fonctionnement des cellules cérébrales», affirme le principal auteur de l‘étude, Giovambattista Pani, de la faculté de médecine de l’Université catholique du Sacré Cœur à Rome. «Cette découverte comporte des implications importantes sur le développement futur des thérapies permettant de garder notre cerveau jeune et de prévenir le processus de vieillissement», précise-t-il.

Pour vérifier cette idée, les scientifiques ont mené l’expérience sur des souris, rapporte Radio Canada. Résultat ? Une restriction calorique (quand le rongeur ne consomme que 70 % de la nourriture absorbée normalement) prolongerait la vie des animaux. Et ce n’est pas tout : non seulement ces animaux n’ont développé aucun diabète, mais ils ont même présenté de plus grandes capacités cognitives et de mémorisation. Les souris apparaissent également moins agressives.

L’importance de cette molécule a été mis en avant par d’autres expériences dans lesquelles des souris soumises à des réductions caloriques, mais dépourvues de molécules CREB1, ont subi les mêmes dégradations cérébrales qu’on observe chez des animaux trop nourris ou âgés, ce qui semble confirmer le rôle essentiel de la molécule. «Nous espérons trouver un moyen d’activer la CREB1 avec de nouveaux médicaments de manière à maintenir le cerveau jeune sans avoir à réduire l’apport en calories», souligne Giovambattista Pani.

Cependant, si les effets positifs semblent avérés sur les animaux, il n’est pas certain que cela fonctionnerait sur les hommes, d’autant plus que ce genre de tests pourrait prendre une centaine d’années. En avril 2010, des chercheurs américains avaient déjà démontré qu’une restriction calorique se traduisait par une prolongation de la durée de vie et par une meilleure santé générale.

Slate

Mélanome : nouvelle avancée
Vendredi, 06/01/2012 - 05:00
^ Haut
Homme
Anthropologie et Sciences de l'Homme
Hommes et grands singes, un cerveau pas si différent
Mercredi, 11/01/2012 - 00:30

Les Hommes actuels, les grands singes africains et les hominidés fossiles présentent tous une asymétrie cérébrale, caractère anatomique relié aux fonctions cognitives supérieures.

Le cerveau des humains présente des asymétries qui seraient, selon les scientifiques, liées aux fonctions cérébrales supérieures : langage, cognition et latéralisation manuelle. Mais l’espèce humaine ne serait pas la seule à posséder de telles caractéristiques cérébrales, révèle une étude publiée dans PLoS One.

Des chercheurs du CNRS et du Muséum national d’histoire naturelle (Paris, France) ont étudié les cerveaux des grands singes et de plusieurs espèces fossiles apparentées au genre humain (des Australopithèques aux Néandertaliens). Ils ont utilisé des modèles «virtuels» en trois dimensions du crâne et de la cavité endocrânienne, réalisés grâce aux progrès de l’imagerie médicale. Le résultat des analyses montre que le cerveau de tous les grands singes et les cousins disparus de l’humanité présentent des asymétries de forme.

  • Des asymétries liées au langage ?

Ces résultats ont d’importantes implications sur la compréhension des capacités fonctionnelles des hommes préhistoriques et des autres espèces du genre Homo.  Les paléontologues supposaient que certaines formes d’asymétrie occipitale et frontale étaient associées au langage. Mais, il est maintenant démontré que les grands singes ont aussi ce type d’asymétrie, bien qu’ayant des modalités de préférence manuelle différentes et ne disposant pas du langage articulé des Hommes.

  • Imagerie 3D

Ces dernières années, l’étude des crânes fossiles a pris une dimension particulière au sein de la paléontologie. L’imagerie 3D l'a fait entrer dans une nouvelle ère lui autorisant des inquisitions toujours plus poussées. Les chercheurs peuvent aujourd’hui scanner des crânes et reconstituer à partir des clichés la forme des cerveaux.

Antoine Balzeau, un des auteurs de cette publication, avait déjà réalisé pour Sciences et Avenir des reconstitutions du cerveau de l’Homme de Cro-Magnon. Elles montraient que le cerveau des hommes actuels est plus petit que celui de certains hommes préhistoriques.

Sciences et Avenir

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top