RTFlash

RTFLASH Recherche & Technologie
NUMERO 640
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Février 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
10 milliards d'appareils connectés à Internet en 2016
Fibre optique : la première Convention Nationale est signée
New York : un premier défilé numérique à usage instantané
Google débute le déploiement de son réseau de fibre optique aux USA
Avenir
Un robot téléguidé sur le modèle d'Avatar
Matière
Des cellules solaires hybrides plus performantes !
Un nouveau pas vers la maîtrise de la fusion nucléaire
Une tour solaire de 164 mètres de haut
Espace
Le succés de Vega conforte la technologie spatiale européenne
Un ancien océan martien détecté par radar
Terre
La mer monte dans le monde entier
L'agriculture, facteur de déforestation en Afrique à l'âge du fer
Changement climatique : les nouvelles simulations françaises pour le prochain rapport du GIEC
Maisons BBC (Bâtiment Basse Consommation) : des techniques éprouvées
Vivant
Une étude établit l'origine d'ancêtres unicellulaires
Guérir la surdité infantile avec les cellules ombilicales
Nanochirurgie contre le cancer : une nouvelle percée
Cancer de l'enfant : des progrès considérables dans les traitements
Cancer du sein : la mortalité continue à régresser en Europe
Attention au ronflement chez l'enfant
Les calories brûlent la mémoire
AVC : découverte d’une variation génétique qui double le risque
Cancer du cerveau : enfin des avancées
Cancer du sein invasif : quel rôle respectif pour le traitement hormonal substitutif et le dépistage systématique ?
Effacer la mémoire neuronale pour traiter la douleur chronique
Comment hériter d'informations non présentes dans les gènes ?
Un mécanisme fondamental du diabète élucidé
Infections et maladies auto-immunes augmenteraient les risques de schizophrénie
Stimuler le cerveau améliore la mémoire
Une avancée prometteuse dans la recherche sur le cancer
Brancher son cerveau sur électrodes pour remplacer 10.000 heures de travail
De nouveaux résultats soulignent l'importance des gènes synaptiques dans l'autisme
Tumeur d’Ewing : une avancée réalisée à Lyon
Le jeûne : nouvelle arme contre le cancer ?
Découverte d'un lien entre la perte d'audition et la sensibilité au toucher
Edito
Au Japon, les robots vont bientôt transformer la vie des personnes âgées



La société japonaise connaît aujourd’hui un vieillissement inexorable et sans précédent de sa population : un Japonais sur cinq a aujourd'hui plus de 65 ans et ils seront plus d'un sur 3 dans 25 ans. D’ici 2015, c'est à dire demain, près de 6 millions de Japonais auront besoin d'une assistance pour accomplir les actes de la vie courante. Ce concept d'assistance recouvre un vaste champ d'activités et ne se limite pas à une aide physique des aînés. Il est également essentiel de s'assurer que les personnes très âgées prennent bien leurs médicaments, s'alimentent correctement et conservent une vie sociale satisfaisante.

Il est en effet essentiel que les personnes âgées puissent continuer à avoir des activités intellectuelles, culturelles et sociales riches, de manière à vieillir dans les meilleurs conditions possibles et à éviter ou retarder non seulement les maladies liées au vieillissement physique de l'organisme mais également les affections non moins redoutables touchant la santé mentale : déclins cognitifs, dépression et maladies neurodégénératives de type Alzheimer. 

Il existe bien sûr déjà une multitude de dispositifs et de systèmes de veille et d'alerte électronique et numérique très utiles et relativement efficaces mais ces systèmes restent essentiellement passifs : ils ne peuvent agir physiquement sur l'environnement des personnes âgées et n'ont pas non plus une capacité de réaction et d'adaptation suffisante face à un événement imprévu. C'est à ce stade qu'interviennent les robots qui peuvent véritablement permettre aux personnes âgées de continuer à vivre chez elles ou en institution avec une sécurité et un confort de vie accrus.

Le RTC, un centre de recherche piloté conjointement par le RIKEN et Tokai Rubber Industries a mis au point “RIBA” (Robot for Interactive Body Assistance), le premier robot au monde capable de soulever une personne comme le ferait un être humain, c'est-à-dire en lui passant un bras dans le dos et l’autre sous les genoux.

Le directeur de ce centre, Toshiharu Mukai a présenté en 2009 un premier prototype prometteur de RIBA qui pouvait déjà prendre dans ses bras un patient de plus de 60 kilos, l'emmener sur plusieurs dizaines de mètres et le déposer délicatement sur un fauteuil ou un lit. Cette première version pesait 180 kilos et pouvait porter plus du tiers de son poids. Toshiharu Mukai vient de présenter une nouvelle version de RIBA qui peut, cette fois, soulever plus de 80 kg et être commandé à la voix ou par une simple pression sur son "dos". Une version finale, encore plus élaborée, plus puissante et plus autonome est attendue pour 2015 et sera alors proposée aux institutions pour personnes âgées et maisons de retraite.

De son côté, Honda a fait sensation en présentant la dernière version de son fameux robot "ASIMO" (Advanced Step in Innovative Mobility) à l'occasion du dernier salon automobile de Tokyo, en décembre 2011. Après 25 ans d'effort de recherche, Honda dispose à présent d'une machine stupéfiante en terme de précision, d'agilité, d'autonomie et de polyvalence. Asimo est notamment capable d'enregistrer plusieurs commandes humaines puis de servir différentes boissons sans une hésitation et sans perdre une goutte de liquide ! Il se déplace en évitant bien sûr tous les obstacles et avec une étonnante fluidité de mouvements. Asimo peut se commander à la voix mais comprend également le langage des signes et peut être muni de capteurs qui lui permettent d'être interpellé de manière très intuitive, par exemple par une petite tape dans le dos !

Mais il peut également courir en cas de besoin, ramasser des objets ou taper avec une précision époustouflante dans un ballon ! Initialement conçu et prévu pour l'industrie, ce robot est à présent si perfectionné, si autonome et si efficace qu'il n'est plus question de le cantonner aux tâches industrielles ou productives. Honda est en effet parfaitement conscient des extraordinaires potentialités de son robot dans le domaine des services et de l'assistance à la personne et devrait proposer prochainement une version d'ASIMO spécialement orientée vers l'assistance et le service des aînés

Mais les robots peuvent également avoir une fonction directement thérapeutique, comme "Babyloid". Ce petit robot, développé par l’Université Chukyo de Nagoya, ressemble à une grosse peluche et peut tenir compagnie aux personnes âgées et communiquer avec elles de manière simple en leur parlant ou en souriant. L'objectif est de lutter contre les états dépressifs, fréquents en maison de retraite.

La France n'échappe pas plus que le Japon au vieillissement accéléré de sa population et aux conséquences médicales et sociales considérables qui en découlent. En 2011, le nombre de personnes âgées de plus de 85 ans a dépassé 1 million en France et atteindra 2 millions en 2020 et 4 millions en 2040. La prise en charge des personnes âgées va donc devenir un enjeu économique et social tout à fait majeur au cours des prochaines décennies.

Mais dans notre pays, pour des raisons à la fois culturelles et historiques, les "gérontotechnologies" n'ont pas comme clef de voûte la robotique, comme au Japon et représentent un ensemble de solutions et de services technologiques et médico-sociaux beaucoup plus diffus, regroupant de nombreux acteurs publics et privés et associant et combinant de nombreuses technologies numériques.

Très impliqué dans ce domaine, l’INRIA mène plusieurs projets de recherche axés sur l’assistance à la personne. L'un de ces projets, baptisé "Demar" (Déambulation et mouvement artificiel) travaille depuis près de 10 ans à Montpellier pour améliorer l’aide au déplacement des personnes handicapées. D'autres projets concernent plus spécifiquement le maintien à domicile et la robotique d'assistance à la personne mais l'approche française est très différente de celle du Japon. Les chercheurs de l'INRIA travaillent notamment sur les robots parallèles et des robots à câbles relativement simples mais très efficaces et peu onéreux, capables d'aider les personnes âgées ou invalides à se déplacer chez elles.

À Nice, des chercheurs de l’INRIA associés à des médecins du CHU développent depuis 10 ans, dans le cadre du projet Coprin (Contraintes, OPtimisation, Résolution par INtervalles), des appareils d'assistance robotisée pouvant aider efficacement les personnes handicapées et âgées. Ce projet vise notamment à concevoir un déambulateur intelligent et communicant pour les personnes à mobilité réduite et à détecter précocement  des affections liées à l'âge, comme la maladie d’Alzheimer. Ces appareils peuvent également être utilisés de manière très utile dans la rééducation fonctionnelle des patients, après un accident, une chute ou une maladie.

Ce déambulateur du futur coûte environ 2000 euros, ce qui le rend bien plus accessible au grand public que les robots humanoïdes nippons de plus de 100 000 € pièce. Actuellement expérimenté dans différents établissements de la région de Nice, ce déambulateur est destiné à se généraliser rapidement au domicile des personnes âgées.

Toujours dans le cadre de "COPRIN, les chercheurs de l'INRIA, tournant le dos à la solution japonaise du robot "infirmier, capable de soulever un malade" ont également mis au point un remarquable système de transfert utilisant un ensemble de poulies, de vérins et de câbles fixés au plafond. Ce dispositif peu coûteux (environ 1000 euros) relativement simple mais très efficace, permet un déplacement beaucoup plus facile et rapide des personnes ayant des difficultés de déplacement.

Autre exemple d'approche pragmatique : la pose de microcapteurs sur un déambulateur à roulettes standard. Ces capteurs permettent d'enregistrer et de connaître les trajets précis du déambulateur mais ils peuvent aussi enregistrer les chutes qui, rappelons le, sont responsables de plus de 10 000 décès par an chez les personnes âgées. Ces informations sont évidemment très précieuses pour les médecins en charge de la rééducation des patients. Une autre équipe de l’INRIA dirigée par François Brémond, expérimente au CHU de Nice, un dispositif d'analyse d'images vidéo pour affiner le diagnostic de la maladie d'Alzheimer.

Mais l'assistance aux personnes âgées intéresse également les entreprises privées qui ont compris l'immense enjeu industriel et économique de ce domaine d'activité. La société française Aldebaran Robotics a ainsi mis au point le robot "Roméo", destiné à assister les aînés dans leur vie quotidienne.

Roméo se pilote grâce à une commande vocale mais peut également être dirigé manuellement à l'aide de boutons de commande placés sur son torse. Ce robot polyvalent est capable d'aider les personnes âgées dans les tâches qu'elles ont à accomplir chaque jour, qu'il s'agisse d'utiliser les différents appareils ménagers ou numériques, de se déplacer ou de porter des objets. ROMEO devrait d'abord faire son apparition en institution, avant de pouvoir être utilisé à domicile.

Selon l’IFR (International Federation of Robotics) plus de 2,5 millions de robots de services à usage personnel ont été commercialisés en 2011 et ce chiffre pourrait doubler d'ici 2015. Pour sa part, l'association japonaise de robotique prévoit que la robotique de service représentera dans 15 ans 80 % du marché global de la robotique. A l'intérieur de ce secteur en plein essor, les robots d’assistance aux personnes devraient représenter un marché estimé à 25 milliards d'euros en 2025.

L'Europe s'est également fortement impliquée dans les recherches et projets concernant la robotique d'assistance aux personnes avec le programme KSERA («Knowledge service robots for ageing») qui vise à concevoir et à réaliser, d'ici 2015, un robot intelligent et autonome destiné à aider les personnes âgées et à permettre leur maintien à domicile dans les meilleurs conditions possibles. 

KSERA sera d'abord destiné aux personnes âgées atteintes de broncho-pneumopathie chronique obstructive (BPCO), une maladie très invalidante qui deviendra la troisième cause de décès dans le monde d'ici 2030 selon l'OMS. D'ici 2015, les partenaires du projet KSERA vont expérimenter en grandeur nature, dans des maisons témoins, leur robot qui devra aider les patients dans leur vie quotidienne et leur délivrer conseils et avertissements en matière médicale, alimentaire ou plus largement pour adopter un mode vie sain. KSERA sera bien entendu relié en permanence à une cellule de surveillance médicale et préviendra celle-ci à la moindre alerte. Ce projet est ambitieux car ses concepteurs souhaitent que le robot puisse à terme comprendre les souhaits du patient et connaître ses habitudes, de manière à pouvoir anticiper ses demandes, comme le ferait un être humain.

On comprend mieux les enjeux économiques, financiers et politiques de ces recherches quand on sait que, selon la CNAM, le coût moyen d’une journée d’hospitalisation à domicile est de l'ordre de 200 euros, contre plus de 700 euros pour une journée d’hospitalisation traditionnelle. Chaque journée supplémentaire de maintien à domicile représente donc, en théorie, une économie de plus de 500 euros pour la collectivité, de quoi faire réfléchir la sécurité sociale et les responsables politiques sur l'intérêt de recourir aux robots d'assistance personnelle pour aider les personnes âgées à rester chez elles le plus longtemps possible.

Même si cela peut semble relever encore un peu de la science-fiction, je suis convaincu que dans 10 ans, la conjonction des progrès technologiques et de la nécessité économique entraînera une généralisation de l'usage des robots d'assistance personnelle, tant dans les institutions qu'au domicile des personnes âgées. Notre société doit se préparer dès à présent à cette mutation majeure et réfléchir à de nouveaux modèles économiques et sociaux qui permettront à tous nos aînés de bénéficier de ces nouveaux services numériques et robotiques qui vont profondément transformer et enrichir la dernière étape de leur vie.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
10 milliards d'appareils connectés à Internet en 2016
Mardi, 21/02/2012 - 00:40

Le trafic des données mobiles sera multiplié par 18 en cinq ans, prévoit l'américain Cisco.

Dans quatre ans, il y aura plus d'appareils sans fil connectés à Internet que d'êtres humains sur la Terre! Tel est le pronostic du groupe américain Cisco, spécialisé dans les routeurs pour l'Internet. En 2016, le nombre de smartphones, tablettes Internet et objets communicants, tels des GPS et des compteurs électriques, devrait atteindre 10 milliards d'unités dans le monde pour une population mondiale attendue à 7,3 milliards de personnes, assure le champion américain.

Tout d'abord, chaque être humain aura au moins un téléphone mobile, un PC portable ou une ­tablette. «En 2016, le monde comptera plus de 8 milliards d'appareils mobiles à usage personnel, connectés à Internet», précise l'étude de Cisco. De plus, près de 2 milliards de connexions à Internet seront effectuées uniquement par des machines entre elles, ce que les experts appellent le M2M, abréviation de «machine-to-machine».

  • Mise à jour des dossiers médicaux

Ce dernier segment de marché devrait enregistrer un taux de croissance vertigineux. «Fin 2011, selon le rapport Berg Insight, le nombre de connexions M2M était de 120 millions, contre 100 millions un an plus tôt», rappelle Benoît Jouffrey, vice-président de solution M2M chez Gemalto, le numéro un mondial des cartes à puce, spécialisé sur ce créneau. Et d'ajouter: «Les domaines d'applications sont extrêmement variés, depuis l'automobile en passant par les terminaux de paiement, les systèmes de suivis de conteneurs en passant par les compteurs électriques. Pratiquement, chaque entreprise peut faire appel au M2M pour rendre communicants les objets qu'elle produit ou qu'elle utilise.»

Cisco estime par ailleurs que le M2M devrait se développer dans le domaine médical, pour constituer les dossiers des patients et accéder plus rapidement aux données relatives à leur état de santé.

Outre le développement des usages, les connexions à Internet en mobilité vont s'améliorer, pour toutes les générations de réseaux de téléphonie mobile (GSM, 3G et Long Term Evolution, dit 4G). «En moyenne, la vitesse de connexion mobile sera multipliée par 9 entre 2011 et 2016», prévoit l'étude de Cisco, après avoir doublé seulement sur l'an dernier.

Le taux de croissance du trafic des données mobiles va croître au rythme de 78 % par an jusqu'en 2016, soit trois fois plus vite que l'ensemble du transfert de données sur Internet. De ce fait, le trafic des données mobiles sera multiplié par 18 pour atteindre un total de 130 exaoctets, soit 130 milliards de gigaoctets. Pour se représenter ce volume considérable d'informations, cela représente quelque 33 milliards de DVD, précise Cisco.

Cette étude rappelle celle publiée, début 2010, par le groupe suédois Ericsson, le leader mondial des réseaux mobiles, qui ­tablait, pour 2020, sur «50 milliards d'équipements connectés à Internet. Les patients seront reliés aux ­hôpitaux, les camions resteront en liaison avec leur centre logistique. Et plusieurs opérateurs ont déjà ­élaboré leurs divisions pour répondre à la demande de machines connectées aux autres machines».

Le Figaro

Fibre optique : la première Convention Nationale est signée
Mardi, 21/02/2012 - 00:10

Tous les acteurs de la région Auvergne, à savoir les collectivités, Orange et l'État, viennent de signer un accord pour mettre leurs moyens en commun, afin de pouvoir déployer le très haut débit dans la région. Si l'Auvergne est la première à bénéficier de ce nouveau traitement et de cette nouvelle convention, elle ouvrira la voie à d'autres qui pourront à leur tour bénéficier du très haut débit. L'État s'est en effet engagé le mois dernier par la voix du Ministre de l'Industrie et de l'Économie numérique, Éric Besson, à apporter une aide financière pour le déploiement de la fibre optique et ce pour cinq départements. Quatre de l'Auvergne sont aujourd'hui concernés, à savoir l'Allier, le Cantal, la Haute-Loire et le Puy-de-Dôme.

Dans un premier temps, cet accord signé permettra d'avoir une vue d'ensemble sur le développement de ces réseaux appelés FTTH ( Fiber To The Home ) et de disposer d'un calendrier. Tous les acteurs devraient pouvoir communiquer sur le sujet, mêler leurs informations, et profiter ainsi d'un déploiement plus efficace, "plus intelligent". Orange a d'ores et déjà publié sa carte de déploiement de la fibre optique en Auvergne. Toute la région ne se pare pas de la couleur citrouille, mais des villes comme Clermont-Ferrand, Riom, Montluçon, Moulins, Vichy, Saint Flour, Le Puy-en-Velay et Aurillac, soit 50 % de la population locale, seront touchées par cette nouvelle convention.

Cette convention est une grande première en France et engage le premier pas vers la couverture en très haut débit de l'ensemble du territoire, un objectif fixé pour 2025. Sur ce point, l'Hexagone affiche un certain retard par rapport à ses voisins européens, avec seulement 10 % de foyers raccordés à la fibre optique. La moyenne pour l'Europe est de 18 % alors que les États-Unis et le Japon, nettement en avance, ont des taux de pénétration respectifs de 35 et 40 %.

GNT

New York : un premier défilé numérique à usage instantané
Dimanche, 19/02/2012 - 00:40

Il fallait un carton d'invitation en bonne et due forme, mais terminée l'attente et la crainte de rater le détail-clé d'une collection : Prabal Gurung a présenté à la Semaine de mode de New York en première mondiale un défilé conçu et disponible uniquement sur Internet.

Dans le marathon des défilés qui se succèdent et parfois se chevauchent, ce n'était pas la simple diffusion d'un défilé en direct sur Internet, de plus en plus fréquente à la Fashion week. Sur la plate-forme «Digital Fashion Shows» (défilés numériques) de KCD, les mannequins de la collection automne 2012 ICB par Prabal Gurung défilaient dans un décor blanc brillant, avec fond musical en prime.

En bas de l'écran, pour chacune d'elle, une légende déroulante expliquait en détail ce qu'elle portait, robe en crêpe de Chine aux imprimés kaléidoscope, blazer orange au col de cuir d'agneau...

Et le créateur népalais, qui avait présenté auparavant sa collection «classique» dans le quartier de Chelsea, expliquait dans un petit film son inspiration, venue d'«une fille intelligente et pleine d'humour, avec une perception audacieuse du monde».

Une galerie photo permettait également de voir les mannequins de face et de dos.

Cette plate-forme, dont texte, photo, et vidéo sont téléchargeables, est uniquement destinée à la presse et aux acheteurs, qui sont des milliers à assister chaque saison à la Fashion week de New York. Elle ne permet pas de précommander certaines pièces de la collection.

Sa prochaine étape sera Paris, avec un nouveau défilé sur Internet à la fin du mois, a précisé Danielle McGrory, responsable du numérique chez KCD. «Nous sommes en train d'en finaliser les détails», a-t-elle ajouté.

Cyberpresse

Google débute le déploiement de son réseau de fibre optique aux USA
Dimanche, 19/02/2012 - 00:30

Google avait précisé ouvrir les inscriptions à son réseau expérimental de fibre optique avant la fin 2011 aux Etats-Unis. Les premiers clients seraient connectés au premier trimestre 2012. Les choses devraient prendre du retard puisque les travaux de hissage des câbles intégrant la fibre optique viennent tout juste de commencer. Google ne précise d’ailleurs pas quel pourcentage de fibre optique sera enterré et quel autre sera aérien.

Un appel à candidature avait été lancé par la firme de Mountain View début 2010 pour son projet Google Fiber. Et c’est la ville de Kansas City (Missouri) qui avait été choisie parmi toutes les municipalités intéressées. 50 000 personnes au minimum seront connectées au réseau fibre optique de Google. Il s’agit de leur donner accès au ultra haut débit avec du gigabit par seconde et un temps de latence faible. C’est « 100 fois plus que les débits auxquels les américains ont accès » selon Google. Reste l’inconnu du prix de l’abonnement, même si la firme de Mountain View l’annonce comme « compétitif ». Le réseau déployé par Google à Kansas City est censé être expérimental. Il permettra de développer et de tester des applis gourmandes en bande passante et d’apporter un réseau en fibre optique ouvert, pour faire en sorte que le client puisse choisir son FAI fibre optique. Autrement dit, disposer du réseau de demain avec son propre réseau « expérimental » permet de prendre un temps d’avance en termes de diffusion de vidéos HD, de vidéoconférence également HD ou encore de cloud computing.

Mais Google a aussi précisé que le projet lui permettait de mettre en oeuvre des techniques innovantes en termes de déploiement de la fibre optique. Techniques qui permettront peut-être à Google d’étendre Google Fiber à l’Europe et d’y devenir FAI. C’est ce que David Drummond, le vice-président de Google, avait déclaré à Eric Besson, le ministre en charge de l’Economie numérique, en octobre 2011. Il n’avait toutefois pas précisé quel(s) pays serait en tête de lice.

La France fait figure de bon candidat puisque la firme de Mountain View y a récemment ouvert un centre de recherche et de développement à Paris.

ITespresso

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot téléguidé sur le modèle d'Avatar
Jeudi, 23/02/2012 - 00:10

L'utilisateur de "Telesar V" est équipé d'un casque intégral, d'une veste et de gants spéciaux qui lui permettent non seulement d'actionner un robot androïde, mais aussi de voir, entendre et ressentir la même chose que la machine. "Quand j'enfile les gants et le casque doté d'un écran vidéo et que je bouge mon corps, je vois mes mains remplacées par celles du robot. Quand je remue la tête, j'ai une vision qui correspond à celle du robot", a expliqué le chercheur Sho Kamuro. "C'est une expérience étrange qui vous pousse à vous demander si vous êtes vraiment devenu un robot", a-t-il déclaré. Selon le professeur Susumu Tachi, spécialiste en ingénierie et en réalité virtuelle à l'université Keio, l'équipement sensible revêtu par l'opérateur envoie des instructions détaillées au robot, qui reproduit ainsi chaque mouvement de l'utilisateur. En retour, divers capteurs fixés sur l'androïde transmettent des informations qui provoquent des sensations chez l'opérateur.

Les gants fins en polyester portés par ce dernier sont en effet truffés de puces électroniques et micro-moteurs qui lui permettent de "sentir" ce que les mains mécaniques touchent, une surface douce ou rugueuse, ou bien encore le chaud et le froid. Les "yeux" du robot sont en fait des caméras qui transmettent des images sur des lunettes-écrans portées par l'utilisateur, qui peut ainsi voir, en trois dimensions (3D), ce que le robot regarde.

L'humanoïde recueille également des sons à l'aide de micros et reproduit la voix de l'opérateur à travers ses haut-parleurs. Le "Telesar" est encore loin des créatures futuristes mises en scène dans le film "Avatar" du réalisateur américain James Cameron, où des Terriens parviennent à contrôler à distance des êtres habitant sur la planète Pandora, individus hybrides créés par le croisement d'ADN humain et d'extraterrestres. Mais, selon le professeur Tachi, le robot pourrait avoir des applications plus terre à terre, dans des environnements à risques où l'homme ne peut pas pénétrer, comme à l'intérieur de la centrale nucléaire accidentée de Fukushima.

"Je pense qu'après des recherches et des améliorations supplémentaires, il serait capable d'aller dans des endroits trop dangereux pour des humains et y accomplir des tâches qui nécessitent une habileté humaine", a-t-il estimé. Pour ce chercheur, le "mythe de la sûreté" entretenu dans le secteur de l'énergie nucléaire a freiné le développement de la recherche en matière de machines capables d'intervenir en cas de catastrophe. Il pense que le long et délicat processus de démantèlement des réacteurs de Fukushima, qui pourrait durer quatre décennies, va offrir dans le futur des possibilités pour ce type de robot. D'autres domaines, plus proches de la vie quotidienne, comme la santé, pourraient également bénéficier de cette technologie.

Orange

^ Haut
Matière
Matière et Energie
Des cellules solaires hybrides plus performantes !
Mercredi, 22/02/2012 - 00:00

Des scientifiques du Laboratoire Cavendish, - département de Physique de l'Université de Cambridge -, ont mis au point un nouveau type de cellule solaire qui pourrait exploiter l'énergie du soleil beaucoup plus efficacement que les modèles traditionnels. Les résultats de cette recherche qui ont été publiés le 8 février 2012 dans la revue Nano Letters, montrent que de nouvelles cellules solaires pourraient accroître l'efficacité des panneaux solaires de plus de 25 % !

Les panneaux solaires fonctionnent en absorbant l'énergie des particules de lumière, appelées photons, qui génèrent à leur tour des électrons nécessaires à la production d'électricité. Les cellules solaires traditionnelles ne sont pas capables de capter une partie de la lumière du soleil car une grande partie de l'énergie de la lumière absorbée, en particulier les photons bleus, est perdue en chaleur. Cette incapacité à extraire toute l'énergie de toutes les différentes couleurs de la lumière simultanément, signifie que les cellules solaires traditionnelles sont dans l'incapacité de convertir plus de 34 % de la lumière du soleil en énergie électrique.

L'équipe de chercheurs dirigée par le professeur Neil Greenham et le Professeur Sir Richard Friend a développé une cellule hybride qui absorbe la lumière rouge tout en exploitant l'énergie additionnelle de la lumière bleue afin d'augmenter le courant électrique. Typiquement, une cellule solaire génère un électron unique pour chaque photon capturé. Cependant, en ajoutant du pentacène, un semi-conducteur organique, les cellules solaires peuvent produire deux électrons pour chaque photon du spectre de la lumière bleue. Cela pourrait permettre ainsi aux cellules solaires de capter jusqu'à 44 % de l'énergie solaire.

"Les cellules solaires organiques et hybrides ont un avantage sur la technologie des cellules photovoltaïques à base de silicium parce qu'elles peuvent être fabriquées en grandes quantités à moindre coût en mode rouleau d'impression (Roll to Roll). Cependant, pour une grande partie, les coûts d'une centrale solaire se partagent entre le terrain, main d’œuvre, et infrastructures matérielles. Par conséquent, même si les panneaux solaires organiques sont moins chers à produire, nous avons également besoin d'améliorer leur efficacité afin de les rendre plus compétitifs" a déclaré Bruno Ehrler, l'auteur principal de l'article.

Enerzine

Nano Letters

Un nouveau pas vers la maîtrise de la fusion nucléaire
Lundi, 20/02/2012 - 00:20

Les chercheurs sont parvenus à stopper la croissance des instabilités au cœur d’un réacteur à fusion, une prouesse inédite ! Comment y sont-ils parvenus ? Retour sur cette énergie aussi prometteuse que complexe à maîtriser.

La fusion cherche à reproduire l’énergie du Soleil dans un réacteur. Lorsqu’il est chauffé à plusieurs millions de degrés, le gaz devient ce qu’on appelle un plasma. Il arrive qu’une instabilité apparaisse, grandisse et perturbe assez le plasma pour que celui-ci vibre, malgré le champ magnétique utilisé pour le contenir. S’il touche les parois du réacteur dans lequel il se trouve, le plasma se refroidit rapidement et crée alors des forces électromagnétiques importantes dans la structure de la machine.

Le défi était de réduire les instabilités à l’intérieur même du plasma pour qu’elles ne croissent pas, tout en permettant au réacteur de fonctionner. Il fallait donc travailler avec la configuration particulière des réacteurs, où le plasma est très fortement confiné par le champ magnétique. Jonathan Graves et ses collègues du Centre de recherches en physique des plasmas de l’EPFL ont ajusté une antenne qui émet un rayonnement électromagnétique pour juguler ces instabilités à leur apparition directement dans la région où elles se forment, sans perturber le reste de l'installation.

Les physiciens ont d’abord réalisé des simulations pour vérifier dans quelle mesure la fréquence du rayonnement et l’endroit où il est appliqué permettent de supprimer les instabilités. Ensuite, ils ont réalisé des tests pour confirmer leurs calculs. L’intérêt de leur approche est d’avoir utilisé des antennes servant à chauffer le plasma et déjà présentes dans le Joint european torus (JET), le plus grand réacteur en fonction actuellement. Résultat surprenant, les simulations et les tests ont montré qu’il est possible de combiner chauffage et suppression des instabilités en dirigeant le rayonnement non pas exactement au centre du plasma, mais légèrement à côté.

Les prochaines étapes consistent à ajouter un système de détection pour permettre de neutraliser les instabilités en temps réel sur de plus longues durées. Ces avancées pourront ensuite être implémentées sur le réacteur à fusion ITER, en développement dans le Sud de la France.

Enerzine

Une tour solaire de 164 mètres de haut
Lundi, 20/02/2012 - 00:10

L'entreprise SolarReserve vient de terminer une tour de 520 pieds de haut (164 mètres et des poussières) pour son parc de capteurs solaires situé à Tonopah au Nevada. Le projet Crescent Dune devrait produire par moins de 480 000 mW/h par an, une quantité d'énergie suffisante pour fournir en électricité 75 000 maisons.

Utilisant une technologie permettant de concentrer l'énergie solaire (« Concentrated Solar Power » ou CPS), il ne reste à l'entreprise qu'à installer les quelque 10 000 miroirs qui permettront de rediriger les rayons du soleil vers le sommet de la tour afin de maximiser la récolte d'énergie.

La grande innovation du projet réside dans son utilisation du sel fondu comme élément de rétention de la chaleur plutôt que d'utiliser de l'huile. Le sel peut atteindre des températures allant jusqu'à 537 degrés Celsius (1000 degrés Fahrenheit) avant d'être emmagasinées jusqu'à 15 heures de temps.

Lorsque les besoins en électricité se font sentir, de jour ou de nuit, le sel chaud est pompé vers une turbine à vapeur qui crée l'électricité pouvant être redistribuée aux maisons. Le projet devrait commencer à produire de l'énergie en 2013.

Branchez-vous

^ Haut
Espace
Espace et Cosmologie
Le succés de Vega conforte la technologie spatiale européenne
Dimanche, 19/02/2012 - 00:20

Après Ariane 5 et Soyouz, qui a déjà deux tirs à son actif depuis la base de Kourou (Guyane française), l'Europe dispose à présent de Vega, une petite fusée de 137 tonnes qui a décollé lundi 12 février à 11 heures précises (heure de Paris), grâce à la poussée de son premier étage P80 à propergol solide conçu par le Centre national d'études spatiales (Cnes). Ce module très innovant, constitué d'une enveloppe externe en fibres de carbone entièrement bobinée, représente la contribution majeure de la France qui a assuré 25 % du financement de ce projet ambitieux, estimé à 710 millions d'euros, loin toutefois derrière l'Italie (60 %) qui en fut à l'origine. Vega vient compléter la gamme des lanceurs opérés depuis Kourou, aux côtés du poids lourd Ariane 5 ECA (jusqu'à 9,5 tonnes en orbite de transfert géostationnaire) et du mythique Soyouz russe (jusqu'à 3 tonnes).

Après le largage du P80, deux minutes après le top départ, les deux autres étages à combustible solide, Zefiro 23 et Zefiro 9, de conception italienne, ont pris le relais jusqu'à l'allumage, à 1450 kilomètres d'altitude, du module supérieur Avum. Véritable «cerveau du lanceur», ce petit étage, doté d'un logiciel de vol fourni par Astrium, a mis en orbite avec une précision d'horloger les neuf petits satellites expérimentaux embarqués par Vega, dont Robusta conçu par des étudiants de l'université Montpellier-2 en partenariat avec le Cnes. Parmi cette flotte, figuraient les premiers satellites roumains (Goliat), hongrois (MaSat-1) et polonais (PW-Sat-1).

Capable d'emporter jusqu'à 1,5 tonne en orbite basse (700 km d'altitude), Vega vise le marché des petites charges utiles, principalement des satellites institutionnels d'observation de la Terre. Dans le cadre du programme d'accompagnement technologique Verta, doté de 400 millions d'euros, l'ESA a d'ores et déjà acheté les cinq prochains lancements qui seront opérés par Arianespace, au rythme de 1 à 2 tirs par an. Le prochain rendez-vous est fixé à début 2013 avec la mise en orbite du satellite Proba-V destiné à prendre la suite de l'instrument Végétation embarqué sur les satellites Spot 4 et 5. «Vega a un avenir assuré car elle se situe sur un créneau où il y a actuellement peu de concurrence dans le monde» estime Jean-Jacques Dordain. Même analyse de la part de Jean-Yves Le Gall : «Vous avez tous parié votre argent sur Vega et vous raflez la mise», lançait lundi le PDG d'Arianespace, après la fin de la mission. Jusqu'à présent les petits satellites d'observation étaient surtout lancés par d'anciens missiles stratégiques russes, de type Rockot ou Dniepr, reconvertis pour des usages civils après l'effondrement de l'URSS.

Le programme Vega peut maintenant passer à une nouvelle phase dénommée VERTA pour Programme d'accompagnement de recherche et technologie Vega. Sous couvert de VERTA, Vega procédera au lancement de diverses missions scientifiques et technologiques. Le prochain vol, prévu début 2013, emportera le satellite de télédétection Proba-V de l'ESA ainsi que de multiples charges utiles auxiliaires. Les autres prochaines missions de l'ESA au titre de VERTA sont ADM-Aeolus (étude des profils de vent), Lisa Pathfinder (démonstrateur technologique de la détection d'ondes gravitationnelles) et le véhicule expérimental intermédiaire (IXV), qui fera la démonstration de technologies avancées de rentrée atmosphérique.

ESA

Un ancien océan martien détecté par radar
Vendredi, 17/02/2012 - 05:00

Le radar embarqué à bord de la sonde spatiale européenne Mars Express vient d'apporter de nouveaux éléments laissant à penser que la planète Mars a connu un passé bien plus humide qu'aujourd'hui, avec un immense océan recouvrant une grande partie de son hémisphère Nord.

Les dernières missions spatiales, de la Nasa comme de l'Agence spatiale européenne (ESA), ont toutes montré que de l'eau a coulé en abondance à la surface de Mars, avec notamment de nombreuses traces de ravinement et la présence de sédiments. Mais l'existence passée d'un ou plusieurs océans pendant des périodes de temps assez longues fait encore l'objet de débats. «La question de l'océan est assez primordiale, car s'il y a eu de l'eau en grande quantité et pendant longtemps, cela rend possible l'apparition de la vie», résume Olivier Witasse, responsable scientifique de la mission Mars Express à l'ESA.

«Avant la couverture radar de la surface martienne, toutes les observations précédentes ne regardaient en fait que la surface visible de la planète, explique Wlodek Kofman, de l'institut de planétologie et d'astrophysique de Grenoble.» Ce chercheur travaille avec le radar Marsis, qui a participé aux dernières observations de la sonde Mars Express. «Le radar est unique, car il nous permet de sonder ce qu'il y a sous la surface, en profondeur», précise-t-il. Les grandes antennes de la sonde, d'une envergure totale de 40 mètres, envoient des ondes radio vers Mars et récupèrent celles qui sont réfléchies par la planète, certaines longueurs d'onde pénétrant jusqu'à des centaines de mètres de profondeur.

Pour la présente étude, publiée en janvier 2012 dans la revue Geophysical Research Letters, l'engin a notamment caractérisé les propriétés des roches jusqu'à une profondeur d'une centaine de mètres. Les chercheurs en ont déduit que presque tout l'hémisphère Nord de la planète est aujourd'hui recouvert par ce qui semble être des sédiments contenant de grandes quantités de glace. Autrement dit des roches qui correspondent parfaitement à la signature d'anciennes grandes étendues d'eau. La différence est en tout cas très marquée avec l'hémisphère Sud, où le même signal n'est visible qu'autour du pôle Sud, là où il trahit la présence de glace comprise dans les roches de la calotte polaire. Vus de manière isolée, ces seuls signaux radar ne prouvent pas l'existence d'un ancien océan, mais ils se superposent presque parfaitement avec les contours des lignes de rivages repérés depuis des décennies sur des vues de Mars. «Le radar est un élément de plus qui vient renforcer l'hypothèse d'un océan ancien sur Mars, résume Wlodek Kofman. Mais pour en être absolument sûr, il faudra aller faire un forage sur Mars pour vérifier la nature des roches…»

"Cette nouvelle étude est vraiment intéressante et apporte de nouveaux éléments au dossier des océans martiens", estime Nicolas Mangold, spécialiste de la géologie martienne au laboratoire de planétologie et géodynamique de Nantes. En revanche, et les auteurs le reconnaissent, ces mesures indiquent la présence d'un océan assez tardif, il y a plus de 3 milliards d'années, dont on sait parfaitement qu'il n'a pas pu durer très longtemps, en tout cas pas assez longtemps pour que la vie puisse apparaître. Les traces d'un océan plus ancien et plus durable, signe d'une planète Mars chaude et humide à l'époque géologique du noachien, il y a 4 milliards d'années, sont encore introuvables. Les roches qui pourraient en porter les traces ont depuis été recouvertes par une forte activité volcanique.

Le Figaro

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La mer monte dans le monde entier
Jeudi, 23/02/2012 - 00:40

Une équipe de chercheurs de France et des États-Unis a découvert que le niveau des océans monte suite à la fonte des glaces. Présentée dans la revue Nature, l'étude est la première en son genre à déterminer la quantité de glaciers fondus qui entraîne l'élévation du niveau mondial des mers.

Sous la direction de l'université du Colorado à Boulder aux États-Unis, les chercheurs ont utilisé les mesures par satellites du projet GRACE («Gravity Recovery and Climate Experiment»), une mission commune de la NASA et du centre aérospatial allemand (Deutsche zentrum für Luft-und Raumfahrt), pour mesurer la fonte des glaces à l'échelle de la planète de 2003 à 2010. L'étude s'est particulièrement intéressée aux glaciers et aux calottes glacières hors du Groenland et de l'Antarctique.

Les données montrent que la quantité de glace perdue en sept ans par le Groenland, l'Antarctique et les autres glaciers et calottes polaires avoisine les 4300 milliards de tonnes. Le niveau mondial des mers s'est ainsi élevé de 12 millimètres. Ceci correspond à une quantité de glace suffisante pour recouvrir les États-Unis d'une couche de 50cm. «Une énorme quantité de glace fond chaque année. Ces nouveaux résultats nous aideront à répondre à des questions importantes sur l'élévation du niveau des mers et la façon dont les régions froides réagissent au réchauffement planétaire», déclare le professeur John Wahr de l'université du Colorado à Boulder, l'un des auteurs de l'étude. «GRACE se distingue par sa vision d'ensemble de la masse du système, même si sa résolution ne permet pas de déterminer la contribution de chaque glacier.»

Selon les chercheurs, environ 25 % de la perte annuelle de glace (environ 148 milliards de tonnes) concerne des glaciers et des calottes situés hors du Groenland et de l'Antarctique. Dans ces deux régions et à leur périphérie, la perte annuelle de glace est d'en moyenne 385 milliards de tonnes. Lors des études précédentes, les chercheurs s'étaient basés sur l'emprise au sol d'un petit nombre de glaciers, pour extrapoler les données à l'ensemble des glaciers du globe, non étudiés. Pendant plus de dix ans, seules quelques centaines des quelque 200000 glaciers de la planète ont été surveillés. Dans cette nouvelle étude, l'équipe du projet GRACE a estimé que la perte en glace des hauts massifs montagneux d'Asie, comme le Pamir et l'Himalaya, n'était que de 4 milliards de tonnes par an.

«Les résultats de GRACE dans cette région ont été une vraie surprise», souligne le professeur Wahr. «L'une des explications possibles est que les précédentes estimations s'étaient basées sur l'observation de quelques glaciers plus bas et plus accessibles d'Asie, extrapolée pour déduire le comportement de glaciers plus hauts. Mais au contraire de ces glaciers de moindre altitude, la plupart des glaciers élevés sont dans un environnement très froid qui exige un réchauffement plus important de l'atmosphère avant que les températures locales n'augmentent assez pour entraîner une fonte importante. Ceci complique l'utilisation des mesures au sol à faible altitude pour estimer les résultats de l'ensemble du système.»

Tom Wagner, scientifique de la NASA, commente les résultats : «Cette étude montre que la fonte des glaciers et des calottes de moindre taille, situés dans des régions comme l'Alaska, l'Amérique du Sud et l'Himalaya, contribue à élever le niveau de la mer de 0,05 cm par an. «Ce chiffre est inférieur aux estimations précédentes, mais il confirme la fonte des glaces à l'échelle mondiale, avec seulement quelques régions en équilibre précaire. Ces résultats affinent notre vision de la fonte des glaces terrestres, qui représente le facteur le plus important et menaçant de l'élévation du niveau des mers.»

Cordis

L'agriculture, facteur de déforestation en Afrique à l'âge du fer
Jeudi, 23/02/2012 - 00:30

L'étude de l'érosion des sols suggère que l'introduction de l'agriculture en Afrique centrale, il y a environ 3 000 ans, est en partie responsable de la raréfaction de la forêt tropicale survenue à la même époque.

Il y a 3 000 ans, une partie de la forêt tropicale d'Afrique centrale a cédé la place à des savanes. On attribue souvent cette modification à un changement climatique local, les précipitations ayant diminué à cette époque. Selon Germain Bayon et ses collègues de l'IFREMER Bretagne, l'arrivée de peuples d'agriculteurs aurait aussi joué un rôle : en analysant une carotte de sédiments marins prélevée au large du Congo, ils ont montré que l'érosion des sols a augmenté brutalement il y a 3 000 ans, ce qui traduirait l'adoption de pratiques agricoles assez intensives pour transformer l'environnement.

Les sédiments de la carotte analysée ont été apportés par le fleuve Congo au cours des derniers 40 000 ans. Ils sont notamment constitués d'argiles, issues du bassin versant du fleuve (l'aire dans laquelle toutes les précipitations finissent par se déverser dans le fleuve). Les argiles sont des roches sédimentaires, qui se forment à partir des éléments libérés par l'érosion chimique – l'ensemble des processus chimiques qui dissolvent les minéraux, notamment via les pluies – de roches mères silicatées, tel le granite. Elles sont ensuite altérées par une érosion dite physique et transportées en suspension par les cours d'eau jusqu'à l'océan.

La composition des argiles reflète l'intensité de l'érosion chimique. Lorsqu'ils sont dissous, certains éléments très mobiles des roches mères, tel le potassium (K), sont directement évacués par les eaux de ruissellement jusqu'aux cours d'eau puis aux océans, tandis que d'autres, tel l'aluminium (Al), restent majoritairement dans le bassin versant, où ils sont incorporés aux argiles. Plus l'érosion chimique est intense, plus elle évacue le potassium, et plus les argiles qui se forment dans le bassin versant ont une proportion Al/K élevée. Or il y a 3 000 ans, cette proportion a augmenté brutalement, et de façon non corrélée aux fluctuations environnementales.

Cette discontinuité aurait aussi pu résulter d'un changement d'origine des sédiments, par exemple suite à une réorganisation hydrographique du bassin versant – de nombreux fleuves ont connu une telle réorganisation dans le passé. Les chercheurs ont donc analysé le rapport entre les proportions d'isotopes d'autres éléments, tel le néodyme, qui permet de déterminer la provenance des sédiments : en effet, chaque partie du bassin versant a une signature isotopique distincte, dépendant principalement de l'âge des roches qui la composent. G. Bayon et ses collègues en ont conclu que les sédiments ont gardé une origine constante et que le changement de composition des argiles il y a 3 000 ans est bien dû à une intensification de l'érosion chimique.

Les vestiges archéologiques montrent qu'à cette époque, les Bantous, un peuple d'agriculteurs maîtrisant la technologie du fer, sont arrivés en Afrique centrale. Ils ont profité du changement climatique, grâce auquel certaines espèces de céréales ont pu être cultivées dans la région ; ce changement a sans doute aussi ouvert des couloirs de migration, en entraînant le remplacement de certaines forêts par des savanes, comme l'attestent les pollens d'herbes retrouvés dans les sédiments lacustres.

G. Bayon et ses collègues pensent ainsi que l'introduction des pratiques agricoles a favorisé l'érosion chimique. Le labour, par exemple, rend les terres moins compactes et plus vulnérables au lessivage par les pluies. L'intensité de l'érosion montrerait que ces pratiques étaient assez importantes pour transformer l'environnement. Dans leur quête de nouvelles terres à cultiver, les Bantous auraient coupé de nombreux arbres, accélérant la déforestation enclenchée par le changement climatique.

Pour La Science

Changement climatique : les nouvelles simulations françaises pour le prochain rapport du GIEC
Vendredi, 17/02/2012 - 05:10

La mission du GIEC est de recenser et de résumer toute l'information scientifique sur le changement climatique, ses impacts et les solutions pour l'atténuer ou s'y adapter. Le premier volet de son 5e rapport, publié à la mi-septembre 2013, fera ainsi un nouvel état des connaissances accumulées au cours des dernières années. Comme pour l'édition de 2007, la communauté scientifique internationale s'est mobilisée, en particulier au travers du Programme mondial de recherche sur le climat (PMRC), pour concevoir et réaliser un exercice de simulations du climat passé et futur (CMIP-5).

Cet effort de recherche, très exigeant en termes de ressources humaines, de puissance de calcul et de stockage de données, rassemble plus d'une vingtaine de centres climatiques dans le monde ayant développé une cinquantaine de modèles numériques. En France, de nombreux organismes contribuent à ce projet, notamment à travers le CNRM, associé au CERFACS, et l'IPSL.

En accord avec les conclusions du GIEC en 2007, une tendance à l'augmentation des températures est observée à l'horizon 2100 pour tous les scénarios. Elle est plus ou moins marquée selon le scénario considéré : la hausse est de 3,5 à 5°C pour le scénario le plus sévère, de 2°C pour le plus optimiste, qui ne peut être atteint que par l'application de politiques climatiques de réduction des émissions de gaz à effet de serre. De plus, il apparaît que la réponse aux seuls facteurs naturels ne permet pas d'expliquer le réchauffement moyen constaté à partir de la seconde moitié du 20e siècle.

Une intensification du cycle hydrologique se confirme, de même qu'une fonte rapide de la banquise Arctique qui, dans le cas du scénario le plus pessimiste, disparaît en été vers 2040 ou 2060 selon le modèle. Les simulations réalisées en couplant le climat au cycle du carbone apportent des réponses nouvelles. Elles soulignent notamment qu'il faudrait rapidement diminuer les émissions anthropiques et atteindre des émissions « négatives » (qui correspondent à une action anthropique permettant de prélever directement du CO2 de l'atmosphère) d'ici la fin du 21e siècle. Les analyses de cet ensemble de simulations combiné avec les simulations des autres groupes internationaux apporteront un nouveau regard sur le lien entre les activités humaines et le climat, à la fois au cours des dernières décennies et, surtout, dans les décennies et les siècles à venir.

CNRS

Maisons BBC (Bâtiment Basse Consommation) : des techniques éprouvées
Vendredi, 17/02/2012 - 05:00

Céquami, certificateur de maisons individuelles, dresse un bilan multicritères des maisons BBC Effinergie qu’il a labellisées en 2011.

Céquami, organisme de certification des maisons individuelles, habilité entre autres à délivrer les labels énergétiques, dont BBC Effinergie, a analysé près de 2500 dossiers de demande de label BBC pour établir un profil type de la maison BBC en 2011, un an après une étude similaire menée en 2010. Données géographiques, prix, surface, bâti, performances, équipements, caractéristiques énergétiques... : au total, douze grandes thématiques ont été analysées. On note notamment un prix au m² équivalent entre 2010 et 2011 : le prix moyen (hors terrain) passe de 1458 € /m² en 2010 à 1433 €/m² en 2011. La consommation conventionnelle d'énergie primaire moyenne est de 48,1 kWh/m².an et la répartition régionale équivalente à celle de 2010 avec une majorité de labels délivrés dans les Pays de la Loire (22 %). L'étude relève cependant une nette augmentation de la part des labels délivrés en Ile de France (7,3 % en 2010 v/s 14 % en 2011).

Du côté des modes constructifs, l'étude montre un rééquilibrage parpaing-brique à 44 %-43 %. En 2010, la brique était dominante à 69 %, ce que Céquami explique par le fait que l'Alsace et les Pays de la Loire étaient très majoritaires en demandes de label cette année-là. Or, ces régions construisent presque exclusivement en brique.

Le niveau de perméabilité à l'air des maisons, mesuré in situ, est jugé exemplaire : en moyenne 0,40 m3/m².h, sachant que le seuil réglementaire est de 0,6 m3/m².h. « Cette donnée démontre que les constructeurs de ces maisons sont d'ores et déjà en capacité, en termes de perméabilité, de répondre aux exigences du futur et ambitieux label Effinergie+, dédié aux bâtiments à énergie positive, dont le seuil de perméabilité sera fixé à 0,4 m3/m².h », analyse Christophe Bonnavent, directeur général de Céquami.

Concernant les équipements énergétiques, à noter une augmentation des parts de marché du gaz avec 45 % des maisons ayant recours au gaz distribué ou en bouteilles pour le chauffage principal. Le chiffre était de 27 % en 2010. En électricité, c'est la solution thermodynamique qui est choisie dans 78 % des cas, avec une pompe à chaleur aérothermique dans la plupart des cas (94 %). La pompe à chaleur géothermique voit en revanche son marché s'effondrer après quelques contre-références. C'est aussi une solution plus coûteuse en cas de forage ou qui nécessite de la surface de terrain pour la géothermie horizontale.

Enfin, la VMC simple flux hygro B est toujours majoritaire avec 96 % des maisons ayant recours à cette solution pour la ventilation.

Pour compléter cette approche technique dédiée à la conception des maisons, Céquami a interrogé des familles ayant fait construire des maisons BBC, sur la façon dont ils y vivent, sur leur perception, leur satisfaction.

Le Moniteur

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une étude établit l'origine d'ancêtres unicellulaires
Jeudi, 23/02/2012 - 00:20

Des scientifiques de Chine, de Suède et du Royaume-Uni ont découvert des preuves d'ancêtres unicellulaires d'animaux, datant de l'intervalle historique précédant l'apparition d'animaux multicellulaires. Les preuves proviennent de roches dans le sud de la Chine, et sont âgées de près de 570 millions d'années. Présentée dans la revue Science, l'étude a reçu un financement partiel au titre du septième programme-cadre (7e PC) de l'UE.

Des études antérieures avaient déjà montré que la vie avait évolué à partir d'un ancêtre universel unicellulaire, et qu'à plusieurs moments de l'histoire de la Terre, des organismes unicellulaires ont évolué pour devenir des organismes multicellulaires. La grande variété du règne animal en est un bon exemple. Mais les preuves de ces transitions évolutives n'avaient jamais été pleinement explicitées jusqu'à ce jour.

Sous la direction du musée suédois d'histoire naturelle, des chercheurs de Chine, de Suède, de Suisse et du Royaume-Uni ont identifié des fossiles ayant préservé les différentes étapes du cycle de vie d'un organisme similaire à l'amibe en cycles asexués. Une cellule se divise en deux, puis en quatre, en huit, en seize, en trente-deux et ainsi de suite. En résultent des centaines de milliers de cellules comme des spores reproduisant elles-mêmes le même cycle de division. Selon les chercheurs, le schéma de division cellulaire est très similaire aux premières étapes de l'embryologie animale, dont celle de l'homme, considérées par les scientifiques comme des représentations des embryons des animaux primitifs.

En étudiant ces fossiles au microscope et par l'application de rayons X de haute énergie, l'équipe est parvenue à découvrir l'organisation des cellules protégées par leurs membranes kystiques. Les chercheurs expliquent que les organismes ne devraient pas être fossilisés. Mais pourtant, ils étaient bien sous formes de regroupements gluants de cellules enfouis dans des sédiments riches en phosphate ayant imprégné les parois des cellules, ce qui contribua à leur solidification.

Commentant les résultats de l'étude, l'auteur principal, Therese Huldtgren du département de paléozoologie du musée suédois, s'explique : «Ces fossiles sont extraordinaires, car même leurs noyaux ont été préservés.» Et le Docteur John Cunningham de la faculté des sciences terrestres de l'université de Bristol au Royaume-Uni d'ajouter : «Nous avons utilisé un accélérateur de particules, un synchrotron, comme source de rayons X. Cela nous a permis d'obtenir un modèle informatique parfait du fossile que nous pouvions tourner et retourner dans tous les sens, sans endommager le vrai fossile. Il ne nous aurait pas été possible d'étudier ces fossiles d'une autre manière.»

Grâce à la microscopie à rayons X, les chercheurs ont pu démontrer que les fossiles possédaient des caractéristiques inexistantes chez les embryons multicellulaires. Ils ont ainsi supposé que ces fossiles n'étaient ni des animaux ni des embryons, mais plutôt des spores reproductives d'ancêtres unicellulaires d'animaux.

Le professeur Philip Donoghue, également de l'institution britannique, complète : «Nous avons été très surpris de nos résultats, nous étions convaincus que ces fossiles étaient des embryons d'animaux primitifs." Pour sa part, un autre auteur de l'étude, le professeur Stefan Bengtson explique : «Ces fossiles nous forcent à repenser toutes nos théories sur la transition vers des cellules uniques à des organismes animaux plus grands.»

Cordis

Guérir la surdité infantile avec les cellules ombilicales
Jeudi, 23/02/2012 - 00:00

La médecine aux Etats-Unis place de grands espoirs dans les cellules souches du sang du cordon ombilical pour traiter voire inverser une forme de surdité congénitale des nourrissons, après le démarrage d'un premier essai clinique. L'agence des médicaments américaine (FDA) a donné son feu vert à cet essai en janvier et le premier de dix patients -- âgés de six semaines à 18 mois-- a déjà été enrôlé dans l'étude.

Il s'agit d'un essai clinique de phase 1 devant être mené au Texas pendant un an pour évaluer la sûreté de ce traitement qui consiste à greffer des cellules souches provenant du cordon ombilical de l'enfant pour traiter la surdité de perception. Cette surdité résulte d'une lésion des organes sensoriels dont les cellules de l'oreille interne et le nerf cochléaire. Les enfants n'ont que 18 mois pour acquérir les capacités du langage et s'ils ne peuvent pas entendre, ils ne pourront pas parler normalement, explique le Docteur James Baumgartner de l'Université du Texas, qui parraine l'étude.

La décision de procéder à cet essai clinique s'appuie sur des études prometteuses menées sur des souris montrant que la greffe de ces cellules souches provenant du sang ombilical a permis de reconstituer les structures de l'oreille interne de ces animaux. En outre, ce traitement appliqué pour traiter d'autres pathologies a aussi permis de restaurer dans quelques cas l'ouïe d'enfants souffrant de surdité de perception, confortant l'espoir que cette approche pourrait rétablir une audition normale.

C'est le cas de Finn McGrath, un petit garçon de deux ans qui a subi des dommages du cerveau après avoir été privé d'oxygène lors d'un accouchement difficile, explique sa mère Laura. Les médecins nous ont dit qu'il courait un risque élevé de paralysie cérébrale, de problèmes de vision, d'ouïe et de retard mental, raconte-t-elle. Sa survie étant incertaine, ses parents ont prêté peu d'attention aux médecins leur annonçant qu'il était aussi sourd et avait des cellules auditives endommagées. Finn souffrait de défaillance d'organe, de problèmes respiratoires et sa paralysie cérébrale l'empéchait de se tourner, de ramper, de tenir sa tête droite, de parler et de manger.

Alors que ses parents désespérés cherchaient un moyen d'aider leur fils, ils ont découvert en lisant des articles que des études montraient que des greffes de cellules souches ombilicales pouvaient aider des enfant atteints de paralysie cérébrale. Par précaution, les McGrath avaient contacté avant la naissance de leur enfant une banque privée de sang ombilical qui moyennant 2.000 dollars récupère et préserve ce sang. Cette pratique reste controversée parmi les pédiatres. Ils ont donc décidé de faire enrôler leur fils dans un essai clinique testant des greffes de cellules souches ombilicales pour traiter la paralysie cérébrale. Le petit Finn a reçu la première greffe en 2009 à sept semaines et une seconde six mois plus tard. C'est alors que ses parents ont remarqué un changement. Outre une amélioration générale de son état, il a commencé à vocaliser les sons et de toute évidence à entendre des chansons ou des histoires, raconte sa mère.

La dernière greffe a eu lieu en septembre 2010, à un an. Quatre mois après un test acoustique a donné des résultats normaux. Tout ce que je peux dire c'est qu'il était sourd à trois ou quatre mois et qu'il a commencé à entendre vers six à huit mois, se réjouit la mère.

La surdité de perception congénitale touche six enfants sur mille et il n'y a aucun traitement. Cette thérapie cellulaire pourrait potentiellement restaurer une audition normale chez ces enfants, explique le Docteur Sami Fakhri de la faculté de Médecine du Texas à Houston, qui conduit l'essai clinique, jugeant les premiers résultats encourageants.

Romandie

Nanochirurgie contre le cancer : une nouvelle percée
Mercredi, 22/02/2012 - 00:40

Des chercheurs de Polytechnique Montréal sont parvenus à modifier le matériel génétique d'une cellule cancéreuse grâce à une toute nouvelle méthode de transfection. Cette importante avancée en nanochirurgie ouvre la voie à de nouvelles applications médicales, notamment pour le traitement du cancer. Unique, la méthode développée par le Professeur Michel Meunier et son équipe utilise un laser à impulsions ultra-courtes de concert avec des nanoparticules d'or. Déposées sur les cellules, les nanoparticules concentrent l'énergie du laser et permettent d'intervenir chirurgicalement à l'échelle nanométrique d'une façon extrêmement précise et non invasive. La technique permet notamment de modifier l'expression de  gènes dans les cellules cancéreuses et pourrait être utilisée pour freiner leur migration et ainsi éviter la formation de métastases.

La technique mise au point par le Professeur Meunier et ses collaborateurs est une solution de rechange alternative prometteuse aux méthodes conventionnelles de transfection cellulaire comme la lipofection. L'expérience menée dans les laboratoires montréalais sur des cellules humaines de mélanome malin a démontré une efficacité d'optoporation de 70 %, ainsi qu'un rendement de transfection trois fois supérieur au traitement par lipofection. En outre, contrairement au traitement conventionnel qui détruit l'intégrité physique des cellules, la nouvelle méthode assure la viabilité cellulaire, présentant une toxicité inférieure à 1 %. Les résultats de cette étude ont été publiés dans la prestigieuse revue Biomaterials. Cette percée scientifique majeure ouvre la voie au développement d'applications prometteuses, dont la mise au point de nouvelles approches thérapeutiques, tant en oncologie qu'en neurologie ou en cardiologie.

L'équipe du Professeur Meunier travaille en collaboration avec des chercheurs de l'Institut de recherche du Centre universitaire de santé McGill. Les travaux de recherche reçoivent le soutien financier du Fonds québécois de la recherche sur la nature et les technologies (FQRNT), de la Fondation canadienne pour l'innovation (FCI), du programme des Chaires de recherche du Canada (CRC), des Instituts de recherche en santé du Canada (IRSC) et de la Deutsche Forschungsgemeinschaft (DFG).

Newswire

Cancer de l'enfant : des progrès considérables dans les traitements
Mercredi, 22/02/2012 - 00:30

Organisée à Paris il y a quelques jours par l’Association Enfants et Santé, la Première conférence nationale sur les cancers et leucémies des enfants, placée sous le haut patronage du Ministre de la santé, a donné la parole à de nombreux experts des cancers pédiatriques, en particulier sur le rôle de la recherche clinique, de transfert et fondamentale dans la guérison des leucémies de l’enfant. Le Docteur Dominique Valteau-Couanet, Chef du département de cancérologie de l’Enfant et de l’Adolescent, (Institut Gustave Roussy-Villejuif) faisait le point sur les progrès réalisés dans la prise en charge des enfants atteints de cancers.

Depuis 1970, ces progrès considérables réalisés dans la prise en charge des enfants porteurs de cancers ont permis de diminuer de plus de moitié la mortalité par cancer pour les enfants de la naissance à l’âge de 14 ans. Ces améliorations sont liées à la prise en charge des enfants dans des centres spécialisés et au travail coopératif des oncopédiatres regroupés en sociétés savantes spécifiques nationales, la SFOP puis la SFCE, et internationales, la SIOP, précise le Docteur Valteau-Couanet.

Des protocoles prospectifs multicentriques spécifiques ont été élaborés. L’analyse de leurs résultats en termes d’efficacité et de toxicité a permis de définir les études suivantes et de progresser par étapes successives. Ce mode de travail collaboratif a contribué à faire progresser la prise en charge immédiate des petits patients, tout en améliorant le contrôle et la prévention des complications aiguës. Les conséquences à long terme des traitements sont identifiées, permettant de mieux orienter les choix thérapeutiques.

Un exemple, le lymphome de Burkitt : C’est le plus bel exemple du bénéfice de ce type de stratégie. Les lymphomes de Burkitt représentent 60 % des lymphomes non hodgkiniens de l’enfant. Alors que dans les années 70, les patients étaient traités par chimiothérapie prolongée comportant de l’endoxan (toxique pour la fertilité des garçons) et de l’adriamycine (toxique pour le cœur), de la radiothérapie locale et de l’encéphale, le taux de survie ne dépassait pas 35 %. De trop nombreuses récidives étaient constatées. Depuis 1981, un protocole plus court et combinant différemment les médicaments dont certains à « haute dose » (dont le méthotrexate) permet d’atteindre un taux de guérison de 75 % sans irradiation et avec des doses moindres de chimiothérapie. Puis 2 protocoles successifs en 1989 et 1996 ont permis d’améliorer encore le taux de guérison (90 %) avec une toxicité en diminution. Depuis, cette stratégie a été adoptée par les oncologues de Grande Bretagne et des États-Unis. Aujourd’hui, le pronostic des formes les plus localisées est de 98 %, celui des formes les plus diffuses, de 90 %.

Autre exemple, le neuroblastome métastatique : Le premier protocole français portait sur la chimiothérapie initiale avec un contrôle de la maladie métastatique dans 40 % des cas. En 1999, Olivier Hartmann identifiait pour la première fois l’importance du Busulfan et du Melphalan suivi d’autogreffe pour le traitement de cette maladie. Ces résultats, confirmés ensuite par une étude européenne conduite en 2002, démontrent la supériorité de cette combinaison sur celle utilisée aux États-Unis. Enfin, en 2009, une étude américaine a montré le bénéfice d’un traitement d’entretien par immunothérapie et a conduit à modifier la stratégie européenne.

Santé Log

Cancer du sein : la mortalité continue à régresser en Europe
Mercredi, 22/02/2012 - 00:20

La mortalité par cancer du sein dans l’Union européenne (UE) a baissé de 7 % entre 2002 et 2006, passant de 17,9 à 16,7 décès pour 100.000 femmes. C’est le constat d’une étude menée par l’Institut de médecine sociale et préventive de Lausanne avec des confrères italiens. Les plus fortes baisses ont été observées dans les pays d’Europe du nord (-38 % dans le Royaume-Uni). Le recul a été plus récent et modeste dans les pays du centre et de l’est de l’Europe où la mortalité a augmenté jusque dans les années 90, selon ces travaux publiés dans la revue «The Breast».

La diminution de la mortalité a été plus évidente parmi les femmes jeunes (-11,6 % entre 20 et 49 ans dans l’UE), alors qu’elle était plus limitée avec l’avancement en âge (-6,6 % à 50-69 ans/-5 % à 70-79 ans). En Suisse, la réduction entre 2002 et 2007 a été substantielle, atteignant -14,2 % en moyenne. Elle s’est élevée à -14,1 % chez les 50- 69 ans, à -4,3 % après 70 ans et a été particulièrement prononcée (- 24,1 %) chez les femmes âgées de 20 à 49 ans. Cette tendance favorable s’était déjà amorcée au cours de la décennie précédente: la mortalité a en effet diminué de plus de 15 % dans l’UE entre la fin des années 80 et le début des années 2000. La tumeur du sein reste cependant la principale cause de mortalité par cancer chez la femme dans l’ensemble de l’UE et en Suisse, soulignent les auteurs de l’étude.

Cette réduction persistante au cours des 25-30 dernières années, également observée aux Etats-Unis, est principalement due aux progrès des traitements. L’évolution particulièrement favorable chez les femmes jeunes suggère que la mortalité est destinée à baisser davantage dans un proche avenir. Dans l’UE, on prévoit ainsi une diminution de 9 % entre 2006 et 2012, jusqu’à atteindre un taux de 15 décès par 100.000 femmes de tous âges. Grâce à une telle baisse, à la fin de 2012, plus de 25.000 décès seront évités chaque année en Europe par rapport aux années 1980, soulignent les auteurs de cette recherche, conduite par le Département d’épidémiologie de l’Institut «Mario Negri» de Milan en collaboration avec l’Unité d’épidémiologie du cancer de l’Institut de médecine sociale et préventive du CHUV.

Le Matin

Attention au ronflement chez l'enfant
Mercredi, 22/02/2012 - 00:10

Le ronflement chronique chez l'adulte est une condition assez commune, mais chez l'enfant il est plutôt considéré comme un signal d'alarme. Ce trouble respiratoire nocturne nuit évidemment au sommeil et peut entraîner une flopée d'effets secondaires : fatigue, mauvaise humeur, agressivité, hyperactivité, retard de croissance, diabète, obésité, difficultés d'apprentissage et de concentration, maux de tête, pertes de mémoire... D'où l'importance de cibler très tôt les jeunes à risque.

Une nouvelle recherche de la Faculté de médecine dentaire de l’Université de Montréal a établi que les enfants qui ont un visage long et étroit, ainsi que ceux qui ont l'habitude de respirer par la bouche ou qui souffrent d'allergies ou de rhumes fréquents auraient davantage tendance à ronfler. L'étude a été conduite auprès de 604 enfants qui ont consulté la clinique d'orthodontie de l'UdeM au cours des deux dernières années pour des raisons sans lien avec leur sommeil. Un peu plus de 10 % d'entre eux ont rapporté être des ronfleurs chroniques.

"C'est la première fois qu'on recueille de tels résultats dans un échantillon aussi vaste et dont la nature se rapproche un peu plus de celle de la population en général. Des recherches semblables ont été menées mais uniquement auprès d'enfants chez qui on avait déjà diagnostiqué des troubles respiratoires nocturnes", explique Nelly Huynh, professeure à la Faculté de médecine dentaire et première auteure de cette étude parue dans les pages de l'American Journal of Orthodontics and Dentofacial Orthopedics.

Les parents devaient remplir un questionnaire sur les antécédents médicaux et dentaires de leur enfant, ses habitudes nocturnes et diurnes, de même que la qualité et la durée de son sommeil. Ces données ont été croisées par la suite avec les résultats d'un examen de routine orthodontique.

"Les troubles de sommeil mentionnés par les parents sont associés à une morphologie cranio-faciale particulière, souligne Mme Huynh. La mâchoire est étroite, ce qui indique que la langue n'a pas l'espace nécessaire pour s'étaler entièrement. Elle occupera alors le haut de la cavité buccale, anormalement profonde vers le haut en raison d'une voute palatine étroite et élevée. Cette disposition amène la langue à reculer pendant le sommeil et, donc, à bloquer les voies aériennes respiratoires."

  • La vigilance est de mise

De 70 à 90 % des enfants environ verront leurs troubles respiratoires nocturnes disparaître au cours de leur croissance. Leur structure cranio-faciale s'élargira avec le temps, ce qui dégagera les voies aériennes. "Il reste cependant de 10 à 30 % des enfants qui souffriront de ronflement chronique et même d'apnée du sommeil jusqu'à l'âge adulte", indique Nelly Huynh, qui travaille aussi au Centre de recherche du CHU Sainte-Justine. Pour ces derniers, il existe une panoplie d'interventions dont la plus commune est l'amygdalectomie. Du côté des traitements orthodontiques, on songe en premier à l'extension rapide du palais. "Jusqu'à l'âge de 14 ans approximativement, la voute palatine n'a pas encore fusionné, dit-elle. On peut alors guider sa croissance grâce à un appareil buccal. Après la puberté, on peut faire une intervention semblable en ayant recours à la chirurgie." Au début de l'adolescence, il est aussi possible d'installer un appareil qui avancera légèrement la mandibule.

Nelly Huynh ajoute que, dans certains cas, on module l'arête du nez qui, si elle est trop déviée, peut congestionner complètement une narine. Les cornets nasaux peuvent aussi être en cause : s'ils sont trop gros, on les atrophie par radiofréquence. "Même si les enfants ne présentent pas ces anomalies, il est tout de même important de leur apprendre à se moucher et à maintenir une bonne hygiène nasale pour faciliter la respiration", conseille-t-elle. Mais avant d'en arriver à ces traitements, encore faut-il que ces problèmes respiratoires soient diagnostiqués chez ces enfants. "Les troubles respiratoires du sommeil seraient sous-rapportés autant chez les adultes que chez les enfants", estime Mme Huynh. Elle invite les parents, médecins, pédiatres, dentistes et orthodontistes à être vigilants. "Les parents devraient être attentifs à la respiration nocturne de leur enfant, à son humeur, à sa fatigue. Les professionnels de la santé devraient quant à eux poser des questions sur le sommeil de l'enfant et même sur celui du parent. Si ce dernier est apnéique, il y a de fortes probabilités que le jeune le soit aussi."

Bien que ces questions ne surgissent pas systématiquement lors des examens médicaux et dentaires, elles le sont de plus en plus. "Les troubles du sommeil sont enseignés aux étudiants en orthodontie de l'UdeM", affirme Nelly Huynh, qui croit fortement à une collaboration entre les médecins et les dentistes. "C'est la meilleure façon de ne laisser aucun enfant à risque glisser entre les mailles du filet et de faire en sorte que tous les enfants puissent commencer leur vie en santé."

Techno-Science

Les calories brûlent la mémoire
Mardi, 21/02/2012 - 00:30

Manger trop gras ou trop sucré favorise les troubles cognitifs légers.

Reprendre une part de dessert n’a pas seulement un mauvais effet sur la ligne. Mais aussi sur la mémoire. C’est le résultat d’une étude américaine selon laquelle les personnes âgées qui mangent plus de calories sont plus facilement victimes de troubles cognitifs légers. Ces troubles désignent un phénomène intermédiaire entre les changements liés à l’âge et les pathologies plus sérieuses, responsables de troubles évolutifs, comme la maladie d’Alzheimer.

La recherche a porté sur 1233 personnes âgées de 70 à 89 ans, dont 163 avaient des troubles cognitifs légers. Les patients ont rempli chaque jour pendant plusieurs semaines un questionnaire sur leur consommation de nourriture. Le groupe de personnes qui avalait le moins de calories en consommait entre 600 et 1526 par jour, le groupe intermédiaire entre 1526 et 2143 et le groupe en consommant le plus se situait entre 2143 et 6000 calories quotidiennes.

Il s‘est avéré que ceux consommant plus de 1526 calories par jour étaient deux fois plus susceptibles d’avoir des troubles cognitifs légers. Les scientifiques auteurs de l’étude n’ont  pas d’explications sûres sur le rapport entre calories et perte de mémoire, mais ils estiment que la consommation de produits caloriques pourrait stimuler des protéines de stress dans le cerveau, lesquelles seraient responsables de la perte de mémoire. "Un régime sain pourrait prévenir une perte de mémoire avec la vieillesse", commente Yonas Geda, un médecin qui a participé à l’étude. Ces résultats confirment ceux d’une autre enquête menée en 2002.

Atlantico

AVC : découverte d’une variation génétique qui double le risque
Mardi, 21/02/2012 - 00:20

Une étude britannique, menée à l’Université de Londres et d'Oxford, vient de monter qu'une altération génétique, sur un gène déjà connu pour son rôle dans le développement cardiaque, peut doubler, chez les sujets porteurs de 2 copies, le risque d'accident vasculaire cérébral (AVC) ischémique. C'est l'une des rares variantes génétiques à avoir déjà été associée au risque d’AVC. 

L'AVC est la deuxième cause de décès dans le monde, soit de plus d'un décès sur 10, soit plus de six millions de décès chaque année. L’AVC est aussi une cause majeure de handicaps chroniques. Plusieurs mécanismes différents favorisent l’AVC, dont l’embolie de l’artère amenant le sang au cerveau. Ainsi, l’AVC ischémique représente plus d'un tiers de tous les AVC.

Ces chercheurs britanniques, en collaboration avec des scientifiques d’Europe, des Etats-Unis et d’Australie, ont mené l'une des plus grandes études génétiques sur l’AVC, en comparant le patrimoine génétique de 10.000 personnes qui avaient subi un AVC avec 40.000 personnes en bonne santé. Ils identifient une altération du gène HDAC9, associée à une augmentation du risque d’AVC ischémique, qui se produit sur environ 10 % des chromosomes humains. Les personnes qui portent 2 copies de la variante (une héritée par chaque parent) ont presque un risque double de ce type d’AVC. En revanche, la nouvelle variante n'a pas le même effet sur le risque des autres types d’AVC. La protéine produite par HDAC9 était déjà connue pour son rôle dans la formation des tissus musculaires et le développement cardiaque.

Des inhibiteurs de HDAC9 ? Le Professeur Hugh Markus, de St-Georges, Université de Londres, qui a codirigé l'étude explique que sa découverte identifie un mécanisme totalement nouveau de survenue de l’AVC. La prochaine étape sera de mieux comprendre la relation entre HDAC9 et AVC, d’autant que des médicaments qui inhibent la protéine HDAC9 sont déjà disponibles. 

Un traitement et une prévention personnalisés ? Le professeur Peter Donnelly, Directeur du Centre Wellcome Trust pour la génétique humaine à l'Université d'Oxford, qui a codirigé l'étude, explique que les différents sous-types d'AVC pourraient impliquer différents mécanismes génétiques et donc « se prêter » à des traitements personnalisés. Mieux prévenir aussi : Alors que plus d'un tiers des AVC sont causés par un blocage dans l'un des gros vaisseaux sanguins qui apportent le sang au cerveau, l’identification d’un lien génétique peut conduire à de nouvelles méthodes de dépistage et de prévention de ce type d’AVC. cette étude ouvre donc une nouvelle voie thérapeutique et la perspective d’une médecine préventive personnalisée pour  l’AVC.

Santé Blog

Nature Genetics

Cancer du cerveau : enfin des avancées
Mardi, 21/02/2012 - 00:00

Le gliome est une tumeur maligne qui touche les tissus de soutien du cerveau (la glie). Les tumeurs cérébrales peuvent être de deux sortes : bénignes, à progression lente, ou cancéreuses, plus difficiles à traiter. Dans les deux cas, elles sont évolutives, entraînant une souffrance du cerveau. Le danger le plus redouté est une hypertension intracrânienne. Un gliome peut survenir à tout âge et dans n’importe quelle zone cérébrale. Chez l’enfant, c’est le plus fréquent des cancers solides. Il y en a une dizaine qui diffèrent selon la localisation et le type de cellules malignes. La forme la plus grave, à évolution très rapide, spécifique à l’enfant, se développe dans le tronc cérébral aux âges de 5 à 6 ans.

Ces gliomes sont inopérables car ils infiltrent le tissu cérébral. Le seul recours, jusqu’à présent, est la radiothérapie, mais sans bons résultats. Tous les essais thérapeutiques pour associer d’autres traitements plus efficaces ont échoué. Echecs dus en partie à la méconnaissance du processus cancéreux (la cancérogenèse) de ces tumeurs.

En coopération avec le Professeur Stéphanie Puget dans l’équipe du Professeur Christian Sainte-Rose de l’hôpital Necker-­Enfants malades, Le docteur Jacques Grill, Pédiatre cancérologue à l’Institut Gustave-Roussy de Villejuif a analysé un grand nombre de biopsies de ces tumeurs, effectuées pour en établir le diagnostic. Cela afin de décrypter les dysfonctionnements génétiques ayant déclenché un processus de cancérogenèse. Auparavant, des équipes américaines avaient réalisé d’autres essais sur des tumeurs d’enfants mais uniquement après leur décès.

Ces recherches ont permis de découvrir deux différents types de gènes anormaux (ayant muté) induisant la formation d’un gliome : les uns extrêmement agressifs, car proliférant très vite, et les autres fortement infiltrants mais d’évolution plus lente. Ces études nous ont aussi permis de découvrir de nouvelles cibles, c’est-à-dire ­certains récepteurs (portes d’entrée) des cellules tumorales du gliome. A partir de là, nous avons mis au point des traitements ciblés de chimiothérapie, avec des molécules (actuellement en développement chez l’adulte) qui visent spécifiquement les “portes d’entrée” des cellules cancéreuses. Ensuite, à l’Institut Gustave-Roussy de Villejuif, les chercheurs ont réalisé une étude avec des souris ­porteuses de ­tumeurs humaines. Celles-ci ont été traitées avec une radiothérapie associée à ces ­médicaments ­ciblés. Les résultats se sont révélés très prometteurs puisque la progession des gliomes a été bloquée.

S'appuyant sur ces résultats,  un essai clinique débutera cette année pour une centaine d’enfants en France. Après avoir ­déterminé le profil génétique spécifique de leur ­tumeur (par une biopsie), ils se verront administrer un traitement personnalisé “sur mesure”. Le protocole associera des séances de radiothérapie à une chimiothérapie (durant un an). Des contrôles réguliers par IRM permettront de suivre l’évolution du cancer sous ce protocole. Des études en cours chez l’adulte, avec ces nouvelles molécules, ont présenté beaucoup moins d’effets secondaires que ceux d’une chimiothérapie classique. Ce qui s’explique par le fait qu’elles altèrent beaucoup moins les cellules saines de ­l’organisme. 

Paris Match

Cancer du sein invasif : quel rôle respectif pour le traitement hormonal substitutif et le dépistage systématique ?
Lundi, 20/02/2012 - 00:40

Les statistiques le prouvent, l’incidence du cancer du sein invasif se stabilise ou est en baisse dans la plupart des pays. Mais cette diminution constatée survient après plusieurs décennies d’augmentation. Deux facteurs sont identifiés comme responsables de cette augmentation du nombre de cas de cancers invasifs diagnostiqués : l’utilisation du traitement hormonal substitutif de la ménopause (THS) et la mise en place de campagnes de dépistage systématique. La part de responsabilité respective de ces deux facteurs est difficile à établir. Dans de nombreux pays, les programmes de dépistage systématique ont été instaurés au moment où les prescriptions de THS étaient justement à leur plus haut niveau. Si l’on ajoute à cela que THS et dépistage  concernent des femmes de la même classe d’âge, il est bien difficile de distinguer le rôle de l’un et de l’autre dans l’évolution de l’incidence du cancer du sein.

Une équipe norvégienne a cherché à préciser leur contribution relative : elle a recensé tous les cas de cancers du sein invasifs diagnostiqués entre 1987 et 2008 en Norvège. D’entrée et pour permettre une analyse plus uniforme, les carcinomes canalaires in situ n’ont pas été pris en compte, leur incidence étant beaucoup plus étroitement associée au dépistage systématique que celle des cancers invasifs. Leur proportion n’excède pas 10 % des tumeurs malignes du sein.

L’incidence du cancer du sein invasif a augmenté régulièrement en Norvège entre les années 1950 et 2002. Suit un pallier, puis un léger déclin. L’analyse par classe d’âge montre que le changement majeur se produit vers la fin des années 90 chez les femmes de 50-69 ans, avec une augmentation du nombre de cas, avant d’amorcer une légère diminution autour de 2003. Pendant cette période, l’augmentation d’incidence est minime chez les plus jeunes (30-49) et les plus âgées (70-90). Ces années 90 sont précisément la période où les prescriptions de THS sont au plus haut, mais aussi celle où un dépistage systématique est proposé en Norvège à toutes les femmes de 50 à 69 ans.

Après l’analyse de tendances, les auteurs ont poursuivi leur étude et utilisé une approche par un modèle « âge-période-cohorte » pour préciser les responsabilités des deux facteurs, THS et mammographies. Il apparaît que ces deux éléments ont contribué à part égale aux variations de l’incidence observée du cancer du sein. Ainsi, en 2002, alors que son incidence chez les femmes de 50 à 69 ans était la plus haute, ils estiment que 23 % des cas diagnostiqués pouvaient être attribués au dépistage systématique, alors que 27 % pouvaient l’être au THS (sans qu’aucune différence ne puisse être mise en évidence entre le traitement combiné œstro-progestatif ou le traitement par œstrogènes seuls).

JIM

Effacer la mémoire neuronale pour traiter la douleur chronique
Lundi, 20/02/2012 - 00:30

Une étude indique que la suppression de souvenirs neuronaux pourrait contribuer à maîtriser les douleurs persistantes.

La douleur est une expérience physique et émotionnelle désagréable qui peut devenir insupportable surtout quand elle perdure. C’est le cas des douleurs chroniques, celles qui se prolongent au-delà de trois mois, présentes dans des pathologies aussi diverses que les rhumatismes, les cancers ou les maladies auto-immunes. Les personnes qui en souffrent ressentent ce tourment à longueur de journée et ne sont que très partiellement soulagées par les traitements classiques. Plusieurs autres désagréments sont souvent associés à cette souffrance : dépression, troubles de sommeil, apathie, anxiété…

Cette douleur est en partie causée par l’empreinte mnésique, le système nerveux central se souvient d’expériences douloureuses, lorsque surgit une nouvelle stimulation  sensorielle, la trace mnésique de douleur présente dans le cerveau amplifie cette  sensation. Présente au niveau neuronal, cette mémoire de la douleur est cruciale au développement de la douleur chronique. Toutefois, jusqu’à maintenant, on ne savait pas comment ces souvenirs de douleur étaient emmagasinés dans les neurones.

Des chercheurs canadiens ont maintenant identifié la protéine Kinase M zéta comme vecteur de cette mémoire. Ils ont pu démontrer qu’après une stimulation douloureuse, le niveau de protéine Kinase M zéta augmente de manière persistante dans le système nerveux central. Plus important encore, ils ont découvert qu’en bloquant l’activité de la protéine Kinase M zéta au niveau neuronal, ils pouvaient inverser l’hypersensibilité à la douleur développée par les neurones.

« Un grand nombre de médicaments ciblent la douleur au niveau des membres inférieurs et supérieurs, en réduisant l’inflammation ou en activant les systèmes analgésiques cérébraux pour réduire la sensation de douleur », écrit Terence Coderre, principal auteur de l’étude dans la revue Molecular Pain. « C’est la première fois que nous pouvons entrevoir des médicaments qui cibleront une trace mnésique de douleur comme moyen de réduire l’hypersensibilité à la douleur ».

Sciences et Avenir

Comment hériter d'informations non présentes dans les gènes ?
Lundi, 20/02/2012 - 00:00

Une équipe de chercheurs de l'Institut Gulbenkian de science (IGC), coordonnée par Lars Jansen, a découvert comment la mémoire identitaire des cellules spécialisées se transmettait d'une cellule-mère aux deux cellules-filles résultant de la mitose (division cellulaire).

Bien que génétiquement identiques, les cellules du corps humain adulte se distinguent par leur spécialité. Ces différences tiennent à un processus d'activation/inactivation des gènes au sein de la cellule. En effet, dans une cellule de muscle, certains gènes sont activés tandis que d'autres restent inactifs. Ces mêmes gènes ne sont pas forcément inactifs dans une cellule de peau ou de cerveau par exemple. Chaque cellule spécialisée retient ainsi la mémoire de son identité, en activant certains gènes et en en maintenant d'autres inactifs, y compris lorsque la cellule se divise. Cette mémoire n'est pas directement inscrite dans l'ADN, elle est cependant héréditaire. On parle d'information épigénétique.

Lars Jansen et son équipe, de l'Institut Gulbenkian de Science (IGC) ont découvert comment l'un de ces centres épigénétiques organisateurs était fidèlement transmis entre la cellule-mère et les deux cellules filles résultant de la division cellulaire. Les résultats ont été publiés dans la dernière édition de Developmental Cell, une revue scientifique dans le domaine des sciences de la vie. L'équipe élucide ainsi un procédé biologique jusqu'alors énigmatique dont l'étude ouvre la porte à la compréhension d'une éventuelle autre cause de cancer.

Bulletins Electroniques

Un mécanisme fondamental du diabète élucidé
Dimanche, 19/02/2012 - 00:10

Les spécialistes du centre de recherche du CHUM, qui ont récemment publié leurs résultats dans la revue Proceedings of the National Academy of Sciences, ont identifié un récepteur situé à la surface du pancréas qui est activé en présence de glucose et stimule la sécrétion d'insuline. Deux sociétés pharmaceutiques testent actuellement des molécules visant ce récepteur.

«Le récepteur a été identifié en 2003», explique l'auteur principal de l'étude, biologiste spécialisé en endocrinologie, Vincent Poitout, qui dirige la Chaire de recherche sur le diabète de Montréal et a travaillé avec des collègues israéliens et américains. «Nous tentons depuis de savoir comment il fonctionne.»

Le récepteur, dont le nom scientifique est GPR40, migre vers la surface du pancréas quand le taux de glucose augmente. Il capte aussi des acides gras et stimule les cellules responsables de la production d'insuline, une molécule qui élimine le glucose et les acides gras. Chez les diabétiques, la production d'insuline est insuffisante.

Les travaux du biologiste montréalais ont porté sur une lignée de souris mise au point à l'Université Harvard. Il s'attend maintenant à ce que les études de validation des nouveaux médicaments visant le récepteur GPR40 se servent de ses résultats pour mieux comprendre leur effet sur le corps humain et le diabète. Ces médicaments font actuellement l'objet d'une étude de phase 3, donc ils sont très près de la commercialisation.

«Je ne sais pas si c'est nous qui allons faire ça, dit M. Poitout. Mais il est certain que nous allons continuer à examiner ce qui se passe dans la cellule quand le récepteur est activé, les voies de signalisation et la chaîne d'événements entre la stimulation du récepteur et la sécrétion d'insuline.»

Cyberpresse

Infections et maladies auto-immunes augmenteraient les risques de schizophrénie
Dimanche, 19/02/2012 - 00:00

Comme le rappellent dans The American Journal of Psychiatry les auteurs d’une étude danoise relançant l’hypothèse infectieuse et/ou auto-immune dans le déterminisme de la schizophrénie, cette psychose procède d’une origine « complexe et multifactorielle. » Bien que le contexte du « roman familial » et des vicissitudes de l’existence constitue un élément de risque majeur, ces aléas des trajectoires personnelles et familiales (vécu traumatique, reproduction transgénérationnelle des mêmes motifs biographiques) ne résument pas le mécanisme causal de la schizophrénie.

Certains arguments (notamment des observations épidémiologiques sur l’influence apparente des infections in utero et sur celle des saisons, avec inversion caractéristique entre les hémisphères nord et sud) suggèrent l’immixtion supplémentaire de facteurs immunitaires et infectieux, par exemple une virose ou une parasitose (grippe, toxoplasmose…) contractée en bas âge. Si une méningite constitue un antécédent attendu (par son impact direct sur le système nerveux), d’autres maladies infectieuses ou auto-immunes peuvent aussi être impliquées : hépatite, thyroïdite, maladie cœliaque, lupus, spondylarthrite ankylosante, colite ulcéro-nécrotique, etc.

Au terme de cette étude portant sur le suivi pendant trente ans (1977-2006) d’une cohorte de plus de 39 000 sujets avec « trouble de type schizophrénique » (schizophrenia spectrum disorder), les auteurs observent ainsi que la présence d’une affection auto-immune préalable majore d’environ 29 % le risque de schizophrénie (Rapport d’incidence IRR[2] = 1,29 ; intervalle de confiance à 95 % IC : 1,18–1,41). Un antécédent d’hospitalisation pour une infection l’augmente de 60 % (IRR= 1,60 ; IC : 1,56–1,64). Et l’association de ces deux critères (maladie auto-immune avec problématique infectieuse) aggrave encore davantage ce même risque (IRR= 2,25 ; IC : 2,04–2,46).

Cette amplification du risque affecte une relation du type « dose-réponse » où un nombre accru d’épisodes infectieux (≥3) est associé à une multiplication du risque de psychose par un facteur 3,40 (IC : 2,91–3,94 ). Ces résultats restent significatifs après ajustement pour d’autres variables (comme une addiction à une substance toxique ou des antécédents psychiatriques dans la famille) et globalement, une hospitalisation pour un problème infectieux préalable au diagnostic de schizophrénie concerne près d’un sujet sur 4 (24 %). Du point de vue physiopathologique, il est probable que des auto-anticorps dirigés contre le cerveau (brain reactive autoantibodies) –d’abord sans incidence importante, tant qu’ils restent confinés au compartiment sanguin– finissent par léser le système nerveux central, dès que l’intégrité de la barrière hémato-encéphalique est compromise, lors d’un processus infectieux, inflammatoire, voire tumoral (des études ayant montré la fréquence élevée de pathologies psychiatriques précédant un diagnostic de cancer).

À l’image du personnage de Dame Tartine « si gourmande qu’elle veut se manger elle-même », dans la chanson enfantine, cette réponse immunitaire anormale entraînerait un trouble neuro-développemental (ou aggraverait du moins un trouble préalable), peut-être même dès la vie intra-utérine en perturbant par exemple l’action de protéines impliquées dans le développement neurologique du fœtus.

JIM

   

Stimuler le cerveau améliore la mémoire
Samedi, 18/02/2012 - 00:40

Selon une étude dont les résultats ont paru le 9 février dans le New England Journal of Medicine, il serait possible de doper la mémoire en stimulant une zone particulière du cerveau. Des chercheurs de l'Université de Californie à Los Angeles se sont concentrés sur le cortex entorhinal, région du cerveau clé pour la mémoire et principal passage avant l'hippocampe, zone responsable du traitement des signaux et de la mémorisation durable. "Le cortex entorhinal est la porte d'accés à l'unité centrale de la mémoire", explique le Docteur Itzhak Fried, professeur de neurochirurgie à la faculté de médecine David Geffen de l'Université de Californie, principal auteur de cette recherche.

"Toute expérience sensorielle ou visuelle que nous gardons en mémoire passe par cette porte pour accéder à l'hippocampe", explique ce chercheur. "Nos cellules cérébrales doivent envoyer des messages via ce passage pour que la mémoire se forme et puisse être consciemment retrouvée". Pour cette étude, ces neurologues ont suivi sept patients épileptiques qui avaient déjà des électrodes implantées dans leur cerveau afin de comprendre l'origine de leur convulsion. Ils ont utilisé de ces mêmes électrodes pour enregistrer l'activité des neurones quand la mémoire se formait. Recourant à un jeu vidéo simulant un taxi dans une ville virtuelle, ces scientifiques ont testé si une stimulation dans les profondeurs du cerveau du cortex entorhinal ou de l'hippocampe altérait la capacité de mémorisation.

Les participants ont joué le rôle du chauffeur de taxi prenant des passagers et se déplaçant dans toute la ville. "Quand nous stimulions --électriquement-- les fibres nerveuses du cortex entorhinal au moment où les sujets apprenaient à reconnaître les différentes routes et lieux, ils parvenaient à se repérer plus facilement dans la ville", précise le Docteur Fried. "Ils ont même appris à prendre des raccourcis montrant une amélioration de la mémoire spatiale", ajoute-t-il. "C'est la stimulation du passage d'accès à l'hippocampe qui a été efficace pour stimuler la mémorisation, pas l'hippocampe lui-même", souligne aussi ce neurologue.

NEJM

Une avancée prometteuse dans la recherche sur le cancer
Samedi, 18/02/2012 - 00:30

Le cancer n'est pas toujours l'aboutissement d'un long processus qui altère le génome, entraînant ainsi la formation de tumeurs malignes. Il peut arriver qu'un grave événement détruise brutalement l'information génétique d'une cellule, la transformant ainsi en cellule cancéreuse. Une équipe du Centre allemand de recherche sur le cancer (DKFZ) de Heidelberg vient d'identifier une cause de ce phénomène : une mutation du gène p53. Ce " gardien du génome " empêche les cellules endommagées de se reproduire. S'il échoue, cela peut, à terme, favoriser l'apparition d'un cancer. Les chercheurs vont plus loin : si le gène p53 présente certains défauts, cela peut soudainement déclencher un cancer, affirment-ils dans le dernier numéro de la revue scientifique Cell.

Ces travaux ont été réalisés au sein du réseau PedBrainTumor. Ce dernier s'efforce de décrypter le génome des tumeurs cérébrales, qui sont les plus meurtrières chez l'enfant. Créé en 2010, PedBrainTumor reçoit des subventions de 15 millions d'euros versées par Fondation allemande de lutte contre le cancer (Deutsche Krebshilfe) et le Ministère fédéral de la Recherche. Cette initiative fait partie des trois projets déployés par l'Allemagne dans le cadre du Consortium international sur le génome des cancers (ICGC - International Cancer Genome Consortium), qui se propose de décrypter le génome de 50 types de cancer.

"Les résultats de ces travaux servent de point de départ pour élaborer de nouvelles techniques de diagnostic et de traitement du cancer", commente le professeur Otmar Wiestler, membre des directoires de Deutsche Krebshilfe et du DKFZ. "Ils ont largement contribué à améliorer nos connaissances sur l'apparition de cette maladie." Bientôt, les scientifiques analyseront en totalité le génome des cellules cancéreuses de certains patients du Centre de traitement oncologique (NCT) de Heidelberg. "Cela nous permettra d'apporter aux patients un traitement ciblé, ce qui améliorera nettement leurs chances de guérison", explique M. Wiestler.

Bulletins Electroniques

Brancher son cerveau sur électrodes pour remplacer 10.000 heures de travail
Samedi, 18/02/2012 - 00:20

Des électrodes branchées sur le cerveau pourraient remplacer les 10.000 heures d'entraînement nécessaires pour devenir un expert dans n'importe quelle discipline, selon une expérience décrite sur le site New Scientist.

L'idée est d'utiliser la technologie pour faciliter l'accès au talent. Sally Adee, auteure de l'article du New Scientist, a fait l'objet d'essais préliminaires consistant à alimenter son cerveau à l'aide de stimulations électriques pendant qu'elle jouait à un jeu vidéo de tir.

«Le léger choc électrique est destiné à dépolariser les membranes dans la région neuronales, rendant les cellules plus excitable et sensible aux entrées. (...) Le chercheur pense que cette action accélère la formation de nouveaux circuits neuronaux pendant que quelqu'un pratique une activité.»

La «neuroscience cosmétique» serait à l'origine de ces recherches, une tendance qui consiste à vouloir à tout prix adapter son cerveau à des exigences d'un monde que l'on sait de plus en plus rapide.

Slate

De nouveaux résultats soulignent l'importance des gènes synaptiques dans l'autisme
Samedi, 18/02/2012 - 00:10

Les troubles du spectre autistique (TSA) sont un groupe hétérogène de maladies du développement neurologique dont les origines génétiques sont mal connues. Des mutations dans plus d'une centaine de gènes ont déjà été associées aux TSA, mais il est difficile d'évaluer leurs rôles précis dans les fonctions neurales et de hiérarchiser leur importance relative. Les analyses génétiques menées à l'institut Pasteur ont permis de mettre en évidence de nouvelles mutations dans le gène SHANK2, allant jusqu'à la perte totale d'une copie du gène SHANK2 chez certains patients.

Le gène SHANK2 code une protéine localisée au niveau des synapses, les points de contact et de communication entre les neurones.

Les chercheurs ont montré dans des cultures de neurones que les mutations du gène SHANK2 sont associées à une diminution du nombre de synapses et donc à une altération de la communication entre les neurones. D'autre part, des analyses plus fines réalisées sur les 3 patients chez qui une copie de ce gène manquait, ont mis en évidence d'autres anomalies chromosomiques, rares, mais déjà associées à d'autres maladies neuropsychiatriques.

"L'ensemble de ces résultats souligne l'importance cruciale des gènes synaptiques dans les troubles du spectre autistique," explique le Professeur Thomas Bourgeron, chef de l'unité Institut Pasteur-CNRS de génétique humaine et fonctions cognitives. "D'autre part, ils pointent vers l'existence de gènes modificateurs qui pourraient moduler les symptômes que nous regroupons sous le nom de TSA."

Ces résultats représentent une confirmation importante du rôle des mutations génétiques dans le déclenchement et l'évolution de l'autisme. Des analyses plus approfondies seront nécessaires pour décrire plus précisément le rôle de ces altérations ainsi que leurs interactions.

CNRS

Tumeur d’Ewing : une avancée réalisée à Lyon
Samedi, 18/02/2012 - 00:00

Cancer osseux rare qui touche principalement l’enfant, l'adolescent, ou le jeune adulte jusqu'à 30 ans, la tumeur d’Ewing est plus fréquente chez les garçons d’origine européenne. D’après les épidémiologistes, cette maladie, particulièrement rare, touche 3 personnes sur un million. Elle se déclare quand les cellules du mésenchyme, tissu conjonctif qui sert de soutien aux autres tissus, deviennent cancéreuses sous l’effet de certains facteurs de croissance.

Afin de décrypter les mécanismes impliqués dans le développement du sarcome d’Ewing, Olivier Delattre, David Cox, et leur collègues de l'Institut national de la santé et de la recherche médicale (Inserm), de l'Institut Curie, et du Centre Léon Bérard (Lyon), sont partis du constat suivant : la majorité des patients touchés par cette maladie rare sont des jeunes d’origine européenne.

Ils ont donc décidé de lancer une vaste étude sur le génome de ces patients. A l’aide des derniers outils et des nouvelles technologies, les chercheurs ont réalisé, à partir de 680 prélèvements issus de la population française et de 3 670 issus de la population américaine d’origine européenne, une cartographie détaillée des variations génétiques individuelles.

Ils ont ainsi découvert que sur les 700 000 variations génétiques observées, 2 concernaient la tumeur d’Ewing. En effet, les porteurs de ces deux variants sont plus susceptibles que les autres personnes de développer la maladie. Les différentes analyses ont permis aux scientifiques de montrer que les deux régions concernées se trouvaient, pour l’une, à proximité du gène TARDBP qui possède des similitudes avec le gène à l’origine de la tumeur, et pour la seconde, à proximité du gène EGR2, qui fait partie des gènes régulés par le gène de fusion EWS-FLI-1, responsable de cette tumeur.

Cette étude a permis de trouver des facteurs de susceptibilité pour prévenir ou dépister la maladie. Ces travaux vont aider à prévenir une rechute et permettre de mieux cibler les malades avec des thérapies propres à ces gènes.

Inserm

Le jeûne : nouvelle arme contre le cancer ?
Vendredi, 17/02/2012 - 05:30

Une étude menée par des chercheurs de l'Université de Californie du Sud et dirigée par Valter Longo, professeur de gérontologie et de biologie, vient de montrer que de courtes périodes de jeûne, combinées à la chimiothérapie peuvent s'avérer parfois aussi efficaces que la chimiothérapie pour lutter contre certains cancers chez les souris. Le jeûne seul permet de traiter efficacement une majorité de cancers chez des animaux de laboratoire, y compris les tumeurs cancéreuses provenant de cellules humaines, soulignent les auteurs de cette étude. Selon eux, sur huit types de cancer observés chez des souris de laboratoire, cinq ont réagi aussi bien au jeûne qu'à la chimiothérapie.

Le fait de réduire la quantité de nourriture consommée ralentit la croissance et la propagation du cancer, expliquent ces médecins. Et, à chaque fois, "la combinaison de cycles courts de jeûne avec la chimiothérapie est soit plus efficace, soit nettement plus efficace que la chimiothérapie seule". Ainsi, de multiples périodes de jeûne combinées à la chimiothérapie guérissent 20 % de certains cas de cancers très agressifs chez les souris de laboratoire. Le taux de guérison grimpe à 40 % pour les souris atteintes de ces mêmes cas de cancers mais moins étendus, tandis qu'aucune souris n'a survécu lorsqu'elles ont été traitées uniquement avec la chimiothérapie.

Seul un essai clinique d'une durée de plusieurs années permettrait de savoir si ce traitement pourrait avoir des effets similaires chez l'homme, souligne le Docteur Longo. Les résultats d'un essai clinique de phase un portant sur un tel traitement avec des patientes souffrant d'un cancer du sein, du canal urinaire et de l'ovaire, mené par deux cancérologues du USC Norris Comprehensive Cancer Center, ont été soumis pour une présentation à la prochaine conférence annuelle de la Société américaine de cancérologie (ASCO).

Mais cette première phase clinique vise seulement à tester la sûreté de cette thérapie, et surtout à déterminer si des patients peuvent supporter de jeûner pendant deux jours avant une chimiothérapie et un jour après. "Nous ne savons pas si le jeûne est efficace chez l'homme" contre le cancer, souligne le Docteur Longo, selon qui de telles privations de nourriture pourraient être risquées chez certains individus. Un jeûne peut notamment provoquer une chute de la tension artérielle et des maux de tête.

Selon une étude fondée sur des données fournies par des malades, et publiée dans la revue américaine Aging en 2010, dix patients atteints d'un cancer qui ont essayé de suivre des cycles de jeûne ont dit ressentir moins d'effets secondaires provoqués par la chimiothérapie qu'ils subissaient. Chez les souris, l'étude publiée récemment a montré que des cycles de jeûne sans chimiothérapie pouvaient ralentir un développement du cancer du sein, du mélanome et d'une tumeur du cerveau. Dans certains cas, le jeûne est aussi efficace que la chimiothérapie.

Le Monde

Science

Découverte d'un lien entre la perte d'audition et la sensibilité au toucher
Vendredi, 17/02/2012 - 05:20

Une équipe européenne de chercheurs a découvert que les personnes souffrant d'une forme spécifique de perte d'audition héréditaire sont plus sensibles aux vibrations de faible fréquence. Présentés dans la revue Nature Neuroscience, les résultats montrent l'association entre la perte d'audition et la sensibilité au toucher. Des cellules de peau spéciales doivent être actives pour garantir la sensation de «toucher».

Menés par les groupes allemands du Leibniz-Institut für Molekulare Pharmakologie (FMP) et du Max Delbrück Center for Molecular Medicine (MDC) Berlin-Buch, des chercheurs ont examiné les personnes souffrant de perte d'audition héréditaire DFNA2 dans le but de mieux comprendre le sens du toucher, et non leur capacité à entendre.

Une mutation affectant la fonction de nombreuses cellules ciliées dans l'oreille interne est responsable de ce trouble de l'audition. Selon les chercheurs, cette mutation a également un effet sur le sens du toucher. Les cils de notre oreille interne vibrent au contact des ondes sonores, et ces vibrations déclenchent un flux d'ions de potassium positifs dans nos cellules ciliées. Ce courant électrique génère un signal nerveux pour le cerveau. En résulte l'audition. Les ions de potassium traversent un canal de la membrane cellulaire pour sortir des cellules ciliées. La mutation endommage ce canal de potassium, la molécule de protéine KCNQ4, chez les personnes souffrant de ce trouble auditif. L'excès de pression conduit au déclin des cellules sensorielles.

«Nous avons découvert que KCNQ4 est présent non seulement dans l'oreille, mais également dans certaines cellules sensorielles de l'épiderme», commente le professeur Thomas Jentsch du FMP. «D'où nous avons émis l'hypothèse que cette mutation pourrait affecter le sens du toucher. Et c'est exactement ce que nous avons fait dans notre recherche, que nous avons menée en étroite collaboration avec le laboratoire de Gary Lewin, un collègue du MDC, spécialisé dans le sens du toucher.»

Nous sommes capables de distinguer différentes textures et surfaces grâce aux vibrations sur notre peau au contact d'une surface ou d'un objet. Ces informations nous aident à comprendre notre environnement. L'équipe, composée de chercheurs espagnols et néerlandais, explique que les patients peuvent percevoir de très faibles vibrations que le groupe de contrôle n'arrivait pas à détecter. Il y avait une différence au niveau des mécanorécepteurs du sens normal du toucher à cause des mutations au niveau du gène KCNQ4.

Le professeur Jentsch et son collègue, le professeur Gary Lewin du MDC, explique que les patients DFNA2 sont extrêmement sensibles aux vibrations : «La peau présente différents types de mécanorécepteurs, qui réagissent aux différents qualités de stimuli, et particulièrement à différents types de fréquences. L'interaction des différentes classes de récepteurs est importante pour le toucher. Bien que les récepteurs étudiés soient devenus plus sensibles suite à la perte du canal de potassium, cela pourrait être compensé par le désavantage d'une mauvaise connexion aux autres fréquences. Grâce à KCNQ4, nous avons identifié pour la première fois un gène humain qui change les caractéristiques du toucher.»

Cordis

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top