RTFlash

RTFLASH Recherche & Technologie
NUMERO 610
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Août 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'appartement du futur pour les personnes dépendantes
Matière
Un nouveau matériau de stockage de l'énergie
Des cellules solaires «pellicule autocollante» promettent une nouvelle ère en énergie renouvelable
Les voitures électriques de Nissan transformables en groupe électrogène
L'énergie solaire spatiale continue d'intéresser le Japon
Espace
Télé-épidémiologie : prévoir l'apparition des moustiques par satellite
Terre
La France présente son plan d'adaptation au réchauffement climatique
Vivant
Hépatite C : une nouvelle piste vaccinale
L’inquiétante émergence d’une salmonelle multirésistante aux antibiotiques
Cancer du poumon : un traitement préventif pour les anciens fumeurs ?
Une Aixoise opérée du cerveau tout en étant éveillée
Le cerveau modélisé
Des ultrasons pour voir fonctionner le cerveau
Edito
RT Flash en vacances



Prenant quelques jours de vacances, nous ne publions pas d'Edito au cours du mois d'août. Néanmoins, certains membres de notre équipe consultant des articles pouvant intéresser nos lecteurs, nous assurons de façon restreinte une continuité dans leur publication. En attendant de vous retrouver toujours plus nombreux sur notre site à partir de septembre, bonne lecture à tous.

Cordialement

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'appartement du futur pour les personnes dépendantes
Jeudi, 11/08/2011 - 01:10

Plinthes «intelligentes», toilettes à jet, parquet souple etc. Toutes les nouveautés pour faciliter la vie des seniors...

Vieillissement et nouveauté iront désormais de pair. Une exposition consacrée à la sécurité et aux solutions pour les personnes dépendantes se tient jusqu’au 21 août à l’Hôtel du Département de Strasbourg. C’est sous la forme de petits appartements témoins que sont présentées les dernières innovations créées pour simplifier la vie des personnes âgées. Petit tour d’horizon de ce dont sera fait l’appartement du futur.

  • Eclairages et sols intelligents

Pour ceux dont l’agilité se volatiliserait avec l’âge, la société Ecomatic a lancé un système de plinthes «intelligentes». Ces dernières qui intègrent des technologies d’éclairage et de chauffage permettent aux personnes à mobilité réduite de mieux se repérer dans l’espace et à faire jusqu’à 40 % d’économie d’énergie.

Des meubles qui assainissent l’air, impossible ? Pas pour la société Alsapan qui à mis au point des meubles dont le matériau capture les composés organiques volatiles. L’avantage : ces innovations permettent ainsi de sécuriser les mouvements de ceux qui ne sont plus aussi agiles qu’auparavant, mais en plus d’assainir l’air de leur logement. L’entreprise a également conçu un parquet souple et antidérapant pour prévenir d’éventuelles glissades.

  • Des innovations qui facilitent la vie, tout en restant design

Les  personnes âgées vont dorénavant pouvoir faire de bons petits plats en s’économisant. La société l’Arche du bois a créé une cuisine ergonomique «multigénérationnelle».  Avec sa main courante discrète et retro-éclairée, avec un plan de travail réglable électroniquement pour s’adapter à la hauteur de chacun, avec des meubles hauts à ouverture/fermeture motorisées accessibles en position assise, cette nouveauté répond aux besoins spécifiques de tout à chacun. Design et pratique, que demander de plus ?

Le ménage va lui aussi se trouver simplifié. La société Electropem propose en effet un nettoyeur vapeur et une presse à repasser. La première permet de nettoyer sans fatigue, et donc de rester autonome plus longtemps. La deuxième permet de travailler assis et ainsi de moins se fatiguer.

Aller aux toilettes, un besoin quotidien qui ne sera bientôt plus une épreuve pour les personnes à mobilité réduite. C’est en tout cas le but poursuivi par Duravit qui présente un siège de toilettes à jet qui « facilite l’essuyage en limitant la pénibilité de ce geste ». Grâce à sa télécommande, il est possible d’ouvrir la cuvette à distance. A noter que l’eau de nettoyage est chauffée.

La canne qui tient toute seule, vous en rêviez, Deveno-Design l’a fait ! Et quand elle tombe par terre, elle se relève par simple pression du pied sur sa base. La canne adopte également un mouvement de balancier qui se coordonne à la marche.

  • Les personnes dépendantes vont pouvoir se mettre à l’high-tech

L’high-tech est maintenant à la portée de tous grâce à UBI informatique. L’entreprise a créé un ordinateur destiné aux seniors qui leur permettra «non seulement de maintenir une activité intellectuelle, mais aussi de ne pas se sentir dépassé par une technologie avançant à pas de géant».

Se faire suivre médicalement grâce à un écran tactile permettant la visiophonie, cela est désormais possible. Ce produit «permet un meilleur lien social entre la famille, la plate-forme de l’entreprise Serviligne, les intervenants sociaux et de santé».

20 minutes

^ Haut
Matière
Matière et Energie
Un nouveau matériau de stockage de l'énergie
Jeudi, 11/08/2011 - 01:00

Des chercheurs sud-coréens ont annoncé début juin avoir mis au point un nouveau matériau de stockage de l'énergie. Ce "super condensateur", mis au point par l'équipe du professeur Choi Jung-wook du Korea Advanced Institute of Science and Technology (KAIST), affiche une capacité de stockage deux fois supérieure à un condensateur classique. De plus, celle-ci est restée constante après plus de 230.000 charges et décharges. Cette technologie, utilisant de l'azote et du graphène, pourrait accélérer le développement des nouvelles générations de voitures électriques, mais également des " smart power grids ".

Selon l'équipe du chercheur, la capacité de stockage de l'énergie du condensateur a pu être grandement améliorée grâce à l'introduction d'atomes d'azote dans un squelette de graphène. Le fait d'injecter des impuretés dans un condensateur extrêmement pur permet de faire évoluer ses propriétés électriques.

Le graphène possède intrinsèquement des propriétés extraordinaires : il peut transporter les électrons bien plus rapidement que le silicium, il est deux fois plus résistant que le diamant, 100 fois plus conducteur que le cuivre et possède une densité de stockage d'énergie très élevée. L'introduction d'azote dans le graphène a permis de multiplier sa capacité de stockage.

Le professeur Choi explique les avantages multiples que pourraient avoir ce condensateur, et bien évidement l'amélioration des voitures électriques, mais également l'utilisation dans les réseaux de distribution électrique, ou encore dans les vêtements puisque le graphène présente l'avantage d'être flexible.

Bulletins Electroniques

Des cellules solaires «pellicule autocollante» promettent une nouvelle ère en énergie renouvelable
Mercredi, 10/08/2011 - 01:00

Jusqu'à présent, la majorité des dispositifs photovoltaïques sont composés de silicium et s'appuient sur des nanostructures intriquées dont le développement requiert beaucoup de temps et d'efforts. Mais des scientifiques britanniques démontrent que des cellules solaires plastiques peuvent être imprimées pour créer des supports comparables à de la pellicule autocollante pouvant être «étirée» afin de créer des «panneaux solaires économiques pour des applications domestiques et industrielles».

Plus spécifiquement, les films autocollants peuvent être utilisés dans des solutions utilisant des techniques de tirage de bobine à bobine économiques. Certains grands circuits équipés de transistors à film fin et autres appareils utilisent déjà cette technologie. Toutefois, son efficacité doit être améliorée et passer de 7 à 8 % à au moins 10 % pour être commercialement viable.

Des scientifiques des universités de Sheffield et de Cambridge au Royaume-Uni ont étudié la structure et la composition de certains polymères à l'aide de la source de neutrons ISIS et des rayons X extrêmement lumineux à l'installation Diamond Light Source facility of the Science and Technology Facilities Council (STFC) à Oxfordshire.

L'étude, publiée dans la revue «Advanced Energy Materials», a révélé que lorsque des mélanges complexes de molécules dans une solution sont étendus sur une surface, comme lorsque l'on vernit une table, les différentes molécules se séparent et se dirigent vers la face supérieure et inférieure de la couche, maximisant ainsi l'efficacité de la cellule solaire résultante.

Le Docteur Andrew Parnell de l'université de Sheffield a suggéré que «plutôt que d'utiliser des méthodes de fabrication complexes et onéreuses pour créer une nanostructure semi-conductrice spécifique, un tirage important peut être utilisé pour produire des films de cellules solaires à l'échelle nanométrique (de 60 nanomètres), celles-ci étant dix mille fois plus fine qu'un cheveux humain».

«En utilisant des faisceaux de neutrons à l'ISIS et des rayonnements X lumineux de l'installation Diamond, nous avons pu sonder la structure interne et les propriétés des matériaux de cellules solaires sans les détruire», ajoute le Docteur Robert Dalgliesh de l'ISIS. «En étudiant les couches de matériaux transformant la lumière solaire en électricité, nous apprenons l'évolution des différentes étapes du processus sur l'efficacité et la façon dont elles affectent la performance générale des cellules de polymère.»

«Au cours des 50 prochaines années, la société devra de satisfaire la demande énergétique croissante de la population mondiale sans avoir recours aux combustibles fossiles, et l'unique source renouvelable capable d'y parvenir est le Soleil», commente le professeur Richard Jones de l'université de Sheffield. Avec davantage de recherche, il pense que la nouvelle technologie peut être utilisée pour progressivement placer les cellules solaires dans des arrangements plus efficaces.

«En quelques heures, l'énergie solaire captée sur Terre peut satisfaire les besoins énergétiques de toute la planète pour toute une année, mais nous devons encore exploiter ce potentiel au-delà de notre utilisation actuelle. Les cellules solaires en polymères économiques et efficaces peuvent nous emmener dans une nouvelle ère en matière d'énergie renouvelable.»

Cordis

Les voitures électriques de Nissan transformables en groupe électrogène
Lundi, 08/08/2011 - 01:00

Le constructeur japonais a doté la batterie de la Leaf d'un système permettant de la connecter à l'installation électrique d'une maison et de distribuer du courant pendant deux jours

Depuis la catastrophe de Fukushima, les coupures de courant font partie du quotidien des Japonais. Les centrales du pays peinent en effet à satisfaire les besoins de la population, notamment aux heures de pointe. Nissan a donc eu l'idée d'exploiter les capacités de stockage de la batterie lithium-ion de la Leaf (24 kilowatts-heure) pour un autre usage que la conduite.

Les ingénieurs du constructeur automobile nippon ont mis au point un système qui permet de la raccorder à l'installation électrique résidentielle non plus pour être rechargée mais pour redistribuer l'énergie qu'elle a accumulée. Elle peut ainsi se substituer à un groupe électrogène et, le cas échéant, permettre de réaliser des économies en la chargeant la nuit, lorsque l'électricité est moins chère et d'utiliser ce courant à petit prix aux heures de pointe.

Deux jours d'électricité garantis en cas de coupure de courant

Nissan assure que la puissance de sortie de sa batterie (6 kilowatts) permet d'alimenter la plupart des appareils électroménagers du foyer : téléviseur, réfrigérateur, lave-vaisselle et lave-linge et même un climatiseur. Les 24 kwh stockés sur la batterie, lorsqu'elle est totalement rechargée offriraient, selon le constructeur, de quoi tenir deux jours en cas de coupure de courant.

Présenté récemment au Japon, ce dispositif sera disponible au printemps prochain et fonctionnera sur toutes les Leaf que Nissan a commencé à commercialiser en décembre 2010.

Challenges

L'énergie solaire spatiale continue d'intéresser le Japon
Vendredi, 05/08/2011 - 01:10

Depuis la catastrophe de Fukushima, le Japon a dû revoir sa politique sur le nucléaire qui était pourtant l'une de ses priorités stratégiques. Le développement de nouvelles sources d'énergie respectueuses de l'environnement est devenu encore plus pressant et certains scientifiques japonais estiment que la solution à ce problème pourrait venir de l'espace. La JAXA (Japan Aerospace eXploration Agency) étudie en effet le concept d'énergie solaire spatiale qui pourrait, selon ses partisans, devenir l'une des principales ressources énergétiques dans une vingtaine d'années.

Le concept d'énergie solaire spatiale consiste à collecter les rayons du Soleil grâce à de grands réflecteurs placés en orbite géostationnaire puis d'envoyer cette énergie sous forme de micro-ondes ou de rayon laser jusqu'à des installations au sol où elle est utilisée pour produire de l'électricité ou de l'hydrogène. Puisque la collecte de la lumière du Soleil se fait en dehors de l'atmosphère, elle est très efficace et non influencée par la météo (pluie, nuages, etc.). En outre, les installations étant situées en orbite géostationnaire, elles peuvent produire de l'énergie quasiment en permanence, tandis que les panneaux solaires au sol sont dépendants de l'heure du jour et du rythme des saisons.

L'idée de produire de l'électricité dans l'espace a été présentée pour la première fois en 1968 par Peter Glaser, un scientifique américain. La NASA a effectué des recherches sur ce thème dans les années 1970 mais le projet fut abandonné une dizaine d'années plus tard en raison de son coût trop élevé. Depuis la fin des années 1990, les Etats-Unis s'intéressent à nouveau à ce concept, sans toutefois parvenir à des avancées notables.

De son côté, le Japon a débuté en 1998 des études sur les SSPS (Space Solar Power Systems) qui continuent à ce jour. La JAXA réalise même depuis 2008 des expériences pour développer les technologies nécessaires à la production d'électricité dans l'Espace. Grâce à son implication durable dans le domaine, le Japon est ainsi devenu le pays leader de la recherche sur l'énergie solaire spatiale.

La JAXA n'a pas encore décidé si l'énergie produite en orbite sera transmise vers la Terre par micro-ondes ou par laser et examine les deux options. En ce qui concerne les systèmes SSPS à micro-ondes, deux concepts sont étudiés : le modèle basique et le modèle avancé. Le modèle basique est constitué d'un grand panneau suspendu à un satellite par des câbles. Une face du panneau génère l'énergie et l'autre face la transmet au sol. Le modèle avancé est une combinaison de deux miroirs réflecteurs de 2km de diamètre volant en formation avec un système composé de deux panneaux solaires générateurs d'énergie attachés à un panneau transmetteur de micro-ondes.

Le modèle avancé représente un défi technologique, mais il est capable de pointer vers le Soleil et offre donc un meilleur rendement que le modèle basique. Le faisceau de micro-ondes envoyé depuis l'Espace est réceptionné au sol et transformé en électricité par une antenne redresseuse de 2km de diamètre. Le système SSPS laser étudié par la JAXA est formé de grands miroirs focalisant la lumière du Soleil sur un dispositif de semi-conducteurs qui convertit les rayons solaires directement en rayons laser. Les technologies requises pour le SSPS laser sont toutefois très complexes et leur développement poserait plus de difficultés que celui du SSPS micro-ondes.

La JAXA a débuté le développement de systèmes de démonstration au sol de la transmission sans fil d'une énergie de 1kW, à la fois par micro-ondes et par laser. Ces expériences devraient être achevées fin 2013. Basée sur le design du système de démonstration au sol, une expérience de transmission d'énergie par micro-ondes depuis l'espace sera réalisée vers 2015. Si les technologies nécessaires à une diffusion par laser sont prêtes à ce moment-là, elles seront également testées depuis l'Espace.

Lorsque les expériences de transmission d'énergie au sol et en orbite seront achevées, le choix entre micro-ondes et laser sera effectué. Suite à cette sélection, la JAXA se lancera dans une démonstration de l'ordre de 100kW dans l'espace. A cette étape, toutes les technologies de base auront été vérifiées et la configuration du système SSPS commercial sera sélectionnée. Le coût estimé de la production d'énergie et l'acceptation de cette nouvelle technologie par le public seront des facteurs importants pour cette décision. Des tests pour le SSPS commercial seront réalisés avec des installations capables de produire d'abord 2MW (vers 2020), puis 200MW (vers 2025). La construction d'un SSPS commercial permettant la production de 1GW d'électricité devrait alors débuter dans les années 2030.

Bulletins Electroniques

^ Haut
Espace
Espace et Cosmologie
Télé-épidémiologie : prévoir l'apparition des moustiques par satellite
Lundi, 08/08/2011 - 09:22

La télé-épidémiologie, étude des relations climat-environnement-santé assistée par l’imagerie satellite, fourmille de projets en Afrique de l’Ouest. Les cartes prédictives de risque entomologique, désormais opérationnelles, faciliteront les applications sanitaires.

  • Des moustiques, des satellites et des hommes

« Plus de 250 piqûres par personne et par nuit durant la saison humide ! » s’exclame Jean-Pierre Lacaux, du laboratoire d’Aérologie à Toulouse qui étudie, avec le CNES, les relations climat-environnement-santé en Afrique subtropicale. Au Sénégal, la saison des pluies, de juin à octobre, est aussi la saison des moustiques, dans les villes et les campagnes. De nombreuses collections d’eau se forment alors, comme les mares temporaires, points d’eau pour le bétail et lieux de reproduction privilégiés des moustiques.

Anticiper la propagation de ces insectes, souvent vecteurs de maladies humaines ou animales causées par des agents biologiques pathogènes (virus, bactéries, parasites…), représente un enjeu sanitaire important et une réalité enfin tangible.

Après une dizaine d’années de travail sur les zoonoses d’Afrique de l’Ouest, la télé-épidémiologie fournit désormais des cartes prédictives de risque entomologique opérationnelles, en cours d’évaluation.

Allié solide des acteurs de la santé, cette approche unit plusieurs disciplines scientifiques (climatologie, entomologie, microbiologie…) à l’imagerie satellite. « Economiquement viable et originale, la télé-épidémiologie s’appuie sur des produits satellitaires, des réseaux sentinelles et des infrastructures déjà existants et opérationnels » souligne Antonio Güell, Chef du Service Applications/Valorisation au CNES.

  • Des cartes prédictives qui facilitent la prise de décision

De minutieuses observations de terrain (agressivité des moustiques, distance de vol, contacts entre hôtes et vecteurs…) informent les chercheurs des mécanismes entomologiques à l’origine de l’émergence des moustiques. « Pour l’étude sur la Fièvre de la Vallée du Rift (FVR) au Sénégal, il a fallu capturer 100000 moustiques et les recouvrir d’une poudre fluorescente pour suivre leur vol ! » se souvient Jean-Pierre Lacaux. Dans le même temps, les images spatiales du satellite Spot 5 donnent les variables environnementales associées au développement des moustiques (indice de végétation, présence et dynamique des points d’eau…). En croisant ces données, il est alors possible d’établir des cartes prédictives de zones de développement des moustiques et de leurs pics d’activité.

Pour la FVR, ces cartes déboucheront sur 2 types d’applications préventives : la sélection des mares à traiter par des larvicides biologiques et des zones de bétail à vacciner, ou la décision concertée de déplacer les parcs à bétail voisins.

D’autres projets de télé-épidémiologie, comme celui sur le paludisme à Dakar ou dans d’autres capitales africaines, sont également en cours, à des stades plus ou moins avancés.

CNES

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La France présente son plan d'adaptation au réchauffement climatique
Lundi, 08/08/2011 - 01:10

Nathalie Kosciusko-Morizet a présenté le 20 juillet le plan d'adaptation au réchauffement climatique élaboré par le gouvernement

« Globalement, nous nous dirigeons d'ici à la fin du siècle vers un scénario de hausse des températures, d'épisodes de sécheresse plus fréquents et plus intenses, et de baisse des précipitations », a indiqué Nathalie Kosciusko-Morizet, au cours de la présentation du Plan national d'adaptation au changement climatique.

Ce plan s’inspire largement des 200 recommandations de juin 2010 contenues dans le rapport des trois groupes de travail sur le changement climatique présidés par Michel HAVARD, député du Rhône, Jean JOUZEL, climatologue et membre du GIEC, et Martial SADDIER, député de Haute Savoie.

Ce plan français d’adaptation au changement climatique est le premier plan de cette ampleur dans l’Union européenne. Il fera l’objet d’un suivi annuel et d’une évaluation finale fin 2015, afin de préparer la suite.

La lutte contre les changements climatiques repose sur deux leviers :

  • La réduction des émissions de gaz à effet de serre pour contenir le réchauffement.
  • L’adaptation de la société à ce climat modifié : il s’agit de se préparer dès maintenant pour prévenir les risques humains, environnementaux, matériels, et financiers.

La France est le premier pays de l’Union européenne à présenter un plan de ce type. Pour Jean Jouzel, climatologue et membre du Giec (Groupe d’experts intergouvernemental sur l’évolution du climat), «il y a des incertitudes concernant l’ampleur du réchauffement, qui pourrait être compris, d’ici à la fin du siècle, entre + 2°C et + 2,5°C dans un scénario optimiste, et +2,5°C et 3,5°C dans un scénario pessimiste, mais ces incertitudes ne doivent pas empêcher l’action.»

La ministre a insisté sur quatre axes prioritaires: l'eau, la santé, l’aménagement du territoire et enfin la forêt française qui fera l’objet d’une attention particulière.

  • L'eau

Nathalie Kosciusko-Morizet entend bien préparer le pays à l'arrivée, selon elle inéluctable, du changement climatique. La ministre aspire en effet à ce que la consommation d'eau baisse « de 20 % d'ici à 2020, notamment en réglant le problème des fuites dans les réseaux d'eau potables » mais aussi à ce que les eaux usées soient mieux utilisées, « par exemple pour l'irrigation et l'usage industriel ».

  • La santé

Nathalie Kosciusko-Morizet prévoit par ailleurs « l'installation d'une veille à partir de 2012-2013 de certains insectes porteurs de maladies, qui peuvent se développer plus rapidement que leurs prédateurs et proliférer, ce qui présente des risques d'épidémies ». L'augmentation de la température des écosystèmes aquatiques pourrait en effet être favorable à une plus forte densité et répartition des moustiques. Ces derniers sont notamment porteurs de la dengue, du paludisme et du virus du chikingunnya.

  • L'aménagement du territoire

L'aménagement du territoire n'est pas épargné par la série de mesures proposée par la ministre de l'Ecologie. Nathalie Kosciusko-Morizet veut ainsi adapter « les infrastructures ferroviaires, routières et les constructions de logements » - qui « doivent durer au moins 50 ans » - au changement climatique. Les normes de conception et de construction devront en tenir compte pour prévenir les éventuels dangers de ces zones.

  • La forêt française

Alors que certaines espèces d'arbres ne seraient pas suffisamment résistantes en cas de sécheresse et tendraient à disparaître, la ministre a prévenu qu'il « va falloir diversifier les espèces  (…) et les ressources génétiques des essences d'arbres pour mieux adapter le parc forestier français ».

Si l'ensemble de ces mesures représente près de 170 millions d'euros, Nathalie Kosciusko-Morizet a tenu à préciser qu' « il existe en parallèle d'autres actions, comme le plan Digues et submersion, ou le plan sécheresse, qui participent aussi à notre adaptation au réchauffement climatique ».

Ministère de l'Écologie, du Développement durable, des Transports et du Logement

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Hépatite C : une nouvelle piste vaccinale
Mercredi, 10/08/2011 - 01:10

Développer un vaccin efficace contre l'hépatite C : tel est l'objectif d'une étude européenne coordonnée par David Klatzmann du laboratoire Immunologie-immunopathologie-immunothérapeutique (CNRS/UPMC/Inserm) et soutenue par l'ANRS. Pour la première fois, les chercheurs sont parvenus à produire chez l'animal des anticorps à large spectre contre le virus de l'hépatite C. Publiés le 3 août 2011 dans la revue Science Translational Medicine, ces résultats ouvrent la voie à la mise au point d'un vaccin contre l'hépatite C et plus largement, vers une nouvelle technologie pour le développement de vaccins contre d'autres infections (VIH, dengue…).

L'infection par le virus de l'hépatite C (VHC) est un problème de santé publique majeur. Dans le monde, 200 millions de personnes sont chroniquement infectées et, dans certaines régions, 10 à 30 % de la population est touchée. Les complications majeures de l'infection par le VHC (comme l'insuffisance hépatique ou les cancers du foie) provoquent environ 50 000 morts par an au niveau mondial. L'OMS estime que sans intervention rapide pour contenir la propagation de l'infection, la mortalité liée à l'infection par le VHC pourrait dépasser celle causée par le VIH. Il existe des traitements antiviraux qui permettent d'éradiquer le virus mais ils sont très coûteux et peu accessibles aux pays du Sud et il n'y a pas encore de vaccin préventif de l'infection dont le besoin est pourtant manifeste.

Dans le cadre d'une étude européenne coordonnée par David Klatzmann du laboratoire Immunologie-immunopathologie-immunothérapeutique (CNRS/UPMC/Inserm) et soutenue par l'ANRS, la start-up Epixis révèle les résultats prometteurs d'une nouvelle stratégie de développement vaccinal obtenus par plusieurs équipes françaises.

Dans le but de développer un vaccin contre le VHC, les chercheurs ont mis au point une technologie basée sur l'utilisation de « pseudo-particules » virales. De telles structures artificielles ressemblent aux particules virales mais elles n'en n'ont pas la dangerosité puisqu'elles ne contiennent pas de matériel génétique et ne permettent pas au virus de se multiplier. La nouveauté de l'étude réside dans l'élaboration de pseudo-particules virales « chimériques », c'est-à-dire construites avec des fragments issus de deux virus différents. Ici, il s'agit d'une pseudo-particule issue d'un rétrovirus de souris recouverte de protéines du VHC.

En réaction à une vaccination avec ces pseudo-particules virales, les chercheurs ont observé, pour la première fois, la production d'anticorps neutralisants le virus VHC chez la souris et le macaque. Il est largement accepté que les anticorps neutralisants sont les principaux médiateurs d'une immunité protectrice pour la plupart des vaccins utilisés chez l'homme. Ces mêmes anticorps se sont révélés avoir une activité à large spectre, c'est-à-dire capables d'induire une immunité neutralisante contre les différents sous-types du VHC. Jusqu'à présent, les tentatives dans ce sens avaient échoué.

Ces résultats sont importants pour la mise au point d'un vaccin préventif contre le virus de l'hépatite C. Plus généralement, ils sont applicables au développement de stratégies similaires pour des vaccins contre d'autres infections, comme le VIH, la dengue, le Virus Respiratoire Syncytial (RSV)...

CNRS

L’inquiétante émergence d’une salmonelle multirésistante aux antibiotiques
Mardi, 09/08/2011 - 01:10

Dans le cadre d’une vaste étude internationale, des chercheurs de l’Institut Pasteur, de l’INRA et de l’Institut de veille sanitaire ont pisté l'émergence soudaine et préoccupante d’une salmonelle devenue résistante à presque tous les antibiotiques. L’enquête a permis de retracer l’évolution de cette bactérie au cours des 50 dernières années, et notamment de déterminer la chronologie de l’apparition des différentes résistances, d’en décrypter les mécanismes et d’identifier la volaille comme le principal vecteur de la souche.

Ces travaux, publiés dans le Journal of Infectious Diseases, soulignent l'importance d'une surveillance rapprochée de ces bactéries responsables d’infections alimentaires, et la nécessité de rationaliser l'utilisation des antibiotiques dans les filières d’élevage à l'échelle mondiale.

Les bactéries du genre Salmonella représentent une des premières causes d’infections alimentaires chez l’homme. La surveillance microbiologique des infections humaines sur le territoire français est assurée par le Centre national de référence (CNR) des Salmonella, à l’Institut Pasteur, en collaboration avec les épidémiologistes de l’Institut de veille sanitaire. Le CNR avait récemment détecté de manière très précoce l’émergence, à partir de 2002, d’un type de salmonelle, chez un petit nombre de voyageurs de retour d’Egypte, du Kenya et de Tanzanie. Cette bactérie, appelée « Salmonella Kentucky », présentait des résistances à de nombreux antibiotiques, notamment aux fluoroquinolones, actuellement l’un des traitements clés des infections sévères à Salmonella.

Pour mesurer et suivre à plus large échelle l’étendue du phénomène, l’équipe du CNR de l’Institut Pasteur, dirigée par François-Xavier Weill et Simon Le Hello, a alors entrepris une vaste étude internationale, associant une dizaine d’institutions de surveillance et de recherche en Europe, aux États-Unis et en Afrique. La collecte des données épidémiologiques a ainsi permis aux chercheurs de suivre en temps réel la spectaculaire explosion de cette bactérie à partir de 2006 : alors qu’entre 2002 et 2008 on recensait globalement 500 cas pour la France, le Royaume-Uni et le Danemark, 270 cas ont été confirmés pour la France seule entre 2009 et 2010. La zone de contamination, initialement limitée à l’Afrique du Nord-Est et de l’Est, s’est en outre progressivement élargie à l’Afrique du Nord et de l’Ouest, ainsi qu’au Moyen-Orient.

En collaboration avec une équipe de l’INRA de Tours, dirigée par Axel Cloeckaert au sein de l'unité de recherche "Infectiologie animale et santé publique", les chercheurs du CNR des Salmonella se sont également penchés sur l’étude génétique des souches bactériennes originaires de ces différentes zones géographiques et de celles conservées depuis plusieurs décennies dans les collections de l’Institut Pasteur. Ils ont ainsi décrypté les mécanismes de résistance aux antibiotiques et en ont retracé la chronologie. Au début des années 1990, un fragment d’ADN comprenant des gènes de résistance à six molécules, dont certaines étaient déjà largement utilisées à l’époque, s'est intégré dans le chromosome de Salmonella Kentucky. Au milieu des années 1990 est ensuite apparue par mutation la résistance aux quinolones, puis au début des années 2000 celle aux fluoroquinolones.

Les observations des chercheurs semblent indiquer que l’Egypte pourrait être le berceau géographique des trois étapes d’apparition des résistances aux antibiotiques : c’est dans ce pays qu’ont toutes été identifiées pour la première fois les modifications génétiques qui en sont à l’origine. Les chercheurs estiment par ailleurs probable que Salmonella Kentucky ait acquis le fragment d’ADN responsable des premières résistances par l’intermédiaire des filières aquacoles : le recours massif aux antibiotiques dans ces élevages développés en Egypte dès le début des années 1990 aurait en effet favorisé la sélection des souches bactériennes résistantes à ces antibiotiques.

L’explosion récente des cas serait quant à elle liée à la propagation de la bactérie en Afrique dans la filière volaille, grande consommatrice de fluoroquinolones. C’est le cumul de toutes les résistances sur la même souche de Salmonella Kentucky qui serait ainsi à l’origine de l’épidémie actuelle.L’émergence de cette Salmonella Kentucky inquiète les scientifiques : aujourd’hui, dans plus de 10 % des cas, les patients n’ont pas déclaré de séjour à l’étranger.

La bactérie commence donc selon toute vraisemblance à s’implanter en Europe, multipliant ainsi le risque d’une contamination de la volaille d’élevage et donc la menace d’une propagation à grande échelle. De plus, les chercheurs de l’Institut Pasteur ont très récemment montré l’existence en Afrique du Nord de quelques souches devenues résistantes aux céphalosporines de troisième génération et aux carbapénèmes. Or, ces antibiotiques constituent le dernier rempart thérapeutique contre la bactérie. La propagation de ces résistances à la souche Kentucky épidémique constituerait donc une impasse pour le traitement de ces infections.

Les résultats de cette étude soulignent l’importance d’une veille microbiologique sur le plan national et international, en particulier pour les pays du sud. Ils rappellent le risque pour la santé humaine de l’utilisation non réglementée des antibiotiques dans les élevages, qui favorise l’apparition et la propagation des gènes de résistance chez des bactéries responsables d’infections alimentaires.

Institut Pasteur

Cancer du poumon : un traitement préventif pour les anciens fumeurs ?
Mardi, 09/08/2011 - 01:00

On le sait depuis longtemps, une des principales causes de survenue du cancer du poumon est l'exposition chronique à la fumée de tabac, y compris en cas de tabagisme passif. Selon les dernières données de l’Organisation mondiale de la santé (OMS), il est d'ailleurs considéré comme le plus meurtrier des cancers. ?Dans ce contexte, Jenny Mao et ses collègues de l’Université du Nouveau Mexique (États-Unis) ont cherché un traitement qui pourrait, pour les anciens fumeurs, réduire les risques d’être touchés par ce type de cancer.

Dans ce but, ils ont suivi, durant plusieurs mois, 137 patients âgés de plus de 45 ans et ayant arrêté la cigarette depuis plus d’un an. Certains d’entre eux ont bénéficié d’un traitement à base de Celecoxib, un inhibiteur de la COX-2 (400 mg deux fois par jour), alors que les autres ont pris un placebo.

Les premiers résultats sont plutôt encourageants. Ils ont montré qu' au bout de six mois, les patients ayant pris du Celecoxib avaient des bronches en meilleure santé que celles des autres patients. Selon les chercheurs, l’inhibiteur de COX-2 permettrait de renverser le processus enclenché par la fumée de cigarette et ainsi, permettrait, à terme, de réduire les risques de développer un cancer des poumons. D’autres études devraient être menées pour confirmer le rôle de cette molécule…

Information Hospitalière

Une Aixoise opérée du cerveau tout en étant éveillée
Samedi, 06/08/2011 - 15:35

Côté face, la scène est des plus banales. Une jeune femme allongée sur le flanc se livre à des exercices élémentaires de langage et de motricité, "Ceci est un chat. Ceci est un oiseau. Ceci est un soleil". Pourtant, en nommant un à un les dessins qui défilent sous ses yeux, Coralie, 23 ans, est en train de remporter une incroyable victoire sur elle-même. Car côté pile, sous la lumière implacable des scialytiques du bloc opératoire, c'est un tout autre spectacle. Du genre à faire tourner de l'oeil les âmes sensibles...

Sous la large entaille pratiquée dans la boite crânienne de la patiente, une partie du cerveau est à nu. "L'intervention consiste à enlever les restes d'une tumeur déjà opérée. Ces lésions se situent dans des zones très délicates", résume le Professeur Philippe Metellus. De ses doigts gantés, le neurochirurgien prend délicatement ses repères. À l'aide d'une petite sonde en forme de pic à brochette, il envoie un courant électrique de faible intensité pour stimuler la surface du cortex point par point. Objectif : "Détecter les régions cruciales, celle du langage notamment, afin de les préserver du bistouri".

  • Plasticité du cerveau

"Go... stop !" prévient le chirurgien à chaque stimulation. Dans ce laps de temps, la patiente doit réaliser un exercice : nommer un dessin, tracer le milieu d'une ligne, repérer un "L" dans un enchevêtrement de lettres. Quand Coralie butte sur un mot, que son débit ralentit, qu'elle dit ressentir des fourmillements dans les doigts, le Professeur Metellus pose une petite étiquette à même le cerveau pour marquer la zone stimulée.

Afin de ne plus y toucher. Il y a encore dix ans, les tumeurs et lésions situées à proximité des zones fonctionnelles du cerveau étaient inopérables en raison des dégâts causés par le bistouri. La chirurgie éveillée a totalement changé la donne. Depuis sa première intervention, en 2005 à la Salpétrière, le Professeur Metellus a "collaboré" avec une centaine de patients de La Timone. "Ces interventions ont été rendues possibles grâce au progrès de la connaissance anatomo-fonctionnelle du cerveau", explique le neurochirurgien.

Les spécialistes ont notamment observé les formidables capacités de plasticité du cerveau : "Les tumeurs de bas grade se développent lentement. Le cerveau a donc le temps de se réorganiser profondément. Et le plus souvent, la fonction touchée se déplace à distance de la lésion.

"Une "cartographie" que même l'imagerie médicale n'est pas capable de reproduire assez précisément. C'est pourquoi seule une stimulation in vivo permet au chirurgien de localiser les zones fonctionnelles. "Chaque cerveau est unique", résume le Professeur Metellus.

  • Jusqu'à 2h30 d'intervention éveillée

La partie "éveillée" de l'intervention de Coralie durera 1h30. "Cela peut aller jusqu'à 2h30 sur des opérations de 4 à 6 heures", explique le neurochirurgien.

Endormi pendant l'ouverture de la boite crânienne et l'incision de la méninge, le patient est progressivement réveillé par arrêt des perfusions d'anesthésiants. La douleur ? Paradoxalement, le cerveau qui est le centre de toutes les sensations ne la ressent pas car il n'est pas innervé", précise Philippe Metellus. Durant la partie éveillée de la chirurgie, seuls des analgésiques classiques sont délivrés pour limiter les désagréments liés à la position du patient: complètement immobilisé sur le flanc, la boite crânienne vissée sur un trépied afin d'empêcher tout mouvement.

Reste l'aspect psychologique d'une telle intervention. La maîtrise de soi dont doit faire preuve le patient est une condition absolument nécessaire à la réussite de l'opération. "Tous ne sont pas capables de coopérer sans paniquer. C'est pourquoi chaque malade est préalablement évalué par un psychologue", explique un anesthésiste. Mais, à partir du moment où le malade est de bonne composition, tout devient possible : "Un jour, nous avons opéré un patient sourd et muet en communiquant par la langue des signes".

  • Coralie, une jeune maman qui attend son second enfant

Aux dires de l'équipe soignante qui l'a entourée, rassurée, encouragée tout au long de l'épreuve bloc, Coralie fut une assistante particulièrement efficace. Samedi 30 juillet, soit 4 jours à peine après son intervention, la jeune femme nous recevait, en pleine forme dans sa chambre de La Timone. À 23 ans, Coralie, déjà maman d'un bébé d'un an, envisage l'avenir avec confiance. "Juste avant l'opération, j'ai découvert que j'étais enceinte de trois semaines. Avec bientôt deux enfants, je vais tout faire pour avoir la pêche !". On la croit sur parole.

Grâce à ses indications et au savoir-faire du Professeur Metellus, la tumeur a pu être enlevée à plus de 99 %. Coralie n'aura pas besoin de chimio ni de radiothérapie.

La Provence : http://www.laprovence.com/article/a-la-une/une-aixoise-operee-du-cerveau-tout-en...

Le cerveau modélisé
Samedi, 06/08/2011 - 15:27

C’est un rêve : reconstruire de toutes pièces un cerveau humain. Neurone par neurone, synapse par synapse. Lui fournir l’électricité nécessaire pour qu’il s’active et l’utiliser comme une poupée pour étudier le fonctionnement du cerveau humain, ses dysfonctionnements, ses addictions et, plus largement, ses émotions ou son intelligence.

Les avancées technologiques et scientifiques permettent aujourd’hui d’envisager, avec de plus en plus de sérieux, d’y parvenir. Mais l’humain pourra-t-il un jour reproduire ce que la nature a créé avec brio ? Un homme y croit, c’est Henry Markram, fondateur du projet Blue Brain de l’Ecole polytechnique fédérale de Lausanne (EPFL) et père de l’ambitieux Humain Brain Project (HBP), qui vient de passer le premier niveau de sélection sur le plan européen. En quoi consiste ce défi ultime qui allie recherche fondamentale et technologie ? Explications.

Le cerveau compte environ 100 milliards de neurones auxquels s’ajoutent des milliers de fois plus de connexions entre ces cellules. Chez les mammifères, la majeure partie du cerveau est divisée en unités fonctionnelles, appelées colonnes corticales. Chacune contient environ 70 000 neurones chez l’homme et 10 000 chez le rat. Des millions de ces colonnes forment le cortex cérébral, une structure qui permet d’accomplir certaines tâches, de voir, d’entendre, d’apprendre ou de mémoriser. «Mais, dans ce domaine, les chiffres sont à prendre avec précaution, rappelle Richard Walker, porte-parole du projet HBP. On est loin de tout connaître et l’on peut se tromper beaucoup, comme ce fut le cas avec le nombre de gènes humains.»

Plus largement, les scientifiques sont encore loin d’avoir percé tous les mystères de cet organe ultracomplexe. D’où leur idée d’intégrer l’ensemble de nos connaissances sur le cerveau dans un modèle reproduisant son fonctionnement. «Nous adapterons l’infrastructure à ce que nous découvrirons. Plus nous en connaîtrons, plus les détails seront précis. Il ne sera pas nécessaire de tout savoir pour commencer à l’utiliser», assure Henry Markram. En outre, il tiendra compte de paramètres tels que la plasticité synaptique – en d’autres termes, sa capacité d’adaptation aux changements – et des interactions qu’il peut avoir entre un corps ou un environnement. «Un cerveau pur ne serait pas fonctionnel, nous pensons le coupler à des robots qui agissent dans l’environnement et sont capables de lui envoyer des signaux, précise Richard Walker. Pour autant, ce ne sera pas une chimère, ce sera un instrument scientifique.»

L’HBP n’est pas né de rien. En 2005, l’EPFL lançait le Blue Brain Project (BBP), qui visait déjà à modéliser le cerveau. Ainsi, dans les laboratoires lausannois, les chercheurs découpent des petits morceaux de tissu cérébral chez les rats ou les souris, et les étudient avec des microscopes ultrasophistiqués. «Nous voyons les neurones se parler et récoltons les informations de base des micromouvements neuronaux afin de les introduire dans la modélisation», explique Félix Schürmann, responsable du BBP. Pour des raisons évidentes, ces recherches sont impossibles sur l’humain. «Les cellules de rats ne sont pas identiques mais elles ont permis de découvrir beaucoup de chose. Il faut désormais changer des détails, mais chez les mammifères, les neurones sont très similaires», précise Richard Walker.

Pour l’heure, le BBP a réussi à modéliser le fonctionnement d’une colonne corticale du cerveau du rat. Les auteurs du HBP envisagent de pouvoir fournir cette infrastructure capable de simuler le cerveau humain en 2023. Un des principaux défis à relever pour y parvenir est informatique. L’ordinateur capable de reproduire la complexité du cerveau n’est pas encore né. A ce jour, l’EPFL et les Universités de Lausanne et de Genève ont acquis un superordinateur, le Blue Gene P, avec environ 16 000 microprocesseurs et une capacité de 53,5 téraflops (ndlr.: capable d’effectuer 53,5 millions de millions d’opération par seconde). Une puissance déjà insuffisante pour modéliser le cerveau d’un rat et ses 100 millions de neurones. Et des cacahuètes comparé aux exaflops nécessaires pour faire de même pour le nôtre. «Il y a dix ans, on n’aurait jamais imaginé avoir des ordinateurs aussi puissants qu’aujourd’hui, alors tout est possible», assure Richard Walker.

Le défi est autant une question de puissance que d’énergie. Pour fonctionner, notre cerveau dépense 20 à 30 watts (ndlr.: la consommation d’une ampoule). Pour faire le même travail, un ordinateur a besoin de 15 à 20 mégawatts, un million de fois plus, et surchauffe. Le dialogue entre recherche fondamentale et technologie vise aussi à s’inspirer du cerveau pour produire des ordinateurs avec une limite énergétique et thermique beaucoup plus élevée.Enfin, le projet Human Brain poursuit aussi un but médical. «Deux milliards de personnes souffrent de maladies cérébrales, rappelle Henry Markram. Or les moyens de les traiter diminuent alors que le nombre de patients croît.» Comprendre le fonctionnement du cerveau, ce sera aussi favoriser les réponses à ses dysfonctionnements dans des maladies comme celles d’Alzheimer ou de Parkinson. Par exemple, «on pourra rapidement mesurer l’efficacité d’une neuroprothèse, virtuellement la dessiner, la tester et l’adapter au patient», avance encore Henry Markram. «Le modèle ne permettra pas de se passer des tests cliniques. Mais il permettra de voir, sans sacrifier de rats, l’effet d’une molécule sur les neurones du cerveau. Si elle n’est pas efficace ou nuisible, il sera inutile d’aller plus loin», complète Richard Walker.

24 heures

Des ultrasons pour voir fonctionner le cerveau
Vendredi, 05/08/2011 - 01:00

L'imagerie fMRI (IRM fonctionnelle) est une technique qui a révolutionné depuis plus de dix ans les neurosciences. Cette technique permet de voir l'activité cérébrale d'un patient en réponse à un stimulus (que ce soit visuel, auditif,...) en localisant l'afflux sanguin qui se produit dans la zone activée. L'IRM fonctionnelle est aujourd'hui incontournable en neurosciences et sciences cognitives au même titre que la Tomographie par émission de positons (TEP). Ces deux techniques ont toutefois un point faible : bien qu'elles pénètrent profondément dans les tissus, leur résolution et leur sensibilité sont limitées. En particulier, les images d'événements transitoires et/ou touchant l'ensemble du cerveau (crises d'épilepsie par exemple) sont difficiles à obtenir.

Bien que l'échographie Doppler basée sur l'utilisation des ultrasons soit couramment utilisée pour voir les flux sanguins en temps réel dans de nombreux organes, elle ne permettait pas jusqu'à maintenant d'observer les tout petits vaisseaux du cerveau et donc de visualiser l'activité cérébrale.

Pour dépasser les limites de l'échographie Doppler conventionnelle, les chercheurs de l'Inserm et du CNRS ont développé une méthode inédite et efficace sur les deux fronts : le fUltrasound (Ultrasons fonctionnels du cerveau) à la fois sensible (capable de filmer la vascularisation fine du cerveau) et conservant une excellente résolution dans le temps et dans l'espace. Pour augmenter considérablement la sensibilité de l'échographie conventionnelle, les chercheurs ont développé une imagerie ultrarapide, capable de mesurer les mouvements du sang sur l'ensemble du cerveau plusieurs milliers de fois par seconde (contre quelques dizaines de fois jusqu'alors). Cette augmentation du nombre de mesures permet de détecter le flux dans de très petits vaisseaux, dont les variations subtiles sont liées à l'activité cérébrale.

Pour Mickaël Tanter et Mathias Fink, directeur de l'institut Langevin, le potentiel d'applications de cette nouvelle technique, qui possède l'avantage d'être portable et peu chère, est majeur. D'un point de vue clinique, elle pourrait être utilisée chez le nouveau-né pour qui l'IRMf est très difficile à réaliser, voire chez le foetus pendant la grossesse et ainsi permettre de mieux comprendre le développement du cerveau. Chez l'adulte, elle pourrait être utilisée pour localiser des foyers épileptogènes en imagerie per-opératoire. Côté recherche, les ultrasons fonctionnels devraient permettre aux biologistes de répondre à de nombreuses questions fondamentales en neurosciences.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top