RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 544
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Février 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Économiser de l'énergie grâce aux "Smart Meter"
La SNCF expérimente un passe Navigo sur clé USB
Avenir
Enlever la thyroïde par l'aisselle
Nao, le robot de compagnie
Matière
MRam, une nouvelle mémoire vive pilotée par un champ électrique
De l'hydrogène synthétisé à partir d'énergie solaire
Honda lance une nouvelle station hydrogène solaire
Terre
L'Arctique se réchauffe encore plus vite que prévu
Vivant
Un vaccin efficace contre le paludisme enfin en vue
Vaccination : cinq millions d'enfants sauvés
Une grande avancée pour la recherche sur les pathologies des petites artères cérébrales
Un avancée majeure dans la compréhension des propriétés structurales des protéines
Vers le contrôle de la réponse immunitaire
Malvoyants : des lunettes révolutionnaires dotées d'une caméra intégrée
Obésité : un cause génétique identifiée
Une nouvelle amélioration dans la chirurgie du cancer du sein
Découverte d'une molécule qui agirait sur de nombreux virus
Un patient en état végétatif présumé communique par la pensée
Edito
nous devons réfléchir sur l'impact de nos modes de vie en matière d'environnement



On l'ignore souvent mais L'élevage, qui regroupe au total plus de 20 milliards d'animaux, est responsable de 18 % des émissions totales de gaz à effet de serre, davantage que les transports, selon l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO). Il est, de plus, responsable d'autres dégradations : pollution des eaux, érosion des sols, perte de biodiversité...

Les éructations des ruminants produisent 37 % du méthane émis du fait des activités humaines. Le potentiel de réchauffement global du méthane est 23 fois supérieur à celui du CO2. Le stockage et l'épandage de fumier sont responsables de 65 % des émissions d'oxyde nitreux, le plus puissant des gaz à effet de serre. La déforestation pour convertir des terres en pâturages ou en cultures fourragères (destinées à l'alimentation du bétail) est responsable de 9 % des émissions de CO2. Selon la FAO, 70 % des terres autrefois boisées d'Amérique du Sud sont aujourd'hui consacrées à l'élevage.

L'interprofession bovine, répondant à ces arguments, souligne à juste titre que dans la majorité des élevages en France, les vaches sont nourries à l'herbe, un mode d'élevage respectueux de l'environnement, qui ne concurrence pas l'alimentation humaine et permet de séquestrer du carbone. La consommation de viande dans le pays est, par ailleurs, en baisse : elle est passée de 150 grammes par jour en 1999 à 117 grammes en 2007. Dans les pays développés, cette consommation de viande est stabilisée autour de 200 grammes par jour.

Mais le problème vient des pays en voie de développement où la consommation moyenne de viande ne cesse de progresser depuis 40 ans, passant de 70 à 110 grammes par jour. La production de viande capte en outre des ressources considérables en terres et en eau. Elle mobilise 70 % des terres arables. Environ 9 % des quantités d'eau douce consommées chaque année y sont consacrées. Dans toutes leurs projections, les experts désignent l'augmentation de la demande de viande comme un des principaux facteurs des pénuries à venir. Or la consommation de produits carnés connaît une croissance très forte au niveau mondial. Relativement stable dans les pays développés (autour de 80 kg par an et par habitant), elle augmente fortement dans les pays en développement, à mesure que la population croît, mais aussi que l'urbanisation et les revenus progressent.

Il faut entre trois et neuf calories végétales, selon les espèces, pour produire une calorie animale. Déjà, quelque 40 % des céréales cultivées dans le monde sont destinées à alimenter le bétail. Selon les projections de l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO), pour répondre à la demande, la production mondiale de viande devra doubler d'ici à 2050, passant de 229 à 465 millions de tonnes.

Dès lors, une question se pose : où ferons-nous pousser les céréales pour nourrir tous les animaux nécessaires à la consommation de viande ? Si la tendance actuelle se poursuit, on peut en effet s'attendre à avoir une concurrence entre alimentation animale et humaine. Le dernier rapport de la FAO (septembre 2009) vient conforter ces craintes : il rappelle que, pour nourrir les 2,3 milliards d'humains supplémentaires que comptera le terre d'ici 2010 il faudra augmenter de 70 % la production agricole de la planète et cela sans tenir compte de l'essor des biocarburants. Pour y parvenir, deux solutions doivent être combinées : améliorer les rendements des productions et accroître les surfaces cultivées.

Aujourd'hui, environ 1,5 milliard d'hectares, soit environ 10 % des terres émergées, sont cultivés. Quelque 2,7 milliards d'hectares pourraient l'être également. Mais, comme le note la FAO : ces surfaces se situent pour la plupart en Amérique latine et en Afrique subsaharienne et ont "d'importantes fonctions écologiques". Elles contribuent notamment, en tant que « puits de carbone » à limiter le réchauffement climatique.

L'agence des Nations unies pense donc que c'est plutôt l'intensification des modes de production, qui devrait permettre de couvrir, selon elle, 90 % des nouveaux besoins. Mais cela ne sera pas facile car la croissance des rendements a considérablement ralenti, ces dernières années, dans de nombreux pays. Pour les céréales, ce taux de croissance est ainsi passé, selon la FAO, de 3,2 % dans les années 1960 à 1,5 % dans les années 2000.

Une autre étude prospective réalisée conjointement par l'Institut national de la recherche agronomique (INRA) et le Centre de coopération international en recherche agronomique pour le développement (Cirad), estime que la planète serait capable de nourrir tous ses habitants en 2050, sans mettre en péril l'équilibre environnemental de la planète, en associant une réduction des gaspillages et une rupture des habitudes de consommation. Les "disponibilités alimentaires" par habitant seraient alors ramenées à 3 000 calories par jour, dont 500 d'origine animale, contre environ 4 000 actuellement dans les pays développés, dont plus de 1 000 issues de la viande ou du poisson.

Ces remarquables études posent parfaitement l'immense défi qui nous est posé et convergent pour souligner que, quels que soient les progrès des techniques agricoles et agronomiques et compte tenu des surfaces nouvelles limitées au niveau mondial pour la mise en culture, il sera impossible de nourrir correctement les 9 milliards d'habitants de la planète si nous ne remettons pas en cause nos modes de vie et de consommation. Nous devons absolument parvenir à stabiliser au niveau mondial notre consommation de protéines d'origine animale.

Cette stabilisation est tout à fait possible et peut se faire de manière progressive, de manière à laisser le temps aux industries agroalimentaires concernées de s'adapter à cette nécessaire mutation. Il ne s'agit pas de tous devenir végétariens ou de prôner des discours intégristes en matière alimentaire mais d'opter progressivement pour une consommation alimentaire plus diversifiée et surtout plus modérée de protéines animales qui aura un double avantage : elle limitera sensiblement les émissions de gaz à effet de serre en permettant de nourrir, à surface agricole égale, un plus grand nombre de personnes.

Il est en outre scientifiquement démontré qu'une consommation raisonnable de protéines animales et notamment de viande rouge, est bénéfique pour la santé. Ces changements ne doivent bien entendu pas être imposés mais doivent résulter de prises de conscience personnelles. Nous devons y réfléchir et nous y préparer dans l'intérêt de notre planète.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Économiser de l'énergie grâce aux "Smart Meter"
Vendredi, 12/02/2010 - 00:00

Des scientifiques de l'Institut Fraunhofer de logiciels d'expérimentations en ingénierie sont convaincus qu'une meilleure utilisation des technologies de l'information et de la communication permettrait d'économiser de l'énergie. Pour cela, les consommateurs doivent être informés en temps réel sur leur consommation d'énergie et pouvoir agir en conséquence sur leurs appareils de chez eux, mais également à distance.

Un tel contrôle de sa consommation se fera grâce à de nouveaux compteurs d'électricité plus intelligents, appelés "Smart Meter". Le salon international des technologies de l'information CeBIT 2010, qui aura lieu du 2 au 6 mars 2010 à Hanovre, sera l'occasion pour les professionnels de convaincre l'opinion publique de l'utilité des compteurs intelligents, de présenter leur fonctionnement pratique et leurs méthodes d'installation.

Les performances actuelles des batteries ne permettent pas de stocker l'énergie avec un rendement efficace. Ainsi un consommateur qui allume un appareil électrique à un instant donné entraîne instantanément l'augmentation de la production d'une centrale électrique quelque part en France ou à l'étranger. De plus, grâce à l'émergence des énergies renouvelables, le consommateur peut aujourd'hui équiper son foyer de véritables centrales énergétiques. Il devient ainsi acteur du réseau. Dans ce cadre, les "Smart Meter" ont pour tâche de calculer en temps réel la différence entre l'énergie consommée et l'énergie produite. Le surplus d'énergie, s'il existe, peut être vendu et redistribué intelligemment sur le réseau. Le déficit en énergie doit ensuite être acheté sur le marché de l'électricité à court terme. Le logiciel interne aux "Smart Meter" propose un affichage en continu des prix de l'électricité et permet ainsi à l'utilisateur d'optimiser sa consommation, lisser la production des centrales et finalement réduire l'impact environnemental des centrales électriques.

Le logiciel est également intelligent dans le sens où il interdit par exemple au consommateur d'allumer simultanément pendant les périodes de pointes la climatisation et la machine à laver, toutes deux dévoreuses d'énergie. Il peut aussi anticiper la montée des prix de l'électricité en faisant fonctionner à l'avance un réfrigérateur ou en retardant au contraire la mise en marche d'un appareil de chauffage. Le système "Smart Meter" peut également être piloté par ordinateur. Le client rentre ses préférences, comme les températures de confort haute et basse, un prix limite d'achat de l'électricité, ou encore sa consommation maximale autorisée. Le logiciel calcule ensuite de quelle manière les appareils doivent être mis en marche automatiquement. La communication entre le compteur central et les installations électriques peut se faire par câbles ou par liaison sans fil.

Des essais en environnement réel auront lieu au cours de l'année 2010 dans des bâtiments publics de la ville de Kaiserslautern. Des chercheurs de l'institut Fraunhofer des techniques appliquées de l'information ont également développé une application pour téléphone portable qui reprend les fonctionnalités du logiciel "Smart Meter". L'écran peut désormais afficher la consommation en temps réel des différents appareils électriques de la maison et les piloter à distance.

BE

La SNCF expérimente un passe Navigo sur clé USB
Vendredi, 12/02/2010 - 00:00

Un nouveau passe Navigo serait-il sur les rails ? Le Syndicat des transports d'Ile-de-France (Stif) et Transilien SNCF lancent une expérimentation auprès de mille usagers volontaires. Ceux-ci vont être dotés d'une clé USB de 1 Go peu ordinaire. Elle leur permettra non seulement de franchir les portiques du RER (la clé comporte une puce sans contact, comme le passe Navigo), mais aussi de recharger leur forfait mensuel ou hebdomadaire par Internet. D'ordinaire à chaque début de mois, les usagers des transports parisiens doivent faire d'interminables queues aux guichets de la SNCF ou de la RATP pour recharger leur forfait. Les clients testeurs pourront acheter directement leur titre depuis le site transilien.com en branchant leur clé sur le port USB de leur ordinateur et en réglant par carte bancaire.

Même si l'opération est menée par la SNCF, les utilisateurs pourront acheter des forfaits concernant uniquement les zones 1 et 2, correspondant à Paris. Autrement dit, principalement aux lignes de métro de la RATP. Chaque clé est à usage personnel et comporte au verso une photo de son propriétaire.

« Nous avons commencé à recruter les utilisateurs en envoyant en opt-in à 25 000 de nos clients un e-mail pour leur proposer de faire partie de cette expérience. La semaine passée nous comptions déjà 500 retours positifs. Notre panel est aujourd'hui presque complet. Nous avons présélectionné des personnes qui répondent au cahier des charges : à savoir des utilisateurs qui partent d'une gare avec portillon, sans portillon, etc. », développe un porte-parole du Transilien SNCF.

L'expérimentation se terminera le 31 août prochain. Elle viendra compléter celle menée par la RATP et le Transilien SNCF sur un autre mode de paiement : le lecteur à carte. Les usagers volontaires y insèrent leur passe Navigo pour recharger leur forfait depuis Internet.

A l'issue de ces deux tests, le Stif rendra ses conclusions. « Il s'agira de savoir quelle expérience a rencontré l'adhésion des utilisateurs. Et d'établir un modèle économique. La clé sera-t-elle donnée comme le passe Navigo ? Les usagers devront-ils en payer une partie ? Et s'il y a une participation viendra-t-elle du Stif, des transporteurs ? », explique la SNCF.Le passe Navigo compte déjà plus de 1,6 million d'utilisateurs. Il est peu probable pour des raisons économiques que le Stif décide de rééquiper tous ces usagers. La clé USB, si elle est retenue, pourrait donc venir comme carte de transport alternative.

OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Enlever la thyroïde par l'aisselle
Vendredi, 12/02/2010 - 00:00

La thyroïde est une glande qui sécrète des hormones dans tout l'organisme. Elle est située à la base du cou, sous la pomme d'Adam, devant la trachée. Un nouveau robot a permis à une équipe de chirurgiens de Nancy de procéder à l'ablation d'une thyroïde en passant par l'aisselle, une technique toute nouvelle. Le recours à cette machine permet de ne pas opérer le patient en effectuant des incisions dans le cou, mais de passer par l'aisselle et donc de diminuer les cicatrices et les complications.

Il y a trois raisons qui peuvent induire une thyroïdectomie (ablation de la thyroïde). Le premier est une augmentation de la taille de la glande qui peut gêner la respiration et comprimer les organes voisins. Le second cas de figure est la présence de nodules (sorte de grains, petites excroissances) et le troisième : le risque de cancer révélé suite à un examen. Environ 55 000 thyroïdectomies sont réalisées chaque année en France. L'opération est bien rodée, mais les suites opératoires sont parfois plus compliquées.

L'opération réalisée au CHU de Nancy a été effectuée avec l'aide du robot Da Vinci qui possède trois bras articulés et une grande amplitude possible dans ses mouvements (que le poignet humain ne peut effectuer). Le robot est commandé par le chirurgien qui visualise en même temps le déroulement de l'opération grâce à trois mini-caméras. Cette opération est la deuxième de ce type réalisée en France (premier cas à Nîmes fin 2009).

L'opération par le chirurgien et le robot Da Vinci est plus longue que l'opération standard, mais à long terme le temps devrait être le même une fois l'expérience acquise par l'équipe chirurgicale. L'intérêt de la technique est que les cicatrices sont ainsi dissimulées et les suites opératoires sont simplifiées. Le patient obtient donc à la fois un bénéfice esthétique (cicatrice sous le bras plutôt que dans le cou) et médical avec une récupération plus rapide. Le robot Da Vinci est voué à être utilisé dans de nombreuses opérations chirurgicales, et même les plus compliquées puisque le geste est plus précis.

Internaute

Nao, le robot de compagnie
Vendredi, 12/02/2010 - 00:00

Dans le série des robots de compagnie, il y a désormais Nao, l'androïde développé par la société française Aldebaran. Nao, un petit humanoïde de 58 centimètres de haut, d'un poids de 4 kg, n'est pour l'instant vendu qu'à des laboratoires de recherche et des universités pour environ 12 000 euros. Mais il ne faut pas désespérer : sa version grand public est prévue pour 2011 à un prix un peu moins prohibitif, mais tout de même élevé (4 000 euros).

Nao écoute grâce à quatre microphones répartis dans sa tête et à un système de reconnaissance vocale. Il voit grâce à deux caméras et peut reconnaître un corpus de mots prédéfinis, que l'on peut enrichir avec ses propres termes. Nao est également capable de détecter la provenance d'un son puis de faire un mouvement pour répondre à la voix de son maître. Le petit robot parle et lit à voix haute n'importe quel fichier texte résidant dans son espace de stockage ou récupéré sur Internet (il est ainsi capable de lire des mails). Mais Nao ne fait pas encore la vaisselle, ne donne pas les croquettes au chat...

LM

^ Haut
Matière
Matière et Energie
MRam, une nouvelle mémoire vive pilotée par un champ électrique
Vendredi, 12/02/2010 - 00:00

Constitué de scientifiques de l'Université Paris-Sud, du CNRS, de l'entreprise Thalès et du centre de recherche Helmholtz de Berlin (HZB), un groupe franco-allemand de chercheurs vient de développer une nouvelle technologie pour les mémoires vives. Cette nouvelle technologie, appelée MRam pour "Magnetic Random Access Memory", utilise pour la première fois des champs électriques plutôt que des champs magnétiques pour stocker les informations. L'avantage est de taille car il permet de réduire la consommation d'énergie des mémoires internes de l'ordinateur.

Les mémoires MRam sont constituées non pas d'éléments électriques, comme ses prédécesseurs, mais d'éléments spintroniques. L'exploitation de la charge de l'électron est ainsi abandonnée, au profit de son spin. Il s'agit d'une propriété de symétrie intrinsèque décrite par la spintronique, une discipline qui ne cesse de se développer.

Dans le cas des MRam, c'est le phénomène de magnétorésistance à effet tunnel (TMR) qui est utilisé. Ces mémoires MRam sont constituées de deux couches de matériaux ferromagnétiques et d'un isolant ferroélectrique, le titanate de baryum (BaTiO3). L'équipe de chercheurs a montré qu'une couche d'un nanomètre d'épaisseur de titanate de baryum permettait d'orienter à volonté les spins des électrons sous l'action d'un champ électrique. On sait que l'état de spin des électrons est lié à l'aimantation de zones dans le matériau ferromagnétique. Des cellules composées de cette façon enregistrent donc des bits d'informations, un pour chaque cellule.

Grâce à cette nouvelle méthode, les MRam ne nécessitent pas d'apport continuel en énergie pour le stockage des données. Elles sont donc moins gourmandes en électricité et participent ainsi à la mouvance actuelle de réduction de la consommation des appareils informatiques, appelée Green IT.

BE

De l'hydrogène synthétisé à partir d'énergie solaire
Vendredi, 12/02/2010 - 00:00

Le réacteur Hydrosol du DLR à Cologne repose sur un procédé de production d'hydrogène à partir d'énergie solaire. Il a été construit sur le modèle d'un réacteur pilote construit en 2008 sur la Plataforma Solar d'Almeria en Espagne avec lequel des chercheurs ont réussi pour la première fois à produire sur une centrale de 100 kW de l'hydrogène avec de l'énergie solaire concentrée. Martina Neises, ingénieur en mécanique et doctorante dans le domaine du solaire à concentration au Centre allemand de recherche aérospatiale (DLR) à Cologne, étudie et optimise ce procédé.

Le soleil réchauffe d'abord à 1.200°C la structure en nid d'abeilles du réacteur, recouverte d'un revêtement d'oxyde de fer. A ces températures, le revêtement d'oxyde de fer du rayon est réduit chimiquement, et une part de l'oxygène est ainsi libérée et transportée hors du réacteur. Dans une deuxième étape (celle de la séparation de l'eau à proprement parler, réalisée entre 800 et 1000 °C), la chercheuse fait circuler de la vapeur d'eau dans le cylindre, qui réagit avec l'oxyde de fer réduit.

La vapeur d'eau se fissionne alors : l'oxygène se lie à l'oxyde métallique et se fixe dans le revêtement d'oxyde, alors que l'hydrogène porteur d'énergie s'écoule hors du réacteur. Une fois que le revêtement d'oxyde de fer est complètement oxydé, il se régénère et le cycle recommence du début. Le réacteur de recherche de Martina Neises fonctionne non pas avec l'énergie solaire mais avec une source de lumière solaire artificielle, lui assurant des conditions stables pour ses essais.

La tâche de la doctorante consiste à améliorer ce procédé : comment le revêtement d'oxyde de fer doit-il être préparé et quelles sont les conditions de réaction nécessaires à la fabrication d'une grande quantité d'hydrogène sans abimer le matériel trop vite ? Ces études pourraient contribuer à améliorer les rendements des installations futures.

A long terme, l'hydrogène peut jouer un rôle important dans notre mix énergétique ; en particulier en terme de mobilité, l'hydrogène pourrait devenir un carburant du futur, mais à condition de le fabriquer sans émission de CO2, c'est-à-dire avec des énergies renouvelables et des matières non productrices de CO2. "Comme nous produisons l'hydrogène par un procédé chimique entraîné par l'énergie solaire, nous ne faisons rien d'autre que stocker l'énergie solaire. Peut-être pourrons-nous un jour recharger nos véhicules en hydrogène et rouler à l'énergie solaire", ajoute Martina Neises.

BE

Honda lance une nouvelle station hydrogène solaire
Vendredi, 12/02/2010 - 00:00

Neuf ans après le lancement de sa première station, Honda améliore son ergonomie. Une station plus compacte, qui peut être installée dans un simple garage. Voici une nouveauté pour les voitures électriques fonctionnant avec une pile à combustible : elles pourront désormais être alimentées dans le garage de leur propriétaire grâce à une petite station hydrogène solaire.

L'hydrogène est produit par électrolyse, un procédé chimique qui permet de décomposer l'eau en dioxygène et dihydrogène gazeux à l'aide d'un courant électrique. Le courant électrique est produit par les panneaux solaires qui fonctionnent avec la technologie CIGD (cuivre, indium, gallium, selenium) et 48 m2 de cellules photovoltaïques.

En huit heures, la station produit 0,5 kg d'hydrogène : de quoi alimenter les trajets quotidiens. Les utilisateurs pourront même recharger leur voiturela nuit car, le jour, l'énergie des panneaux solaires sera transférée vers le réseau électrique général. Ce qui diffère avec l'ancien modèle, c'est surtout la suppression du compresseur qui fait gagner 25% de rendement par rapport à la première génération. Cette station peut aussi se passer de réservoir à hydrogène.

Cette station solaire est commercialisée par Honda en même temps que la première berline à hydrogène de série, la FCX Clarity. Une voiture qui garde un inconvénient majeur : le prix de la pile à combustible. Celui-ci reste en effet élevé, en raison des matériaux et du temps nécessaire à la réalisation.

MS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Arctique se réchauffe encore plus vite que prévu
Vendredi, 12/02/2010 - 00:00

Les changements climatiques affectent l'environnement arctique à un rythme bien plus élevé qu'on ne le pensait, notamment sur la fonte des glaces, ont annoncé vendredi des chercheurs ayant mené une étude d'une ampleur sans précédent dans le grand Nord canadien. Ce projet impliquait plus de 370 scientifiques venus de 27 pays, qui se sont relayés durant quinze mois au nord du cercle polaire à partir de juin 2007. Le navire à bord duquel ils se trouvaient est le premier à avoir passé un hiver entier en restant mobile dans la région.

Le changement climatique "se produit bien plus vite que ne l'avaient prévu nos modèles les plus pessimistes", a constaté David Barber, enseignant à l'université du Manitoba et principal chercheur de cette étude, lors d'une conférence de presse à Winnipeg. Ces modèles prédisaient il y a encore quelques années que l'océan Arctique serait libre de glace en été d'ici l'an 2100, mais l'accélération du réchauffement montre désormais que cela pourrait se produire entre 2013 et 2030, a indiqué Barber.

Les scientifiques lient la hausse des températures en Arctique et la fonte des glaces aux émissions croissantes de gaz à effet de serre.

"Nous savons que la glace disparaît, le monde entier en est conscient. Ce dont on n'est pas conscient, c'est que cela a un impact sur tout ce qui se trouve dans cet écosystème", a poursuivi Barber.

La fonte de la banquise éloigne de la région les mammifères qui s'y reproduisent, s'y alimentent ou s'y cachent des prédateurs, a indiqué Steve Ferguson, chercheur pour le gouvernement canadien.A l'inverse, des espèces de baleines que l'on ne rencontrait autrefois jamais en Arctique s'y rendent maintenant, car leurs déplacements ne sont plus entravés par les glaces.Le changement climatique amène en outre plus de cyclones en Arctique, qui projettent de la neige sur la banquise et l'empêchent ainsi de s'épaissir. De plus, les vents violents rompent parfois la glace.

L'étude a été menée dans le cadre de l'année polaire internationale, un programme scientifique concentré sur les deux pôles. Les chercheurs n'ont pas encore fait connaître leurs conclusions, mais s'apprêtent à publier de nombreux articles dans les revues spécialisées.Selon une étude menée par le Groupe environnemental Pew, basé aux Etats-Unis, la fonte accélérée de l'Arctique pourrait entraîner un coût planétaire de 2.400 milliards de dollars d'ici à 2050, le climat mondial étant moins rafraîchi par cet océan.

Reuters

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un vaccin efficace contre le paludisme enfin en vue
Vendredi, 12/02/2010 - 00:00

Un nouveau vaccin expérimental contre le paludisme a donné des résultats encourageants chez des enfants, selon une étude publiée aux Etats Unis. Des médecins internationaux ont testé le vaccin sur des enfants âgés de un à six ans, dans une zone rurale du Mali. Certains de ces enfants ont eu une ou trois doses du vaccin, alors que d'autres ont été seulement vaccinés avec un vaccin antirabique. La triple dose de vaccin antipaludique s'est avérée sans danger, bien tolérée et a provoqué une très forte réponse immunitaire qui a duré au moins un an, selon cet essai clinique.

S'appuyant sur le succès apparent du vaccin lors de ce premier essai clinique (phase 1), la même équipe internationale et des chercheurs européens ont décidé ensuite de le tester sur 400 enfants maliens. Le vaccin est basé sur une seule souche du parasite plasmodium, responsable de la forme la plus fréquente et la plus mortelle du paludisme. Le parasite est transmis par la piqûre de moustiques anophèles qui en sont porteurs.

Le vaccin appelé FMP2.1/AS02A cible le paludisme au moment où le parasite entre dans le sang de la victime et commence à se multiplier, précise l'étude. "Les résultats de cet essai clinique pourraient signifier que nous avons peut-être réussi à produire un vaccin qui, pour la première fois, reproduit l'immunité naturelle contre le parasite" relève le Dr Christopher Plowe, professeur de médecine à l'Université du Maryland.

"Développer naturellement une telle immunité prend normalement de nombreuses années d'exposition au paludisme " ajoute-t-il.Pour le moment le candidat vaccin antipaludique le plus avancé au monde est le RTS,S dont un essai clinique de phase 3 est mené depuis mai 2009 sur 11 sites dans sept pays africains (Gabon, Mozambique, Tanzanie, Ghana, Kenya, Malawi et Burkina-Faso) et portant sur 16.000 enfants et nouveau-nés. Les résultats définitifs pourraient être connus en 2013.

PLOS

Vaccination : cinq millions d'enfants sauvés
Vendredi, 12/02/2010 - 00:00

«Nos investissements pour la vaccination des enfants dans les pays pauvres de la planète ont donné des résultats exceptionnels, se félicite Julian Lob-Levyt, directeur de l'Alliance mondiale pour les vaccins et l'immunisation (Gavi), qui fête cette année ses dix ans d'existence. Ils ont permis de sauver 5 millions d'enfants.» Il était au Forum économique mondial de Davos, aux côtés de Bill et Melinda Gates, dont la fondation a été, dès l'origine, le principal soutien financier de l'Alliance avec un don initial de 750 millions de dollars.

L'Alliance Gavi a été créée alors que la vaccination dans les pays les plus pauvres marquait le pas. L'arrivée de ce nouvel acteur a totalement changé la donne. En neuf ans, 250 millions d'enfants ont été vaccinés. 138 millions d'entre eux ont reçu des vaccins nouveaux ou sous-utilisés comme celui contre l'hépatite B ou l'Haemophilus influenzae de type b, responsable de méningites et de pneumonies graves. Au Bangladesh, par exemple, seulement 5 % des enfants âgés de moins de 5 ans étaient vaccinés en 2003 contre l'hépatite B. Trois ans plus tard, le taux était passé à 83 %.

Gavi intervient aujourd'hui dans 72 pays, africains et asiatiques pour la plupart, où le revenu moyen est inférieur à 1 000 dollars par habitant et par an. L'inégalité dans le domaine de la santé est considérable. Là-bas, des maladies comme la rougeole ou la coqueluche, considérées chez nous comme relativement bénignes, peuvent entraîner la mort des très jeunes enfants souffrant de malnutrition. Entre 2000 et 2008, la mortalité due à la rougeole a diminué de 92 % en Afrique !

Parmi les quatorze maladies qui devraient être couvertes par la vaccination, selon l'OMS (Organisation mondiale de la santé), les pneumonies à pneumocoques et les diarrhées à rotavirus tuent chaque année 1,4 million d'enfants dans les pays les plus pauvres. La prévention est possible et elle passe avant tout par la vaccination.

C'est ainsi que le Rotarix, un vaccin antirotavirus développé par GlaxoSmithKline (GSK), vient de passer avec succès les essais cliniques de phase 3 au Malawi et en Afrique du Sud (New England Journal of Medicine, 28 janvier 2010). Gavi, de son côté, a soutenu la mise au point du RotaTeq par Merck. Ce vaccin antirotavirus, administré depuis trois ans au Mexique, a permis de réduire de 35 % les décès chez les enfants de moins de cinq ans et de plus de 65 % chez ceux de moins de deux ans.

Figaro

Une grande avancée pour la recherche sur les pathologies des petites artères cérébrales
Vendredi, 12/02/2010 - 00:00

Les maladies des petites artères cérébrales sont responsables de lésions de la substance blanche du cerveau et d'infarctus cérébraux profonds multiples. Elles sont à l'origine de 20% des accidents vasculaires cérébraux et constituent la deuxième cause de démence après la démence d'Alzheimer. La maladie CADASIL est une forme héréditaire de ce type de pathologies, caractérisée par la présence de dépôts vasculaires spécifiques (appelés GOM pour Granular Osmiophilic Material) et la dégénérescence progressive des cellules musculaires lisses qui constituent la paroi des artères.

"Cette maladie est considérée comme une maladie rare, 500 familles répertoriées dans le monde, mais il semblerait que sa prévalence soit très largement sous-estimée" explique Anne Joutel, chercheuse de l'unité Inserm 740 "Génétique des maladies vasculaires". Les premiers symptômes cliniques de la maladie apparaissent vers l'âge de 40-45 ans, mais, l'imagerie par résonnance magnétique (IRM) du cerveau détecte dès l'âge de 30 ans des lésions de la substance blanche.

Son évolution conduit à un état grabataire et au décès du patient vers l'âge de 60-65 ans. Bien que ces affections des petites artères cérébrales soient fréquentes, les mécanismes exacts mis en jeu sont très mal connus en raison, surtout, de l'absence d'un bon modèle animal chez lequel la chronologie précise des lésions pourrait être étudiée.

De ce fait, aucun traitement spécifique n'existe à ce jour. Après plusieurs tentatives infructueuses, Anne Joutel et ses collaborateurs ont obtenu un modèle de souris génétiquement modifiées qui développent avec l'âge des lésions cérébrales similaires à celles qui sont observées chez les patients souffrant de la maladie CADASIL.

Grâce à leur nouveau modèle in vivo, les chercheurs ont pu observer chez les souris transgéniques exprimant la protéine Notch3 mutée, dès l'âge de 5 mois, les lésions vasculaires caractéristiques de la maladie, à savoir l'accumulation anormale de la protéine Notch3 et des GOM. Ces souris développent à partir de l'âge de 12 mois des lésions de la substance blanche cérébrale associées à une réduction de la perfusion cérébrale telles qu'on peut les observer chez les patients souffrant de la CADASIL. A l'aide d'analyses immunohistologiques et fonctionnelles des vaisseaux cérébraux, les scientifiques ont montré que les lésions du cerveau dans la CADASIL résultent non pas d'une destruction des cellules musculaires lisses des artères cérébrales, mais de la combinaison d'un dysfonctionnement des artères et d'une réduction de la microcirculation au niveau de la substance blanche cérébrale.

Ce nouveau modèle murin offre des perspectives multiples et très importantes pour la maladie CADASIL et, plus largement, pour les démences vasculaires. Il constitue un outil de choix pour approfondir la compréhension des mécanismes de survenue des lésions cérébrales dans les maladies des petites artères cérébrales et tester des thérapeutiques visant à prévenir ou ralentir leur apparition.

Inserm

Un avancée majeure dans la compréhension des propriétés structurales des protéines
Vendredi, 12/02/2010 - 00:00

En réussissant à caractériser les propriétés structurales d'une de ces protéines par une technique innovante de résonance magnétique nucléaire, ces chercheurs ont relevé un défi majeur de la génomique structurale actuelle. Grâce à cette avancée, il sera désormais possible de comprendre les relations entre la structure et la fonction de ces protéines intrinsèquement désordonnées qui jouent un rôle clé dans de nombreuses pathologies humaines. Ces travaux ont été publiés le 11 janvier online par la revue Journal of American Chemical Society.

La génomique structurale est fondée sur l'hypothèse que la résolution de la structure tridimensionnelle des protéines permettra de comprendre les processus biologiques du vivant. Cependant, jusqu'à maintenant, les techniques de biologie structurale ne permettaient pas de connaitre la structure tridimensionnelle des protéines intrinsèquement désordonnées (PIDs), soit environ 40% des protéines codées par le génome humain. Un grand nombre de ces protéines sont associées à des maladies humaines, comme la protéine Tau impliquée dans le développement de la maladie d'Alzheimer, ou de la protéine p53, un des plus importants suppresseurs de tumeurs, impliqué dans de nombreux cancers.

L'impossibilité de déterminer la structure de ces protéines, notamment lors de leur fonctionnement (interaction avec leurs partenaires par exemple), rend irréalisable le décryptage de nombreux processus moléculaires essentiels. Le développement des méthodes pour étudier le comportement conformationnel des PIDs constitue donc un défi majeur pour toute la communauté scientifique de la biologie structurale contemporaine.

Pour la première fois, les chercheurs grenoblois de la Direction des sciences du vivant du CEA, du CNRS et de l'Université Joseph Fourier, en collaboration avec les chercheurs de l'UVHCI, viennent de décrire de façon très précise les propriétés structurales et dynamiques d'une de ces protéines intrinsèquement désordonnée, la nucléoprotéine du virus Sendai (virus proche du virus de la rougeole).

Cette protéine joue un rôle essentiel dans la transcription et la réplication du virus à l'intérieur des cellules infectées. Pour cela les chercheurs ont mis au point une technique basée sur la résonance magnétique nucléaire. En observant la moyenne des déplacements chimiques des atomes constituant la protéine, ils ont pu décrire au niveau atomique la structure de la partie de la protéine qui interagit avec son partenaire (une polymérase virale) pour permettre l'activation de la transcription et de la réplication du virus.

Avec cette technique, il est désormais possible d'envisager de caractériser de nombreuses protéines intrinsèquement désordonnées, de mieux comprendre leur fonctionnement ou dysfonctionnement, et de développer à terme d'éventuels inhibiteurs pharmacologiques.

CEA

Vers le contrôle de la réponse immunitaire
Vendredi, 12/02/2010 - 00:00

Pourra-t-on, à l'avenir, moduler la réponse immunitaire et éviter ainsi le rejet d'un greffon ou bien le développement de maladies auto-immunes ? La perspective s'en rapproche avec la publication d'une étude apportant la preuve d'un nouveau concept : une molécule capable d'induire une tolérance immunologique tout en réduisant la toxicité du traitement immunosuppresseur. L'étude a été conduite sur des singes, macaques et babouins, ayant reçu une transplantation de rein ou de coeur par une'équipe de l'INSERM- CHU et université de Nantes, en collaboration avec des chirurgiens de la faculté de médecine de Baltimore (Maryland, Etats-Unis).

Après la ciclosporine sont apparues depuis le début des années 1980 des molécules aux puissantes propriétés immunosuppressives, qui ont permis l'essor de la transplantation d'organe. L'effet de ces molécules est grevé par une toxicité, notamment sur le plan immunologique, due à une inhibition non spécifique des défenses immunitaires. "Aucun des médicaments existants ne prévient efficacement le rejet éventuel de l'organe" greffé, soulignent les auteurs.

L'idée de Bernard Vanhove était donc de "bloquer les récepteurs activateurs de la réponse immunitaire sans bloquer les récepteurs qui l'inhibent". A cette époque, une population de globules blancs, les lymphocytes T, était de longue date identifiée comme "un acteur majeur de la réponse immunitaire après une allogreffe (avec un greffon étranger) et de l'auto-immunité", rappellent les auteurs. Ces cellules jouent un rôle décisif lors d'un rejet du greffon ou quand les défenses immunitaires se retournent contre l'organisme lui-même.

L'activation des lymphocytes T est induite par la reconnaissance d'antigènes spécifiques. Elle est aussi renforcée par des molécules costimulantes venant se lier à un récepteur appelé CD28, mais aussi à un autre récepteur, et qui régulent la différenciation des lymphocytes. Ceux-ci peuvent en effet devenir soit des cellules qui répondent au stimulus de l'antigène par une action pathogène, soit des cellules T régulatrices ("Treg") anti-inflammatoires. Ces Treg inhibent les réponses excessives du système immunitaire.

"Nous avons utilisé un anticorps monoclonal dirigé contre un seul type de récepteur, en l'occurrence le récepteur CD28. Avec cet anticorps, il y a production de cellules T régulatrices et maintien du signal de régulation nécessaire pour bloquer le rejet du greffon", rapporte Bernard Vanhove. Dans l'étude, les singes greffés suivaient un traitement immunosuppresseur classique auquel était ajouté, pour une partie d'entre eux, l'anticorps monoclonal anti-CD28.

La surveillance portait sur l'importance de la présence de cellules Treg ainsi que sur l'épaississement de la paroi des vaisseaux irriguant le greffon, phénomène baptisé "rejet chronique". Le traitement immunosuppresseur classique était arrêté au bout de trois mois, tandis que l'anticorps monoclonal n'avait été administré que pendant les trois premières semaines suivant la greffe.

"Nous avons suivi une stratégie de synergie. En parvenant à une immunomodulation, nous avons pu réduire les doses d'immunosuppresseur et, par conséquent, les effets secondaires classiquement observés", souligne Bernard Vanhove. En l'état actuel, l'étude ne permet cependant pas d'affirmer qu'il y aurait moins de rejets avec cette stratégie.

Après cette démonstration de la validité de ce concept stratégique, l'équipe nantaise va s'atteler à l'étape suivante : la préparer pour de futurs essais chez l'homme. "Dans un premier temps, nous devons d'abord disposer d'une molécule qui soit administrable chez l'homme, ce qui n'est pas le cas en l'état de l'anticorps monoclonal que nous avons utilisé. Puis, viendra l'essai de phase 1, consistant à établir l'innocuité du produit. Ultérieurement, nous chercherons à établir les preuves de l'efficacité de la nouvelle molécule", indique Bernard Vanhove.

LM

Malvoyants : des lunettes révolutionnaires dotées d'une caméra intégrée
Vendredi, 12/02/2010 - 00:00

On n'arrête pas le progrès : spécialisé dans la conception et l'innovation d'instruments destinés à corriger les défauts visuels physiologiques des malvoyants, Essilor a développé un nouveau système de rectification de l'image. Les prototypes fonctionnent : ces lunettes, munies d'une caméra intégrée, permettent la mise au point en temps réel de la réalité, et sa retranscription instantanée sur la rétine de son porteur, en fonction du handicap qu'il présente et de l'image qu'il se fait de la réalité.

Fixée sur la monture au-dessus du nez, et reliée à un ordinateur qui traite les images en temps réel, la caméra est également connectée à un micro-écran qui projette les images modifiées sur la rétine en transparence avec l'image naturelle que la personne perçoit.Denis Cohen-Tannoudji, directeur de la recherche et du développement "innovation de rupture" d'Essilor, précise que "ces lunettes sont transparentes de façon à conserver la propriété ophtalmique du verre. Grâce à elles, le malvoyant bénéficie d'informations visuelles supplémentaires se superposant à ce qu'il peut encore voir."

Ce prototype permet aussi bien à la personne malvoyante de zoomer ou de diminuer son champ visuel, que d'adapter son niveau de luminosité ou de contrastes, et enfin d'accentuer les fréquences spatiales. But de la manipulation : mieux déceler les contours des objets, ou encore apprécier leur profondeur. Ces lunettes sont une véritable évolution, car elles permettent au porteur de coordonner les mouvements de la main à celui des yeux. "Mieux voir le monde", le slogan d'Essilor, semble dans ces conditions tout à fait à propos.

Yahoo

Obésité : un cause génétique identifiée
Vendredi, 12/02/2010 - 00:00

Une étude publiée dans Nature par une équipe de chercheurs français, suisses ou britanniques confirment que l'obésité sévère peut avoir une cause génétique rare, un peu comme une maladie orpheline. Ils montrent aussi que ces causes sont parfois communes à l'obésité et à des pathologies neurologiques et psychiatriques.

L'équipe coordonnée par Philippe Froguel, chercheur au CNRS (Université Lille 2/Institut Pasteur de Lille) et à l'Imperial College London (GB), a mis en évidence un lien entre l'absence d'une partie du chromosome 16 et la survenue d'une obésité dite morbide, correspondant à un indice de masse corporel supérieur à 40 kg/m2.

Cette anomalie génétique, appelée microdélétion, a d'abord été identifiée par une équipe suisse (CHUV, Lausanne) chez une trentaine de patients souffrant d'obésité et de retard dans les apprentissages scolaires. La recherche a été étendue à huit cohortes européennes regroupant plus de 16.000 personnes. Dix-neuf personnes porteuses de cette délétion sur le chromosome 16 et atteinte d'obésité morbide ont été identifiées. En revanche cette microdélétion, qui implique la perte d'une trentaine de gènes, n'a été retrouvée chez aucune personne ayant un poids normal.

La perte de cette petite partie d'ADN augmente de 5000 % le risque d'obésité sévère chez les personnes qui en sont porteuses (le risque est multiplié par 50). La délétion est transmissible. Jusqu'à présent les variantes génétiques identifiées dans la survenue de l'obésité ont un impact plus modeste, de 10 à 50 % par gène, soulignent les chercheurs du CNRS.

Les chercheurs doivent encore déterminer le rôle de ces 31 gènes manquants dans l'obésité. De précédents travaux ont suggéré que certains étaient impliqués dans des pathologies psychiatriques comme l'autisme et la schizophrénie, ou des retards de développement.

Nature

Une nouvelle amélioration dans la chirurgie du cancer du sein
Vendredi, 12/02/2010 - 00:00

Actuellement, lors de l'ablation de la tumeur, de nombreuses équipes enlèvent par précaution la chaîne ganglionnaire où des métastases ont pu se répandre. Mais ce « curage axillaire », douloureux et qui entraîne des risques de lymphoedème - un dysfonctionnement du système lymphatique qui provoque notamment, des dèmes massifs du bras - n'est pas toujours indispensable.

Une autre technique est également employée, celle du « ganglion sentinelle » dont l'analyse permet de savoir si des métastases se sont répandues. Et si par conséquent, l'ablation de toute la chaîne ganglionnaire est nécessaire. Problème : cette analyse demande actuellement une quinzaine de jours ! Et la patiente doit subir une deuxième intervention

Un nouveau test de biologie moléculaire permet d'obtenir ce résultat en 30 minutes ! Si des métastases sont détectées, l'opération est simplement prolongée, immédiatement. Ce test n'est actuellement disponible que dans trois centres en France : le centre anticancéreux de Rennes, ainsi que les CHU de Rouen et Saint-Etienne.

DS

Découverte d'une molécule qui agirait sur de nombreux virus
Vendredi, 12/02/2010 - 00:00

Tout comme les antibiotiques dits à large spectre peuvent être efficaces contre un grand nombre de bactéries, une molécule qui agirait sur un grand nombre de virus - dont celui du sida, les virus grippaux ou encore le redoutable Ebola, qui provoque une fièvre hémorragique mortelle - a été découverte par des chercheurs américains. Ils ont montré son effet non seulement in vitro, en laboratoire, mais aussi in vivo, chez la souris. Leur étude vient d'être publiée par les Proceedings of the National Academy of Sciences (PNAS).

Les traitements antiviraux actuels sont relativement rares et très spécifiques. Durant un programme de criblage à haut débit de molécules pouvant avoir un effet antiviral, Mike Wolf de l'université de Los Angeles et ses collègues ont découvert une molécule, dont le nom de code est LJ001, active sur plusieurs virus. "Les virus peuvent être classés en deux catégories, selon qu'ils ont une enveloppe ou qu'ils n'en possèdent pas", rappellent les auteurs. "L'enveloppe est constituée d'une partie de la membrane de la cellule dans laquelle le virus s'est multiplié, qui est emportée par chaque nouveau virus sortant de la cellule." Or le LJ001 agit en interférant avec la membrane du virus qui - elle - ne peut pas se réparer, à la différence de la membrane cellulaire.

Les chercheurs ont montré in vitro que le LJ001 pouvait avoir une activité sur tous les virus à enveloppe, notamment Ebola et ses cousins, les virus de la grippe, celui de l'hépatite C, le West Nile, celui de la fièvre jaune, ceux de la famille de la variole ou encore des rétrovirus comme le VIH. Les chercheurs ont conduit des essais, chez la souris, sur les virus de la fièvre de la vallée du Rift et Ebola.

Alors qu'ils tuent toutes les souris infectées, le traitement par LJ001 a permis de faire survivre 100 % des animaux infectés par la fièvre de la vallée du Rift et 80 % de ceux infectés par Ebola. Aucune toxicité n'a été mise en évidence dans ces modèles. Enfin, en plus de sa capacité à cibler de nombreux virus, son mécanisme d'action devrait permettre d'éviter le développement de résistances, commentent les auteurs.

LP

Un patient en état végétatif présumé communique par la pensée
Vendredi, 12/02/2010 - 00:00

Grâce à l'imagerie par résonance magnétique, des chercheurs ont réussi à communiquer avec un patient en état végétatif depuis cinq ans. Le jeune homme a pu répondre par oui ou par non à des questions simples, expliquent des chercheurs dans la revue scientifique New England Journal of Medicine.

Ces résultats troublants obtenus par l'équipe d'Adrian Owen (University of Cambridge, GB) et de Steven Laureys (Université de Liège, Belgique) consolident leurs travaux précédents. En 2006 ils montraient qu'une femme en état végétatif avait une activité cérébrale similaire à une personne consciente et en bonne santé lorsqu'on lui demandait de s'imaginer jouant au tennis ou se promenant dans sa maison

Reprenant les bases de cette expérience menée sous IRM fonctionnelle, Owen et Laureys ont testé 54 patients diagnostiqués en état végétatif ou en état de conscience minimale (dans ce cas-là le patient peut répondre à des commandes mais est incapable de communiquer). Cinq ont répondu aux demandes -jouer au tennis ou déambuler dans une maison. Deux aires cérébrales différentes sont activées : l'une liée aux mouvements moteurs pour le tennis, l'autre à la spatialisation.

Allant plus loin, les chercheurs ont sélectionné l'un de ces cinq patients, un jeune homme de 22 ans diagnostiqué dans un état végétatif depuis cinq ans suite à un accident de la circulation. Pour 'voir' ses réponses sous IRM, les chercheurs lui ont demandé de s'imaginer jouer au tennis pour dire oui, marcher dans une maison pour dire non. Sur les six questions simples qui lui ont été posées (votre père s'appelle-t-il Alexandre, avez-vous une soeur...), le patient à répondu à cinq questions, avec cinq bonnes réponses. La sixième n'a pas provoqué d'activité cérébrale.

L'étude portait en tout sur 23 patients diagnostiqués comme en état végétatif. Chez quatre d'entre eux (17%), des "signes de conscience" ont été détectés par cette technique.Des personnes apparemment dans le coma "pourraient être interrogées sur leur douleur", explique la neurologue liégeoise Audrey Vanhaudenhuyse, en soulignant toutefois que "tous les patients en état végétatif ne sont pas conscients".La technique de l'IRMF pourrait également "permettre à des patients d'exprimer leurs sentiments et de répondre eux-mêmes à des questions difficiles comme celle de l'euthanasie", a pour sa part déclaré le professeur de l'université de Liège Steven Laureys.

NEJM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top